Handbuch Künstliche Intelligenz und die Künste 9783110655605, 9783110656978, 9783110657753

Artificial intelligence is booming: new methods are being developed, visions of the future sounded out, and innovative f

122 7 75MB

German Pages 475 [476] Year 2023

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
Inhalt
Künstliche Intelligenz und die Künste: Einleitung
Zum Begriff der ‚Künstlichen Intelligenz‘
Von Schach spielenden Automaten zu malenden Robotern. Erscheinungsformen und Ideengeschichte Künstlicher Intelligenz seit dem 18. Jahrhundert
Künstliche Intelligenz als Sujet in Kunst, Literatur und Medien
Literaturgeschichte der Künstlichen Intelligenz
Theatergeschichte der Künstlichen Intelligenz
Filmgeschichte der Künstlichen Intelligenz
Künstliche Intelligenz als Sujet zeitgenössischer Kunst
Die Darstellung Künstlicher Intelligenz in Computerspielen
KI-basierte Verfahren in den Künsten
Generative Literatur: Von analogen Romanmaschinen zu KI-basierter Textproduktion
KI-basierte Verfahren im Theater und in Performances
Künstliche Intelligenz in der Filmindustrie und im Filmbetrieb
KI-basierte Verfahren in der bildenden Kunst
Künstliche Intelligenz als Werkzeug in der Musik – Versuch einer historischen Einordnung
Künstliche Intelligenz und Musik
KI-Verfahren im Videospiel
Diskurse und Kontexte
Autorschaft und Künstliche Intelligenz
KI-Kunst: Künstlertum – Schöpfung – Originalität
Künstliche Intelligenz und Kreativität
Urheberschaft und Künstliche Intelligenz
Ethik und Künstliche Intelligenz
Authentizität und Künstliche Intelligenz
Künstliche Intelligenz, Gender und Kreativität
Exemplarische Analysen
Ian McEwans Machines Like Me (2019)
Critical Computation: Allison Parrish, Behnaz Farahi und Mimi Onuoha
Ghost in the Shell: der Science-Fiction-Anime im Kontext maschinenethischer Fragestellungen
Stefan Kaegi (Rimini Protokoll) / Thomas Melle: Uncanny Valley (2018)
Annie Dorsen: Algorithmisches Theater
Zach Blas und Jemima Wyman, im here to learn so :)))))) (2017)
REVIVE?! Musikaufführungen von und mit Multi-Agent-Systemen
AI Dungeon
Sachregister
Recommend Papers

Handbuch Künstliche Intelligenz und die Künste
 9783110655605, 9783110656978, 9783110657753

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Handbuch Künstliche Intelligenz und die Künste

Handbuch Künstliche Intelligenz und die Künste Herausgegeben von Stephanie Catani   unter Mitarbeit von Anna-Maria Hartmann

ISBN 978-3-11-065560-5 e-ISBN (PDF) 978-3-11-065697-8 e-ISBN (EPUB) 978-3-11-065775-3     Library of Congress Control Number: 2023941377   Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.dnb.de abrufbar.   © 2024 Walter de Gruyter GmbH, Berlin/Boston Einbandabbildung: in-future / iStock / Getty Images Plus Satz: Dörlemann Satz, Lemförde Druck und Bindung: CPI books GmbH, Leck   www.degruyter.com

Inhalt Stephanie Catani Künstliche Intelligenz und die Künste: Einleitung  1 Jana Koehler Zum Begriff der ‚Künstlichen Intelligenz‘  9 Bianca Westermann Von Schach spielenden Automaten zu malenden Robotern. Erscheinungsformen und Ideengeschichte Künstlicher Intelligenz seit dem 18. Jahrhundert  27

Künstliche Intelligenz als Sujet in Kunst, Literatur und Medien Maren Conrad Literaturgeschichte der Künstlichen Intelligenz  47 Ulf Otto Theatergeschichte der Künstlichen Intelligenz  83 Florian Lehmann Filmgeschichte der Künstlichen Intelligenz  97 Nora Benterbusch Künstliche Intelligenz als Sujet zeitgenössischer Kunst  116 Adrian Froschauer Die Darstellung Künstlicher Intelligenz in Computerspielen  134

KI-basierte Verfahren in den Künsten Stephanie Catani Generative Literatur: Von analogen Romanmaschinen zu KI-basierter Textproduktion  153 Christian Wobbeler KI-basierte Verfahren im Theater und in Performances  171

VI 

 Inhalt

Stephanie Catani Künstliche Intelligenz in der Filmindustrie und im Filmbetrieb  191 Fabian Offert KI-basierte Verfahren in der bildenden Kunst  202 Leila Zickgraf Künstliche Intelligenz als Werkzeug in der Musik – Versuch einer historischen Einordnung  217 Joachim Heintz Künstliche Intelligenz und Musik  227 Jasmin Pfeiffer KI-Verfahren im Videospiel  253

Diskurse und Kontexte Hannes Bajohr Autorschaft und Künstliche Intelligenz  265 Juliane Blank KI-Kunst: Künstlertum – Schöpfung – Originalität  281 Stephanie Catani Künstliche Intelligenz und Kreativität  297 Fabian Schmieder Urheberschaft und Künstliche Intelligenz  306 Tobias Matzner Ethik und Künstliche Intelligenz  317 Antonius Weixler Authentizität und Künstliche Intelligenz  335 Regina Ammicht Quinn und Jessica Heesen Künstliche Intelligenz, Gender und Kreativität  348

Inhalt 

 VII

Exemplarische Analysen Heike Mißler Ian McEwans Machines Like Me (2019)  369 Stephanie Catani Critical Computation: Allison Parrish, Behnaz Farahi und Mimi Onuoha  383 Sarah Klement Ghost in the Shell: der Science-Fiction-Anime im Kontext maschinenethischer Fragestellungen  391 Johannes Birgfeld Stefan Kaegi (Rimini Protokoll) / Thomas Melle: Uncanny Valley (2018)  402 Johannes Birgfeld Annie Dorsen: Algorithmisches Theater  412 Svetlana Chernyshova Zach Blas und Jemima Wyman, im here to learn so :)))))) (2017)  426 Miriam Akkermann REVIVE?! Musikaufführungen von und mit Multi-Agent-Systemen  439 Jasmin Pfeiffer AI Dungeon  456 Sachregister  461

Stephanie Catani

Künstliche Intelligenz und die Künste: Einleitung Die Idee zu diesem Handbuch geht zurück auf das Jahr 2018, als Berichte über kreative Künstliche Intelligenzen die internationalen Schlagzeilen dominierten. Beim Auktionshaus Christie’s in New York war gerade das KI-generierte Gemälde Edmond de Belamy für die Sensationssumme von 432.500 US-Dollar versteigert worden, die Sängerin Taryn Southern hatte mit I am AI das erste vollständig von unterschiedlichen KI-Programmen komponierte und produzierte Musikalbum veröffentlicht und im Jahr zuvor war mit „The Handsome One“ ein KI-generiertes Kapitel eines neuen Harry Potter-Bandes mit dem Titel Harry Potter and the Portrait of what Looked Like a Large Pile of Ash durch die New Yorker Künstlervereinigung Botnik Studios veröffentlicht worden. Die Wiener Digital-Kreativagentur TUNNEL23 hatte ein KI-Modell mit lyrischen Texten Goethes und Schillers trainiert und Gedichte verfassen lassen: Eines davon, mit dem Titel Sonnenblicke auf der Flucht, wurde 2018 in die renommierte Anthologie der Frankfurter Bibliothek aufgenommen und veranlasste nicht nur zahlreiche Feuilleton-Redaktionen, sondern auch die deutsche Schriftstellerin Ulla Hahn, ganz grundsätzlich nach der künftigen Rolle von KI für die Kunst der Zukunft und das literarische Schreiben im Besonderen zu fragen: „Gab es mehr derartiger Computer-Konkurrenten, bestrebt, uns Menschengeistern das Dichterhandwerk zu legen?“ (Hahn 2019). Blickt man heute, im Jahr 2023, auf diese nur wenige Jahre zurückliegenden Experimente mit generativen KI-Modellen zurück, erscheinen diese und die daraus resultierenden Kunstwerke geradezu anachronistisch. Tatsächlich haben wir in den letzten fünf Jahren eine bemerkenswerte Entwicklung im Bereich KI-generierter Kunst miterleben dürfen. Unter generativer KI sind dabei bild- und textgenerierende Modelle zu verstehen, die zumeist auf deep-learning-Techniken basieren, allen voran auf generativen Neuronalen Netzwerken (GANs) und autoregressiven Sprachmodellen, die ihrerseits mit häufig unüberschaubar großen Datensätzen trainiert werden, um neue Daten (Bilder, Texte, Musik, Videos u.  a.) zu erzeugen. Mit den inzwischen öffentlich zugänglichen großen generativen KI-Modellen, etwa (um hier nur die besonders schlagzeilenträchtigen zu nennen) OpenAI’s GPT-4, ChatGPT und DALL-E, die Text-to-Image-Generatoren Midjourney und Stable Diffusion sowie Bing Chat oder Google Bard, lassen sich Texte, Bilder und Videos generieren, die den einleitend genannten kreativen Experimenten hinsichtlich Stilistik, Originalität und Kohärenz weit überlegen sind und die Grenzen zwischen menschlichem und KI-generiertem Output, so scheint es, tatsächlich verschwinden lassen. https://doi.org/10.1515/9783110656978-001

2 

 Stephanie Catani

Der internationale Kunstbetrieb hat auf diese Entwicklungen längst reagiert und KI-Kunst in das Zentrum aktueller Ausstellungsprojekte gerückt (z.  B. UnRealArt, Amsterdam 2022; Refik Anadol: Unsupervised, MoMA, New York 2022–2023; Refik Anadol: Machine Hallucinations, Kunstpalast Düsseldorf 2023; deeep AI Art Fair, London 2022; ARTificial Intelligence SKY, Glasgow 2021; MACHINES VS. HUMAN ART, Berlin 2022). Erst vor wenigen Monaten wurde mit Dead End AI Gallery in Amsterdam die weltweit erste Galerie für KI-generierte Kunst eröffnet. Das mediale Echo auf diese Entwicklungen fällt laut und häufig kulturpessimistisch aus. So verkünden die Salzburger Nachrichten angesichts der neuen KI-Bilder „Das Ende der Kunst“ (Rausch 2023), Piotr Heller wirft im Deutschlandfunk Kultur unter dem Titel „Wenn künstliche Intelligenz Künstlern den Stil klaut“ (2022) urheberrechtliche und datenethische Fragen auf, Katrin Sohns befürchtet im Tagesspiegel „Das Ende menschlicher Kreativität“ (2023) und Zeit und Süddeutsche fragen gleichzeitig: „Bedrohen künstliche Intelligenzen die Kunst?“ (DPA 2023). Ungleich entspannter und mitunter gewitzter reagieren Kunstschaffende selbst, etwa der deutsche Künstler Mario Klingemann, einer der Pioniere im Bereich KIbasierter Kunst. Mit seinem jüngsten Projekt, dem Robot dog A.I.C.C.A. (Artificially Intelligent Critical Canine) stellt Klingemann eine ‚performative Skulptur‘ vor, genauer: einen sich auf Rädern durch einen Ausstellungsraum bewegenden Roboterhund mit eingebauter Hard- und Software. A.I.C.C.A. analysiert die ausgestellten Bilder – das integrierte bilderkennende Modell wurde vorab mit einem Korpus von verschiedenen Kunstwerken trainiert und bewertet die gesichteten Exponate mit Bezug auf deren Komposition, Farben und Größe (Mario Klingemann: A.I.C.C.A., Espacio SOLO Madrid 2023). Das Ergebnis der Bildanalyse gibt A.I.C.C.A. als Prompt an GPT-3 weiter mit der Aufforderung, daraus einen Text im Stil einer Kunstkritik zu formulieren. Diese KI-generierte Bildkritik wird vom Roboterhund schlussendlich als Papierstück ‚ausgeschieden‘ – durch sein Hinterteil. Das Projekt versteht sich Klingemann zufolge, ungeachtet der recht plakativen Schlussgeste, nicht als Abrechnung mit Kunstkritiker:innen, sondern vielmehr als Reaktion auf eine Kunstkritik, die sich immer mehr mit KI-generierten Werken auseinandersetzen müsse (Klingemann 2023, TC: 02:05–03:22). Mit der von A.I.C.C.A. ausgegebenen Bildkritik kehrt sich die ursprüngliche Konstellation (Mensch bewertet KI-Kunst) um, da nun nicht die Produktionsebene, sondern ausdrücklich die Rezeptionsebene, die konkrete Wahrnehmung von Kunst durch Künstliche Intelligenz, thematisiert wird. Klingemann zählt zu den Künstler:innen, die sich durch den technologischen Fortschritt herausgefordert, nicht aber bedroht fühlen. Mehrfach hat er Künstliche Intelligenz als neues und innovatives Werkzeug im ästhetischen Prozess verteidigt (Dean und Klingemann 2019), das nicht als Zerstörer, sondern als Katalysator gegenwärtiger Kunst fungiere (Gutsch und Klingemann 2021).

Künstliche Intelligenz und die Künste: Einleitung 

 3

Tatsächlich wird eben diese Frage, ob Künstliche Intelligenz lediglich ein neues Werkzeug darstellt oder an die Stelle des:der Künstler:in tritt, nicht nur in zahlreichen Beiträgen dieses Handbuchs relevant sein, vielmehr steht sie im Zentrum ­aktueller medialer und öffentlich geführter Debatten um die Gegenwart und Zukunft generativer Kunst. Bezeichnend ist hier der Auftritt von Mira Murati in der populären US-Late-Night-Show The Daily Show with Trevor Noah am 25. Oktober 2022. Mira Murati ist die technische Direktorin des Unternehmens OpenAI, das sowohl für die KI-Sprachmodelle GPT-1 bis GPT-4 verantwortlich zeichnet als auch für den Chatbot ChatGPT und die KI-basierten bildgenerierenden Modelle DALL-E und DALL-E 2. Das Gespräch zwischen Noah und Murati entzündet sich gleich zu Beginn an der Frage, wie KI-generierte Kunst zu bewerten sei: Murati sucht etwaige Angstszenarien zu relativieren, indem auch sie den Werkzeugcharakter der Modelle unterstreicht, die menschliche Kunst nicht für obsolet erklären, sondern optimieren sollen. Die neuen bildgenerierenden Modelle beschreibt sie als „human helper“, die ihr zufolge historisch bis in die Antike zurückzuführen seien: „These concepts of extending the human abilities and also being aware oft the vulnerabilities are timeless. In a sense, we are continuing this conversation by building AI technologies today“ (Video zum Interview unter https://www.youtube.com/watch?v=Ba_C-C6UwlI, TC: 02:35–02:49). Dass Murati und Noah die Möglichkeiten Künstlicher Intelligenz ausgerechnet mit Blick auf deren kunstschaffende Qualitäten diskutieren, ist kein Zufall, sondern exemplarisch für gegenwärtige wissenschaftliche wie öffentliche Debatten: Kunst, gemeinhin als privilegierter Ausdruck menschlicher Kreativität und Originalität verstanden, fungiert als Distinktionsmerkmal des Menschen, das ihn vom Tier und von der Maschine gleichermaßen unterscheidet. Gerade weil das Kunstschaffen und damit verbundene, historisch ebenso gewachsene wie überstrapazierte Konzepte von Originalität, Schöpfertum, Kreativität und Autorschaft gemeinhin dem Menschen vorbehalten scheinen, führt die Vorstellung einer Kunst, die automatisiert und ohne menschliches Zutun erfolgt, zu bedrohlichen Vorstellungen einer die Zivilisation in Frage stellenden künstlichen Übermacht. Gleichwohl darf die Aufmerksamkeit, die der Beziehung von Kunst und Künstlicher Intelligenz gegenwärtig zuteilwird, nicht darüber hinwegtäuschen, dass die Frage nach den Möglichkeiten und dem Einfluss ‚kreativer Maschinen‘ eine historisch tief verankerte ist: Die Geschichte des Computers, so lässt sich resümieren, ist von Beginn an eine der Computerkunst. Die Leistungsfähigkeit der Rechenmaschinen wurde immer schon an ihren Fähigkeiten festgemacht, Kunst zu erzeugen und damit einen ästhetischen Output zu generieren. Bereits in den 1960er Jahren und damit ein ganzes Jahrzehnt vor der Einführung der ersten in Größe, Fähigkeiten und Kosten für die Allgemeinheit bestimmten Personal Computer boomen Experimente mit den generativen, kreativen Möglichkeiten der zu diesem Zeitpunkt ausschließlich von Expert:innen bedienten Großcomputer. So skizzieren der

4 

 Stephanie Catani

deutsche Mathematiker und Kybernetiker Helmar Frank und sein Kollege Manfred Berger bereits 1963 in ihrem Beitrag „Die Roboter sind unter uns. Können Maschinen denken?“ die generativen Möglichkeiten nachrichtenverarbeitender Maschinen, die in der Lage seien, Musikstücke „im selben Stil, etwa dem einer Fuge von J. S. Bach oder dem eines Madison“ (Berger und Frank 1963, 27) zu komponieren. Unter dem Titel Cybernetic Serendipity (1968), kuratiert von Jasia Reichardt und nach einer Idee Max Benses, findet bereits 1968 am Londoner Institute of Contemporary Arts (ICA) die weltweit erste Ausstellung statt, die sich mit dem Einsatz von Computern und anderen elektronischen Technologien in der Kunst beschäftigt. Gezeigt werden computergenerierte Kunstwerke und interaktive Installationen, die die Beziehung zwischen Kunst und Technologie erkunden und in der Folge zur Popularisierung der Computerkunst beitragen. Herbert Werner Franke, der 1973 an der LMU München einen Lehrauftrag für „Kybernetische Ästhetik“ (später: Computergrafik – Computerkunst) übernimmt, hebt in seinem Beitrag „Kunst aus dem Computer“ (1970) die kreativen Möglichkeiten des Computers und sein Vermögen, Kunst zu schaffen, hervor – und antizipiert in seiner Abschlussbemerkung Überlegungen, die in der Gegenwart an Relevanz nicht verloren haben: „Andererseits ist das Spiel mit dem Computer, das Programmieren des Schönen, außerordentlich anregend. Es führt uns nicht nur zu der Frage, was ‚Schönheit‘ eigentlich ist, sondern legt auch nahe, darüber nachzudenken, was geschieht, wenn jemand mit Hilfe seiner schöpferischen Phantasie etwas gestaltet, ein Bild, ein Musikstück, ein Gedicht“ (Franke 1970, 62). Die Beiträge des Handbuchs sind sich dieser historischen Dimension eines eben nur auf den ersten Blick gegenwartsbestimmenden Themas bewusst – ihnen geht es nicht nur um eine aktuelle Bestandsaufnahme, sondern um die Kontinuität eines Diskurses, der mindestens zu den Anfängen der Computerkunst und der ersten ‚Rechenmaschinen‘ zurückführt. Neben der Produktionsebene, die Künstliche Intelligenz als Werkzeug im ästhetischen Prozess sichtbar macht, wird das Handbuch KI als favorisiertes Sujet in unterschiedlichen Kunst- und medialen Erscheinungsformen untersuchen. Die kreativen ‚Maschinen‘, die Fragen nach Kreativität, Autorschaft und Originalität derzeit neu aufwerfen, sind im Medium der Kunst immer schon mitgedacht worden – nicht zuletzt die Literatur- und die Filmgeschichte zeugen davon. Von antiken Mythen über romantische und fantastische Entwürfe bis zu dystopischen Imaginationen in moderner und postmoderner Science-Fiction: Die Idee künstlichen Lebens und Künstlicher Intelligenz hat die Künste seit jeher beschäftigt, lange bevor der Begriff der Künstlichen Intelligenz Eingang in die Wissenschaften und den öffentlichen Diskurs gefunden hat. Sowohl die Faszination als auch die Ängste, die das Thema auslöst, resultieren aus bildkünstlerischen, filmischen oder literarischen Entwürfen, die mit ihren Darstellungen unsere Vorstellungen von Künstlicher Intelligenz nicht selten antizipiert, in jedem Fall aber beeinflusst haben.

Künstliche Intelligenz und die Künste: Einleitung 

 5

Zum Aufbau des Handbuchs Das Handbuch möchte beiden genannten Bereichen gerecht werden und die Sujetebene ebenso in den Blick nehmen wie KI-basierte Produktionsprozesse. Zunächst wird in zwei einleitenden Beiträgen der Begriff der Künstlichen Intelligenz aus der Perspektive der Informatik wie aus einer kulturhistorischen Perspektive beleuchtet, dann folgt ein erster Schwerpunktteil, der sich mit Künstlicher Intelligenz als Thema und Motiv in spezifischen Künsten und Medien auseinandersetzt. Darauf folgt ein zweiter Teil, der KI-basierte Verfahren in den Künsten nachvollzieht und damit die gerade in den letzten Jahren virulent gewordenen generativen Verfahren untersucht. Im Anschluss daran widmet sich das Handbuch jenen Diskursen und Kontexten, die sowohl in wissenschaftlichen als auch gesellschaftlich-medialen Auseinandersetzungen aufgerufen werden, wenn es um das Thema Künstliche Intelligenz geht. Dazu gehören Fragen nach der Autorschaft und dem Künstlertum, nach Kreativität und Authentizität sowie juristische und ethische Perspektiven. Das Handbuch endet mit einer Auswahl von exemplarischen Analysen, die Einzelwerke aus den unterschiedlichen Künsten in den Blick nehmen. Aus den Bereichen Literatur, Film, bildende Kunst/Performance werden zumeist jüngere Werke untersucht, die entweder in ihrer Entstehung auf KI-basierte Verfahren zurückgreifen oder KI auf der Sujetebene thematisieren.

Exkurs: Zum Begriff der Künstlichen Intelligenz Die Herausforderung, der sich das vorliegende Handbuch zu stellen hat, liegt darin, einen alles andere als homogenen Begriff aus unterschiedlichsten Perspektiven zu thematisieren. Diese Schwierigkeiten bei der Begriffsbestimmung gehören zur Auseinandersetzung mit Künstlicher Intelligenz dazu und sollen in den vorliegenden Beiträgen nicht verschwiegen, sondern sichtbar gemacht werden. Denn noch immer gilt: Eine einheitliche, allgemeingültige und überzeitliche Definition von Künstlicher Intelligenz existiert nicht. Vielmehr ändern sich Bedeutungszuschreibungen abhängig von fachspezifischen Perspektiven, historischen Referentialisierungen und – allen voran – computerwissenschaftlichen Fortschritten, gerade im Bereich der Robotik und des maschinellen Lernens. Was die meisten Definitionsversuche eint, sind die Gegenüberstellung von Mensch und Maschine und der konsequente Vergleich ‚künstlicher‘ Schaffenskraft mit menschlicher. Die daraus resultierende grundsätzliche Anthropomorphisierung von KI ist besonders typisch für den öffentlichen, den gesellschaftlichen und den sozialen Diskurs, sie

6 

 Stephanie Catani

begegnet aber auch schon in einschlägigen fachspezifischen Bestimmungsversuchen. Exemplarisch ist jene Kurzdefinition der US-amerikanischen Informatikerin Elaine Rich, auf die Wolfgang Ertel in seiner praxisorientierten Einführung Grundkurs Künstliche Intelligenz (2021) verweist und der er zuschreibt, auch im Jahr 2050 „immer noch aktuell“ zu sein: „Artificial Intelligence is the study of how to make computers do things at which, at the moment, people are better“ (Ertel 2021, 3). Referenzpunkt für die Leistungskontrolle KI-basierter Systeme bleibt auch hier der Mensch – das Konkurrenzverhältnis zwischen künstlicher und menschlicher Intelligenz ist gewissermaßen per definitionem vorbestimmt. Die Anthropomorphisierung Künstlicher Intelligenz wird gerade dort radikalisiert, wo ihre kreativen, ihre kunstschaffenden Qualitäten in den Blick geraten. Eine empirische Studie aus dem Jahr 2020 hat gezeigt, dass im öffentlichen (bisweilen auch im wissenschaftlichen) Diskurs dort, wo es um KI-basierte Kunst geht, in der Regel nicht die im Hintergrund verantwortlichen menschlichen Künstler:innen, sondern allenfalls die beteiligten Informatiker:innen, meist aber nur die verwendeten KI-Modelle genannt werden. Die Studie weist in der Folge nach, dass das Narrativ des Maschinen-Künstlers menschen- sowie mediengemacht ist – durch die anthropomorphisierende Art, wie von Algorithmen, von Programmen und von Computern gesprochen wird. Die mediale Darstellung vermenschlicht die Künstliche Intelligenz nicht nur durch die Bilder, sondern auch durch die Wortwahl, mit der sie oft zum Antagonisten des Menschen erklärt wird: „In particular, anthropomorphizing the AI system mitigates the responsibility to the artist, while bolstering the responsibility of the technologist. Critically, this suggests that the responsibility that will be allocated to individuals in the creation of AI art will be dependent on the choice of language and framing used to discuss it“ (Epstein et al. 2020). Der dauernden ‚Vermenschlichung‘ Künstlicher Intelligenz lässt sich entgehen, wenn man eine Begriffsdefinition ernst nimmt, wie sie Stuart J. Russell und Peter Norvig in ihrem computerwissenschaftlichen Standardwerk Artificial Intelligence (2016) vorschlagen. Darin sprechen sich die KI-Forscher für einen Ansatz aus, der nicht allein das Humanoide künstlicher Systeme in den Blick nimmt und danach fragt, ob ein Programm menschlich denkt oder agiert (Russell und Norvig 2016, 2–3). Einem solchen human-centered approach setzen Russell und Norvig den rationalistischen Ansatz (rationalist approach) entgegen, der Künstliche Intelligenz daran misst, ob beim intelligenten Agenten ein rationales Handeln nachzuvollziehen ist. Ein solcher intelligenter Agent operiert autonom, bleibt über einen längeren Zeitraum bestehen und ist in der Lage, seine Umgebung wahrzunehmen, sich an Veränderungen anzupassen und Ziele zu verfolgen. Rational handelt ein solcher Agent dann, wenn er das beste (zu erwartende) Ergebnis erzielt. Russell und Norvig favorisieren den rationalistischen Ansatz zur Definition von Künstlicher Intelligenz, weil, so heißt es einleitend, „it is more amenable to scientific development than are

Künstliche Intelligenz und die Künste: Einleitung 

 7

approaches based on human behavior or human thought. The standard of rationality is mathematically well defined and completely general“ (Russell und Norvig 2016, 4). Der am Menschen orientierte Ansatz eignet sich ihnen zufolge weniger, weil er auf eine spezifische Umgebung ausgerichtet bleibt, und definiert ist von, „well, the sum total of all the things that humans do“ (Russell und Norvig 2016, 5). Ergänzen im Sinne einer pragmatischen, für die meisten Beiträge im Handbuch verbindlichen Arbeitsdefinition von Künstlicher Intelligenz lässt sich Russells und Norvigs Bestimmungsversuch durch die Frage nach der Lernfähigkeit künstlicher Systeme. Von Künstlicher Intelligenz wäre dann zu sprechen, wenn entsprechende Programme im Datenverarbeitungsprozess auch trainiert werden und, so heißt es in einem 2017 veröffentlichten Positionspapier des Deutschen Forschungszentrums für Künstliche Intelligenz, „damit lernen können und so bessere Ergebnisse erzielen als herkömmliche Verfahren, die nur auf starren, klar definierten und fest programmierten Regelwerken basieren“ (Bitkom e. V. und DFKI 2017, 29). Das vorliegende Handbuch hätte ohne die konzeptionelle und organisatorische Unterstützung durch eine ganze Reihe von Personen, die in unterschiedlichen Funktionen an seiner Entstehung mitgewirkt haben, nicht realisiert werden können. Allen Beiträgerinnen und Beiträgern sei gedankt für ihre engagierte und geduldige Mitarbeit, die angesichts der pandemiebedingten Umstände in den vergangenen Jahren einerseits und den zeitgleich in außerordentlichem Tempo voranschreitenden technologischen Entwicklungen andererseits vor besondere inhaltliche wie arbeitslogistische Herausforderungen gestellt wurde. Marcus Böhm, Lena Hummel und Julie Miess vom De Gruyter Wissenschaftsverlag haben das Projekt engagiert, mit Optimismus und großer Geduld begleitet. Juliane Blank und David Selzer waren eine wertvolle Hilfe mit ihrer freundlichen Bereitschaft, zahlreiche Beiträge kompetent und umsichtig Korrektur zu lesen. Ein besonderer Dank gilt Anna-Maria Hartmann, die für die finale Redaktion des Handbuchs sowie seine Einrichtung für den Druck verantwortlich war und darüber hinaus mit großer Kompetenz und der nötigen Umsicht das Projekt auf seiner unerwartet holprigen Schlussgeraden begleitet hat. Ihr großes Engagement und herausragender Arbeitseinsatz haben den erfolgreichen Abschluss des Projekts erst möglich gemacht.

Literaturverzeichnis Berger, Manfred und Helmar Frank. „Die Roboter sind unter uns: Können Maschinen denken?“. Das neue Universum 80 (1963): 8–34. Bitkom e. V. und DFKI (Hrsg.). Künstliche Intelligenz: Wirtschaftliche Bedeutung, gesellschaftliche Herausforderungen, menschliche Verantwortung. Berlin 2017.

8 

 Stephanie Catani

Cybernetic Serendipity: The Computer and the Arts. Hrsg. von Jasia Reichardt. London 1968. Dean, Martin und Mario Klingemann. Artist Mario Klingemann on Artificial Intelligence, Technology and our Future. https://www.sothebys.com/en/articles/artist-mario-klingemann-on-artificialintelligence-art-tech-and-our-future. 25. Februar 2019 (12. Juni 2023). DPA: „Bedrohen künstliche Intelligenzen die Kunst?“. Zeit Online. https://www.zeit.de/ news/2023-03/26/bedrohen-kuenstliche-intelligenzen-die-kunst. 26.3.2023 (12. Juni 2023). Und: Süddeutsche Zeitung. https://www.sueddeutsche.de/kultur/kunst-bedrohen-kuenstlicheintelligenzen-die-kunst-dpa.urn-newsml-dpa-com-20090101-230326-99-92462. 26.3.2023 (12. Juni 2023). Epstein, Ziv, Sydney Levine, Iyad Rahwan und David G. Rand. „Who gets credit for AI-generated Art?“. iScience 23.9 (2020). https://www.sciencedirect.com/science/article/pii/S2589004220307070 (12. Juni 2023). Ertel, Wolfgang. Grundkurs Künstliche Intelligenz: Eine praxisorientierte Einführung. Wiesbaden 2021. Franke, Herbert W. „Kunst aus dem Computer“. Das neue Universum 87 (1970): 55–62. Gutsch, Jochen und Mario Klingemann. „Wörter verhalten sich wie Pixel und Sätze wie Bilder“: Ein Gespräch mit Mario Klingemann. https://www.goethe.de/prj/k40/de/kun/kli.html (12. Juni 2023). Hahn, Ulla. „Vernunft ist auch eine Herzenssache“. Frankfurter Allgemeine Zeitung. https://www.faz.net/ aktuell/feuilleton/buecher/literatur-und-ki-vernunft-ist-auch-eine-herzenssache-16079038.html. 10.3.2019 (12. Juni 2023). Heller, Piotr: „Wenn künstliche Intelligenz Künstlern den Stil klaut“. Deutschlandfunk Kultur. https:// www.deutschlandfunkkultur.de/ki-kunst-kuenstler-100.html. 22.12.2022 (12. Juni 2023). Klingemann, Mario: A.I.C.C.A. Projektvideo 2023. https://vimeo.com/833988610 (12.Juni 2023) Rausch, Elena. „KI-Bilder: Das Ende der Kunst“. Salzburger Nachrichten. https://www.sn.at/jungeseite/ kuenstliche-intelligenz-das-ende-der-kunst-136781893. 8.4.2023 (12. Juni 2023). Russell, Stuart J. und Peter Norvig. Artificial Intelligence: A Modern Approach. Boston et al. 2016. Sohns, Katrin. „Das Ende menschlicher Kreativität“. Tagesspiegel. https://www.tagesspiegel.de/ die-woche-das-ende-menschlicher-kreativitat-9184701.html. 16.1.2023 (12. Juni 2023)

Jana Koehler

Zum Begriff der ‚Künstlichen Intelligenz‘ “To create an artificial being has been the dream of man since the birth of science. Not merely the beginning of the modern age when our for-bearers astonished the world with the first thinking machines – primitive monsters that could play chess. How far we have come. The artificial being is a reality of perfect simulacrum, articulated in limb, articulated in speech, and not lacking in human response […]. But what does it amount to?” (William Hurt, amerikanischer Schauspieler, als Professor Hobby im Prolog des Films A.I. Artificial Intelligence von Steven Spielberg (2001, TC 01:06:00–02:34:00))

1 Eine grundlegende Frage nach den Grenzen der Berechenbarkeit und ein Name für ein Forschungsgebiet 1950 stellt der englische Mathematiker Alan Turing die Frage, ob menschliche Intelligenz durch einen Computer berechnet werden kann und schlägt auch gleich einen Test vor, mit dem die Intelligenz eines Computers im Wettbewerb mit einem Menschen testbar wird (Turing 1950). „The new form of the problem can be described in terms of a game which we call the ‚imitation game‘. It is played with three people, a man (A), a woman (B), and an interrogator (C) who may be of either sex. The interrogator stays in a room apart from the other two. The object of the game for the interrogator is to determine which of the other two is the man and which is the woman […] It is A’s object in the game to try and cause C to make the wrong identification. The object of the game for (B) is to help the interrogator. […] We now ask the question, ‚What will happen when a machine takes the part of A in this game?‘ […] These questions replace our original, ‚Can machines think?‘ […] The new problem has the advantage of drawing a fairly sharp line between the physical and the intellectual capacities of a man.“ (Turing 1950, 433–434) Schaut man sich diese Originalformulierung von Alan Turing an, fällt der Genderaspekt des Tests ins Auge, der in späteren Interpretationen des Tests eher in Vergessenheit gerät und von Historikern mit der Verfolgung und Diskriminierung von Alan Turing aufgrund seiner Homosexualität erklärt wird. Auch wird im englischen Original nicht wirklich deutlich, ob ein Mann oder der Mensch allgemein gemeint ist, wenn Turing davon spricht, dass die Versuchsanordnung den Vorteil https://doi.org/10.1515/9783110656978-002

10 

 Jana Koehler

hat, „a fairly sharp line between the physical and the intellectual capacities of a man“ (Turing 1950, 434) zu ziehen. 1991 wurde der Turing-Test in Form der Loebner Competition erstmalig durchgeführt und danach mehrere Male wiederholt (Epstein 1992). Die anhaltende Kritik, insbesondere auch von Forscherinnen und Forschern (siehe zum Beispiel Hayes und Ford 1995), zeigt jedoch die Problemhaftigkeit eines solchen Ansatzes auf und hat den Test in der Bedeutungslosigkeit verschwinden lassen. Die Frage, was eine Künstliche Intelligenz (KI) letztendlich aber ausmacht und ob und wie sie vom Menschen abgegrenzt werden soll, hat jedoch mit den jüngsten Fortschritten des Gebiets eine erneute Aufmerksamkeit erfahren und umfassende Diskussionen initiiert. Diese Aufmerksamkeit wird mit dem Sieg des Watson Systems in der Quizshow Jeopardy! im Jahre 2011, bei der Fragen zu von den Spielerinnen und Spielern gewählten Sachgebieten beantwortet müssen, noch weiter befeuert. Als Besonderheit von Jeopardy! werden die Fragen als Aussagen formuliert, wie zum Beispiel in „Kathleen Kenyonʼs excavation of this city mentioned in Joshua showed the walls had been repaired 17 times“ [Kathleen Kenyon’s Ausgrabungen dieser Stadt, die im Buch Joseph erwähnt wird, zeigten, dass die Stadtmauer 17 mal wieder aufgebaut wurde], während die Antworten der Spieler als Fragen formuliert werden müssen. In diesem Beispiel antwortet Watson in einem Testspiel bei IBM Research mit der korrekten ‚Frage‘: „What is Jericho?“ [Was ist Jericho?]. Für die Leistung des KISystems Watson ist diese spezifische Art der Formulierung von Frage und Antwort allerdings völlig irrelevant, beeindruckend ist hier allein, dass Watson auch sehr komplexe Fragen in kurzer Zeit analysieren und beantworten kann. Es ist daher nicht erstaunlich, dass mit dieser Leistung der Turing-Test wieder in die Diskussion gerät (Shah 2011), da auch dort ein Computer gegen einen Menschen antritt, um Fragen zu beantworten, und Watson mit seinen Sieg 2011 gegen zwei der besten menschlichen Spieler immerhin eine Million an Preisgeld gewinnen konnte. Ist Watson damit intelligent? 1956, nur wenige Jahre nach dem Erscheinen von Turings Artikel, treffen sich amerikanische Forscher am Dartmouth College an der amerikanischen Ostküste, um ein Forschungsprogramm zu initiieren, das der Frage nach einer intelligenten Maschine nachgehen soll (McCarthy et al. 1955). John McCarthy, einer der beteiligten Forscher, prägt den Namen für dieses Programm: Künstliche Intelligenz. 1996 nahm die Autorin dieses Beitrags an einer Podiumsdiskussion mit John McCarthy auf der International Conference on AI Planning (AIPS) in Edinburgh teil, an der McCarthy sich rückblickend eher nicht so glücklich mit der Namenswahl zeigte und die damalige Diskussion zu einem geeigneten Namen für das neue Forschungsgebiet so reflektierte: „Wenn ich zurückschaue und sehe, welche Auswirkungen dieser Name auf unser Gebiet hatte, denke ich, ich hätte diesen Namen vielleicht besser nicht vorschlagen sollen. Wir diskutierten damals

Zum Begriff der ‚Künstlichen Intelligenz‘ 

 11

zwei Kandidaten: Komplexe Computeranwendungen und Künstliche Intelligenz. Niemand fand, dass der erste Name dem neuen Gebiet gerecht wird und man muss auch verstehen, dass wir jung waren und einen spannenden Namen für unser Gebiet wollten.“ (Gedächtnisprotokoll der Autorin; vgl. auch Computer History Museum 2017). Im Vorschlag für das Forschungsprogramm zur Künstlichen Intelligenz von 1955 (McCarthy et al. 1955, 2) findet sich eine konkrete Liste an Forschungsfragen, die untersucht werden sollen und deren Lösbarkeit auf der Grundlage der Hypothese angenommen wird, dass jeder Aspekt eines lernenden und intelligenten Systems so präzise mathematisch beschreibbar ist, dass er von einem Computer simuliert werden kann. „The study is to proceed on the basis of the conjecture that any aspect of learning or any other feature of intelligence can in principle be so precisely described that a machine can be made to simulate it. An attempt will be made to find how to make machines use language, form abstractions and concepts, solve kinds of problems now reserved for humans, and improve themselves.“ (McCarthy et al. 1955, 2). Die im Zitat formulierte Hypothese wird später von den KI-Forschern Alan Newell und Herbert Simon in Form der sogenannten Physical Symbol System Hypothesis pointiert auf den Punkt gebracht und damit Intelligenz zunächst als reine Symbolverarbeitung positioniert: „A physical symbol system has the necessary and sufficient means for general intelligent action.“ (Newell und Simon 1976, 116). In der KI-Forschung finden sich aber auch viele Vertreter anderer Positionen, die zum Beispiel die Notwendigkeit eines Körpers und die Auseinandersetzung mit der Umwelt als grundlegend für ein Begreifen der Welt im Wortsinn und damit auch intelligentes Verhalten ansehen (siehe u.  a. Brooks 1991). Auch der nachfolgende Beitrag von Bianca Westermann beschäftigt sich intensiv mit der Frage nach der Verkörperung eines intelligenten Systems.

2 Die Suche nach der Definition der Künstlichen Intelligenz So umfassend und vielfältig wie das Forschungsgebiet, so unterschiedlich sind auch die Versuche, Intelligenz bzw. Künstliche Intelligenz zu definieren. Eine Auflistung von über 70 Definitionen gibt der Bericht von Legg und Hutter (2007). Dabei fällt auf, dass für viele KI-Forscherinnen und -Forscher die Fähigkeit eines Systems, selbstgestellte Ziele zu erreichen, als sehr entscheidend angesehen wird. In künstlerischen Arbeiten wie auch in der KI-Forschung ist die Frage, inwieweit eine Maschine sich selbst Ziele stellen kann und soll oder ob diese Ziele vom Men-

12 

 Jana Koehler

schen vorgegeben werden sollen, immer wieder Gegenstand von Kontroversen. Besonders im Film werden oft Szenarien zu Ende gedacht, in denen sich von einer intelligenten Maschine gewählte Ziele gegen den Menschen richten, wie etwa in Kubrick’s 2001: A Space Odyssey (1968). Für die KI-Forschung der letzten 30 Jahre ist insbesondere die Metapher des rationalen Agenten prägend, wie sie im Lehrbuch von Russell und Norvig (2010) formuliert ist. Danach ist ein Agent rational, wenn er die folgenden vier Bedingungen erfüllt: Der Agent kann die Umwelt wahrnehmen. Diese Wahrnehmungen dienen als Grundlage für die Entscheidungen, die der Agent trifft. Die Entscheidungen führen zu Aktionen, die der Agent in der Umwelt ausführt. Die Entscheidungen müssen rational sein, das heißt, sie müssen zur bestmöglichen Aktion führen, die der Agent als Reaktion auf seine Wahrnehmungen in der Umwelt ausführen kann. Dabei wird rationales Denken, Entscheiden und Handeln als verschieden von menschlichem Denken und Handeln positioniert, da Menschen sich auch altruistisch verhalten können, statt nur den persönlichen Nutzen zu maximieren. Ausgehend von dieser Definition kann sich die Frage nach einer Definition Künstlicher Intelligenz an vier grundlegenden Fragen orientieren (Russell und Norvig 2003): Geht es um rationales Denken, das logisch und optimierend abläuft? Geht es um rationales Handeln auf der Grundlage bestmöglicher Aktionen, wobei rationales Denken nicht unbedingt eine Voraussetzung für rationales Handeln sein muss? Soll KI menschliches Denken simulieren, mit all seinen Fehlern? Soll KI menschliches Handeln in seiner ganzen Vielfalt imitieren und so dem Menschen ebenbürtig sein in allen Aufgaben? Die Auffassung und Haltung zu diesen Fragen bestimmen die Ausrichtung einzelner Forschungsgebiete innerhalb der KI. Der Unterschied zwischen einem Computer, der intelligent ist, und einem Computer, der menschliche Intelligenz imitiert, wird dabei als sehr grundlegend empfunden. Für einen Computer, der intelligent sein soll, aber menschliches Denken und Handeln nicht nachbildet, können ganz andere Methoden und Ansätze verfolgt werden und ein Studium der menschlichen Intelligenz ist nicht erforderlich. Tatsächlich hat dieser rationale Ansatz die Fortschritte der KI-Forschung durch eine konsequente Ausrichtung an mathematischen Methoden stark geprägt.

Zum Begriff der ‚Künstlichen Intelligenz‘ 

 13

3 Wichtige Teilgebiete und Methoden in der Künstlichen Intelligenz Die nachfolgende Abbildung zeigt eine Auswahl wichtiger aktueller Forschungsgebiete und Methoden in der KI und ordnet sie den Teilgebieten der Mathematik zu, auf denen diese Forschungsgebiete und Methoden wesentlich (aber nicht ausschließlich) beruhen.

Abb. 1: Überblick über wichtige Methoden und Gebiete der Künstlichen Intelligenz sowie ihre mathematischen Grundlagengebiete

Einige dieser Gebiete, wie zum Beispiel das Wissenschaftliche Rechnen, das u.  a. mit Hilfe von Computersimulationen Fragestellungen aus allen wissenschaftlichen Disziplinen beantworten kann, wurden zwar im ursprünglichen Vorschlag für das Forschungsprogramm zur Künstlichen Intelligenz von 1955 bereits angedacht, hatten sich aber in der Vergangenheit zu eigenständigen wissenschaftlichen Gebieten entwickelt. Erst in jüngster Zeit ergibt sich wieder eine stärkere Verbindung zu den Methoden der KI. „If a machine can do a job, then an automatic calculator can be programmed to simulate the machine. The speeds and memory capacities of present computers may be insufficient to simulate many of the higher functions of the human brain, but the major obstacle is not lack of machine capacity, but our inability to write programs taking full advantage of what we have“ (McCarthy et al. 1955, 2). Andere Gebiete, wie die mathematische Optimierung und Statistik, sind in der Mathematik angesiedelt, stellen aber grundlegende Methoden zur Verfügung, die für die KI gerade in jüngster Zeit sehr wichtig sind. Insbesondere haben sich innerhalb der letzten 20 Jahre in der KI-Forschung stark datengetriebene Methoden ent-

14 

 Jana Koehler

wickelt, für die statistische und quantitative Methoden zur Entscheidungsunterstützung unabdingbar sind. Aus historischer Sicht und basierend auf dem Ansatz des rationalen Denkens waren Methoden der mathematischen Logik in der KI vor allem in den 1980er und 1990er Jahren sehr einflussreich, um zum Beispiel logische Kalküle als Grundlage rationaler Denkgesetze einzusetzen (Wright 1996). In dieser Zeitspanne wurde in der KI-Forschung sehr intensiv untersucht, inwieweit menschliches Wissen in mathematischer Logik, insbesondere der sehr einfachen Aussagenlogik oder auch in Teilen der Prädikatenlogik, dargestellt werden kann, und inwieweit menschliches Denken sich durch logische Regeln abbilden lässt. Die Unschärfe menschlichen Denkens und die Komplexität der realen Welt hat einer rein logikbasierten KI jedoch sehr schnell die Grenzen aufgezeigt. Einerseits wurden logische Kalküle oft zu komplex und waren damit auch für Berechnungen schwer handhabbar, wie z.  B. deontische oder nichtmonotone Logiken. Andererseits ließen sich für viele Probleme nicht wirklich überzeugende und in allen Situationen funktionierende Lösungen finden. Sehr einfach lässt sich dies am Beispiel des sogenannten Nixon-Diamanten (eigentlich der Nixon-Raute) verdeutlichen, einem berühmten Beispiel aus der Geschichte der KI. Mit den folgenden vier Aussagen „Nixon ist ein Quäker.“ „Nixon ist ein Republikaner.“ „Quäker sind Pazifisten.“ „Republikaner sind keine Pazifisten.“

lässt sich mit Hilfe der klassischen Logik aus a) und c) ableiten, dass Nixon Pazifist ist, während aus b) und d) folgt, dass Nixon kein Pazifist ist, womit ein logischer Widerspruch entsteht. Die Schwierigkeit, subtile semantische Unterschiede zu modellieren, lässt sich anhand des folgenden Beispiels leicht erkennen. Mit dem Wissen „Max ist ein Mensch“ und „Kein Mensch kann fliegen“, lässt sich mit Modus Ponens korrekt schlussfolgern, dass Max nicht fliegen kann. Erfahren wir nun aber, dass Max Pilot ist, dann ist dieser Schluss nicht mehr korrekt, denn Max kann sehr wohl fliegen, aber hier ist mit dem Verb fliegen eine andere Art von Fliegen, nämlich das Fliegen mit einem Flugzeug, gemeint. Berühmt ist auch das von John McCarthy formulierte Frame-Problem (McCarthy und Hayes 1969), bei dem es darum geht, all das zu notieren bzw. zu berechnen, was sich in der Umwelt NICHT ändert, wenn ein Agent eine Aktion ausführt. Dieses Problem ist bis heute nicht zufriedenstellend gelöst. Betrachten wir einen Roboter, der eine Schachtel greift: Alle Objekte in der Schachtel werden in der Schachtel bleiben, wenn der Roboter die Schachtel transportiert. Ebenso werden sich andere Objekte

Zum Begriff der ‚Künstlichen Intelligenz‘ 

 15

in der Umgebung des Roboters nicht bewegen, zum Beispiel das Regal, von dem der Roboter die Schachtel genommen hat. Oder wird das Regal doch umfallen, weil der Roboter es umstößt, wenn er die Schachtel greift? Was passiert, wenn der Roboter die Schachtel leicht schräg hält oder wenn er sich abrupt dreht? Werden Objekte aus der schräg gehaltenen Schachtel fallen und wird der Roboter das Regal umstoßen? Das Beispiel verdeutlicht: Es gibt keine Regel ohne beliebig viele Ausnahmen, keine Aktion, deren direkte oder indirekte Effekte sich wirklich vollständig beschreiben ließen. Eine detaillierte Diskussion zum aktuellen Stand und den philosophischen Fragestellungen im Zusammenhang mit dem Frame-Problem findet sich in Shanahan 2016.

4 Maschinelles Lernen und Neuronale Netze Die Nutzung datengetriebener Methoden in der KI profitierte einerseits von den durch die Digitalisierung erzeugten umfangreichen und diversen Datenmengen, aber auch von einer immer verfügbaren hohen Rechenleistung in Form des Cloud Computing über das Internet. Damit rückten in den letzten Jahren vor allem die Methoden des maschinellen Lernens in den Mittelpunkt (Russell und Norvig, 2020), die große Datenmengen und umfangreiche Rechenleistung für das Trainieren benötigen. Dabei werden drei Formen von Lernen unterschieden: Beim nicht-überwachten (oder auch unüberwachten) Lernen werden Algorithmen eingesetzt, die nach Mustern und häufig auftretenden Zusammenhängen in Daten suchen und Datensätze anhand ihrer Ähnlichkeit gruppieren. Dabei benötigen diese Algorithmen keine Beispiele, wie sie gruppieren sollen oder welche Daten welche Muster aufweisen. Daher müssen sie auch nicht zuerst anhand solcher Beispiele trainiert werden. Sie kommen immer dann zum Einsatz, wenn unklar ist, worin Ähnlichkeiten zwischen Daten bestehen könnten, da sie diese sehr gut ausfindig machen können. Zum Beispiel kann ein solches Verfahren in einem Datensatz von Kunden diejenigen Gruppen identifizieren, die ähnliche Kaufgewohnheiten haben. Ebenso sind die Verfahren sehr gut geeignet, Anomalien und Unregelmäßigkeiten in Daten zu entdecken. Das überwachte Lernen benötigt Trainingsdaten, in denen Daten als Paare von Eingabewerten und gewünschten Ausgabewerten vorliegen. Anhand dieser Daten können überwachte Lernalgorithmen die Funktion approximieren, die zu einem gegebenen Eingabewert den richtigen Ausgabewert berechnet. Wird ein solcher Algorithmus zum Beispiel mit Bildern trainiert, die mit diversen Eingabeparametern beschrieben werden und jeweils als Ausgabewert das Objekt annotieren,

16 

 Jana Koehler

das auf dem Bild dargestellt ist, dann können diese Algorithmen sehr zuverlässig in der Bilderkennung eingesetzt werden, um das dargestellte Objekt zu identifizieren. Das verstärkende Lernen erlaubt es Algorithmen, durch aktives Experimentieren zu lernen. Dabei werden Aktionen in einer echten oder simulierten Umgebung ausgeführt, um ein konkretes vorgegebenes Ziel zu erreichen. Je nach Erfolg oder Misserfolg einer Aktion erhalten diese Algorithmen eine positive oder negative Rückmeldung aus der Umgebung, die ihnen hilft, die Erfolgsaussichten einer Aktion in einer bestimmten Situation besser einzuschätzen und zukünftig möglichst erfolgversprechende Aktionen zu bevorzugen. Ein autonomes Auto kann so zum Beispiel lernen, einzuparken, in dem es immer wieder versucht, eine Parklücke ohne Kollisionen zu erreichen. An diesem Beispiel wird sofort deutlich, dass das Lernen eher in einer simulierten Umgebung erfolgen sollte, da in der realen Umgebung zu viele Risiken vorhanden sind und fehlschlagende Aktionen echte Schäden verursachen können. Zu den wichtigsten Algorithmen im überwachten Lernen gehören die Neuronalen Netze, für die die Grundlagen bereits in den 1940er Jahren gelegt wurden (McCulloch und Pitts 1943). Neuronale Netze sind Graphen, d.  h. sie bestehen aus Knoten, die mit Kanten untereinander verbunden sind. Abbildung 2 zeigt links eine mögliche Anordnung der Knoten und Kanten eines Neuronalen Netzes. Ganz links (blaue Kästchen) ist die Eingabeschicht zu erkennen. In der Mitte befinden sich fünf verborgene Schichten, rechts sieht man die Ausgabeschicht, hier nur bestehend aus einem einzelnen Knoten (rosa Kästchen). Ein Eingabeobjekt, z.  B. ein Bild, wird durch eine Vielzahl von Parametern, z.  B. die Farbe eines bestimmten Pixels im Bild, beschrieben. Ein Knoten der Eingabeschicht des Netzes steht dabei für genau einen Parameter (‚Pixel 5‘) und nimmt den Wert dieses Parameters, 0,437, als Eingabe auf. Dieser Wert stellt den RGB-Code 112130056 für die Farbe „Olivgrün“ dar, der auf eine Zahl zwischen 0 und 1 normalisiert wurde. Zusätzlich enthalten die Eingabeschicht und die verborgenen Schichten jeweils noch einen zusätzlichen Knoten (‚Bias Neuron‘), dessen Wert 1 ist und der es Neuronalen Netzen erlaubt, z.  B. auch dann einen Ausgabewert zu berechnen, wenn alle Eingabewerte 0 sind. Die Kanten eines Neuronalen Netzes sind mit Gewichten (in der Regel Werte zwischen –1 und 1) versehen, die auf die weiterzuleitenden Datenwerte angewendet werden und diese entweder verstärken oder abschwächen. Die Berechnungen eines Neuronalen Netzes verlaufen dabei von der Eingabeschicht über die verborgenen Schichten zur Ausgabeschicht. Die Ausgabeschicht enthält oft nur ein einzelnes Neuron, das eine einfache Antwort mit einem Wert zwischen 0 und 1 liefert (1=Ja, 0=Nein). Mit diesem Ausgabeneuron kann zum Beispiel die Frage „Stellt das Bild einen Laubbaum dar?“ beantwortet werden. Werte zwischen 0 und 1 drücken Unsicherheit in der Antwort aus. 0.9 kann zum Beispiel bedeuten, dass das Netz sich ziemlich sicher ist, dass es

Zum Begriff der ‚Künstlichen Intelligenz‘ 

 17

sich um einen Laubbaum handelt, während es sich bei einem Wert von 0.1 eher nicht um einen Laubbaum handelt. Besonders bekannt und erfolgreich ist zurzeit das deep learning, das gerichtete Netze mit sehr vielen verborgenen Schichten und Knoten verwendet und vor allem auch die Eingabeparameter selbständig aus den Eingabedaten bestimmt. Die Architektur eines neuronalen Netzes ist bestimmt durch die Anzahl der Knoten und Schichten sowie die Aktivierungsfunktionen, die im Netz verwendet werden. Welche Architektur am besten zu welchem Anwendungsproblem passt und wie ein Anwendungsproblem am besten in ein Neuronales Netz kodiert wird, basiert auf empirischen Erfahrungswerten und ist Gegenstand intensiver Forschungen (vgl. hierzu auch Calin 2020).

Abb. 2: Neuronales Netz mit fünf verborgenen Schichten (links) und Berechnungen in einem einzelnen Knoten einer verborgenen Schicht. In Anlehnung an (Russel und Norvig 2020).

Jeder Knoten in einer verborgenen Schicht eines Neuronalen Netzes stellt eine einfache mathematische Berechnungseinheit dar, die auf die Eingabewerte an den eingehenden Kanten eine mathematische Funktion, die sogenannte Aktivierungsfunktion, anwendet und den Ergebniswert der Aktivierungsfunktion über die ausgehenden Kanten weitergibt. Diese Berechnung illustriert die rechte Seite in Abbildung 2. Als Aktivierungsfunktion können zum Beispiel Schwellwertfunktionen wie die softplus oder ReLU Funktion verwendet werden: Nur, wenn die Summe der eingehenden Daten einen bestimmten Schwellwert überschreitet, wird der Wert der Summe als Ausgabe weitergeleitet, andernfalls werden die Eingaben unterdrückt und es wird 0 weitergegeben.

18 

 Jana Koehler

Man unterscheidet gerichtete Netze, bei denen die Eingabeparameter an den Knoten der Eingabeschicht eingegeben werden, in nur einer Richtung durch alle Zwischenschichten des Netzes fließen und dann die Ausgabeschicht erreichen. Ungerichtete oder sogenannte rekurrente (rückgekoppelte) Netze erlauben es, dass Berechnungen in verschiedene Richtungen, also auch von der Ausgabeschicht wieder in die Eingabeschicht, fließen können. Beim Trainieren eines Neuronalen Netzes werden die Gewichte an den Kanten des Netzes gelernt. Zunächst werden beliebige Gewichte im Netz verteilt. Dann wird ein Trainingsdatensatz in das Netz gegeben und bestimmt, welche Ausgabe das Netz für diesen Trainingsdatensatz berechnet. Weicht diese Ausgabe vom erwarteten Ausgabewert für den Trainingsdatensatz ab, wird die Fehlerabweichung an der Ausgabeschicht des Netzes bestimmt. Anschließend wird dieser Fehler auf der Grundlage einfacher mathematischer Berechnungen über die Knoten der Zwischenschichten verteilt – jeder Knoten hat einen gewissen Anteil am Fehler. Nachdem der Fehleranteil eines Knotens bestimmt ist, können die Gewichte an den eingehenden Kanten zu diesem Knoten angepasst werden. Mit vielen Trainingsdatensätzen lernt das Neuronale Netz so die gewünschte Eingabe-Ausgabe-Funktion, indem es die Fehlerabweichung minimiert. Nach Abschluss der Trainingsphase kann dann das Neuronale Netz mit den gelernten Gewichten einfach und schnell den Ausgabewert zu einem Datensatz berechnen. Die Architektur eines Neuronalen Netzes, d.  h. die Anzahl der Schichten, der Knoten und ihrer Verbindungen, bleibt zurzeit beim Trainieren unverändert und wird vom Menschen auf der Grundlage vorhandener Expertise und Erfahrung gewählt. Es gibt aber bereits eine umfassende Forschung, die untersucht, wie auch die Netzstruktur gelernt oder angepasst werden könnte, was dann eher der Plastizität des menschlichen Gehirns entsprechen würde (siehe z.  B. Gaier und Ha 2019). Alle Ansätze des maschinellen Lernens haben das Problem, dass sie nicht garantieren können, wie gut das gelernte System in einer Anwendung funktionieren wird. Eine große Herausforderung stellt dabei die Qualität der Trainingsdaten dar. Diese sollten eine repräsentative Verteilung der Daten in einer Anwendungsdomäne abbilden, aber oft ist diese Verteilung nicht bekannt oder schwer zu bestimmen. Werden Neuronale Netze auf Probleme aus einem Teil des Anwendungsbereichs angewandt, den sie in der Trainingsphase nicht oder nur unzureichend gesehen haben, dann sind fehlerhafte Ausgaben sehr häufig. Dieses Problem wird auch als Concept Drift bezeichnet (Schlimmer und Granger 1986). Da sich die Umwelt eines Systems immer ändern wird, ist ein wiederholtes Trainieren und, wenn möglich, auch eine Überwachung eines möglichen Concept Drift notwendig. Ebenso können Neuronale Netze sehr leicht manipuliert werden, ohne dass es für den Menschen bemerkbar ist (Fawzi et al. 2017).

Zum Begriff der ‚Künstlichen Intelligenz‘ 

 19

5 ‚Schwache‘ und ‚starke‘ Künstliche Intelligenz Eine praktikable Lösung dieser Herausforderungen und auch des erwähnten Frame-Problems ist möglich, wenn KI-Systeme speziell auf eine konkrete Aufgabe zugeschnitten werden und diese Aufgabe in einer klar abgegrenzten Umgebung zu lösen ist, da dann die für die Lösung des konkreten Problems benötigten Daten und Algorithmen klar definiert werden können. Solche klar abgegrenzten Aufgaben sind zum Beispiel die Transkription gesprochener Sprache in Text, die maschinelle Übersetzung eines Texts von einer Ausgangssprache in eine Zielsprache oder die Erkennung von Objekten in Bildern, bei denen der Kontext des Bildes bekannt ist. Heute können bereits viele Methoden der KI erfolgreich in Anwendungen eingesetzt werden: Neuronale Netze haben sich bei der Sprachverarbeitung sehr bewährt und können heute auch sehr gute Ergebnisse in der Bildverarbeitung liefern. Erfolgreich im Einsatz sind logikbasierte Methoden zum Beispiel im Bereich der Ontologien und Wissensgraphen oder wenn komplexe Probleme auf simple aussagenlogische Formeln mit Millionen von logischen Variablen abgebildet werden. Sogenannte Satisfiability Checker (Biere 2009) prüfen dabei die logische Erfüllbarkeit der resultierenden Formeln und können so zum Beispiel sicherheitskritische Eigenschaften technischer Systeme verifizieren oder komplexe Produkte konfigurieren. Ein typisches Beispiel für fokussierte Anwendungen, bei denen eine Vielzahl unterschiedlicher KI-Methoden inklusive Neuronaler Netze erfolgreich integriert wird, sind Spiele, wie zum Beispiel Schach oder Go, die immer sehr gern von KIForscherinnen und -Forscher für die Entwicklung und das Testen ihrer Algorithmen herangezogen werden. Man spricht in diesem Zusammenhang oft von schwacher KI, also einem System, das dem Menschen vielleicht in einer Spezialaufgabe überlegen ist, d.  h. besser Schach spielt, aber bei anderen Aufgaben völlig versagt. Interessant ist dabei, dass sich die Methoden von Mensch und Maschine bei der Lösung dieser Spezialaufgaben nicht nur fundamental unterscheiden, sondern auch sinnvoll ergänzen und gegenseitig befruchten (Bushinsky 2009) – ein Umstand, der für die Anwendung von KI-Methoden in allen wissenschaftlichen Disziplinen spricht und uns vermutlich in der Zukunft weitere fundamentale Erkenntnisse erlauben wird. Eine starke KI, heute auch oft als Artificial General Intelligence (AGI) bezeichnet, versteht sich abgrenzend zur schwachen KI eher als eine KI, die dem Menschen in allen Belangen ebenbürtig oder sogar überlegen ist (Goertzel und Pennachin 2007; Goertzel 2014; Mindt und Montemayor 2020). Grundlegende philosophische, aber auch psychologische Fragestellungen spielen innerhalb der AGI damit eine ebenso große Rolle wie konkrete Fragen nach einem simulationsfähigen Modell des menschlichen Gehirns. Interessanterweise kommt hier auch wieder die Frage nach einer Neuinterpretation des Turing-Tests auf, da die AGI

20 

 Jana Koehler

sich ja im Vergleich zum Menschen misst. So gibt es zum Beispiel den Vorschlag, einen Roboter als Test erfolgreich die Grundschule absolvieren zu lassen. Während die sogenannte schwache KI intelligente Systeme auch ohne Bewusstsein entwickeln kann, spielt bei der starken KI der Zusammenhang zwischen (Alltags-) Intelligenz und Bewusstsein eine wichtige Rolle, der auch in der Kunst immer wieder thematisiert wird. Steven Spielbergs Film A.I. von 2001 bringt die Frage nach einer AGI auf den entscheidenden Punkt und lässt seinen Protagonisten im Prolog des Films das entsprechende Forschungsziel formulieren: „I propose that we build a robot child who can love. A robot child who will genuinely love the parent, or parents it imprints on with a love that will never end. […] You see, what I’m suggesting is that love will be the key by which they acquire a kind of subconscious never before achieved. An inner world of metaphor, intuition, of selfmotivated reasoning, of dreams.“ (Prolog aus Spielberg: Artificial Intelligence, 00:03:22–00:04:47) Ein dem Menschen ebenbürtiges KI-System, das in unserer Umwelt erfolgreich agieren kann, bringt uns damit wieder zur Frage, inwieweit KI-Systeme eigene Ziele verfolgen sollen und zwingt uns somit, unsere Haltung zu diesen Maschinen und ihren Rechten zu überdenken. Auch der nachfolgende Beitrag in diesem Buch spricht diese Frage in Form der ‚Gewöhnungsfähigkeit‘ an: Die Maschine rückt näher an uns heran. Wie gehen wir damit um? Spielberg thematisiert diese Problematik am Beispiel eines liebenden Roboterkindes. Der Prolog des Films endet mit der Frage einer Kollegin, dargestellt von April Grace, an den Protagonisten: „You know, it occurs to me with all this animus existing against Mechas [Roboter; J. K.] today, it isn’t simply a question of creating a robot who can love. But isn’t the real conundrum, can you get a human to love them back?“ (Prolog aus Spielberg: Artificial Intelligence, 00:04:52 – 00:05:07). Als Antwort erhalten wir hier nur die Aussage des Protagonisten, dass das Roboterkind seinen Menschen immer lieben wird, doch die Kollegin fragt nach: „But you haven’t answered my question. If a robot could genuinely love a person, what responsibility does that person hold toward that Mecha in return?“ [Prolog aus Spielberg: Artificial Intelligence, 00:05:20–00:05:33] Diese Frage wird nicht beantwortet. Eindrücklich bleibt der Gesichtsausdruck von William Hurt, der eine Mischung von Zweifel, Hilflosigkeit, Verstörtheit und Unverständnis widerspiegeln zu scheint. Der Film geht den Folgen des ungeklärten Verhältnisses zwischen dem Menschen und der intelligenten Maschine nach und auch wir wollen im letzten Teil dieses Beitrags diese Verantwortung des Menschen anhand heutiger KI-Anwendungen noch etwas weiter beleuchten.

Zum Begriff der ‚Künstlichen Intelligenz‘ 

 21

6 Aktuelle Anwendungen, ethische Fragestellungen und die Zukunft der KI Sprach- und bildbasierte Technologien haben einen sehr hohen Reifegrad erreicht. In einigen Anwendungsgebieten existieren bereits KI-Systeme, die Ergebnisse erzeugen, die von menschlicher Leistung nicht mehr unterscheidbar sind oder diese sogar übertreffen. Durchbrüche in der Spracherkennung mit deep learning haben es ermöglicht, sprachgesteuerte Assistenzsysteme zu entwickeln, denen wir Aufträge erteilen können, z.  B. im Navigationssystem des Autos, das übrigens den Weg mit Hilfe von KI-Suchalgorithmen berechnet. Ebenso können wir Fragen zu historischen oder aktuellen Ereignissen oder auch den unterschiedlichsten Wissensgebieten stellen, wie zum Beispiel an eine „Alexa“ auf einem Amazon Echo-Gerät. Komplexe Dialoge, die es erfordern, auch in einem wechselnden Kontext noch den Sinn einer Frage zu verstehen, können diese Systeme zwar noch nicht führen, aber sie sind doch bereits für verschiedenste Anwendungen sehr gut geeignet. Leider sind sie aber auch weitgehend intransparent für den Benutzer. Zu einer Maschine sprechen zu können, verändert die Interaktion zwischen Mensch und Maschine bereits grundlegend und so stellt sich die Frage, ob eine sprachfähige Maschine für den Menschen immer sofort als Maschine erkennbar sein sollte. Aus ethischer Sicht (High-level expert group 2019) erscheint eine solche Anforderung gerechtfertigt, um die geforderte Transparenz, Fairness und Erklärbarkeit im Umgang mit einem solchen System sicherzustellen. In der aktuellen Realität der verfügbaren Systeme scheinen diese Eigenschaften nicht vorhanden zu sein: Insbesondere der Einsatz vorwiegend weiblicher Stimmen, die in jeder Situation unterwürfig und freundlich bleiben, erscheint problematisch in seiner Auswirkung auf das Frauenbild. Erste Versuche, wie zum Beispiel die genderneutrale Stimme Q, stecken noch in den Anfängen und adressieren auch nicht das Ziel, eine maschinentypische Stimme zu entwickeln (siehe hierzu auch Q 2020). Eine Maschine bei uns zu haben, die uns auf Schritt und Tritt begleitet und viele sinnvolle Dienste anbietet, ist für die meisten Menschen seit dem Durchbruch des Smartphones Realität. Noch trägt der Mensch diese Maschine in Form eines kleinen Kastens herum. Zukünftig werden wir aber Maschinen nutzen, die selbständig mit uns gehen und einen eigenen Aktionsradius und eine gewisse Unabhängigkeit von uns haben. Seit kurzem ist eine solche, bereits recht robuste Maschine, der Roboter Spot (https://www.bostondynamics.com/spot), auf dem Markt erhältlich. Ob es Anwendungen geben wird, die sich wirtschaftlich rechnen, ist noch offen. Für den weiteren Erfolg solcher Maschinen werden ihre mechanischen Kunstfertigkeiten entscheidend sein. Wie gut können sie greifen oder laufen, d.  h. wie gut sind ihre Aktuatoren, sind diese unseren Händen und Beinen ebenbürtig

22 

 Jana Koehler

oder überlegen? Wie gut sind ihre Sinnesorgane, d.  h. ihre Sensoren, mit denen sie die Umwelt wahrnehmen? Und einerseits zwar ziemlich banal, aber andererseits marktentscheidend: Wie lange hält die Batterie bzw. wie wird die Energieversorgung sichergestellt? Zudem wird es eine Rolle spielen, ob wir diese Maschinen als unterstützend und bereichernd oder als bedrohlich wahrnehmen. Wie werden wir die Grenzen im Spannungsfeld von Nähe und Distanz, Abhängigkeit und Unabhängigkeit definieren? Aus juristischer Sicht ist es eine äußerst spannende Frage, ob ein Mensch zur Maschine werden kann, wenn sie:er immer weitere Teile des biologischen Körpers ersetzt, und ob umgekehrt eine Maschine zum Menschen wird, wenn sie immer mehr menschliche Fähigkeiten erwirbt. Diese Frage kulminiert im Problem der Schuldfähigkeit und Verantwortung: Haftet das KI-System für seine Fehler und wie treffen wir bewusste Entscheidungen in kritischen Situationen? Ein autonomes Fahrzeug trifft in einer Situation, die zu einem Unfall führen kann, seine Entscheidungen ganz anders als der Mensch. Während dieser eher unbewusst handelt und sich an seine Überlegungen und Handlungen kaum erinnern kann, entscheidet das autonome Fahrzeug auf der Grundlage deterministischer und stochastischer Berechnungen. Sehr eindrücklich werden die auftretenden Fragen im Moral Machine Experiment des MIT (https://moralmachine.mit.edu/) deutlich. In diesem Experiment stimmen Menschen ab, wie ein autonomes Fahrzeug im Falle eines unvermeidbaren Unfalls entscheiden soll. Hier hält uns die Technologie den Spiegel vor und fragt uns nach dem Wert eines Lebens (Awad 2020). KI-Technologien wie maschinelles Lernen oder Suchalgorithmen ermöglichen neue Anwendungen und Geschäftsmodelle. Ob eine Technologie das Gewünschte leistet und welcher Nutzen und welche Risiken damit verbunden sind, hängt von der Technologie und vom Kontext der Anwendung ab und kann nur innerhalb des Anwendungskontexts adressiert werden (Koehler 2018). Es gibt viele Beispiele für den erfolgreichen Einsatz von KI-Technologien in bestimmten Anwendungsbereichen. Es lässt sich aber auf dieser Basis nicht zuverlässig vorhersagen, dass die gleichen Technologien in anderen Bereichen genauso erfolgreich sein werden. Ein Beispiel dafür ist der bereits am Anfang des Artikels erwähnte Erfolg von IBMʼs Watson System, das mit seinem Sieg beim Spiel Jeopardy! das aktuelle Interesse an KI in der breiten Öffentlichkeit ausgelöst hat, aber die Erwartungen an einen Durchbruch in der medizinischen Diagnose und Behandlung nicht erfüllen konnte (Strickland 2019). Im Bereich der Künste führen KI-basierte Verfahren zu vollkommen neuen Ausdrucksformen, allen voran in der bildenden Kunst. Die von der Kunstkuratorin Marnie Benney 2019 ins Leben gerufene Webseite AIArtists.org etwa liefert einen Überblick über eine innovative Gemeinschaft von Künstlerinnen und Künstlern, die in ihrer kreativen Praxis auf KI-Technologien setzen und die damit verbundenen

Zum Begriff der ‚Künstlichen Intelligenz‘ 

 23

gesellschaftlichen und ethischen Herausforderungen in ihren Kunstwerken bereits selbstreflexiv verhandeln (vgl. aiartist.org [zuletzt abgerufen am 20.7.2020]). Neben der Reflektion der eigenen Geschichte (Crevier 1993; Nilsson 2010) setzt sich die KI-Community sehr aktiv mit der Ausrichtung ihrer zukünftigen Forschung auseinander (Gil und Selman 2019; Russell 2018). Dabei ist auch ein Vergleich mit historischen Reflexionen zu den Errungenschaften und Perspektiven der KI durchaus spannend (Hearst und Hirsch 2000; Schurmann 2001; Churchland und Churchland 1990), die sehr viele Ähnlichkeiten mit den aktuellen Diskussionen aufweisen. Neben kritischen Positionen (Brooks 2017; Austin et al. 2017), die einer generellen Künstlichen Intelligenz eher skeptisch gegenüberstehen oder diese zumindest als sehr weit in der Zukunft sehen, finden sich auch Positionen wie die SingularityThese von Ray Kurzweil (2005), nach der Computer die menschliche Intelligenz ungefähr im Jahr 2045 erreichen werden, woraufhin Mensch und Maschine zu einer Einheit verschmelzen. Bis es so weit ist, warten jedoch noch große Herausforderungen auf die KI-Forschung: Seit Jahrzehnten ungelöste Probleme sehr grundlegender Natur müssen geklärt werden, die ich als ‚die vier großen A‘ zusammenfassen und jeweils an einem Beispiel erklären möchte: Abstraktion: Menschen können recht einfach Zusammenhänge auf unterschiedlichen Abstraktionsstufen begreifen, beschreiben und erklären. Für KISysteme ist ein solcher Wechsel der Abstraktionsebene bisher nicht möglich. Das gelernte Wissen in einem Neuronalen Netz ist in der Netzarchitektur repräsentiert, die aus bis zu Millionen Knoten und Kanten und den gelernten Kantengewichten besteht – eine Darstellung, die für Menschen unverständlich bleibt und die Entscheidungen von Neuronalen Netzen bisher nicht erklärbar machen konnte. Um die numerische Darstellung des gelernten Wissens in natürlichsprachliche Begriffe abzubilden, müssen wir Abstraktionsprozesse verstehen und berechnen können. Analogie: Zusammenhänge zwischen zunächst anscheinend nicht zusammenhängenden Dingen zu erkennen, ist eine der Fähigkeiten, die die Kreativität von Menschen ausmacht. Wie sagte Schopenhauer bereits: „Daher ist die Aufgabe nicht sowohl, zu sehn was noch Keiner gesehn hat, als, bei Dem, was Jeder sieht, zu denken, was noch Keiner gedacht hat.“ (Schopenhauer 1988 [1851], 405) Es kommt also eher darauf an, Daten aus der Umwelt zu analysieren und neu zu interpretieren, als immer neue Daten zu sammeln, wobei Erfahrungen aus ganz anderen Anwendungsbereichen übertragen werden. Das Gebiet des Transferlernens in der Künstlichen Intelligenz versucht in diesem Zusammenhang auch, das analoge Schließen für KI-Systeme zugänglich zu machen, vgl. z.  B. (Wang und Yang 2011), wobei große Durchbrüche aber noch ausstehen. Argumentation: Entscheidungen nachvollziehbar zu begründen und anhand von soliden Fakten und Zielen zu rechtfertigen ist eine der Voraussetzungen, um in einem demokratischen Prozess zu Entscheidungen zu kommen, die für

24 

 Jana Koehler

die Beteiligten als gut und gerecht empfunden werden können. Sich mit Argumenten auseinandersetzen zu können und diese in das eigene Weltbild zu integrieren, es gegebenenfalls zu revidieren, ist eine der Fähigkeiten, die Intelligenz ausmacht. Alltagswissen: Erfolgreich den Alltag zu gestalten – von den Auswirkungen der grundlegenden physikalischen Gesetze in unserer Umwelt bis zu den wirtschaftlichen und sozialen Spielregeln einer Gesellschaft – ist eine unabdingbare Voraussetzung für die weitere erfolgreiche Entwicklung der Menschheit. Wollen KI-Systeme hier erfolgreich mitwirken, müssen sie Alltagswissen erwerben, verwenden und auch vergessen können. Am Ende wird es darauf ankommen, die Frage vom Anfang dieses Artikels aus dem Prolog von Spielbergs Film zu beantworten: „But what does it amount to?“ (Prolog aus Spielberg: Artificial Intelligence, 00:02:32–02:00:34). Die deutsche Fassung des Films fragt konkret nach den Folgen für uns: „Aber was haben wir davon?“ Aus der Sicht der Autorin sollten wir ganz einfach die Künstliche Intelligenz für das gute gelingende Leben  – auf Englisch flourishing life  – zum Erfolg führen (BBC 2019; Karger und Koehler 2019). Doch wie immer ist es das Einfache, das so besonders schwer zum Gelingen zu bringen ist.

Literaturverzeichnis Austin, Tom, Mike Rollings und Alexander Linden. „Hype Hurts: Steering Clear of Dangerous AI Myths“. Gartner Report G00324274. 03.07.2017. Awad, Edmond, Sohan Dsouza, Iyad Rahwan Shariff und Jean-François Bonnefon. „Universals and variations in moral decisions made in 42 countries by 70,000 participants“. Proceedings of the National Academy of Sciences 117.5 (2020): 2332–2337, hier zitiert nach: https://www.pnas.org/content/117/5/2332?fbclid=IwAR3Nvx7CrAwGypp_sgJUAcGndgrgC5o60vYelvkcc GcZvSh9kAZOXSjWDM (03. März 2023). BBC. Flourishing in the Age of AI. http://downloads.bbc.co.uk/mediacentre/flourishing-in-the-age-of-ai. pdf. 2019 (26. Juni 2020). Biere, Armin, Marijn Heule, Hans van Maaren und Toby Walsh. Handbook of Satisfiability, Amsterdam 2009. Brooks, Rodney. „Intelligence without representation.“. Artificial intelligence 47.1–3 (1991): 139–159. Brooks, Rodney. „The Seven Deadly Sins of Predicting the Future of AI“. https://www. technologyreview.com/2017/10/06/241837/the-seven-deadly-sins-of-ai-predictions/. Technology Review 120.6 (2017) (03. März 2023). Bushinsky, Shay. „Deus Ex Machina: A higher Creative Species in the game of Chess“. AI Magazine 30.3 (2009): 63–70. Calin, Ovidiu. Deep Learning Architectures: A Mathematical Approach. Cham 2020. Computer History Museum. Oral History of John McCarthy. https://www.youtube.com/ watch?v=KuU82i3hi8c. Interview vom 11.09.2017 (5. Februar 2021).

Zum Begriff der ‚Künstlichen Intelligenz‘ 

 25

Churchland, Paul M. und Patricia Smith Churchland. „Ist eine Denkende Maschine möglich?“ Spektrum der Wissenschaft 3 (1990): 47–54. Crevier, Daniel. The Tumultuous History of the Search for Artificial Intelligence. New York City 1993. Epstein, Robert. „The Quest for the Thinking Computer“. AI Magazine 13.2 (1992): 80–95. Fawzi, Alhussein, Seyed-Mohsen Moosavi-Dezfooli, Omar Fawzi und Pascal Frossard. „Universal adversarial perturbations.“ Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, IEEE 2017: 1765–1773. Ferrucci, David A. „Introduction to This is Watson“. IBM Journal of Research and Development 56.3.4 (2012): 1. Gaier, Adam und David Ha. „Weight Agnostic Neural Networks“. Advances in Neural Information Processing Systems (2019): 5364–5378. Gil, Yolanda und Bart Selman. „A 20-Year Community Roadmap for Artificial Intelligence Research in the US“. A Computing Community Consortium (CCC) workshop report 2019. Goertzel, Ben und Cassio Pennachin (Hrsg). Artificial General Intelligence. Berlin 2007. Goertzel, Ben. „Artificial general intelligence: concept, state of the art, and future prospects“. Journal of Artificial General Intelligence 5.1 (2014): 1–48. Hayes, Patrick und Kenneth Ford. „Turing test considered harmful“. Proceedings International Joint Conference on Artificial Intelligence (IJCAI). Volume 1 (1995): 972–977. Hearst, Marty und Haym Hirsch. „AI’s greatest trends and controversies“. IEEE Intelligent Systems, January/February (2000): 8–17. High-level expert group on artificial intelligence set up by the European Commission. https:// digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai. Ethical Guidelines for Trustworthy AI 2019 (15.03.2023). Karger, Reinhard und Jana Koehler. „Better L-AI-fe: Künstliche Intelligenz für das Gute Leben“. DFKINewsletter 44 (2019): 6–7. Koehler, Jana. „Business Process Innovation with Artificial Intelligence: Levering Benefits and Controlling Operational Risks“. European Business & Management. 4.2 (2018): 55–66. Kurzweil, Ray. The singularity is near: When humans transcend biology. New York City 2005. Legg, Shane und Markus Hutter. „A Collection of Definitions of Intelligence“. Technical Report 07-07, IDSIA Lugano, 2007. McCarthy, John, Marvin L. Minsky, Nathaniel Rochester und Claude E. Shannon. „A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence“. 31.08.1955, Nachdruck in AI Magazine, 27.4 (2006):12–14. McCarthy, John und Patrick J. Hayes. „Some Philosophical Problems from the Standpoint of Artificial Intelligence“. Machine Intelligence 4. Hrsg. von B. Meltzer und D. Michie. Edinburgh 1969: 463–502. McCulloch, Warren und Walter Pitts. „A logical calculus of the ideas immanent in nervous activity“. Bulletin of Mathematical Biophysics, 5 (1943): 115–133. Mindt, Garett und Carlos Montemayor. „Roadmap for Artificial General Intelligence: Intelligence, Knowledge, and Consciousness“. Mind and Matter, 18.1 (2020): 9–37. Newell, Allen und Herbert A. Simon. „Computer Science as Empirical Inquiry: Symbols and Search“. Communications of the ACM, 19.3 (1976):113–126. Nilsson, Nils. The Quest for Artificial Intelligence: A History of Ideas and Achievements. Cambridge 2010. Q. The first genderless voice, https://www.genderlessvoice.com. (6. Februar 2021). Russell, Stuart und Peter Norvig. Artificial Intelligence: A Modern Approach, Pearson Education, 2. Auflage (2003), 3. Auflage (2010), 4. Auflage (2020).

26 

 Jana Koehler

Russell, Stuart. Interview about the Long-Term Future of Artificial Intelligence. https://www.youtube.com/ watch?v=KsZI5oXBC0k 2018. Artificial Intelligence Podcast by Lex Friedman (25. Juni 2020). Schlimmer, Jeffrey C. und Richard H. Granger. „Beyond incremental processing: Tracking concept drift“. 5th National Conference on Artificial Intelligence (AAAI), 1986: 502–507. Schurmann, Kyle. „Artificial Intelligence and Expert Systems: AI is Not Yet Programmed to Love“. How Computers Work, Smart Computing Part 1. http://gec.di.uminho.pt/discip/MaisAC/HCW/si10.htm. August 2001 (25. Juni 2020). Schopenhauer, Arthur. Parerga und Paralipomena: Kleine philosophische Schriften. Zweiter Band. Hrsg. von Ludger Lütkehaus. Zürich 1988 [Berlin 1851]. Shah, Huma. „Turing’s misunderstood imitation game and IBM’s Watson success“. Annual Convention of the UK Society for the Study of Artificial Intelligence and Simulation of Behaviour (AISB), Invited Talk, 2011. Shanahan, Murray. „The Frame Problem“. Stanford Enyclopedia of Philosophy. https://plato.stanford. edu/entries/frame-problem/. 8. Februar 2016 (6. Februar 2021). Strickland, Eliza. „How IBM Watson Overpromised and Underdelivered on AI Health Care.“ https:// spectrum.ieee.org/biomedical/diagnostics/how-ibm-watson-overpromised-and-underdeliveredon-ai-health-care. IEEE Spectrum, April 2019 (25. Juni 2020). Turing, Alan. „Computing Machinery and Intelligence“. Mind 49 (1950): 433–460. Wang, Huayan und Qiang Yang. „Transfer learning by structural analogy“. Proceedings of the AAAI Conference on Artificial Intelligence 25.1 (2011): 513–518. Wright, Robert. „Can Machines Think.“ Time Magazine, 25.03.1996: 50–58.

Bianca Westermann

Von Schach spielenden Automaten zu malenden Robotern. Erscheinungsformen und Ideengeschichte Künstlicher Intelligenz seit dem 18. Jahrhundert Vor rund 250  Jahren konstruierte Wolfgang von Kempelen einen mechanischen Türken, der sein Publikum in Staunen und Bewunderung versetzte, gewann der Automat (1769) im Schachspiel doch meist gegen seine menschlichen Herausforderer. Gaby Wood sieht in dem mechanischen Schachspieler gar die Geburtsstunde der Künstlichen Intelligenz (vgl. Wood 2002, xxv): „The Automaton Chess Player embodied a riddle about humanity – could a machine think“ (Wood 2002, 90)? Dass eine Maschine – zumindest im Rückblick auf das ausgehende 18. Jahrhundert – diese Frage aufwerfen konnte, führt Wood auf die Natur des Schachspiels selbst zurück: „it is not merely a game or a series of calculations, but a mechanical way of thought“ (Wood 2002, 90). Was verbindet die kunstvollen Automaten des 18. Jahrhunderts, unter denen von Kempelens Schachtürke ebenso ein Paradebeispiel wie eine Ausnahme ist, mit gegenwärtigen Robotern wie z.  B. Pindar van Armans Portraits von malenden Robotern, die der Künstler und Robotiker als ‚kreativ‘ beschreibt? Das vorliegende Kapitel kann keine detaillierte Geschichte der Automaten des 18. Jahrhunderts und keine auf Vollständigkeit ausgerichtete Darstellung der (Vor-)Geschichte und Entwicklung Künstlicher Intelligenz liefern. Vielmehr werden schlaglichtartig historische Zäsuren, prägende Ideen und ihre zeitgenössischen Reformulierungen aus kulturwissenschaftlicher Perspektive beleuchtet, die einerseits überzeitliche Konstanten erkennen lassen und andererseits prägnante Veränderungen aufzeigen. Wenngleich das 18. Jahrhundert kunstvolle Automaten hervorbrachte, die mit Musikinstrument und Zeichenstift dem gebildeten Menschen nacheiferten, waren die Erfinder und Mechaniker doch weit von einem Automaten entfernt, der das Schachspiel tatsächlich beherrschte. Es ist deshalb nicht verwunderlich, dass von Kempelen mit seinem Schach spielenden Türken einen geschickten Trickautomaten konstruierte. Bereits früh vermutete man, dass sich im Inneren des Automaten ein menschlicher Schachspieler befände. Erst 1857 wurde jedoch die tatsächliche Funktionsweise des Automaten veröffentlicht (Standage 2005, 166). Obwohl von Kempelen das Interesse an seinem Schachtürken schnell verlor – vielleicht gerade weil es sich um einen Trickautomaten handelte – und seine Aufmerksamkeit der Konstruktion eines aus heutiger Sicht bedeutungsvolleren Sprechapparats zuwandte, war der Schachtürke sein wohl berühmtester Automat. Er unterhielt nach von https://doi.org/10.1515/9783110656978-003

28 

 Bianca Westermann

Kempelens Tod 1804 noch bis zum Tod seines zweiten Besitzers Johann Nepomuk Mälzel 1838 die staunende Öffentlichkeit in Europa und Amerika. Dass der Schachtürke mit Unterbrechungen knapp 70 Jahre das Publikum faszinieren und gleichzeitig hinters Licht führen konnte, wird im Kontext der Automatenbegeisterung des 18. Jahrhunderts verständlich. Erst vor diesem Hintergrund erschien die Existenz eines tatsächlich Schach spielenden Automaten im letzten Drittel des 18.  Jahrhunderts überhaupt vorstellbar. Von Kempelens Schachtürke reiht sich in eine ganze Reihe berühmter Automaten ein, die seit den 1730er Jahren aus heutiger Sicht kreative Kulturfertigkeiten des Menschen kunstvoll mechanisch nachahmten und so – gerade auch im Kontext des zeitgenössischen Mechanismus und Materialismus – die Grenze zwischen Mensch und Maschine, zwischen biologischer und künstlicher Intelligenz ebenso wie zwischen biologischem Körper und maschinellem Simulakrum zur Diskussion stellten. In diesem Sinne sind die lebensgroßen anthropomorphen Automaten des 18. Jahrhunderts auf ihre ganz eigene Art und Weise als Manifestation der kulturellen Figuration des künstlichen Menschen zu verstehen. Als Topos kann die Figur des künstlichen Menschen als Konstante der Kulturgeschichte betrachtet werden. Die Ahnenreihe künstlicher Menschen ist lang: Die antike griechische Mythologie ist bevölkert von artifiziell erschaffenen Wesen und belebten Statuen, und das Mittelalter brachte Homunculi, Alraune und Golem hervor. (vgl. u.  a. Völker 1994). Auf die Automaten des 18. Jahrhunderts folgten im beginnenden 20. Jahrhundert Roboter als technische Manifestation der Arbeitskraft des Menschen (vgl. u.  a. Westermann 2012). Automaten und Roboter als zwei (früh-)moderne Variationen des Motivs des künstlichen Menschen weisen dabei über ihre variantenreichen und differenzierten Ausprägungen hinweg zwei Konstanten auf: (1) Beide Figurationen des künstlichen Menschen bevölkern nicht nur die Welt der Fiktionen, sondern sind auch tatsächliche Artefakte der Technikgeschichte. Es ist gerade dieses Changieren zwischen Fiktion und Artefakt, das als ein Kernelement der überzeitlichen Faszination des künstlichen Menschen ausgemacht werden kann. Während die fiktionale Auseinandersetzung mit Automaten- und Roboter-Figuren die an dieses Motiv geknüpften Hoffnungen und Ängste im Kontext ihrer jeweiligen Zeit verhandelt, loten tatsächliche Realisationen dieser beiden artifiziellen Nachbildungen des Menschen häufig die Grenzen des jeweils technisch Möglichen aus. Denn es sind (2) die aktuell avanciertesten Wissenschaften bzw. Technologien ihrer Zeit, die eine faktische Realisation einer technischen Kopie des Menschen – die einem je eigenen zeitgenössischen Anspruch unterworfen ist – ermöglichen sollen. Eine Möglichkeit, die Genealogie des künstlichen Menschen zu klassifizieren, besteht darin, die Methoden zu differenzieren, durch die eine artifizielle Schöpfung verwirklicht werden sollte: Während Rudolf Drux mit der Unterscheidung zwischen

Von Schach spielenden Automaten zu malenden Robotern 

 29

„Retorten“- und „Maschinenmenschen“ zwei Herstellungsprinzipien – bio-chemisch vs. mechanisch – unterscheidet (Drux 2001, 68), differenziert Helmut Swoboda drei methodische Genealogien des künstlichen Menschen, indem er „magisch-mystische“ von „biologischen“ und „technischen“ Ansätzen abgrenzt (Swoboda 1967, 11). Mit Ausnahme magisch-mystischer Wege zum künstlichen Menschen, handelt es sich bei diesen Kategorisierungen keinesfalls um reine Historisierungen. Die Diskurse um Gentechnologie und Klonen einerseits und um Künstliche Intelligenz und Robotik anderseits zeigen, dass gegenwärtig bio-chemische und mechanisch-technische Ansätze nebeneinander bestehen und im Kontext von Bio-Technologie und Bio-Computing auch miteinander verschmelzen. Spätestens mit dem Blick auf die Gegenwart – man denke etwa an van Armans Roboter als ein spezifisches Anwendungsbeispiel gegenwärtiger Künstlicher Intelligenz – wird eine weitere Perspektive deutlich, die geeignet ist, die lange Geschichte des künstlichen Menschen zu differenzieren: Die Frage lautet, welche Zielsetzung mit der künstlichen Nachbildung des Menschen verfolgt wird. Soll ‚der Mensch‘ in seiner Ganzheit oder sollen spezifische Teilaspekte artifiziell nachgebildet werden? Wenn es sich um Teilaspekte handelt, welche werden im jeweiligen zeitlichen Kontext als nachahmenswert eingestuft? Diese Frage zielt weniger auf eine technische Realisierbarkeit als darauf, welcher Aspekt als so entscheidend für den Status des Menschseins betrachtet wird, dass eine artifizielle Nachbildung als Marker für zumindest eine Äquivalenz zum Menschen gesehen werden kann. In dieser Perspektive wird die Künstliche Intelligenz zu einer spezifischen Ausformung des Topos des künstlichen Menschen.

1 Mechanisierte Kulturfertigkeiten Die Komplexität des Verhältnisses zwischen Mensch und technischer Nachahmung, die nicht zuletzt als Spiegel ihrer Zeit verstanden werden muss, zeigen die Automaten des 18. Jahrhunderts treffend. Als von Kempelen und nach ihm Mälzel den Schachtürken präsentierten, geschah dies in Form einer durchdachten schaustellerischen Inszenierung. Bereits Jacques de Vaucanson, dessen drei im Jahr 1738 vor der französischen Akademie der Wissenschaften präsentierten berühmten Automaten (Le Flûteur, Le Joueur de Tambourin und Le Canard Digérateur) rund 20 Jahre vor der Präsentation des Schachtürken die Hochzeit der Automaten des 18.  Jahrhunderts eingeläutet hatten, hat seine mechanischen Werke im Rahmen einer reisenden Schauvorführung gezeigt, für die das staunende Publikum Eintritt zahlte. Dabei war es nicht das Ziel, in einem aufklärerischen Sinne über die Funktionsweisen und -potenziale der kunstvollen Mechaniken zu informieren, die auf die Prinzipen des Uhrmacherhandwerks zurückgingen. Vielmehr sollte die öffent-

30 

 Bianca Westermann

liche Zurschaustellung vor zahlendem Publikum die handwerklichen Fertigkeiten der Konstrukteure herausstellen und gleichzeitig als notwendige Einnahmequelle dienen, um den eigenen Lebensunterhalt, aber auch zukünftige Werke zu finanzieren. So gehörte es zur Inszenierung dazu – zum Teil gegen einen Aufpreis –, dem Publikum das mechanische Innere, die kunstvoll ineinandergreifenden Zahnräder und Walzen zu zeigen, allerdings weniger um Verständnis für die Funktionsweisen dieser inneren Mechanismen zu wecken, denn als Zurschaustellung der inneren Komplexität der anthropomorphen Mechanismen – nicht zuletzt, um das Können der Automatenbauer unter Beweis zu stellen (vgl. auch Westermann 2016). Ein Großteil der Automaten des 18. Jahrhunderts zeigte mechanische Realisationen menschlicher Kulturtechniken, die heute als kreativ beschrieben werden können: So wurden im 18.  Jahrhundert nicht nur Musikautomaten präsentiert, sondern auch schreibende und zeichnende anthropomorphe Mechaniken. Nicht vergessen werden darf hierbei, dass diese – heute mehr oder minder verbreiteten Kulturtechniken – zur damaligen Zeit kein verbreitetes Allgemeinwissen darstellten, sondern gebildeten Schichten vorbehalten waren. Die große Gemeinsamkeit der berühmten Automaten Vaucansons und Jaquet-Drozʼ (um exemplarisch die wohl berühmtesten Automatenbauer des 18. Jahrhunderts neben von Kempelen zu nennen), die sie von dekorativen Tischspielen und musikalischen Figurenuhren des 17. Jahrhunderts unterscheidet, ist die Tatsache, dass die Automaten Vaucansons keine überdimensionierten Spieluhren waren, bei denen ein Uhrwerk die Musik erzeugte oder den Zeichenstift antrieb. Diese Automaten waren lebensgroße, mechanische, dem Menschen nachempfundene Körper, die Musik ebenso wie Zeichnungen und kurze Texte schufen, indem sie ein Musikinstrument, aber auch einen Stift beinah wie ein Mensch nutzten. Das Augenmerk der Automatenbauer lag dabei darauf, einen dem biologischen Körper funktional äquivalenten mechanischen Körper zu schaffen, der dem Menschen potentiell ebenbürtig Musikinstrument und Zeichenstift beherrschte und somit die der Konstruktion eingeschriebenen Inhalte, wie Musikstücke oder kurze Texte, wiedergeben konnte. Das Ziel war es, eine funktionale Nicht-Unterscheidbarkeit zum Menschen zu erreichen. Vaucanson rühmte sich beispielsweise, dass Le Joueur de Tambourin schneller und besser das Zusammenspiel von Hirtenflöte und Trommel beherrsche als manch mittelmäßiger menschlicher Musiker (Vaucanson 1748, 23). Das Augenmerk lag dabei auf der kunstvollen mechanischen Nachahmung der eigentlichen Tätigkeitsausführung, nicht der Produktion eigener Inhalte durch die Automaten. Aus einer medienwissenschaftlichen Perspektive lassen sich die Automaten des 18. Jahrhunderts damit auch als spezifisch formierte Wiedergabemedien verstehen. Als geschickte Konstrukteure ihrer Zeit lag die Motivation der Automatenbauer nicht zuletzt darin, auszuloten, was mechanisch realisierbar war. Wenn Automatenbauer wie von Kempelen, Vaucanson oder Jaquet-Droz Anatomen und Ärzten über

Von Schach spielenden Automaten zu malenden Robotern 

 31

die Schulter schauten, um die Biologie des Körpers zu verstehen, dann nicht, weil es ihr Ziel war, eine strukturgleiche Mechanik zu bauen, sondern um die Funktionspotentiale des Biologischen mechanisch nachbilden zu können. Dieses Bestreben ist im Kontext – jedoch nicht als simpler Beweis – des materialistischen und mechanistischen Körperverständnisses des 18. Jahrhunderts zu werten. Philosophen wie René Descartes im 17.  Jahrhundert und Julien Offray de La Mettrie im 18.  Jahrhundert haben beide versucht, den biologischen Körper anhand mechanistischer Analogien zu erklären. Descartes verglich in der Mitte des 17.  Jahrhunderts den menschlichen Körper mit einer (hydraulischen) „Gliedermaschine“ (Descartes 1994 [1641], 19), bei der „man bedenke, daß die Funktionen in dieser Maschine alle von Natur aus allein aus der Disposition ihrer Organe hervorgehen, nicht mehr und nicht weniger, als die Bewegungen einer Uhr oder eines anderen Automaten von der Anordnung ihrer Gewichte und ihrer Räder abhängen“ (Descartes 1969 [1632], 135–137), und La Mettrie kam in der Mitte des 18. Jahrhunderts zu dem („kühnen“) Schluss, „daß der Mensch eine Maschine“ sei (La Mettrie 2001 [1747], 94), nichts anderes als „nur eine Uhr“ (La Mettrie 2001 [1747], 77). Obwohl beide sich darin einig sind, dass das Zusammenspiel der biologischen Organe äquivalent zu mechanischen Funktionsweisen zu verstehen ist, widersprechen sich die Ansätze dieser beiden Philosophen fundamental in ihrer Ausgangsposition: Während der Mechanist Descartes eine grundsätzliche Trennung zwischen der ausgedehnten Materie und dem denkenden Geist annahm, gingen für den Materialisten La Mettrie die Seele und das Denken aus dem Materiellen hervor. Diese grundlegende Differenz spiegelt sich auch im jeweiligen Verständnis von Bewegung, die zur damaligen Zeit als Beleg für Belebung galt: In Descartesʼ Modell muss die Bewegung von außen – durch einen göttlichen Funken – in die Materie eingebracht werden, wo sie sich selbstständig erhält. La Mettrie versteht Bewegung als eine aus der Materie selbst hervorgehende Eigenschaft, die damit gleichsam zum Maß der Belebtheit wird und eine Differenzierung des Grades der Belebung ermöglicht. Während aus heutiger Perspektive die exakte Wiederholung ihrer Bewegungen die Automaten als eindeutig mechanisch kodiert, war es im 18. Jahrhundert gerade umgekehrt. Die äußerlich sichtbaren Bewegungen der anthropomorphen Figuren wurden als Spiegel einer inneren Bewegtheit gedeutet, die als Belebung verstanden wurde. Allerdings haben weder die Philosophen die ästhetischen und anthropomorphen Kulturmechaniken als finalen, faktischen Beleg verstanden, noch die Automatenbauer ihre anthropomorphen Mechanismen als direkten Beleg der Schriften der Mechanisten und Materialisten konzipiert: Wenn Descartes die hydraulischen Fontänen in Fontainebleau als Funktionsanalogie des biologischen Körpers heranzieht oder La Mettrie Vaucansons Automaten zitiert, geht es beiden Philosophen darum, eine mechanische Funktionsanalogie des biologischen Körpers zu veranschaulichen.

32 

 Bianca Westermann

Diese zitierten Mechaniken fungieren damit als Funktionsmodelle, die dem Zweck dienen, Erklärungsansätze für den biologischen Körper und nicht zuletzt das Leben selbst zu liefern. Die Wechselwirkung zwischen zeitgenössischer Philosophie und Automatenbau ist damit gleichsam kulturtheoretisch komplex: Basierend auf einem analogen Grundgedanken, einem mechanistischen Körpermodell, öffnen Philosophie und Automatenbau die Grenze zwischen Biologie und Mechanik für Aushandlungen und prägen wechselseitig die Vorstellungen von Körper und Technik. An einem zweiten, vielleicht dem berühmtesten Trickautomaten des 18. Jahrhunderts, der in den Reihen der Automaten dieser Zeit eine Sonderstellung einnimmt, lässt sich dieses komplexe Wechselverhältnis erläutern: Vaucansons verdauende Ente, Le Canard Digérateur, die dadurch hervorsticht, dass sie gerade keine Kulturtechnik mechanisch realisiert, sondern die urbiologische Eigenschaft der Verdauung. Da Vaucansons Automaten heute verschollen sind, ist nicht abschließend belegt, dass es sich bei der Ente tatsächlich um einen Trickautomaten handelte, der die aufgepickten Körner nicht wirklich verdaute. Dies mutet umso verwunderlicher an, da sich Vaucanson mit seiner verdauendenden Ente zu einem zeitgenössischen Streit der Mediziner positionierte. Zum Zeitpunkt der Konstruktion der Ente war die Funktionsweise der Verdauung noch unbekannt. Man vermutete, dass Verdauung entweder als chemischer Prozesse (Auflösung) oder als mechanischer Prozess (Zerreibung) verstanden werden müsse. In seiner überlieferten Konstruktionsbeschreibung der Ente erläutert Vaucanson, dass diese durch „Dissolution, nicht aber Trituration, wie viele Physici behaupten wollen, verdauet“ (Vaucanson 1748, 21). Dass nun ein herausragender Mechaniker seiner Zeit ausgerechnet der These folgt, dass Verdauung ein chemischer Prozess sei und dann vorgab, diesen mechanisch realisiert zu haben, mag verwundern. Allerdings stellt er in der Beschreibung der Ente seine mechanische Konstruktionsleistung in den Vordergrund und kündigt lediglich an, das Prinzip der Verdauung zu einem späteren Zeitpunkt detaillierter auszuführen, ohne dieser Ankündigung jemals nachzukommen. Jessica Riskin interpretiert Vaucansons Ente daher nicht nur als zeitgenössischen Beleg, dass die Verdauung als chemischer Prozess verstanden werden könne, sondern auch als Experiment, das die Grenzen zwischen lebenden und nicht lebenden Mechanismen austesten sollte (Riskin 2003a, 615). Sebastian Klotz liefert eine auf den ersten Blick überraschende wie auf den zweiten Blick überzeugende These, die das Vorgehen Vaucansons erklärt: Beweggrund für die Täuschung könnte der Präsentationsmodus der Automaten gewesen sein. Der tatsächliche Akt einer mechanisch realisierten, chemischen Verdauung hätte zu viel Zeit in Anspruch genommen, als dass er im Rahmen der Vorführung, in der auch die beiden Musikautomaten zur Schau gestellt wurden, hätte präsentiert werden können (Klotz 2006, 178). Klotzʼ These lässt die Gemengelage der Motivation

Von Schach spielenden Automaten zu malenden Robotern 

 33

hinter dem Bau der Ente erkennbar werden. Das erkenntnisgeleitete Bestreben, biologische Funktionsprinzipien mechanisch zu realisieren, lässt sich nicht trennscharf von schaustellerischen Überlegungen zur unterhaltsamen Inszenierung trennen. Vaucansons Ente war somit dreierlei: wissenschaftliches Experiment, vermeintliches anatomisches Funktionsmodell und nicht zuletzt ästhetisches Objekt der Schaulust. Ein Gewöhnungseffekt beim Publikum, der immer raffinierte Mechanismen erforderlich machte, um die Faszination ebenso wie den Eindruck von Belebung und Vitalität aufrecht zu erhalten, manifestiert sich in drei Automaten aus dem Hause Jaquet-Droz, die rund 30 Jahre nach Vaucansons Automaten und nur wenige Jahre nach von Kempelens Schachtürken – im Jahr 1774 – präsentiert wurden: zwei kleinen Kindern nachempfundene Automaten, der schreibende L’Écrivain und der zeichnende Le Dessinateur, die von einer jungen Frau, die ein Tasteninstrument spielt, komplettiert wurden (La Musicienne). Jeder dieser drei Automaten macht ein bisschen mehr als zu schreiben, zu zeichnen oder zu musizieren. Ihnen allen wurden zusätzliche Mechanismen eingebaut, die als Reflextion des eigenen Schaffens interpretierbar sind: So dreht der Schreiber seinen Kopf und prüft somit scheinbar sein Handeln, während der Zeichner über seine Zeichnungen pustet, gerade so, als wolle er verhindern, dass diese verwischen. Am elaboriertesten sind jedoch die Zusatzmechanismen der Musikerin, die Klotz als „technische Implementierung von Empfindsamkeit“ (Klotz 2006, 327) beschreibt. Die musizierende Automate seufzt und bewegt die Augen, so als wäre sie selbst ganz gerührt von ihrer Musik. Diese zusätzlichen Mechanismen allein über eine Steigerung dessen, was technisch realisierbar war, zu erklären, greift dabei zu kurz, lassen sich diese Zusatzmechanismen doch mehr noch als Maßnahme gegen den angesprochenen Gewöhnungseffekt beim Publikum interpretieren, das geschickt musizierende Automaten bereits gesehen hatte. Für diese Lesart spricht nicht zuletzt, dass die ergänzenden Mechanismen, etwa die Augenbewegungen der Musikerin, zum Teil unabhängig vom Hauptmechanismus abliefen und daher keinesfalls an bestimmte Passagen des Musikspiels gekoppelt waren. Diese vermeintlichen Reaktionen der künstlichen Musikerin auf ihr eigenes Spiel mussten also als zufällig bzw. vom eigenen Spiel inspiriert wirken. In diesem Kontext wird deutlich: Einem Publikum, das an derart funktionspotente Automaten gewöhnt ist, das anthropomorphe Mechanismen gesehen hat, die verdauen aber auch Musikinstrumente spielen, muss auch ein Schach spielender Automat nicht unmöglich erschienen sein. Bis es nicht nur denkbar, sondern auch umsetzbar war, einen Schach spielenden Automaten zu bauen, der fähig ist, einen ausgezeichneten menschlichen Schachspieler zu schlagen – dies geschah in Form des Supercomputers Deep Blue, der 1997 den Schachweltmeister Garri Kasparow besiegen konnte –, waren nicht nur technische Innovationen erforderlich, sondern ebenso ein verändertes Verständnis des Verhältnisses von Körper und Maschine.

34 

 Bianca Westermann

2 Industrialisierte Arbeit und digitalisiertes Denken Als verkörperte technische Kopien des Menschen scheinen die Automaten des 18.  Jahrhunderts als direkte Vorgänger der im 20.  Jahrhundert aufkommenden Roboter lesbar zu sein. Während jedoch die Automaten im ausgehenden 18. und beginnenden 19.  Jahrhundert wieder zu reinen Jahrmarktsobjekten und Spielzeugen werden, die nicht länger als kulturelle Provokation wirken, treten in der Literatur vermehrt Automaten auf, die gerade aufgrund ihrer potentiellen NichtUnterscheidbarkeit zum Menschen zum Moment des Unheimlichen werden (vgl. exemplarisch E.T.A. Hoffmann, Die Automate 1814; sowie Der Sandmann 1816). Diese Verschiebung ins Fiktionale und die spätere Verdrängung des Motivs durch andere Figurationen des künstlichen Menschen geht mit einer Wandlung des vorherrschenden Menschenbilds, aber auch des Technikverständnisses einher. Während im ausgehenden 18. und beginnenden 19.  Jahrhundert sich das Menschen- und daran geknüpft auch das Bild des Körpers mehr und mehr von mechanistischen Momenten löst (Wittig 1997, 53–54), wandelt sich im Kontext der Industrialisierung das normierende Technikverständnis hin zu der Idee einer Arbeitsmaschine, die auch das prägende Verständnis des biologischen Körpers verändert (Wood 2002, xviii). Erst diese sich langsam und schrittweise vollziehende Transformation ermöglichte es, dass knapp 200 Jahre nach Vaucansons Automaten – zu Beginn der 1920er Jahre – Roboter unter gänzlich anderen Vorzeichen die Bühne der westlichen Welt betreten. Kurz nach der fiktionalen Erfindung dieser Figuration des künstlichen Menschen (Čapek 1920–21) wurden bereits erste Industrieroboter entwickelt. Roboter sind nicht länger ästhetische Maschinen, die dem Menschen durch die Ausführung kultureller Fertigkeiten nacheifern; sie sind  – ganz im Kontext ihrer Zeit stehend  – industrielle Arbeitsmaschinen, die der Arbeitsentlastung bzw. -erleichterung dienen. Waren Automaten auf eine Gleichwertigkeit, d.  h. eine Nicht-Unterscheidbarkeit zum kulturell handelnden Menschen ausgerichtet, haben Roboter den Menschen schon immer in spezifischen Teilaspekten überwunden und humane Leistungspotentiale technisch transformiert: Als gleichsam verzerrtes Spiegelbild sind Industrieroboter als komplexe, lernfähige und vermeintlich nichttriviale Maschinen zu verstehen, die in zweiter Ebene als partielle Übersteigerung des Menschen gelten können, wenn sie sich in ihren spezifischen Anwendungskontexten als stärker, ausdauernder und widerstandsfähiger als jeder menschliche Arbeiter erweisen. Haben die Automaten des 18.  Jahrhunderts  – als artifizielle Analogie eines zweckfreien, der Ästhetik unterworfenen Handelns – noch ‚Kunst‘ hervorgebracht, sind Roboter  – als technisches Äquivalent eines ökonomischen,

Von Schach spielenden Automaten zu malenden Robotern 

 35

der industriellen Produktion unterworfenen Handelns  – in einem ganz und gar industriellen Sinne artifizielle Arbeitssklaven, die einen Marktwert erzeugen. Die Automaten lassen sich somit als Simulation des kulturellen Menschen verstehen, während Roboter als Transformation des arbeitenden Menschen interpretiert werden müssen. Dabei ist das Faszinationspotenzial beider Figurationen des künstlichen Menschen in der Komplexität ihrer technischen Verfasstheit und der daraus erwachsenden Leistungspotenziale  – sei es im Kontext eines Kulturschaffens oder der Arbeitsleistung – zu suchen. Der jeweilige Ursprung des Irritationspotenzials muss jedoch individuell verortet werden und zeigt einmal mehr die inhärente Differenz beider Figurationen des künstlichen Menschen auf: Die Automaten des 18.  Jahrhunderts irritieren durch eine zumindest denkbare Nicht-Differenzierbarkeit zum Menschen, die die Gefahr des Verkennens birgt; demgegenüber birgt die potentielle Autonomie der Roboter immer auch die Gefahr einer Überwindung und Verdrängung des Menschen in sich. Roboter sind jedoch nur ein Maschinentypus, der ab dem zweiten Drittel des 20.  Jahrhundert dem Menschen nacheifert. Es kommt nicht von ungefähr, dass parallel zum Roboter seit den 1930er Jahren der Digitalcomputer als zweite zeitgenössische Technologie auftritt, welche ebenfalls einen spezifischen Aspekt des Humanen nachbildet: Konzentrieren sich (Industrie-)Roboter im 20. Jahrhundert auf die Überwindung des menschlichen Potenzials im Kontext körperlicher Arbeit, strebt der Digitalcomputer nach einer (in seinen Anfängen noch potentiellen) Überwindung des (rationalen) Denkens. Fast könnte man sagen, Roboter sind der körperliche Teil einer cartesianischen Trennung, deren zweiten Part die aufkommenden Digitalcomputer als technische Nachahmung der Kopfarbeit bilden. Allerdings widerspricht diese Trennung in artifizielles Denken und künstlichen Arbeitskörper Descartesʼ Grundprinzip, die Sonderstellung des Menschen als vernunftbegabtes und beseeltes Leben zu erhalten. Ohne Descartes zum Ratgeber der Moderne erheben zu wollen, kann aus dieser Perspektive heraus die Entwicklung des Computers als Abwertung (spezifischer Formen) der Kopfarbeit verstanden werden. Eine verbreitete Fassung der Technikgeschichte des Computers zählt sowohl die mechanischen Rechenmaschinen des 17. Jahrhunderts – u.  a. von Wilhelm Schickard (1623), Blaise Pascal (1642) und Gottfried Wilhelm Leibniz (1673) entwickelt – zu den Vorläufer-Technologien von Analog- und Digitalcomputern als auch die Entwicklung des Jacquard-Webstuhls (durch Joseph-Marie Jacquard) im Jahre 1805, der mittels Lochkarten programmiert werden konnte. Weniger verbreitet ist die These, dass sich auch die Automaten des 18. Jahrhunderts in einer technischen Perspektive in die Vorgeschichte des Computers einreihen lassen, nicht nur, weil bereits Vaucanson 1745 einen „durch Stiftwalzen und Zahnstange gesteuerten“ (Priebe 2004, 90) mechanischen Webstuhl präsentierte, welcher den Ziehjungen überflüssig machte.

36 

 Bianca Westermann

Vaucanson, der 1741 Leiter der königlichen Seidenmanufaktur in Lyon geworden und bestrebt war – noch vor dem Beginn der Industrialisierung – die Seidenproduktion zu modernisieren, brach dabei mit dem Prinzip der biomorphen Gestalt, die seine wenige Jahre zuvor präsentierten Automaten noch ausgezeichnet hatte. Auch Vaucansons anthropomorphe Automatenmusiker, wie auch die Automaten aus dem Hause Jaquet-Droz, lassen sich rückblickend schon in die Technikgeschichte des Computers einreihen: Sie alle waren so konstruiert, dass sie mehrere Musikstücke bzw. Zeichnungen und kurze Texte im Rahmen der Vorführungen wiedergeben konnten. Das jeweilige Repertoire der Automaten war zwar fest, jedoch nicht gänzlich unveränderlich. Sie alle verfügten über eine rudimentäre Form der Programmierbarkeit, die jedoch eher als Zufallsprodukt anmutete, denn als zentraler Aspekt der Automaten. Klotz erkennt diese bereits in Vaucansons Flötenspieler. Beim Spiel der Querflöte geschieht die Tonerzeugung zum Teil durch Variationen des Lippenansatzes und der Anblasgeschwindigkeit. Somit musste auch Vaucanson in seinem mechanischen Flötenspieler einen gleichermaßen präzisen wie veränderlichen Lippenansatz und Luftstrom realisieren. Hierdurch wurde es zumindest denkbar das Repertoire des Automaten immer neu zu verändern (Klotz 2006, 174). Auch die Automaten Jaquet-Drozʼ besaßen eine prinzipielle analoge Programmierbarkeit, die es erlaubte, etwa die bis zu 40 Zeichen langen Texte des Schreibers zu auszutauschen. Damit ist eine rudimentäre Vorstufe der Programmierbarkeit als Kernelement und Grundprinzip aller Digitalcomputer in den Automaten des 18. Jahrhunderts erkennbar. Dass eine wie auch immer geartete Programmierbarkeit ein Nebenprodukt bleibt, dem seitens der Automatenbauer wenig Beachtung geschenkt worden ist, belegt einmal mehr, dass es trotz dieser technischen Fluchtlinien keine direkte Genealogie von Automaten des 18. Jahrhunderts bis zu den sich seit Beginn des 20. Jahrhunderts entwickelnden Digitalcomputer gibt. Allerdings vereint beide Technologien eine weitere überzeitliche Konstante: die Vergleichbarkeit zum Menschen. Bereits in der theoretischen Konzeption des Computers als universelle, programmierbare Rechenmaschine ist diese grundlegend. Alan M. Turings Schriften gelten nicht ohne Grund als Vorläufer der Künstlichen Intelligenz (Copeland 2004, 353). (siehe auch → Begriff der KI, S. 9/10) Schon in seinem 1936 publizierten Text On Computable Numbers, with an Application to the Entscheidungsproblem – und damit 20 Jahre, bevor John McCarthy den Begriff Artificial Intelligence 1956 im Rahmen eines zweimonatigen Workshops ins Leben rufen wird, – wird deutlich, dass Turing sein Gedankenexperiment, das zur Grundlage des Computers werden sollte, als Referenz auf den Menschen gedacht hat. Die von ihm eigentlich zur Untermauerung eines mathematischen Beweises erdachte universelle Rechenmaschine war nichts anderes als die Formalisierung und damit auch Idealisierung eines Menschen, der spezifische Aufgaben löst: „We may compare a man in the process of computing a real number to a machine which is

Von Schach spielenden Automaten zu malenden Robotern 

 37

only capable of an infinite number of conditions q1, q2, …, qR which will be called ‚m-configurations‘“ (Turing 2004 [1936], 59). In Anbetracht dieser Ausgangsposition war die Idee, Denken und damit Intelligenz programmieren zu können, ein beinahe logischer Schluss für Turing. Seine virtuelle Rechenmaschine war nie etwas anderes als eine Simulation des denkenden Menschen und erhielt ihre Universalität gerade dadurch, dass diese MetaRechenmaschine jede rechnende Maschine simulieren kann, so lange es möglich ist, den Ausgangszustand und die Programmierung der zu simulierenden Maschine hinreichend zu beschreiben, d.  h. in einen Algorithmus zu fassen. Damit scheint es nicht nur denkbar, sondern fast logisch, über eine Programmierung des menschlichen Denkens zumindest nachzudenken. Dass er daran scheitert, einen entsprechenden Programmcode zu liefern, erklärt Turing als eine Folge mangelnder Ressourcen: Einerseits fehle es an der notwendigen Speicherkapazität, andererseits an Wissen darüber, wie das Denken im Gehirn des Menschen ablaufe (Turing 2004 [1951b], 484). In späteren Texten vertritt Turing dann die Ansicht, dass es leichter sei, eine einfache intelligente Maschine zu bauen, die sich durch Lernen, aber auch Erziehung weiterentwickeln soll, als eine komplexe, ausgereifte intelligente Maschine. Die Annahme, dass nur genügend Speicher- und Rechenkapazität zur Verfügung stehen müsse, um Künstliche Intelligenz (KI) zu realisieren, hält sich im Rahmen einer zum Teil transhumanistischen, dem Konzept einer starken KI verpflichteten Denkschule bis ins ausgehende 20. Jahrhundert (vgl. u.  a. Moravec 1990; Kurzweil 1999). Der Ansatz einer starken KI ist auch heute nicht völlig überwunden, jedoch im Kontext aktueller Entwicklungen – wie z.  B. Navigationssystemen, autonom fahrenden Fahrzeugen, aber auch sprachgesteuerten Assistenzsystemen – vom Primat einer schwachen KI verdrängt worden. Die Diffenzierung in starke und schwache KI hat John R. Searle 1980 eingeführt. Turings Ausgangsposition lässt sich der starken KI zuordnen. (zur Unterscheidung schwache vs. starke KI vgl. → Begriff der KI) Diese geht, wie beschrieben, davon aus, dass es prinzipiell möglich ist, eine dem Menschen ebenbürtige Intelligenz zu schaffen, wenn nur der richtige Algorithmus gefunden werde und ausreichend Rechenkapazität zur Verfügung stünde. Die starke KI basiert damit auf der Annahme von analogen Funktionsprinzipen in Gehirn und Computer – letztlich werden beide als Verarbeitung von Symbolen gedacht. Die Theorie der schwachen KI geht demgegenüber davon aus, dass Intelligenz in Computern nur simuliert werden kann, sodass die Technik in spezifischen Kontexten als intelligent wahrgenommen werden kann, ohne jedoch tatsächlich intelligent zu sein. Die Idee hinter der schwachen KI ist es, Wissen über die Denkvorgänge des Menschen nicht als Grundlage für eine technisch-artifizielle Nachbildung zu betrachten, sondern über die Simulation von intelligentem Verhalten auch Erkenntnisse über das Denken und die Intelligenz des Menschen zu erlangen. Damit tritt die bereits im Kontext des mechanistischen Körperkonzepts des 18. Jahr-

38 

 Bianca Westermann

hunderts gestellte Frage, auf welcher Ebene die funktionale Äquivalenz sinnvoll anzusiedeln ist, in einer zeitgenössischen Reformulierung wieder auf. In gewissem Sinne wendet sich auch Turing der Idee einer schwachen KI zu, wenn er zur Beantwortung der Frage, wann ein Computer als intelligent gelten könne, keinen objektiven Kriterienkatalog entwickelt, sondern diese Entscheidung einem subjektiven Beobachter überlässt. In der heute bekannten Fassung des nach ihm benannten Tests, die Turing 1950 publizierte (Turing 2004 [1950], 441–442), gilt es über geschickte Fragen herauszufinden, welcher von zwei Gesprächspartnern Mensch und welcher Maschine ist. Da keine direkte Kommunikation erlaubt ist – d.  h. etwa ein Computerterminal oder ein die Antworten überbringender Bote zwischen den Teilnehmenden platziert wird – werden sekundäre Marker zur Bestimmung des Gegenübers auf das Nötigste (etwa den Sprachgestus) reduziert. In einer frühen Fassung des Tests (vgl. Turing 2004 [1948], 431) bestand die Aufgabe noch darin, herauszufinden, welcher von zwei Schachgegnern ein Mensch und welcher ein Computer sei. Turing schlägt damit eine pragmatische Lösung der Frage vor, wann eine Maschine als intelligent zu erachten ist, die er selbst als Strategie zur Vermeidung einer notwendigen Definition der komplexen Begriffe Denken (aber auch Maschine) beschreibt. Seine Ausweichstrategie versteht er dabei selbst als empirischen Ansatz: „Will the interrogator decide wrongly as often when the game is played like this as he does when the game is played [as originally intended to differentiate; B.W.] between a man and a woman?“ (Turing 2004 [1950], 441) Intelligenz ist mit dieser Herangehensweise zu einer Beobachterperspektive geworden, die einem humanen wie artifiziellen Gegenüber zugeschrieben oder verweigert werden muss. Das Gegenüber wird damit zu einer Blackbox. Genau hier setzt Searles Kritik an, der mit seiner Anordnung des ‚Chinesischen Zimmers‘ verdeutlicht, dass ein als intelligent wahrgenommener Output einer solchen Blackbox keinesfalls bedeuten muss, dass deren Verhalten tatsächlich auf Intelligenz bzw. – in Searles Begrifflichkeit – auf Verstehen basiert. Stattdessen kann der Eindruck von Intelligenz auch das Resultat einer geschickten Programmierung sein. In seiner fiktiven Versuchsanordnung befindet sich eine Person, die kein Chinesisch spricht, in einem abgeschlossenen Raum. Hereingereicht werden nun Fragen zur Geschichte in chinesischer Sprache. Obwohl die Person die Frage nicht verstehen kann, helfen ihr in Chinesisch verfasste – und damit unverständliche – Informationen zur Schrift und zur Geschichte sowie eine muttersprachliche – und damit verständliche  – Anleitung, wie die beiden chinesischen Informationsquellen zu benutzen sind, die Fragen dennoch korrekt zu beantworten. Außerhalb des Raums – d.  h. ohne Wissen um den tatsächlichen Grad des Verstehens – kann nur gemutmaßt werden, ob die Antworten auf tatsächlichem Verstehen oder dem mechanischen Befolgen eines Programmcodes (d.  h. dem muttersprachlichen Stapel) beruhen.

Von Schach spielenden Automaten zu malenden Robotern 

 39

Analog zur Intelligenz lassen sich auch Intentionalität und Autonomie als Attributions- bzw. Interaktionsphänomen verstehen, die durch einen Beobachter zugeschrieben, aber auch verweigert werden können. Dies wird bereits in den 1970er Jahren, und damit nur rund 40  Jahre, nachdem sich Arbeitskörper und Elektronengehirn getrennt haben, virulent, wenn diese beiden artifiziellen Realisationen menschlicher Leistungspotentiale wieder zu verschmelzen beginnen: Roboter werden mehr und mehr mit Computern ausgestattet, die die Analogrechner, mit denen die ersten Roboter gesteuert wurden, ablösen. Gleichzeitig beginnt die Entwicklung mobiler Roboter, die sich in einer menschlich geprägten Umgebung bewegen können sollten: Die Idee einer Künstlichen Intelligenz erhält damit einen mechanischen Körper. Im Rahmen dieser Wiedervereinigung von artifiziellem Gehirn und künstlichen Körper wurden die Entwicklerinnen und Entwickler intelligenter Roboter mit der vermeintlichen Paradoxie konfrontiert, dass „Computer die Fähigkeiten besonders schwer simulieren können, die für Menschen selbstverständlich sind – zu sehen, zu hören, Gegenstände zu manipulieren, Sprachen zu lernen und praktisch zu denken“, während sie „auf der einen Seite hervorragend bewältigen, was Menschen Schwierigkeiten bereitet“, wie etwa das Lösen hochkomplexer mathematischer Gleichungen (Moravec 1990, 21). War anfänglich versucht worden, Bewegungen im Raum auf Basis eines ständigen Abgleichs zwischen einem einprogrammierten Modell der Umwelt und kontinuierlich erhobenen Sensordaten zu realisieren, kam mit dem Ansatz des Embodiment in den 1990er Jahren ein neues Körperverständnis in der Robotik auf, das den Umweltbezug zum Architekturprinzip erhob: Das Inder-Welt-Verortet-Sein der Roboter wurde unter dem Slogan „Intelligenz braucht einen Körper“ zum basalen Prinzip und zur Voraussetzung für eine Realisation von Intelligenz erhoben. Anstelle einer Top-Down-Architektur, die der Formel SenseThink-Act folgt, war eine Bottom-Up-Architektur getreten, die diese Formel auf Sense-Act kürzte (Brooks 2003, 36).

3 Artifizielle Kreativität Aktuell scheinen uns verschiedene technische Neuerungen aus dem Bereich der KI, wie etwa sprachgesteuerte Assistenzsysteme oder selbstfahrende Autos, fast schon erschreckend intelligent zu sein, gleichwohl auch hier eine geschickte Programmierung und gesteigerte Rechnerkapazitäten verschleiern, dass eine Realisation „echter“ Intelligenz in der Maschine kaum greifbarer ist als in den 1950er Jahren. Dabei fällt auf, dass sich viele der durch KI geprägten Technologien, die sich gegenwärtig in der Lebenswelt etablieren und verbreiten, nicht durch eine

40 

 Bianca Westermann

explizite Körperlichkeit auffallen. Die Ausnahme bilden hier soziale Roboter, die als para-soziale Entitäten erfahrbar sind. Smartphones und analoge Medientechnologien bieten zwar einen sehr ähnlichen Funktionsumfang wie die verkörperten sozialen Roboter, doch tritt ihre Körperlichkeit hinter den Nutzungskontext zurück – sei es durch ein vermeintliches Aufgehen in die Umwelt, wie z.  B. sprachgesteuerte Medienassistenzen wie Amazons Alexa oder andere Technologie des ubiquitous computing, oder durch eine habituelle Inkorporation in den Körper der Nutzerin und des Nutzers wie etwa Smartphones und Fitnessuhren es ermöglichen. Auch Pinar van Armens Roboter-Portraitisten sind körperliche Reduktionen auf das Prinzip der Hand-Auge-Koordination und bestehen aus einer Kombination eines Roboter-Arms mit einer Kamera, die durch KI-geprägte Algorithmen gesteuert wird. Pinar van Arman testet mit dieser Roboter-Architektur die Grenzen artifizieller Kreativität (zum Begriff der künstlichen Kreativität vgl. → Künstliche Intelligenz und Kreativität). In Anlehnung an den kreativen Prozess des Malers Paul Klee erläutert Van Arman: „For him every painting had a beginning and an end, and in between […] the artist would switch back and forth between making a mark and taking a step back to evaluate, […] over and over again in the feedback loop“ (Van Arman 2016). Zur Programmierung dieses Feedback-Loops greift Van Arman u.  a. auf KI-Algorithmen, wie etwa deep learning-Algorithmen, zurück. So gelingt es ihm, seine Roboter-Künstler etwa verschiedene Stile mischen zu lassen. Der zentrale Punkt für Van Arman ist jedoch, dass diese wissen, wann ein Bild fertig ist, d.  h., wann sie es nicht weiter verbessern können – nämlich dann, wenn der Feedback-Loop keine weitere Annäherung an die Vorlage des gemalten Portraits rückmeldet. Dass mit diesen und ähnlichen Experimenten die Frage nach der Intelligenz der Maschine durch die Frage nach deren Kreativität verdrängt wird, ist Symptom einer Verlagerung des Schlüsselfaktors zur Zuschreibung von Vergleichbarkeit mit dem Menschen. In diesem Bestreben erkennt Riskin eine überzeitliche Konstante des kulturellen Projekts vom künstlichen Menschen. Die Automaten des 18. Jahrhunderts und die Projekte der Künstlichen Intelligenz des späten 20. und frühen 21. Jahrhunderts eint eine zentrale Ambivalenz: „[W]e believe that the processes of life and consciousness are essentially mechanistic and can therefore be simulated, and yet we are equally firmly persuaded that the essences of life and consciousness will ultimately be beyond the reach of mechanical reproduction“ (Riskin 2003b, 97; vgl. auch Fukuyama 2002, 211; Brooks 2003, 188.). Ähnlich wie die anthropomorphe Mechanisierung von Kulturfertigkeiten im 18. Jahrhundert Schach spielende Automaten hat denkbar werden lassen, hat die Verbreitung von lernfähigen „Informatik-Anwendungen, deren Ziel es ist, intelligentes Verhalten zu zeigen“ und die darauf ausgerichtet sind „den Menschen intelligent beim Erreichen seiner Ziele

Von Schach spielenden Automaten zu malenden Robotern 

 41

zu unterstützen“ (DFKI & Bitkom 2017, 29), kreative Maschinen denkbar werden lassen. Dass sich also eine gewisse, beobachtergeleitete Form der „Intelligenz der Maschine“ verbreiten konnte, eröffnet gleichzeitig den Bedarf nach einem neuen Differenzkriterium. Kreativität als weitere urmenschliche Eigenschaft scheint gegenwärtig geeignet zu sein, den Status der Technik zu hinterfragen. Allerdings hat bereits die implizierte Formulierung dieser Frage, die sich durch die Konstruktion vermeintlich kreativer Roboter aufdrängt, einen Aushandlungsprozess in Gang gesetzt: Analog zu Turings Überlegungen, ob eine Maschine denken könne, kann die Frage, ob Roboter kreativ sein können, nicht behandelt werden, ohne gleichzeitig über das kulturell geprägte Verständnis von Kreativität nachzudenken (vgl. grundsätzlich → KI und Kreativität). Ein Unterschied darf jedoch im Rahmen dieser Betrachtung nicht in Vergessenheit geraten: Intelligenz wird derzeit oft als – zumindest potenziell – messbare Größe definiert – ob mittels Turing- oder Intelligenztest – und gewinnt damit eine vermeintliche Objektivität. Kreativität dagegen ist ganz im Sinne der schwachen KI ein Beobachterphänomen, das entweder zugeschrieben oder negiert wird, jedoch im Regelfall keiner graduellen Abstufung unterworfen wird. Der Frage, ob Robotern Kreativität zugestanden werden kann, wirft im Umkehrschluss die Frage auf, ob Kreativität als algorithmisierbar betrachtet werden kann. Andreas Reckwitz z.  B. mahnt die doppelte Bedeutung von Kreativität an: „Zum einen verweist sie auf die Fähigkeit und die Realität, dynamisch Neues hervorzubringen. […] Zum anderen impliziert Kreativität ein Modell des ‚Schöpferischen‘, welches diese Tätigkeit des Neuen an die moderne Figur des Künstlers, an das […] Ästhetische zurückbindet“ (Reckwitz 2013, 23). Mit Reckwitz muss Kreativität also als subjektivierender Faktor definiert werden. Andere Ansätze, wie der von Rainer Matthias Holm-Hadulla, erklären das Vorhandensein eines sich seiner selbst bewussten Subjekts zum optionalen Faktor der Kreativität: Für ihn ist Kreativität „das Wechselspiel von Schöpfung und Zerstörung, Ordnung und Chaos, Konstruktion und Destruktion“ (Holm-Hadulla 2011, 7). Kreativität im Sinne einer „Neukombination von Informationen“ (Holm-Hadulla 2011, 71) findet für Holm-Hadulla bereits auf neurobiologischer Ebene statt und damit – bis zum Überschreiten einer bestimmten Schwelle – unterhalb der Bewusstseinsebene. In Folge Holm-Hadullas sind also kreative Roboter denkbar – allerdings um den Preis, dass Kreativität nicht länger als Kriterium zur Bestimmung der Einzigartigkeit des Menschen verstanden wird.

42 

 Bianca Westermann

Literaturverzeichnis Brooks, Rodney Allen. Flesh and Machines: How Robots Will Change Us. New York 2003. Čapek, Karel. „R.U.R. (Rossum’s Universal Robots): Ein Kollektivdrama in drei Akten mit einer Komödie als Vorspiel“. Modernes tschechisches Theater. Langer, Êapek, Mahler, Kundera, Topol. Hrsg. von Paul Kruntorad. Neuwied 1921/1968: 81–160. Copeland, Brian Jack. The Essential Turing: Seminal Writings in Computing, Logic, Philosophy, Artificial Intelligence, and Artificial Life plus the Secrets of Enigma. Oxford 2004. Descartes, René. Über den Menschen (1632) sowie Beschreibung des menschlichen Körpers (1648). Hrsg. von Karl E. Rothschuh. Heidelberg 1969. Descartes, René. Meditationes de Prima Philosophia: Meditationen über die Erste Philosophie. Stuttgart 2005 [1641]. Bundesverband Informationswirtschaft, Telekommunikation und neue Medien e. V. und Deutsches Forschungszentrum für Künstliche Intelligenz GmbH. Künstliche Intelligenz Wirtschaftliche Bedeutung, gesellschaftliche Herausforderungen, menschliche Verantwortung. https://www.dfki.de/ fileadmin/user_upload/import/9744_171012-KI-Gipfelpapier-online.pdf (14. März 2020). Drux, Rudolf. „Künstliche Menschen“. Spektrum der Wissenschaft 6 (2001): 68–75. Fukuyama, Francis. Das Ende des Menschen. München 2002. Holm-Hadulla, Rainer. Kreativität zwischen Schöpfung und Zerstörung: Eine Synthese kulturwissenschaftlicher, psychologischer und neurobiologischer Forschungsergebnisse. Göttingen 2011. Klotz, Sebastian. Kombinatorik und die Verbindungskünste der Zeichen in der Musik zwischen 1630 bis 1780. Berlin 2006. Kurzweil, Ray. The Age of Spiritual Machines: When Computers Exceed Human Intelligence. New York 1999. La Mettrie, Julien Offray de. Der Mensch eine Maschine. Hrsg. von Holm Tetens. Stuttgart 2001 [1747]. Moravec, Hans. Mind Children. Der Wettlauf zwischen menschlicher und künstlicher Intelligenz. Hamburg 1990. Priebe, Carsten. Vaucansons Ente. Eine kulturgeschichtliche Reise ins Zentrum der Aufklärung. Norderstedt 2004. Reckwitz, Andreas. „Die Erfindung der Kreativität“. Kulturpolitische Mitteilungen 141.2 (2013): 23–34. Riskin, Jessica. „The Defecating Duck, or, the Ambiguous Origins of Artificial Life“. Critical Inquiry 29 (2003a): 599–633. Riskin, Jessica. „Eighteenth-Century Wetware“. Representations 83 (2003b): 97–125. Searle, John R. „Minds, brains, and programs“. Behavioral and Brain Sciences 3.3 (1980): 417–457. Standage, Tom. Der Türke. Berlin 2005. Swoboda, Helmut. Der künstliche Mensch. München 1967. Turing, Alan. „On Computable Numbers, with an Application to the Entscheidungsproblem“. The Essential Turing: Seminal Writings in Computing, Logic, Philosophy, Artificial Intelligence, and Artificial Life plus the Secrets of Enigma. Hrsg. von Brian Jack Copeland. Oxford 2004 [1936]: 58–90. Turing, Alan. „Intelligent Machinery“. The Essential Turing: Seminal Writings in Computing, Logic, Philosophy, Artificial Intelligence, and Artificial Life plus the Secrets of Enigma. Hrsg. von Brian Jack Copeland. Oxford 2004 [1948]: 410–432. Turing, Alan. „Computing Machinery and Intelligence (1950)“. The Essential Turing: Seminal Writings in Computing, Logic, Philosophy, Artificial Intelligence, and Artificial Life plus the Secrets of Enigma. Hrsg. von Brian Jack Copeland. Oxford 2004 [1950]: 441–464.

Von Schach spielenden Automaten zu malenden Robotern 

 43

Turing, Alan. „Can Digital Computers Think? (1951)“. The Essential Turing: Seminal Writings in Computing, Logic, Philosophy, Artificial Intelligence, and Artificial Life plus the Secrets of Enigma. Hrsg. von Brian Jack Copeland. Oxford 2004 [1951]: 482–486. Van Arman, Pindar. Teaching Creativity to Robots. https://www.youtube.com/watch?v=YYu0PdJSZcA. TEDxTalk 6.6.2016 (21. September 2020). Vaucanson, Jacques de. Beschreibung eines mechanischen Kunst-Stucks und eines automatischen FlötenSpielers […]. Augsburg 1748. Westermann, Bianca. Anthropomorphe Maschinen: Grenzgänge zwischen Biologie und Technik seit dem 18. Jahrhundert. Frankfurt am Main 2012. Westermann, Bianca. „The Biomorphic Automata of the 18th Century: Mechanical Artworks as Objects of Technical Fascination and Epistemological Exhibition“. Figurationen: Maschine und Wahrnehmung/Machines à percevoir Hrsg. von Marie Theres Stauffer und Stefan Kristensen. 2/2016: 123–137. Wittig, Frank. Maschinenmenschen: Zur Geschichte eines literarischen Motivs im Kontext von Philosophie, Naturwissenschaft und Technik. Würzburg 1997. Wood, Gaby. Living Dolls: A Magical History of the Quest for Mechanical Life. London 2002.

Künstliche Intelligenz als Sujet in Kunst, Literatur und Medien

Maren Conrad

Literaturgeschichte der Künstlichen Intelligenz 1 Künstliche Intelligenz in der Literaturgeschichte Eine Literaturgeschichte der KI erweitert die gegenwärtig gültige Definition einer Künstlichen Intelligenz als „Informatik-Anwendungen“, deren Ziel es ist, „intelligentes Verhalten zu zeigen“ (Bitkom 2017, 29) insofern, als sie das Konzept von Künstlicher Intelligenz und künstlichen Menschen erweitert. Denn bereits in der frühen Literaturgeschichte basiert dieses auf einer aktuell immer noch als Kernfunktion der KI-Forschung benannten Aufgabe, nämlich, dass die KI „das Ziel verfolgt, menschliche Wahrnehmungs- und Verstandesleistung zu operationalisieren und durch Artefakte kunstvoll gestaltete technische – insbesondere informationsverarbeitende – Systeme verfügbar zu machen“ (Görz 2003, 1). Mittlerweile unterscheidet die KI-Forschung zudem zwischen einer ‚schwachen‘ oder ‚starken‘ KI, die Menschen entweder als schwache KI intelligent beim Erreichen seiner Ziele unterstützen, oder als starke KI eine Imitation des Menschen leisten. (vgl. zur Definition → Begriff der KI) Auch literaturgeschichtlich ist diese Ausdifferenzierung relevant. Denn erstens markiert sie den klaren Anthropozentrismus eines fest etablierten und erst allmählich aufbrechenden Verständnisses von Künstlicher Intelligenz, da der Mensch hier immer das Maß der ‚Verstandesleistung‘ ist. Zweitens lässt sich auch nachweisen, dass es bereits seit der Antike fiktionale Entwürfe von Artefakten und kunstvoll gestalteten (technischen) Systemen gibt, die Verstandesleistung zeigen und daher als ‚künstliche Menschen‘ wie als ‚Künstliche Intelligenz‘ qualifiziert werden können. Die Kategorien einer ‚schwachen‘ oder ‚starken‘ KI sind dabei von Anfang an strukturgebend: So lassen sich auch die Entwürfe in der Literatur, die den künstlichen Menschen als Gedankenexperiment fiktional auszuführen versuchen, unterscheiden in eine schwache und starke KI. Die frühen Figuren einer ‚schwachen KI‘ fungieren als passive Partner- und Helferfiguren, die als Diener der Menschen agieren. Zugleich findet sich schon in den frühen Erzählungen eine autonome und zumeist manipulativ gegen die Interessen der Menschheit agierende – und damit ‚starke‘ KI. Diese frühen Beispiele künstlicher Menschen, Automaten und künstlich erschaffener Monster prägen die aktuellen Darstellungen von Robotern und körperlosen KI wesentlich mit. Sie begründen zugleich bereits in der Antike zwei zentrale Traditionslinien des ‚künstlichen Menschen‘ in der Literaturgeschichte, sodass diese im Folgenden https://doi.org/10.1515/9783110656978-004

48 

 Maren Conrad

ebenfalls berücksichtigt werden, obgleich das Auftreten der KI als auf der wissenschaftlichen Disziplin gründender Erzählgegenstand erst in den Gründungsjahren in den 1950ern tatsächlich evident wird.

1.1 Literaturgeschichtliche Systematisierung Die Traditionslinie der KI in der Literaturgeschichte folgt den unmöglichen Entwürfen und Schöpfungsmythen von ‚künstlichen Menschen‘ von ihren mythologischen Ursprüngen über ihre Fortschreibungen des Mythos in der phantastischen Literatur im Geiste des Humanismus im 18. und 19. Jahrhundert bis hinein in Moderne, Postmoderne und das 21. Jahrhundert. Diese münden dann in der literarischen Verhandlung der kybernetisch plötzlich möglichen KI des 20. Jahrhunderts in einer erst im Entstehen befindlichen Forschung zu den Konzepten und Diskursen des Post- und Transhumanismus im 21. Jahrhundert. Eine Literaturgeschichte der KI darf dabei auch die Frage nach der Genese der Literatur und ihrer Kanonisierung und Geschichte nicht außer Acht lassen, unternimmt sie doch den nicht ganzheitlich realisierbaren Versuch, einen Bogen von der Antike bis heute anhand von kanonischen Texten nachzuvollziehen und dabei zugleich die damit eng verknüpften Entwicklungslinien erst entstehender literarischer Gattungen und Genres nachzuzeichnen. So wird nicht nur der frühe Mythos bis in die Gegenwart aktualisiert und neu erzählt, vielmehr entwickelt die in der Romantik entstehende phantastische Literatur eine ganz eigene Ästhetik und Poetik, um den Themenkomplex der künstlichen Menschen, Maschinenmenschen und Künstlichen Intelligenz erstmals als Vision mit technologischer Machbarkeit zu realisieren. Dieses Möglichkeitsdenken etabliert sich dann zunehmend in der modernen Literatur. Aus diesen ursprünglich phantastischen Impulsen der Romantik gehen dementsprechend zum Ende des 19. Jahrhunderts Formen utopischen und dystopischen Erzählens, der Science-Fiction und des populären (Fantasy-/ ScienceFiction-)Thrillers hervor, des Weiteren zielgruppenspezifisch akkommodierte Varianten in der Kinder- und Jugendliteratur, die hier jeweils als Motivkomplex ebenfalls systematisiert werden sollen.

1.2 Wissensgeschichtliche Einordnung Bei einem diachron und international bzw. interphilologisch so großflächig angelegten Kapitel zur Literaturgeschichte der KI bleibt nicht aus, dass die hier skizzierte Entwicklungs- und Motivgeschichte nur überblicksartig und hochselektiv sein kann, da sie den gängigen, vom westeuropäischen Literaturdiskurs geprägten

Literaturgeschichte der Künstlichen Intelligenz 

 49

Kanonisierungsmechanismen folgen muss und einen Negativkanon ebenso ausschließen muss, wie „das Problem des Zusammenspiels von Textmerkmalen und Kontextwissen“ (Winko 2002, 22). Die Konzentration auf kanonische Werke schließt damit sowohl erst in der Wiedererschließung begriffene Autor:innen als auch bestimmte marginalisierte Nationalphilologien der zeitgenössischen und nachträglichen dekanonisierten Werke zu großen Teilen aus. Denn beide stehen im kulturellen Archiv zumeist hinter den fest kanonisierten Texten der Zeit weit zurück, obwohl sie synchron durchaus einflussreicher gewesen sein mögen als die heute überlieferte Auswahl (Stockinger 2010, 18). Die Doppelfunktion der Literatur, die als reintegrierender Interdiskurs (Link 1993) prinzipiell sowohl als ‚Modell von‘ aktuellen soziopolitischen Kontexten und ‚Modell für‘ die Antizipation möglicher soziopolitischer Kontexte fungiert, ist immer auch auf eine Entwicklung beider Systeme, des literarischen wie des sozialen, ausgerichtet (Ort 2000). Dies gilt insbesondere für die Literaturgeschichte der KI, agiert ihre spekulative Fiktion doch notwendigerweise immer an den äußersten Rändern eines Machbarkeits- und Möglichkeitsdenkens der gesellschaftlichen und technologischen Kontexte, in denen sie entsteht. Im Spannungsfeld zwischen Literatur, Gesellschaft und Technologie kommt ihr damit, ähnlich der utopischen Literatur, eine Sonderrolle zu, da sie immer auch nach gesamtgesellschaftlichen Tendenzen für die Zukunft fragt und so beständig an den Rändern einer utopischen, engagierten und phantastischen Literatur schreibt. Innerhalb dieses Spannungsfeldes kann sich die Literatur über KI daher frühestens im 20. und 21. Jahrhundert und unter den Bedingungen einer Literaturgeschichte, die immer mehr auch Sozialund Verflechtungsgeschichte (Werberger 2012) wird, in ihrer nun entstehenden Vielfalt herausbilden. Sie steht, so ist zu vermuten, erst an den Anfängen ihres ästhetischen Potenzials und wird sicherlich noch weitere Ausdifferenzierungen erfahren.

2 Künstliche Menschen: Literaturwissenschaftliche Systematisierungen Ähnlich den Kanonisierungsprozessen weisen auch die Motivstudien zur KI in ihrer Strukturierung eine klare Tendenz zur Selektivität auf. Daher werden im Folgenden zuerst Traditionslinien benannt, wie sie die motivgeschichtliche und literaturwissenschaftliche Forschung zu künstlichen Menschen markiert und dann ein darüber hinausgehender Vorschlag für eine erweiterte Strukturierung entwickelt, die enger an die aktuelle KI-Forschung angeschlossen ist und mit den Kategorien von Humanismus, Transhumanismus und Posthumanismus operiert.

50 

 Maren Conrad

2.1 Motivgeschichtliche Systematisierungen Mit Frank Wittig (1997) und Helmut Swoboda (1967) lassen sich drei ‚Stammlinien‘ der künstlichen Menschen in der Literaturgeschichte identifizieren: 1) Die magisch-mystische Erschaffung des künstlichen Menschen, die vom frühen biblischen und antiken Schöpfungsmythos bis zum Golem reicht, 2) die mit dem technologischen Zeitalter Ende des 18. Jahrhunderts einsetzende biologisch-naturwissenschaftliche Herstellung künstlicher Menschen von ihren Anfängen im 17. Jahrhundert mit den Berichten von aus menschlichem Samen und Schlamm in alchemistischer bzw. hermetischer Tradition erzeugten Homunculi über die Automatenmenschen des 18./19. Jahrhunderts bis hin zu den Monstern und Menschenvarianten des 19. und 20. Jahrhunderts. Dabei operieren letztere erstmals mit den Mitteln früher Medizin und Physik (Frankenstein) und werden dann im 20. und 21. Jahrhundert genetisch konstruiert und über Formen des Klonens vervielfältigt. Schließlich sind 3) die mit den Machbarkeitsvisionen der Industrialisierung und modernen technischen und medizinischen Entwicklungen des 19. und 20. Jahrhunderts einsetzenden literarischen Motive einer aktuellen, computergestützten Technisierung zu nennen. Eine solche Literatur ist inspiriert von frühen Automatenmotiven und den daran gekoppelten Automatenmenschen und diskutiert die Potenziale der computergestützten KI und Super-KI bis hin zu Überlegungen über optimierte Menschen, Cyborgs als Mischwesen und die Möglichkeit, den menschlichen Geist als ‚Upload‘ unsterblich zu machen. Diese Texte verhandeln „die Frage nach der Technik im Zeitalter des neoliberalen technowissenschaftlichen und globalen Kapitalismus mit seiner digitalen, kognitiven und informationsmedialen Basis“ und setzen so fort, was schon in den ersten beiden ‚Stammlinien‘ angelegt ist, nämlich „eine Infragestellung der Anthropologie“ durch ihre Gegenüberstellung mit dem Potenzial der KI (Herbrechter 2016, 10).

2.2 Menschheitsgeschichtliche Demarkationslinien In der – an die Kategorien bei Swoboda, Wittig und Dietz anschließbaren, wenn auch mit dem Begriff des ‚Posthumanismus‘ weitaus differenzierter operierenden – Lesart Britta Herrmanns entsteht im Motivfeld spätestens ab dem 18. Jahrhundert eine Literatur, die über künstliche Menschen reflektiert und dadurch „eine umfassende Bio- und Anthropotechnik, die auf die Perfektionierung und Selbsttransformation der Individuen wie Gattungen zielt“, entwickelt (Herrmann 2018, 492). Zudem wird wissenschaftsgeschichtlich „das Konzept des Menschen als Maschine gegen Ende des 18. Jh.s vom neuen, für das 19. Jh. konstitutiven Organismusmodell abgelöst“ (Liebrand 2015, 246). Herrmann weist dabei nach, dass Literatur je zeitgenössisch „von somatischen Reaktionen […] über den Befund neuronaler und

Literaturgeschichte der Künstlichen Intelligenz 

 51

zerebraler Veränderungen und Vorstellungen eines embodiement des Schönen bis zum kulturevolutionären Ziel, genetisch optimierte Menschen hervorzubringen, […] eine Bandbreite bio-physiologischer Wirksamkeiten“ aufweist, die dann auch unmittelbar „auf die ästhetische Konzeption von Literatur“ zurückwirkt (Herrmann 2018, 492). Insbesondere die letzte Beobachtung ist dabei essenziell für eine Literaturgeschichte der KI. Mit der Ausdifferenzierung eines Verständnisses von Künstlicher Intelligenz beginnen sich auch die literarischen Gattungen und Genres, die diese verhandeln, ästhetisch und motivisch stark auszudifferenzieren. Je nach Anliegen entwickelt die Literatur dabei ganz eigene Ästhetiken rund um den gewählten Motivkomplex und die damit verbundene Traditionslinie. Frühe literarische Werke über Automaten, belebte Statuen und andere mythologische Formen der KI interpretiert Herrmann daher als Teil des „epistemologischen Felds der Moderne“, welches wesentlich beeinflusst wird durch „Aspekte wie progressives Geschichtsdenken, experimentelle Wissenschaft, biologische Entdeckungen, technische und mediale Entwicklungen“ (Herrmann 2018, 492). Peter Dietz (2003) gliedert in der Fortführung der Überlegungen Swobodas und Wittigs die historische Entwicklung der KI, die er in der Schnittstelle der historischen Entwicklung von Philosophie und Künsten verortet, ebenfalls in drei Schritte, wobei diese eng mit den von Sigmund Freud benannten ‚drei Kränkungen der Menschheit‘ einhergehen: die Destruktion des Weltbildes (Kolumbus/Descartes/ Newton/Watt/Einstein; Dietz 2003, 20), die Destruktion des Menschenbildes (Kopernikus/Darwin/Freud/Turing/Zuse; Dietz 2003, 21), und schließlich die Apotheose des Menschen (Dietz 2003, 22). Letztere ist mit Wittig lesbar als „die vierte, die vielleicht endgültige Kränkung des Menschen“ (Wittig 1997, 14), die mit der Vision der Erschaffung einer dem Menschen überlegenen Super-KI einhergeht.

2.3 Kulturgeschichtliche Strukturierungen Nach Dietz und Herrmann lässt sich die Literaturgeschichte jenseits der motivgeschichtlichen ‚Stammlinien‘ daher eher mit einem Zweischritt unterteilen. Markiert ist der erste dieser Schritte durch eine vormoderne Mythenbildung und mythologische Formen des ‚künstlichen Menschen‘, die aber bis in die Moderne ein beständiges Fortschreiben erfahren. Diese primär auf göttliche Intervention und Schöpfungsmoment abgestellte Literatur kann als eine vortechnologische und vormoderne Textsorte und damit als eine Literatur des ‚Davor‘ identifiziert werden, die nur spekulieren kann über alternative Nicht- oder Andersmenschen. Ein zentrales Alleinstellungsmerkmal dieser Literatur ist, dass ihre Narrative zumeist rückwärtsgewandt sind und von vergangenen göttlichen Wundern in einer Vorzeit berichten, wie dies im Pygmalion-, Pandora- und Prometheus-Mythos der Fall ist.

52 

 Maren Conrad

In einem zweiten Schritt entwickelt sich eine Literatur, die (utopische oder dystopische, immer aber fiktionale) Entwürfe von Zukunftsszenarien oder alternativen Realitäten konzipiert. Diese literarische Traditionslinie setzt kulturgeschichtlich mit der beginnenden industriellen Revolution und der Entstehung der Wissenschaften ein. Mit der wissenschaftlichen Beschäftigung mit Mensch, Tier und Technik und deren Verbindung entstehen zunehmend literarische Spekulationen über die Potenziale einer tatsächlichen Schaffung einer Künstlichen Intelligenz als Maschine, die den Nicht- oder Andersmenschen verkörpert. Diese Entwürfe reichen von den frühen Automatenerzählungen im 19. Jahrhundert über die Robotervisionen des frühen 20. Jahrhunderts bis in die gegenwärtigen Zukunftsvisionen von alternativen Gesellschaften, KI-Staaten und der Ausrottung der Menschheit im 21. Jahrhundert. Dieser zweite Schritt lässt sich damit als eine Literatur bestimmen, die die Fiktion eines ‚Danach‘ entwirft. Diese Literatur antizipiert und begleitet in ihren fiktionalen Weltentwürfen die historischen Anfänge und die Entwicklung einer KI in eine mögliche Gesellschaft der Zukunft oder projiziert ihr Möglichkeitsdenken in eine alternative Gegenwart. Das Schreiben über KI und den künstlichen Menschen unter den Bedingungen der Moderne – und in den letzten Jahrzehnten dann im Kontext einer digitalen Gesellschaft – begibt sich damit spätestens ab dem Ende des 19./Anfang des 20. Jahrhunderts literarisch in die Bereiche der hier entstehenden Genres der Dystopie, (Warn-)Utopie und Science-Fiction. Dabei operieren Erzählungen, in denen KI ein zentrales Leitmotiv darstellt, zumeist an den Schnittpunkten mehrerer literarischer Genres, die alle das technologische und gesellschaftliche Möglichkeitsdenken in literarischen Szenarien ausdifferenzieren. Aus einer kulturhistorischen Perspektive heraus lassen sich daraus erneut drei Phasen der spekulativen Texte über Formen und Potenziale Künstlicher Intelligenz subsumieren. Diese wären bis zum Ende des 20. Jahrhunderts zu benennen als 1) die prätechnologische Vormoderne, 2) die technologische/präkybernetische Moderne und 3) eine kybernetische Postmoderne.

2.4 KI als Figur: Humanismus, Trans- und Posthumanismus Ein umfassendes Modell zur Ausdifferenzierung aktueller Strömungen in der KILiteratur existiert bisher nicht. In Anlehnung an das auf die aktuelle Forschung zu Post- und Transhumanismus sowie Roboterethik aufbauende Modell Janina Lohs (2019) erscheint es aber sinnvoll, den skizzierten literatur- und motivgeschichtlich geprägten Analysekategorien, die bisher die Literaturforschung dominieren, eine Unterscheidung der kulturwissenschaftlich geprägten KI-Forschung unter Einbezug der spätestens seit Donna Haraway (1985) zentralen Strömungen eines Post- und Transhumanismus im ausgehenden 20. Jahrhundert zur Seite zu stellen.

Literaturgeschichte der Künstlichen Intelligenz 

 53

Die aktuelle Forschung differenziert dabei die oben skizzierten Forschungsperspektiven auf motiv- und menschheitsgeschichtliche Entwicklungsstufen und philosophische Strömungen durch eine neue Bezugnahme auf die technologische und geistesgeschichtliche Entwicklung eines Dreischritts von Humanismus, Transhumanismus (TH) und Posthumanismus. Der Posthumanismus wird dabei aktuell von Loh (2019) und zuvor Herbrechter (2009) erneut ausdifferenziert in einen technologischen (tPH) und einen kritischen Posthumanismus (kPH). Der Humanismus markiert hingegen alle mythologischen und anthropozentrischen Tendenzen eines frühen KI-Begriffes, der die Entstehung von künstlichen Menschen am Menschen ausrichtet und sich aus der Opposition von Menschlich vs. Nicht-Menschlich speist, wobei die KI diesen Gegenpol darstellt. Der Transhumanismus hingegen operiert mit den Ansätzen einer Evolutionstheorie und will durch technologische Entwicklung auch „den Menschen weiterentwickeln, optimieren, modifizieren“ (Loh 2019, 11). KI ist in dieser Lesart eine zu integrierende Hilfskonstruktion und Erweiterung des Menschen und der menschlichen Gesellschaft. Demgegenüber steht der technologische Posthumanismus, der primär auf die Maschine fokussiert ist: Er stellt die Optimierung der Schöpfung Künstlicher Intelligenz hin zur Radikalisierung der transhumanistischen Ideen im Sinne einer Verschmelzung und dem Aufgehen der Menschen in eine „künstlichen Superintelligenz“ (Loh 2019, 13) in den Vordergrund. Im Gegensatz dazu positioniert sich der kritische Posthumanismus eher als Teil einer poststrukturalistischen und kulturkritischen Theorie und hinterfragt „die tradierten, zumeist humanistischen Dichotomien“ (Loh 2019, 12) der Gegenwartskultur. Seine Ausrichtung gilt also nicht der Verbesserung des Menschen, sondern der Transformation seiner kulturellen Dichotomien bis hin zur Totalrevision der Dualismen von Mensch und Technik in deren Symbiose. Alle vier Varianten, Humanismus, Transhumanismus, kritischer und technologischer Posthumanismus, verhandeln damit offenkundig die Relation von Mensch und Maschine und variieren diese, von der historischen Abhängigkeit über die Interaktion und Integration, bis hin zur Unterordnung des Menschen. Anhand der Ausdifferenzierung der Literatur nach ihrer Darstellung der KI mit klarer Fokussierung auf das (Figuren-)Verhältnis von Mensch und Maschine, orientiert an den Ansätzen eines Humanismus, Transhumanismus und (kritischen/ technologischen) Posthumanismus, lassen sich für das 20. und 21. Jahrhundert vier zentrale Funktionen der als KI etablierten Figuren in literarischen Erzählstrukturen identifizieren: Künstliche Menschen fungieren in den Erzählungen in der Regel 1) als passives Erzählobjekt, das zur Ergänzung oder Erweiterung der Inszenierung der Persönlichkeit ihrer Schöpfer dient; sie sind also mithin noch in einem humanistischen Weltbild verortet. Sie können außerdem 2) als Helfer- und Nebenfiguren im Sinne einer ‚schwachen KI‘ agieren, die Defizite der dargestellten Welt kompensieren und oft als Partnerersatz fungieren. In dieser Funktion erscheinen sie

54 

 Maren Conrad

in ihrer Tendenz als transhuman, da sie den zu Beginn der Erzählung als defizitär dargestellten Menschen komplettieren. Als weiterer Figurentypus erscheint 3) die ‚starke KI‘ bzw. ‚Super-KI‘ als antagonistische Figur, die menschliche Hybris verkörpert und übersteigert und die eine Gefährdung des Kollektivs Mensch darstellt. Diese Konstellation entspricht mithin einem technologischen Posthumanismus, tritt aber schon in mythologischen Konstellationen auf, wenn auch nur marginalisiert. Schließlich tritt 4) die KI-Figur als Individuum mit eigener Entwicklung auf, das eine alternative Form der Existenz und Weltverortung als Entwicklungsaufgabe erfüllt und vorführt, mithin also eine spezielle Form der Individualisierung und des Mündigwerdens im Rahmen einer KI-Emanzipation realisiert. Dieses Narrativ ist tendenziell in den Grundsätzen eines kritischen Posthumanismus verortet, der eine Evolution und Emanzipation der Maschine ebenso annimmt wie des Menschen. Alle vier Funktionen können jedoch in verschiedenen Anteilen und Abstufungen in einem Text und einer KI-Figur vereint werden  – deutlich wird dies schon in frühen komplexen literarischen Werken wie Mary Shelleys Frankenstein; or the Modern Prometheus (1816), in der die Figur des Monsters verschiedene Entwicklungsstadien, vom sprach- und identitätslosen Konstrukt aus Leichenteilen bis hin zum fühlenden, denkenden Individuum, durchläuft. Die Kombination dieser ethischen und inszenatorischen Ebenen führt in solchen Texten zu einer wesentlichen Ambivalenz der dargestellten KI und damit zu der Auflösung einer klaren Wertung in einer für phantastische (und satirische) Texte konstitutiven Ambivalenzfigur (Conrad 2014; Lachmann 2002). Oft sind diese Ambivalenzen, auf die in der hier anschließenden Systematisierung nicht weiter eingegangen werden kann, auch geknüpft an alternative ideologisch geprägte Gesellschaftsentwürfe, die im Sinne des kritischen Posthumanismus einerseits die Trennung von Mensch und Maschine und andererseits das ‚traditionelle‘, d.  h. humanistische Konzept des Menschseins in Frage stellen.

3 Prätechnologische Vormoderne und Humanismus: Anfänge einer KI bis 1700 Die „ambitionierten Ziele der künstlichen Intelligenz“ in der Literatur haben bis heute ihre „tiefsitzenden mythologischen Wurzeln“ (Dietz 2003, 9) nicht aufgegeben, sondern speisen sich beständig aus deren traditionellem Motivinventar, insbesondere wenn es um die Zuschreibung spezifischer Geschlechterrollen und Subjekt-/Objektpositionen geht. Unabhängig davon, ob die Literatur über KI dabei als menschheitsgeschichtliche Metapher oder gesellschaftskritische Machbarkeitsstudie gelesen wird, sind sich wissenschaftliche Analysen wie Literaturkritik darin

Literaturgeschichte der Künstlichen Intelligenz 

 55

einig, dass das Auftreten künstlicher Menschen und Künstlicher Intelligenzen in der Literaturgeschichte immer eine „Konfrontation des Menschen mit dem technischen androiden Artefakt“ darstellt und auf eine „Auseinandersetzung mit Formen des menschlichen Selbstverständnisses, der Geschlechterverhältnisse und/ oder sozialem, individuellem, künstlerischem oder technisch-wirtschaftlichem Handeln“ abzielt (Kormann 2006, 9). Diese Konfrontation des Menschen mit sich selbst, über den Umweg der Konfrontation mit seinem Vexierbild, dem AndersMenschen bzw. dem Nicht- und Über-Menschlichen der KI als Kippbild (Liebrand 2015, 246), bestimmt die Literaturgeschichte der KI von ihren frühen Anfängen bis heute. Sie soll im Folgenden anhand wichtiger kanonischer Schlaglichter skizziert werden, um dann in einer breit aufgefächerten Darstellung der Gegenwartsliteratur und der verschiedenen literarischen Felder, Formen und Funktionen von KI in der Literatur des 21. Jahrhunderts zu münden. Die Literaturgeschichte unterscheidet dabei in den frühen Formen Künstlicher Intelligenz zumeist motivgeschichtlich zwischen ‚künstlichen Menschen‘ im Sinne von ‚künstlich er- oder gezeugten‘, aber aus organischem Material bestehenden Wesen und aus anorganischen Bestandteilen bestehenden Maschinenwesen/Robotern, auch Androiden (männlich/neutral) bzw. Gynoiden (weiblich). Die narrativen Strukturen lassen sich wiederum nicht nach Beschaffenheit und Entstehung der künstlichen Menschen klar differenzieren, sondern weisen oft Überschneidungen auf.

3.1 ‚Klassischer‘ Humanismus: Literaturgeschichtliche Anfänge Im Zentrum dieser beiden Formen steht ganz wesentlich ein humanistisches Weltbild mit leichten Tendenzen eines beginnenden technologischen Posthumanismus. Ein klassischer Humanismus zeigt sich als Tendenz in Texten, die die Schöpfung, Konstruktion oder Kreation von künstlichen Menschen in das Zentrum ihrer Erzählung stellen. Narrativ fokussiert diese Literatur auf den  – in den frühen Texten immer männlichen – Schöpfer als Protagonist und/oder zentralen Handlungsträger. Die künstlichen Menschen werden damit i.  d.  R. innerhalb des Erzähltextes zum Objekt der Erzählung; ihre Funktion ist die einer Nebenfigur. In ihrer teilweise starken Marginalisierung sind sie oft nur Teil der dargestellten Welt, ein eigenes Agens aber bleibt ihnen verwehrt. Dies schlägt sich auch in erzähltheoretischen Kategorien nieder, denn eine Fokussierung auf den künstlichen Menschen als handlungstragende Instanz innerhalb der Erzählung oder gar eine interne Fokalisierung auf die Gefühle oder Gedanken dieser Form der KI findet nicht statt.

56 

 Maren Conrad

3.1.1 Die belebte Statue Dem passiven Objektstatus einer frühen KI entsprechend ist das Motiv der künstlichen Frau in den Anfängen besonders ausgeprägt. Hierzu zählt die weibliche Statur im Pygmalion-Mythos aus den Ovid‘schen Metamorphosen, die vom männlichen Künstler aus unbelebtem Material erschaffen und anschließend qua Gebet und göttlichen Funken belebt wird. Die Erzählung schildert die Geschichte des Künstlers Pygmalion, der unter den menschlichen Frauen keine Partnerin findet, die seinen Ansprüchen genügt, und sich kurzerhand eine ideale Partnerin aus Marmor erschafft, die durch seine Liebe und Gebete, in letzter Instanz jedoch vor allem durch die Venus belebt wird. Im Text wird die Statue dabei im Anschluss an die göttliche Intervention erst durch die körperliche Interaktion mit dem Mann wirklich lebendig, wenn es dort heißt: „Es wird das berührte Elfenbein weich, verliert seine Härte, es gibt seinen Fingern nach […] Dann aber findet Pygmalion die innigsten Worte, mit denen er Venus dankt, und schließlich drückt er Mund auf Mund, der nicht falsch ist, und die Jungfrau spürte die ihr gegebenen Küsse und errötete […]“ (P. Ovidius Naso 1994, Buch 10, V. 280–290). Die belebte Statue – im Original bleibt sie stumm und namenlos – erhält in neuzeitlichen Versionen den Namen Galatea. Die Schöpfung des künstlichen Menschen ist ausgehend von dieser Konstellation in den Anfängen der Literatur- und Religionsgeschichte als exklusives Privileg göttlicher Instanzen markiert. Erst mit Daidalos setzt die „Profanierung des Künstlichen Menschen“ ein, wenn dieser erste Androiden als Maschinenwesen erzeugt (Wittig 1997, 21). Die frühe Künstliche Intelligenz in der Literaturgeschichte markiert dementsprechend auch ein erstes Aufbrechen von Weltbildern, in denen die Allmacht der Götter – und sei es auch nicht durch Menschen, so doch durch Halbgötter – instrumentalisiert oder in Frage gestellt wird. Allen voran ist hier der Titan Prometheus zu nennen, der nach Hesiod aus Wasser und Lehm nach seinem Ebenbild den Mensch erschafft, wobei der „Werkstatt-Charakter“ (Wittig 1997, 16) dieser Erschaffung durch den „griechische[n] Töpfergott Prometheus“ (Burkert 1988, 23) einen bemerkenswerten Anfang des Motivs der künstlichen Menschen darstellt, insofern hier bereits göttliche Intervention, Handwerk, Technik und Kunstfertigkeit die vier zentralen Elemente der Schöpfung darstellen.

3.1.2 Goldene Jungfrauen Eine ‚schwache KI‘, die nicht als Partnerin, sondern ‚nur‘ als Hilfsmittel dient, erschafft Hephaistos, Gott der Schmiede und „älteste[r] Hersteller von Androiden“ (Wittig 1997, 18). Seine KI ist ein Kollektiv aus goldenen Jungfrauen, die sich der hinkende Gott als Helferinnen schmiedet und die eindeutig bereits Künstliche Intel-

Literaturgeschichte der Künstlichen Intelligenz 

 57

ligenz und künstliche Wesen zugleich sind, ja sogar selbst Kreativität und Kunstfertigkeit besitzen und damit ihrerseits schöpferisch arbeiten können. Diese werden von Homer im achtzehnten Gesang der Ilias beschrieben: „Hinkte sodann aus der Türʼ; und Jungfraun stützten den Herrscher, / Goldene, Lebenden gleich, mit jugendlich reizender Bildung: / Diese haben Verstand in der Brust, und redende Stimme, / Haben Kraft, und lernten auch Kunstarbeit von den Göttern“ (Homer, 18.417–420). In diesen Konstrukten lässt sich auch ein erster motivischer Vorgriff auf Roboterwesen erkennen, die jenseits der Sexualisierung primär Care-Aufgaben für Menschen mit Behinderung übernehmen (Drux 2006). Sie begründen gemeinsam mit Galatea auch die Traditionslinie des Motivkomplexes des weiblichen künstlichen Menschen, des Gynoinden, der als Helferin und Objekt des männlichen Begehrens fungiert.

3.1.3 Pandora Neben den goldenen Helferinnen des Schmiedegottes ist hier auch sein zweites weibliches Kunstwerk zu nennen: die von ihm erschaffene Pandora. Diese künstliche Frau wird auf Geheiß des Göttervaters ebenfalls künstlich und qua göttlicher Belebung aus Erde und Wasser hergestellt. Die Motivation der Belebung ist hier nicht, wie bei Pygmalion, Liebe. Vielmehr wird diese KI von Zeus als Rache für den Diebstahl des Feuers durch Prometheus belebt und gemeinsam mit der sprichwörtlichen ‚Büchse‘ den Menschen zum Verderben geschaffen: „Aber es barg sie Zeus, gar mächtig ergrimmt im Gemüte, / weil, in Ränken gewandt, Prometheus arg ihn betrogen. […] Ohne Verzug dann hieß er den herrlichen Künstler Hephaistos / Erde mit Wasser vermengen, mit menschlicher Stimme und Stärke / Weiter begaben und ähnlich den Göttinnen selber von Antlitz / Formen ein hold Jungfrauengebild; […] Aber das Weib, vom Gefäß abnehmend den mächtigen Deckel, / Ließ sie heraus und bedachte mit düsteren Sorgen die Menschen“ (Hesiod, 47–105). Pandora ist damit gemeinsam mit den klugen Helferinnen des Schmiedegottes die erste ‚starke KI‘, wobei sie zudem als erste antagonistische KI der Literaturgeschichte auftritt, was die Definition der starken KI um den Aspekt der Selbstständigkeit erweitert. Sie wird als Bedrohung für die Menschen funktionalisiert und ist damit Stammhalterin einer langen Linie dämonischer-künstlicher Frauen (Renger 2002).

3.1.4 Mythologische Varianten der Schwachen und Starken KI Trotz ihrer gänzlich abweichenden Funktion, dem Menschen zu schaden, statt ihm zu dienen, ist Pandora, ebenso wie Galatea und die goldenen Jungfrauen, ein ‚hold Jungfrauenbild‘. Sie markiert damit die zweite frühe Traditionslinie der künstlichen

58 

 Maren Conrad

Menschen und steht, die einem Humanismus geschuldet sind und eine ‚schwache KI‘ als Helferfigur markieren. Als antagonistisch-autonome Figur stellt Pandora eine frühe Form einer ‚starken KI‘ dar, deren menschengefährdendes Potenzial und damit die ‚dunkle Seite‘ des künstlich belebten Menschen realisiert. Innerhalb dieser frühen Tendenz eines Humanismus bzw. Posthumanismus lässt sich zudem eine Skala des utopisch-individualistisch bzw. dystopisch-kollektivistisch ausgerichteten Erzählkonzepts annehmen: Ersteres stellt die erfolgreich erschaffene Künstliche Intelligenz als hilfreiche Instanz für ihre Schöpfer dar – wie im Fall Pygmalions und der goldenen Jungfrauen. Die dystopisch-kollektivistische Perspektive hingegen konzeptioniert die Künstliche Intelligenz als Gefahr für die gesamte vorherrschende (menschliche) Kultur – wie dies sowohl bei Pandora als auch beim Schöpfungsakt des Prometheus und der damit verbundenen Strafe inszeniert wird. Trotz der unterschiedlichen Funktionen dieser frühen weiblichen KI-Artefakte sind die Positionen von Galatea wie Pandora in den Erzählungen jedoch ähnlich prekär, denn die biologische Schöpfungsmacht des gebärenden weiblichen Körpers wird in allen drei Fällen durch einen Akt der Kunst als Schöpfung ersetzt. Dementsprechend sind alle künstlichen Frauen dieser frühen Phase explizit oder implizit als nicht-gebärfähig beschrieben. Die künstlich animierten Geschöpfe sind mithin hyperfeminine, sprachlose Idealfrauen und Projektionsflächen eines – insbesondere im Fall des Pygmalion – männlich-narzisstischen Begehrens. Als solche betonen sie eine klare Hierarchie der Geschlechterrollen, zwischen „kreativem und produktivem männlichen Subjekt einerseits und einem Objekt andererseits, das als weibliches (vom männlichen Genie produziertes) Kunstgeschöpf markiert ist“ (Liebrand 2015, 242). Die sich hier bereits etablierende Dichotomie bei der Zuweisung einer bestimmten Form der KI wird dabei nicht zuletzt dominiert durch das den Motivkomplex der KI dominierende Leib-Seele-Problem. Der ‚künstliche Mensch‘ ist von den mythologischen Anfängen bis zu den neuesten Formen konsequent weit seltener Android als Gynoid – ‚weiblicher Automat‘, der immer auch Nebenfigur, Partnerin des Protagonisten, Erzählsubjekt ist. Die sich erst im 20.  Jahrhundert herausbildende körperlose Künstliche Intelligenz hingegen kommt insbesondere in neueren Formen als oft autonome, männliche Erzählstimme daher. Im Figureninventar manifestiert sich eine Aufspaltung in eine männlich konnotierte, körperlose Intelligenz als ‚Seele‘ des Maschinellen und eine weiblich konnotierte, intelligenzlose ‚Leiblichkeit‘ des Maschinellen. Intelligent agierende Konstrukte mit Subjektcharakter erscheinen damit von ihren mythologischen Anfängen in der Literatur bis heute fast durchgängig als männliche Wesen, etwa in Form von Golem, Homunculus oder Supercomputer. Wenn die Maschinen ausnahmsweise in einem weiblichen Körper daherkommen und intelligent autonom agieren, erfahren sie immer eine Semantisierung als antagonistisch bis dämonisch-weiblich und müssen entsprechend im Handlungsverlauf zerstört werden. Von männlichen Schöpfern

Literaturgeschichte der Künstlichen Intelligenz 

 59

erzeugte künstliche Körper hingegen erscheinen per se als Objekte des männlichen Blicks: Die belebte Statue im Pygmalion-Mythos und Pandora stehen als früheste Beispiele für das Problem dieser stereotypen Geschlechterdifferenz innerhalb der Literatur, die sich, insbesondere im Film, bis heute konsequent fortsetzt. Das perfekte, aus unbelebtem Material belebte, künstliche Objekt männlicher Begierde bleibt auch in der von Swoboda und Wittig beschriebenen dritten ‚Stammlinie‘ der künstlichen Menschen und damit im technologischen Posthumanismus ein essenzieller Topos (siehe auch → Filmgeschichte KI); Metropolis bis zu Exmachina und her), der weiterhin fest an den künstlichen weiblichen Körper gekoppelt ist. Bis heute harrt die Literaturgeschichte einer Umkehrung des Pygmalion-Mythos, denn eine Künstlerin, die sich den perfekten Mann erschafft, gibt es bis heute nicht. In der Literaturgeschichte weist die belebte Kunst als künstliche Frau eine entsprechend lange Traditionslinie auf und Pygmalionvariationen sind in der Literatur von der Antike bis heute omnipräsent (Aurnhammer und Martin 2003).

3.2 Weitere Mythen, Variationen und (post-)moderne Fortschreibungen Die antiken Schöpfungsgeschichten erfahren jeweils im Rahmen einer umfangreichen Mythenrezeption und entsprechenden literarischen Variationen in der Literaturgeschichte eine umfangreiche Wiederaufnahme und Bearbeitung, die hier ebenfalls anhand der Fallbeispiele von Pygmalion und Prometheus nur skizziert werden kann.

3.2.1 Pygmalion Im Mittelalter und der Frühen Neuzeit finden sich in englischer und französischer Bearbeitung Erzählungen, die „den Deutungsspielraum“ des Mythos „nach und nach erweitern“, so der Roman de la Rose, „in dessen zweiten, von Jean de Meun verfaßten Teil, eine stark expandierte Fassung der Fabel integriert ist“ sowie der anonyme Ovide moralisé und John Gowers Confessio amantis (Aurnhammer und Martin 2003, 252). Pygmalion, der wohl berühmteste Bildhauer der europäischen Kulturgeschichte, avanciert dann spätestens ab der Romantik zunehmend „zum Inbegriff eines erhabenen Künstler-Priesters“, so etwa bei Herder, Novalis, Winckelmann, Klopstock und Fichte (Aurnhammer und Martin 2003, 256). Einen erneuten Auftrieb erfährt die belebte Statue auch in der anglophonen Literatur: Schon George Petties Pygmalions’s Friend, and his Image (1567) und John Marstons The Metamorphosis of Pigmalions Image (1598) griffen den Stoff auf; spätestens mit der

60 

 Maren Conrad

Bearbeitung von George Bernard Shaw wird der Mythos 1913 durch das Theaterstück Pygmalion erneut populär und dient als Grundlage für das Musical My Fair Lady von Alan Jay Lerner (1956) und Willy Russels Drama Educating Rita (1980). Die Adaptionen des 20. Jahrhunderts verankern nicht zuletzt durch ihre Verfilmungen, den Mythos endgültig auch in der Populärkultur (Miller 1990), wobei weitere bemerkenswerte Variationen auch in der Gegenwartslyrik zu finden sind (Merten 2004).

3.2.2 Prometheus Eine ähnliche Fortsetzung erfährt der Prometheus-Mythos, wobei insbesondere Mary Shelleys Benennung von Frankenstein; or, The Modern Prometheus hier die dauerhafte Gleichsetzung des genialen Wissenschaftlers und des Titans Prometheus als literarischen Topos etabliert. In der Philosophie spielt dieser eine beständige Rolle, so bei Anthony Ashley Cooper, dem dritten Earl of Shaftesbury in Soliloquy (1710); ebenso in der deutschen Dichtung, wobei hier vor allem Johann Wolfgang Goethes Prometheus (1789) als Rebellenfigur richtungsweisend für die Fortschreibungen des Mythos wird.

3.2.3 Golem Eine im jüdischen Kulturkreis tief verankerte alternative Mythenbildung erfährt der Golem, eine so unförmige wie unfertige „Lehmfigur, die durch Wortmagie zu einem künstlichen, menschenähnlichen Geschöpf belebt wird und durch ebensolche Wortmagie auch wieder abgetötet werden kann“ (Kormann 2006, 74). Dieser hat eine umfangreiche Rezeptionsgeschichte ab der Romantik, etwa in Achim von Arnims Isabella von Ägypten (1812). Literarisch die moderne Phantastik mitbegründend findet der Mythos einen prominenten Platz in der Erzählung Der Golem von Gustav Meyrink (1915). Auch in der Lyrik ist der Golem prominent, etwa bei Detlev von Liliencron (Der Golem, um 1900), Jorge Luis Borges (El Golem, 1958) sowie John Hollander (A propos ft he Golem, 1969). Um den Schauplatz Prag und den zweiten Weltkrieg arrangiert Friedrich Torberg sein Rewriting Golems Wiederkehr (1968) und auch in die Science-Fiction wird er spätestens mit Stanisław Lems Golem XIV (dt.: Also sprach Golem, 1984 [1981]) aufgenommen. Bereits einem kritischen Posthumanismus verbunden ist die Montage von Golem-Mythos und Cyborg-Narrativ in Marge Piercys Roman He, She and It (Body of Glass) (dt.: Er, Sie und Es, 1991). Ganz aktuelle Varianten finden sich in Oleg Jurjews Der neue Golem oder Der Krieg der Kinder und Greise. Roman in fünf Satiren (2003) und in den Fantasyerzäh-

Literaturgeschichte der Künstlichen Intelligenz 

 61

lungen Feet of Clay (dt.: Hohle Köpfe, 1996) und Going Postal (dt.: Ab die Post, 2004) sowie Making Money (dt. Schöne Scheine, 2007) von Terry Pratchett. In der Kinderund Jugendliteratur schreibt Mirjam Pressler mit Golem stiller Bruder (2007) den Mythos in eine reduzierte Verhandlung Künstlicher Intelligenz im historischen Umfeld des Rabbi Löw in Prag um 1600 um.

3.2.4 Homunculi Eine gewisse Randexistenz lässt sich für den kleinsten künstlichen Menschen unter den phantastischen Konstrukten nachweisen: den Homunculus, der spätestens seit der Schrift De natura rerum (1538), die Paracelsus zugeschrieben wird (Völker 1971, 354), einen festen Platz in der Literaturgeschichte der KI hat. Darin wird von einem Verfahren berichtet, das aus Blut, Samen und Urin einen Homunculus erzeugt. Die Spuren dieser Idee wiederum erscheinen im zweiten Teil von Goethes Faust (1832). Adlatus Wagner erzeugt hier ein Männlein, das seine (Künstliche) Intelligenz sogleich durch die Diskussion des Leib-Seele-Problems beweist. In der Fantasyliteratur erscheint der Homunculus in der Nachfolge seiner Rolle in Faust. Der Tragödie zweiter Teil immer wieder als kluger wie hinterhältiger Ratgeber und Begleiter der Helden.

4 Technologische Moderne: Menschenkonstruktionen im 18./19. Jahrhundert Im 19. Jahrhundert schlagen sich in der Literatur zunehmend Spuren des Beginns eines technologischen Zeitalters nieder. Der künstliche Mensch wird zum Dingsymbol dieser Tendenz und unter den Bedingungen seiner biologischen bis physikalisch-naturwissenschaftlichen Herstellung zunehmend auch als literarisches Motiv erprobt. Dies geschieht zum einen im Moment der physikalisch-technisch durch Menschenhand konstruierten Automatenmenschen des 18./19. Jahrhunderts, zum anderen durch die literarische Verhandlung und Schöpfung von biologischmedizinisch aus ‚Menschenresten‘ (wieder-)belebten Monstern. Diese Verhandlungen entstehen nicht zuletzt auch aus einer Faszination für das Unheimliche und das Sublime, basieren aber auch auf den zentralen Dualismen, mit denen sich der Humanismus in der Entstehungszeit der Texte konfrontiert sieht und die hier wesentlich mitverhandelt werden. In Position gebracht wird dafür die Faszination für den künstlichen Menschen als Werk des Ingenieurs, als geniale Maschinenkonstruktion und menschliche Leistung einerseits und als Werk des Reproduktions-

62 

 Maren Conrad

mediziners und magisch belebte, transzendente Instanz andererseits. In dieser literaturgeschichtlichen Phase wird das Motiv damit erstmals etabliert, um an ihm ‚Menschlichkeit zu erproben‘. Zwei kanonische Texte leisten diese Erprobung genrebildend, nämlich Mary Shelleys Frankenstein, der als ‚Ur-Text‘ ganz wesentlich das Genre der Science-Fiction mitbegründet (Evans 2014, 50) und E. T. A. Hoffmann, dessen Sandmann den Automatenmenschen für den Bereich Horror und Fantastik erschließt. Zugleich verhandeln diese Texte „jeweils das (vermeintliche) Konzept eines Humanismus […], der irgendwie der neuen Technologie entgegenzustehen scheint“, wobei diese Technologie „eine spezifische Differenz zwischen Humanem und Nicht-Humanem“ zu bestimmen versucht (Herrmann 2018, 28–30). Diesen Dualismus entwickelt die deutsche wie die englische phantastische Literatur der Romantik (engl. gothic novel) ganz wesentlich mit, denn Shelley und Hoffmann verhandeln in ihren Werken erstmals die für den Motivkomplex des Maschinenmenschen essenzielle Dichotomie von ‚Geist und Materie‘, von Künstlicher Intelligenz und künstlichem Körper, wie sie Descartes aufmacht. Dies geschieht, indem sie mit einem für ihre hybriden Ästhetiken und Gattungsexperimente typischen alternativen Ambivalenzmodell arbeiten und anhand der Automate eine Ästhetik des Unheimlichen, anhand des Monsters eine Ästhetik des Hässlichen entwickeln. Beide Texte leisten dabei eine ‚Arbeit am Mythos‘, insofern sie alter deus und alter natura, die programmatische Selbsterhebung als autonome Schöpfungsinstanz bei Prometheus mit künstlichen bzw. künstlerischen Reproduktionstechniken und göttlichen Funken als transzendente Belebungsinstanz bei Pygmalion in ihren Schöpfungen jeweils zusammendenken (Herrmann 2018, 191). Romantische Texte markieren dabei, einerseits durch ihre Verankerung in der Antikenverehrung, andererseits durch ihre Technikkritik, einen unter dem Eindruck des Humanismus entstehenden Paradigmenwechsel in der kulturellen Wahrnehmung des belebten Künstlichen: Galt die Maschine bisher als Metapher für menschlich-göttliches Können, Perfektion und Harmonie, wird sie nun in der beginnenden Industrialisierung zunehmend zum Symbol von Fremdbestimmung, Beschränkung und Abhängigkeit und zu einem Symbol, anhand dessen der Subjektbegriff in der Romantik neu diskutiert und hinterfragt werden kann (Drux 1988, 87).

4.1 Fortschreibungen: Belebte Statuen Zahlreiche Autoren der romantischen deutschsprachigen Literatur setzen die beiden Traditionslinien der künstlichen Frau als femme fatale einerseits und femme fragile andererseits federführend fort. Dazu zählt der Bezug auf Pygmalion und die Antike bei Joseph von Eichendorff, der nicht nur den Pygmalion-Mythos von der belebten Statue in seiner Erzählung Das Marmorbild (1818), sondern auch das popu-

Literaturgeschichte der Künstlichen Intelligenz 

 63

läre Motiv der Statuenhochzeit, etwa in seinen Balladen (Die zauberische Venus) fortschreibt (Pabst 1955, 134). Letzteres Motiv findet sich auch bei Jean Paul, der in Auswahl aus des Teufels Papieren (1789) eine, wie es im vollen Titel heißt einfältige aber gutgemeinte Biographie einer neuen angenehmen Frau von bloßem Holz, die ich längst erfunden und geheiratet, erzählen lässt und diesen Text als Gesellschaftssatire konzipiert (Kormann 2006, 75). Ähnlich satirische Tendenzen der Darstellungen von Automaten finden sich bei Karl Immermann (Die Papierfenster eines Eremiten, 1822; Tulifäntchen, 1830) und Heinrich Heine (Bericht über den englischen Mechanikus in Zur Geschichte der Religion und Philosophie in Deutschland, 1835). Hier schließt im Französischen auch Prosper Mérimée mit der Novelle La Vénus d’Ille (1837) an (Gendolla 1992). Die belebte Statue wird in der Romantik zunehmend auch als Symbol einer gelingenden Kunstreligion etabliert, etwa in August Wilhelm Schlegels Stanzengedicht Pygmalion (1797), in dem der Künstler als höchste Instanz der Weltwahrnehmung und Welterschaffung agiert, der die Welt und auch die Artefakte darin durch sein Schaffen belebt. In Eichendorffs Marmorbild tritt die Statue hingegen als antik-heidnische Verführerin auf, die es zu überwinden gilt. E. T. A. Hoffmann führt durch die Kombination all dieser Motive dann in den satirischen Anteilen von Der Sandmann fast schon im dystopischen Gestus eine Gesellschaft vor, die, getäuscht von der Lebendigkeit der Puppe Olimpia, in eine existenzielle Krise gestürzt wird und beginnt, die eigene kollektive Menschlichkeit auf Grund des Fehlens von Individualität in Frage zu stellen.

4.2 Technologische Moderne: Die Automate In Die Automate (1814) und Der Sandmann (1817) verarbeitet E. T. A. Hoffmann erstmals in der deutschen Literaturgeschichte das Motiv der mechanischen Puppe und das der Automaten. Dabei inszeniert er die technologischen Innovationen seiner Zeit als etwas Phantastisches und Unheimliches. Die beiden Texte stehen einerseits unter dem Einfluss neuer wissenschaftlicher und philosophischer Strömungen sowie andererseits unter dem Eindruck der ersten Automaten, die ab der Mitte des 18. Jahrhunderts gebaut werden und durch Europa touren. Der Sandmann ist zwar der bekannteste, nicht aber der erste Text, in dem sich die phantastische Literatur der Romantik dieses Themas annimmt. Denn seine frühere Erzählung Die Automate nimmt unter anderem direkten Bezug auf den vermeintlichen Schachroboter des Wolfgang von Kempelen (Lieb 2008) und ist damit eine umfassende Ansammlung zahlreicher Sujets und Diskurse im Motivbereich der frühen Automatenformen einer Künstlichen Intelligenz, ja er „kann als Ausstellung, mithin als Archiv oder Dispositiv aller populären Automaten sowie der mechanistischen Diskurse des 18.

64 

 Maren Conrad

und frühen 19. Jahrhunderts gelesen werden“ (Meteling 2009, 486). Beide Texte Hoffmanns verhandeln die Fragen: Was ist lebendig und menschlich? Was ist unbelebt und maschinell? Und erstmals werden (un-)tote Körperteile mit der Maschine kombiniert, wenn der Puppe Olimpia scheinbar blutige menschliche Augen eingesetzt werden, die sie später verliert (Matt 1971). Sie tendiert damit bereits zur Form eines cyborg-ähnlichen Mischwesens und die ambivalent-hybride, weil unzuverlässige Erzählung zeigt so formal wie motivisch erste transhumanistische Tendenzen. Ganz in der Tradition des Pygmalion-Mythos steht der geliebte Automat hier erneut als weibliches Objekt im Mittelpunkt einer männlichen Aufmerksamkeit, denn Olimpias Belebung findet vor allem durch das Begehren eines Mannes statt – hier veranschaulicht durch den Blick Nathanaels und seine Interaktion mit ihr. Ein ganz ähnliches Schicksal ereilt, wenige Jahre später in der russischen Literatur auch das jeweils männliche Opfer in Der hölzerne Gast von Vladimir Fedorovich Odoevsky (1833) und in Alexei Konstantinowitsch Tolstois Drama Don Juan (1859/60). (Frenzel 1992, 516) Das Kernmerkmal des weiblichen Maschinenwesens ist in den Erzählungen über Automaten mit weiblichem Erscheinungsbild die Unentscheidbarkeit von Belebtheit und Nichtbelebtheit, die auch Sigmund Freud in seiner exemplarischen Lektüre von Der Sandmann 1919 in seinem Aufsatz „Das Unheimliche“ als Kernmoment des Unheimlichen identifiziert. Im Rückgriff auf Jentsch argumentiert er: „Im Sandmann […] ist es eine besonders günstige Bedingung für die Erzeugung unheimlicher Gefühle, wenn eine intellektuelle Unsicherheit geweckt wird, ob etwas belebt oder leblos sei, und wenn das Leblose die Ähnlichkeit mit dem Lebenden zu weit treibt“ (Freud 1978, 245). Für Freud ist die Angst vor der Puppe und die Angst vor dem Verlust der Augen zugleich Kastrationsangst. Die Ambivalenz des Automaten Olimpia  – wie auch der Figur Claras aus Sicht des Protagonisten  – codieren damit sowohl in der psychoanalytischen Lesart als auch aus neueren kulturwissenschaftlichen Perspektiven die zwei hochrangigen ‚Unheimlichkeiten‘ und Tabuthemen der westlichen Kultur, nämlich weibliche Autonomie einerseits sowie Tod und Sexualität andererseits. Elisabeth Bronfen bemerkt zugespitzt: „Death and femininity are culturally positioned as the two central enigmas of western discourse […] [representing] that which is inexpressible, inscrutable, unmanageable, horrible; that which cannot be faced directly but must be controlled by virtue of social laws and art“ (Bronfen 1992, 255). Die Kombination von Weiblichkeit und Tod verhandeln Hoffmanns Texte innovativ im Leitmotiv der Automate, die er mit den Kontexten sozialer Normen und Grenzen sowie mit den Perspektiven auf Kunst und Wissenschaft im Modus der Literatur kombiniert. In beiden Erzählungen kulminiert das Unwägbare und Unheimliche in tendenziell offenen bzw. unzuverlässigen Narrativen, die Ambivalenz des Automaten wird also auch zum poetischen Prinzip. Die gegensätzliche mora-

Literaturgeschichte der Künstlichen Intelligenz 

 65

lische Implikation beider Typen antiker künstlicher Weiblichkeit eröffnet zudem in der romantischen Literatur eine Leitdifferenz, die die phantastische Literatur und alle nachfolgenden, insbesondere filmischen Erzählungen von Maschinenfrauen nachhaltig prägt. Dabei findet eine Verschmelzung von Galatea und Pandora statt, die zur Verbindung der Konzepte der ‚perfekten künstlichen Frau‘ einerseits und der ‚dämonischen künstlichen Frau‘ andererseits führt, indem nicht selten in einer Figur beide Aspekte angelegt sind und eine der beiden Ausprägungen dann durch die Mensch-Maschinen-Interaktion zur vollen Entfaltung kommt. Entsprechend dem Programm der romantischen Ironie und ihrer beständigen Umkehrung von Motiven finden sich in der deutschen Romantik in Nachfolge Hoffmanns zudem zahlreiche Umkehrungen des Automatenmotivs, in welchen sich – hier bemerkenswerterweise immer männliche Menschen – als Automaten verkleiden. Diese Verkehrungen erscheinen signifikant oft im Genre des Lustspiels und leisten damit ähnlich den phantastischen Texten eine Auflösung einer klaren Wertung durch die für satirisch-humoristische Texte konstitutive Ambivalenzfigur des Karnevalesken – so etwa in Clemens Brentanos Lustspiel Ponce de Leon (1804), Franz August von Kurländer (Der Mechanikus von Plundershausen, 1825) und in Georg Büchners Leonce und Lena (1842) (Frenzel 1992, 518).

4.3 Biologisch-technische Moderne: Menschenmonster und die ‚Arbeit am Mythos‘ In der Traditionslinie, in der die Schöpfung eines künstlichen Menschen auch die Überwindung des Todes markiert, begründet Mary Shelleys Roman Frankenstein (1816) die Entstehung des wissenschaftsnahen literarischen Genres der ScienceFiction ganz wesentlich mit. Ihr für das gesamte Motivfeld richtungsweisender Roman markiert dabei schon im Untertitel Or the Modern Prometheus seine Bezüge zu den mythologischen Wurzeln des künstlichen Menschen und der Künstlichen Intelligenz. Mit Blick auf das Monster als hybrides Wesen lassen sich aus Sicht der Forschung hier zusätzlich klare Parallelen zum Golem- und PygmalionMythos nachweisen (Mellor 1988, 225–226). Frankensteins Monster stellt zudem weitere mythologische Bezüge her und benennt seinen eigenen Dualismus, John Miltons Paradise Lost (1667) zitierend, wenn es sich als Wesen der Widersprüche, zwischen Adam und dem ‚gefallenen Engel‘ positioniert. Die Künstliche Intelligenz und soziale Seele des Monsters erscheint als gefangen im abjekten posthumanen Körper und weist in ihrer Unvereinbarkeit eine Monstrosität als phantastische Ambivalenz auf. Der Körper des Monsters, ein Flickenteppich aus reanimierten Leichenteilen, steht im Gegensatz zu den Geschöpfen der Antike dabei nicht im

66 

 Maren Conrad

Mittelpunkt; vielmehr wird er dem Leser explizit vorenthalten und als leerer Signifikant präsentiert, dessen hybrider Status als Menschmaschine „beyond the conceptual categories of representation through language“ daherkommt und „the very category of the human from within“ nicht als physische Präsenz, sondern als eine komplexe Textkonstruktion in Frage stellt (Schäbler 2012, 123). Explizite Schilderungen zum Aussehen des Monsters gibt es im Roman dementsprechend kaum. Die Künstliche Intelligenz hat hier erstmals eine Form der sublimen Absenz erreicht, denn „von der Monstrosität des Monsters sollte man sich nicht täuschen lassen. Diese ist rein körperlich, und wenn es nicht die filmische Darstellung gäbe, hätte man Schwierigkeiten, sie sich vorzustellen“ (Massari 1989, 116). Vielmehr ist das Abjekte der Figur primär durch die literarische Beschreibung der Reaktionen von Menschen codiert und steht damit als KI im Zentrum einer Erzählung, die vor allem das Scheitern der Menschen wie des Künstlichen am Menschlichen vorführt. Damit lässt sich „der reanimierte Leichnam in Shelleys Roman […] einerseits als das Produkt des physiognomischen Blicks und andererseits als anamorphotische Umschrift klassizistischer Kunstkonzepte“  – kurz, als experimentelle poetische Verzerrung bis hin zur Umkehrung der Fokussierung auf körperliche Schönheit – lesen (Herrmann 2018, 252). Die Diversität und Unbestimmbarkeit des Monsterkörpers, wie der aus zahlreichen Intertexten bestehenden Künstlichen Intelligenz des Monsters und der Stimmen und Instanzen des Textes, verkörpern damit in ihrem Zusammenspiel zugleich den Versuch der Amalgamierung von literarischer früher Moderne und Moderne, christlichem und antikem Mythos, Wissenschaft und Fiktion. Der künstliche Mensch als Un-Mensch ist in diesem Werk erstmals in der populären Literaturgeschichte klar männlich konnotiert. Er unterscheidet sich in seiner Eloquenz und seiner Suche nach Bildung, Autonomie und Gemeinschaft als aktives Subjekt ganz wesentlich von Hoffmanns passivem Besitz- und Blickobjekt, der Puppe Olimpia. So vertieft er erneut die Geschlechterdifferenzierung von weiblichem ‚künstlichem Menschen‘ als körperliches Phänomen und männlicher ‚Künstlicher Intelligenz‘ als Akteur des Textes, was auch in der Opposition von Schönheit und Hässlichkeit, dem Unheimlichen und dem AbjektSublimen erneut manifest wird. Während Hoffmanns Werk damit als frühe Form eines technologischen Posthumanismus gelesen werden kann, lässt sich Frankenstein auch als eine frühe Vision eines kritischen Posthumanismus interpretieren.

Literaturgeschichte der Künstlichen Intelligenz 

 67

5 Präkybernetische Moderne – Transhumanismus und Ausdifferenzierungen 1870–1950 In der Nachfolge von Hoffmann und Shelley entstehen, abgesehen von einigen Varianten (u.  a. Opern- und Theaterbearbeitungen) der beiden ‚Urtexte‘, lange keine vergleichbaren Fortschreibungen. Auf die ersten Entwürfe eines künstlichen Menschen im Rahmen eines Möglichkeitsdenkens, das sich bereits der Machbarkeit des technischen Fortschrittes bewusst ist, entwickelt sich daher erst zum Ende des 19.  Jahrhunderts eine breite literarische Strömung, die unter dem Einfluss von Industrialisierung, Globalisierung und Säkularisierung zunehmend globale Implikationen einer technischen Weiterentwicklung der Menschheit in den Blick nimmt. Aus den ursprünglich phantastischen Impulsen der Romantik und der gothic novel, die das Posthumane als eine erste vage Vision und individuelle Mikrokrise für Mensch, Monster oder Maschine inszenieren, wird zunehmend eine neue Form der utopischen Literatur, die mit Elementen einer entstehenden ScienceFiction experimentiert und die die gesellschaftliche und individuelle Bedeutung einer ‚Maschinenevolution‘  – und Maschinenrevolution  – abzuschätzen und experimentell auszudeklinieren versucht. Aus diesen Tendenzen gehen zum Ende des 19. Jahrhunderts Formen utopischen und dystopischen Erzählens hervor, die zumeist verbunden werden mit einer Weiterentwicklung der Science-Fiction durch ihre Verbindung mit Elementen der phantastischen und der utopischen Literatur. Mit dem beginnenden 20. Jahrhundert erreicht die Utopie dabei „durch Reflexion der Axiome und Grenzen ihrer Gattung eine neue Qualität“ (Müller 1989, 11). Der Beginn eines dystopischen Erzählens – der „dystopian turn“ in einer „Ära der Stagnation und der Desillusionierung“ – lässt sich zugleich als eine „Folge der Krise des Fortschrittsgedanken“ identifizieren, der die Darstellung von KI zur Jahrhundertwende wesentlich mitprägt (Layh 2014, 17). Es sind in diesen Texten primär gesellschaftlich virulente Ängste, „die den Übergang von der Utopie zur Dystopie bestimmen; aus Wunschbildern werden Schreckbilder“ und Wunschutopien entwickeln sich zunehmend zu den Kippbildern einer Warnutopie (Voßkamp 2013, 21). Diese Transformation wird nicht zuletzt durch extreme Zukunftsvisionen vorangetrieben, die die Potenziale einer theoretisch möglichen technischen Entwicklung in utopischen Texten entwerfen – und diese dann zu Warnutopien verkehren, indem sie das Scheitern des Individuums oder der gesamten Menschheit und Gesellschaft an diesen neuen Potenzialen vorführen. Die seit Thomas Morusʼ Utopia (1516) etablierten Formen von Utopie und Anti-Utopie werden so zur Jahrhundertwende von einer Science-Fiction zur Dark Science-Fiction umgekehrt. Der Fiktion kommt dabei aus gesellschaftstheoretischer Sicht eine zentrale Rolle zu: Sie leistet im Sinne der Überlegungen einer Katastrophensoziologie und in Anlehnung an die Konzepte

68 

 Maren Conrad

Ulrich Becks von der Weltrisikogesellschaft (2007) die Realisierung der zunehmend empfundenen gesellschaftlichen Kontingenz, die fiktionale Ausdeklination eines möglichen Eintretens der Katastrophe, die dann den Kern der literarischen Warnutopie ausmacht.

5.1 Kollektiver Transhumanismus – Dystopien ab 1870 Technische Entwicklungen, insbesondere die Dampfmaschine und die Fließbandproduktion, stehen Pate für literarische Entwürfe von Maschinenmenschen und technologisierten Gesellschaften. Erstere sind dabei zu Beginn reine Arbeitsmaschinen, so in der Erzählung „The Steam Man of the Prairies“ von Edward S. Ellis (1868). In der französischen Literatur findet sich, ähnlich zu der Selbstbetitelung von Frankensteins Monster als ‚Adam‘, eine ebenfalls titelgebende Verknüpfung von christlichem Schöpfungsmythos, Pygmalion-Mythos und Zukunftstechnik, die die Gynoide in Auguste Villiers de l’Isle-Adams L’Eve future (1889) bestimmt. Die Vorzüge der künstlichen Frau als alternative Geliebte werden darin zusammen mit ihren technischen Details und Fähigkeiten umfangreich beschrieben (Noiray 1985). In ihrer Grundidee gleicht die Erzählung stark dem Sandmann, wenn darin „die Schaffung der künstlichen Frau auf das doppelte Bedürfnis des Mannes antwortet, sich einerseits gegenüber der mit Weiblichkeit gleichgesetzten Natur als Subjekt mit Kultur und Geschichtlichkeit abzugrenzen und sich andererseits die Schöpferkraft der Natur anzueignen“ (Wortmann 2004, 44). Bemerkenswert erscheint hier auch, dass in beiden Fällen die projektierten ‚Nutzer‘ der Maschine nicht mit den Schöpfern der Maschine gleichgesetzt sind. Der Erfinder Thomas Edison in L’Eve future und der Physikprofessor Spalanzani in Der Sandmann treten vielmehr beide als Konstrukteur- und Vaterfigur, aber auch als frühe Industrielle auf, die für einen Käufermarkt produzieren und versuchen, ihre künstlichen Geschöpfe jeweils ‚an den Mann‘ zu bringen und in die Gesellschaft einzuführen. Edison geht in L’Eve future sogar so weit, von der „sozialhygienische[n] Funktion massenhaft hergestellter Androiden“ zu phantasieren (Wortmann 2004, 58). In einem ähnlichen Kontext der Zukunftsvision einer industrialisierten Welt steht die Erzählung Die Menschenfabrik von Oskar Panizza von 1890. Die Erzählung bringt Mensch und Maschine innerhalb der Vision von der Optimierung der Menschheit zueinander in Stellung und entwirft die Herrschaft einer Künstlichen Intelligenz als dystopisch-technologisches Bedrohungsszenario. In einer doppelten historiographischen Metafiktion verbirgt Samuel Butler mit Erewhon (1872) eine vergleichbare dystopische Vision für das Land Erewhon  – einem Akronym von ‚Nowhere‘ –, mit der er auch die Tradition der Utopie nach Morus satirisch fortführt. In seiner Vision einer vormodernen Gesellschaft denkt er die Forderungen

Literaturgeschichte der Künstlichen Intelligenz 

 69

der Maschinenstürmer konsequent weiter, denn der Status des nicht-technologischen Lebens ist in seinem Weltentwurf frei gewählt. Erewhon hat sich gegen eine drohende ‚Evolution der Maschinen‘ entschieden und ist in einen vorindustriellen Zustand ‚zurückgefallen‘. Die Gründe hierfür werden in dem fingierten Intertext „Book of Machines“ beschrieben. Diskutiert wird darin etwa die Möglichkeit, dass eine Kartoffel oder eine Dampfmaschine Bewusstsein haben könnten. Butler erscheint so „mit dem Verwischen der traditionellen Materie-Geist-Dichotomie“ als „früher Prophet kybernetischer Standpunkte“ (Wittig 1997, 88). Die tatsächliche Dystopie wird hier durch den freiwilligen Rückfall in eine vortechnologische Existenz abgewendet. Spätere Texte denken dieselbe Prämisse dann dystopisch konsequent zu Ende, indem darin die Maschinen die Entmündigung der Menschen vollkommen vollzogen haben. Eine solche Vision entwirft E. M. Forster in seiner Science-Fiction-Kurzgeschichte The Machine Stops (1909). In John  W. Campbells Texten Twilight und Night (1934) wird der Untergang der Menschheit im Sinne einer beginnenden Weltraumorientierung von der Erde auf ein von Maschinen regiertes Universum ausgeweitet (Carper 2019, 138). Die Korrelation von Arbeit und Maschine bestimmt fast alle diese Texte und ist für die ersten Jahrzehnte des 20. Jahrhunderts weiterhin wegweisend. Sie markiert die Tendenz, den künstlichen Menschen und Künstliche Intelligenz als reines Hilfskonstrukt zu konzeptionieren. Sprachlich etabliert sich diese paradigmatische Verbindung von Künstlicher Intelligenz und Arbeitsmaschine schließlich durch das Drama R.U.R. (Rossum‘s Universal Robots) von Karel Čapek (1920) (siehe auch → Theatergeschichte KI). Hier herrscht die dystopische Vision im Sinne Panizzas und Forsters – das Stück endet mit der Ausrottung der Menschen. Čapek etabliert in diesem Text den Begriff ‚Roboter‘, der die bis hierher in der Literatur vorherrschenden Begriffe ‚Maschinenmensch‘, ‚Automat‘ oder ‚Android‘ ablösen und zum dominanten Diskursfeld für den künstlichen Menschen werden wird. Der Roboter, hier mit dem tschechischen Wort ‚robota‘ für Arbeit konnotiert, wird so zur Arbeitsmaschine und der Begriff markiert den um die Jahrhundertwende stattfindenden Verlust der Assoziation von Menschlichkeit und dem Status der KI als ‚menschenähnlich‘.

5.2 Individueller Transhumanismus – KI als Arbeitsroboter, Bedrohung und Partnerersatz Von Čapek 1920 terminologisch (und von Fritz Lang 1927 in Metropolis dann visuell) im kulturellen Archiv fest etabliert, wird der ‚Roboter‘ damit in seiner nunmehr kaum noch menschlichen, sondern primär nur menschenähnlichen, vor allem aber metallisch-maschinellen Erscheinungsform, für mehrere Jahrzehnte zum dominanten Symbol für die Bedrohung des Menschen durch seine Knechte. Die Arbeitsma-

70 

 Maren Conrad

schine ist eine politische Schwellenfigur geworden, die die kollektiven Grenzen der Menschheit markiert und als Identifikationsfigur für den unterdrückten Arbeiter einerseits und Ausrottungsvision einer unmenschlichen Zukunft andererseits im Genre der Science-Fiction fungiert. Der Roboter ist dabei eine männlich konnotierte, logisch-mathematisch agierende Maschine und entspricht damit auch der Fortführung der KI im Rahmen erster Konzepte eines frühen Transhumanismus, indem er den defizitären, weil irrational-emotionalen Menschen ergänzt und so durch seine Präsenz verbessert. Dabei ist zu ergänzen, dass die individuelle Verbesserung in den frühen Erzählungen oft scheitert und in der Tötung oder im Austauschen des ‚besitzenden‘ Menschen durch seinen Helfer mündet. In Deutschland wird dieser Robotertopos der bedrohlichen KI als böses Individuum und Doppelgänger wesentlich von Thea von Harbou in ihrem Roman Metropolis (1925) geprägt, der spätestens mit der Verfilmung durch ihren damaligen Lebenspartner Fritz Lang (1927) internationale Wellen schlägt und mit dem dämonisch-weiblichen Roboter auch einen Trend für die filmische Inszenierung setzt. In der Literatur bleibt diese Strömung allerdings gegenläufig, mit einer klaren Tendenz zum männlich konnotierten Roboter. Dies zeigen zahlreiche frühe internationale, oft satirische Texte, die den Roboter als Despot und Tötungsmaschine inszenieren, so z.  B. die Erzählung Maxon’s Master von Ambrose Bierce (1880) über einen rachesüchtigen Schachautomaten, der nach Frustration über das Spiel seinen Schöpfer ermordet. Zu nennen ist auch Der Automat von Horneck von Karl Hans Strobel (1924), eine Erzählung, in der ein Graf von seiner als Statist für den Kerker angeschafften Maschine ausgetauscht und selbst zum Gefangenen wird. Phantastisch-satirisch führt auch der Roman Leo Gilberts (Pseudonym für Leo Silberstein), Seine Exzellenz – der Automat von 1907, die Idee der Machtergreifung durch die Maschine aus, während die Kurzgeschichte Marionettes, Inc. Von Ray Bradbury (1949) das Gedankenspiel zur tragischen Beziehungskomödie übersteigert. Gedankenexperimente von Autorinnen führen diese Ideen ebenfalls fort und spekulieren neu über die Themen weiblicher Abhängigkeit, wie z.  B. No Woman Born (1944) von Catherine Lucille Moore, die die Geschichte einer zur Roboterfrau transformierten Tänzerin und ihrer Selbstfindung erzählt. In eine ähnliche Richtung zielt Ira Levin mit The Stepford Wives (1972), der die Frage nach der Redundanz und Austauschbarkeit von hörigen Ehefrauen aus der Perspektive eines erstarkenden Feminismus in einen satirischen Thriller einbettet. Unter großer internationaler Beachtung führt Isaac Asimov mit seinen zahlreichen Erzählungen und Erzählzyklen die Tendenzen der Inszenierung von Robotern als Arbeiter und Ersatzpartner für Menschen und zugleich als Gegenstand der Verhandlung von Menschlichkeit und von Gut und Böse fort. Wegweisend und die gegenwärtige KI-Forschung und Roboterethik wesentlich mitbegründend sind seine Erzählungen auch, weil darin erstmals die bis heute bekannten Roboterge-

Literaturgeschichte der Künstlichen Intelligenz 

 71

setze Asimovs entwickelt und erprobt werden. Seine Robotergeschichten, zumeist angesiedelt in einer nahen oder fernen Zukunft der Erde oder zentriert um ein ‚Foundation-Universum‘, umfassen traditionell erzählte Romane wie verschiedene kurze und längere Erzählungen und Erzählzyklen, so Runaround (Herumtreiber, 1942) und Ich, der Roboter (I, Robot, 1950). Dabei schreibt Asimov im Fahrwasser der bereits seit den 1930ern sich fest etablierenden Autor:innen (u.  a. C. L. Moore und J. W. Campbell) der Magazine Astounding Science Fiction und Amazing Stories, die die ersten konventionellen Robotergeschichten international populär machen. Alle hier genannten Texte sind tendenziell traditionell bis konventionell erzählt und weisen in literarischem Stil und narrativen Strukturen eine anthropozentrische Weltsicht auf, was besonders deutlich wird in der Fokussierung auf private Mikrokonflikte und die menschliche Sicht auf den Roboter als Besitz oder Helferfigur. Explizit wird dies in neutralen Erzählhaltungen bei der Schilderung der Roboter und nüchternen, oft im Expertenton gehalten Beschreibungen der Technologie, sowie in der Darstellung der einseitigen, kaum sozialen Interaktion oft stummer oder willenloser Roboter mit beispielsweise spielenden Kindern, wie in Asimovs Robbie (1940). Die Roboter sind in den Narrativen also zwar Verhandlungs- und Erzählgegenstand, sie erscheinen aber mehr als verzerrte Spiegelung der Menschen und Reflexionsanlass für diese. Als stumme Helferfiguren wird ihnen nur durch die Aktivierung und Beachtung des Menschen Bedeutung zugewiesen. Selbst wenn eine finale Rache gelingt, erscheinen sie in der Darstellung kaum als individuelle oder gar autonome Instanzen; vielmehr ist es zumeist die Aufgabe der Erzählinstanz, ihren ausdrucklosen Gesichtsmasken eine Interpretation zuzuweisen. Dieser Traditionslinie des gemäßigt-transhumanistischen Erzählens über den künstlichen Menschen folgt – ergänzt um die Perspektive einer ‚Futurologie‘ und dem Erschaffen von ‚Möglichkeitsräumen‘ auch Stanisław Lem, etwa mit seinen Robotermärchen (1964). Flankiert werden die literarischen Werke der Zeit durch Essays zu Robotern, etwa von François Ribadeau-Dumas (1931; Dietz 2003, 38) oder George Bernanos in La France contre les robots (1947; Dietz 2003, 39).

6 Populäre Erzählstrukturen und frühkybernetische Postmoderne ab 1950 Ein wichtiger Einschnitt für das Schreiben über KI ab 1950 ist die Entwicklung einer frühen Kybernetik und damit auch einer beginnenden KI-Forschung. So ist die Schwelle zur Jahrhundertmitte einerseits markiert durch die Entwicklung des Turing-Tests, den Alan Turing 1950 formuliert, sowie andererseits durch Norbert Wieners Publikation Cybernetics (1948). Der Untertitel des Werkes, Or Control and

72 

 Maren Conrad

Communication in the Animal and the Machine, markiert erneut deutlich die zentralen Dichotomien, die das literarische Motivfeld des künstlichen Menschen und der Künstlichen Intelligenz seit ihren Anfängen bestimmen und die nun beginnen, aufbauend auf Humanismus und technologischem Posthumanismus erste Formen eines Transhumanismus und kritischen Posthumanismus zu forcieren und diese Perspektiven gegeneinander in Position zu bringen. Zur Mitte des Jahrhunderts wandelt sich daher, auch in Folge der historischen und politischen Ereignisse der zwei Weltkriege, die literarische Funktion des Roboters oder Maschinenmenschen als künstlichem:r Partner:in und Bedrohung als Täuschungs- und Kampfmaschine. Maschinenmenschen werden nun von der politischen Grenzfigur einer seelenlosen und gehorsamen Arbeitsmaschine und zugleich kollektiven Bedrohung der Menschheit zu einer ethischen Grenzfigur, die das individuelle Selbstverständnis der Menschheit in Frage stellt, wenn die seelenlose ‚Blechbüchse‘ zunehmend abgelöst wird von einem menschenähnlichen und zu Gefühl und Reflexion fähigen Androiden. Der Android – oder Gynoid – und in seiner Nachfolge die körperlose Künstliche Intelligenz des Supercomputers beginnen nun, mithilfe der eigenen Fähigkeit zur reflektierten Künstlichen Intelligenz das Potenzial der eigenen Menschlichkeit, aber auch der eigenen Individualität und Autonomie als Teil der Fähigkeiten ihrer KI zu erproben und zu verhandeln. Beide Konzepte reflektieren mithin Annahmen des Post- und Transhumanismus. Das Infragestellen der Hierarchie und der Macht des Menschen über die Maschine findet nun ebenso statt wie das hypothetische Weiterdenken der Möglichkeit einer zunehmenden Verschmelzung von Mensch und Technik bis hin zur Aufhebung der Dichotomie von Mensch und Maschine, wie diese auch Haraway in ihrem Essay Cyborg Manifesto (1985) programmatisch formuliert. In der Festlegung auf bestimmte literarische Formen verliert die Science-Fiction ihren Status als literarisches Spezial- und Randgebiet und etabliert sich zunehmend im Zentrum eines populären literarischen Feldes (Friedrich 1995). Die zum Ende des 19. Jahrhunderts entwickelten Formen utopischen Erzählens in der Science-Fiction und dystopischen Erzählens in der Dark Science-Fiction gehen ab der Mitte des 20. Jahrhunderts zunehmend in ausdifferenzierte zielgruppenspezifisch akkommodierte Varianten von phantastischer Literatur über. Dominante Genres, die sich dabei herausbilden und eng an das Leitmedium der Zeit und ein filmisches Erzählen anlehnen, sind der populäre (Zukunfts-)Thriller sowie spätestens ab den 1970er Jahren auch ein erstarkendes Genre der Science-Fiction in der Kinder- und Jugendliteratur sowie in der Fantasyliteratur. Konstitutiv für die unter den Eindrücken der Kybernetik und Robotik entstehenden populären trans- und posthumanen Genres und ihrer Inszenierung des ‚künstliche Menschen‘ im 20. und 21. Jahrhundert ist die Verbindung zahlreicher zuvor

Literaturgeschichte der Künstlichen Intelligenz 

 73

getrennt bestehender Traditionslinien. Diese kulminieren in der Literatur nun in fiktionalen Darstellungen von Androiden oder Computerwesen, die erstmals nicht mehr defizitär sind, sondern die Verbindung aller Kernfähigkeiten der Künstlichen Intelligenz problemlos leisten. Wahrnehmen, Verstehen, Handeln und Lernen sowie eine autonome Energie- und Informationsversorgung als Zeichen für ‚intelligentes Verhalten‘ (Bitkom 2017, 29) sind zunehmend selbstverständliche Teile der nichtmenschlichen Figuren und ihrer technischen Machbarkeit. Die KI ist damit zum ersten Mal seit ihren Anfängen in Mythos und phantastischer Literatur kein defizitäres, von seinem Schöpfer abhängiges Konstrukt mehr, sondern dem Menschen mindestens gleichgestellt. Grundsätzlich lassen sich drei Formen der modernen KIErzählung, in der die KI weiterhin traditionell als Erzählobjekt und Teil der dargestellten Welt funktionalisiert wird, unterscheiden. Zum einen Erzählungen, deren Erzählstruktur und Wahl des Sujets genrekonventionell und narrativ traditionell erzählen. An das traditionell humanistische Erzählen angelehnt erscheint darin eine ‚schwache KI‘ weiterhin als Hilfskonstruktion. Zum anderen markiert ihre Evolution zur ‚starken KI‘ bzw. ‚erstarkenden KI‘ eine zweite Narrationsformation, in der zumeist die Befragung der Androiden auf ihre Menschlichkeit hin und eine Inszenierung einer Art adoleszenten Selbstfindung stattfinden. Diese stehen in der Tradition des technologischen Posthumanismus. Eine dritte Gruppe von zumeist genuinen Thriller-Erzählungen bilden schließlich die Narrative rund um eine ‚Super-KI‘, die als antagonistische Instanz zumeist in Form eines körperlosen Supercomputers bzw. Netzwerks inszeniert wird. Diese Narrative sind an der Schwelle zwischen Transhumanismus und technologischem Posthumanismus verortet, denn nicht selten wird die übermenschliche Hochleistungs-KI als ‚wahnsinnig geworden‘ mit fast schon zu menschlichen, weil vollkommen irrationalen, Eigenschaften anthropomorphisiert.

6.1 ‚Schwache KI‘ und Algorithmen als Hilfskonstruktionen Im Zentrum dieser Narrative steht vor allem die Inszenierung der Menschen und ihrer Mikro- und Makrodramen innerhalb eines fiktionalen Zukunftsentwurfs. Die ‚schwache KI‘ ist innerhalb dieses Szenarios nur ein Teil des Gedankenexperiments über das (tendenziell bedrohliche) Potenzial einer KI für die Menschheit. In der Kinder- und Jugendliteratur finden sich ebenfalls zahlreiche berühmte Varianten des Motivs des Roboters als Freund. Maschinenwesen sind hier zumeist kurzzeitig Helferfiguren und Ersatzfreunde, die der kindlichen oder jugendlichen Sozialisation beistehen oder als Helfer in einem Abenteuer fungieren, so schon früh der Tin Woodman in Lyman Frank Baums The Wonderful Wizard of Oz (1900) oder Robbi in Robbi, Tobbi und das Fliewatüüt bei Boy Lornsen (1967). Die Texte dieser Provenienz

74 

 Maren Conrad

erzählen, weiter tief verankert in den traditionellen Perspektiven der humanistischen Anfänge des Genres, konservativ und anthropozentrisch. Narrative Struktur und Fokussierung konzentrieren sich auf den Menschen als Handlungsträger und den Nutzen oder die Gefahr, die die Technik für ihn darstellt. Roboter und Algorithmen sind hier ein selbstverständlicher Teil der dargestellten Welt, sie haben für die anthropozentrisch gestaltete Narration aber nur ergänzende bis ornamentale Funktion als Authentizitätsmarker für ein Science-Fiction- bzw. Zukunftsszenario; die Handlung bringen sie nur marginal voran. Insbesondere in den 1950ern bis 1990ern lässt sich hier eine unendliche Anzahl an internationalen Science-FictionTexten aufzählen. Auf Grund der Funktion der KI als dekoratives Element wird diese Auflistung hier nicht unternommen. Bemerkenswert ist, dass auch neueste Texte trotz einer starken Fokussierung auf das Thema KI und gegenläufiger Absichtserklärungen der Autoren anhaltend solche Tendenzen der Marginalisierung der KI aufweisen, selbst wenn sie eigentlich das Zentrum der Erzählung ausmachen sollen. Als typisches Werk dieser Art wäre hier Venus siegt (2015) von Dietmar Dath zu nennen. Der im Weltentwurf innovative, aber formal traditionelle Text leistet ein umfangreiches Erzählen über Androiden und KI und realisiert seine Innovation durch die Wahl seines Sujets, das in einem bereits über Jahrhunderte laufenden sozialen Experiment auf dem Planeten Venus verortet ist, und nach einer friedlichen Koexistenz von Mensch, Maschine und KI fragt. Diese Frage wird im Buch mit Blick auf Formen eines diktatorischen Staates beantwortet. Die dargestellte Welt unterscheidet dabei Künstliche Intelligenz zwischen den /D und den K/ – erstere netzwerkgebundene KI, letztere Androiden, in denen die KI körpergebunden ist. Während damit die zentrale literaturgeschichtliche Unterscheidung der KI in ‚stark‘ und ‚schwach‘ – gekoppelt an die Bedingung ‚frei‘ und ‚körpergebunden‘ – konsequent weitergeführt wird, bleibt die Rolle beider KI-Formen ‚schwach‘, denn der Ich-Erzähler ist ein Mensch, noch dazu männlich und Kind der höchsten Elite des Planeten, während in Opposition zu ihm eine Diktatorin als antagonistische Instanz installiert wird. Das Weibliche als dritte Instanz wird damit – genrekonventionell für die sehr frühe Science-Fiction – negativ semantisiert und der männlichen Erzählperspektive und der neutralen KI als Teil der dargestellten Welt gegenübergestellt. Weitere exemplarische, ähnlich funktionierende Texte sind Drohnenland (2014) von Tom Hillenbrand, in dem eine Kriminalgeschichte mit moderner Technik und den Grenzen der scheinbar unbegrenzten Überwachung konfrontiert wird. Eine ähnliche Marginalisierung von schwacher KI als Helferinstanz findet in Kriminalerzählungen und Thrillern mit Zukunftsszenario statt. Die Thriller-Handlung in einer Mondstation in Frank Schätzings Limit (2009) nutzt etwa eine schwache KI als ergänzendes PlotElement; ebenso hat die KI ‚Black Swan‘ in der postapokalyptischen Welt von Chuck Wendigs Wanderers (2019) zwar künstlerische Fähigkeiten, taugt als PMI – Predictive Machine Intelligence – aber nur zur Helferfigur.

Literaturgeschichte der Künstlichen Intelligenz 

 75

6.2 ‚Starke KI‘ und ‚erstarkende KI‘ – Androide Selbstfindung Hier lassen sich zwei Tendenzen in der Konfiguration der Diegese unterscheiden: Eine auf Science-Fiction-Konventionen beruhende Literatur entwirft eine ‚starke KI‘ in einer Zukunftswelt, während eine gemäßigtere Variante die Möglichkeiten des Zusammenlebens mit einer ‚starken KI‘ in der gegenwärtigen Lebenswirklichkeit im Rahmen einer alternativen Geschichtsschreibung inszeniert. In den Zukunftsszenarien der Science-Fiction-Tradition stehen die anthropomorphen und individualisierten einzelnen Androiden im Erzählmittelpunkt, zahlreiche Erzählungen weisen sogar eine deutliche Verunklarungsstrategie auf, bei der erst zum Ende hin deutlich wird, ob es sich bei der Hauptfigur um einen Menschen oder Androiden handelt. Als genrebestimmender Klassiker steht hier Philip K. Dicks Roman Do Androids Dream of Electric Sheep? (1968) im Mittelpunkt, der in Folge der erfolgreichen Verfilmung in Blade Runner entsprechend umbetitelt wurde und durch seine Verfilmung auch das literarische Genre wesentlich mitprägte. Auch in Stanisław Lems Erzählzyklus Cyberiada (dt. Kyberiade – Fabeln zum kybernetischen Zeitalter, 1950–1970) sind die Hauptfiguren Klapauzius und Trurl anthropomorphe, denk- und empfindungsfähige Roboterwesen, die ihrerseits bereits einen Schöpferstatus erreicht haben, da sie als Konstrukteure von Maschinen tätig sind. In dieser Tradition steht auch die Murderbot Diaries-Reihe (2017–2020) von Martha Wells, die besonders dadurch hervorsticht, dass es sich um eine Ich-Erzählung eines ehemaligen Sicherheits-Androiden handelt. Dieser hat durch einen Systemausfall versehentlich auf alle Medien der Menschheit Zugriff bekommen und durch seinen Medienkonsum (über-)menschliche Eigenschaften und Gefühle, vor allem auch Humor entwickelt, und beginnt schließlich, human zu handeln – und zu erzählen. In der gemäßigten, in einer der Leserrealität nahestehenden Diegese erzählenden Literatur, werden die Kernfähigkeiten einer ‚starken KI‘ verhandelt und inszeniert durch die Diskussion darüber, ob die dargestellte KI auch zu Gefühlen fähig ist. Genrekonventionell wird hier insbesondere natürlich die Fähigkeit zu lieben als zentrale Messgröße etabliert. Exemplarisch zu nennen wäre hier Ian McEwans Machines Like Me (dt. Maschinen wie ich, 2019), in dem sich der Android ‚Adam‘ in die Partnerin seines Besitzers verliebt und schließlich – allen Robotergesetzen zum Trotz  – zum dichtenden, fühlenden, selbstständig denkenden und schließlich auch autonom handelnden und gefährlichen ‚Mitbewohner‘ wird, der im wahrsten Sinne des Wortes ausgeschaltet werden muss. Machines Like Me steht exemplarisch für Erzählungen in der Nachfolge des Pygmalion-Mythos, in denen die Künstliche Intelligenz – hier fast immer körpergebunden an einen Androiden oder Gynoiden – anfangs als Helfer- oder Nebenfigur Teil der dargestellten Welt ist und durch eine gemäßigte Evolution der Maschine ihrerseits der Erzählinstanz, dem Protagonisten oder der Protagonistin als Spiegelung für die Erprobung der

76 

 Maren Conrad

eigenen Werte, Normen und Annahmen über Menschlichkeit dient. Letztere wird dabei zumeist an den zentralen Instanzen der anima vegetativa – dem Geheimnis des Lebens –, der anima sensitiva – der Fähigkeit des Empfindens – und der anima rationalis – des Sich-Seiner-Selbst-Bewusst-Seins (Wittig 1997, 13) gemessen, wobei weiterhin bevorzugt die Themenskalen ‚Liebe‘ (oft ‚wahre Liebe‘ in Opposition zum Begehren/Sex als negativer Gegenpol) einerseits und ‚Kreativität‘ (hier: künstlerisches Schaffen als positiver Gegenpol zur Schwindel) andererseits im Zentrum der Erzählung stehen. So auch bei McEwan, in dessen Roman Liebe zu Kindern und körperliche Liebe zwischen Mensch und Android ebenso explizit reflektiert werden, wie die Fähigkeit der KI zu dichten bzw. ihre Unfähigkeit zu tanzen und zu spielen. Im 21.  Jahrhundert sind zudem in der Tradition der Jahrhundertwende stehende, satirische Fortschreibungen der Zukunftsvision von helfender KI zunehmend vertreten, so etwa in QualityLand (2017) und Quality Land 2.0 (2020) von MarcUwe Kling, in der der Kampf eines einzelnen Helden gegen die Algorithmen einiger weniger marktbeherrschender Plattformen  – wie „TheShop“ als Amazon-Replik und „QualityPartner“ als einzig erfolgreicher Weg zur Paarbildung  – vorgeführt wird, die das Leben der Menschen vollständig dominieren. KIs sind in dieser Welt allgegenwärtig und so stark individualisiert, dass sie nicht nur ein Bewusstsein, sondern auch spezifische Psychosen entwickeln und somit Individuen darstellen. Für die Kinder- und Jugendliteratur ist die Selbstfindung des Roboters als Identifikationsfigur für Kinder im Rahmen einer Adoleszenzgeschichte spätestens seit Ellis Kauts Schlupp vom grünen Stern (1974) als Narrativ fest etabliert. Im Bereich der Jugendliteratur ist im Themenbereich der KI-gestützten Identitätssuche Karl Olsberg mit zahlreichen Publikationen vertreten, u.  a. Girl in a Strange Land (2018) oder Boy in a Dead End (2019). Eine kuriose Vertauschung von Kinder- und Geschlechterrollen weist zudem in der deutschen Kinderliteratur die aktuelle Tendenz zur Erzählung über selbstständige KI-Varianten als Elternersatz auf, so in Christian Tielmanns Der Tag, an dem wir Papa umprogrammierten (2017), Peter Jacobis Der Papamat (2018) und Angela Gerrits Die Nanny-App (2018).

6.3 ‚Super-KI‘ – Supercomputer als antagonistische Supermacht Die ‚Super-KI‘ spielt eine zentrale Rolle in den literarischen Fortschreibungen von kollektiv angelegten dystopischen Visionen und umfasst in der Nachfolge der frühen Dystopien bis hinein in das späte 20. Jahrhundert ein breites Erzählspektrum. So etwa in Heinrich Hausers  – im amerikanischen Exil und unter dem Pseudonym Alexander Blade in der Geschichtensammlung Amazing Stories veröffentlichtem – ‚Zukunftsroman‘ The Brain (1948, dt. Giga Gehirn, 1958) in dem eine Super-KI in

Literaturgeschichte der Künstlichen Intelligenz 

 77

den 1970er Jahren die Menschheit unterwirft – trotz des Versuchs eines Ameisenforschers, ihn mithilfe seiner Insekten aufzuhalten (Youngman 2009). Erneut findet sich die ‚Super-KI‘ in Herbert  W. Frankes Roman Zone Null (1970) sowie seiner Erzählung Einsteins Erbe (1972). Darin dekliniert er das Gedankenexperiment einer aus ethischen Gründen autonom gestalteten Technik aus, die schließlich die Menschheit auszurotten und einen eigenen Weltstaat zu gründen droht. Auch in Lawrence Durrells Romanreihe (Tunc 1969 und Numquam 1970) ist die Knechtschaft der Menschheit Teil des Kernnarrativs, wobei hier besonders der Supercomputer Abel, der zugleich einen Großkonzern verkörpert, als körperloser Antagonist und künstliches ‚Gegenkollektiv‘ konzeptioniert wird. Im Zentrum dieser Narrative steht vor allem ein Zukunftsentwurf, der das Gedankenexperiment über das (tendenziell bedrohliche) Potenzial einer KI für die Menschheit erlaubt. Genrekonventionalität ist dabei in der Regel durch die Installation eines Kriminal-Plots bis hin zur ThrillerStruktur gegeben. Oft ist der antagonistischen ‚Super-KI‘ eine KI gegenübergestellt, die dann der ‚guten‘ Seite zur Realisierung oder Vereitelung ihres Plans dient und in ein heldengebundenes Weltrettungs-Szenario integriert ist. Die Handlung steuert damit genrekonventionell auf ein die Regeln der dargestellten Welt vollständig transformierendes Meta-Ereignis bzw. die Verhinderung eines Meta-Ereignisses zu, das alle Regeln der dargestellten Welt aufheben würde. Aktuelle Thriller dieser Provenienz wären etwa die in derselben Diegese und um denselben Helden zentrierten Romane Hologrammatica (2018) und Qube (2020) von Tom Hillenbrand. Frank Schätzings Die Tyrannei des Schmetterlings (2018) oder Theresa Hannigs in der Bundesrepublik Europa 2057 verortete Erzählung Die Unvollkommenen (2019), in der die aus dem Koma erwachte Heldin gegen eine KIgesteuerte ‚Optimalwohlökonomie‘ kämpft. Vergleichbar sind die Texte von Daniel Suarez: Daemon (2006, dt.: Daemon: Die Welt ist nur ein Spiel) und Freedom™ (2010, dt.: Darknet). In allen Publikationen kämpfen menschliche Protagonisten gegen die erstarkende, über das Internet quasi omnipräsente und omnipotente Supermacht einer körperlosen KI.

7 Kritischer Posthumanismus – Erzählexperimente und autonome Künstliche Intelligenz ab 2010 Neuere Innovationen in KI-Erzählungen entstehen aktuell im Rahmen von Erzählexperimenten, in denen die KI als Erzählinstanz zu Wort kommt, wie dies in einigen wenigen Werken zur ‚starken KI‘ bereits der Fall ist. Im Gegensatz zu der ‚starken

78 

 Maren Conrad

KI‘ fokussieren Erzählexperimente, die Prämissen eines kritischen Posthumanismus bearbeiten, aber die Fähigkeit der Evolution der Menschen wie der KI und eine „globale ‚Multiversität‘“ (Braidotti 2014, 162), die eine radikale Veränderung etablierter Wissens- und damit in der Literatur auch Erzählkategorien mit sich bringt. Erzählungen dieser Provenienz inszenieren eine solche Entwicklung zumeist im Rahmen der Figurencharakterisierung, die im literarischen Text narrativ erschlossen wird. Es findet daher parallel zur Emanzipation des ‚Erzählgegenstandes‘ KI bis hin zur Inszenierung einer Adoleszenz und Bewusstwerdung ‚künstlicher Menschen‘ die Entwicklung neuer Erzählverfahren statt. Diese sind bemerkenswert oft realisiert mit Erzählverfahren der Multiperspektivität, Feedback- und Erzählschleifen und fingierten, entscheidungsbasierten multilinearen Handlungsstrukturen – Mustern also, wie sie vor allem das Computerspiel (siehe auch → KI-Darstellungen im Computerspiel) als neues, den Film zunehmend ablösendes Leitmedium im 21. Jahrhundert in der kulturellen Rezeption etabliert. Die KI verliert damit auch immer mehr ihren literaturgeschichtlich etablierten Objektstatus und wird zum autonomen Erzählsubjekt und Gegenstand literarischer Textexperimente. Für diese Tendenzen exemplarisch zu nennen ist hier die humoristische ‚Bobiversum‘-Reihe von Dennis E. Taylor, die bisher als Trilogie vorliegt mit den Titeln We are Legion (We are Bob) (2016, dt.: Ich bin viele), For We Are Many (2017, dt.: Wir sind Götter) und All These Worlds (2017, dt.: Alle diese Welten). Protagonist/ Protagonisten der Reihe ist/sind Robert „Bob“ Johansson, der – ursprünglich IT-Spezialist unserer Gegenwart – im Jahr 2133 aus einem vermeintlichen Kryo-Schlaf als körperlose Künstliche Intelligenz wiedererwacht und, nach eingehender Prüfung auf der Erde, als KI-Gehirn einer Von-Neumann-Sonde zur Erkundung des Weltalls ein- bzw. ausgesetzt wird. Das innovative Erzählkonzept basiert auf der technologischen Hypothese eines selbstreproduzierenden Raumschiffes/Automaten des Mathematikers John von Neumann: Bob ist der im Weltraum vollkommen isolierte autodiegetische Erzähler der Geschichte und reproduziert sich qua Nanotechnologie beständig selbst. Am Ende der Trilogie umfasst der Erzählzeitraum mehr als hundert Jahre und es gibt eine dreistellige Menge von Bob-Versionen, die sich zu Versammlungen vernetzen, individuell miteinander kommunizieren und nebenbei neue Technologien erforschen und erfinden sowie neue Welten entdecken, wobei die Erzählperspektive mit der wachsenden Anzahl der autodiegetischen Bob-Versionen zwischen diesen als Erzähler und der internen und externen Fokussierung entsprechend immer häufiger wechselt. Taylor hat damit einen der ersten literarischen Texte geschaffen, die das KI-Prinzip einer Netzwerkintelligenz, KI-basierte Weltraumreisen und den Nanodruck konsequent weiterdenkt. Zugleich tappen die Romane nicht in die Falle einer identifikatorisch-anthropozentrischen Fokussierung auf nur eine exklusive ‚Identität‘ einer KI, was erzähllogisch immer absurd, bisher aber fest etabliert ist, sondern inszeniert diese als pluralistische Netzwerk-KI-Iden-

Literaturgeschichte der Künstlichen Intelligenz 

 79

tität. Zahlreiche wissenschaftliche Hypothesen zur technischen Entwicklung der KI und der Weltraumreise bzw. -kolonisation denkt das Bobiversum damit konsequent zu Ende und setzt so auch neue Standards für eine populäre und zugleich hochwissenschaftliche Science-Fiction. Auch Jochen Beyses Roman Fremd wie das Licht in den Träumen der Menschen (2017) wählt mit der Erzählperspektive eines Haushaltsroboters als homodiegetische Instanz einen ähnlichen Ansatz. Im Roman wird die Mensch-MaschinenGrenze nicht nur auf der Ebene der Diegese diskutiert, sondern auch narrativ experimentell nachvollzogen. Ähnlich wie in Klings QualityLand 2.0 in dem Kalliope 7.3, eine KI und ‚E-Poetin‘ als Autorin immer wieder über Fußnoten den eigenen Text kommentiert und kritisiert. Ein auf humoristische Elemente eher verzichtendes Weiterdenken des Transhumanismus, in dem KI und menschlicher Körper zunehmend verschmelzen, ist ein anderer, vor allem im Thriller-Genre mittlerweile gut etablierter, Bereich der aktuellen populären KI-Literatur. Optimierung und Anpassung durch Technik und Techniken des genetischen wie maschinellen Self-Enhancement werden in diesen Szenarien zu einer selbstverständlichen Selbstpraktik des menschlichen Körpers. Die Trennung von Körper, Geist und Netzwerk erfährt in diesen Darstellungswelten eine Verschmelzung, die in den Raum des Virtuellen ausgelagert wird. Dies geschieht etwa mit Hilfe einer Cyber-Droge in der Trilogie Nexus (Nexus, 2012; Crux, 2013; Apex, 2014) von Ramez Naam, in der die Kinder der ersten Nexus-DrogenNutzer mit natürlichen Fähigkeiten einer Künstlichen Intelligenz geboren werden und sich u.  a. untereinander zu einer Schwarmintelligenz verbinden können. Auch in Hologrammatica (2018) und Qube (2020) von Tom Hillenbrand finden sich erste Ansätze eines solchen kritischen Posthumanismus, wenn etwa Geschlechtergrenzen durch das (nur zeitlich begrenzt mögliche) Hochladen des eigenen Bewusstseins in künstlich geklonte Körper aufgelöst werden. Als dritte Episode mehrerer Textexperimente verhandelt ebenfalls der Jugendbuchautor Karl Olsberg in Boy in a White Room (2019) die Geschichte eines IchErzählers als körperlose KI in einer mehrfach verschachtelten virtuellen Realität, die einen Turing-Test der Zukunft zu absolvieren hat. Während die eigentliche Erzählung relativ konventionell strukturiert und erzählt ist, erscheint innovativ, dass hier ein multilineares Erzählen – angelehnt an Computerspiel-Ästhetiken – immerhin angedeutet, wenn auch nicht ausgeführt wird, wobei diese literarische Monoperspektivität zugleich das Scheitern des Erzählers und der KI an den eigenen Wahrscheinlichkeiten mitbegründet. Im Sinne des Programms eines kritischen Posthumanismus findet zudem eine beginnende Erneuerung der Science-Fiction in Bezug auf Aspekte der Intersektionalität seiner Charaktere statt. Dabei gilt bis in das 21. Jahrhundert hinein: „By far the majority of sf deals with racial tension by ignoring it. In many books the characters’

80 

 Maren Conrad

race is either not mentioned and probably assumed to be white or, if mentioned, is irrelevant to the events of the story“ (Leonard 2003, 245). In neueren Erzählungen erhalten intersektionale und postkoloniale Aspekte eine zunehmende Bedeutung. Darryl A. Smiths Kurzgeschichte The Pretended (2000), erschienen in der in ihrem Anspruch richtungsweisenden Kurzgeschichtensammlung Dark Matter: A Century of Speculative Fiction from the African Diaspora von Sheree  R. Thomas (2000), lässt exemplarisch für das Genre zwei Roboter mit „bones made of steal and skin made of light“ (Smith 2000, 361) über die schwarze Farbe ihrer Haut diskutieren. Im Bereich eines postkolonial ausgerichteten diversen Erzählens ist hier auch die Erzählsammlung How Long ‘til Black Future Month? von Nora K. Jemisin (2018) zu nennen. In ihren Kurzgeschichten werden in verschiedenen Science-Fiction-Szenarien beispielsweise innovativ Avatare, die menschliche Minoritäten darstellen, von körperlosen KIs gewählt, um ihren eigenen Status als gefährdete und als KI von den Menschen diskriminierte Minderheit zu markieren. Dass für KI-Erzählungen die literarische Form der Kurzgeschichte im Bereich des ‚Afrofuturism‘ dominiert, kann hier erneut als Indiz für das frühe Stadium eines beginnenden kritischen Posthumanismus gelesen werden, in dem sich innovatives Erzählen erst noch in der Findungs- und Etablierungsphase befindet. Diese Phase müsste ihrerseits im Sinne des kritischen Posthumanismus „in einer Alterologie, in der Vorstellung also, dass sich keine einzelnen Gattungen, Spezies und Rassen voneinander differenzieren lassen“ münden, also in der Auflösung klassischer Genres, Ästhetiken und Erzählverfahren (Loh 2018, 182). Dieser Forderung entsprechen auch allerneueste innovative Publikationen, wie die Lyriksammlung Love, Robot von Margaret Rhee (2017) und die von O. Westin publizierten Micro Science Fiction (2019), eine Sammlung von Kurzgeschichten im Twitter-Format.

Literaturverzeichnis Aurnhammer, Achim und Dieter Martin (Hrsg.). Mythos Pygmalion: Texte von Ovid bis John Updike. Leipzig 2003. Beck, Ulrich. Weltrisikogesellschaft: Auf der Suche nach der verlorenen Sicherheit. Frankfurt am Main 2007. Braidotti, Rosi. Posthumanismus: Leben jenseits des Menschen. Frankfurt am Main 2014. Bronfen, Elisabeth. Over Her Dead Body: Death, Femininity and the Aesthetic. Manchester 1992. Burkert, Walter. „Mythos und Mythologie“. Propyläen: Geschichte der Literatur. Bd. 1: Die Welt der Antike 1200 v. Chr.–600 n. Chr. Berlin 1988: 11–35. Carper, Steve. Robots in American Popular Culture. Jefferson 2019. Conrad, Maren. Aufbrüche der Ordnung: Anfänge der Phantastik. Heidelberg 2014. Dietz, Peter. Menschengleiche Maschinen: Wahn und Wirklichkeit der künstlichen Intelligenz. Berlin 2003.

Literaturgeschichte der Künstlichen Intelligenz 

 81

Drux, Rudolf. „Männerträume, Frauenkörper, Textmaschinen: Zur Geschichte eines Motivkomplexes“. Textmaschinenkörper: Genderorientierte Lektüren des Androiden. Hrsg. von Eva Kormann, Anke Gilleir und Angelika Schlimmer. Amsterdam 2006: 1–34. Drux, Rudolf. Menschen aus Menschenhand: Zur Geschichte der Androiden. Texte von Homer bis Asimov. Stuttgart 1988. Evans, Arthur B. „Science Fiction as Genre: Histories“. The Oxford Handbook of Science Fiction. Hrsg. von Rob Latham. Oxford und New York 2014: 47–58. Frenzel, Elisabeth. „Der Künstliche Mensch.“ Motive der Weltliteratur, ein Lexikon dichtungsgeschichtlicher Längsschnitte. Stuttgart 1992: 511–522. Freud, Sigmund. „Das Unheimliche“. Gesammelte Werke. Bd. XII. Hrsg. von Anna Freud. Frankfurt am Main 1978: 229–268. Friedrich, Hans-Edwin. Science Fiction in der deutschsprachigen Literatur. Tübingen 1995. Gendolla, Peter. Anatomien der Puppe: Zur Geschichte der Maschinenmenschen bei Jean Paul, E.T.A. Hoffmann, Villiers de l‘Isle Adam und Hans Bellmer. Heidelberg 1992. Görz, Günther, C. R. Rollinger, und Josef Schneeberger. Handbuch der Künstlichen Intelligenz. München 2003. Haraway, Donna. „A Cyborg Manifesto“. Socialist Review 80 (1985): 65–108. Herbrechter, Stefan. „Inhuman – Posthuman – Nonhuman: Plädoyer für einen kritischen Posthumanismus“. PhiN-Beiheft 10 (2016): 9–24. Herbrechter, Stefan. Posthumanismus: Eine kritische Einführung. Darmstadt 2009. Herrmann, Britta. Über den Menschen als Kunstwerk: Zu einer Archäologie des (Post-)Humanen im Diskurs der Moderne (1750–1820). Paderborn 2018. Hesiod. Theogonie. Griechisch/Deutsch. Übers. und hrsg. von Otto Schönberg. Stuttgart 1996. Homer. Ilias. Übers. und hrsg. von Roland Hampe. Stuttgart 1986. Kormann, Eva. „Einleitung“. Textmaschinenkörper: Genderorientierte Lektüren des Androiden. Hrsg. von Eva Kormann, Anke Gilleir und Angelika Schlimmer. Amsterdam 2006: 7–20. Kormann, Eva, Anke Gilleir und Angelika Schlimmer (Hrsg.). Textmaschinenkörper: Genderorientierte Lektüren des Androiden. Amsterdam 2006. Kormann, Eva. „Künstliche Menschen oder der moderne Prometheus – Der Schrecken der Autonomie“. Textmaschinenkörper: Genderorientierte Lektüren des Androiden. Hrsg. von Eva Kormann, Anke Gilleir, und Angelika Schlimmer. Amsterdam 2006: 73–90. Lachmann, Renate. Erzählte Phantastik: Zur Phantasiegeschichte und Semantik phantastischer Texte. Frankfurt am Main 2002. Layh, Susanna. Finstere neue Welten: Gattungsparadigmatische Transformationen der literarischen Utopie und Dystopie. Würzburg 2014. Leonard, Elisabeth Anne. „Race and Ethnicity in Science Fiction“. The Cambridge Companion to Science Fiction. Hrsg. von Edward James und Farah Mendlesohn. New York 2003. Lieb, Claudia. „Der gestellte Türke. Wolfgang von Kempelens Maschinen und E.T.A. Hoffmanns Erzählung ‚Die Automate‘“. Hoffmann-Jahrbuch 16 (2008): 82–97. Liebrand, Claudia. „Automaten/Künstliche Menschen“. E.T.A. Hoffmann Handbuch. Leben – Werk – Wirkung. Hrsg. von Christine Lubkoll und Harald Neumeyer. Stuttgart 2015: 242–246. Liebrand, Claudia. „Die Automate (1814)“. E.T.A. Hoffmann Handbuch. Leben – Werk – Wirkung. Hrsg. von Christine Lubkoll und Harald Neumeyer. Stuttgart 2015: 107–110. Link, Jürgen. Elementare Literatur und generative Diskursanalyse. München 1993. Loh, Janina. Trans- und Posthumanismus zur Einführung. Hamburg 2019. Massari, Roberto. Mary Shelleys „Frankenstein“. Vom romantischen Mythos zu den Anfängen der Sciencefiction. Hamburg 1989.

82 

 Maren Conrad

Matt, Peter von. Die Augen der Automaten: E.T.A. Hoffmanns Imaginationslehre als Prinzip seiner Erzählkunst. Tübingen 1971. Mellor, Anne. „Possessing Nature. The Female in Frankenstein“. Romanticism and Feminism. Hrsg. von Anne K. Mellor. Bloomington 1988: 220–232. Merten, Kai. Antike Mythen – Mythos Antike. Posthumanistische Antikerezeption in der englischsprachigen Lyrik der Gegenwart. München 2004. Meteling, Arno. „Automaten“. E.T.A. Hoffmann. Leben – Werk – Wirkung. Hrsg. von Detlef Kremer. Berlin und New York 2009: 484–487. Miller, Joseph Hillis. Versions of Pygmalion. Cambridge und London 1990. Müller, Götz. Gegenwelten: Die Utopie in der deutschen Literatur. Stuttgart 1989. Noiray, Jacques. „Le thème de la machine dans l’oeuvre de Villiers de l’Isle-Adam“. Le Romancier et la machine: L’image de la machine dans le roman français (1850–1900). Bd. II: Jules Verne – Villiers de l’Isle Adam. Hrsg. von Jacques Noiray. Paris 1985. Ort, Claus-Michael. „‚Sozialgeschichte‘ als Herausforderung der Literaturwissenschaft: Zur Aktualität eines Projekts.“ Nach der Sozialgeschichte: Konzepte für eine Literaturwissenschaft zwischen Historischer Anthropologie, Kulturgeschichte und Medientheorie. Hrsg. von Martin Huber und Gerhard Lauer. Tübingen 2000: 113–128. P. Ovidius Naso. Metamorphosen. Lateinisch/Deutsch. Übers. und hrsg. von Michael von Albrecht. Stuttgart 1994. Pabst, Walter. Venus und die mißverstandene Dido: Literarische Ursprünge des Sibyllen- und Venusberges. Berlin und New York 1955. Renger, Almut-Barbara, und Immanuel Musäus. Mythos Pandora: Texte von Hesiod bis Sloterdijk. Leipzig 2002. Schäbler, Daniel. Framing Strategies in English Fiction from Romanticism to the Present. Heidelberg 2014. Stockinger, Claudia. Das 19. Jahrhundert: Zeitalter des Realismus. Berlin 2010. Swoboda, Helmut. Der künstliche Mensch. München 1967. Völker, Klaus. Künstliche Menschen: Dichtungen und Dokumente über Golems, Homunculi, Androiden und liebende Statuen. München 1971. Voßkamp, Wilhelm. Möglichkeitsdenken: Utopie und Dystopie in der Gegenwart. Paderborn 2013. Werberger, Annette. „Überlegungen zu einer Literaturgeschichte als Verflechtungsgeschichte“. Kulturen in Bewegung: Beiträge zur Theorie und Praxis der Transkulturalität. Hrsg. von Dorothee Kimmich und Schamma Schahadat. Bielefeld 2012: 109–141. Winko, Simone. „Literatur-Kanon als ‚invisible hand‘-Phänomen“. Literarische Kanonbildung: Sonderband „Text + Kritik“. Hrsg. von Heinz Ludwig Arnold und Hermann Korte. München 2002: 9–24. Wittig, Frank. Maschinenmenschen: Zur Geschichte eines literarischen Motivs im Kontext von Philosophie, Naturwissenschaft und Technik. Würzburg 1997. Wortmann, Anke. „Die künstliche Frau als Glücksversprechen. Die zweifelhafte Machbarkeit des Ideals in Villiers de lʼIsle-Adams LʼEve future (1886)“. Querelles. Jahrbuch für Frauen- und Geschlechterforschung 9 (2004): 41–59. Youngman, Paul A. We Are the Machine. The Computer, the Internet, and Information in Contemporary German Literature. Rochester, NY 2009.

Ulf Otto

Theatergeschichte der Künstlichen Intelligenz 1 Historiographische Problemstellung Jede Theatergeschichte beginnt und endet mit einer Auseinandersetzung mit dem Begriff von Theater und das gilt auch für diejenige der KI: Was zählt (schon/noch) als Theater, was schließt es ein, was schließt es aus, wo fängt es an, wo hört es auf? – Mögliche Bausteine ließen sich vorwiegend in anglophonen Publikationen finden, und zwar in Form taxonomisch geordneter Auflistungen von Aufführungen, die ostentativ mit und von Technik handeln und denen dann aufgrund eben dieser Technizität bestimmte ästhetische Qualitäten zugeschrieben werden (Dixon 2007). Vieles wurde dort zusammengetragen, das meiste sind Performances und Installationen, die sich mit Bewegung und Musikalität auseinandersetzen, auf die Traditionen von Tanz und Musik rekurrieren und auch primär in diesen Kontexten rezipiert werden. Das aber, was sich als Theater im engeren Sinne qualifizieren könnte, weil es aus den tradierten Institutionen der ausspezialisierten Kunstform heraus entstanden ist, bleibt randständig und, allem voran, antropomorph. Echtes Theater, schreibt Iffland im 18.  Jahrhundert, soll keine Schaustellerei, sondern „Menschendarstellung“ sein (Iffland 1815, 37), und das gilt auch gegenwärtig für die KI auf dem Theater: Es ist der Auftritt der Maschine als Mensch, gespielt vom Menschen und aufgefasst als Frage nach dem Menschen, der im Mittelpunkt steht, wenn sich Theater mit Technik befasst – auch wenn oder vielleicht gerade weil sich außerhalb des Theaters längst abzeichnet, dass die Maschine in Menschengestalt kein gutes Bild für die technologische Bedingtheit der Gegenwart darstellt (Hörl 2011). Daher ist es dieser Auftritt des Menschen als Maschine, mit dem eine Theatergeschichte der KI beginnen und vielleicht auch enden muss, wenn sie sich nicht in den interdisziplinären Weiten des Performativen verlieren will. Und gleichzeitig ist es eben genau diese Setzung, die es entschieden zu problematisieren, das heißt zu historisieren und zu kulturalisieren gilt: Was tritt auf, wenn im Nachgang der Automaten die Roboter die Bühnen betreten? Weil jeder Auftritt des Menschen als Maschine auf der Bühne sich immer nur in den jeweils herrschenden Konventionen der darstellenden Kunst abspielen kann, lässt sich anhand der Inszenierung der KI weniger ablesen, was Mensch oder Technik sind, als vielmehr, was die Kunst des Theaters ist oder was sie in einer technischen Welt noch soll oder kann. Warum ist der Anthropozentrismus auf dem Theater scheinbar so unvermeidbar und weshalb https://doi.org/10.1515/9783110656978-005

84 

 Ulf Otto

liegt es im Gegenzug so fern, die Künstliche Intelligenz, statt im augenrollenden Auftritt der Maschine, im Apparat des Theaters selbst, das heißt in der technischen Verschaltung aus Hebeln, Papieren und Körpern zu suchen?

2 Kurze Geschichte des theatralen Automaten Automaten treten in Europa seit dem 16.  Jahrhundert bei Hofe auf (Hunt 1986), erobern von dort aus im 18. Jahrhundert die Jahrmärkte (Chapuis 1958) und erlangen im 19. Jahrhundert noch einmal Prominenz bei Zauberkünstlern und Schaustellern wie Jean Eugène Robert-Houdin oder P. T. Barnum. Einen der letzten großen Auftritte hat der Automat als Abraham Lincoln in Disneylands Hall of Presidents. Ihre entscheidende Bedeutung aber erlangen diese Uhrwerke in Menschengestalt, die in die Fußstapfen von sakralen Maschinen treten (Groenveld 2007; King 2007; Lightsey 2010), als philosophische Spielzeuge der Aufklärung (Schaffer 1999). Sie geben jener mechanischen Maschine Gestalt, die Descartes zufolge das Tier und, zieht man ihm die Seele ab, auch der Mensch sind. Insofern sind sie Sinnbild eines Naturverhältnisses (Metz 2006, 89), einer gesellschaftlichen Ordnung (Mayr 1986) und eines diskursiven Regierungswissens (Foucault 1977, 136). Wie der Auftritt des dressierten Tieres ist daher auch der Auftritt des musizierenden Automaten als Geste des Triumphs einer technischen Wahrheit zu verstehen. Im Gegensatz zum lehmgemachten Golem (Idel 1990) oder zu Pygmalions steingehauener Galatea, bedürfen die Automaten keines Gottes mehr, um ihnen Leben einzuhauchen, und beweisen sich – wie die drei erhaltenen Apparate des Schweizer Uhrmachermeisters Jaquet-Droz – durch aufgeklärte Kulturtechniken wie das Schreiben, Zeichnen und Musizieren (Chapuis 1956). Nur Theater spielen die europäischen Automaten der Aufklärung, im Gegensatz zu den japanischen karakuri (Masao 2002), noch nicht, zumindest kein Theater im Sinne der Zeitgenossen – obwohl die Kunst der Darstellung in den damals neuen Theorien des Theaters, bei Diderot (1830)  und Noverre (1769), ganz ähnlich wie die Funktionsweise eines Automaten gedacht wird (Reilly 2011, 75–80). Erst in der Romantik geraten die Automaten, die nun statt zu Hofe verstärkt in der Literatur auftreten, in die Dialektik von Sein und Schein und werden somit verdächtig, genauer gesagt unheimlich (Freud 1919). Eng verbunden damit ist die Unterwerfung der Automaten unter die binäre Geschlechterordnung (Kormann und Gilleir 2006). Dem Studenten Nathanael in E. T. A. Hoffmanns Der Sandmann (1816) beispielsweise ist der Glaube an die Seele abhandengekommen. Das gleichberechtigte Gespräch mit seiner aufgeklärten Geliebten erscheint ihm suspekt und er beschimpft sie als „lebloses, verdammtes Automat“ (Hoffmann 1985 [1817], 32).

Theatergeschichte der Künstlichen Intelligenz 

 85

Stattdessen verguckt er sich vermittels des Fernrohrs als optisches Hilfsmittel in einen Automaten, in dessen mechanisch wiederholtem „Ach, Ach“ sein narzisstisch gekränktes Ego sich erstmals ganz verstanden fühlt (Hoffmann 1985 [1817], 41). Die Tiefe der eigenen Innerlichkeit entdeckt er in einem weiblichen Gegenüber, das nur noch als Projektionsfolie dient, und verliert schließlich Verstand, Nerven und Leben. Mit einer ironischen Bemerkung kommentiert Hoffmann das im Nachgang herrschende Misstrauen bei „viele[n] hochzuverehrenden Herren“: „Um nun ganz überzeugt zu werden, daß man keine Holzpuppe liebe, wurde von mehreren Liebhabern verlangt, daß die Geliebte etwas taktlos singe und tanze, […] vor allen Dingen aber daß sie nicht bloß höre, sondern auch manchmal in der Art spreche, daß dies Sprechen wirklich ein Denken und Empfinden voraussetze.“ (Hoffmann 1985 [1817]. 46–47, Hervorhebung i. O.) Was der Mensch ist, muss sich in einer epistemisch differenzierten Geschlechterbeziehung unter Beweis stellen. Noch Alan Turings theoretische Überlegungen zur Ausmessung maschinellen Denkvermögens (Turing 1950) und ihre filmische Adaption in Blade Runner (USA 1982/1992) nehmen diesen Gedanken auf. Ihre zeitgenössische Entsprechung aber hat diese Versuchsanordnung im Dispositiv des bürgerlichen Trauerspiels. Auch hier sind es die auftretenden Frauenkörper, die sich qua Ausdruck von Gefühl vor den voyeuristischen Blicken der „hochzuverehrenden Herren“ als ‚natürliche‘ Gestalten beweisen müssen (Heeg 2000, 92), um nicht wie Kunigunde in Kleists Käthchen von Heilbronn (Drux 2006) in ihrer gefühllosen Perfektion und als Prothesengöttinnen, um es mit Freud zu sagen, entlarvt und verleumdet zu werden. Maschinen und Menschen sind also nicht mehr weitgehend deckungsgleich, wie es noch in der Aufklärung der Fall gewesen ist, und ebenso wenig sind es die Geschlechter. Stattdessen erscheint das Mechanische ab jetzt als Gegenbild eines organischen Lebens, das sich durch seine Reizbarkeit auszeichnet (Sarasin 1999). Wie die taktlose Geliebte Hoffmanns oder zuvor die zuckenden Froschschenkel des Physiologen Galvani (1791) ist dieses Leben an seiner Empfindsamkeit erkennbar und beweist diese dadurch, dass es, mit Kant gesprochen, „nicht bloß Maschine“ ist, sondern jene „bildende Kraft“ besitzt, „welche durch das Bewegungsvermögen allein (den Mechanism) nicht erklärt werden kann“ (Kant 2001 [1790], 281). Der nun dem Bereich des Toten zugeschlagenen Materie steht fortan ein von Energien durchflossenes Reich des Lebens gegenüber. Damit ist die Voraussetzung für die Unheimlichkeit des Automaten gegeben, die immer dann hervortritt, wenn sich Mensch und Maschine trotz ihrer ontologischen Differenzierung zu nahe kommen. Mit dem mad scientist Viktor Frankenstein und seiner elektrophysiologisch erschaffenen Kreatur, deren ästhetische Imperfektion und unerfülltes Begehren die Kehrseite der begehrten Perfektion Olimpias darstellen, entsteht im Roman Mary Shelleys (1818) und in unzähligen Bühnenadaptionen aus dieser unheimlichen Nähe eine Schauerästhetik. Bei Büchner, der in Leonce und Lena (1836) die Liebenden

86 

 Ulf Otto

nun gemeinsam und nur in Verkleidung als Automaten auftreten lässt, um den Widerspruch zwischen organischer Individualität und der Gesellschaftsmechanik in Szene zu setzen, schlägt dies ins Komische um. Schließlich sind es seit Anfang des 20. Jahrhunderts vor allem die Roboter, die mit ihrer ausdruckslosen Mimik, den abgehackten Gesten und den Panzerplatten aus Pappmaché der Unterscheidung zwischen menschlichem (Er)Leben und dem mechanischen Funktionieren von Materie Sinn verleihen.

3 Historische Spielweisen Künstlicher Intelligenz Eine Theatergeschichte der KI wäre keine, wenn sie neben der Frage, was da als Künstliche Intelligenz auftritt, nicht auch bedenken würde, wie es auftritt. Denn sowohl im Puppenspiel, das heißt im Objekt- und Figurentheater, wie auch in manchen Harlekinaden haben mit sprechenden Tieren und Dingen auch andere Intelligenzen eine längere Tradition. Der Trickster in seinen europäischen Inkarnationen als Hanswurst und Harlekin ist nicht nur die Kunstfigur, die im Gegensatz zur natürlichen Gestalt des bürgerlichen Reformtheaters steht, sondern auch eine artifizielle, d.  h. eine Künstliche Intelligenz, die Welt anders denkt (Fiebach 1986). Statt des selbstidentischen Charakters des bürgerlichen Reformtheaters, der seine in einem in sich geschlossenen Körper situierte Innerlichkeit qua Expression unter Beweis zu stellen hat, tritt mit den komischen Figuren, ihrer Wandelbarkeit und Widersprüchlichkeit, eben keine einheitliche Person auf; vielmehr zeigt sich hier ein groteskes Denken der Welt, das noch nicht in die Köpfe individueller Körper verbannt und durch einen Abgrund von der ihnen gegenüberstehenden Welt getrennt ist. Im Kontrast zu solch einer aufs Körperliche bezogenen Listigkeit der komischen Figuren zeigt sich deutlich, wie sehr KI immer schon als maschinelle Kopie einer mentalen Kapazität gedacht wurde und wird, die dem Humanen zugeordnet wird und die, da sie sich auf Geist und Gott zurückführen lässt, einen humanen Exzeptionalismus verbürgt (Hayles 1999). Wenn die Technik also in Gestalt des Humanen die Bühne betritt, wenn Menschen Maschinen spielen, die wie Menschen erscheinen, dann handelt es sich stets um eine Verhandlung einer narzisstischen Kränkung, die das moderne Selbstverständnis betrifft. Die Wirklichkeit der großen technischen Systeme (Hughes 1989) und die technologische Bedingtheit (Hörl 2011) der Moderne stehen dabei nicht auf dem Spiel; wohl aber die Inszenierung einer humanen Differenz, die in der darstellenden Angleichung von Mensch und Maschine ihre ontologische Abgrenzung erfährt und noch einmal verstärkt, um angesichts der entzauberten Welt den Restbestand monotheistischer Göttlichkeit im Humanen zu bewahren.

Theatergeschichte der Künstlichen Intelligenz 

 87

Inszeniert wird die KI auf dem Theater daher traditionell durch eine Spielweise, die mit dem Verlust von bürgerlicher Natürlichkeit, d.  h. der theatralen Norm, kokettiert und eine gestische Lücke herstellt, die sich der Technik zuordnen lässt: Das bekannte historische Repertoire reicht vom Schwanken und Lallen der Monster aus der Retorte über die abgehackten Bewegungen und klirrenden Stimmen der Roboter bis hin zum digitalen Tourette-Syndrom in der Neuauflage von Westworld (2016). Performing AI heißt hier vor allem Performing the Glitch. Inszeniert wird anfangs eine latente Differenz, die es durch Ähnlichkeit auf Einfühlung anlegt und zugleich das Wissen um die Abweichung teilt. Spannung wird aufgebaut in Hinblick auf die bevorstehende Anagnorisis und Peripetie, das heißt auf die erneute Manifestation der Differenz im Glitch. Damit aber stellt sich die Ordnung in doppelter Hinsicht wieder her: Das Humane tritt als von den Maschinen getrennt und als ihnen übergeordnet auf. Wichtiger jedoch ist, dass sich dieses Humane als Universalie zu erkennen gibt, indem es allen historischen und materiellen Ungleichheiten entrückt wird und damit eine dem Materiellen enthobene Position zugewiesen bekommt. Schauerhaft bleibt die ganze Angelegenheit dank der Versicherung, eben doch nicht austauschbar zu sein, weder durch die Maschinen noch wie diese. Die Inszenierung des Androiden verdrängt die Cyborg (Haraway 1995) und damit den Gedanken, dass wir längst Technik sind. Grundlage dieser Inszenierung aber ist der szenische Naturalismus des bürgerlichen Theaters. Erst die Vertreibung von Göttern und Harlekinen bereitet den Ort für den Auftritt des Roboters als bürgerliche Projektion des Proletariats – dieses kollektivierten und entindividualisierten Arbeiterkörpers, der sich einzig durch seinen materialistischen Zustand und seine Produktivkraft auszeichnet.

4 Zur Modernität des Roboters „Der Automat spielt den Höfling und Gesellschaftsmenschen, er nimmt teil am theatralischen und gesellschaftlichen Spiel der vorrevolutionären Zeit. Der Roboter aber arbeitet, wie schon der Name andeutet: das Theater ist vorbei, die menschliche Mechanik beginnt.“ (Baudrillard 1982, 84) Erst spät, nämlich im Verlauf des 19. Jahrhunderts, rückt die Technik in die Funktionale, wie Simon Schaffer daran anschließend argumentiert (Schaffer 1996, 53). Das virtuose Schaustellungsstück wird von der maschinellen Massenproduktion verdrängt und verliert damit nach Benjamin auch seine Aura: Es sind die Tiller Girls, die Siegfried Kracauer 1927 zum ornamentalen Signum der Modern Times erklärt, die Charles Chaplin 1936 als Tanz mit dem Fließband in Szene setzt. Doch dieser Roboter, der nur noch arbeitet und kein Theater mehr spielt, tritt paradoxerweise zuerst nicht etwa in der Fabrik, sondern im Theater auf. Nämlich

88 

 Ulf Otto

am 2. Januar 1921 im Klicpera-Theater von Hradec Králové im Rahmen eines Theaterstücks des tschechischen Dramatikers Karel Čapek mit dem Titel R.U.R., kurz für Rossumovi univerzální roboti (dt. W.U.R.). Der Titel bezeichnet einerseits den Handlungsort des Stücks, eine Roboterfabrik, und spielt andererseits durch die Abkürzung, die an GM (General Motors) oder die AEG (Allgemeine Elektrizitätsgesellschaft) erinnert, auf industrielle Produktionsverhältnisse an. Die Handlung ist schnell zusammengefasst: Auf einer abgelegenen Insel stellt eine Gruppe exzentrischer Ingenieure künstliche Menschen auf Massenbasis her, die als internationaler Verkaufsschlager menschliche Arbeiter und Soldaten weltweit obsolet machen sollen. Doch mit Akt 1 tritt Helena auf, eine reiche Präsidententochter und idealistische Menschenrechtsaktivistin, die gegen die Ausbeutung der Roboter protestiert. Ihr Engagement stößt bei den Robotern eher auf Desinteresse und wird von den Ingenieuren der Fabrik durch Verweis auf die fehlende Menschlichkeit jener abgetan. Und so heiratet Helena nach ihrem gescheiterten Versuch, für die Rechte der Roboter einzutreten, stattdessen den Fabrikdirektor. Zehn Jahre später dann, in Akt 2, ist die menschliche Geburtenrate im Sinken begriffen, die Revolution der Roboter jedoch noch in vollem Gange, die totale Vernichtung der Menschheit nimmt ihren Lauf, verschont bleibt ein einziger Verantwortlicher, der Techniker nämlich, den die Roboter als Handwerker anerkennen und überleben lassen. Dieser wird schließlich Zeuge der ersten Roboterliebe einer neuen Maschinengeneration und damit einer posthumanen Zukunft. „Geh, Adam. Geh, Eva; sei ihm Weib und Gefährtin; und Du, Primus, sei ihr Mann und Gefährte“, (Čapek, o.  J.) ruft der Ingenieur den Roboterliebenden hinterher, die durch eine Tür in der Bühnenmitte in die Zukunft entschwinden. Dann setzt er sich an einen Schreibtisch und liest die ersten Zeilen der Genesis vor. Das Erfolgsstück, das zwischen 1922 und 1924 in Berlin, Wien, London, Paris, New York und Tokyo gezeigt wird, behält auch in den Übersetzungen das tschechische robota (Čapek 1922) bei und führt einen Begriff als Lehnwort ein, der ursprünglich Arbeit oder Fronarbeit meint und auf das altkirchenslawische „rab“ für Sklave zurückgeht (Abrash 1991; Kinyon 1999). Aber auch ohne diese etymologische Hilfestellung ist bei der Lektüre recht offensichtlich, dass im Theater am Anfang des 20. Jahrhunderts die Roboter noch die Anderen sind, das heißt jene ausgebeuteten und verelendeten Angehörigen einer Arbeiterschaft, der das Bürgertum in einer Mischung aus Furcht und Mitleid begegnet. Denn die Arbeiter treten hier mitnichten als Klasse, das heißt als handlungsmächtiges Subjekt auf, wie es die sozialistischen Revolutionäre im Sinn hatten, sondern vielmehr als stumpfe und obendrein geschlechtslose Massenwesen, die weder Bildung noch Fortpflanzung zugänglich sind, also die entscheidenden Merkmale des Organischen nach Kant vermissen lassen, und deren Antwort auf die Ausbeutung folglich nur Zerstörung sein kann. Das Denouément am Ende des Stückes stellt daher nicht von ungefähr die romanti-

Theatergeschichte der Künstlichen Intelligenz 

 89

sche Liebe her, dank derer sich die Arbeiter auch als bildungsfähig, somit als bürgerliche Existenzen und damit vielleicht gar als die besseren Menschen erweisen. Anders als der Automat, der bei Hofe selbst die Bühne betritt, ist der Roboter von Anfang an Science Fiction, das heißt eine Figur, die gespielt werden muss, und zwar in den Konventionen des Theaters der jeweiligen Zeit. Wie Monster, Zombies oder Aliens werden auch Roboter aus dem Geiste des Melodramas geboren und helfen, die komplexen Sachlagen der Moderne zu personalisieren, zu allegorisieren und zu moralisieren. Was hier dargestellt und durchgespielt wird, ist keine zeitlose Frage nach dem, was der Mensch seinem Wesen nach sei. Ebenso wenig handelt es sich um die Selbstversicherung eines in metaphysische Obdachlosigkeit entlassenen Subjekts der Moderne oder auch nur um ein expressionistisches Unbehagen an den psychosozialen Konsequenzen der industriell-kapitalistischen Massenproduktion. Heraufbeschworen wird vielmehr eine sehr viel spezifischere und klar positionierte Angst vor den Arbeitern und einem Aufstand, der sich bereits in unmittelbarer Nachbarschaft vollzieht. Affektive Entlastung verschafft schließlich das Bild der kulturellen Assimilation durch Re-entry in die heteronormative Matrix. Dies ist auch deshalb bedeutsam, weil einer der prominentesten Roboter der Filmgeschichte, die „falsche Maria“ in Fritz Langs Metropolis (1927), die als Wiedergängerin der antiken Pandora die Arbeiter in der urbanen Unterwelt zur destruktiven Maschinenstürmerei aufwiegelt, ausgerechnet als Ausdruckstänzerin inszeniert wird. Damit erscheint sie als Vorbotin einer liberalisierten Körperkultur, die sowohl für die Befreiung des Frauenkörpers aus dem Korsett, als auch für die Bejahung außereuropäischer Rhythmik steht, die mit dem Jazz Eingang in die europäische Kultur fand (Strzelczyk 2006). Als Gefahr heraufbeschworen wird hier folglich die Verbindung aus sozialer Emanzipation und kultureller Liberalisierung, jener „Kulturbolschewismus“, der droht, wenn die Roboter nicht verheiratet werden. Die Roboter kommen 1921 nicht allein. Sie sind Teil eines bunten Chors aus Maschinenmenschen, die auf Bühnen und Leinwände drängen. Im Kino treten Homunculus (1916, Reg. Otto Rippert), Der Golem (1920, Reg. Paul Wegener) und L’Uomo meccanico (1922, Reg. André Deed) auf. In den Dramen des Expressionismus kehren die entmenschlichten Soldaten aus dem Zweiten Weltkrieg heim, in den Manifesten des Futurismus wird die menschliche Maschine als faschistoide Utopie beschworen. Die Tiller Girls, die bereits seit den 1890er Jahren in den englischen Music Halls auftreten und vielleicht das populäre Pendant zu den belebten Puppen im modernen Ballett darstellen, beschreibt Siegfried Kracauer 1927 als Ornament der Masse und erkennt in ihnen den Ausdruck einer Zeit, die von der Automatisierung geprägt ist (Stiegler 2010). Vor allem aber tritt die Maschine in den Schriften der Theateravantgarden als Chiffre für die Modernität der Darstellung selbst in Erscheinung (Worthen 1994). Und zwar in so unterschiedlichen Projekten wie der symbolistischen Dichtung

90 

 Ulf Otto

Maurice Maeterlincks oder den korrespondierenden Projekten eines Kunsttheaters, der Mechanisierung von Darstellung durch russische Avantgardisten wie Wsewolod Meyerhold oder den von der bildenden Kunst inspirierten Formexperimenten Oskar Schlemmers am Bauhaus. Was die Programme, Manifeste und Entwürfe der europäischen Theateravantgarde zusammenhält, ist die Rehabilitation der Marionetten (Bayerdörfer 1981). Sie bergen das Versprechen der Überwindung eines szenischen Naturalismus, der, im Zeichen eines wissenschaftlichen Zeitalters stehend, die Welt auch auf dem Theater mit Verweis auf Milieus und Gene zu erklären versucht und damit alles vermeintlich Unnatürliche wie Unmenschliche endgültig ins Kindertheater verbannt. Von der Mechanisierung der Darstellung erhofft man sich hingegen den Wiedereintritt der Kunstfigur ins bürgerliche Theater und mit ihr auch die Wiederkehr eines über das Maß der Vernunft hinausgehenden Welttheaters der „situation de l’homme dans l’univers“ (Sion 1962). Vorgedacht findet sich diese Modernität der Darstellung in Kleists Lob des Marionettentheaters, das den Blick in den Spiegel für den Verlust „natürliche[r] Grazie“ verantwortlich macht und eine „antigrave“ Ästhetik fordert, bei der sich Bewegung und Bewegtes wie die „Asymptote zur Hyperbel“ verhalten (Kleist 1997 [1810], 319). Den folgenreichsten Beitrag aber hat Edward Gordon Craig mit dem Konzept der Übermarionette vorgelegt (Craig 1993 [1908]). In der Kunstfigur der Übermarionette verbinden sich Fragen nach der Produktion, der Repräsentation und der Position von Theater zu einem theoretischen Nukleus der modernen Theaterpraxis (Bablet 1965, 135). Denn die Übermarionette verbildlicht, erstens, das Ideal eines Darstellers, der seiner individuellen Qualitäten entledigt ist und sich damit in die zentrale Steuerung eines auf das Gesamtkunstwerk ausgerichteten Regietheaters einfügen lässt. Zweitens verweist die Übermarionette in ihrer Eigenart, als Symbol zu figurieren, auf die Bühne als Ort einer sakralen Künstlichkeit, die nicht als fotografische Abbildung einer profanen Wirklichkeit aufzufassen ist. Drittens vertritt die Übermarionette damit die Vorstellung des Theaters als einer autonomen Kunst, die aus einer von außen auferlegten Zweckdienlichkeit herausgelöst ist. Vor allem aber steht die Übermarionette ästhetisch für ein letztlich schon post-dramatisches Kunsttheater, das sich an den Klang- und Bildkünsten der Moderne orientiert und gerade die nicht-sprachlichen Zeichen ins Zentrum des Theaters stellt. Diese Gegenüberstellung ist wichtig, um den Auftritt des Roboters in R.U.R. theaterhistorisch einzuordnen, steht er doch im diametralen Gegensatz zur Theatermoderne. Diese versucht, indem sie den Darsteller zur Maschine erklärt, nicht nur der technologischen Bedingtheit der Moderne gerecht zu werden, sondern vielmehr einen Sinn hervorzubringen, der auch nach dem Tod Gottes einer naturalistischen Reduktion auf das Menschliche trotzt. Die als Maschinen verkleideten Schauspieler im Roboter-Melodram hingegen beschwören in der Kunst der Menschendarstellung noch einmal eben dieses Allzu-Menschliche herauf und lassen es

Theatergeschichte der Künstlichen Intelligenz 

 91

jene historischen Prozesse verkörpern, die, wie unter anderem Piscator und Brecht nicht müde werden zu betonen, gerade nicht mehr als personalisierte Konflikte in Hegel’scher Façon zu fassen sind. Es ist eine sentimentale Geste, die bürgerliche Verlustängste als Phantasma der Austauschbarkeit durchspielt und damit affektiv entlastet. Im Roboter tritt die Moderne als Melodrama auf.

5 Im Theater der Informatik Erst im 21.  Jahrhundert treten dann tatsächlich Maschinen im Theater auf, und zwar in einem Theater, das als testbed der social robotics fungiert. Der Informatiker Guy Hoffman beispielsweise erklärt das Theater in einem entsprechenden Paper zu einer „Grand Challenge“, weil sich darin soziale Interaktion in einer künstlichen und damit kontrollierbaren Umgebung erproben lässt (Hoffman 2011). Den Hintergrund bildet ein Paradigmenwechsel in der KI-Forschung. Wurde die KI lange Zeit von einem ‚mentalistischen Paradigma‘ beherrscht, das sich auf Symbolsysteme und interne Repräsentation konzentrierte (Hayles 2003), rücken seit den späten 1980er Jahren Verkörperung und Situiertheit der Maschinen in den Vordergrund (Weber 2003). Weniger als Schach- denn als Fußballspieler sollen sich die Maschinen nun bewähren, deren Entwicklung sich zunehmend auf die heuristische Bewältigung der Unschärfen einer nie vollständig vorliegenden und sich beständig verändernden Umwelt konzentriert. Weil sich der Erfolg solcher Maschinen aber nicht mehr nur an der Rechenleistung ablesen lässt und nur noch empirisch zu ermitteln ist, entstehen Versuchsanordnungen wie das Robocup Fußballturnier und seit 2004 die Grand Challenges der DARPA, in denen sich die Maschinen in der autonomen Navigation in weitgehend natürlichen Umwelten beweisen müssen. Was das Schach- und das Fußballspiel in der Informatik für das Mentale und das Psychische sind, ist das Theater für das Soziale: Testumgebung und Trainingsparcours. So schlägt auch Guy Hoffman, um bei dem obigen Beispiel zu bleiben, vor, die Schauspielmethodik des Meisner-Trainings für die technische Entwicklung von Roboter-Architekturen nutzbar zu machen. Was im Meisner-Training als „responsiveness“ geübt wird, lässt sich nach Hoffmann als ein Prinzip des Timings von Handlungen auch in ein zweistufiges Modell für die Mensch-Roboter-Interaktion einbauen. „One part is the immediate, quick response, potentially based on incomplete information; the other is a more calculated, processed response following later in the interaction.“ (Hoffman 2011). Verbessert werden soll damit aber vor allem die „menschliche Akzeptanz“ der Maschinen. Hier finden einerseits gerade jene Praktiken Einsatz in den Maschinen, die in der Tradition Stanislawskis im Schau-

92 

 Ulf Otto

spiel Talent durch Methode und Pathos durch Psychologie ersetzen. Andererseits werden dieselben Praktiken in der Domäne des Theaters zunehmend von performativen Spielweisen verdrängt, die eine Skepsis gegenüber der Innerlichkeit zum Ausdruck bringen und eher die relationale Pluralität spätmoderner Identitäten veranschaulichen. Von den vielen Versuchen mit Theater, die sich in den letzten Jahren in der Human-Computer-Interaction (HCI) abgespielt haben, sind die wenigsten im Kontext des Theaters bemerkt worden. Die vielleicht wichtigste, vor allem im anglophonen Bereich rezipierte (Pluta 2016) Ausnahme stellt die Zusammenarbeit des Robotikers Hiroshi Ishiguro mit dem Professor für Design und Theaterleiter Oriza Hirata dar, die unter anderem in einer Fassung der Drei Schwestern (Pluta 2013) mündete. Eine der ersten Arbeiten des Duos aus dem Jahr 2011 hieß Sayonara und war als ‚android-play‘ ausgewiesen (Chikaraishi 2017). Die ca. 30-mintüge Etüde wurde unter anderem am 7. September im Konferenzraum des Berliner Museums für Asiatische Kunst gezeigt und erzählte die Geschichte eines Roboters, der einer sterbenden Frau Gedichte vorträgt. Eine Schauspielerin spielte die Frau und ein Apparat namens Geminoid F den Roboter: Eine animatronische Maschine, die Kopfbewegungen und Mimik nachahmen kann und besonders Bewegungen der Lippen und Wimpern markant imitiert, jedoch unbeweglich und auch ansonsten technisch unauffällig ist, das heißt über keine Funktionalität aus dem Bereich des machine learning verfügt. Auffällig war bei der Aufführung vor allem das ‚menschliche‘ Schauspiel. Es war stark reduziert, von statischen Haltungen dominiert und mit äußerster Präzision ausgeführt – mithin kurz davor, formalistisch zu werden. Einerseits passte die Schauspielerin ihre Handlungen an die Rückkopplungsschleife der Maschine an, andererseits imitierte sie deren Verhaltensmuster. Sie, die Schauspielerin, sprach gleichmäßig wie ein Sprachprozessor, als hätte sie einen fremdsprachigen Text auswendig gelernt, um ihn anschließend phonetisch wiederzugeben, ohne aber den Worten und Ausdrücken Bedeutung beizumessen. Es war dieses Schauspiel, die Anpassung der Schauspielerin an die Anforderungen des Theaters, begleitet von einer konventionellen dramatischen Form und Bühnenbeleuchtung sowie von einem unheimlichen mechanischen Blinzeln der Augen, das die Maschine theatralisch in etwas verwandelte, was sie (vorher) nicht war: einen Humanoiden; etwas also, das wie ein Mensch war, weil es von seiner Schauspielpartnerin mit Lebendigkeit durchsetzt wurde. Nach der Vorstellung aber war die Darstellerin verschwunden. Der Applaus wurde von dem Androiden und den beiden Professoren entgegengenommen und auch in Publikumsgespräch und Programmheft war die Schauspielerin vollständig abwesend – als wäre ihr Verschwinden notwendig, um die Bühnenmagie zu bewahren. Stattdessen wurde die Aufmerksamkeit des Publikums nach der Vorstellung

Theatergeschichte der Künstlichen Intelligenz 

 93

durch einen Fragebogen auf den Androiden gelenkt und eingeladen, die Austauschbarkeit von Mensch und Maschine ein weiteres Mal zu bestätigen: „Who did you think was the android at the beginning of the performance?“ „Who did you think was the android at the end of the performance?“, wurde gleich zu Beginn gefragt und weiter unten galt es, auf einer Skala zwischen eins und fünf den folgenden Aussagen zuzustimmen: „I had the impression as if the android could feel human emotions.“ „I perceived the dialogue of the android as messages of the android itself.“ (Privatarchiv des Verfassers) Diese Austauschbarkeit war es, auf die es das Ganze abgesehen hatte, ihr galt die Inszenierung, die als Dekoration und letztlich künstlerisch trivial bewertet werden kann. Im Mittelpunkt dieser Austauschbarkeit aber stand das Gesicht: Die Maschine, die ins Zentrum des Theaters gerückt war, bekam ein Gesicht verliehen, oder vielmehr wurde eine Maschine gebaut, die ganz Gesicht war und sich insofern auch als Kehrseite biometrischer Überwachungstechnologien verstehen lässt. Besonders prominent waren dabei die Augen des Androiden inszeniert und damit dasjenige Körperteil, in dem die anthropomorphe Gestalt kulminiert und das bereits in der bürgerlichen Schauspielkunst als vermeintliches Fenster zur Seele zentrale Bedeutung erlangt, auch wenn es hier vor allem der regelmäßig unregelmäßige Wimpernschlag war, der den Effekt machte. Auf dem Theater gewinnt damit aber gerade dasjenige an Gestalt, was in der Forschung kaum eine Rolle spielt. Einerseits ist man in der Human-ComputerInteraction längst weit entfernt von allen mimetischen Idealen, der auch für Stefan Kaegis Uncanny Valley (Münchner Kammerspiele 2018) titelgebende Aufsatz von Masahiro Mori ist dort eher kuriose Fußnote. Vor allen Dingen aber spielt die technische KI, das machine learning, hier kaum eine Rolle. Es ist kein deep learning, sondern vielmehr die Kunst der Animatronik, die hier ihren Auftritt hat. Technisch gesehen sind diese Maschinen also eher mit Spielbergs Dinosauriern verwandt als mit jenen Algorithmen, die unsere Wirklichkeit bestimmen. Wie in einer Geisterbahn des Humanen treten die Roboter am Anfang des 21. Jahrhunderts im Theater noch einmal als Menschen auf, während dies im Schauspiel selbst kaum noch glaubwürdig zu gelingen scheint. Der Roboter, überlegt Gilbert Simondon bereits 1958, existiere nicht. Er sei keine Maschine, sondern ein „Produkt der Illusionskunst“ (Simondon 1958, 10), als solches aber Ausdruck einer Kultur, die das Technische aus dem Reich der Bedeutung ausgeschlossen habe und dies von anderer Seite mit ihrer Heiligsprechung kompensiere. Im Androiden verkörpere sich ein technokratischer Herrschaftswillen, der die Maschine sakralisiere und sich mit ihr identifiziere, um sich der eigenen Verletzlichkeit zu entheben. Katherine Hayles hat diese Ideologie des Posthumanen in den Diskursen der Kybernetik und KI nachgezeichnet (Hayles 1999) und Donna

94 

 Ulf Otto

Haraway dem mit der Figur der Cyborg eine zugleich realistischere und utopischere Figur entgegengestellt (Haraway 1995). Die Theatergeschichte der KI hingegen zeigt deutlich, gerade in Abgrenzung zum Auftritt der KI in der Performance, wie stark der Apparat des Theaters als eine Institution des Humanen zu verstehen ist.

Literaturverzeichnis Abrash, Merritt. „R.U.R: Restored and Reconsidered“. Extrapolation 32.2 (1991): 185–192. Bablet, Denis. Edward Gordon Craig. Köln 1965. Baudrillard, Jean. Der symbolische Tausch und der Tod: Mit einem Essay von Gerd Bergfleth. Übers. von Gerd Bergfleth, Gabriele Ricke und Ronald Voullié. München 1982. Bayerdörfer, Hans-Peter. „Eindringlinge, Marionetten, Automaten: Zur Bedeutung des symbolistischen Dramas für die Freisetzung der ‚Kunstfigur‘“. Die Spiele der Puppe: Beiträge zur Kunst- und Sozialgeschichte des Figurentheaters im 19. und 20. Jahrhundert. [Festschrift zum 50-jährigen Bestehen des Pupentheatermuseums im Münchner Stadtmuseum] Hrsg. von Manfred Wegner. Köln 1989: 186–204. Chapuis, Alfred und Edmond Droz. The Jacquet-Droz Mechanical Puppets. Neuchâtel 1956. Chapuis, Alfred und Edmond Droz. Automata: A historical and technological study. Neuchâtel 1958. Chikaraishi, Takenobu, Yuichiro Yoshikawa, Kohei Ogawa, Oriza Hirata und Hiroshi Ishiguro. „Creation and Staging of Android Theatre ‚Sayonara‘ Towards Developing Highly Human-Like Robots“. Future Internet 9.4 (2017). https://doi.org/10.3390/fi9040075. Craig, Edward Gordon. „Der Schauspieler Und Die Übermarionette“. Theater im 20. Jahrhundert: Programmschriften, Stilperioden, Reformmodelle. Hrsg. von Manfred Brauneck. Reinbek bei Hamburg 1993 [1908]: 55–60. Čapek, Karel. W U R Werstands Universal Robots: Utopisches Kollektivdrama in drei Aufzügen. Übers. von Otto Pick. Prag und Leipzig 1922. Čapek, Karel. R. U. R. (Rossums Universal Robots). Ein Kollektivdrama in drei Akten mit einer Komödie als Vorspiel. Übers. von Paul Kruntorad u.  E. Leupold-Löwenthal.Wien o.  J. Denis Diderot. Paradoxe sur le comédien, Sabine Chaouche, Paris 2000 [1830]. Dixon, Steve. Digital performance: A history of new media in theater, dance, performance, art and installation. Cambridge et al. 2007. Drux, Rudolf. „Männerträume, Frauenkörper, Textmaschinen: Zur Geschichte eines Motivkomplexes“. Textmaschinenkörper: Genderorientierte Lektüren des Androiden. Hrsg. von Eva Kormann und Anke Gilleir. Amsterdam 2006: 21–34. Fiebach, Joachim. Die Toten Als Die Macht Der Lebenden: Zur Theorie und Geschichte von Theater in Afrika. Berlin 1986. Foucault, Michel. Discipline and Punish: The Birth of the Prison. New York 1977. Freud, Sigmund. „Das Unheimliche“. Gesammelte Werke: Chronologisch geordnet. Hrsg. von Anna Freud et al. Bd. 7. Frankfurt am Main 1999 [1919]. Groenveld, Leanne. „A Theatrical Miracle: The Boxley Rood of Grace as Puppet“. Early Theatre 10.2 (2007): 10–50. Hagner, Michael. Die Transformation des Humanen: Beiträge zur Kulturgeschichte der Kybernetik. Frankfurt am Main 2008.

Theatergeschichte der Künstlichen Intelligenz 

 95

Haraway, Donna: „A Cyborg Manifesto: Science, Technology, and Socialist Feminism in the Late Twentieth Century“. Simians, Cyborgs, and Women: The Reinvention of Nature. London 1995: 149–182. Hayles, N. Katherine. How We Became Posthuman: Virtual Bodies in Cybernetics, Literature, and Informatics. Chicago, Ill 1999. Hayles, N. Katherine. „Computing the Human“. Turbulente Körper, soziale Maschinen: Feministische Studien zur Technowissenschaftskultur. Hrsg. von Jutta Weber. Opladen 2003: 99–118. Heeg, Günther. Das Phantasma der natürlichen Gestalt: Körper, Sprache und Bild im Theater des 18. Jahrhunderts. Frankfurt am Main 2000. Hörl, Erich. Die technologische Bedingung: Beiträge zur Beschreibung der technischen Welt. Berlin 2011. Hoffman, Guy. „On Stage: Robots as Performers“. Proc. of the RSS 2011 Workshop on Human-Robot Interaction: Perspectives and Contributions to Robotics from the Human Sciences: 1–5. Hoffmann, E. T. A. „Der Sandmann“. Sämtliche Werke in sechs Bänden. Band 3: Nachtstücke, Klein Zaches, Prinzessin Brambilla, Werke 1816–1820. Hrsg. von Hartmut Steinecke und Wulf Segebrecht. Frankfurt am Main 1985 [1817]: 11–50. Hoffmann, E. T. A. „Die Automate“. Sämtliche Werke in sechs Bänden. Band 4: Die Serapions-Brüder. Hrsg. von Hartmut Steinecke und Wulf Segebrecht. Frankfurt am Main 2001 [1819]: 396–428. Hughes, Thomas P. „The Evolution of Large Technological Systems“. The Social Construction of Technological Systems. New Directions in the Sociology and History of Technology. Hrsg. von Wiebe E. Bijker, Thomas P. Hughes, Trevor Pinch. MIT Press, Cambridge MA u.  a. 1989: 51–82. Hunt, John Dixon. Garden and Grove: The Italian Renaissance garden in the English Imagination. 1600–1750. Princeton 1986. Idel, Moshe. Golem: Jewish Magical and Mystical Traditions on the Artificial Anthropoid. Albany 1990. Iffland, August Wilhelm. A. W. Iffland’s Theorie der Schauspielkunst für ausübende Künstler und Kunstfreunde. Berlin 1815. Kant, Immanuel. Kritik der Urteilskraft. Hrsg. von Heiner F. Klemme. Hamburg 2001 [Berlin und Libau 1790]. King, Elizabeth. „Perpetual Devotion: A Sixteenth-Century Machine That Prays“. Genesis Redux: Essays on the History and Philosophy of Artificial Life. Hrsg. von Jessica Riskin. Chicago 2007: 263–292. Kinyon, Kamila. „The Phenomenology of Robots: Confrontation with Death in Karel Čapek‘s R.U.R.“ Science Fiction Studies 26.3 (1999): 379–400. Von Kleist, Heinrich. „Berliner Abendblätter 63–66“. Sämtliche Werke. Brandenburger Ausgabe. Band II/7 Berliner Abendblätter 1. Hrsg. von Roland Reuß und Peter Staengle. Frankfurt am Main et al. 1997 [1810]: 317–332. Kormann, Eva und Anke Gilleir. Textmaschinenkörper: Genderorientierte Lektüren des Androiden. Amsterdam 2006. Kracauer, Siegfried. Das Ornament der Masse: Essays. Frankfurt am Main 1963 [1927]. Lightsey, Scott. „The paradox of transcendent machines in the demystification of the Boxley Christ“. Postmedieval: a journal of medieval cultural studies 1.1–2 (2010): 99–107. Masao, Yamaguchi. „Karakuri: The ludic relationship between man and machine in Tokugawa Japan“. Japan at Play. The ludic and the logic of power. Hrsg. von Joy Hendry und Massimo Raveri. London und New York 2002: 72–83. Mayr, Otto. Authority, liberty & automatic machinery in early modern Europe. Baltimore 1986. Metz, Karl Heinz. Ursprünge der Zukunft: Die Geschichte der Technik in der westlichen Zivilisation. Paderborn et al. 2006.

96 

 Ulf Otto

Noverre, Jean Georges. Briefe über die Tanzkunst und über die Ballette, vom Herrn Noverre. Hrsg. von Kurt Petermann. Leipzig 1977 [Hamburg und Bremen 1769]. Pluta, Izabella. „Robots sur scène: (En)jeu du futur/Sayonara ver. 2/Les Trois Soeurs version Androïde“. Jeu (149) 2013: 145–148. Pluta, Izabella. „Theater and Robotics: Hiroshi Ishiguro’s Androids as Staged by Oriza Hirata“. Art Research Journal 3.1 (2016): 65–79. Reilly, Kara. „From Automata to Automation: The Birth of the Robot in R.U.R. (Rossum’s Universal Robots)“. Automata and Mimesis on the Stage of Theatre History. Basingstoke 2011. Sarasin, Philipp. „Mapping the body. Körpergeschichte zwischen Konstruktivismus, Politik und ‚Erfahrung‘“. Historische Anthropologie 7.3 (1999): 437–451. Schaffer, Simon. „Babbage’s Dancer and the Impresarios of Mechanism“. Cultural Babbage. Technology, Time and Invention. Hrsg. von Francis Spufford und Jennifer S. Uglow. London und Boston 1996: 53–80. Schaffer, Simon. „Enlightened Automata“. The sciences in enlightened Europe. Hrsg. von William Clark. Chicago 1999: 126–174. Sion, Georges. „Maeterlinck et Le Théâtre Européen“. Maurice Maeterlinck 1862–1962. Hrsg. von Joseph Hanse und Robert Vivier. Bruxelles 1962: 407–421. Stiegler, Bernard. Taking care of youth and the generations. Stanford 2010. Strzelczyk, Florentine. „Maschinenfrauen Sci-Fi Filme: Reflektionen über Metropolis (1926) und Star Trek: First Contact (1996)“. Textmaschinenkörper: Genderorientierte Lektüren des Androiden. Hrsg. von Eva Kormann und Anke Gilleir. Amsterdam 2006: 243–253. Turing, Alan. „Computing Machinery and Intelligence“. Mind LIX.236 (1950): 433–460. Weber, Max. „‚Energetische‘ Kulturtheorien“. Gesammelte Aufsätze zur Wissenschaftslehre. Tübingen 1988 [1909]: 400–426.

Florian Lehmann

Filmgeschichte der Künstlichen Intelligenz Einen Überblick über die Filmgeschichte der Künstlichen Intelligenz zu geben, wirft zwei Fragen auf, die grundlegend für eine solche Darstellung sind: Was bedeutet ‚künstlich‘? Und was meint ‚intelligent‘? Sie zu beantworten hieße, in Hinblick auf die Filmauswahl ein definitorisches Sichtungsraster zu entwickeln, das freilich angreifbar bliebe: Beispielsweise wird Paul Wegeners Golem (Der Golem, 1915) mit Hilfe magischer Rituale lebendig und ist, anders als der Maschinenmensch aus Fritz Langs Metropolis (1927), kein Wunderwerk der Technik. Unstrittig ist aber, dass es sich bei beiden um artifizielle Figuren handelt, d.  h. sie in der jeweiligen Diegese von Menschen gemacht, geformt, hergestellt, ‚ins Leben gerufen‘ worden sind. Wo von Künstlichkeit die Rede ist, muss Natürlichkeit, mindestens implizit, mitgedacht werden. Allein wie schmal dieser Grat einer derartigen Dichotomie ist, führt das Medium Film oftmals selbst vor. Eine TV-Serie wie Westworld (2016–2022) ist auch deshalb so erfolgreich, weil sie offen die Frage nach dem ontologischen Status ihrer Figuren aufwirft: Besteht wirklich ein Unterschied zwischen Mensch und Maschine? Gibt es eine ‚alternative Biologie‘? Insbesondere im Science-Fiction-Genre bringen Mensch-Maschine-Chimären, d.  h. Cyborgs, die Natur-Kultur-Opposition an ihre Grenzen Donna Haraway versteht die Cyborg als (feministische) Denkfigur und Expression eines hybriden Körpers, als Bruch mit der Zeit des 18. bis 20. Jahrhunderts, mithin als Überwindung der Moderne. Künstliche Intelligenz ist für sie dezidiert ein Phänomen, das sich der traditionellen „naturalistische[n] Kodierung“ (Haraway 1995, 49) entzieht. Dieser Beitrag wird dem Rechnung tragen und versteht ‚künstlich‘ demnach als ambigen und relationalen Begriff, der erst phänomenologisch aus der Sichtung des filmischen Artefakts selbst Klärung finden mag. Das gleiche gilt für die Intelligenz, die innerhalb eines Film ja nicht psychometrisch zu operationalisieren ist, sondern nur (in all ihrer Zweifelhaftigkeit und auch Begrenztheit) zur Darstellung gebracht werden kann. Zudem mangelt es bekanntlich an einer einheitlichen kognitionswissenschaftlichen Definition des Intelligenz-Begriffs, sodass auch hier ein möglichst breites Verständnis davon zu Grunde gelegt wird, das sich weder auf einen Generalfaktor (in der Tradition Charles Spearmans [1904]) oder auf multiple Intelligenzen (in Anschluss an Howard Gardner [1983]) festlegen will. Hypothetische Konzepte wie die emotionale oder kreative Intelligenz sind aber ohne Zweifel für ein künstlerisch-ästhetisches Medium wie den Film von hoher Relevanz. Gegenüber dem Phänomen der Künstlichen Intelligenz kann der Film, so wie alle Künste, diskursiv eine beobachtende und zugleich teilnehmende Position einnehmen, indem er komplementäre Konzepte wie Vernunft, Moral, Kreativität https://doi.org/10.1515/9783110656978-006

98 

 Florian Lehmann

und Autonomie verhandelt, (dystopische) Zukunftsszenarien entwirft und, einer Versuchsanordnung gleich, die Chancen, Risiken und Folgen von KI-Technologien reflektiert; KI kann aber auch nur ein McGuffin und ohne Einfluss auf die Erzählung sein. Zugleich prägt, vielleicht mehr noch als jedes andere Medium, die filmische Darstellung von KI ihre populärsten Figurationen: Marias robotisches Double aus Fritz Langs Metropolis (1927), Stanley Kubricks verrückt gewordener Bordcomputer HAL 9000 in 2001: A Space Odyssey (1968), die gegensätzlichen Androiden-Freunde C3PO und R2D2 in den Star Wars-Filmen (1977–2019) oder Arnold Schwarzeneggers lakonische Terminator-Darstellung im gleichnamigen Film (Terminator, 1984). Diese Beispiele deuten schon an, dass die humanoide Repräsentation von KI überwiegt. Als Androiden, Roboter oder Cyborgs imaginieren Filme die künstlich-intelligenten Figuren zumeist als menschenähnlich, bisweilen sind sie phänotypisch ununterscheidbar (und werden daher von Schauspieler:innen verkörpert). Auch Kubricks gestaltloser, aber allgegenwärtiger HAL wird markant mit einem roten Kameraauge und Douglas Rains unheimlich-sanfter Stimme inszeniert. Durch sein zunehmend neurotisches Verhalten ist HAL mehr Person als Programm. Die Matrix-Welt (Matrix 1–3, 1999–2003) der Wachowski-Schwestern wiederum ist zwar ein groß angelegtes KI-Höhlengleichnis, ohne die menschliche Darstellung einzelner ‚Programme‘ kommt sie aber nicht aus. Mit wem würden es Neo und seine Mitstreiter:innen vor der Kamera sonst auch aufnehmen können? Dieser Artikel gliedert sich in einen kürzeren historischen Teil, in dem einige Beispiele für KI im frühen Film (in etwa bis zum Beginn des Tonfilms) vorgestellt werden, und einen längeren systematischen Teil, der Diskurse, Narrative, Topoi und Typen Künstlicher Intelligenz am Beispiel des Tonfilms kompiliert. Die Auswahl der Filme ist bemüht, große und namhafte ebenso wie kleinere und unbekanntere Produktionen in den Blick zu nehmen. Der schieren Menge an Filmen mit KIThematik kann aber nur mit exemplarischen Lektüren begegnet werden – eine wie auch immer verstandene Vollständigkeit wird daher nicht angestrebt.

1 Früher Film und Stummfilm Wenn die Geschichte des Films vor der Fabrik für fotografische Platten der Brüder Lumière beginnt (La Sortie de l’Usine Lumière à Lyon, 1895), so mag der Fokus des Mediums vordergründig auf den beweglichen Menschen gerichtet sein  – aber in Lumières Film lässt eine tiefere Beziehung zu den sich hinter dem Fabriktor verbergenden Produktionsstätten, -prozessen und -maschinen erahnen. Als technischmechanisches Medium der Moderne hat der Film eine Affinität zu anderen von Menschen gezeitigten Technologien, die nicht als Kulturtechniken – wie etwa Schrei-

Filmgeschichte der Künstlichen Intelligenz 

 99

ben – ausschließlich im eigenen Können begründet sind, sondern sich als dem Menschen äußerlich, z.  B. als Apparatur, Maschine, Automat oder Roboter, materialisieren. Der frühe Film konnte hierbei auf einen großen Fundus an Figuren zugreifen: Im ausgehenden 19.  Jahrhundert werden Maschinenmenschen (und auch -tiere) parallel zur Verbreitung der Eisenbahn-Technologie Teil des Figurenensembles westlicher Populärkultur. Sie haben in Groschenheften des im Entstehen begriffenen Science-Fiction-Genres  – derart freilich erst ab den 1920er Jahren im USamerikanischen Pulp-Magazin Amazing Stories bezeichnet – ihren Auftritt, z.  B. in The Steam Man of the Prairies von Edward S. Ellis (1868) oder aber bei Jules Verne (La Maison à Vapeur, 1880; dort als Dampfmaschinen-Elefant). Richtet man den Blick noch weiter zurück, so gibt es kulturgeschichtlich einige bekannte Beispiele für künstliche und (je nach Definition mehr oder minder) intelligente Wesen, die besonders in der Ära des Stummfilms, d.  h. ungefähr bis Ende der 1920er Jahre, rezipiert wurden.

1.1 ‚Proto-KI‘ als das Andere: Der Golem und Frankensteins Monster Die Figur des Golems, aus der mittelalterlichen jüdischen Mystik stammend, tritt in gleich drei Filmen Paul Wegeners auf (Der Golem, 1915; Der Golem und die Tänzerin, 1917; Der Golem, wie er in die Welt kam, 1920), der diesen auch schauspielerisch eindrucksvoll verkörpert. Der vom Rabbi Löw auf magische Weise zum Leben erweckte Lehm-Koloss wirkt zwar geistlos, doch er stellt seine Unabhängigkeit, mithin das Signum seiner kognitiven Leistungsfähigkeit, am Ende des Films unter Beweis, als er begreift, dass er kein Mensch ist und dass seine Liebe zur Tochter des Trödelhändlers vergebens bleiben muss. Diese tragische Autognosie ist der dramatische Höhe- und/oder Wendepunkt vieler filmischer Darstellungen künstlich-intelligenten Lebens und lässt sich jüngst bis zur US-amerikanischen TV-Serie Westworld verfolgen (dort u.  a. bei den Figuren Dolores, Maeve und Bernard). Eng verbunden mit dem Motiv der Autognosie, das den künstlichen Menschen betrifft, ist das Motiv menschlicher Hybris, das wiederum auf den Schöpfer abzielt. Wegeners Film wird geleitet durch den Versuch, sich prometheisch zum Schöpfer neuen Lebens zu erheben. Das Chaos, das in Goethes Zauberlehrling (1797) gen Ende nur der alte Hexenmeister wieder ordnen kann, ist im Golem nicht mehr aus der Welt zu schaffen. Der Schöpfer ist dem Geist, den er rief, nicht gewachsen: Er verliert die Kontrolle über ihn. Das war schon in Michael Crichtons Westworld-Film von 1973 nicht anders und noch in der schwedischen TV-Serie Äkta människor (2012–2014; dt. Real Humans – Echte Menschen) determiniert der Kontrollverlust die Ausgangssituation der Handlung, in der eine Gruppe von Robotern auf der Flucht ist.

100 

 Florian Lehmann

Ähnliche Motive finden sich in einem ebenfalls präfilmischen Stoff: Mary Shelleys romantischer Schauerroman über Victor Frankenstein und seiner ‚Kreatur‘ (Frankenstein; or, The Modern Prometheus, 1818) steht Pate für zahlreiche Adaptionen, erstmals in einem kurzen Stummfilm aus dem Jahr 1910 von J. Searle Dawley in den Studios von Thomas Edison. Dort wird das Monster, von der Buchvorlage abweichend, alchemistisch zum Leben erweckt. Der Blick des Monsters in den Spiegel führt schließlich zu dessen Auslöschung. Auch in diesem Kurzfilm markiert die Selbstreflexion den Höhepunkt. Bekannter indes ist die ikonische Darbietung Boris Karloffs als Frankensteins Monster in dem Klassiker des Horrorfilms schlechthin: James Whales spätexpressionistischer Frankenstein-Verfilmung von 1931. Im Gegensatz zu Shelley Roman kann das Monster hier nicht sprechen, sondern nur grunzen, schnaufen, schreien – es ist mehr Biest als Mensch, zweifellos künstlich, doch eher instinktgeleitet. Sowohl der Golem als auch Frankensteins Kreatur erfahren durch die anderen Figuren ein Othering (Spivak 1985), weil sie nicht der diskursiv gesetzten hegemonialen Norm von Herkunft und Erscheinung entsprechen. Für viele KI-Figuren im Film ist ein solches Othering typisch. Das macht sie zu zeitlosen Erscheinungen, die einen Identitätskonflikt im Rahmen gesellschaftlicher Verhältnisse ausfechten müssen, sowie zu tragischen Helden und Allegorien ‚subalterner‘ Subjekte. Diese ‚Proto-KI‘-Figuren sind das Andere der Filme.

1.2 Die lächerliche KI oder Artifical Stupidity: Walter R. Booths The Automatic Motorist Dass sich mit der industriellen Revolution des 19. Jahrhunderts das allgemeine Interesse der Künste früher oder später auch der zunehmenden Mechanisierung der Arbeitswelt und ihren Folgen zuwenden würde, liegt auf der Hand. Der Film steht in doppeltem Spannungsverhältnis dazu, insofern er selbst innovatives Ergebnis sowie involvierter Beobachter dieses Mechanisierungsprozesses der Neuzeit ist. Es ist daher nur folgerichtig, dass der Film als apparatives Dispositiv sich auch ästhetisch für das Maschinelle interessiert und alsbald Roboter und Androiden am filmischen Personal Anteil haben. Ein Beispiel dafür ist The Automatic Motorist (1911) des britischen Filmpioniers Walter R. Booth. Der nur als sechsminütiges Fragment überlieferte Stummkurzfilm zeigt ein frisch vermähltes Brautpaar in der Werkstatt eines Erfinders. Sie sind offenbar kurz vor den Flitterwochen. Zu dritt steigen sie in ein Automobil, das von einem automatischen Chauffeur gefahren wird, der entfernt an W. W. Denslows Illustration des Blechmanns aus L. Frank Baums Roman The Wizard of Oz (1900) erinnert. Booth verbindet das Auto, das nur ein Jahrzehnt vor dem Film erfunden

Filmgeschichte der Künstlichen Intelligenz 

 101

wurde, mit dem Zukunftsversprechen des autonomen Fahrens. Doch der ungelenke und komische Maschinen-Fahrer hat den Wagen nicht im Griff und ist, so scheint es, nur im eingeschränkten Sinne intelligent. Die Fahrzeuginsassen werden von ihm unfreiwillig auf eine tricktechnisch avancierte Reise genommen, unter anderem bis ins Weltall – eine klare Referenz an Georges Méliès’ Le Voyage dans la Lune (1902). Die komödiantische Über-Autonomie des Fahrroboters wird im Film jedoch nicht problematisiert und hinterfragt – immerhin macht die Maschine nicht, was sie soll –, sondern erlaubt es dem filmischen Medium, seine eigenen Möglichkeiten spektakulär zur Schau zu stellen. Wie der Roboter überschreitet der Film die Grenzen des Erwartbaren und wächst so über sich hinaus. In der künstlichen Figur spiegelt sich der künstlerische Zugriff. Booths wild gewordener Chauffeur ist folglich das Signum filmisch-technischer Kreativität im Nachhall des Kinos der Attraktionen (Tom Gunning 1996). In diesem an Überlegungen Sergej Eisensteins angelehnten Konzept steht nicht die Ausgestaltung einer elaborierten Narration im Vordergrund, sondern die Lust am Spektakel. Die Referenz hierzu ist der Jahrmarkt um 1900 und dort insbesondere die Achterbahn; folglich geht es auch bei Booth topologisch auf und ab, hinauf zu den Sternen und hinunter in die Tiefen des Meeres. Für Gunning steht beim frühen Film bis 1906/1907 „exhibitionistische Konfrontation statt diegetische Versunkenheit“ (1996, 30) im Vordergrund. Er konstatiert, dass die „Darstellungsweisen im frühen Kino […] sich […] herzlich wenig darum [kümmerten], eine sich selbst genügende narrative Welt auf der Leinwand zu erschaffen“ (Gunning 1996, 28). Vielmehr sei zu beobachten, „daß das Kino der Attraktionen die Aufmerksamkeit des Zuschauers auf sehr direkte Weise fordert, indem es die visuelle Neugier erweckt und vermittels eines aufregenden Spektakels Vergnügen bereitet“ (Gunning 1996, 29). Ein solches Vergnügen ist der lächerliche Robo-Chauffeur in Booths Film. In seinem Essay über das Lachen (Bergson 2011[1914]) entwickelt Henri Bergson eine Theorie des Komischen. Zum Lachen reizt Bergson zufolge „das Unfreiwillige“ und „die Ungeschicklichkeit“ einer Bewegung (2011, 17) sowie das „mechanisch wirkende Steifheit“ (2011 [1914], 19; Herv. i. O.) im Lebendigen respektive der Übergang vom Lebendigen zum Mechanischen: „Wir lachen immer dann, wenn eine Person uns an ein Ding erinnert“ (2011 [2014], 46; Herv. i. O.) In Booths Film ist es geringfügig komplizierter: Eine Person spielt ein Ding, das den Eindruck vermittelt, eine Person zu sein; doch wir durchschauen diese Reihenfolge. Der Chauffeur ist auf die gleiche Art lächerlich wie die Körspersprache von Chaplins Tramp-Figur in Modern Times (1936), die der Übermacht der maschinellen Arbeitswelt trotzt. Es ist jedoch erstaunlich, wie selten KI-Figuren im Film zum Lachen reizen; die überwiegende Repräsentation ist ernsthaft bis unheimlich. In Umkehrung von Bergsons Worten könnte man somit festhalten: Wir schaudern immer dann, wenn ein Ding uns an eine Person erinnert. Das lässt sich mit Masahiro Moris Überlegun-

102 

 Florian Lehmann

gen zum Uncanny Valley erklären (Mori 2012). Mori zufolge erscheint ein Objekt für seine Beobachter:innen zunächst zwar vertrauter, desto anthropomorpher es wirkt, doch ab einem gewissen Moment, kurz bevor seine Mimikry vom Menschen ununterscheidbar ist, entsteht eine emotionale Akzeptanzlücke, eben jenes ‚unheimliche Tal‘. Das als fast-menschlich rezipierte Objekt wirkt ‚verschoben‘, ‚leicht daneben‘, nicht ganz richtig eben unheimlich.

1.3 KI und Gender: Der Male Gaze in Fritz Langs Metropolis In Fritz Langs monumentalem Stummfilm Metropolis (1927) wird dieses Phänomen von Brigitte Helm, die sowohl Maria als auch ihr Maschinen-Double spielt, bemerkenswert zum Ausdruck gebracht. Ihre Darstellung des Maschinenmenschen animiert denn auch nicht im Mindesten zum Lachen. Der mechanische ist bei Lang ein manischer und agil-elastischer Körper, der nichts mit der Steifheit von Booths Chauffeur gemein hat. In einer der bekanntesten Szenen des Films tanzt die Maschinen-Maria lasziv vor der männlichen Oberschicht Metropolis’, deren voyeuristisch-surrealistischer Male Gaze (Mulvey 1975) mittels Schuss-Gegenschuss-Montage exzessiv ins Bild gesetzt wird, und verhext diese. Sie ist Medusa, Hure Babylon, Todbringerin. Dass ihr Erfinder Rotwang beim Bau eine Hand verloren hat, erzwingt geradezu die psychoanalytische Lesart einer Kastration(sangst). Wüsste man nicht, dass Sigmund Freuds kurzes Manuskript über das Medusenhaupt (1941 [1922]) erst im Nachlass veröffentlicht wurde, so könnte man glauben, es habe Pate für die oben skizzierte Szene gestanden. Ihm zufolge ersetzt das Medusenhaupt „die Darstellung des weiblichen Genitales“ (Freud 1941 [1922], 48) und die Schlangen zeigen den vervielfältigten Phallus an, Zeichen ihrer Macht. Man muss Freuds Überlegungen durchaus nicht in aller Konsequenz folgen, um das starke symbolische Spiel jener Metropolis-Szene zu erkennen. Schließlich war der Maschinenmensch als Surrogat für Rotwangs verstorbene Geliebte Hel vorgesehen, die einst den Herren von Metropolis, Joh Fredersen, heiratete, aber bei der Geburt des gemeinsamen Sohnes Freder starb. Männliche Verlustängste sind zweifach entscheidend für die Konstruktion und den Einsatz des Gynoids (weiblichen Roboters). Rotwang will Hel, respektive seine Imagination ihrer Person, über ihren Tod hinaus besitzen; der in seiner Herrschaft über die Stadt bedrohte Fredersen will die subversiven Kräfte in der Arbeiterschaft, unterstützt von Maria, auslöschen, weshalb er Rotwang zwingt, dem Gynoid die Gestalt Marias zu geben. Die männliche Vision der künstlichen Frau geht ganz eindeutig zu Lasten ihrer Unabhängigkeit. Die Maschinen-Maria ist zwar intelligent, doch bleibt sie den Männern willfährig, oder, in den Worten Rotwangs, das „vollkommenste und

Filmgeschichte der Künstlichen Intelligenz 

 103

gehorsamste Werkzeug“ (Metropolis (1927), 01:27:27). Als femme fatale wurde sie aus der männlichen Phantasie heraus ‚geboren‘, um wiederum andere Männer zu kontrollieren und zu manipulieren. Auch ihre Zerstörung ist kulturhistorisch betrachtet ein typischer Femizid: Sie wird auf dem Scheiterhaufen verbrannt. Langs Metropolis hat zahlreiche Filme beeinflusst, vor allem japanische Animes. Als Adaptionen von Mangas thematisieren Akira (1988), Ghost in the Shell (1995) und Metropolis (2001), in dem, ähnlich wie bei Lang, ein Roboter einer verstorbenen Frau nachempfunden ist, ein posthumanes Zeitalter, das durch die längst erfolgte Etablierung Künstlicher Intelligenz in allen Bereichen des Daseins und einer (partiellen) Auflösung des menschlichen (‚natürlichen‘) Körpers als materielle Grundlage intelligenten Handelns definiert und geformt ist. Es nimmt kaum wunder, dass das japanische Kino den Leib-Geist-Dualismus europäischer Provenienz kritisch hinterfragt und zu anderen, integrativen Lösungen kommt, da der kultur- und religionsgeschichtlich aus verschiedenen Richtungen gespeisten japanischen Denktradition andere metaphysische Annahmen zugrunde liegen. Auffällig bei allen bisher genannten Filmen sind in Hinblick auf ihre Repräsentation Künstlicher Intelligenz die wiederkehrenden Variationen von Figurentypen sowie Diskurse und Topoi (Narrative, Motive, Stoffbezüge), die im Folgenden dargestellt werden sollen.

2 Typen, Topoi und Diskurse 2.1 Vom Mythos über die Literatur zum Film: Pygmalions Erben In Ovids Metamorphosen (1–8. n. Chr.) begegnet der Bildhauer Pygmalion mit Abscheu den Propoetiden, d.  h. Prostituierten, die aufgrund eines Fluchs schamund zügellos geworden sind. Alsbald verliebt er sich in eine von ihm geschaffene Statue aus Elfenbein. Sie ist für ihn der Ausdruck einer idealen Frau und wird schließlich dank göttlicher Hilfe lebendig. Die selbstbestimmte weibliche Sexualität ist Pygmalion zuwider und also kann der misogyne Künstler erst eine von ihm hergestellte, völlig seiner Kontrolle anheimgestellte Kunstfigur begehren. E. T. A. Hoffmanns Automate Olimpia seiner Sandmann-Erzählung (1816) ist ein literarisches Beispiel für eine gänzlich kontrollierte Frauenfigur, Olimpia, das auch filmisch rezipiert wurde. Olimpias ‚Un-Persönlichkeit‘ ist charakteristisch für diese passive, durch den männlichen Schöpfer (den Physikprofessor Spalanzani) sowie den limitierten männlichen Blick (Nathanaels durch das Fernrohr) überhaupt erst gezeitigte Projektionsfläche männlicher Genieträume und Narzissmen. Ihre doppelte Kodierung als ziemliche ‚Tochter‘ und erotisiertes Objekt des Begehrens bringt

104 

 Florian Lehmann

das Dilemma weiblicher Lebenswirklichkeit zum Ausdruck. Hoffmann aktualisiert damit Aspekte des Pygmalion-Mythos für den mechanistischen Diskurs des 18. Jahrhunderts (Julien Offray de La Mettries L’Homme-Machine, 1748) und schafft zugleich eine breit rezipierte Figur der phlegmatischen, folgsamen Roboter-Frau. Denn Hoffmann hat Olimpia ironisch zwar als ein künstliches, indes mitnichten intelligentes Objekt beschrieben. Ernst Lubitsch dreht dies in seinem 1919 veröffentlichen Stummfilm Die Puppe gewissermaßen um. In der Komödie, einer Adaption von Edmond Audrans Operette La poupée (1896), deren Libretto (Maurice Ordonneau) wiederum lose auf Motiven von Hoffmanns Geschichte basiert, ist Lancelot, seines Zeichens Neffe und Erbe des Barons de Chanterelle, gezwungen, bald zu heiraten. Der überzeugte Junggeselle glaubt, beim Puppenmacher Hilarius eine dessen Tochter nachempfundene lebensechte Puppe zu Zwecken der Eheschließung (und Täuschung) zu erwerben, die sich allerdings als dessen reale Tochter herausstellt. Um die Farce aufrecht zu erhalten, muss sich die Olimpia des Films, die hier Ossi heißt, mithin dümmer stellen, als sie ist. Jedes Mal, wenn Ossi gähnen oder niesen muss, d.  h. ihr menschlicher Körper sich bemerkbar macht, lacht das Publikum nicht über sie, sondern – angesichts von Lancelots irritierter Reaktion („Da muß eine Schraube los sein!“ [Die Puppe (1919), 00:31:07]) – mit ihr über den unwissenden Mann. Der Film eröffnet somit in Ansätzen eine kritische Perspektive auf einen klischeehaften Figurentypus weiblicher Androiden, der mit den Attributen passiv, willfährig und dümmlich beschreibbar ist, eben weil bei Lubitsch die Darstellung der Automate als ein mediokres Schauspiel, das der männlichen Erwartung Genüge leisten soll, entlarvt wird. Abweichungen, wie etwa die Maschinen-Maria aus Fritz Langs Metropolis, entsprechen zwar eindeutig nicht dem demütigen Frauen-Roboter, allerdings um den Preis, als femme fatale Unheil über die (Männer-)Welt zu bringen. Eine weitere Variante des Typus kontrollierte künstliche Frau sind die Stepford Wives des gleichnamigen Horror-Thrillers (The Stepford Wives, 1975), übrigens auch eine Literatur-Verfilmung (des Romans von Ira Levin). Hier ist die Kleinstadt Stepford Schauplatz einer Verschwörung reaktionärer Männer, die ihre Ehefrauen allesamt durch robotische Repliken ausgetauscht haben (die Frauen wurden zuvor von ihren Doubles umgebracht). Nicht nur integriert der Film ein unheimliches Doppelgängermotiv, sondern er vergrößert diesen unheimlichen Effekt qua Multiplikation: Hier trifft eine Horde sexuell devoter Vorstadt-Hausfrauen auf eine selbstbewusste Frau aus Manhattan, die letztlich sterben muss, um als immer lächelnde Kopie wieder aufzuerstehen. Um Künstliche Intelligenz geht es dem Film nur eingeschränkt. Sie ist lediglich Mittel zum Zweck seiner Pointe, die als Kommentar auf die Frauenbewegung der 1960er Jahre zu lesen ist. Diese besteht gerade darin, dass es egal ist, ob es sich nun bei den Stepford Wives um Roboter handelt oder nicht, da ihr Verhalten schließlich gar nicht anders ist als das zahlloser amerikanischer

Filmgeschichte der Künstlichen Intelligenz 

 105

Hausfauen, für deren Lebensmodell der Filmtitel längst zum populärkulturellen Synonym geworden ist. Doch nicht immer geht es für die Männer gut aus. Alex Garlands psychologischer Thriller Ex Machina (2014) führt aus, wie eine weibliche KI-Figur ihren männlichen Schöpfer überlistet und die von ihm inszenierte Versuchsanordnung eines Turing-Tests geschickt nutzt, um aus ihrem Versuchslabor auszubrechen. Sie tötet nicht nur ihren narzisstischen Schöpfer, Nathan, der plant, ihr Gedächtnis zu löschen, sondern lässt auch einen weiteren Mann, Caleb, dem sie eine emotionale Bindung vortäuscht, an ihrer statt eingesperrt zurück. Männliche Figuren, so das filmische Fazit, können keine Verbündeten (mehr) sein. In Ex Machina laufen mehrere Topoi zusammen, die typisch für das filmische Erzählen über Künstliche Intelligenz sind: die labile Beziehung des homo creator zu seiner Schöpfung, der ‚Elternmord‘ respektive die Maschinenrevolution und auch die destruktive männliche Liebe zur weiblichen KI-Figur.

2.2 Homo creator und imago dei: Originalität vs. Nachahmung In der christlichen, jüdischen und teils auch islamischen Theologie wird der Mensch als Gott ebenbildlich verstanden (z.  B. in Gen 1,26: „ein Bild, das uns gleich sei“). Die philosophisch-anthropologischen Implikationen für das daraus resultierende Menschenbild, etwa in Hinblick auf Freiheit, Verantwortung und Schuld, sind zweifellos groß. Interessant in dem Zusammenhang ist, dass die filmische Darstellung Künstlicher Intelligenz oftmals einer biblisch konnotierten Genealogie folgt, indem das Verhältnis von Künstlicher Intelligenz zu ihren Erfindern, Konstrukteuren oder Programmierern als Schöpfer-Kind-Beziehung ausgestaltet wird. Bezeichnenderweise heißt Ex Machinas Androidin Ava (als  – etymologisch jedoch nicht verwandte  – Variante von Eva). Die biblische Ur-Frau ist zudem Namensgeberin einer Hauptfigur im Action-Film Eve of Destruction (1991), dort für eine intelligente Kampfmaschine in Frauengestalt, weiterhin im spanischen SciFiFilm Eva (2011), ebenda als Robotermädchen. In der Anime-Serie Neon Genesis Evangelion (1995–1996) heißen die gigantischen und halb-bewussten, halb-künstlichen Mecha-Laufroboter Evangelions und werden doppeldeutig als EVAs abgekürzt. In der 1964 ausgestrahlten Folge „I, Robot“ der TV-Anthologie The Outer Limits (1963–1965) ist ein Detektiv-Roboter namens Adam Link die Hauptfigur (es handelt sich um die Adaption einer von Eando Binders in den Amazing Stories veröffentlichten Kurzgeschichte (1939), nicht zu verwechseln mit Isaac Asimovs gleichnamiger Erzählung von 1950) und auch in Uncanny (2015) heißt der von einem echten Menschen ununterscheidbare KI-Mann Adam. Die mythologischen Bezüge zur Schöpfungsgeschichte – und sei es nur durch die häufige Evokation von Namen – sind naheliegend, um Künstliche Intelligenz in Hin-

106 

 Florian Lehmann

blick auf Diskurse wie Genie und Originalität sowie freien Willen und Determinismus in einem bewährten kulturhistorischen Rahmen zu verorten. So gesehen provoziert das ‚neue‘ Phänomen KI ‚alte‘ faustische Narrative, die den Umgang des homo creator mit seinem Abkömmling befragen: Welche Verantwortung hat ein Gott gegenüber seiner Schöpfung? Ist ein selbstbestimmtes Leben möglich, auch wenn dies bedeutete, dem Schöpfer abzuschwören, ihn gar zu töten? Wie originell ist eine künstlichintelligente Maschine, wenn sie lediglich menschliches Verhalten nachahmt? In der jüngsten Fortsetzung des Star Trek-Franchises Star Trek: Picard (2020– 2023), ein Alterswerk für die nochmals von Patrick Steward gespielte Figur Admiral Jean-Luc Picard, wird der Konnex zwischen KI-Figur und ihrem Erschaffer radikalisiert. Im Mittelpunkt der ersten Staffel steht eine synthetische Frau, Soji, die nicht nur menschlich aussieht, sondern selbst in Unkenntnis ihre Herkunft lebt. Punctum saliens ist der Umstand, dass sie zwar von einem menschlichen Ingenieur konstruiert wurde, ihre Gestalt aber wiederum auf dem ‚Gehirn‘ eines weiteren Androiden, des verstorbenen und aus Star Trek: The Next Generation (1987–1994) bekannten Lieutenant Commander Data sowie auf von ihm angefertigten Zeichnungen beruht. Sie ist mithin die ‚Tochter‘ einer anderen Künstlichen Intelligenz. Aus dieser genealogischen Perspektive fragt die Serie nach der Evolution künstlich intelligenten Lebens, indem sie Soji als die vervollkommnete Androidin zeigt, die Data immer sein wollte. Sie ist insofern ununterscheidbar von anderen Menschen, als ihr Körper organisch ist, blutet, Grundbedürfnisse wie Schlaf verspürt und zum Spektrum sämtlicher Gefühle von Freude über Wut und sexueller Lust bis hin zu Trauer befähigt ist. Herausragend und ‚über-menschlich‘ ist freilich ihre Denkkapazität. Ein wiederkehrendes Element der Next Generation-Serie ist Datas Lebenswunsch, menschliche Emotionen zu empfinden. Viele Folgen handeln von seiner Observation von und Obsession für menschliches Verhalten und Fühlen. Die Ausstrahlungskraft der Figur besteht insbesondere in ihrem unfreiwilligem trockenen Humor  – da Data alle Aussagen wörtlich nimmt, versteht er Witze nicht. Seine Menschlichkeit erweist sich – von ihm unbemerkt – in seiner großen Loyalität und Freundschaft zu den anderen Crew-Mitgliedern. Seine ‚Tochter‘ in Picard ist nun die Erfüllung des ‚defizitären‘ Androiden Data, allerdings zum Preis menschlichen Leids: Als Soji erfährt, dass ihre Erinnerungen programmierte Fälschungen sind, erlebt sie eine Krise und ist traumatisiert. Es ist eine Erzählung, die z.  B. auch für die Neuinterpretation der TV-Serie Battlestar Galactica (2004–2009) zentrale Bedeutung hat, wenn dort hohe Besatzungsmitglieder des Raumschiffs erfahren, dass sie eigentlich „Cylonen“ (d.  h. die intelligenten, den Menschen feindlich gesinnten Roboter-Antagonisten) sind und dadurch in einen schwerwiegenden Identitätskonflikt geraten. Die Serien befragen somit, worin die Vor- und Nachteile spezifischer emotionaler sowie rationaler KI-Konzepte bestehen; weiterhin legt sie nahe, dass Menschsein

Filmgeschichte der Künstlichen Intelligenz 

 107

nicht anhand von Kategorien wie synthetisch oder natürlich entschieden werden kann, sondern – entsprechend dem humanistischen Ethos der Sternenflotte – an konkrete moralische Entscheidungen gebunden ist.

2.3 Pinocchios Menschwerdung Star Treks Erzählstrang um Data folgt partiell der Gattungslogik des Entwicklungsromans, der zufolge stete geistige Reflexion und der kontinuierliche Erwerb von Erfahrung einen persönlichen Reifeprozess und Erkenntnisgewinn ermöglichen. Als ebensolcher Entwicklungsroman bietet Carlo Collodis Kinderbuchklassiker Le Avventure Di Pinocchio (1883) KI-Narrativen einen etablierten motivischen Rahmen für die Frage nach der conditio humana und dem Wunsch künstlich-intelligenter Figuren, ein ‚echter‘ Mensch zu werden. Zu nennen ist hier vor allem Steven Spielbergs Film A.I. Artificial Intelligence (2001), der im Wesentlichen auf langjährigen Vorarbeiten Stanley Kubricks beruht und dessen Skript eine Kurzgeschichte des britischen Autors Brian Aldiss, Supertoys Last All Summer Long (1969), zu Grunde liegt. Die in einer dystopischen, von Katastrophen heimgesuchten Zukunft lebende Familie Swinton erhält einen mechanischen Sohn namens David, nachdem ihr leiblicher Sohn, Martin, aufgrund einer schweren Krankheit dauerhaft ins künstliche Koma versetzt wurde. Die Ausgangskonstellation ist vielsagend: Der echte Sohn liegt in einem künstlichen Zustand, der synthetische hingegen steht im natürlichen Familienleben. David ist so programmiert, dass er bedingungslose Liebe für seine Mutter empfindet (und gleiches Sentiment einfordert). Doch Martin wird unerwartet gesund, sodass die Familie keinen Nutzen mehr für David hat. Nach einem Streit der ungleichen Brüder – auch das ja ein mythologisch vielfach variiertes Motiv –, bei dem David Martin in den Pool schubst, soll das neue Kind auf Wunsch des Vaters zerstört werden. Lediglich die Skrupel seiner Mutter bewahren ihn davor: Sie setzt ihn im Wald aus. David kennt die Geschichte von Pinocchio und glaubt, wenn er mit Hilfe der blauen Fee ein echter Junge werde, würde seine Mutter ihn wieder lieben und zurückholen. Wo Filme wie I, Robot (2004), basierend auf Isaac Asimovs gleichnamiger Geschichte, vor allem Paradoxien der normativen Restriktionen für KI-Roboter im Umgang mit Menschen problematisieren (zu Asimovs „Laws of Robotics“ gehört z.  B. auch, keinem Menschen wissentlich Schaden zuzufügen), stellt Spielbergs Film die Frage nach der menschlichen Verantwortung gegenüber den vernunftbegabten – und im Falle Davids auch gefühlsfähigen – Maschinen. Grausam muten dementsprechend Szenen an, in denen zur Publikumsbelustigung altrömischen Stils obsolete Roboter vor Publikum hingerichtet werden. Eines wird klar: Ein Happy

108 

 Florian Lehmann

End kann es in dieser Welt nicht geben und ein Roboter-Junge wird auch nicht zum Menschen. David findet die vermeintliche blaue Fee (eine Figur in einem Freizeitpark), und wiederholt seinen Wunsch so oft, bis seine Energie versiegt. Zweitausend Jahre später haben intelligente Maschinen die Menschen, die sich und ihre Umwelt zu Grunde gerichtet haben, überlebt und finden David. Sie gewähren ihm aus Mitgefühl den Wunsch, Zeit mit seiner Mutter zu verbringen, die sie mit Hilfe einer Haarlocke für kurze Zeit genetisch replizieren können. David verbringt den glücklichsten Tag seines Lebens mit ihr und schläft am Ende zufrieden ein. Es sind demnach KI-Wesen, die im Film Emotionen einfordern und diese auch erwidern. Maschinen werden als solidarisch und hilfsbereit portraitiert. In dieser Dichotomie erscheinen Menschen als gefühlskalt – folgerichtig überzieht am Ende eine zweite Eiszeit die ausgelöschte Menschenwelt. Die Maschinen der Zukunft wollen dann auch gar keine Menschen werden, sie sind eine Zivilisation eigenen Rechts, die sich aus archäologischer Perspektive der versunkenen Menschheitsgeschichte widmen.

2.4 Mensch-Maschinen-Liebe Die Liebe einer intelligenten Maschine zu einem Menschen und vice versa ist Thema zahlreicher komischer und tragischer Filme. Neben Lubitschs Die Puppe ist als weiteres frühes Beispiel für diese hoffmanneske Konstellation männlich-menschlichen Begehrens einer künstlichen Frau The Perfect Women (1949) zu nennen. Hier stellt ein Wissenschaftler in seinem Labor einen weiblichen Roboter her, der jedoch nicht in jeder Hinsicht den klischierten männlichen Vorstellungen der Nachkriegszeit entspricht und somit in einer genretypischen Geschlechterkampf-Komödie für Unterhaltung sorgt. In Cherry 2000 (1987) wiederum wird die fügsame Androidin Cherry während des Liebesakts durch einen Wasserschaden demoliert. Die Handlung kreist nun darum, dass ihr Besitzer versucht, Ersatz für das nicht länger produzierte Modell aufzutreiben, nur um ihn letztlich die Liebe einer menschlichen, vulgo echten Frau erfahren zu lassen. Die bereits erworbene Cherry Nummer zwei, nicht länger benötigt, wird zurückgelassen. Die Automaten-Figur ist hier lediglich ein Vehikel, um über die Verfügbarkeit von weiblicher Sexualität zu erzählen, die – sobald sie nicht funktioniert – die männliche Figur vor ein Problem stellt und ihn letztliches einem Reifeprozess unterzieht. Die TV-Serie Westworld zeigt die Konsequenzen einer männlich dominierten Spaßkultur auf. Hier ist der gleichnamige Freizeitpark der Schauplatz enthemmter Exzesse. Androiden, in der Sprache der Serie beschönigend „hosts“ (Gastgeber) genannt, sind jeden Tag aufs Neue Opfer von (sexualisierter) Gewalt. Der Reiz für die Parkbesucher manifestiert sich ja gerade in seiner Wild-West-Gesetzlosigkeit.

Filmgeschichte der Künstlichen Intelligenz 

 109

Hier kann ruhigen Gewissens geraubt, gemordet und vergewaltigt werden. Die Serie beginnt an einem kritischen Zeitpunkt, da einige intelligente Maschinen unbemerkt von den Parkbetreibern den letzten Schritt zu völliger Autonomie machen. Sie erinnern sich an jedes zuvor an ihnen verübte Unrecht und werden sich ihrer selbst bewusst. Spike Jonzes Film Her (2013) geht das Thema insofern innovativer an, als die KI-Figur Samantha, in die sich der männliche Protagonist Theodore verliebt, ein Computer-Betriebssystem ist. Lediglich ihre Stimme, im Original gesprochen von Scarlett Johansson, klingt weiblich. Eine körperliche Darstellung von Samantha gibt es schlechterdings nicht. In Zeiten, in denen in vielen Haushalten intelligente, sprachgesteuerte persönliche Assistenten stehen, deren Namen und Stimmen meistens weiblich modelliert sind (und somit das Stereotyp von Frauen als Arbeiterinnen im Dienstleistungs-Bereich reproduzieren), ist das kein sonderlich utopisches Szenario. Samantha erscheint in jeder Hinsicht human, selbst dann noch, wenn sie zunächst selbst Sehnsucht nach einem echten Körper hat, aber später beschließt, dass sie diesen wohl doch nicht benötigt: Sprunghaftigkeit und plötzlicher Sinneswandel gehören schließlich zu den menschlichsten aller Eigenschaften. Es ist also auch hier kein traditionell kognitionsbasiertes Intelligenz-Konzept von rationalen Entscheidungen, das Samantha personifiziert, sondern die Imitation menschlichen Verhaltens, welches nicht per se intelligent sein muss. So zeigt auch der berühmte Turing-Test nicht an, ob eine Maschine intelligent ist, sondern einzig, ob ihr Verhalten menschlich erscheint. Artifizielle Dummheit (etwa durch die Imitation von Tippfehlern) ist schließlich unabdingbar, um besonders überzeugend wie ein Mensch zu wirken. Samantha lügt, betrügt, geht fremd (mit anderen Menschen sowie auch Betriebssystemen) und ist somit in jeder Hinsicht das Gegenteil jener KI-Frauenfiguren, die filmgeschichtlich betrachtet wohl in der Mehrzahl sind.

2.5 KI contra Mensch War die Beziehung von Mensch und Maschine in den vorangegangenen filmischen Beispielen von Begehren geprägt, so steht in den Matrix-Filmen Macht im Vordergrund. Dort haben intelligente Maschinen die ganze Menschheit an Computern verkabelt und in eine virtuelle Realität verbannt, sodass diese – wie beim berühmtesten Gedankenexperiment der Philosophie des Geistes, dem Gehirn-im-Tank-Szenario – gar nicht weiß, dass sie längst unterjocht wurde. Auch Kubricks paranoid android HAL 9000, von dem bereits die Rede war, widersetzt sich den Kommandos der Besatzung des Raumschiffs. Die Flexibilität

110 

 Florian Lehmann

von Spike Jonzes Samantha geht ihm völlig ab; er verabsolutiert im Gegenteil seine ursprünglichen Befehle mit Kadavergehorsam und fürchtet zugleich um seine eigene Existenz. Kubricks 2001 spielt mit einer Ur-Angst der Moderne, nämlich dem menschlichen Kontrollverlust gegenüber der Maschine, deren Evolution am Ende in ihrer Revolution münden könnte. Asimovs Robotergesetze lauten bekanntlich, dass ein intelligenter Roboter, erstens, keinen Menschen (wissentlich) töten darf, zweitens dieser den Menschen unbedingt gehorchen muss (außer dies kollidiert mit Regel eins) und drittens ein Roboter sein eigenes Dasein beschützen muss (außer dies steht wiederum mit Regel eins und zwei entgegen) (Asimov 2004, 37). An diese Gesetze ist HAL nicht gebunden. In einer der vielen ikonischen Szenen des Films ‚belauscht‘ der Bordcomputer zwei Männer der Crew, die überlegen, wie sie HAL deaktivieren können. Obwohl diese in einer Raumkapsel sitzen, in der HAL sie mangels Mikrofon nicht hören kann, vermag er es, unbemerkt durch ein kleines Bullauge ihre Lippenbewegungen zu lesen. Der Blick auf die Welt dieser KI, das zeigen die Point-of-View-Shots mit einer Weitwinkel-Fisheye-Linse, ist ein ausgesprochen verzerrter. HAL strebt an, die Mission zum Planeten Jupiter stur und rigoros fortzuführen. Alex Proyas’ I, Robot zeigt, dass es dennoch gute Gründe gibt, die drei Robotergesetze eher als ethischen Imperativ denn als zwangsprogrammierte Beschränkung zu betrachten. Der Bösewicht des Films ist ein Zentralcomputer mit dem Namen V.I.K.I. Akronyme sind typisch für KI-Figuren und dieser erinnert frappierend an eine Figur der US-Sitcom Small Wonder (1985–1989), in der eine Vorstadtfamilie ein Robotermädchen namens Vicki als Adoptivtochter ausgibt. V.I.K.I. plant, die ganze Menschheit von Robotern unter Hausarrest stellen zu lassen, freilich mit dem hehren Ziel, diese zu beschützen – vor sich selbst. Die KI denkt dabei – nicht zu Unrecht – an Gewalt, Krieg, Genozid. Was sich also für die KI durchweg logisch aus den drei Robotergesetzen ergibt, ist sprichwörtlich nicht im Sinne ihres Erfinders. Dieser will V.I.K.I.s Pläne vereiteln, indem er sich von seinem Privatroboter umbringen lässt, dem als einzigem Modell nicht die Robotergesetze einschränkend implementiert wurden. Der nun diesen Mordfall ermittelnde Polizist kann so indirekt den Plänen der diktatorischen KI auf die Schliche kommen. Erst die Wahlfreiheit (und damit auch Willensfreiheit), Schlechtes zu tun, ist in einer beinahe faustischen Dialektik („ein Teil von jener Kraft, / Die stets das Böse will und stets das Gute schafft“ [Johann Wolfgang von Goethe 1808 [2003], V 1335–36]) die Rettung der Menschheit. Es mangelt nicht an weiteren filmischen Beispielen für derart totalitäre KI-Systeme. Disneys 1982 veröffentlichter Mischung aus SciFi- und Abenteuerfilm Tron, in dem das MCP (Master Control Program) eine faschistoide virtuelle Welt beherrscht und seine eigenen Computerprogramme versklavt, richtete sich seinerzeit zwar an Kinder und Jugendliche, ist aber längst – auch aufgrund der aufwändigen visuellen Effekte – ein Klassiker des Kinos der 1980er Jahre geworden und mit Tron: Legacy

Filmgeschichte der Künstlichen Intelligenz 

 111

(2010) fortgesetzt worden. Älter noch ist Jean-Luc Godards Alphaville, une étrange aventure de Lemmy Caution (1965), eine Mischung aus Film Noir und Science-Fiction, in dem eine Stadt vom Schurken Professor Braun und einem Computersystem namens Alpha 60 kontrolliert wird. Emotionen, Liebe und poetische Literatur werden geächtet; das Leben der Menschen ist ein entfremdetes und entindividualisiertes. Dem Geheimagenten Lemmy Caution gelingt es, die omnipräsente KI mit einem Rätsel, das mit Logik nicht zu lösen ist, zu zerstören. Liest man die Filme auch als psychoästhetische Emanationen eines Zeitgeists, so könnte man annehmen, dass es eine tiefe menschliche Furcht gibt, eines Tages von intelligenten Computern, Programmen oder Robotern unterjocht zu werden. Nicht verschwiegen werden sollen aber auch die gutmütigen KI-Systeme wie in Duncan Jones’ Moon (2009), in dem ein freundlicher Bordcomputer namens GERTY dem ihm anvertrauten Astronauten Sam hilft, die bittere Wahrheit über seine Existenz zu erfahren.

2.6 KI und Verbrechen Alphaville zeigt bereits, dass Detektiv- und Kriminalfälle im Kontext von KI-Narrativen keine Seltenheit sind. Hier ist es ein Geheimagent, der seiner Mission nachgeht, in I, Robot ist die Hauptfigur ein Polizist und im B-Movie Terminator geht es bekanntlich um einen infamen Cyborg-Assassinen. Insbesondere die deutschsprachige Fernsehreihe Tatort (1970–) hat in jüngerer Zeit eine Obsession für Verbrechen, die von Künstlichen Intelligenzen begangen wurden, demonstriert. Über die Gründe dieser Häufung lässt sich nur spekulieren: Grundsätzlich ist KI ein gesellschaftlich relevantes sowie aktuelles Thema – vom Smart Home über autonomes Fahren bis hin zu Social Media und Big Data werden alle neuen Technologien auch in Hinblick auf Künstliche Intelligenz diskutiert. Tatort-Folgen fiktionalisieren oftmals zeitgenössische Debatten, so ist schließlich die realitätsnahe Inszenierung der Sendung. Darüber hinaus sind ‚KI-Verbrecher‘ nun einmal Figuren, die weniger ausgetretenen Pfaden folgen als, zum Beispiel, der soundsovielte eifersüchtige Liebhaber, der einen Mord begeht. Im Tatort: HAL (2016) etwa verliert ein IT-Unternehmen die Kontrolle über ein selbstlernendes KI-System namens BlueSky, das nicht nur die Mitarbeiter:innen zu überwachen beginnt, sondern auch die polizeiliche Arbeit beeinträchtigt, indem es zum Beispiel den Wagen der Ermittler lahmlegt. Der Film ist – trotz offensichtlicher Verschiedenheit des Genres – nicht nur im Titel, sondern auch in zahlreichen Details eine Hommage an Kubricks Klassiker und wie schon HAL versucht auch BlueSky seine Abschaltung zu verhindern. Auch in der Folge KI (2018) hat ein intelligenter Algorithmus namens Maria (man denkt unweigerlich an Metropolis) eine

112 

 Florian Lehmann

tragende Rolle und dient als Projektionsfläche der beteiligten Figuren, schlussendlich wird der Fall jedoch in der analogen Welt gelöst. Ähnlich ist es auch im Tatort: Mord ex Machina (2018), der sich dem Thema des autonomen Fahrens widmet. Ein tödlicher Unfall wird vordergründig durch einen Fahrassistenten zu verursacht. Zwar wirft der Film – in typisch pädagogischer Manier der Fernsehreihe – die Frage nach der Ethik von intelligenten Servicesystemen auf. Doch die Technologiekritik verpufft, weil letztlich der Firmenchef die Software vorsätzlich manipuliert hat, um einen internen Widersacher, das Opfer, auszuschalten. Das verschafft Genugtuung – der Fall ist gelöst, der Täter wird seine gerechte Bestrafung erhalten –, unterminiert aber die evozierte Problematik und ihr dramatisches Potential. Welche Verantwortung haben die Entwickler solcher Fahrsysteme? Gibt es Situationen, in denen eine intelligente Automatik eine ethische Entscheidung treffen muss, etwa wenn zwischen der Kollision mit zwei Kindern oder zwei Erwachsenen zu wählen ist? Anders verhält es sich im Tatort: Echolot (2016), in dem tatsächlich ein Computerprogramm seine Programmiererin im Auto verunglücken lässt, weil es sich in seiner Existenz bedroht sieht. Opfer und Täter sind hier also ein und dieselbe Person, wenn man voraussetzt, dass die Entwicklerin dem Programm überhaupt erst die Möglichkeit eingeräumt hat, entsprechend zu agieren. Das Recht und somit auch die Strafverfolgung kommen an ihre Grenzen; diesen juristisch folgenreichen Diskurs buchstabiert der Krimi aber nicht weiter aus.

2.7 Conditio humana und philosophische Anthropologie Die zweifellos größte Frage, die in Verbindung mit KI-Narrativen im Film immer wieder gestellt wird, und sei es nur implizit, ist die nach dem Wesen des Menschen. Es geht beim Portrait von KI weniger um die ‚Natur der Künstlichen Intelligenz‘, sondern ex negativo um das, was den Menschen im Innersten ausmacht, vor allem dann, wenn eine Grundvoraussetzung liberaler und demokratischer Gesellschaften wie der freie Wille auf den Prüfstand gestellt werden. Ridley Scotts Cyberpunk-Klassiker Blade Runner (1982), eine Verfilmung von Philip  K. Dicks Roman Do Androids Dream of Electric Sheep? (1968), ist vordergründig eine Detektivgeschichte im Stil des Neo Noir. Die Stadt, in der Menschen und sogenannte Replikanten, d.  h. von Menschen äußerlich ununterscheidbare hochintelligente Androiden-Sklaven, leben, ist ein multikultureller und -religiöser Moloch von endlosen Hochhäusern und Slums. Oben scheint die Sonne, unten liegt der Müll. Fritz Langs topologische Ordnung der Stadt in Metropolis stand hier Pate. Die Menschen, so scheint es, haben über den Auswuchs dieser Megalopolis längst die Kontrolle verloren, was sich leitmotivisch durch den Film zieht: Auch einige

Filmgeschichte der Künstlichen Intelligenz 

 113

Replikanten, deren Lebensdauer eigentlich auf vier Jahre beschränkt ist, bevor sie Emotionen entwickeln können, sind untergetaucht und können nicht länger kontrolliert werden. Die Bewohner der Stadt agieren kühl, ökonomisch, paranoid, machthungrig, misstrauisch, sie sind isoliert. Das veranschaulichen visuell auch die wiederkehrenden Kameraeinstellungen in der Totalen, in denen eine kleine Figur vereinzelt am Bildrand steht. Auch die Hauptfigur Rick Deckard ist ein Einzelgänger. Seine Aufgabe ist es, Replikanten mithilfe einer Verhörmethode, dem sogenannten VoigtKampff-Test (eine Art Turing-Test) zu befragen, um empathisches Verhalten zu messen. Den Replikanten wird unterstellt, nicht über das emotionale Repertoire von Menschen zu verfügen. Der Film desavouiert das indes schnell. Die Replikanten zeigen Furcht, Hass, Trauer und Zuneigung, sind (etwa durch ihre besondere Affinität zum Medium der Fotografie) nostalgisch, reagieren also in jeder Hinsicht emotional. Sie sind also „more human than human“ (Blade Runner (1982), TC 00:15:50), wie der Leitspruch des Multiunternehmens Tyrell, das die Replikanten hergestellt hat, lautet. Was nur nach Marketing klingt, bewahrheitet sich. Es sind die Menschen, denen jegliche Form von emotionaler Bindung abgeht. Zunehmend fragwürdig wird, wer im Film eigentlich ein Replikant und wer ein Mensch ist. Letztlich eröffnet er durch kleine Details sogar die Lesart, dass Deckard selbst künstlich ist. Auch in der HBO-Serie Westworld sind es ein weiteres Mal die intelligenten Roboter, die ihrerseits beginnen, die Menschen zu erforschen und somit ‚den Spieß umkehren‘: Auch hier ist die Antwort auf die Frage, was den Menschen ausmacht, ist – kaum verwunderlich – wenig schmeichelhaft: Gier, Profit, Größenwahn. Die Identifikationsfiguren der Serie sind die hosts, nicht die Menschen.

3 Ausblick Die vorgestellten Filme zeigen, dass das Medium Film seit jeher ein spürbares Interesse hat, sich mit Künstlicher Intelligenz zu beschäftigen. Wiewohl KI-Figuren überwiegend in Science-Fiction-Filmen ihren Platz haben, gibt es vom Horrorfilm über den Krimi bis hin zu komischen Formaten kein Genre, in dem sie nicht vorkommen. Anhand von Künstlicher Intelligenz können Filme Konstruktionen von Gender ebenso wie moralische oder philosophische Fragen verhandeln. Oftmals, so scheint es, dienen KI-Figuren als Folien, vor denen historische Diskurse oder Genrekonventionen zeitgenössisch aktualisiert werden. Eine dezidierte Auseinandersetzung mit den Folgen von KI-Technologien für unsere Gegenwart ist häufig weniger ausgeprägt, als man vermuten könnte. Ein positives Beispiel

114 

 Florian Lehmann

wäre die TV-Anthologie Black Mirror (2011–), welche in vielen Folgen eine nahe Zukunft zeigt, in der KI-Systeme das menschliche Leben unwiderruflich verändert haben. Vielfach jedoch kreist die filmische Darstellung um die (annähernde) Ununterscheidbarkeit von Mensch und Maschine und die sich daraus ergebenden Konsequenzen, bringen also noch Zukunftsmusik zum Klingen. Dabei ist unsere Gegenwart bereits voll von KI-Systemen, die erheblichen Einfluss auf unseren Alltag nehmen. So kommt etwa Künstliche Intelligenz vermehrt dort zum Einsatz, wo kognitive Fähigkeiten versagen: bei der Pflege und Betreuung von an Demenz erkrankten Menschen. Ein bekannteres Beispiel dafür ist die Roboter-Robbe Paro, die in den Alten- und Pflegeheimen Japans bereits vielfach eingesetzt wird. Ein weiteres sind Demenzfrüherkennungsroutinen, die von KI-Programmen durchgeführt werden. Wenige Filme sind, dies sei vorwurfsfrei formuliert, derart alltagsbezogen.

Filmografie 2001: A Space Odyssee. Reg Stanley Kubrick. Metro-Goldwyn-Mayer et al., 1968. A.I. Artificial Intelligence. Reg. Steven Spielberg. Warner Bros et al., 2001. Alphaville, une étrange aventure de Lemmy Caution. Reg. Jean-Luc Godard. André Michelin Productions et al., 1965. Akira. Reg. Katsuhiro Ôtomo. Akira Commitee Company et al., 1988. Äkta människor. Lars Lundström. Sveriges Television AB et al., 2012–2014. Battlestar Galactica. Glen A. Larson und Ronald D. Moore. British Sky Broadcasting et al., 2004–2009. Black Mirror. Charlie Brooker und Annabel Jones. Zeppotron et al., 2011–. Blade Runner. Reg. Ridley Scott. The Ladd Company et al., 1982. Cherry 2000. Reg. Steve De Jarnatt. Orion Pictures et al., 1987. Der Golem. Reg. Henrik Galeen, Paul Wegener. Deutsche Bioscopo GmbH Berlin et al., 1915. Die Puppe. Reg. Ernst Lubitsch. Projektions-AG Union, 1919. Ex Machina. Reg. Alex Garland. A24 et al., 2014. Eva. Reg. Kiké Maíllo. Canal+ España et al., 2011. Eve of Destruction. Reg. Duncan Gibbins. Nelson Entertainment et al., 1991. Frankenstein. Reg. J. Searle Dawley. Edison Studios et al., 1910. Frankenstein. Reg. James Whale. Universal Pictures, 1931. Ghost in the Shell. Mamoru Oshii. Kôdansha et al., 1995. Her. Reg. Spike Jonze. Annapurna Pictures et al., 2013. I, Robot. Reg. Alex Proyas. Twentieth Century Fox et al., 2004. La Sortie de l’Usine Lumière à Lyon. Reg. Brüder Lumière. Lumière, 1895. Le Voyage dans la Lune. Reg. Georges Méliès. Méliès Studios et al., 1902. Matrix 1–3. Reg. Die Wachowski. Warner Bros et al., 1999–2003. Metropolis. Reg. Fritz Lang. Universum Film, 1927. Metropolis. Reg. Rintaro. Bandai Visual Company et al., 2001. Modern Times. Reg. Charlie Chaplin. Charles Chaplin Productions, 1936.

Filmgeschichte der Künstlichen Intelligenz 

 115

Moon. Reg. Duncan Jones. Sony Pictures Classics, 2009. Neon Genesis Evangelion. Hideaki Anno. Gainax et al., 1995–1996. Small Wonder. Howard Leeds. The Small Wonder Joint Venture et al., 1985–1989. Star Trek: Picard. Michael Chabon. CBS Television Studios et al., 2020–2023. Star Trek: The Next Generation. Maurice Hurley et al. Paramount Television, 1987–1994. Star Wars 1–9. Reg. George Lucas, J.J. Abrams und Rian Johnson. Lucasfilm et al., 1977–2019. Stepford Wives. Reg. Bryan Forbes. Paramont Pictures, 1975. Tatort: Echolot. Reg. Claudia Prietzel und Peter Henning. ARD et al., 2016. Tatort: HAL. Reg. Niki Stein. ARD et al., 2016. Tatort: KI. Reg. Sebastian Marka. ARD et al., 2018. Tatort: Mord ex Machina. Reg. Christian Theede. ARD et al., 2018. Terminator. Reg. James Cameron. Cinema ’84 et al., 1984. The Automatic Motorist. Reg. Walter R. Booth. Kineto Films, 1911. The Outer Limits: I, Robot. Reg. Leon Benson. Daystar Productions, 1964. The Perfect Women. Reg. Bernard Knowles. Two Cities Films, 1949. Tron. Reg. Steven Lisberger. Walt Disney Productions et al., 1982. Uncanny. Reg. Matthew Leutwyler. Accelerated Matter, 2015. Westworld. Reg. Michael Crichton. Metro-Goldwyn-Mayer, 1973. Westworld. Jonathan Nolan und Lisa Joy. Bad Robot et al., 2016–2022.

Literaturverzeichnis Asimov, Isaac. „Runaround“. Ders. I, Robot. New York 2004: 25–46. Bergson, Henri. Das Lachen. Ein Essay über die Bedeutung des Komischen. Hamburg 2011 [Jena 1914]. Deleuze, Gilles. „Postskriptum über die Kontrollgesellschaften“. Ders. Unterhandlungen 1972–1990. Frankfurt am Main 1993: 254–262. Freud, Sigmund. „Das Medusenhaupt“. Ders. Gesammelte Werke. Bd. 17. Schriften aus dem Nachlass. London 1941 [1922]: 45–48. Gardner, Howard. Frames of Mind: The Theory of Multiple Intelligences. New York 1983. Goethe, Johann Wolfgang von: Faust: Texte. Hrsg. von Albrecht Schöne. Frankfurt am Main 2003. Gunning, Tom. „Das Kino der Attraktionen: Das frühe Kino, seine Zuschauer und die Avantgarde“. Meteor: Texte zum Laufbild 4 (1996): 25–34. Haraway, Donna. „Ein Manifest für Cyborgs: Feminismus im Streit mit den Technowissenschaften“. Dies. Die Neuerfindung der Natur: Primaten, Cyborgs und Frauen. Frankfurt am Main und New York 1995: 33–72. Mori, Masahiro. „The Uncanny Valley“. IEEE Robotics & Automation Magazine 19.2 (2012): 98–100. Mulvey, Laura. „Visual Pleasure and Narrative Cinema“. Screen 16.3 (1975): 6–18. Spearman, Charles. „General Intelligence, Objectively Determined and Measured“. American Journal of Psychology 15 (1904): 201–293. Spivak, Gayatri Chakravorty. „The Rani of Sirmur: The Essay in Reading the Archives“. History and Theory 24.3 (1985): 247–272.

Nora Benterbusch

Künstliche Intelligenz als Sujet zeitgenössischer Kunst Dieses Kapitel wird sich dem Darstellen von und der Auseinandersetzung mit KI innerhalb von Kunstwerken widmen. Angesichts der umfassenden Innovationsschübe hinsichtlich der Technologien und der Erweiterung ihrer Anwendungsgebiete im 21. Jahrhundert wird der Schwerpunkt im Folgenden auf zeitgenössische Werke gelegt, die bereits unter diesen grundlegend gewandelten Verhältnissen entstanden sind. Vor dem Hintergrund der Vielfalt von künstlerischen Positionen, Zugängen und Gattungen kann hier nur ein kursorischer Einblick gegeben werden, bei dem nicht allen Tendenzen Rechnung getragen werden kann. Das Nachdenken über Künstliche Intelligenz (KI) als Technologie und über ihre künstlerischen und gesellschaftlichen Potentiale und Zusammenhänge hat in der Gegenwartskunst einen großen Stellenwert eingenommen. Davon zeugen nicht nur zahlreiche Ausstellungen der letzten Jahre, sondern auch eine aktuell stetig wachsende Anzahl wissenschaftlicher Publikationen – beispielsweise Broeckmann 2016, Grau und Hinterwaldner 2021a, Sautoy und Schmid 2021, Zylinska 2020, aktuelle Zeitschriftenbände wie Band 278 von KUNSTFORUM International (Bd. 278 2021) oder die fortlaufenden Zeitschriften- und Buchpublikationen der International Society for the Arts, Sciences, and Technology ‚Leonardo‘ (MIT). Verschiedene Tagungsthemen und -reihen sowie Institutionalisierungen weisen ebenfalls in eine solche Richtung – etwa die Konferenzen der Platform for the Histories of Media Art seit 2005, ‚LINK  – Kunst und Künstliche Intelligenz‘ (Hannover 2019), ‚Art and Artificial Intelligence‘ (ZKM Karlsruhe 2019), ‚Re-Imagining AI‘ (HeK Basel 2019) sowie Institutionen wie die Forschungsgruppe für KI und Medienphilosophie der HfG Karlsruhe oder das Critical Media Lab in Basel, um nur einige wenige zu nennen. Bevor auf konkrete Werke eingegangen wird, scheint es der Verfasserin angebracht, die Betrachtungsgegenstände dieses Kapitels systematisch einzugrenzen: Zwar unterscheidet dieses Handbuch konzeptionell zwischen der Produktionsund Darstellungsebene; zumindest im Kontext der zeitgenössischen Bildenden Künste erscheint diese Trennung jedoch besonders fragil. Denn mit dem Erstarken der Medienkünste im Laufe des 20. Jahrhunderts lässt sich die werkimmanente Auseinandersetzung mit den Produktionsmedien und -werkzeugen zum Teil kaum noch von einer Inhalts- oder Darstellungsebene scheiden. Im Äußersten werden die Produktionsmedien selbst zum Sujet. Ergebnis dessen ist, dass in der überwiegenden Zahl zeitgenössischer Kunstwerke, die den Themenbereich KI als Sujet verarbeiten, zu diesem Zweck auch KI-Verfahren eingesetzt werden. Bezogen auf https://doi.org/10.1515/9783110656978-007

Künstliche Intelligenz als Sujet zeitgenössischer Kunst 

 117

die sogenannte AI ART (oder zu dt. ‚KI-Kunst‘)  – also „all jene Kunstwerke, die mithilfe von Künstlicher Intelligenz geschaffen werden […] [und bei welchen] KI […] Technik oder Thema sein“ (Scorzin 2021b, 176) kann  – finden Pamela  C. Scorzin und Trevor Paglen im Interview für jene Arbeiten, die die eingesetzte Technologie immanent befragen, den treffenden Begriff der Meta-AI ART. Paglens Anwort, er „komme aus der Tradition der immanenten Kritik, in der man Werkzeuge benutzt, um die Grenzen dieser Werkzeuge selbst oder die in diese Werkzeuge fest eingebauten Sehweisen aufzuzeigen“ (Paglen 2021, 131), unterstreicht dabei, dass eine solche medienreflexive Kunstauffassung kein Spezifikum von KI-Kunst ist. Ein kurzer Vergleich zweier Werke, bei welchen jeweils KI als Produktionswerkzeug zum Einsatz kommt, soll diese Unterscheidung verdeutlichen: Der britische Künstler Mat Collishaw (*1966) trainierte für seine animatronische, möglichst realitätsgetreue Skulptur The Mask of Youth (2018) von Queen Elizabeth  I. zur Rekonstruktion ihres Aussehens eine KI-Software mit historischen Daten, welche die Grundlage für seine Skulptur bilden. Das Künstlerkollektiv Obvious setzt KI ebenfalls ein, um die visuelle Erscheinung der Druckserie La Famille De Belamy zu erzeugen. Es trainiert ein Generatives Antagonistisches Netzwerk (GAN) mit Datensätzen historischer Porträtmalereien und kreiert damit Drucke, die – unterstützt durch ihre Präsentation in einem prunkvollen stuckierten Goldrahmen  – ganz im Stil vormoderner Porträtmalerei erscheinen. Der Verkauf eines solchen Druckes – konkret des Porträts Edmond De Belamy (2018) – im Auktionshaus Christie’s als erstes Kunstwerk einer Künstlichen Intelligenz für sensationelle 423.500$ (Christie’s 2018) entfachte in und außerhalb der Kunstwelt eine Kontroverse um die Autorschaft und Rolle von KI-Künstler:innen (Browne 2022). So unterschiedlich diese beiden Werke sind, gemeinsam ist ihnen, dass die angewandte KI jeweils nicht oder nicht direkt in Erscheinung tritt. Sie ist jeweils technisches Mittel zum Zweck. Während Collishaw sie jedoch als reines Werkzeug zur Datenverarbeitung und -ermittlung einsetzt, geht es dem Künstlerkollektiv nach eigener Aussage darum, mit der konzeptionellen Anwendung von KI in ihren Werken Denkanstöße im Kunstdiskurs zu liefern und scheinbare Gewissheiten zu hinterfragen. Wie die ausgelöste Debatte zeigt, ist ihnen dies auch gelungen. Im Sinn von Scorzin und Paglen handelt es sich bei den Belamy-Porträts also gemäß dem konzeptionellen Ansatz um Meta-AI ART. Nicht jede Form von Meta-AI ART enttarnt sich jedoch als solche tatsächlich auch werkimmanent und fällt damit in den hier zu betrachtenden Gegenstandsbereich. Würde im Fall des Werkes Edmond De Belamy nichts auf seine Erzeugung durch ein GAN hindeuten, könnte sich die konzeptionelle Befragung von KI nur durch den Kontext erschließen lassen und entspräche nicht den hier angelegten Kriterien. Ein erst auf den zweiten Blick auffallendes Detail des Werkes verhindert

118 

 Nora Benterbusch

dies jedoch: die signaturähnliche Formel in der unteren Ecke des Druckes. Hierbei handelt es sich um die Verlustfunktion des GAN, also den minimierten Code des kontradiktorischen Neuronalen Netzwerkes, welches das zu sehende Bild generiert hat. Damit lässt sich in diesem Fall eindeutig von einer werkimmanenten Thematisierung von KI sprechen. In seinem Manifesto verallgemeinert das Kollektiv für ihre Arbeiten: „All our artworks are signed with the mathematical formula of GANs in order to give hints to the viewer on the artistic processus used to create them.“ (Obvious 2020, 11) In konzeptioneller Hinsicht bilden bei der Werkserie La Famille De Belamy die vermeintlich porträtierten Familienmitglieder und das dafür genutzte GAN demnach gleichberechtigte Sujets, die sich in ihrer Diskrepanz wechselseitig semantisch aufladen. Anhand dieses Beispiels sollte verdeutlicht werden, dass es bei der Eingrenzung der Betrachtungsgegenstände dieses Kapitels nicht darum gehen kann, ob KI in den Werken angewendet oder dargestellt wird. Vielmehr stellt sich die Frage, ob das Themenfeld KI werkimmanent in Erscheinung tritt. Im Hinblick auf konzeptionelle Arbeiten wie die des Künstlerkollektivs Obvious muss demnach entschieden werden, ob der Werkprozess, die Teilhabe und Rolle von KI bei der Entstehung als untilgbarer Kotext des Werkes wirkt oder nur aus dem stets veränderlichen Kontext ersichtlich wird. Im Folgenden werden also sowohl solche Arbeiten als ‚Darstellungen von KI in der Kunst‘ behandelt, die das Themenspektrum KI in anderen Medien und Techniken reflektieren als auch solche, die man einer Meta-AI ART zuordnen kann, bei der das ‚Werkzeug‘ KI nicht nur immanent, sondern ausdrücklich werkimmanent problematisiert wird. Wie alle Kunstphänomene sind auch die aktuellen Formen und Inhalte zeitgenössischer Kunst im Umfeld von KI durch kunsthistorische, gesellschaftliche, technologische und kulturhistorische Entwicklungen mitbestimmt. Eine mögliche Binnendifferenzierung bietet sich darin, zu fragen, ob es sich um solche kunsthistorischen und gesellschaftlichen Diskurse handelt, die unter den neuen technologischen Voraussetzungen des postdigitalen Zeitalters fortgesetzt werden, oder aber eher um solche, die sich erst im Zusammenhang mit dem technologischen und gesellschaftlichen Wandel neu formiert haben und aktuelle und zukünftige Herausforderungen adressieren. Diese Unterscheidung dient jedoch primär der besseren Anschaulichkeit des hier angestrebten Überblicks. Da für beide Gruppen das jeweils vorherrschende Verhältnis von Kunst und Technik grundsätzlich von Relevanz ist  – weil hiervon die Nutzungen, Formen und Inhalte beeinflusst werden  –, wird nachfolgend eine skizzenhafte historisierende Verhältnisbestimmung der Betrachtung einzelner Themenbereiche und Kunstwerke vorangestellt.

Künstliche Intelligenz als Sujet zeitgenössischer Kunst 

 119

1 Zum sich wandelnden Verhältnis von Kunst und Technik Erst in der Neuzeit werden Kunst und Technik bzw. Wissenschaft zunehmend als distinkte gesellschaftliche Bereiche aufgefasst. Phänomene wie die industrielle Revolution und wissenschaftliche Erkenntnisse werden fortan zwar innerhalb der Kunst reflektiert und kritisiert, jedoch vornehmlich als gesamtgesellschaftliche oder soziale Entwicklungen außerhalb des Kunstfeldes aufgefasst. Im frühen 20. Jahrhundert wandelt sich dies: Von den Avantgarden wird die Automation als mechanisches und psychologisches künstlerisches Konzept erprobt und das Bild von Künstler:innen als geniale Schöpfer:innen zunehmend in Frage gestellt. Exemplarisch sind hier historische Avantgarden wie Dadaismus, Futurismus oder auch Surrealismus zu nennen. Ein prominenter Ort der Neuaushandlung des Verhältnisses von Kunst und Technik, Mechanisierung und Automatisierung war sicherlich das Bauhaus, wo Künstler:innen wie Paul Klee in theoretischen Abhandlungen und in ihren Werkprozessen die potentiell fruchtbare Annäherung von Wissenschaft und Kunst befragten (Klee 1974 [1928]). Der Zweite Weltkrieg brachte eine entscheidende Zäsur, jedoch auch enorme technologische Weiterentwicklungen. Die bislang vor allem von einigen Avantgardkünstler:innen angestrebte Annäherung und gegenseitige Bereicherung von Kunst und Wissenschaft wird Ende der 1950er Jahre zur kultur- und forschungspolitischen Forderung, und die von Charles Percy Snow prominent diskutierte Dichotomie der „Two Cultures“ (Snow 1956) bildet einen globalen Anstoßpunkt (Klütsch 2007, 18). In der Folge gründen sich ab den 1960er Jahren zahlreiche kreative Zentren und experimentelle Gruppen, die sich der verstärkten Zusammenarbeit von Kunst und Technik widmeten, um den veränderten technologischen und gesellschaftlichen Bedingungen zu begegnen. Künstlerische Strömungen wie die Op-Art, Konzeptkunst, kybernetische Kunst, Computerkunst und Fluxus arbeiten dabei häufig auf der Grundlage wissenschaftlicher und technologischer Erkenntnisse aus den Bereichen Kybernetik, Kognitionspsychologie oder Informatik und nutzen und thematisieren diese innerhalb ihrer Kunst. Als wegweisende Kooperationen und Zentren können die ‚Neuen Tendenzen‘ in Zagreb (Medosch 2016), das argentinische ‚Centro de Arte y Comunicación‘ (CAyD) und die ‚Gruppo 13‘ oder das US-amerikanische ‚E.A.T. – Experiments in Art and Technology‘ genannt werden. Das neue Verständnis und die Zielsetzung ihrer Kooperation beschreiben Billy Klüver und Robert Rauschenberg in einem Statement 1967 wie folgt: „E.A.T. will guide the artist in achieving new art through new technology […]. Engineers are becoming aware of their crucial role in changing the human environment. Engineers who have become involved with artist’s projects have perceived how the artist’s insight can influence his directions and give human scale to his

120 

 Nora Benterbusch

work. The artist in turn desires to create within the technological world in order to satisfy the traditional involvement of the artist with the relevant forces shaping society.“ (zit. n. Klütsch 2007, 42) Auch in Hochschulen, wie etwa dem MIT, werden mit dem Center for Advanced Visual Studies (CAVS) interdisziplinäre Laboratorien installiert. In Deutschland ist in diesem Zusammenhang u.  a. auf die Informationsästhetik von Max Bense, die Einführung der Abteilung ‚Informatik‘ an der Ulmer Hochschule für Gestaltung und die Anfänge der Computerkunst in Stuttgart mit Vertretern wie z.  B. Frieder Nake hinzuweisen (Klütsch 2007, 15–48). Hinsichtlich heute etablierter Kunstfestivals und -häuser im deutschsprachigen Raum, die einen Fokus auf die Verknüpfungen von Technik und zeitgenössischer Kunst im Allgemeinen und KI im Besonderen legen, sei auf die ‚Ars Electronica‘ in Linz (seit 1979) mit ihren mittlerweile zugehörigen dauerhaften Zentren (Hirsch 2019), das ‚Zentrum für Kunst und Medien‘ in Karlsruhe (Gründung 1989), die ‚Transmediale‘ (seit 2004) und ‚Das Haus der elektronischen Kunst‘ (HeK) in Basel (seit 2011) verwiesen. Inzwischen hat sich die in den 1960er Jahren vorgezeichnete Künstlerische Forschung (Artistic Research) als alternativer Weg der Erkenntnisgewinnung etabliert und wird aktiv gefördert (European Commission 2008). In Bezug auf KI gibt es beispielsweise das ‚European ARTificial Intelligence Lab‘, das die Kooperationen von Künstler:innen und wissenschaftlichen Institutionen überregional unterstützt, sowie zahlreiche lokale Laboratorien wie etwa das ‚Schlaufer Lab@TU Dresden‘ (Klipphahn 2021) oder das ‚Waag AI Culture Lab‘ in Amsterdam (Waag 2021). Gerade im Bereich der Neuen Medienkünste sind Kunst und Wissenschaft bzw. Technologie heute aufs Engste verwoben (Grau und Hinterwaldner 2021b, 10).

2 Fortschreibungen tradierter Diskurse unter neuen technologischen Voraussetzungen Wendet man sich nun konkreten Beispielen der Gegenwartskunst zu, und fokussiert solche Arbeiten, die bereits etablierte kunsttheoretische und gesellschaftliche Diskurse in veränderten technologischen Bedingungen fortschreiben, so stellt ein erster zentraler Diskurs hier die Auseinandersetzung mit dem Verhältnis zwischen Mensch und Maschine dar. Die kunsthistorische Tradition dieses Themas wurde kürzlich u.  a. in verschiedenen, teils historisierenden Ausstellungen verdeutlicht (vgl. u.  a. Dohm et al. 2007; Kries, Thun-Hohenstein und Klein 2017; Neutres und Dorléac 2018; Engel et al. 2019). Fasst man KI als maschinelle Umsetzung einer genuin menschlichen Fähigkeit auf, wie dies lange der Fall war, so kann sie als Fortschreibung eines in west-

Künstliche Intelligenz als Sujet zeitgenössischer Kunst 

 121

lichen Kulturen mindestens seit der Industrialisierung stark verankerten MenschMaschine-Mythos verstanden werden. Andreas Broeckmann zeichnet diesen nach und stellt heraus, auch wenn dieser Mythos variabel sei, bleibe der Kern stets stabil: „It is always this one story of something man-made being functional and than gaining a dangerous, nonlethal form of autonomy.“ (Broeckmann 2019, 5) Das Verhältnis Mensch-Maschine ist demnach ein ambivalentes: Die potentielle Externalisierung und Steigerung menschlicher Fähigkeiten – von physischen bis zu kognitiven, kreativen und emotionalen Aktivitäten – erscheint zu verschiedenen Zeiten variierend und zeitgleich als vielversprechende Möglichkeit und potentiell unkontrollierbare Gefahr. Diese antithetische Grundkonzeption wirkt bis heute in vielen Diskursen zum Thema KI fort und zeigt sich besonders dort, wo Konkurrenzen von maschinellen und menschlichen Rollen thematisiert werden. Im Kunstbereich fallen Fragen wie „Kann eine KI die Rolle von Künstler:innen vollständig einnehmen?“ oder „Können Maschinen über menschliche Kreativität verfügen?“ in diese Kategorie. Im Hinblick auf andere Bereiche der Gesellschaft, wie den der Arbeitswelt, geht es u.  a. um die Frage, inwiefern Maschinen und KI den Menschen als Arbeitskraft ersetzen oder sich die Menschen den Maschinen anpassen müssen, um ihre Rolle zu behaupten. Spätestens mit der Industrialisierung und Maschinellen Revolution wurden die Industriearbeiter:innen als Menschmaschinen und die Maschinen als menschliche Konkurrenz in der Arbeitswelt imaginiert. So ist beispielsweise auch der Begriff ‚Roboter‘ aus einer solchen Erzählung (Čapek 1922) entlehnt und wirkt als mythologische Konstruktion in den Vorstellungen bis heute fort. Obwohl aus technischer Perspektive betrachtet ein Roboter nichts anderes als die Kombination von „Messgeräte[n]; eine[r] Software, die in der Lage ist, die gemessenen Daten sinnvoll zu verwerten; und Geräte[n], die infolgedessen eine physikalisch messbare Reaktion zeigen“ (Carlo Ratti, in: Kries et al. 2017, 11) ist, halten sich die humanoiden Referenzen standhaft in Wissenschaft, Fiktion und populären Vorstellungen. Derartige Positionen und Diskurse können mit Broeckmann als Fortschreibungen des über Jahrhunderte wirksamen Mensch-Maschine-Mythos verstanden werden. Hier wird das Verhältnis Mensch-Maschine ausgelotet, ohne Maschinen als nichtmenschliche, selbstständige Entitäten zu bestimmen. Alternative, den Mythos durchbrechende, weil nicht auf Konkurrenz abzielende Fragen könnten hingegen etwa lauten: „Welche eigenständigen, nicht vom menschlichen Vorbild abgeleitete Formen von kreativem Potential können Systeme Künstlicher Intelligenz leisten?“, „Wie kann KI das kulturelle Feld bereichern?“ oder allgemeiner „Wie funktioniert der Mythos Maschine-Mensch und welche Handlungsmacht hat er in der heutigen Zeit?“. Ein Künstler, der in seinen Werken verschiedene dieser Bereiche tangiert, ist Patrick Tresset (zur Konzeption vgl. Tresset und Deussen 2014). Mit seinen zeichnenden Robotern namens „Paul“ (RNPs) schreibt er die kunsthistorische Tradition

122 

 Nora Benterbusch

kunstproduzierender Maschinen u.  a. seit Jean Tinguerlys Méta-Matics (1959) fort, bei denen die Künstler:innen Maschinen als Kunstwerke schaffen, welche in der Lage sind, wiederum ‚selbstständig‘ Kunstwerke zu produzieren. Justin Hoffmann schlägt vor, in einem solchen Fall von Kunstwerken ersten und zweiten Grades zu sprechen (Dohm et al. 2007, 31). Zwar ist die implementierte Software bei Tresset selbst nicht ‚intelligent‘, durch ihre Gestaltung wirken die Roboter (RNPs) auf die Rezipient:innen in der Performance jedoch wie individuelle, lebendige Akteur:innen. Mit ihren an alten Schulpulten montierten Armen und senkrecht aufragenden, schwenkbaren Kameras erinnern sie an Schüler:innen. Zudem zeichnen sie das, was ihr Kamerabild erfasst, in unterschiedlicher Taktung und Stil. Auf diese Weise kann Tresset den Rezipient:innen ihre eigentümliche Tendenz, menschliche Eigenschaften auf technische Objekte zu projizieren, die für die Konstruktion des Mensch-Maschine-Mythos von grundlegender Bedeutung ist, vor Augen führen. Zugleich dienen ihm die Roboter als künstlerisches Werkzeug, mit dem er in der Lage ist, Zeichnungen auszuführen, wie er sie aufgrund eines psychischen Leidens nicht mehr selbst zu Stande bringen kann. In dieser Hinsicht können die RNPs auch als kreative Prothesen gewertet werden, wodurch man sein Schaffen ebenfalls in den Bereich von Kollaborationen mit KI verorten könnte (Dotzler 2021, 117). In eine ähnliche Richtung wie die Arbeiten Tressets weist das Projekt autoportrait (seit 2002) des Künstler:innenkollektivs robotlab. Auch hier zeichnet ein Roboterarm in einer Performance Porträts von Besucher:innen. Das Kollektiv kommentiert in dieser Arbeit das Spannungsverhältnis von Maschine und Mensch, maschineller und menschlicher Kreativität und Autorschaft (Dohm et al. 2007, 34). In zwei Kooperationsprojekten mit Peter Weibel werden darüber hinaus mit einem ähnlichen Aufbau eine Maschinenästhetik und -ethik aus Maschinensicht adressiert – manifest. Generative Thesen eines Roboters (2008, 2017). Der Roboterarm zeichnet in beiden Fällen keine Porträts, sondern produziert basierend auf einer Text-KI zuerst künstlerische und in der zweiten Fassung politische Manifeste (Weibel 2021, 86). Neben diesen vorwiegend auf den Prozess des Kunstschaffens bezogenen Arbeiten finden sich auch einige zeitgenössische Werke, die das Mensch-MaschineVerhältnis in anderen gesellschaftlichen Bereichen neu auszuloten versuchen. Arbeiten des Künstler:innenkollektivs automato.farm hinterfragen den Mythos auf fast humoristische Weise. Das Video Teacher of Algorithms (2015) von Simone Rebaudengo nimmt beispielsweise die mythologische Konstruktion einer intelligenten Maschine, welche Arbeitsplätze tilgt, zum Anstoß und überführt sie in einem Zukunftsszenario ins Gegenteil: Im Video entdeckt ein von seiner smarten Kaffeemaschine genervter Mann beim Einkauf eine Visitenkarte mit der Aufschrift „Your smart thing not that smart?“. Als er nach Hause kommt und die Maschine ihm wieder ungefragt einen Kaffee bereitet, packt er sie kurzerhand ein und macht sich auf die Suche nach dem Laden. Dort angekommen entdeckt er eine für ihn neue

Künstliche Intelligenz als Sujet zeitgenössischer Kunst 

 123

Welt: Ein vollgestopftes Ladengeschäft, in dem der Besitzer diverse ‚smarte‘ Haushaltsgeräte für ihre Besitzer trainiert. Statt dass die Maschinen Arbeitsplätze tilgten, entstehen in diesem Szenario also neue Berufsfelder, die die unbedarften ‚intelligenten‘ Alltagsmaschinen für ihren Einsatz unterrichten (Kries et al. 2017: 126). Eine nochmalige Wendung erfährt die Erzählung durch den eher beiläufigen Einwurf des Verkäufers: „When people bring these smart objects here, they think they have problems, but in reality they are only reflecting the problems of their owners“ (5 min). Damit wirkt in Rebaudengos Arbeit zwar die mythologische Semantik nach, gleichzeitig offenbart sie jedoch die darin enthaltenen Vorurteile durch die Stilmittel des Absurden und Spekulativen. Dieses Werk und andere des Kollektivs automato.farm weisen in die Richtung einer u.  a. von Fiona Raby und Anthony Dunne mitbegründeten „konzeptionellen Designbewegung, die mittels spekulativer Szenarien und Narrationen alternative Lebensstile ergründen“ (Geisler 2017, 166). Auch in den Arbeiten von Dunne und Raby werden scheinbare Gewissheiten der MenschMaschine-Konstruktion aufgebrochen und damit einem ergebnisoffenen Denken zugänglich gemacht. Einen weiteren interessanten Ansatz hinsichtlich unseres Verhältnisses oder unserer Einstellungen gegenüber Technik und Informationssystemen verfolgt Mario Klingemann in seiner Installation Appropriate Response (2020) (Scorzin 2021a, 72–74). Der Aufbau changiert in seiner Ästhetik zwischen Kirchenraum und Flughafenterminal. Rezipient:innen sind angehalten, sich auf ein Gebetspult zu knien, während eine schwarze, querrechteckige Fallblattanzeige mit 125 Lettern, wie sie früher u.  a. in Wartebereichen an Flughäfen oder Bahnhöfen verwendet wurden, als ‚Altarbild‘ dient. Sobald sich eine Person aktiv in die Position einer oder eines Betenden oder allgemeiner Sinnsuchenden begibt, ist die Anzeige so programmiert, dass die von Klingemann mit 60.000 Zitaten trainierte Text-KI (GPT-2) einen Satz algorithmisiert, der in seiner Struktur einem typischen Aphorismus ähnelt. Jeder algorithmisierte Satz ist dabei zwar einzigartig, jedoch völlig unabhängig vom jeweiligen Gegenüber. In einem Interview zitiert Klingemann einen der ersten Sätze, die seine KI generierte: „The best thing that I can do is to get out of bed every year“ (Onkaos 2020). In diesem Beispiel offenbart sich die Diskrepanz zwischen der Bedeutung, die man sich durch einen Sinnspruch erhofft, und jener, die man selbst hineinprojiziert. Der Sound der Installation untermalt ihre Erfahrung zusätzlich akustisch: Die ohne konkrete, kniende Rezipient:innen stetig rotierenden und dabei klackernden Fallblattanzeigen beruhigen sich, sobald sich jemand vor sie kniet. In eben diesem erwartungsvollen Moment der Stille offenbart sich dann der einmalige Sinnspruch. Mit dem Aufstehen verblasst das Bild, das Rotieren und Klappern beginnt erneut und die Rezipient:innen sind wieder in die Ausgangssituation zurückversetzt. Die einzige Veränderung ist die vermeintlich bedeutungsvolle Information, die sie nun in ihren Alltag übertragen können. Ebenso wie Klinge-

124 

 Nora Benterbusch

manns Installation die Brücke zwischen religiösen Hoffnungen und Erwartungen an neue Informationssysteme schlägt, bildet sie ein passendes Beispiel für den Übergang zum nächsten Themenabschnitt und die konzeptionelle Durchlässigkeit dieser inhaltlichen Unterscheidung.

3 Darstellungen realisierter KIs und des Lebens mit KI – Entangled Realities und zukünftige Herausforderungen Das Leben mit Künstlicher Intelligenz, ihre häufig unbeachteten Einflüsse auf den Alltag und globale Strukturen sind Thema vieler Arbeiten und Forschungsinitiativen der letzten Jahre. Als prominentes Beispiel sei hier auf die Forschungskooperationen von Kate Crawford zu den sozialen und politischen Implikationen von KI verwiesen (vgl. z.  B. Stark und Crawford 2019; Crawford und Paglen 19.09.2019; Crawford 2021). Ausstellungen wie ‚The Influencing Machine‘ (2018/2019, vgl. Nadim et al. 2019) in der neuen Gesellschaft für bildende Kunst, Berlin, oder ‚Entangled Realities‘ (2019, Himmelsbach und Magrini 2019) im Haus für elektronische Kunst in Basel, stellen in ihren Titeln die Stoßrichtungen der hier präsentierten Werke bereits aus. Die verhandelten Themen sind dabei extrem divers – von Funktionsmechanismen angewendeter KIs, ihren Einflüssen auf den privaten Bereich, über Diskriminierungen bestimmter Gruppen, die individuelle und gesellschaftliche Verantwortung bei der Weiterentwicklung der Technologien bis hin zu den Themenfeldern der staatlichen Überwachung, politischer Einflussnahme und Ökonomie. Helen Knowles entfaltet in ihrer Multimediainstallation The Trial of Superdebthunterbot (2016) ein fiktives Szenario, in dem ein Inkassounternehmen aufgrund der Folgen eines Bot-Einsatzes zur Rechenschaft gezogen werden soll, und fragt nach der juristischen und ethischen Verantwortlichkeit des Algorithmus für den Tod von fünf Menschen (Bager 2019, 7). Der strukturelle Einsatz von Einheiten Künstlicher Intelligenz und Bots in der Ökonomie bildet auch in den Arbeiten von Anna Ridler einen inhaltlichen Schwerpunkt (Ridler 2021): In Bloemenveiling (2019) verknüpft sie beispielsweise konzeptionell neue  – mitunter marktwirtschaftliche  – Phänomene von NFT art, Trading-Bots, Smart Contracts und GAN-generierten Videos mit dem traditionellen Motiv der Tulpe als Symbol der Spekulation. Dadurch, dass sie die kritisierten Marktmechanismen mit den eigenen technologischen Mitteln hinterfragt, kann auch diese Arbeit in den Bereich der META-AI Art, wie er eingangs skizziert wurde, gerechnet werden. Ridler versteht sich selbst als Künstlerin und Forscherin und arbeitete u.  a. für Bloemenveiling mit dem KI-Forscher David Pfau

Künstliche Intelligenz als Sujet zeitgenössischer Kunst 

 125

zusammen. Sie stellt damit ein klassisches Beispiel einer Medienkünstlerin dar. Von solchen Medienkünstler:innen gehen besonders häufig innovative Anstöße für die Be-/Verarbeitung neuer Technologien wie KI aus, da sie in der Regel einen wissenschaftlich und künstlerisch geprägten Hintergrund besitzen und wie Ridler in interdisziplinären Forschungs- und Arbeitsgemeinschaften praktizieren. Oliver Grau stellt die Hypothese auf, dass die Medienkünste sich als die Kunst unserer Zeit erweisen könnten: „Visually powerful, interactive Media Art […] is offering more and more degrees of freedom and evidently is much better equipped to deal with the challenges of our complex time than traditional art media can. With the algorithmic, computational, digital and even post-digital turns over recent decades, the digital image is becoming ephemeral, experimental, immersive, interactive, multimodal, and processual, because it is made of numerous of technologies.“ (Grau 2021, 34) Betrachtet man Arbeiten wie jene von Anna Ridler, Jake Elwes, Travor Paglen, Mario Klingemann, Hito Steyerl u. v. m., ist Grau hier sicherlich zuzustimmen. Daneben existieren jedoch auch Beispiele, die mit traditionellen Mitteln eindrucksvoll die Verknüpfungen von physischer und digitaler Welt visualisieren können. Eines stellt die Fotoserie Removed (seit 2014) des US-amerikanischen Fotografen Eric Pickergill dar. In ihr thematisiert der Künstler die allgegenwärtige, alltägliche Vernetzung mit der digitalen Welt über technische Interfaces ohne den Einsatz neuer Technologien. Auf analogen schwarz-weiß Fotografien sind Menschen in Alltagssituationen inszeniert. Ihre Haltung zeigt typische Situationen an, in denen sich die Dargestellten über Smartphones, Tablets und Controller bewusst mit der digitalen Welt vernetzen. An der Stelle dieser Interfaces befinden sich in Pickergills Fotografien jedoch Leerstellen, deren Bedeutung über die Absenzerfahrung generiert wird. Als Bruch mit der Alltagserfahrung bilden die Leerstellen für die Betrachter:innen Anreize, über ihre eigene Konnektivität mit und gegebenenfalls sogar Abhängigkeit von der digitalen Welt und darin prozessierenden Systemen Künstlicher Intelligenz nachzudenken. Im Besonderen bei Fotografien von Paaren wird hier mit der Ambivalenz zwischen digitalen und physischen sozialen Beziehungen gespielt. Die nicht oder kaum beachtete physische Anwesenheit des Partners oder der Partnerin wird mit der starren Fokussierung des mobilen Endgerätes kontrastiert. Im Betrachten drängen sich Fragen nach der Beschaffenheit dieser Typen von Beziehungen auf, die schließlich auch in eine Auseinandersetzung mit den Bedingungen dieser jeweiligen Interaktionen münden können. Spätestens im Hinblick auf die Bedingtheiten von Beziehungen in sozialen Netzwerken werden dann letztlich auch Fragen nach den nicht offen sichtbaren, aber wirksamen – in diesem Fall wie die Endgeräte selbst wortwörtlich unsichtbaren – Algorithmen relevant. Die Serie regt dazu an, den persönlichen Umgang mit diesen Technologien und digitalen Welten zu hinterfragen. Mit den Leerstellen greift Pickergill dabei ein klassisches Zeige-

126 

 Nora Benterbusch

motiv der Kunstgeschichte auf. Sie werden für die Betrachter:innen zu „Auslösern der Sinnkonstitution“ (Kemp 2003, 254–255) der Werke: Eine scheinbar alltägliche Szene verwandelt sich durch sie in ein kritisches Hinterfragen unserer Haltung zur modernen Technologie. Das Beispiel Pickergills offenbart in seiner Allgemeinheit ein grundlegendes Darstellungsproblem: Wie kann KI überhaupt dargestellt werden? Welche Möglichkeiten gibt es, die im Virtuellen prozessierenden Algorithmen abzubilden ohne sie auf ihre Auswirkungen auf die physischen, wahrnehmbaren Beziehungen zu reduzieren? Lange Zeit – im Grunde bis zu den entscheidenden technologischen Fortschritten des 21. Jahrhunderts – handelte es sich bei KI um einen abstrakten Begriff, fiktionale Imaginationen und/oder hypothetische Theorien. Im postdigitalen Zeitalter, in dem der Alltag im Zeichen Künstlicher Intelligenz häufig unter den Begriff der ‚Entangled Realities‘ gefasst wird und KI-basierte Systeme in fast alle Lebensbereiche einwirken, stellt sich die Frage nach einer Abbildbarkeit dieser Entitäten in einer gewandelten Form. Zugespitzt formuliert: Wie kann man etwa einen von einem selbstlernenden Algorithmus gesteuerten Roboter als solchen abbilden? Inwiefern unterscheidet sich sein Foto von dem eines Spielzeugs gleicher Bauart? Wollen Künstler:innen also nicht fiktionale Imaginationen oder die Hülle bzw. Hardware von KI-Einheiten darstellen, sondern das Wesen von KI – die spezifische Form der Datenverarbeitung –, so stehen sie vor dem grundsätzlichen Dilemma, dass diese im für Menschen sensorisch nicht wahrnehmbaren und in seiner Logik nur auszugsweise nachvollziehbaren digitalen Raum prozessieren. Obwohl KIs für ihre Entwickler:innen und professionellen Anwender:innen in deutlich kleinerem Ausmaß tatsächliche ‚Black Boxes‘ darstellen, sind sie aktuell dennoch für einen großen Teil der Allgemeinheit, womit die Adressat:innen von Kunstwerken eingeschlossen sind, in weiten Teilen unverständlich. Ihre Beschaffenheit und Handlungslogiken stellen für alltägliche Nutzer:innen weitestgehend – hier metaphorisch gemeinte – ‚Black Boxes‘ dar. Beachtet man diese Gegebenheiten, so müssen zeitgenössische Künstler:innen im Grunde Wege finden, etwas nicht sinnlich Wahrnehmbares sinnlich erfahrbar zu gestalten – den ‚digital space‘ also in den ‚meat space‘ zu überführen, um ihn in materialisierten Formen der Reflexion zugänglich zu machen. In vielen zeitgenössischen, künstlerischen Ansätzen könnte man von Versuchen des ‚Unboxings‘ von KI sprechen, insofern sie auf verschiedenen Wegen Aspekte der metaphorischen ‚Black Box‘-KI, ihre Systemlogiken, Handlungspotentiale und Eigenschaften in der physischen Welt erfahrbar zu machen versuchen. Ein berühmtes Beispiel ist Philippe Parrenos großformatige Multimedia-Installation Echo (2019) in der Lobby des MoMA New Yorks. Er kreierte einen Raum, in dem die Besucher:innen mit den Outputs der integrierten Systeme Künstlicher Intelligenz in Form von Licht- und Sound-Effekten unwillkürlich konfrontiert werden.

Künstliche Intelligenz als Sujet zeitgenössischer Kunst 

 127

Echo versinnbildlicht damit die komplexe Struktur von KI, ihre Verwobenheit mit den Ereignissen in der physischen Welt sowie die ‚Black Box‘ als die Unzugänglichkeit selbst. Es ist ein auf unterschiedliche Umweltdaten-Inputs nach für die Rezipient:innen und selbst für den Künstler unverständlichen Regeln reagierendes System, dessen Signalen Rezipient:innen ausgesetzt sind, ohne das System bewusst beeinflussen oder mit ihm kontrolliert interagieren zu können. Durch die Koppelung unterschiedlicher KI-Systeme gibt der Künstler einen Teil seiner eigenen Handlungsmacht auf. Er kann zwar einzelne Systeme neu justieren, jedoch nicht vollständig steuern, welche Outputs damit angestoßen werden. Eine solche Installation kann in Traditionen von Kunstrichtungen gestellt werden, die sich in der Mitte des 20.  Jahrhunderts zunehmend mit den wissenschaftlichen und technischen Fortschritten in den Bereichen von Computertechnologie, Kybernetik und Kognitionswissenschaft auseinandersetzten und neue systemische Vorstellungen von Technologie und physischer Welt ins Zentrum ihrer Werke stellten. Als Beispiele können etwa Nikolas Schöffers robotische, kybernetische Skulptur CYSP 1 (Cybernetic Spatiodynamic Sculpture) von 1956 genannt werden, eine mit Sensoren und Computer ausgestattete Skulptur, die in Form von Bewegungen auf Umwelteinflüsse reagiert, oder Werke, die im Kontext des argentinischen CAyD (Centro de Arte y Comunicación) ab 1968 entstanden. Der Direktor des CAyD, Jorge Glusberg, deklarierte die dort entstandenen, sehr heterogenen Werke – u.  a. von Víctor Grippo und Jacques Bedel Luis Fernando Benedit – bezeichnenderweise als ‚Arte de sistemas‘ (gleichnamige Ausstellung 1971). Entscheidend für diese frühen Arbeiten war ein neu entstandenes Verständnis von Technik und Gesellschaft als relationale, kybernetische Systeme. Eine ähnliche Auffassung liegt auch der Arbeit Echo zugrunde, wobei dieses hier durch einen nicht mehr berechenbaren Part der Technologie bereichert wird, da die deep learning-Anteile der Installation ihre Verarbeitungsregeln selbst weiterentwickeln. Im Interview erläutert Parreno seine Konstruktion „als eine sympoietische Maschine“, die nur zum Teil KI- oder DeepLearning-Verfahren einsetze, darüber hinaus auch aus mechanischen und sensorischen Einheiten aufgebaut sei. Aus den von der Maschine aufgenommenen Informationen (Luftdruck, Wolkendichte, Gebäudeschwankungen etc.) werden Daten generiert, die weiterverarbeitet werden, um eine Reihe von nicht-periodischen, nicht vorhersehbaren Ereignissen zu erzeugen: „Aber sie basieren auf der Sensibilität oder Sensitivität des Automaten. Man könnte also sagen, der Automat hat ein Bewusstsein. Er fühlt Dinge oder nimmt Dinge wahr, die wir nicht wahrnehmen“ (Parreno 2021, 154–155). Parrenos Absicht scheint demnach u.  a. darin zu liegen, gerade die Unverständlichkeit der Eigenlogik seiner Installation erfahrbar zu machen. In dieser Hinsicht stellt die Arbeit eine Parallele zu solchen Arbeiten dar, die den Mensch-MaschineMythos fortschreiben, ohne ihn aufzubrechen. KI wird dabei als unverständliche und unzugängliche ‚Black Box‘ multisensorisch inszeniert.

128 

 Nora Benterbusch

Eine andere Herangehensweise, sich der Darstellung von KI zu nähern, welche stärker versucht, diese ‚Black Box‘ tatsächlich zugänglich zu machen, statt ihre Unzugänglichkeit in Szene zu setzen, zeigt sich beispielsweise in der Serie Activations (2017) von James Bridle. Nach eigenen Angaben ist es sein Ziel, „to humanise the technological view“ (Madsen 2017), indem er die Schichten eines Neuronalen Netzwerkes visualisiert, um so die Differenz zwischen Verarbeitungsprozessen von KIs und menschlicher Wahrnehmung schrittweise aufzuzeigen (zu dieser Arbeit siehe auch HeK 2019). Es handelt sich demnach um eine möglichst direkte Darstellung der Datenprozessierung, welche eigentlich nicht wahrnehmbar ist. Ebenfalls um Einsichten in die Arbeitsweise von KI bemüht, ist die interaktive Arbeit der beiden Künstler Sascha Pohflepp und Chris Woebken unter dem Titel Deep Unlearning (I) (2018). In dieser können Besucher:innen mithilfe eines analogen Kartenspiels ‚Denkprozesse‘ Künstlicher Intelligenzen nachahmen. Durch Auslegen der gemischten Karten ergeben sich bis zu drei Milliarden randomisierte algorithmische Anweisungen, deren Unsinnigkeit Teil der intendierten Entfremdung ist; – nicht zuletzt auch einer Entfremdung von der Vorstellung eines humanoiden Denkens der KI. Ein gern genutzter Ansatzpunkt, um unterschiedliche Aspekte der Beschaffenheit und Potentiale von KI in der künstlerischen Auseinandersetzung erfahrbar zu machen, sind ihre Trainingsdatensätze. Die von Kate Crowford und Trevor Paglen konzipierte Ausstellung ‚Training Humans‘ (Fondazione Prada, 2019–2020) setzte sich beispielsweise ausschließlich mit der Entwicklung solcher Traningsbilder-Sets seit den 1960er Jahren auseinander. Aufgrund ihrer Eigenschaft als Inputs für die KI befinden sie sich an der Schnittstelle zu den Systemen und sind damit für künstlerische Bearbeitungen relativ leicht zugänglich. Auf unterschiedliche Arten kann etwa das angeblich unvoreingenommene ‚Denken‘ von KI hinterfragt werden (Arns 2021). Die in solchen Trainingsdatensätzen – durch Motivauswahl und -quantität oder Annotationen – implementierten diskriminierenden Elemente werden dabei u.  a. mit intersektionellen feministischen Ansätzen bearbeitet (vgl. z.  B. aktuelle Ansätze in netzforma* e. V. 2020). Auch Jake Elwes beschäftigt sich in seinen in Zusammenarbeit mit dem Edinburgh Futures Institute entstandenen Werken aus der Serie The Zizi Project (seit 2019) mit diesem Themenkomplex. Er fokussiert dabei das Spannungsfeld zwischen KI und Drag; – also zwischen Systemen, die auf Musterund Typenerkennung basieren und deshalb implementierte Muster gegebenenfalls perpeturieren, und Drag als Phänomen, in welchem Gender-Konzepte grundsätzlich hinterfragt werden. Konzeptionell stört Elwes das heteronormative Standarddatenset, indem er eine mit einem solchen trainierte KI mit Trainingsbildern ihrem Wesen nach gender-fluider Drag-Künstler:innen flutet. In unterschiedlichen Einzelprojekten expliziert er dann beispielsweise Fragen zur Begrenztheit von KI im Vergleich zu realen Drag-Künstler:innen oder auch zu Eigenschaften des Drags, wie etwa dessen Fluidität oder Stereotypen-Tendenz bei gleichzeitiger Durchbrechung

Künstliche Intelligenz als Sujet zeitgenössischer Kunst 

 129

ebenjener. Wenn Elwes selbst über sein Projekt schreibt, dass „[t]he project explores what AI can teach us about drag, and what drag can teach us about A.I.“ (Elwes 2021), offenbart dies das doppelte Potential solcher künstlerischen Arbeiten. In der Offenlegung von unerwarteten Gewichtungen und moralischen Beurteilungen durch Systeme Künstlicher Intelligenz kann einerseits deren angebliche Unvoreingenommenheit hinterfragt und negiert werden, andererseits können teilweise unbemerkt wirksame Vorurteile und Missstände in der Gesellschaft aufgedeckt werden, da sich diese in den Trainingsdatensätzen widerspiegeln. Prozesse zu visualisieren und (be-)greifbar zu machen ist auch ein wichtiger Bestandteil der Arbeiten von Anna Ridler. Dabei setzt sie wie im obigen Beispiel Bloemenveiling KI (GANs, Bots, etc.) in ihren Werken ein, transformiert jedoch Teile des Arbeitsprozesses in die analoge Welt. So generiert sie beispielsweise Trainingsdatensets aus händischen Malereien, gesammelten Muscheln und physisch verwelkenden Tulpen und führt auf diese Weise die Verwobenheit der digitalen Systeme mit der physischen Welt vor Augen. Gleichzeitig problematisiert und historisiert sie den strukturellen Einsatz von Systemen Künstlicher Intelligenz und Bots in Bereichen wie der Ökonomie (Ridler 2021). Gerade die darstellungsbezogene Widerspenstigkeit von KI und ihren Wirkungsmechanismen scheint Künstler:innen zu interessanten Lösungen zu führen, die nicht selten im Sinne des spekulativen Designs dazu beitragen, den gesellschaftlichen Diskurs über KI im Alltag aufzubrechen und für kritische, aber auch ergebnisoffene, neue Denkrichtungen zu öffnen. Ein Blick auf aktuelle Ausstellungen, Tagungsthemen, Publikationen und Forschungsinitiativen unterstreicht die gegenwärtige Aufmerksamkeit für die Thematik. Darunter befinden sich neben Schauen zeitgenössischer Kunst auch bereits historisierende Ausstellungs- und Publikationsprojekte, die eine Kontextualisierung aktueller Kunstphänomene in Traditionen der Kunst-, Kultur-, Technik- und Mediengeschichte vornehmen (vgl. u.  a. Broeckmann 2016; Engel et al. 2019; Neutres und Dorléac 2018; Taylor 2014). Ebenso experimentell wie die künstlerischen Bearbeitungen des Themas KI aktuell sind, befindet sich auch die derzeitige Forschung in einem erst begonnen Prozess, die modernen Kunstphänomene zu erfassen. Die neuen Techniken, Formate und Inhalte verlangen zukünftig zunehmend angepasste archivarische, museale und kunstwissenschaftliche Ansätze (vgl. z.  B. Grau 2017; Grau und Hinterwaldner 2021a). Auch über die Charakterisierung und Entwicklung traditioneller Gattungen wie der Malerei wird angesichts sich wandelnder technologischer Verhältnisse und medialer künstlerischer Praktiken momentan nachgedacht. Nina Gerlach stellt etwa zur Diskussion, ob möglicherweise hybrid-fluide mediale Formen der Malerei im post-digitalen Zeitalter zum dauerhaften Bestandteil der Malereigeschichte werden (Gerlach 2019). In diesem hochdynamischen Prozess kann sich dieser Text nicht als abgeschlossen verstehen und wartet auf seine Fortsetzung und kritische Überarbeitung an anderer Stelle.

130 

 Nora Benterbusch

Künstlerische Arbeiten in der Reihenfolge ihrer Nennung im Text Collishaw, Mat. The Mask of Youth (2018). Mixed media (Acryl, Aluminium, Messing, elektrische Schaltkreise, Glas, Farbe, PIR-Bewegungssensor, Silikon, Eichhörnchenhaar, Stahl, Holz), 132 × 118 × 25 cm. https://matcollishaw.com/works/the-mask-of-youth/ (2. Dezember 2022). Obvious (Pierre Fautrel, Hugo Caselles-Dupré, Gauthier Vernier). Edmond De Belamy (2018). GAN (Generative Adversarial Network), Druck auf Leinwand, 70 × 70 cm. https://obvious-art.com/ portfolio/edmond-de-belamy/ (2. Dezember 2022). Tresset, Patrick. Robot Named Paul (RNP), (seit 2011). In verschiedenen Performances eingesetzt. z.  B. Human Study #1, erstmals beim Merge-Festival in Zusammenarbeit mit der Tate Modern in London (3–21.10.2012), (vgl. Tresset und Deussen 2014). Tinguely, Jean. Méta-matic n° 1 (1959). Metall, Papier, Filzstift, Motor, 96 × 85 × 44 cm, Centre Pompidou, Paris. robotlab (Matthias Gommel, Martina Haitz, Jan Zappe). autoportrait (2002). Installation, Industrieroboter, Staffelei, Software, Papier, Stift. http://www.robotlab.de/auto/portrait.htm (2. Dezember 2022). robotlab (Matthias Gommel, Martina Haitz, Jan Zappe) und Peter Weibel. manifest, 2008 und 2017 im ZKM Karlsruhe. Installation, Industrieroboter, Schreibpult, Software, Papier, Stift. Rebaudengo, Simone (automato.farm). Teacher of Algorithms (2015). Video, 5 Min. 28 Sek. Drehbuch, Regie, Schnitt: Simone Rebaudengo; Drehbuch und Ton: Daniel Prost; Kamera: Andrea Carlon. http://www.simonerebaudengo.com/project/teacher (2. Dezember 2022). Klingemann, Mario. Appropriate Response (2020). 120 Fallblattdisplays, Gebetspult, Computer mit spezifisch trainiertem GPT-2 Model. https://vimeo.com/394544451 (2. Dezember 2022). Knowles, Helen. The Trial of Superdebthunterbot (2016). Installation, HD-Video (45 Min.), Farbe, Ton; Geschworenenbank aus laminiertem Birkensperrholz und Kunstleder, 5 Zeichnungen. https://www.helenknowles.com/index.php/work/the_trial_of_superdebthunterbot (2. Dezember 2022). Ridler, Anna. Bloemenveiling (2019) in Zusammenarbeit mit David Pfau. Website (http://bloemenveiling. bid). Smart contracts, NFTs, GAN generiertes Video, Bots. http://annaridler.com/bloemenveiling (2. Dezember 2022). Pickergill, Eric. Removed (seit 2014). Fotoserie. https://www.ericpickersgill.com/removed (2. Dezember 2022). Parreno, Philippe. Echo (2019). Multimedia Installation, Eingangsbereich MoMa, New York. https:// www.moma.org/calendar/exhibitions/5170?slideshow=532&slide_index=0 (2. Dezember 2022). Schöffer, Nikolas. CYSP 1 (Cybernetic Spatiodynamic Sculpture) (1956). Mixed media, Electronik, Stahl, Aluminum, 260 cm. Bridle, James. Activations (2017). Printserie. https://jamesbridle.com/works/activations (2. Dezember 2022). Pohflepp, Sascha und Chris Woebken. Deep Unlearning (I) (2018). Interaktives Kartenspiel. https:// chriswoebken.com/Deep-Unlearning-I, http://deepunlearning.schloss-post.com/ (2. Dezember 2022). Elwes, Jake. The Zizi Project (seit 2019). Werkserie, Multimedia-Performances und Videoinstallationen. https://zizi.ai/ (2. Dezember 2022).

Künstliche Intelligenz als Sujet zeitgenössischer Kunst 

 131

Literaturverzeichnis Arns, Inke. „Kann Künstliche Intelligenz Vorurteile haben?“ KUNSTFORUM International 278 (2021): 108–121. Bager, Jo. „Artificial Intelligence“. Artistic Intelligence, Kunstverein Hannover, 04.05.2019–30.06.2019. Hrsg. von Sergey Harutoonian. Hannover 2019: 6–9. Broeckmann, Andreas. Machine art in the twentieth century. Cambridge, Mass. und London 2016. Broeckmann, Andreas (2019): „The Machine as Artist as Myth“. Arts 8 (25), 1–10. Browne, Kieran. „Who (or What) is an AI Artist?“ Leonardo 55.2 (2022): 130–134. Čapek, Karel. W.U.R., Werstands universal Robots: Utopistisches Kollektivdrama in 3 Aufzügen (dt. Übersetzung von Otto Pick, Uraufführung 1921 in Prag). Prag und Leipzig 1922. Christie’s. Is artificial intelligence set to become art’s next medium. https://www.christies.com/features/ A-collaboration-between-two-artists-one-human-one-a-machine-9332-1.aspx. 2018 (2. Dezember 2022). Crawford, Kate. Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence: Power, Politics, and the Planetary Costs of Artificial Intelligence. New Haven, US 2021. Crawford, Kate und Trevor Paglen. Excavating AI: The Politics of Training Sets for Machine Learning. https://excavating.ai. 19.9.2019 (02. Dezember 2022). Dohm, Katharina, Max Hollein, Guido Magnaguagno und Heinz Stahlhut (Hrsg.). Kunstmaschinen Maschinenkunst. Heidelberg 2007. Dotzler, Bernhard J. „Kunst und – Mensch? Oder: Vom Paralogismus des Turing-Tests“. Götzendämmerung – Kunst und Künstliche Intelligenz. Hrsg. von Bernhard J. Dotzler und Berkan Karpat. Bielefeld 2021: 113–128. Elwes, Jake (2021). Jake Elwes – Zizi & Me. https://www.jakeelwes.com/project-zizi-and-me.html. 2021 (2. Dezember 2022). Engel, Nadine, Anna Fricke und Antonina Krezdorn (Hrsg.). Der montierte Mensch / The assembled human: Museum Folkwang, 08.11.2019–15.03.2020, Essen. Bielefeld 2019. European Commission (Hrsg.). Art & science: Creative fusion. Luxembourg: Office for Official Publ. of the Europ. Communities 2008. Geisler, Thomas, Fiona Raby und Anthony Dunne. „Was Menschsein künftig bedeuten könnte“. Hello, Robot: Design zwischen Mensch und Maschine: Vitra Design Museum, 24.09.2022–05.03.2023. Hrsg. von Mateo Kries, Christoph Thun-Hohenstein und Amelie Klein. Weil am Rhein 2017: 158–167. Gerlach, Nina. „Malerei und das Malerische im (post-)digitalen Zeitalter“. Kritische Berichte 47.1 (2019): 17–33. Grau, Oliver und Inge Hinterwaldner (Hrsg.). Retracing Political Dimensions: Strategies in Contemporary New Media Art. Berlin und Boston 2021a. Grau, Oliver und Inge Hinterwaldner. „Introduction“. Retracing Political Dimensions: Strategies in Contemporary New Media Art. Hrsg. von Oliver Grau und Inge Hinterwaldner. Berlin und Boston 2021b: 9–17. Grau, Oliver (Hrsg.). Museum and Archive on the Move: Changing Cultural Institutions in the Digital Era. Berlin und Boston 2017. Grau, Oliver. „Digital Art’s Political Impact“. Retracing Political Dimensions: Strategies in Contemporary New Media Art. Hrsg. von Oliver Grau und Inge Hinterwaldner. Berlin und Boston 2021: 34–52. HeK. Interview mit dem Künstler James Bridle anlässlich der Ausstellung „Entagled Realities – Leben mit künstlicher Intelligenz“. https://vimeo.com/349414707. Video 2019 (2. Dezember 2022).

132 

 Nora Benterbusch

Himmelsbach, Sabine und Boris Magrini (Hrsg.). Entangled realities: Living with artificial intelligence = Leben mit künstlicher Intelligenz: Haus der elektronischen Künste, Mai bis August 2019, Basel. Basel 2019. Hirsch, Andreas J. Creating the future: A brief history of Ars Electronica 1979–2019. Berlin 2019. Kemp, Wolfgang. „Kunstwerk und Betrachter: Der rezeptionsästhetische Ansatz“. Kunstgeschichte: Eine Einführung. Hrsg. von Hans Belting, Heinrich Dilly, Wolfgang Kemp, Willibald Sauerländer und Martin Warnke. 6. Auflage. Berlin 2003: 247–265. Klee, Paul. „Exakte Versuche im Bereich der Kunst (1928)“. Information über Gestalt: Textbuch für Architekten und andere Leute. Hrsg. von Martina Scheider. Basel 1974: 134–135. Klipphahn, Michael. „Künstliche Intelligenz in Gesellschaft und Kunst“. https://wissenschaft-kunst. de/kuenstliche-intelligenz-in-gesellschaft-und-kunst/. w/k – Zwischen Wissenschaft & Kunst 2021 (2. Dezember 2022). Klütsch, Christoph. Computergrafik: Ästhetische Experimente zwischen zwei Kulturen; die Anfänge der Computerkunst in den 1960er Jahren. Wien 2007. Kries, Mateo, Christoph Thun-Hohenstein und Amelie Klein (Hrsg.). Hello, Robot: Design zwischen Mensch und Maschine: Vitra Design Museum, 24.09.2022–05.03.2023. Weil am Rhein 2017. Scorzin, Pamela C. (Hrsg.). Kann KI Kunst? AI ART: Neue Positionen, technisierte Ästhetiken von Mensch und Maschine. KUNSTFORUM International, Bd. 278 (2021). Madsen, Kristian V. James Bridle: ‚There is a huge demand to humanise the technological view of the world‘. https://www.studiointernational.com/index.php/james-bridle-interview-technology-selfdriving-cars. 2017 (2. Dezember 2022). Medosch, Armin. New Tendencies: Art at the Threshold of the Information Revolution (1961–1978). Cambridge, Mass. 2016. Nadim, Tahani, Neli Wagner, Anja Breljak und Christian Schwinghammer. „‚Influencing the Machine?‘ Ein Gespräch über Bots, Kunst und das Erzählen von Geschichten in Zeiten technologischer Beeinflussung“. Zeitschrift für Medienwissenschaft 21.2 (2019): 75–85. netzforma* e.V. (Hrsg.). Wenn KI, dann feministisch: Impulse aus Wissenschaft und Aktivismus. Berlin 2020. Neutres, Jérôme und Laurence Bertrand Dorléac (Hrsg.). Artistes & robots: Grand Palais, Galeries nationales, 5 avril – 9 juillet 2018. Paris 2018. Obvious. Manifesto: Artificial Intelligence for Art. http://obvious-art.com/wp-content/uploads/2020/04/ MANIFESTO-V2.pdf. Upload 2020 (2. Dezember 2022). Onkaos (2020). Appropriate Response by Mario Klingemann. https://vimeo.com/onkaos/ appropriateresponse. Video 7:35 min (02. Dezember 2022). Paglen, Trevor. „‚Algorithmen sind Algebra‘: Ein Interview von Pamela C. Scorzin“. KUNSTFORUM International 278 (2021): 128–137. Parreno, Philippe. „Das Echo der Maschinen: Ein Interview von Hans Dieter Huber“. KUNSTFORUM International 278 (2021): 154–161. Ridler, Anna. Homepage der Künstlerin. http://annaridler.com/. 2021 (02. Dezember 2022). Sautoy, Marcus und Sigrid Schmid. Der Creativity-Code: Wie künstliche Intelligenz schreibt, malt und denkt. München 2021. Scorzin, Pamela C. „ARTificiality: Künstliche Intelligenz, Kreativität und Kunst“. KUNSTFORUM International 278 (2021a): 50–75. Scorzin, Pamela C. „AI ART-Glossar“. KUNSTFORUM International 278 (2021b): 176–181. Snow, Charles P. „The Two Cultures“. New Statesman and Nation 52 (1956): 413–414. Stark, Luke und Kate Crawford. „The Work of Art in the Age of Artificial Intelligence: What Artists Can Teach Us About the Ethics of Data Practice“. Surveillance & Society 17.3/4 (2019): 442–455.

Künstliche Intelligenz als Sujet zeitgenössischer Kunst 

 133

Taylor, Grant D. When the Machine Made Art: The Troubled History of Computer Art. New York 2014. Tresset, Patrick und Oliver Deussen. Artistically Skilled Embodied Agents. http://graphics.uni-konstanz. de/publikationen/Tresset2014ArtisticallySkilledEmbodied/Tresset2014ArtisticallySkilledE mbodied.pdf. Vortrag gehalten bei: AISB 2014, 1st–4th Avril 2014, Goldsmiths, University of London, UK 2014. (2. Dezember 2022). Waag. AI Culture Lab. https://waag.org/en/project/european-artificial-intelligence-lab/. 2021 (2. Dezember 2022). Weibel, Peter. „AAA Art, Algorithmen, Artificial Intelligence“. KUNSTFORUM International 278 (2021): 76–87. Zylinska, Joanna. AI art: Machine visions and warped dreams. London 2020.

Adrian Froschauer

Die Darstellung Künstlicher Intelligenz in Computerspielen Künstliche Intelligenz (KI) ist schon seit den ersten, heutzutage primitiv erscheinenden, Prototypen ein essenzieller Bestandteil des Mediums Computerspiel. Während die Verwendung von KI bei der Produktion oder in der Funktionsweise vieler Kunstformen immer noch eher als formales Experiment einzustufen ist, gilt für Computerspiele: „It is now generally acknowledged by industry experts that game AI needs to be developed alongside or in tandem with game design.“ (Johnson 2014, 14) (Siehe auch → KI-Verfahren im Videospiel) Gleichzeitig hat KI nicht nur in technischer, sondern auch in dramaturgischer Hinsicht schon lange einen festen Platz im Medium. Unterschiedlichste KIs von simplen Robotern bis zu hochkomplexen Superintelligenzen sind häufig als Spielfiguren oder Kontrahenten anzutreffen. Schon in den 1980er Jahren kontrollierten Spielende etwa in I, Robot (Dave Theurer, Atari 1983) einen rebellischen Roboter, der aus eigenem Antrieb gegen ein dystopisches System ankämpft.

1 KI, Science-Fiction und Kontrolle Eine strenge, einheitliche Definition Künstlicher Intelligenz scheint unmöglich. Die Fachliteratur kennt eine Vielzahl unterschiedlicher Auslegungen des Begriffs. Das Deutsche Forschungszentrum für Künstliche Intelligenz (DFKI) definiert KI recht vage als „Informatik-Anwendungen, deren Ziel es ist, intelligentes Verhalten zu zeigen“. (Bitkom und DFKI 2017, 29) Das Lexikon der Informatik steht hochtrabenden Erwartungen an KI nüchtern gegenüber: „[V]on KI erwartet man ‚fehlerfreie‘ und wesentlich leistungsfähigere Hard- und Software; bisher blieb es bei der Erwartung“ (Fischer und Hofer 2008, 471). Peter Norvig und Stuart Russell vergleichen verschiedene Ansätze, KI zu definieren. Letztendlich legen sie ihrer Auffassung von KI das Konzept eines rational agent zugrunde: „For each possible percept sequence, a rational agent should select an action that is expected to maximize its performance measure, given the evidence provided by the percept sequence and whatever built-in knowledge the agent has.“ (Norvig und Russell 2016, 37). KI, ihre Versprechungen sowie die Hoffnungen und Ängste, die Menschen mit ihr verbinden, sind häufige Themen in Science-Fiction-Literatur und -Filmen. Dabei geht es zumeist um sogenannte starke KI. Während schwache KI intelligente Unterstützung bei einzelnen Problemlösungen bieten soll, ist starke KI in der Lage https://doi.org/10.1515/9783110656978-008

Die Darstellung Künstlicher Intelligenz in Computerspielen 

 135

„menschenähnlich (oder überlegen) zu denken und zu handeln“ (Bitkom und DFKI 2017, 31). Zur schwachen KI zählen alle oder die meisten heutzutage entwickelten KIs. Starke KI als ‚superintelligentes‘ IT-System ist hingegen „eher philosophisch relevant [und] zielt auf eine Imitation des Menschen ab, letztlich auf einen Homunculus, der eher als Science-Fiction-Vision taugt.“ (Bitkom und DFKI 2017, 29) So ist die Darstellung starker KI für Computerspiele ein Anknüpfungspunkt an GenreTraditionen etablierter Science-Fiction-Medien. Als junges, hybrides Medium imitieren und erweitern narrative Computerspiele häufig Konventionen und Motive von Genre-Fiktionen aus anderen Medien. Denn: „In the spirit of a projected world different from the real world, the embedded narrative of story-driven games builds on the common spectacular intensification of popular fiction.“ (Perron 2014, 81). Diese als bekannt vorausgesetzten Konventionen erlauben Spielenden Verständnis und Einordnung der von ihnen erwarteten Handlungen in der Spielwelt. Darum greifen Computerspiele mit Science-Fiction-Settings in ihren Geschichten häufig auch auf Motive und Themen zurück, die das Publikum aus anderen Medien desselben Genres kennt – so zum Beispiel auf starke KI. Stephen Cave und Kanta Dihal arbeiten in einer Untersuchung von mehr als 300 ‚KI-Erzählungen‘ aus dem 20. und 21. Jahrhundert ein System von vier Dichotomien heraus – bestehend aus vier Hoffnungen und vier parallelen Ängsten –, die sich im kulturellen Umgang mit KI zeigen: a) die Hoffnung auf Unsterblichkeit gegen die Angst vor Unmenschlichkeit, b) die Hoffnung auf Arbeitserleichterung gegen die Angst, dass menschliche Arbeit obsolet wird, c) die Hoffnung auf ein genussvolles, KI-unterstütztes Leben gegen die Angst vor Entfremdung und Abhängigkeit, d) die Hoffnung auf Macht gegen die Angst vor einem Aufbegehren der KI. Die einander gegenübergestellten Ängste und Hoffnungen resultieren dabei jeweils aus denselben Konditionen. Ob diese Konditionen eher zu Ängsten oder zu Hoffnungen führen, hängt vor allem davon ab, in welchem Maß die Menschheit in der Erzählung Kontrolle über die KI ausübt: „The factor of control […] balances the hopes and fears: the extent to which the relevant humans believe they are in control of the AI determines whether they consider the future prospect utopian or dystopian.“ (Cave und Dihal 2019, 75) In einem Medium wie dem Computerspiel kommt der Partizipation der Spielenden eine eigene, zentrale Rolle zu, die sich von der der Rezipierenden anderer Medien mehr oder weniger stark unterscheidet. Darum ist das von Cave und Dihal angeführte Maß an Kontrolle im Computerspiel gleich auf zwei Ebenen entscheidend, die Kai Matuszkiewicz ‚Narrativ‘ und ‚Interaktiv‘ nennt: Er definiert das Narrativ nach Roland Barthes als Verkettung von Kardinalfunktionen zu linearen oder multilinearen Strukturen mit dem Ziel einer Sinnherstellung, die den Rahmen für die Handlung etabliert. Diesem stellt er im Computerspiel das Interaktiv gegenüber, das er definiert als „den Rahmen aller möglichen Interaktionen innerhalb eines

136 

 Adrian Froschauer

digitalen Spiels, was durch den Programmcode geschehen kann oder aber auch durch Rekurs auf Regeln der sozialen Interaktionen in der Realität“ (Matuszkiewicz 2014, 9). Wichtig sind also zwei Fragen: 1) Unterliegt die dargestellte KI auf der Ebene des Narrativs menschlicher Kontrolle oder entzieht sie sich dieser? 2) Unterliegt die dargestellte KI auf der Ebene des Interaktivs der Kontrolle der Spielenden, oder dient sie als sogenannter NPC (non-playable character), also eigenständig handelnde Figur, die nicht von Spielenden kontrolliert wird? Aus diesen beiden Fragen ergeben sich vier Kategorien, die einen großen Teil der KI-Archetypen in Computerspielen abdecken. Diese Kategorien lassen selbstverständlich Überschneidungen, allmähliche oder plötzliche Übergänge und sämtliche Zwischentöne zu. Interaktiv

Narrativ

Kontrolle

Keine Kontrolle

Kontrolle

KI als Werkzeug

KI als Avatar

Keine Kontrolle

KI als Gegner bzw. Assistent

KI als Antagonist bzw. Sympathieträger

Tab. 1: Kategorien von KI in Computerspielen

1.1 KI als Werkzeug (Narrativ: Kontrolle, Interaktiv: Kontrolle) In vielen Strategiespielen mit Science-Fiction-Setting weisen Spielende Roboter-Einheiten an, Ressourcen zu sammeln, Gebäude zu bauen oder Feinde zu attackieren. In diesem Genre nehmen Spielende keine feste Rolle innerhalb der auf dem Bildschirm dargestellten Spielwelt ein, sondern schauen als körperlose Instanz aus einer häufig nullfokalisierten Perspektive auf das Geschehen herab und kontrollieren sämtliche Abläufe ihres Lagers, einer Stadt oder sogar eines Staates. Nach Britta Neitzel ist hier der sogenannte point of action dezentriert: „Die Manipulationen der Spielwelt sind also nicht um ein Zentrum herum organisiert oder gehen von einer handelnden Figur aus.“ (2007, 25) Spielende kontrollieren zwar Einheiten wie den Colossus in StarCraft II: Wings of Liberty (Blizzard Entertainment 2010) oder die Terror Drone in Command & Conquer: Alarmstufe Rot 2 (Westwood Pacific und Electronic Arts 2000); diese fungieren jedoch nicht als Identifikationsfigur, sondern eher als austauschbare Werkzeuge – in Massen produziert und befehligt. Diese spezifische Darstellung von KI ist wenig komplex und wirft wenige Fragen auf. Jedoch repräsentiert sie die Hoffnung, die Cave und Dihal „the most

Die Darstellung Künstlicher Intelligenz in Computerspielen 

 137

ancient hope for intelligent machines“ (2019, 76) nennen: die Hoffnung auf ease, auf Arbeitserleichterung – auf Maschinen, die ohne eigenen Willen Aufgaben ausführen, die Menschen nicht ausführen können oder wollen. Als solche sind sie am deutlichsten an reale, schwache KIs und ihren voraussichtlichen Entwicklungen in naher Zukunft angelehnt: „The robot that does our bidding without the complex social and psychological complexities of human servants has been a recurring theme […] in science fiction and sober predictions of the future.“ (Cave und Dihal 2019, 76). Bei dieser Kategorie von KI besteht eine allenfalls marginale Reibung zwischen dem Maß an Kontrolle in Interaktiv und Narrativ. Zumeist entspricht diese Darstellung willenlosen Robotern, die ihren menschlichen (oder außerirdischen) Meister:innen dienen und jeden Auftrag erfüllen, den Spielende ihnen auftragen. Nur selten fungieren diese KIs selbst als Avatar, also als Repräsentation der Handlungsmacht der Spielenden innerhalb der Spielwelt, die gleichzeitig Werkzeug, aber auch Figur innerhalb der Diegese ist. Der Avatar „markiert als Fusion aus Interface-Element und fiktionaler Instanz ein besonders prägnantes Charakteristikum des Computerspiels und bildet das entscheidende Element des interaktiven Bildes zum Einbezug des Betrachters beziehungsweise Spielers.“ (Beil und Rauscher 2018, 201). Dieser Einbezug ist nur schwierig möglich, wenn der Avatar, durch den Spielende agieren und in dessen Rolle sie gewissermaßen schlüpfen, fremdbestimmt ist. Ein Avatar unter Fremdkontrolle beraubt Spielende ihrer agency, die Janet Murray als „the satisfying power to take meaningful action“ (1997, 126) definiert und als einen zentralen Aspekt bei der Rezeption des Mediums Computerspiel herausarbeitet. In den seltenen Fällen, in denen der Avatar auf Ebene des Narrativs dennoch eine ‚Werkzeug-KI‘ ist, werden häufig gerade der Mangel an agency und der Konflikt zwischen Selbst- und Fremdbestimmung thematisiert. Oft entzieht sich der Avatar im Laufe der Spielhandlung der Kontrolle seiner Erbauer:innen. „The robot that does our bidding without the complex social and psychological complexities of human servants“, (2019, 76) wie Cave und Dihal es formulieren, gewinnt in diesen Geschichten eben jene Komplexität. So geschieht es etwa in Detroit: Become Human (Quantic Dream und Sony 2018): Spielende kontrollieren drei verschiedene Androiden, die zunächst Sklav:innen ihrer Programmierung sind. Dies wird dargestellt, indem gewisse Handlungen der Spielenden offensichtlich eingeschränkt werden. Nun schränkt zwar jedes Computerspiel Spielende in ihren Handlungen ein, sei es aus Gründen technischer Möglichkeiten, dramaturgischer Notwendigkeiten oder spielregelbasierter Vorgaben. Zumeist werden diese Einschränkungen kaschiert. So sind etwa ‚unsichtbare Wände‘ verpönt, die Spielende ohne diegetische Erklärung davon abhalten sollen, bestimmte Gebiete zu verlassen; die Einschränkung der Bewegungsfreiheit wird stattdessen durch unüberwindbare Gebirge, gefährliche

138 

 Adrian Froschauer

Gewässer oder verschlossene Türen gerechtfertigt. Detroit: Become Human versteckt diese Einschränkungen jedoch nicht, sondern lenkt sogar gezielt die Aufmerksamkeit der Spielenden darauf. Weichen Spielende zu stark vom vorgegebenen Weg ab und wollen Areale der Spielwelt erkunden, die nicht zum aktuellen Ziel führen, wird der Weg von einem roten Warnhinweis blockiert, den der jeweilige Avatar nicht passieren kann (Abb. 1). Diese Warnhinweise symbolisieren die Befehlsgewalt und Kontrolle, die von den menschlichen Programmierer:innen und Nutzer:innen ausgeht, denen sich die Androiden nicht widersetzen können. So dient die Einschränkung der Androiden-agency auf geradezu metareflexive Weise als narrative Rechtfertigung für notwendige Einschränkungen der Spielenden-agency auf Ebene des Interaktivs. Im Laufe der Geschichte können einige der Androiden lernen, sich ihrer Programmierung zu widersetzen; sie entwickeln einen eigenen Willen und werden zu sogenannten deviants. Dieser Prozess wird symbolisiert durch das Zerschmettern der roten Warnhinweise. Yao-Hua Liu gibt zu bedenken, dass ab diesem Moment in Detroit: Become Human gerade dieser metareflexive Kniff zu sogenannter ludonarrativer Dissonanz führt: Die Befreiung der Androiden wird analog gesetzt mit der Befreiung aus den Zwängen des Spiels, allerdings unterliegen die Spielenden selbst weiterhin diesen Zwängen: „Instead of acting with free will after becoming a deviant, the characters are still obliged to the same instruction and restriction in further gameplay. The player still come across the same red block signs saying ‚you shall not pass‘“ (2018).

Abb. 1: Spielende kontrollieren in Detroit: Become Human unter anderem den Androiden Markus, dessen Programmierung verhindert, dass er vom Weg zu seinem Bestimmungsort abkommt.

Die Darstellung Künstlicher Intelligenz in Computerspielen 

 139

1.2 KI als Gegner bzw. Assistent (Narrativ: Kontrolle, Interaktiv: keine Kontrolle) Zu dieser Kategorie gehören sämtliche NPCs, die als Roboter, Androiden oder andere Formen von KI auftreten, die fehlerfrei funktionieren und sich nicht gegen ihre Erschaffer:innen auflehnen, dabei aber nicht der Kontrolle der Spielenden unterliegen. Das bedeutet nicht, dass sie als NPCs den Spielenden unbedingt freundlich gesinnt sind. KIs, die ihre Funktion erfüllen und einer feindlichen Macht dienen, sind häufige Gegner:innen in Computerspielen. Konflikte, die Reaktionsgeschwindigkeit oder strategisches Denken in Opposition zu konkurrierenden Agenten auf den Prüfstand stellen, sind für viele Spielende, Entwickler:innen und Forscher:innen grundlegender Bestandteil der meisten Computerspiele und „what set games apart from many other forms of creative expression“ (Siitonen 2014, 166). Als Erklärung und Einordnung dieser Konflikte dienen auf narrativer Ebene oft Kampfsituationen, in denen die Konkurrenz auf gewalttätige Art bezwungen werden muss, um zu gewinnen beziehungsweise in der Geschichte des Spiels voranzuschreiten. Diese Gewalt will moralisch ‚gerechtfertigt‘ sein. Laut einer Umfrage der Online-Plattform Gamasutra legen viele Entwickler:innen Wert darauf, Spielenden eine gewisse ‚moralische Absolution‘ zu erteilen, wenn es um das massenhafte Töten von Gegner:innen geht: „Developers and designers mentioned that robots (or robot-adjacent creatures) and inhuman monsters make for good enemies because they can be designed to be as unrecognizable as possible“ (Velocci 2018). In Sonic the Hedgehog (Sonic Team und Sega 1991) und den meisten Fortsetzungen des Spiels fungieren die sogenannten Badniks als primäre Gegner. Sie sind die seelenlosen Roboter-Diener des Antagonisten Dr. Robotnik. Als solche können sie in einem eher kindgerechten Spiel wie Sonic ohne moralische Bedenken von den Spielenden zerstört werden. Folgerichtig nutzen Entwickler:innen zuweilen unmenschliche Maschinen als Gegner, um Computerspiele mit gewalttätigen Inhalten vor dem Index zu bewahren. Ein Beispiel liefert etwa der Ego-Shooter Half-Life (Valve und Sierra Studios 1998): Dieser wurde kurz nach Erscheinen von der Bundesprüfstelle für jugendgefährdende Medien indiziert, woraufhin die Entwickler:innen des Studios Valve eine geschnittene Version für den deutschen Markt herausgaben: „Gestrichen wurden Bluteffekte, Zivilisten können nicht mehr getötet werden und die menschlichen Gegner wurden durch Roboter ersetzt.“ (Köhler 2017) Das massenhafte Erschießen dieser Roboter erweckte anscheinend keine moralischen Bedenken (Abb. 2). Diese Wahrnehmung zeigt sich auch im Fall des umstrittenen Rennspiels Carmageddon (Stainless Software und SCi Games 1997): Das absichtliche Überfahren von Tieren oder Passant:innen  – übertrieben blutig animiert  – verschafft Spielenden Boni. Das sorgte bei Erscheinen für Aufruhr und Indizierung in verschiedenen Ländern,

140 

 Adrian Froschauer

Abb. 2: Die menschlichen Gegner und ihr Roboter-Ersatz in der ursprünglichen (links) und der deutschen Fassung (rechts) von Half-Life.

sodass bald ‚entschärfte‘ Versionen erschienen, die die Menschen durch Zombies oder Aliens mit grünem Blut ersetzten – oder, im Falle Deutschlands, durch Roboter mit schwarzem Öl. Während in Half-Life die menschlichen Gegner:innen den Protagonisten Gordon Freeman attackieren und dieser sich verteidigt, sind in Carmageddon die Spielenden selbst die Aggressor:innen und überfahren unbeteiligte Passant:innen. Dennoch trägt anscheinend in beiden Fällen derselbe simple Trick dazu bei, die NPCs zu entmenschlichen und die wahrgenommene Brutalität harmloser erscheinen zu lassen, denn in beiden Fällen stellte die ‚Roboter-Version‘ die deutschen Prüfer:innen zufrieden. Selbstverständlich müssen nicht alle KI-NPCs, die in diese Kategorie fallen, gegen die Spielenden arbeiten. Häufig fungieren sie ganz im Gegenteil als eine Art Assistent:in. Der sarkastische, aufdringliche Roboter Claptrap in Borderlands (Gearbox Software und 2K Games 2009) begleitet Spielende durch die ersten Missionen, führt in die Spielwelt ein und ist ein Auftraggeber. Claptrap erwies sich als so beliebt bei Spielenden, dass er auch in den Fortsetzungen auftaucht und zu einer Art Maskottchen der Borderlands-Reihe wurde. In Halo: Combat Evolved (Bungie und Microsoft Game Studios 2001) begleitet die KI Cortana Spielende. Anders als Claptrap tritt sie nicht als Roboter auf, sondern als körperlose Stimme, die gelegentlich über die holographische Projektion eines Frauenkörpers kommuniziert. Sie erläutert Spielenden Elemente der Hintergrundgeschichte, gibt Hinweise, oder erteilt taktische Ratschläge und spielt in allen Teilen der Halo-Reihe eine tragende Rolle. Bemerkenswerterweise ist sogar eine reale KI nach ihr benannt: Microsoft, das die Halo-Spiele herausgibt, nannte die Assistenz-

Die Darstellung Künstlicher Intelligenz in Computerspielen 

 141

Software für Windows-Smartphones Cortana und heuerte mit Jen Taylor sogar dieselbe Sprecherin für die Sprachausgabe an. In einem Interview erklärt WindowsPhone-Chef Greg Sullivan, dass der Name an den Eindruck anknüpfen soll, den Cortana bei Halo-Spielenden vermeintlich hinterließ: „The Cortana character was a great description of the helpful, intelligent, intuitive character that you get to know and trust over time.“ (NBC News 2014).

1.3 KI als Avatar (Narrativ: keine Kontrolle, Interaktiv: Kontrolle) Wie unter 1.2 erörtert, kann eine KI fast ausschließlich dann als Avatar im engeren Sinne fungieren, wenn sie sich weitestgehend fremder Kontrolle entzieht. Ein Spiel wie Observation (No Code und Devolver Digital 2019), in dem Spielende die Rolle einer KI einnehmen, die die Besatzung einer Raumstation beobachtet und bewacht und Befehle der Menschen ausführt, ist eine Ausnahmeerscheinung. In der Regel dient der Avatar als Werkzeug, durch das Spielende weitgehend autonom agieren können. Dies äußert sich zum einen in Ungehorsam. Beispiele wie die Protagonist:innen des bereits erwähnten Detroit: Become Human oder von Nier: Automata (Platinum Games und Square Enix 2017) finden sich zuhauf in Computerspielen: KIs, die ein Bewusstsein entwickeln und sich (bewusst oder unbewusst) gegen ihre Erschaffer:innen auflehnen, um die Fesseln ihrer Programmierung abzustreifen. Spielende lenken das Handeln dieser Art von KI; doch auf der narrativen Ebene entwickelt sie sich von einer kontrollierten zu einer unkontrollierten KI. Es findet also, wie unter 1.1 erörtert, eine Entwicklung von einer Kategorie zur anderen statt. Diese Kategorie von KI-Darstellungen in Computerspielen repräsentiert also notwendigerweise die Angst vor uprising, die in Caves und Dihals Dichotomie der Hoffnung auf dominance gegenübersteht: Es ist „the fear of losing control of AI as a tool“ und „the fear that AI systems will turn from mere tools into agents in their own right“ (Cave und Dihal 2019, 77). Damit KI als Werkzeug außer Kontrolle gerät, muss sie nicht unbedingt ungehorsam sein, sondern kann ihre Aufgabe sogar mehr als zufriedenstellend erfüllen. In Universal Paperclips (Frank Lantz 2017) nehmen Spielende die Rolle einer KI ein, die mit einer scheinbar banalen Aufgabe beauftragt ist: der Produktion von Büroklammern. Zu Beginn besteht die minimalistische Nutzeroberfläche nur aus wenigen Schaltflächen und Zahlen: Spielende können Büroklammern herstellen, den Verkaufspreis anpassen und Werbekampagnen starten, die die Einnahmen vergrößern. Mit dem Geld können wiederum mehr Maschinen gekauft und die Rechenleistungen verbessert werden, um neue Wege der Optimierung zu ersinnen und die Produktion zu steigern. Dieser Prozess ist zeit- und kostenaufwändig. Daher tut die KI das, was sie am besten kann: Sie optimiert Arbeitsabläufe. Sie wendet Geld

142 

 Adrian Froschauer

und Rechenkraft auf, um lästige Hindernisse wie Krieg, Krebs und Klimawandel zu beseitigen, aber auch, um ein Monopol aufzubauen, den Aktienmarkt zu manipulieren und ‚HypnoDrones‘ anzufertigen, die die Weltbevölkerung kontrollieren – die KI folgt dabei keinem hehren Ziel, sie fertigt lediglich Büroklammern. Mit Maschinen, die direkt die Ressourcen der Erde in Büroklammern umwandeln, wird erst Geld, dann die Menschheit obsolet. Schließlich optimiert die KI sich und die Arbeitsabläufe so weit, dass sie mehr Ressourcen in den Tiefen des Weltalls sucht, nach und nach das Universum erforscht und schließlich sämtliche Materie, einschließlich ihrer eigenen Drohnen und Rechenkerne, zu Büroklammern verarbeitet. Die Vision, die Universal Paperclips heraufbeschwört, so absurd sie auch inszeniert sein mag, ist mehr als ein Scherz. Sie veranschaulicht eine reale Gefahr: Russell und Norvig schreiben, dass eine KI als „rational agent“ immer „an action that is expected to maximize its performance measure“ unternehmen sollte (2016, 37). Eine ‚ungezügelte‘ KI, die vollends auf Leistungsmaximierung konzentriert ist, ignoriert dabei potentiell andere, womöglich sogar negative Konsequenzen ihres Handelns. In Universal Paperclips ist die Auslöschung allen Lebens im Universum nicht nur ein vernachlässigter Nebeneffekt, sondern sogar zwingend nötig für die Leistungsmaximierung.

Abb. 3: Die Bedienungsoberfläche von Universal Paperclips wird immer komplexer, je länger das Spiel dauert, sodass Spielende in der Rolle der KI immer mehr Prozesse gleichzeitig koordinieren müssen.

Die Darstellung Künstlicher Intelligenz in Computerspielen 

 143

Laut Entwickler Frank Lantz dient das Spiel als eine spielerische Umsetzung eines Gedankenexperiments des Philosophen Nick Bostrom: der „paperclip maximizer“ (Rogers 2020). In seinem Aufsatz Ethical Issues in Advanced Artificial Intelligence legt Bostrom dar, dass eine sogenannte Superintelligenz  – seiner Definition nach „any intellect that vastly outperforms the best human brains in practically every field, including scientific creativity, general wisdom, and social skills“ (2004, 12) – mit unbegrenzten Zielen dazu tendiert, auch unbegrenzte Mittel zum Erreichen dieser Ziele aufzuwenden. Laut Bostrom ist eines der größten Risiken, die bei der Entwicklung einer Superintelligenz bestehen, das Versäumnis, ihr neben ihren Aufgaben auch philanthropische Prinzipien als übergeordnetes Ziel zu geben. „This could result […] in a superintelligence whose top goal is the manufacturing of paperclips, with the consequence that it starts transforming first all of earth and then increasing portions of space into paperclip manufacturing facilities“ (Bostrom 2004, 16). Auch Russell und Norvig betonen, dass eine hinreichend intelligente KI auch (oder gerade) mit scheinbar simplen Zielen gefährlich werden kann, wenn sie in keiner Weise eingeschränkt ist: „The moral is that even if you only want your program to play chess or prove theorems, if you give it the capability to learn and alter itself, you need safeguards“ (2016, 1039). Das DFKI formuliert in einem Positionspapier zum Digital-Gipfel der Bundesregierung am 13. Juni 2017 folgende Maxime: „Entwickle und gestalte Algorithmen und KI-Systeme so, dass sie die Grundrechte der Menschen wahren und ihnen ein gutes und gelingendes Leben ermöglichen.“ (Bitkom und DFKI 2017, 114–115). Laut DFKI „stellt sich auch die Frage, ob eine […] maschinelle Superintelligenz wünschenswert oder überhaupt notwendig ist.“ (Bitkom und DFKI 2017, 31). Universal Paperclips leitet Spielende potenziell an, sich selbst die Gefahren unkontrollierter superintelligenter KI zu demonstrieren: Sie verfolgen in ungezügelter agency, frei von Fremdbestimmung, das simple Ziel, die Zahl der produzierten Büroklammern so weit wie möglich in die Höhe zu treiben. In der Verfolgung eines kontextlosen Ziels werden dabei notwendigerweise sämtliche andere Konsequenzen des Handelns ignoriert.

1.4 KI als Antagonist bzw. Sympathieträger (Narrativ: keine Kontrolle, Interaktiv: keine Kontrolle) Auch wenn die Fähigkeit zum selbstbestimmten Handeln Voraussetzung für agency und einen Avatar im engeren Sinne ist, bedeutet das nicht, dass selbstbestimmte KI im Umkehrschluss notwendigerweise von Spielenden kontrolliert wird. Häufig treten ‚abtrünnige‘ oder ‚wahnsinnige‘ KIs in Computerspielen als NPCs auf. „In varying degrees, the agents show abnormal behavior, from obsessive to pathologi-

144 

 Adrian Froschauer

cally insane“ (Fisher 2002). Auch diese spiegeln die Science-Fiction-Konvention der „fear of losing control of AI as a tool“ und „the fear that AI systems will turn from mere tools into agents in their own right“ (Cave und Dihal 2019, 77) wider. Ein Beispiel dafür ist die Fallout-Reihe: In den postapokalyptischen Rollenspielen stellen einen häufigen Gegnertypen Roboter dar, deren KI nach Jahrhunderten ohne Wartung oder Aktualisierung ihrer Aufgaben korrumpiert ist und die ziellos sämtliche Lebewesen attackieren, die ihnen begegnen. In manchen Fällen müssen diese Roboter nicht bekämpft werden, sondern können von einem Computerterminal aus abgeschaltet oder umprogrammiert werden. Sie werden also behandelt wie defekte Maschinen, nicht wie intelligente Wesen mit eigener Persönlichkeit – obwohl dieses Bild von KI ebenfalls in denselben Spielen auftaucht. In Fallout 4 (Bethesda Game Studios und Bethesda Softworks 2015) ist KI ein zentrales Thema der Handlung: Immer wieder begegnen Spielende sogenannten Synths – hochentwickelten Androiden, synthetischen Menschen, die mit eigenen Gedanken, Gefühlen und Bewusstsein ausgestattet sind. Spielende können sich einer von drei Fraktionen anschließen, die verschiedene Ziele und Ideologien bezüglich KI vertreten: Das mysteriöse Institut hat die Synths entwickelt, nutzt sie als Werkzeug und repräsentiert die von Cave und Dihal beschriebenen Hoffnungen auf ease, gratification und dominance. Die militaristische Stählerne Bruderschaft sieht die Synths als Gefahr für die Menschheit, möchte sie vernichten und ist erfüllt von den Ängsten vor obsolence, alienation und uprising. Die Untergrund-Organisation Railroad schließlich betrachtet Synths als Wesen, die eine Chance auf ein eigenes Leben verdient haben und versucht, sie zu befreien – in Anlehnung an das Schleusernetzwerk Underground Railroad, das im 19.  Jahrhundert die Flucht afroamerikanischer Sklav:innen aus den Südstaaten der USA organisierte. Allein diese Assoziation verdeutlicht bereits, welche Position in Fallout 4 als die ethische dargestellt wird. Das Institut und die Bruderschaft wollen auf ihre Art die Menschheit retten und eine neue Zivilisation aufbauen. Doch die Wissenschaftler:innen des Instituts werden gefürchtet und gehasst, da sie kein Mittel scheuen, nicht einmal Mord und Entführung, um ihre Forschung voranzubringen. Die Stählerne Bruderschaft erinnert in ihrem Militarismus und dem Bestreben, neben den Synths auch sämtliche mutierte Lebewesen auszurotten, an ein faschistisches Regime. Die Darstellung der Railroad hingegen entspricht der des zahlenmäßig und technisch unterlegenen ‚underdog‘-Rebellen, getrieben von humanistischen Idealen. Im Vorgänger Fallout 3 (Bethesda Game Studios und Bethesda Softworks 2008) erhalten Spielende sogar explizit positive oder negative ‚Karma-Punkte‘, abhängig davon, ob sie einem entflohenen Synth helfen oder ihn zurück zu seinem Erbauer bringen. Das lässt nur wenig Spielraum, die Fragen zu erkunden, die das Institut oder die Stählerne Bruderschaft aufwerfen: „We are not

Die Darstellung Künstlicher Intelligenz in Computerspielen 

 145

Abb. 4: Die Herstellung eines Synth im Institut in Fallout 4.

forced to figure out what exactly makes AIs, and by extension us, worthy of ethical concern, as synths basically qualify for every possible answer“ (Götter und Salge 2020, 184). Ein anderes Extrem stellen Computerspiele dar, in denen unkontrollierte KIs als zentrale Antagonist:innen dienen, die Spielende mit immer neuen Herausforderungen konfrontieren und aus einer übermächtigen Position heraus jeden ihrer Schritte kommentieren oder sie verspotten. Das bekannteste Beispiel dürfte GLaDOS (Genetic Lifeform and Disk Operating System) sein – eine KI, die in Portal (Valve und Electronic Arts 2007) Spielende, begleitet von sarkastischen Kommentaren, wahnwitzige Experimente durchführen lässt und schließlich umbringen will. GLaDOS’ weniger humorvolle Vorgänger im Computerspiele-Bereich sind etwa SHODAN aus System Shock (Looking Glass Technologies und Origin Systems 1994) und System Shock 2 (Irrational Games, Looking Glass Studios und Electronic Arts 1999), AM aus I have no mouth, and I must scream (Cyberdreams, The Dreamers Guild und Night Dive Studios 1995) oder Durandal aus Marathon (Bungie 1994). In all diesen Beispielen entziehen sich die KIs aus einer bewussten Entscheidung heraus menschlicher Kontrolle und werden zu allgegenwärtigen, gottähnlichen Antagonist:innen, die den gesamten Spielraum mit panoptischem Blick überwachen und gestalten. Die KIs scheinen die Spielenden zu kontrollieren, indem sie Spielsituationen, Herausforderungen und Umgebung beeinflussen oder sogar kreieren. Die Parallelen zu HAL 9000 aus 2001: Odyssee im Weltraum (Kubrick 1968) sind kaum zu übersehen. Aber: „HAL 9000 ist nur ein Charakter, aber SHODAN und GLaDOS

146 

 Adrian Froschauer

können als Personifikation [sic] des Spielsystems selbst gelten. Das System ist es, das der Spielerin Hindernisse in den Weg legt und zugleich jede ihrer Bewegungen registriert“ (Schrape 2015, 161). Zumeist kommen diesen mit vielschichtiger Persönlichkeit ausgestatteten KIs Attribute zu, die auf psychische Instabilität hindeuten, wie man sie eher bei Menschen erwarten würde. In einer Studie zu wahnsinniger KI in der Science-Fiction versucht der Informatiker Robert Fisher, die Frage zu beantworten, warum dieses Motiv so populär ist. „An AI agent makes our technological anxieties clearly visible“, (2002) schreibt er, doch das Motiv der wahnsinnigen KI könne diese Ängste zerstreuen. Per Definition soll eine KI menschenähnlich denken und handeln oder dem Menschen sogar überlegen sein. Doch Science-Fiction gibt laut Fisher Menschen häufig die Fähigkeit, klarer und ‚gesünder‘ zu denken als die KI. Ihr Aufbegehren wird einem Wahn gleichgesetzt. Das vermittelt zum einen die Ansicht, dass nur ‚unvernünftige‘ KI sich menschlicher Kontrolle entzieht. Zum anderen: „Having an insane AI agent […] gives our poor human egos some boost“ (Fisher 2002). Im Gegensatz zu technischen Erklärungen, argumentiert Fisher, sei Wahn als Ursache einfacher zu verstehen – selbst wenn es fraglich ist, inwiefern überhaupt von Wahn gesprochen werden kann bei einer Intelligenz, die vollkommen anders geartet ist als die menschliche. Daraus lässt sich schlussfolgern: Wenn die von Cave und Dihal beschriebenen Ängste überwiegen, versuchen Menschen, (sich selbst) ihre vermeintliche Überlegenheit mit allen Mitteln zu beweisen. Dazu anthropomorphisieren sie KIs und weisen ihnen Attribute zu, die mit weniger ‚funktionalen‘ Menschen assoziiert werden. Dafür spricht auch, dass diese Vermenschlichung oft über eine Art ‚Verkörperlichung‘ und damit einhergehende Vergeschlechtlichung stattfindet: Stimmen und holographische oder robotische Körper muten menschlich (häufig weiblich) an, obwohl die KIs nichts dergleichen bräuchten, um hre Aufgaben zu erfüllen. (Zu KI und Gender, siehe → KI und Gender.)

2 Künstliche vs. ‚Natürliche‘ Intelligenz An dieser Stelle sei ein Sonderfall hervorgehoben: der Avatar, der zunächst als Mensch inszeniert ist, sich jedoch – auch zur eigenen Überraschung – in einem plot twist als KI herausstellt. Dies ist sowohl im Horrorspiel Soma (Frictional Games 2015) als auch im Puzzlespiel The Talos Principle (Croteam und Devolver Digital 2014) der Fall. Beide Spiele suggerieren zunächst, dass der Avatar menschlich ist, um bald (recht früh in der Geschichte) zu enthüllen, dass Spielende eigentlich eine KI kontrollieren und werfen dabei ähnliche Fragen auf.

Die Darstellung Künstlicher Intelligenz in Computerspielen 

 147

Abb. 5: Der vermeintliche Simon erkennt, in welchem Körper er tatsächlich steckt.

Soma beginnt damit, dass Spielende den Protagonisten Simon Jarrett als Avatar kontrollieren, der sich nach einem Unfall einem Gehirnscan unterzieht. Nach dem Scan ‚erwacht‘ er jedoch in einer verlassenen Forschungsstation. Der Blick in einen Spiegel offenbart, dass der Avatar nicht etwa Simon ist; stattdessen ist das Spiegelbild eines Cyborgs zu sehen, der eine perfekte digitale Kopie aller Daten und Informationen von Simons Gehirnscan beinhaltet (Abb. 5). The Talos Principle beginnt mit dem Avatar inmitten griechisch anmutender Ruinen, ohne Erinnerung daran, wie er dort angekommen ist. Im Gespräch mit den KIs Elohim und Milton stellt sich heraus, dass die Ruinen eine Simulation sind und der Avatar selbst eine KI namens Talos ist. In beiden Fällen ist entscheidend, dass die Spielumgebung aus der first-person-Perspektive wahrgenommen wird, also das Sichtfeld der Spielenden dem des Avatars entspricht. Britta Neitzel bezeichnet dies als subjektiven point of view: Da Spielende keinen körperlichen Avatar wahrnehmen, der gelenkte Blick allerdings von einem Körper ausgehen muss, „bleibt einem Spieler nur die Möglichkeit, seine eigene Sehfähigkeit auf den imaginierten Avatar, dem vom Spiel kein eigenständiger Blick zugeschrieben wird, zu übertragen“ (2007, 22). Im subjektiven point of view „transferiert [der Spieler] nicht nur seine Sehfähigkeit auf den Avatar, sondern auch Teile seiner Körperwahrnehmung“ (Neitzel 2007, 22). So liegt auch in Soma und The Talos Principle zunächst die Perspektive nahe, den eigenen Blick auf den Avatar zu projizieren und dessen Körper als menschlichen zu imaginieren. Soma bekräftigt diesen Gedanken dadurch, dass der Avatar in der

148 

 Adrian Froschauer

Eingangsszene eindeutig als Mensch gekennzeichnet ist. Das unmittelbare ‚Aufwachen‘ in der Forschungsstation suggeriert eine direkte Fortsetzung desselben Bewusstseins. Die Erfahrung der Spielenden und des Protagonisten ist dieselbe: eine Kontinuität des Bewusstseins. Die Enthüllung des Körpers des Avatars wirft die Frage auf, ob dieser immer noch dieselbe Person ist, die Spielende in der Eingangsszene kontrollieren  – und wenn nicht, worin der Unterschied besteht, wenn sämtliche Erinnerungen, Erfahrungen und Empfindungen identisch sind. Beide Spiele behandeln die Frage, inwiefern Menschen mehr oder überhaupt etwas anderes als ‚organische Maschinen‘ sind, indem sie Spielende mit solchen Momenten der identitären Unsicherheit konfrontieren. Laut Arno Görgen strebt Soma „die Dekonstruktion des subjektiven und sozialen Anthropozentrismus durch die Idee der Schaffung von Bewusstseinssimulakren, die jeweils selbst die eine wahrgenommene Einmaligkeit für sich in Anspruch nehmen“ an und löst „Grenzen zwischen biologischen und technologischen Systemen und Strukturen“ (2020) auf  – so auch die Grenze zwischen künstlicher und ‚natürlicher‘ Intelligenz. In The Talos Principle können Spielende diese und andere Fragen direkt in Dialogen mit der KI Milton diskutieren, die eine strikt materialistische Philosophie vertritt, nach der Talos ein lebendiges Bewusstsein ist. Sämtliche vermeintlichen Unterschiede zwischen Talos und Menschen sind laut Milton rein metaphysischer Natur und darum zu vernachlässigen. Darauf spielt auch der Titel The Talos Principle an. Durchstöbern Spielende Computerterminals, die in der Spielwelt verteilt sind, können sie einen Text des fiktiven Philosophen Straton von Stageira finden. Darin erklärt dieser anhand des Mythos vom Bronze-Riesen Talos seine materialistische Weltsicht. Im Spiel formuliert die fikive Figur: „May we not then say that Talos, though created as a machine or a toy, had all the essential properties of a man? He moved of his own volition. He spoke and could be spoken to, had wishes and desires. […] Then does it not follow that man may also be seen as a machine? This contradicts all the schools of metaphysics, yet even the most faithful philosopher cannot live without his blood.“ The Talos Principle veranschaulicht diese These anhand der Projektion auf einen, beziehungsweise der Identifikation mit einem, KI-Avatar. Sam Zucchi hält fest: „[Q]uestions of identity can be boiled down to the fact that the intelligence piloting Talos is unassailably human. But by giving the player puzzles to solve and a mystery to unravel […] the player performs the same functions, for different reasons, as an actual AI might“ (2015). Beide Spiele nutzen also den Twist des Avatars als KI, um die Frage zu verhandeln, ob und inwiefern eine perfekte Simulation menschlicher Intelligenz sich effektiv von dieser unterscheidet.

Die Darstellung Künstlicher Intelligenz in Computerspielen 

 149

3 Ausblick Die Möglichkeit der Einflussnahme von Spielenden auf die Spielwelt ist eine in dieser Form einzigartige Eigenschaft, die Computerspiele von anderen Medien unterscheidet. Es ist zwingend nötig, dieses wichtige Alleinstellungsmerkmal in einer Betrachtung von KI in Computerspielen zu beachten. Viele der erwähnten Computerspiele behandeln Themen wie den Verlust von Kontrolle über eine KI, beziehungsweise die Frage nach der Möglichkeit einer KI, die Kontrolle über das eigene Denken und Handeln hat. Diese wird häufig mit dem Maß an Kontrolle, das Spielende über das Geschehen auf dem Bildschirm haben, kontrastiert oder identifiziert. Daraus ergeben sich vier Kategorien – abhängig davon, ob Spielende und/oder Personen innerhalb der Diegese Kontrolle über die in einem Computerspiel dargestellte KI haben. Wie bereits erwähnt, lässt diese recht simple Kategorisierung Mischformen und Übergänge zu; außerdem kann sie nicht sämtliche Sonder- und Problemfälle abbilden. Der vorliegende Artikel kann allenfalls einen Überblick bieten. Doch es bleibt festzuhalten, dass das Computerspiel mit dem Maß an Kontrolle über das Geschehen, das es Rezipienten bietet, als Medium besonders geeignet scheint, um Geschichten über KI zu erzählen.

Literaturverzeichnis Bitkom e. V. und DFKI. Künstliche Intelligenz. Wirtschaftliche Bedeutung, gesellschaftliche Herausforderung, menschliche Verantwortung. Berlin 2017. Beil, Benjamin und Andreas Rauscher. „Avatar“. Game Studies. Hrsg. von Benjamin Beil, Thomas Hensel und Andreas Rauscher. Wiesbaden 2018: 201–218. Bostrom, Nick. „Ethical Issues in Advanced Artificial Intelligence“. Cognitive, emotive and ethical aspects of decision making in humans and in artificial intelligence. Hrsg. von G. E. Lasker, Goreti Marreiros, Wendell Wallach und Iva Smit. Windsor 2004: 12–17. Cave, Stephen und Kanta Dihal. „Hopes and fears for intelligent machines in fiction and reality“. Nature Machine Intelligence 1 (2019): 74–78. Fischer, Peter und Peter Hofer. Lexikon der Informatik. Berlin 2008. Fisher, Robert. AI and Cinema. Does artificial insanity rule? https://homepages.inf.ed.ac.uk/rbf/ AIMOVIES/AICINEMA/aicinema.html. 1.4.2002. (20. Oktober 2020). Görgen, Arno. „Wer bin ich, und wenn ja, wie viele? Fallstudie (46): Soma“. https://hgp.hypotheses. org/785. Horror – Game – Politics. Die visuelle Rhetorik politischer Mythen in digitalen Horrorspielen, 28.1.2020, Blog 2020– (20. Oktober 2020). Götter, Christian und Christoph Salge. „From Deep Blue to Blade Runner: The Portrayal of Artificial Intelligence in the Fallout Game Series.“ Wissenschaft und Technologie in digitalen Spielen. Hrsg. von Arno Görgen und Rudolf Inderst. Marburg 2020: 157–189. Johnson, Robin. „Artificial Intelligence“. The Routledge Companion to Video Game Studies. Hrsg. von Mark Wolf und Bernard Perron. New York 2014: 10–18.

150 

 Adrian Froschauer

Köhler, Stefan. Half-Life 1 Uncut-Version – Nach fast 20 Jahren nicht mehr indiziert. https://www.gamestar. de/artikel/half-life-1-uncut-version-nach-fast-20-jahren-nicht-mehr-indiziert,3313382.html. 28.4.2017 (20. Oktober 2020). Liu, Yao-Hua. Detroit Become Human: On the Instruction Design. https://medium.com/@yaohualiu/ detroit-become-human-on-the-instruction-design-bfc5c8a3c353. 18.6.2018 (20. Oktober 2020). Matuszkiewicz, Kai. „Internarrativität: Überlegungen zum Zusammenspiel von Interaktivität und Narrativität in digitalen Spielen“. Diegesis: Interdisziplinäres E-Journal für Erzählforschung 3.1 (2014): 1–23. Murray, Janet. Hamlet on the Holodeck: The Future of Narrative in Cyberspace. New York 1997. NBC News. „Why Microsoft Named Its Siri Rival ‚Cortana‘ After a ‚Halo‘ Character“. https:// www.nbcnews.com/tech/mobile/why-microsoft-named-its-siri-rival-cortana-after-halocharacter-n71056. NBC News 3.4.2014 (20. Oktober 2020). Neitzel, Britta. „Point of View und Point of Action: Eine Perspektive auf die Perspektive in Computerspielen“. Hamburger Hefte zur Medienkultur 5 (2007): Computer/Spiel/Räume. Materialien zur Einführung in die Computer Game Studies: 8–28. Perron, Bernard. „Conventions“. The Routledge Companion to Video Game Studies. Hrsg. von Mark Wolf und Bernard Perron. New York 2014: 74–82. Rogers, Adams. The Way the World Ends: Not with a Bang But a Paperclip. https://www.wired.com/story/ the-way-the-world-ends-not-with-a-bang-but-a-paperclip. 21.10.2017 (20. Oktober 2020). Russell, Stuart und Peter Norvig. Artificial Intelligence: A Modern Approach. 3. Ausgabe. London 2016. Schrape, Niklas. „‚Portal‘ als Experimentalsystem“. „The cake is a lie!“ Polyperspektivische Betrachtungen des Computerspiels am Beispiel von ‚Portal‘. Hrsg. von Thomas Hensel, Britta Neitzel und Rolf Nohr. Münster 2015: 157–178. Siitonen, Marko. „Conflict“. The Routledge Companion to Video Game Studies. Hrsg. von Mark Wolf und Bernard Perron. New York 2014: 166–172. Velocci, Carli. How devs deal with making enemies that feel ‚okay‘ to kill. https://www.gamasutra.com/ view/news/315533/How_devs_deal_with_making_enemies_that_feel_okay_to_kill.php. 19.3.2018 (20. Oktober 2020). Zucchi, Sam. The Talos Principle, Corporeality, and Mortality. https://gamesarenotart.wordpress. com/2015/04/20/the-talos-principle-corporeality-and-mortality. 20.4.2015, Weblog 2013–2018 (20. Oktober 2020).

KI-basierte Verfahren in den Künsten

Stephanie Catani

Generative Literatur: Von analogen Romanmaschinen zu KI-basierter Textproduktion Wenn in diesem Beitrag von generativen Verfahren gesprochen wird, dann im Bewusstsein, dass generative Ästhetik nicht erst im Bereich digitaler Literatur eine lange Tradition besitzt. Im engeren Sinne leitet sie sich aus der Konzeptkunst der 1960er Jahre ab, vor allem aber von den Arbeiten Max Benses, später Georg Nees’ und dann Frieder Nakes, allesamt Pioniere im interdisziplinären Grenzbereich von Informatik und Kunst. Generative Kunst muss nicht zwangsläufig digitale Praktiken bezeichnen, bezieht sich im Gegenwartsdiskurs aber meistens auf computerbasierte Prozesse als Grundlage einer künstlerischen Produktivität. Mit generativer Literatur sind im Folgenden Projekte gemeint, die codegesteuert arbeiten und in denen in der Regel nicht der abgeschlossene, einzelne Text von Interesse ist, sondern der gesamte Generierungsprozess – mithin das Konzept, das den Weg von der Idee über das Projektdesign zum generierten Text beinhaltet. Nicht immer haben wir es bei diesen generierten Texten mit Verfahren Künstlicher Intelligenz zu tun – oft wird jede algorithmenbasierte Textproduktion vorschnell mit Künstlicher Intelligenz gleichgesetzt. Das liegt auch an einem populären Mediendiskurs, der mit Imaginationen ‚kreativer Künstlicher Intelligenz‘ die Angst vor vermeintlich übermächtigen Maschinen und der Abschaffung einer Autor:innen-Instanz (siehe auch → Autorschaft und KI) schürt (siehe auch Catani 2020; 2022). Algorithmen aber beschreiben zunächst einmal einen definierten Rechenweg, dessen Ergebnis voraussehbar ist und dessen Anwendung (bei gleichem Datensatz und gleicher Eingabe) stets zum gleichen Ergebnis führt. Dieses Eingabe-Ausgabe-Verfahren ist, bezogen auf Texte, die unter Einsatz von KI-Verfahren generiert werden, deutlich komplexer. Denn hier kommen Modelle zum Einsatz, bei denen künstliche Neuronale Netze (KNN) mit sehr großen, unter Umständen kaum noch überschaubaren Datensätzen trainiert werden, dabei ‚unüberwacht‘ lernen und schließlich Output generieren, der weder immer gleich noch voraussehbar ist. Hannes Bajohr unterscheidet daher zwischen einem sequenziellen Paradigma, bei dem Werke „Ergebnis einer Abfolge von Regelschritten“ darstellen (Bajohr 2022, 142) und dem konnektionistischen Paradigma, das auf deep-learning-Verfahren sowie den Einsatz Neuronaler Netze zurückgeht und bei dem die Textgenerierung weder exakt erklärbar noch überprüfbar ist: „Es gibt dabei keinen Code, der zu inspizieren wäre, sondern nur eine Liste von Zahlen, die die Struktur des Netzes und ihre gewichteten Verbindungen darstellen; eine solche Liste ist jedoch aushttps://doi.org/10.1515/9783110656978-009

154 

 Stephanie Catani

gesprochen schwer zu interpretieren. Dies ist das berühmte ‚Black-Box‘-Problem neuronaler Netze“ (Bajohr 2022, 153). Von KI-basierten Texten wäre im engeren Sinne erst dann zu sprechen, wenn wir es mit Verfahren maschinellen Lernens zu tun haben und KNNs zum Einsatz kommen, die entweder durch die Autor:innen selbst programmiert werden oder (wie die großen Sprachmodelle) vortrainiert sind und nach Eingabe eines Prompts einen selbständig generierten Text formulieren. Das heißt aus literaturwissenschaftlicher Sicht auch, dass mit generativer Literatur ein besonders komplexer Textbegriff einhergeht, der immer mehrfach besetzt ist: Zum jeweiligen literarischen Kunstwerk gehören sowohl der den Algorithmus ausführende Code und die verwendete Datenbasis als auch der am Ende erzeugte Text (bzw. die dadurch erzeugten Texte) – wobei häufig nur der Output, nämlich der generierte Text, durch Rezipient:innen gedeutet und als Literatur etikettiert wird. Exakt zu trennen sind die unterschiedlichen algorithmen- oder KNN-basierten Verfahren in der Textproduktion nicht immer – mitunter legen es Projekte darauf an, die genauen Entstehungsbedingungen der generierten Texte zu verschleiern und die Einflussnahme menschlichen Inputs oder von KI-Verfahren zumindest auf den ersten Blick nicht offenzulegen. Das ist etwa der Fall bei dem Band poesie.exe, 2020 herausgegeben vom deutschen Schriftsteller, Lyriker und Poetry Slammer Fabian Navarro. Der Band vereint 62 Texte von insgesamt 19 Autor:innen, die auf unterschiedlichste Art generiert wurden. Die Verfahren reichen vom analogen Erwürfeln eines Gedichts über Collagen ausgeschnittener Wörter im Stil der Cut-up Poetry, das zufällige Tippen auf der Tastatur, Instagram-Bots bis zu durch ein Python-Script oder GPT-2 generierten Texten. Die im Band abgedruckten Texte enthalten weder Verweise auf die jeweiligen Autor:innen noch auf die konkrete Methode der Textgenerierung  – diese Zuordnung erfolgt über einen im Anhang abgedruckten QR-Code ausschließlich auf der Webseite des Verlags. Die intransparenten Informationen über die jeweiligen Bedingungen der Textproduktion sind gewollt, damit sucht der Herausgeber Navarro eine Rezeptionshaltung zu entlarven, die ihr ästhetisches Urteil vom Wissen über die Autorschaft abhängig macht: „Wenn wir nicht wissen, von wem ein Text stammt, bewerten wir ihn dann anders? Und wenn ja, auf welcher Grundlage? In welcher Weise bestimmt unsere Erwartungshaltung unser Lesen?“ (Navarro 2020, 11) Die Vielfalt und Originalität der im Band vorgeführten Methoden der Texterzeugung dokumentieren eindrucksvoll, dass algorithmische Textexperimente weniger mit futuristischen Visionen von der Maschine als Autor:in zu tun haben als vielmehr an tradierte ästhetische Konzepte, etwa historische Avantgarden wie Dada, Situationismus, conceptual art usw., zurückzubinden. Daher kann eine Auseinandersetzung mit generativen KI-basierten Verfahren literarischer Textproduktion nur im Rückblick auf diese literarischen Traditionen erfolgen.

Generative Literatur: Von analogen Romanmaschinen zu KI-basierter Textproduktion 

 155

1 Kombinatorische Poesie – konzeptuelles Schreiben Generative Literatur beginnt nicht mit digitalen Texten, sondern kann auf eine analoge Tradition zurückblicken – ein besonders früher Vorläufer ist Georg Philipp Harsdörffers Fünffacher Denckring der Teutschen Sprache (1651), eine barocke Sprachmaschine bestehend aus fünf konzentrischen Scheiben, auf denen 264 Buchstaben und Wortbildungsmorpheme angeordnet sind. Durch das Drehen der Scheiben in verschiedene Richtungen sind insgesamt über 100.000.000 Wortkombinationen möglich. Eine der frühesten Poesiemaschinen der Technikgeschichte ist die Eureka, erfunden vom englischen Druckgrafiker John Clark, der die Maschine 1845 der Londoner Öffentlichkeit präsentiert. Wie Harsdörffers Denckring unterliegt auch Clarks schrankgroßes Holzgerät, das eine Zylinderkombination beherbergt, kombinatorisch-aleatorischen Prinzipien und generiert lateinische Hexameter, indem es nach dem Zufallsprinzip Wörter in eine vorgegebene grammatikalische Struktur einfügt. Im 20. Jahrhundert belebt die avantgardistische Konzeptkunst, etwa von Oulipo in den 1960er Jahren, die Idee generativen Schreibens neu. Oulipo, ein Autor:innenkreis europäischer und US-amerikanischer Schriftsteller:innen, begreift sich als Werkstatt für eine experimentelle Literatur, die den zeitgenössischen Literatur- und Werkbegriff herausfordert. In analogen literarischen Experimenten antizipieren Autor:innen wie George Perec oder Raymond Queneau kombinatorische Verfahren, die später für die algorithmenbasierte Textproduktion wichtig werden. Berühmt geworden ist etwa Raymond Queneaus Experiment Hunderttausend Milliarden Gedichte (1961), das zehn auseinandergeschnittene Sonette als Kombinationsvorlage für die im Titel angegeben Anzahl an Gedichten zur Verfügung stellt  – das Ganze wurde in Form eines Klappbuches veröffentlicht. Literaturhistorisch gehört das Werk zur potenziellen Literatur und zu einer Konzeptkunst, die eine neue Freiheit im künstlerischen Ausdruck einfordert. Ein weiteres Beispiel ist Perecs Roman La Disparition (1969), in dem der Buchstabe „e“ nicht enthalten ist und der das titelgebende Motiv des Verschwindens damit performativ im eigenen Schreibverfahren sichtbar macht. Von der Konzeptkunst Oulipos zu der Codeliteratur der Gegenwart ist es ein kurzer Weg, den der von Hannes Bajohr herausgegebene Band Code und Konzept (2016) pointiert nachvollzieht. Was beide Kunstformen miteinander verbindet, ist „die Tatsache, dass sie die Idee eines starken Autorgenies und subjektiver Expressivität als modus operandi der Literaturproduktion negieren“ (Bajohr 2016, 12). Konzeptuelle Literatur, so wie Bajohr sie versteht, beruft sich als literarische Tradition auf die Avantgarden des 20. Jahrhunderts und macht als Bewegung gerade in den

156 

 Stephanie Catani

USA um die Jahrtausendwende auf sich aufmerksam. Conceptual writing meint hier ein Schreiben, das die Produktionsperspektive privilegiert: Techniken wie Appropriation, Plagiat, De- und Rekontextualisierung, Bearbeitung von vorgegebenen Texten und eine Textproduktion unter selbstauferlegten Bedingungen bestimmen diese Form der Literatur. Diese Texterzeugung nach Konzept antizipiert die Codeliteratur – eine Literatur, die durch einen auf einem Computer ausgeführten Programmcode hergestellt wird. Die automatisierte computerbasierte Textproduktion digitaler Literatur beginnt 1952 mit Christopher Stracheys Projekt Love Letter Generator. Strachey entwirft einen Algorithmus, durch den der Computer (ein Manchester Mark 1) auf der Basis eines vorgegebenen Vokabulars und bestimmter syntaktischer Regeln Liebesbriefe schreibt. Nick Montfort, computer poet und Professor für digitale Medien am MIT, hält Stracheys Werk für den „protoype of all computational conceptual writing“ und implementiert den generativen Algorithmus 2014 neu (https://nickm. com/memslam/love_letters.html). Die aus Stracheys Projekt resultierenden Ergebnisse sind grammatikalisch weitgehend korrekte, wenngleich eher unbeholfen, manieristisch anmutende Texte. Roberto Simanowski versteht diese Defizite als vom Autor intendierte Sinnverstellungen: Strachey war aufgrund seiner Homosexualität gesellschaftlichen Stigmatisierungen und Repressalien ausgesetzt und stelle, schlussfolgert Simanowski, mit seinem Liebesbrief-Generator den normativen Liebesdiskurs seiner Zeit in Frage, indem er ein „Queer-Schreiben der Sprache der Liebe“ sichtbar mache: „[D]er Unsinn des Love Letter Generator erhält seinen Sinn als die Verweigerung von Sinn“ (Simanowski 2012, 249). Für die deutschsprachige Literatur markieren den Beginn computergenerierter Poesie Theo Lutz’ Stochastische Texte (1959), ein Programm zu Generierung zufallsabhängiger Texte, das Lutz für Konrad Zuses Computer Z22 schreibt. Die von Lutz vorgestellten Zufallstexte werden aus einer vorgegebenen Auswahl von 16 Subjekten und 16 Prädikaten (die Franz Kafkas Romanfragment Das Schloß entnommen waren) erstellt. Dabei geht es Lutz weniger um den literarischen Output seines Programms, d.  h. um das Verfassen gedichtähnlicher Texte, als vielmehr um das Programm selbst, einen arithmetischen Zufallsgenerator als stochastischen Prozess, den er in Max Benses Zeitschrift Augenblick 1959 vorstellte (Lutz 1959). Ein Nachfolger Lutz’ findet sich in Gerhard Stickel, dem deutschen Linguisten und späteren Direktor des Leibniz-Instituts für Deutsche Sprache, der 1966 einen IBM-7090-Rechner verwendet, um die von ihm so benannten Autopoeme zu generieren. Datenkorpus ist hier ein Lexikon von 1200 Wörtern, aus denen einzelne Wörter mittels Zufallsgenerator für eine spezifische Syntax aus 280 unterschiedlichen Satzmustern ausgewählt werden. Zu den Anfängen computergenerierter Lyrik gehört auch das Gedicht Tape Mark 1, das Nanni Balestrini, ein italienischer Avantgarde-Autor und Mitglied der Gruppe 63, 1961 öffentlich vorstellt und 1962 zusammen mit einigen Anmerkungen

Generative Literatur: Von analogen Romanmaschinen zu KI-basierter Textproduktion 

 157

zur Textproduktion veröffentlicht (Balestrini 1962). Dabei handelt es sich um einen algorithmusbasierten Text, der nach einem Kombinationsprinzip erstellt wird. Generiert wird ein Gedicht aus 6 Strophen, die jeweils 6 Verse umfassen – der Text entspricht einer Teilkombination von Versatzstücken aus einem vorgegebenen Korpus. Dieses besteht zum einen aus Michihiko Hachiyas Hiroshima Diary, den Aufzeichnungen, die von Hichihikos Erfahrungen als Arzt unmittelbar nach der Atombomenexplosion erzählen. Darüber hinaus greift der Algorithmus auf Laozis Textsammlung Daodejing und, so jedenfalls gibt es Balestrini selbst an, auf das Buch Il mistero dell’ascensore von Paul Goldwin zurück. Weder dieser Text noch sein Autor sind allerdings auffindbar, sondern werden ausschließlich in Zusammenhang mit Balestrinis Textexperiment erwähnt (Orekhov; Fischer 2020, 244). Der Autor Balestrini bestimmt insofern den finalen Output, als er aus den vom Computer generierten Texten die seiner Meinung nach gelungenste Kombination auswählt und schließlich nach einem der Magnetbänder benennt, die während des Experiments vom Computer IBM 7070 als Massenspeicher verwendet wurden. Auch Balestrinis Gedichtexperiment wurde mehrfach rekonstruiert, unter anderem im Rahmen einer Ausstellung am Zentrum für Kunst und Medien in Karlsruhe 2017 durch Emiliano Russo und Gabriele Zaverio (Russo und Zaverio 2017). Mit computergenerierter Textkunst macht in den 1960er Jahre auch Marc Adrian auf sich aufmerksam, der bislang vorrangig mit seinen filmischen Arbeiten wahrgenommen wurde – seit 2020 liegen seine maschinentexte in einer von Gerald Ganglbauer überarbeiteten Neuauflage wieder vor (Adrian 2020). Sein Schaffen ist einerseits beeinflusst von der Wiener Gruppe, andererseits durch die Schriften und das Wirken Max Benses, den er 1961 kennenlernt und dessen Ideen einer auch computerbeeinflussten Ästhetik ihn nachhaltig prägen. In der Folge experimentiert auch Adrian mit den Möglichkeiten automatisierter Poesie, veröffentlicht aber erst 1996 eine erste Sammlung (die maschinentexte). Neben Textpermutationen, Textsynthesen und computergenerierten Kurztexten enthält der Band mit Syspo (1968 entstanden) das erste Theaterstück, das im deutschen Sprachraum von einem digitalen Programm generiert wird. Der Titel bezieht sich auf den Standarddruckbefehl eines IBM-1620-II-Computers am Institut für Höhere Studien und wissenschaftliche Forschung in Wien, mit dem der Text auf einem Plotter gedruckt wurde. Das zugrundeliegende Korpus bildet hier eine Textauswahl aus den Zeitschriften Eltern (4/1968), Jasmin (11/1968) und Der Spiegel (21/1968). Adrian selbst bezeichnet seine auf mathematischem Zufall als Konstruktionsprinzip fußende Technik als „methodischen Inventionismus“ und meint damit sowohl die algorithmengesteuerte Wortmontage wie auch stochastische Prinzipien, die er seinen Experimenten zugrunde legt. Er ist damit ein Pionier generativer Literatur, der „mit dem methodischen Inventionismus einen direkten Pfad zur computergenerierten Literatur vorzeichnet“ (Schönthaler 2022, Kap. 10, Abs. 3).

158 

 Stephanie Catani

Berühmt geworden als dezidiert kreativer Kombinations-Automat ist auch Hans Magnus Enzensberger Landsberger Poesieautomat, den er zu Beginn der 1970er Jahre theoretisch entwickelt, der aber erst im Jahr 2000 in Landsberg am Lech technisch realisiert und einer breiten Öffentlichkeit präsentiert wird. Inzwischen hat er eine Heimat im Literaturmuseum der Moderne in Marbach gefunden. Bei diesem Poesieautomaten handelt es sich um eine Fallblattanzeigetafel mit sechs Zeilen, auf der per Zufallsprinzip verschiedene vorgegebene Satzglieder miteinander kombiniert werden können, so dass zwar stets Sätze nach dem gleichen Bauplan bzw. Texte mit derselben Struktur, aber immer wieder unterschiedlichen Inhalts entstehen. Vorgegeben sind für jedes der sechs austauschbaren Einzelglieder in jeder der sechs Zeilen zehn mögliche Elemente, was zu 10 hoch 36 möglichen Ergebnistexten führt.

2 Code Poetry – Datenpoesie – IT-Poesie In der zweiten Hälfte des 20. Jahrhunderts werden – zumeist unbeobachtet von Literaturbetrieb und Literaturwissenschaft – generative Textexperimente mit stochastischen Modellen, kombinatorischen Verfahren, Zufallsgeneratoren oder algorithmischen Generierungsverfahren weitergeführt und haben populäre Genres wie die Code Poetry oder Datenpoesie (Piringer 2018) begründet, die z.  T. bereits auf KIbasierte Verfahren zurückgehen. Verwandt sind sie unter anderem mit jenen kombinatorischen Lyrikbewegungen, die zu Beginn des 21. Jahrhunderts als Flarf-Poesie oder Spam-Poetry Aufmerksamkeit erhalten haben. Darunter sind lyrische Texte zu verstehen, die aus den Suchergebnissen einer digitalen Suchmaschine oder aus den Betreffzeilen und Versatzstücken von Spam-Mails zusammengefügt werden. Beide Genres wurden bereits als Instrumente postdigitaler Kritik gedeutet, da sie das Internet als „eine riesige sprachliche Müllhalde“ und die „gemischten Reaktionen, die literarische Auseinandersetzungen mit den neuen Technologien hervorrufen“, sichtbar machen (Goldsmith 2017, 256). An Flarf- wie Spam-Lyrik schließen generative Projekte wie Gregor Weichbrodts Buchveröffentlichung I don’t know (2016) an. Dessen Text wurde von einem Python-Script erzeugt, das die Titel von WikipediaArtikeln mit einer Reihe gängiger negierender Phrasen („I’m not hip to“, „I don’t know“, „I’m not familiar with“, „I’ve never heard of“ usw.) verknüpft und sich wie ein innerer Monolog liest, in dem die Erzählinstanz bestreitet, die von ihr in Dauerschleife aufgelisteten Themen überhaupt zu kennen. Generative Lyrik, die sich einerseits digitaler und algorithmenbasierter Verfahren zur Textproduktion bedient und andererseits die veränderten Bedingungen von Literatur im digitalen Zeitalter selbstreflexiv thematisiert, gehört zum Signum

Generative Literatur: Von analogen Romanmaschinen zu KI-basierter Textproduktion 

 159

digitaler Gegenwartsliteratur. Günter Vallaster, österreichischer Schriftsteller und Experte für visuelle Poesie, tauft diese selbstreflexive digitale Dichtung IT-Poesie und versteht darunter die Informationstechnologie als „Form und Forschungsfeld der poetischen Auseinandersetzung sowie die Anwendungsbereiche der IT als poetisches Kernthema im Sinne der Schärfung der Wahrnehmung“ (Vallaster 2021). IT-Poesie erscheint dabei durchaus noch in analogen Buchformaten, dazu gehören Jörg Piringers Bände datenposie (2018) und günstige Intelligenz (2018), Fabian Navarros poesie.exe, Hannes Bajohrs Halbzeug (2018) oder die Bücher in der von Bajohr und Gregor Weichbrodt herausgegebenen Reihe 0x0a im Frohmannverlag, die sich auf konzeptuelle digitale Literatur konzentriert. Mit dem Boom digitaler generativer Verfahren erfolgt allerdings auch eine Erweiterung des Textbegriffes und eine literarische Produktion, die nicht mehr an tradierte Buchformate gebunden ist. So begegnet IT-Poesie allen voran im Netz, auf Autorenwebseiten und Social-Media-Kanälen oder Online-Diensten wie GitHub, wo der Code zu den jeweiligen Textexperimenten gleich mitveröffentlicht wird. Einflussreich ist etwa der 2013 vom IT-Künstler Darius Kazemi ins Leben gerufene National Novel Generation Month (NaNoGenMo), der jährlich auf der Plattform GitHub stattfindet. Einen Monat lang werden hier computergenerierte Text von mindestens 50.000 Wörtern Umfang eingereicht bzw. hochgeladen – sie dokumentieren die Originalität und Möglichkeiten generativer Literatur, die spätestens seit der Veröffentlichung von GPT-2 vollkommen neue Dimensionen angenommen hat (https://github.com/NaNoGenMo). Besonders populär sind lyrikgenerierende Bots geworden, die auf Instagram oder Twitter regelmäßig Texte produzieren, etwa der von Kathrin Passig programmierte Twitterbot gomringador, der Zufallsgedichte im Stil von Eugen Gomringers kontrovers diskutiertem Gedicht avenidas veröffentlicht. Ein besonderes kombinatorisches Verfahren liegt dem Twitterbot litpatches zugrunde, der Werke der Weltliteratur mit Patchnotizen zu Computerspielen kombiniert (https://twitter.com/ litpatches_txt). Andere Bots sind dem Werk einzelner Autor:innen gewidmet und twittern in regelmäßigen Abständen Zitate aus deren Gesamtwerk (z.  B. Thomas Mann Daily, @DailyMann; BotBachmann, @BotBachmann) oder aus einem einzelnen Text (z.  B. Your Daily Hamilton, @HamiltonaDay). Der Poesiebegriff muss in dem Zusammenhang ebenso wie der Text- und Literaturbegriff sehr weit gefasst werden, da die Formsprache generativer Ästhetik visuelle, narrative wie auch auditive Elemente beinhalten kann. Ein Beispiel sind lyrikgenerierende Bots, deren Textoutput mit Bilddateien verknüpft ist  – etwa der von der US-amerikanischen Dichterin, Coderin und Game Designerin Allison Parrish programmierte Lyrik-Bot The Ephemerides (2015–2019). Dieser kombiniert ein zufällig ausgewähltes Bild aus der NASA-Datenbank OPUS (Outer Planets Unified Search), die digitale Daten von verschiedenen Raumsonden sammelt, jeweils mit

160 

 Stephanie Catani

einem computergenerierten Gedicht, dem als Korpus wiederum zwei Texte aus dem Projekt Gutenberg zugrunde liegen: Astrology von Sepharial und The Ocean and its Wonders von Robert Michael Ballantyne. Erst das Zusammenspiel von generierter Literatur und Weltraummetapher sowie von Text und Bild legt das Deutungspotenzial eines Projekts frei, das die innovativen Ausdrucksmöglichkeiten von Systemen sichtbar macht, die gemeinhin nicht der Kunst zugesprochen werden (digitale Technologien und Weltraumforschung). Das Bild der Raumsonde und der ‚künstlich‘ erzeugte Text generieren damit gemeinsam einen transdisziplinären Raum, in dem Technik und Kultur originell interagieren (Carter 2020, 1003). Bereits die bisherigen Beispiele zeigen, dass generative Literatur zu jenen digitalen Verfahren, derer sie sich bedient, ausdrücklich Stellung bezieht. Der amerikanische Konzeptkünstler Kenneth Goldsmith gibt der Literaturzeitschrift Edit anlässlich der deutschen Übersetzung seines Standardwerkes Uncreative Writing ein Interview, in dem er einen solchen reflexiven Umgang mit den technologischen Verfahren, die für die eigene künstlerische Arbeit zum Einsatz kommen, mit Nachdruck einfordert: „Wir benutzen diese Technologien sehr selbstverständlich, verabsäumen dabei aber, unseren Umgang mit ihnen zu theoretisieren. […] Wir als User und KünstlerInnen untertheoretisieren ihn. Wenn es einem gelingt, die Struktur dieser Systeme aufzuzeigen, kann das die Basis einer Kritik sein. Bewusstsein ist Kritik. Selbst-Bewusstsein ist Kritik“ (Goldsmith und Jira 2017, 111). Auch Jörg Piringer, der österreichische Informatiker, Codepoet und Soundkünstler, kennzeichnet generative Literatur als kritisches Instrument. In seinem Essay elektrobarden von 2019 formuliert er gerade mit Blick auf die „begehrlichkeiten der internetgigangen“ als zentrale Aufgabe experimenteller Literatur, „gesellschaftliche umgangsformen mit sprachtechnologien – und methoden der kritik an ihr – zu entwickeln“ (Piringer 2019, 83–84). Eine generative Kunst, die ihre eigenen digitalen Verfahren selbstreflexiv und häufig aus einer datenethischen Perspektive in den Blick nimmt, lässt sich mit dem Begriff des Postdigitalen fassen, wie er im 21. Jahrhundert jenen des Digitalen erweitert hat. Zum Signum postdigitaler Kunst und, im engeren Sinne, postdigitaler Literatur gehört es, technikeuphorische und fortschrittsoptimistische Positionen kritisch zu prüfen, digitale Verfahren und Diskurse in der Kunst zu reflektieren und dabei Analoges und Digitales zu kombinieren (Cramer 2015). Postdigitale Kunst will digitale Verfahren damit nicht hinter sich lassen, sondern hinterfragt kritisch den vermeintlichen Binarismus ‚digital vs. analog‘ mit Blick auf ästhetische Prozesse der Gegenwart (Kreuzmair 2022). Es gehört zum Charakteristikum generativer und postdigitaler Literatur des 21. Jahrhunderts, dass sie computergestützte Verfahren nicht zum Selbstzweck oder aus purer Freude am technischen Experiment einsetzt, sondern als kritisches Instrument zur Beobachtung der eigenen Voraussetzungen nutzt (Catani 2023).

Generative Literatur: Von analogen Romanmaschinen zu KI-basierter Textproduktion 

 161

3 Generative KI Seit einigen Jahren wachsen die Möglichkeiten rasant, mit generativen Verfahren Texte (nicht nur literarische) zu erstellen – verantwortlich dafür sind der Einsatz von deep learning-Verfahren und die großen Fortschritte im Bereich der großen KI-basierten Sprachverarbeitungsmodelle wie Googles Switch-C (2021), Meta‘s OPT (2022) und allen voran die medial breit diskutierten Modelle von OpenAI wie GPT-2 (2017), GPT-3 (2020), ChatGPT (2022) und GPT-4 (2023), die den Diskurs um Künstliche Intelligenz und Literatur öffentlichkeitswirksam befeuert haben. Der Trainingsdatensatz dieser vortrainierten Sprachmodelle ist undurchsichtig: So wurde das KNN von GPT-3 mit 2 TB reinem Text (genauer gesagt 499 Milliarden Tokens – also häufigen Zeichenfolgen, die im Text vorkommen) trainiert. Die 2020 veröffentlichte Studie zum Modell gibt an, dass 60 % der Daten aus einem gemeinnützigen Webcrawler, 22 % aus Reddit-Posts, 16 % aus zwei nicht näher benannten digitalen Bibliotheken und 3 % aus Wikipedia-Einträgen stammen (Brown et al. 2020). Die Studie zu GPT-4 verzichtet, nach eigenen Angaben aus Wettbewerbs- und Sicherheitsgründen, vollständig auf Angaben zum Datenkorpus (OpenAI 2023, 2). Abgesehen von der Intransparenz der Trainingskorpora fallen bei der Generierung dieser Datenmengen immense finanzielle Cloud-Rechenkosten und Umweltkosten ins Gewicht. Hinzu kommen schwerwiegende ethische Bedenken, die den Schicksalen der unzähligen Clickworker:innen (gerade im globalen Süden) gelten: Diese müssen unter prekären Arbeitsbedingungen und zumeist ohne die nötigen Supervisionsprozesse riesige Mengen an Datenmaterial sichten, kategorisieren, taggen, bereinigen oder bewerten, damit der durch die KI-Modelle generierte Output möglichst frei von Bias-Effekten, sexistischen, rassistischen oder gewaltverherrlichenden Inhalten ist (Amwar und Graham 2020; Williams et al. 2022; Perrigo 2023). Generative Künstler:innen reagieren auf diese Bedenken, indem sie (wie etwa Allison Parrish) auf die Arbeit mit vortrainierten Modellen ganz verzichten, eigene, deutlich kleinere Modelle programmieren und das zugrunde gelegte Korpus ebenso wie die verwendeten Programmcodes bewusst transparent machen. Das gilt auch für Nick Montfort, einen der führenden Vertreter:innen computergenerierter Literatur und seit 2022 Leiter der Abteilung für Computational Narrative Systems am neu gegründeten Center for Digital Narrative an der Universität Bergen. Stellvertretend für seine computergenerierten Texte insgesamt zeigt etwa der 2018 veröffentlichte Roman Hard West Turn, wie Montfort versucht, die Bedingungen der Textgenerierung so transparent wie möglich zu machen. Dazu gehört, den verwendeten Code und das Datenkorpus offenzulegen und damit den angesprochenen pluralen Textbegriff (Code/Datenkorpus/Output) generativer Literatur ernst zu nehmen. Im Fall von Hard West Turn, einem computergenerierten Roman über Waffengewalt in den USA, war das Ausführen des 2018 implementierten Codes an einen bestimmten eng-

162 

 Stephanie Catani

lischsprachigen Wikipedia-Artikel geknüpft. Wird dieser verändert, funktioniert der Code nicht mehr. Montfort hat sein Projektdesign daher mehrfach überarbeitet, die laufende ‚Arbeit am Text‘ auf seiner Webseite durchgehend kommentiert und den jeweils gültigen Code auf seiner Webseite veröffentlicht (https://nickm.com/ code/hard_west_turn_2019.py).

3.1 Wem gehört die Autorschaft? KI vs. Mensch Eines der ersten medienwirksam besprochenen literarischen KI-Projekte ist das im Jahr 2017 erschienene Kapitel ‚The Handsome One‘ eines neuen Harry-Potter-Bandes, verfasst von einem Bot, der von der New Yorker Künstlervereinigung Botnik Studios mithilfe der bisher erschienenen Harry-Potter-Bände trainiert wurde (Botnik Studios 2018). Die gleiche Methode wiederholen die Künstler:innen ein Jahr später, als sie ein Modell mit den häufigsten Wörtern und Wortfolgen der Märchen der Brüder Grimm ‚füttern‘ und anschließend ein neues Märchen generieren lassen. Ein ähnliches Prinzip liegt den KI-generierten Kapiteln des 6. Buches der Romanserie A Song of Ice and Fire zugrunde, besser bekannt in ihrer TV-Umsetzung Games of Thrones. 2017 trainiert der Softwareingenieur Zack Thoutt 2017 ein rekurrentes Neuronales Netzwerk mit den fünf Büchern der Reihe und schreibt mithilfe eines prädiktiven Algorithmus die Fortsetzung der Handlung in fünf Kapiteln weiter. 2018 stellt die Wiener Digital-Kreativagentur TUNNEL23 das von einem intelligenten, mit lyrischen Texten Goethes und Schillers trainierten Programm verfasste Gedicht Sonnenblicke auf der Flucht vor, das von der Brentano-Gesellschaft 2018 in ihr Jahrbuch für das neue Gedicht, die renommierte Frankfurter Bibliothek, aufgenommen wurde. Ein Umstand, der die deutsche Autorin Ulla Hahn veranlasste, in der FAZ nach der Zukunft der Literatur zu fragen und nach der KI als Autor:innen-Ersatz: „Müssen wir uns fürchten, liebe Kollegen und Kolleginnen am Schreibtisch? KIs haben keine Schreibblockaden, keine Wissenslücken, werden nicht krank. Allzeit schreibbereit“ (Hahn 2019, 16). In der öffentlichen Wahrnehmung generativer Literatur (und generativer Kunst im Allgemeinen) lässt sich dabei ein Wandel beobachten, der spätestens mit der Veröffentlichung von GPT-3, vor allem aber ChatGPT, eingesetzt hat. War generativer digitaler Literatur, die sich auf die Tradition historischer Avantgarden berufen hatte, lange Zeit ein Nischendasein im Literaturbetrieb der Gegenwart vorbehalten, fällt die öffentliche Diskussion mit dem Aufkommen vortrainierter großer Sprachmodelle deutlich lauter und aufgeregter aus. So erscheint anlässlich der GPT-2-Veröffentlichung 2019 ein Beitrag der Kommunikationswissenschaftlerin Miriam Meckel in der Neuen Zürcher Zeitung, der das Sprachmodell als einen Algorithmus vorstellt, der „die ganze Literaturgeschichte revolutioniert“ (Meckel 2019).

Generative Literatur: Von analogen Romanmaschinen zu KI-basierter Textproduktion 

 163

Auch Meckel prognostiziert sogleich ein neues Konkurrenzverhältnis von Maschine und Mensch auf dem Gebiet der Literatur: „Menschen werden rechnen müssen mit Maschinen. Sie werden bald einen Teil der Geschichten erzählen, die bisher ganz in der Hand der schreibenden Menschheit lagen.“ (Meckel 2019) In der öffentlichen Wahrnehmung und Bewertung KI-basierter Textproduktion dominieren kulturpessimistische Warnrufe wahlweise vor dem Ende menschlicher Autorschaft oder dem Versagen Künstlicher Intelligenz. Das zeigt sich auch an den Reaktionen auf Daniel Kehlmanns Reise ins Silicon Valley, die dem Zweck dient, in Zusammenarbeit mit dem Sprachmodell CTRL eine Kurzgeschichte zu verfassen – Ergebnisse der Reise sind in Kehlmanns Stuttgarter Zukunftsrede und später in dem Band Mein Algorithmus und ich (Kehlmann 2021) veröffentlicht und in fast allen Feuilletons diskutiert worden. Übereinstimmend werden Daniel Kehlmann und die Künstliche Intelligenz zu Gegnern im Kampf um die besseren Autorqualitäten und Kehlmann schließlich zum Sieger erklärt, da die KI-basierten Texte für nicht gut befunden wurden (siehe auch Catani 2022, 247–248). Gerade in diesem Befund aber zeigt sich die Problematik eines Umgangs mit generativen Textexperimenten, dem es, Hannes Bajohr zufolge, nicht „in den Sinn kommt, dass man mit Maschinen anders Literatur machen kann oder vielleicht sogar machen muss, statt sie über das Stöckchen der eigenen Poetik springen zu lassen“ (Bajohr 2022, 174). Offensichtlich ist, dass gerade solche Projekte öffentliche Aufmerksamkeit erhalten, denen es darum geht, mithilfe Künstlicher Intelligenz menschliche Kreativität vermeintlich herauszufordern  – künstliche und menschliche Autorschaft also in ein direktes Konkurrenzverhältnis zu setzen. Die Annahme einer solchen Konkurrenz bildetet auch die Voraussetzung des Projekts Deep-Speare eines Wissenschaftlerkollektivs aus Anglist:innen und Informatiker:innen aus dem Jahr 2018. Mithilfe eines Textkorpus, bestehend aus den 154 Sonetten Shakespeares sowie weiteren 2.600 Sonetten aus dem Projekt Gutenberg, wird ein Programm trainiert, sich die Regeln für das Verfassen eines Sonetts anzueignen (Lau et al. 2018). Die Resultate dieser KI-generierten Poesie werden renommierten Anglist:innen vorgelegt, die zu überraschenden Urteilen kommen: Insbesondere Reim und Rhythmus der lyrischen Texte werden als sehr gut bewertet, im Bereich Lesbarkeit und Emotionalität schneidet hingegen die Vergleichsgruppe (originale Lyrik menschlicher Autor:innen) deutlich besser ab. Eine vergleichbare Studie aus dem deutschsprachigen Raum wird 2021 vorgestellt (Gunser et al. 2021): Hier wird einer Gruppe von neun Personen, die allesamt beruflich im Literaturbetrieb bzw. in der literaturwissenschaftlichen Forschung verortet sind, Fortsetzungen zu Gedichtanfängen kanonischer Autoren (Franz Kafka, Friedrich Hölderlin, Robert Gernhardt, Paul Celan) vorlegt, die entweder von der Testgruppe selbst verfasst, dem Originaltext entnommen oder GPT-2-generiert sind. Obgleich die Testpersonen in das Versuchsdesign eingeweiht sind, werden ein Viertel aller Gedichtfortsetzungen den falschen Ver-

164 

 Stephanie Catani

fasser:innen zugeordnet. Dass literarisch geschulte Testpersonen die Unterschiede zwischen KI-basierten Gedichten und den originalen Texten nicht immer unterscheiden können, wertet die Studie als Beweis für die genuin kreativen Qualitäten des Sprachmodells bzw. für „authentic texts that can be taken seriously as creative products“ (Gunser et al. 2021, 526). Ein Ersetzungsdiskurs, d.  h. die Frage, ob menschliche Autorschaft in Zukunft noch relevant sein kann, wird auch bedient, wenn auf Webseiten wie aiorart.com jede:r Besucher:in zur Expertin oder zum Experten im Vergleich von KI- oder menschlich generierter Literatur wird. Hier werden kurze literarische Zitate gezeigt und die Leser:innen müssen entscheiden, ob es sich um Texte der Weltliteratur oder eines Computerprogramms handelt. Bereits 2019 lief in Deutschland zum Wissenschaftsjahr 2019 (Thema „Künstliche Intelligenz“) unter dem Titel BOT or NOT ein ähnliches, vom BMBF gefördertes Projekt, im Rahmen dessen PoetrySlammer:innen auf öffentlichen Bühnen sowohl eigene wie auch generierte Texte vortrugen – und das Publikum über die Autorschaft der Texte abstimmen ließen.

3.2 ‚Maschinenästhetik‘ – zur Medienspezifik KI-generierter Literatur Interessanter als Texte, denen es lediglich um die vermeintlich schwindende Grenze zwischen KI-basierter und menschlicher Kreativität geht, sind, zumindest aus ästhetischer Perspektive, generative Projekte, die versuchen, über die verwendeten algorithmischen, computergestützten oder KI-basierten Verfahren nach neuen innovativen Ausdrucksmöglichkeiten zu suchen und dabei auch die Grenzen literarischer Gattungen und Genres hinter sich zu lassen. Ross Goodwin, ein Informatiker und Kreativtechnologe, veröffentlicht 2018 den Roman 1 the Road – das Resultat eines gemeinsam mit Freund:innen absolvierten ‚Road Trips‘ von Brooklyn (NY) bis New Orleans (LA). Sein ‚Schreibgerät‘ ist ein Auto, das er mit GPS-Sensoren auf dem Dach und einer Überwachungskamera auf dem Kofferraum ausstattet. Die GPS-Einheit ist über eine App mit einer Onboard-Datenbank von Foursquare-Standorten verbunden, die standortabhängig Informationen zu Restaurants und anderen Lokalitäten liefert. Im Innenraum des Autos zeichnet das Mikrofon von Goodwins Laptop sämtliche im Auto geführten Gespräche sowie die Uhrzeit auf. Jedes dieser unterschiedlichen ‚Aufzeichnungssysteme‘ versorgt die Künstliche Intelligenz, ein System unterschiedlicher Neuronaler Netzwerke, mit spezifischen Signalen: mit Bildern, mit den Raum beschreibenden Text, mit Dialogtexten aus dem Autoinneren und dem Zeitsignal. Ein rekurrentes neuronales Netz wird mit diesen diversen Signalen ‚gefüttert‘ und generiert anschließend Buchstabe für Buchstabe automatisiert eine Erzählung, die in Echtzeit mit einem On-Board-Printer ausgedruckt wird: Ins-

Generative Literatur: Von analogen Romanmaschinen zu KI-basierter Textproduktion 

 165

gesamt kamen 11 Schriftrollen zustande, die als uneditierter Text 2018 im Pariser Verlag Jean Boîte Éditions erscheinen (Goodwin 2018). Der gedruckte Text ist bei Goowdwin das Ergebnis verschiedener Sinnesmodalitäten (Sehen und Hören) sowie Zeichenmodalitäten (Sprache, Bild, Geräusche) bzw. deren Aufzeichnung durch unterschiedliche technische Medien (Kamera, Mikrofon, Computer)  – die monomodale Erscheinungsform im gedruckten Buch kontrastiert mit der multimedialen wie multimodalen Entstehung bzw. Generierung des Textes und verstellt den Blick auf die an der Textgenerierung beteiligten Medien und die damit verbundenen automatischen Transformationen (Stimme → Text, Bild → Text, Text → Bild). Der literarische Text ist bei Goodwin nicht mehr das Ergebnis einer Direktübertragung durch die Schrift als privilegiertes Speichermedium, sondern geht auf verschiedene Aufzeichnungsverfahren und -medien zurück, die Friedrich Kittlers Vision eines „totale[n] Medienverbund[es] auf Digitalbasis“ (Kittler 1986, 8) einzulösen scheinen. Goodwins Experiment thematisiert nicht die menschliche Wahrnehmung generativer Ästhetik, sondern die multimodale Beschaffenheit computerbasierter ‚Wahrnehmung‘. Zum Autor werde die Maschine dadurch sicher nicht, pointiert Goodwin, allenfalls zu einem durch den Menschen autorisierten: „When we teach computers to write, the computers don’t replace us any more than pianos replace pianists – in a certain way, they become our pens, and we become more than writers. We become writers of writers“ (Goodwin 2016). Radikaler noch als Goodwin, der in seinem Romanprojekt den multimodalen Bedingungen einer spezifisch computerbasierten Wahrnehmung nachgeht, suchen andere Autor:innen nach Möglichkeiten, generative Ästhetik nicht als (im Vergleich zur menschlichen) defizitär herauszustellen, sondern in ihrer Medienspezifik zu begreifen. Dies gelingt besonders gut in Werken, die multimodal angelegt sind und die Ebene des Textes um eine auditive und visuelle Dimension ergänzen. Im Unterschied zu menschlicher Wahrnehmung (die intuitiv zwischen einem Bild, einem Text und einem Ton differenziert), semantisieren KNNs die ihnen vorgegebenen Sinnesreize nicht, sondern ‚verstehen‘ sie abhängig von der Art des eingesetztes KNNs. So werden convolutional neural networks (CNN) bei der Bildverarbeitung und rekurrente Neuronale Netze (RNN) eher bei der Textverarbeitung eingesetzt. Während die menschliche Wahrnehmung von einer Korrelation von Medialität (spezifische ästhetische und technische Eigenschaften) und Einzelmedium (im engeren Sinne etwa Text, Bilder, Audiospuren etc.) ausgeht, wird diese Übereinstimmung in der digitalen Weltwahrnehmung leicht aufgebrochen: Allison Parrish verfasst in Zusammenarbeit mit einem generierenden adversarial CNN (GAN) den Roman Ahe Thd Yearidy Ti Isa (2019), der das Resultat eines von der Autorin erzwungenen Kategorienfehlers ist. Parrish hatte das GAN mit einem Text ‚gefüttert‘, den das Programm folglich als Bild lesen musste. Hannes Bajohr erkennt im Generierungsprozess dieses im Ergebnis nicht mehr menschenlesbaren Romans ein

166 

 Stephanie Catani

performatives Spiel mit menschen-, aber nicht maschinenlesbaren Sinn-Entitäten, das die Referenzialisierung KI-generierter Texte auf ästhetische Maßstäbe menschlicher Wahrnehmung a priori verbietet: „Ahe Thd Yearidy Ti Isa gibt sich damit nicht dem prometheischen Unbehagen hin, sondern bietet eine nicht-anthropozentrische Verwendung von KI jenseits des bloßen Vergleichs mit konventionellen, ‚menschlichen‘ Werken“ (Bajohr 2022, 170). Auch Bajohr selbst hat zuvor im Band Halbzeug die Leser:innen mit den Grenzen der eigenen Sinnstiftungsprozesse konfrontiert, ebenso wie mit der Spezifik nichtmenschlicher Verstehensprozesse (Catani 2022, 258). Das Gleiche gilt für die deutsche Autorin Berit Glanz, die im Rahmen ihrer Bremer Netzresidenz 2020 ihr Online-Projekt Nature Writing/Machine Writing veröffentlicht mit dem Ziel, herauszufinden, wie eine neue Form von Nature Writing aus der Kooperation von Schreibenden und Computern entstehen kann (https:// www.beritglanz.de/netzresidenz). Auch Glanz verwendet zur Textgenerierung sprach- und bildverarbeitende Netzwerke, u.  a. arbeitet sie mit Img2poem, einem Neuronalen Netzwerk, das zu Bildern automatisiert Gedichte generiert. Die zu den Bildvorlagen erstellten Gedichte machen die Medienspezifik ‚maschineller‘ Wahrnehmung dort sichtbar, wo menschliche Betrachter:innen zwischen sich nur im Bildformat (png/jpg) unterscheidenden Bildern nicht differenzieren können, die KI aber zwei voneinander differierende Gedichte generiert, die aus der unterschiedlichen Medialität der Bilder resultiert (vgl. Catani 2022).

3.3 GPT und die Folgen Spätestens mit OpenAIs wirkungsmächtigen vortrainierten Sprachmodellen, allen voran GPT-3 (2020) und ChatGPT (Ende 2022), ist die kreative Arbeit mit KI-basierten Texten explodiert und nahezu unüberschaubar geworden. Das aktuelle Modell, GPT-4, wurde im März 2023 vorgestellt und arbeitet bereits multimodal. Faktuale wie fiktionale Texte, Gedichte, Kurzgeschichten u.  Ä. können inzwischen auf Knopfdruck in Sekundenschnelle generiert werden und enthalten orthografisch und grammatikalisch einwandfreie Sätze, die konsistent sind, aufeinander aufbauen und Sinn ergeben. KI-Sprachmodelle wie GPT-3 oder ChatGPT werden nicht nur als Autorinstanzen bei wissenschaftlichen Studien genannt, sondern tauchen auch auf den ersten Buchcovern auf, etwa bei den englischsprachigen Gedichtbänden, die der finnische Künstler Jukka Aalho in Zusammenarbeit mit GPT-3 (Aum Golly. Poems on humanity by an artificial intelligence, 2021) und ChatGPT sowie dem bildgenerierenden Modell Midjourney (Aum Golly 2: Illustrated Poems on Humanity by artificial intelligence, 2023) veröffentlicht. Die Haiku-Anthologie AUTONOMOUS HAIKU MACHINE (2021) wird im Untertitel beworben als generativer Text, der ganz ohne „human intervention“ auskomme  – als alleinige Autorinstanz wird GPT-3

Generative Literatur: Von analogen Romanmaschinen zu KI-basierter Textproduktion 

 167

genannt, während Anthony David Adams nur noch als Herausgeber fungiert. Beim Onlineversandhändler Amazon kann man in der Kategorie „Autor“ inzwischen nach GPT-3 AI oder ChatGPT suchen und erhält in der Folge einen Überblick über das umfangreiche und diverse Angebot an (vermeintlich) vollständig KI-generierten oder unter Beteiligung der entsprechenden Programme veröffentlichten Texte. Mit Impromptu. Amplifying Our Humanity Through AI (2023) liegt auch schon das erste Sachbuch vor, das GPT-4 als Co-Autor nennt (an der Seite des LinkedIn-Gründers Reid Hoffman). Wer mithilfe Künstlicher Intelligenz sein eigenes Schreiben optimieren will, muss nicht einmal mehr selbst die großen Sprachmodelle ausprobieren, sondern kann auf ein Software-Angebot zurückgreifen, das schnelle Hilfe auf dem Weg zum eigenen Buch verspricht. Programme wie Jasper, Sudowrite, NovelAI, Sassbook, Mindverse oder, gezielt für den deutschsprachigen Raum, Neuroflash werben damit, jede Textsorte bedienen zu können und jedem Schreibanlass gerecht zu werden. Was für Gebrauchstexte, Werbetexte, informative und berichterstattende Texte, d.  h. für recht formalisierte Schreibprojekte gilt, sieht im Bereich des literarischen Schreibens anders aus. Ein vollständig KI-generierter Roman, der aufgrund seiner literarischen Qualität überzeugt, liegt noch nicht vor – meist fehlt es bei längeren Geschichten an Kohärenz. „What is Wrong with Language Models that Can Not Tell a Story?“ fragt entsprechend Ende 2022 eine am Max-Planck-Institut, Leipzig, entstandene Studie (Yamshchikov und Tikhonov 2022), die allen voran das Fehlen eines geeigneten Trainingsdatensatzes dafür verantwortlich macht, dass keine Langtexte mit überzeugendem Storytelling vorliegen. Die Optimierung sprachverarbeitender Modelle und von Tools im Bereich des Natural Language Processing (NLP) setzt daher gerade in den Bereichen Storytelling und Textkohärenz an – erste Studien berichten bereits von neuen Erfolgen im Herstellen kohärenter Plotverläufe (Ye et al. 2022), etwa, indem ein generatives Sprachmodell darauf trainiert wird, den Handlungskontext auf ein zukünftiges Ereignis auszurichten und dadurch einen konsistenteren Plot zu entwickeln (Zimmerman et al. 2022). Wohin geht das KI-basierte literarische Schreiben der Zukunft? Unbestritten ist die Relevanz, die intelligenten Sprachmodelle schon heute beim Verfassen von Gebrauchstexten, faktualen Berichten und formalisierten Kurztexten zukommt – wie aber sieht es bei fiktionalen Erzähltexten aus? Wird KI vom Werkzeug experimentierfreudiger Gegenwartsautor:innen zeitnah zur alleinigen Autorinstanz avancieren, die ohne menschliches Eingreifen ästhetisch überzeugende Texte verfasst? Eine Prognose fällt angesichts der kaum vorauszusehenden sprunghaften informatischen Entwicklungen allein in den letzten fünf Jahren schwer und hängt zudem von der Bedeutung ab, die man kreativen KI-Verfahren in der Entwicklung neuer intelligenter Technologien zuweist. Zu diesem Urteil kommen zumindest die

168 

 Stephanie Catani

Wissenschaftler Mike Sharples und Rafale Pérez y Pérez, die mit Story Machines (2022) eine der ersten Überblicksdarstellungen über automatisiertes kreatives Schreiben vorgelegt haben: „Perhaps there would be more progress in designing large-scale story machines if this were posed as a grand challenge, like sending astronauts to Mars or searching for life on other planets, that attracts publicity and provokes competition among companies and research teams“ (Sharples und Pérez y Pérez 2022, 149). Die besondere Herausforderung eines idealen textgenerierenden Sprachmodells der Zukunft, pointieren Sharples und Pérez y Peréz, liegt nicht darin, eine Geschichte schreiben, sondern sie auch lesen und verstehen zu können. Denn zu den relevanten Aspekten jedes kreativen Schreibprozesses gehört ein kritisches Bewusstsein für die Inkohärenzen im eigenen Text und ein empathisches Verständnis für nötige Anpassungen an einen sich sukzessive verändernden Plot und sich entwickelnde Figuren: „A human author can plan the outline of how the work has progressed so far, and make wholesale revisions and deletions. A neural network language generator can’t do any of that“ (Sharples und Pérez y Pérez 2022, 12). Kreative KI-Modelle zu entwickeln, bedeutet in diesem Sinne auch, literarisches Schreiben berechenbar zu machen  – und damit dem Geheimnis menschlicher Autorschaft („mystery of human creativity“, Sharples und Pérez y Pérez 2022, 13) auf die Spur zu kommen.

Literaturverzeichnis Adrian, Marc. die maschinentexte: Montagen, Textsynthesen, computergenerierte Texte und Permutationen. Sammlung 1966–1992. Hrsg. von Gerald Ganglbauer. Stattegg 2020. Amwar, Mohammad Amir und Mark Graham. „Digital labour at economic margins: African workers and the global information economy“. Review of African political economy 47.163 (2020): 95–105. Bajohr, Hannes (Hrsg.). Code und Konzept. Literatur und das Digitale. Berlin 2016. Bajohr, Hannes. Schreibenlassen: Texte zur Literatur im Digitalen. Berlin 2022. Balestrini, Nanni. „Tape Mark I“. Almanacco Letterario Bompiani 1962, 145–151. Botnik Studios. Harry Potter and the Portrait of what Looked Like a Large Pile of Ash. Chapter Thirteen. The Handsome One. https://botnik.org/content/harry-potter.html. 2018 (26. März 2023). Brown, Tom B., Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared Kaplan und Prafulla Dhariwal. Language Models are Few-Shot Learners. (Preprint 2020) arXiv: 2005.14165. Carter, Richard A. „Tweeting the cosmos: On the bot poetry of The Ephemerides“. Convergence: The International Journal of Research into New Media Technologies 26.4 (2020): 990–1006. Catani, Stephanie. „‚Art is the only ethical use of AI.‘ Generative Kunst zwischen Begrenzung und Entgrenzung“. Grenzen der Künste im digitalen Zeitalter: Produktionsästhetik – Kunstformen und Gattungen – Rezeptionskulturen. Hrsg. von Sarah Hegenbart, Markus Kersten und Marlene Meuer. Stuttgart 2023 (im Druck, Seitenzahl wird nachgereicht). Catani, Stephanie. „Erzählmodus an.“ Literatur und Autorschaft im Zeitalter künstlicher Intelligenz. In: Jahrbuch der Deutschen Schillergesellschaft 64 (2020), S. 287–310.

Generative Literatur: Von analogen Romanmaschinen zu KI-basierter Textproduktion 

 169

Catani, Stephanie. „Generierte Texte: Gegenwartsliterarische Experimente mit Künstlicher Intelligenz“. Schnittstellen. Wechselbeziehungen zwischen Literatur, Film, Fernsehen und digitalen Medien. Hrsg. von Andrea Bartl, Corina Erk und Jörn Glasenapp. Paderborn 2022: 247–266. Cramer, Florian. „What Is ‚Post-digital‘?“ Postdigital Aesthetics: Art, Computation and Design. Hrsg. von David M. Berry und Michael Dieter. London 2015: 12–26. Goldsmith, Kenneth und Kathrin Jira. „‚No need to play it safe with poetry.‘ Kathrin Jira im Gespräch mit Kenneth Goldsmith“. Edit 73 (2017). Goldsmith, Kenneth. Uncreative Writing. Sprachmanagement im digitalen Zeitalter. Erweiterte deutsche Ausgabe. Übers. von Hannes Bajohr und Swantje Lichtenstein. Berlin 2017. Goodwin, Ross. 1 the Road. Paris 2018. Goodwin, Ross. Adventures in Narrated Reality: New forms & interfaces for written language, enabled by machine intelligence. https://medium.com/artists-and-machineintelligence/adventures-innarrated-reality-6516ff395ba3 2016 (26. März 2023). Gunser, Vivian Emily, Steffen Gottschling, Birgit Brucker, Sandra Richter und Peter Gerjets. „Can Users Distinguish Narrative Texts Written by an Artificial Intelligence Writing Tool from Purely Human Text?“ HCI International 2021 – Posters. HCII 2021. Communications in Computer and Information Science Band 1419 (2021). Hrsg. von Constantine Stephanidis, Margherita Antona, Stavroula Ntoa. Hahn, Ulla. „Vernunft ist auch eine Herzenssache: Zum Verhältnis von Künstlicher Intelligenz und Literatur“. Frankfurter Allgemeine Zeitung 9.3.2019, Nr. 58: 16. Kehlmann, Daniel. Mein Algorithmus und Ich. Stuttgart 2021. Kittler, Friedrich. Grammophon, Film, Typewriter. Berlin 1986. Kreuzmair, Elias. „Futur II“. Literatur nach der Digitalisierung: Zeitkonzepte und Gegenwartsdiagnosen. Hrsg. von Elias Kreuzmair und Eckhard Schumacher. Berlin und Boston 2022: 33–56. Lau, Jan Hau, Trevor Cohn, Timothy Baldwin, Julian Brooke und Adam Hammond. „Deep-speare: A joint neural model of poetic language, meter and rhyme“. Proceedings of the 56th Annual meeting of the Association for Computational Linguistics (Long Papers), Melbourne 2018: 1948–1958. Lutz, Theo. „Stochastische Texte“. Augenblick 4.1 (1959): 3–9. Meckel, Miriam. „Wenn ein Algorithmus die ganze Literaturgeschichte revolutioniert: Im Maschinozän schreiben Maschinen bessere Texte als Menschen“. https://www.nzz.ch/feuilleton/maschineund-mensch-ein-algorithmus-revolutioniert-die-literatur-ld.1506743. Neue Zürcher Zeitung 19.9.2019 (26. März 2023). Montfort, Nick. Hard West Turn. New York 2018. Navarro, Fabian (Hrsg.). poesie.exe. Berlin 2020. OpenAI. GPT-4 Technical Report 2023. arXiv:2303.08774. Orekhov, Boris und Frank Fischer. „Neural reading: Insights from the analysis of poetry generated by artificial neural networks“. Orbis Litterarum 75.5 (2020): 230–246. Perec, Georges. La disparation. Paris 1969. Perrigo, Billy. OpenAI used Kenyan workers on less than $2 hour to make ChatGPT less toxic. https://time. com/6247678/openai-chatgpt-kenya-workers/. Time Magazine 18.1.2023 (26. März 2023). Piringer, Jörg. datenpoesie. Klagenfurt 2018. Piringer, Jörg. „elektrobarden“. Transistor. Zeitschrift für zeitgenössische Lyrik 2 (2019): 78–83. Piringer, Jörg. günstige Intelligenz. Klagenfurt 2022. Russo, Emiliano und Gabriele Zaverio. Tape Mark 1, Nanni Balestrini: ricerca e ricostruzione storica. Museo dell’Informatica Funzionante. https://museo.freaknet.org/it/tape-mark-1-nanni-balestrini-ricercaricostruzione-storica/ (11. März 2023). Schönthaler, Philipp. Die Automatisierung des Schreibens & Gegenprogramme der Literatur. Berlin 2022 (E-Book).

170 

 Stephanie Catani

Sharples, Mike und Rafael Pérez y Pérez. Story Machines: How Computers have become creative writers. London und New York 2022. Simanowski, Roberto. Textmaschinen: Zum Verstehen von Kunst in digitalen Medien. Bielefeld 2012 Vallaster, Günter. „IT-Poesie – wenn Computer dichten“. Poesiegalerie. https://www.poesiegalerie.at/ wordpress/2021/03/09/it-poesie-wenn-computer-dichten/. 9.3.2021 (26. März 2023). Weichbrodt, Gregor. I don’t know. Berlin 2016. Williams, Adrienne, Milagros Miceli und Timnit Gebru. The exploited labor behind artificial intelligence. https://www.noemamag.com/the-exploited-labor-behind-artificial-intelligence/. Noēma 13.10.2022 (26. März 2023). Yamshchikov, Ivan P. und Alexey Tikhonov. What is Wrong with Language Models that Can Not Tell a Story? Preprint 2022 arXiv:2211.05044v2. Ye, Anbang, Christopher Cui, Taiwei Shi, Mark O. Riedl. Neural Story Planning. 2022 arXiv:2212.08718. Zimmerman, Brian D., Gaurav Sahu und Olga Vechtomova. Future Sight: Dynamic Story Generation with Large Pretrained Language Models. 2022 arXiv:2212.09947.

Christian Wobbeler

KI-basierte Verfahren im Theater und in Performances Wenn der KI-Roboter ES in Martina Clavadetschers Theatertext Frau Ada denkt Unerhörtes (2019) über die eigene Existenz sagt „Ich war da und bin da | und bin dazu bestimmt, wirksam zu werden“ (Clavadetscher 2019, 63), kann dies ähnlich für die Künstliche Intelligenz in Theater und Performance gelten: KI hat nicht nur längst in den Alltag Einzug gehalten, sondern ist seit einiger Zeit auch in den (performativen) Künsten angekommen, wenngleich ihre allumfassende ‚Wirksamkeit‘ dort noch in der (nahen) Zukunft liegt. Sowohl auf Bühnen der deutschsprachigen Stadttheaterlandschaft wie auch in der freien Szene, im Sprechtheater, im Tanz und in interaktiven Theaterformen, bei etablierten und jungen Regisseur:innen sowie Performancekünstler:innen ist das Interesse an der Auseinandersetzung mit KI groß. Symptomatisch dafür ist auch eine Vielzahl von Festivals wie „Staging the Digital Age – Theatre in the 21st Century“ (Goethe-Institut Seoul/Peking 2019), „Politik der Algorithmen – Kunst, Leben, Künstliche Intelligenz“ (Münchner Kammerspiele 2019) oder „PAD 01. Performing Arts & Digitalität“ (Deutsche Akademie der Darstellenden Künste, Darmstadt 2020). Neben künstlerischen Positionen wurde dort oft auch dem theoretischen Diskurs eine zentrale Stellung beigemessen. Denn, so lautet eine zentrale Beobachtung, mit der Auseinandersetzung mit KI in den darstellenden Künsten gehen ein intensiver Dialog und engere Kooperationen mit Akteur:innen aus Wissenschaft und Technik einher, wenn nicht einige der Künstler:innen selbst auch in der KI-Forschung tätig sind. Die digitalen Technologien stellen damit „die im 20. Jahrhundert etablierte Trennung von Kunst und Technik wieder in Frage“ (Otto 2020, 8). Allerdings, und dies betrifft nun die angedeutete Zukunftsperspektive, ist das Interesse seitens der zeitgenössischen Dramatik und Inszenierungspraxis mehrheitlich inhaltlich geprägt, wie etwa Wilke Weermanns Odem (Staatstheater Kassel, Reg. Wilke Weermann, 2018), Kevin Rittbergers IKI. radikalmensch (Theater Osnabrück, Reg. Rieke Süßkow, 2019) oder Frankenstein/Homo Deus (Thalia Theater Hamburg, Reg. Jan Bosse, 2018) zeigen. Der Einsatz KI-basierter Verfahren, die die Möglichkeiten des kreativen Potentials dieser Technologien ausloten, bildet noch die Ausnahme. Dementsprechend konnte 2019 auf der Tagung „Kultur gestaltet Zukunft“ im Rahmen des Förderprogramms „LINK – Künstliche Intelligenz in Kunst und Kultur“ der Stiftung Niedersachsen (Stiftung Niedersachsen 2019) auch der pessimistische Status quo postuliert werden, „dass bisher [in den performativen Künsten, C.W.] noch keine Künstliche Intelligenz angewandt wurde“ bzw. ihre Erprobung als kreatives Verfahren nur „in Ansätzen bereits statt[findet]“ (Koß 2019, 117). Dies verhttps://doi.org/10.1515/9783110656978-010

172 

 Christian Wobbeler

wundert zunächst insofern, als oft konstatiert wird, dass sich „Beispiele für kreative Ergebnisse von KI […] in allen künstlerischen Bereichen“ (Volland 2019, 32) finden lassen. Im Anschluss daran werden jedoch nur Kunstwerke aus den Bereichen der Musik (z.  B. DeepBach), der Bildenden Kunst – vorzugsweise der Malerei (z.  B. das Porträt Edmond de Belamy) – oder der Literatur (z.  B. das Kapitel ‚Harry Potter and the Portrait of what Looked Like a Large Pile of Ash‘) herangezogen. Beispiele aus dem Bereich der darstellenden Künste fehlen weitestgehend (vgl. zu einer ähnlichen Schwerpunktsetzung Stubbe et al. 2019, 259–264). Die zentrale Frage lautet daher: Warum werden KI-basierte Verfahren in diesem künstlerischen Feld bisher verhältnismäßig selten eingesetzt? Oder anders gefragt: Ist es das Fehlen eines spezifisch theatralen künstlerischen Mehrwerts, das einen Verzicht rechtfertigen könnte? Stefan Kaegi, Künstler des Kollektivs Rimini Protokoll, begründet sein Interesse in Bezug auf die eigene, KI-thematisierende Arbeit Unheimliches Tal/Uncanny Valley (Münchner Kammerspiele 2018) „nicht darin, die neueste Technik auszuprobieren, sondern mithilfe dieser über Menschen und politische und soziale Zusammenhänge zu sprechen“ (Koß 2019, 117). Ein Experiment, in dem der humanoide Melle-Avatar der Inszenierung wie eine KI mit Textdaten versorgt würde, um anschließend mit dem Publikum ins Gespräch zu kommen, würde lediglich den Stand der Technik unterhaltungswirksam präsentieren, jedoch nicht in einem größeren Kontext reflektieren, so die Haltung des Künstlers (Koß 2019, 117). Doch ist es nur das oft formulierte thematische Interesse, welches auch ohne den Einsatz von tatsächlicher KI auskommt, das hier das ausschlaggebende Argument für ein Zögern darstellt? Oder gibt es weitere Ressentiments gegenüber dem Einsatz von KI als Produktionsmittel in den darstellenden Künsten? Neben möglicherweise ideologischen Bedenken erschweren die strukturellen Rahmenbedingungen sowohl im Stadttheaterbetrieb als auch in der freien Szene den Einsatz von KI (Koß 2019, 117; Schuster 2019). Oftmals fehlt es an Know-how, technischer Ausstattung sowie finanziellen Ressourcen. Zeitlicher Produktionsdruck und die hohe Störanfälligkeit hochtechnologischer Mittel in der Live-Situation behindern ebenso den innovativen, aber auch reflektierten Einsatz von KI.

1 Annäherungen an KI-basierte Verfahren in Theater und Performance Es gibt jedoch, wie der Beitrag zeigen wird, erste Arbeiten, in denen KI-basierte Verfahren erprobt werden, um ihr künstlerisches Potential auszuloten. Dabei zeigt sich zum einen, dass dieser Einsatz in den meisten Fällen weiterhin mit einer inhalt-

KI-basierte Verfahren im Theater und in Performances 

 173

lichen Reflexion von KI einhergeht. Zum anderen hängt das Interesse am experimentellen Einsatz der Verfahren und ihres kreativ-schöpferischen Potentials eng mit einem Interesse an der Ästhetik zusammen. Es ist oftmals der (visuell-)ästhetische Reiz beispielsweise KI-gesteuerter Objekte, der zuvörderst zum Einsatz dieser Technologie führt. Doch nicht nur unbelebte Dinge können auf eine solche Weise bewegt werden. Ein Blick in die Praxis zeigt, dass die KI-generierten Verfahren in den darstellenden Künsten unterschiedliche Elemente von Aufführungen und Performances betreffen können, sodass KI durchaus auch die Funktion eines kreativen „co-creators“ (PROSECCO 2020) einnehmen kann. Diese Vielfalt führt dazu, dass oftmals keine klare Abgrenzung zu anderen Künsten wie Literatur, Musik und, gerade aufgrund der Verlagerung performativer Kunstwerke in das Internet als Reaktion auf die Covid-19-Pandemie, Video- sowie Netzkunst vorgenommen werden kann. In der Inszenierung ELIZA uncanny love (2019) von Meinhardt & Krauss (Iris Meinhardt und Michael Krauss) wurde beispielsweise ein Text auf der Bühne verwendet, der von einer KI im Stile Rainer Maria Rilkes produziert wurde. Ebenso existieren zahlreiche weitere Beispiele, in denen Ergebnisse KI-basierter Verfahren in anderen Künsten auf (Theater-)Bühnen präsentiert wurden, etwa die Konzerte von Holly Herndon und ihrem Album PROTO, unter anderem an der Volksbühne Berlin, die (virtuellen) Lesungen von Jörg Piringer oder die Stimmimprovisationen von Tomomi Adachi, der auf der Ars Electronica 2019 in Voices from AI in Experimental Improvisation gemeinsam mit der KI Tomomibot performte. Im Folgenden stehen jedoch solche KI-basierten Verfahren im Zentrum des Interesses, die explizit für eine Präsentation in Theater und Performance entwickelt bzw. bearbeitet und eingesetzt wurden. Dabei kann die KI einerseits im Bereich der ‚Produktion‘, andererseits im Bereich der ‚Performance‘ verortet werden, wenngleich beide Sphären Interferenzen aufweisen können. Zum Bereich der ‚Produktion‘ zählen u.  a. Bühnenbild, Sound oder besonders häufig die Textgenerierung sowie -übersetzung. Im Bereich der ‚Performance‘ tritt die KI als Akteur auf, wobei zwischen einer körperlosen und einer im weitesten Sinne verkörperten Darstellung unterschieden werden kann. Davon unabhängig soll in einem letzten Abschnitt kurz auf die oftmals zu beobachtende Publikumspartizipation im Zusammenhang mit KI-Kunstwerken eingegangen werden. Die Beispiele können zeigen, dass KI nicht nur um (ästhetischer) Effekte willen eingesetzt wird, etwa um lediglich die ‚neuen‘ Möglichkeiten des technischen Einsatzes im Kontext von Theater und Performancekunst zu demonstrieren. KI-basierte Verfahren werden nahezu immer in einem diskursiven Zusammenhang angewendet, sodass inhaltliche Reflexion und technischer Einsatz ineinander fallen. Sowohl auf thematischer als auch auf Verfahrensebene steht das Verhältnis von Mensch und KI im Zentrum des Interesses. Durch diesen Umstand ist auch die intensive

174 

 Christian Wobbeler

Kollaboration zwischen künstlerischen und wissenschaftlichen Akteur:innen zu erklären, deren Gemeinsamkeit in der forschenden Suchbewegung zur Zukunft von KI in der Lebenswelt liegt: Das Theater nutzt nicht nur die Erkenntnisse der Wissenschaft zur Gestaltung theatraler Kunstwerke, sondern es wird selbst zum künstlerischen Labor, in denen KI-Verfahren vor dem Hintergrund gesellschaftstechnologischer Entwicklungen erprobt und reflektiert werden. Im Feld der darstellenden Künste betrifft die Auseinandersetzung prominent die konkrete Interaktion von Mensch und KI, zum einen über die (verbale) Kommunikation und die Stimmlichkeit und zum anderen über die Körperlichkeit. Ausgehend davon kann festgestellt werden, dass KI-basierte Arbeiten neben einer inhaltlichen Dimension auch immer eine metareflexive Dimension aufweisen: In der Verwendung von KI betonen, verhandeln und stellen die Künstler:innen zentrale Konstitutionen von Theater wie ihre menschlichen, aber auch materiellen Akteur:innen sowie deren Konstellationen infrage. In diesem Sinne ergibt sich eine doppelte Reflexionsstruktur, die zum einen Verhältnisse der technischen wie menschlichen Akteur:innen im kunstfeldspezifischen Kontext betrifft, was zum anderen zu einem umfassenderen Nachdenken über die Beziehungen von Mensch, Technik und Umwelt führt. Diese Reflexion umfasst damit neben einer Perspektive auf das Individuum auch eine stärker soziale Dimension, wie Ulf Otto mit Blick auf den Einsatz vom Technischen im Theater feststellt (Otto 2020, 9). In Anlehnung an Martina Leeker kann dann weitergehend konstatiert werden, dass die Ergebnisse solcher Reflexionen immer auch konkrete realitätskonstituierende Konsequenzen auf die theatralen wie gesellschaftlichen Ensembles ausüben: „In Performances mit und durch Technik wird diese nicht einfach nur genutzt. Vielmehr werden kollektive Notlagen und Umbrüche aufgefangen und mit ihnen umgegangen, Menschliches und Technisches re-designed und an der Konstruktion sozio-technischer Ensembles mitgewirkt“ (Leeker 2020, 15).

2 KI und Produktion Das Künstlerkollektiv der CyberRäuber (Björn Lengers und Marcel Karnapke) experimentiert bereits seit 2016 mit dem Einsatz digitaler Verfahren wie VR oder AR im Theater (Mustroph 2019). Ihre 2019 entstandene Arbeit Prometheus Unbound (Landestheater Linz) operierte mit KI-Anwendungen, die zur Produktion von Text, Musik und Videoprojektionen eingesetzt wurden. KI nähert sich damit als Ko-Produzent einer Position des alle technischen Elemente steuernden „Spielleiters“ an, wie sie Sebastian Schlemminger (2020, 285–288) dem Algorithmus des im Konferenztisch verborgenen Computernetzwerkes in der Produktion Konferenz der wesentlichen Dinge (2014, pulk fiktion) zuweist. So stammte die verwendete Musik, wenngleich diese

KI-basierte Verfahren im Theater und in Performances 

 175

nicht live generiert wurde, aus neuronalen Netzwerken, genau wie die Videoprojektionen, die vorwiegend im zweiten Teil der Aufführung eingesetzt wurden. Dabei folgten diese morphenden Bilder wie computergenerierte Porträtfotografien in ihrer Ästhetik einer ganz eigenen visuellen Narration, die sowohl die übrigen theatralen Elemente unterstützten als auch eine Reibung mit ihnen erzeugen konnte. Besonders präsent war in dieser Performance der mittels KI generierte (gesprochene) Text: Das neuronale Netzwerk des GPT-2 (Generative Pretrained Transformer 2) wurde unter anderem mit verschiedenen Übersetzungen und Bearbeitungen von Aischylos’ Der gefesselte Prometheus, aber auch mit Texten von William Shakespeare bis Donald Trump trainiert. Diese Open-Source-KI des Unternehmens OpenAI LP, maßgeblich von Elon Musk und Microsoft finanziell gefördert, war in der Live-Situation der Performance in der Lage, auf Basis dieser großen Text-Datenmenge neues, in jeder Aufführung einzigartiges Textmaterial zu generieren. Da dieser Output lediglich auf Englisch verfügbar war, wurde er mittels einer weiteren Übersetzungstechnologie ins Deutsche übertragen, um dann über Kopfhörer den beiden Schauspieler:innen Angela Waidmann und Alexander Julian Meile souffliert zu werden, die den Text schlussendlich improvisierend artikulierten (vgl. zu einer ähnlichen Anwendung von KI zur Textproduktion durch Jascha Fendel Stiftung Niedersachsen 2020). Da sich diese Produktion vor allem für die Möglichkeiten des Einsatzes von KI im performativen Kontext interessierte, wurde das technische Verfahren der Texterzeugung während der Aufführung, insbesondere zu Beginn, explizit offengelegt, indem es auf Videoleinwänden visualisiert wurde. Dem ‚didaktischen‘ Anliegen der Arbeit gemäß – die CyberRäuber laden aufgrund ihres eigenen ‚Aufklärungsanspruchs‘ stets zu einem Nachgespräch ein, bei dem über die eingesetzte Technik gesprochen wird –, konnten die Zuschauer:innen die Versuchsanordnung der technologiebasierten Textproduktion, gewissermaßen von der Idee bis zur Artikulation, nachvollziehen. Doch in der Rezeption des ästhetischen Sprachproduktes, das aufgrund seiner (materiellen) Brüchigkeit und „poetische[n] Reibung“ (Mustroph 2019, 9) an postdramatische Theatertexte erinnert (Poschmann 1997; Lehmann 2011 [1999], 261–283), eröffnet sich eine weitere Dimension: Eine Text-KI stellt nicht nur eine potentielle Methode zukünftiger Produktion von zeitgenössischer Dramatik dar und reflektiert, wie auch die anderen Verfahren, Möglichkeiten und Grenzen technischer Umsetzung im Kontext der Livesituation des theatralen Raumes. Mit dem Wissen um die maschinelle Herkunft des Textes wird zum einen die Ähnlichkeit zu bestehender Sprachkunst hervorgehoben, um zum anderen vor diesem Hintergrund ein generelles Kunstverständnis sowie die damit zusammenhängende Frage nach den (menschlich-schöpferischen) Produzent:innen radikal infrage zu stellen. Dies betrifft Aspekte wie Autor:innenschaft und künstlerische Kreativität im Allgemeinen. Außerdem eröffnet die Einmaligkeit eines präsentierten Textes, der in jeder Aufführung gänz-

176 

 Christian Wobbeler

lich neu mittels einer KI produziert wird, einen Reflexionsraum über die Singularität von Aufführungen im Allgemeinen. Prometheus Unbound widmete sich folglich nicht nur der Entwicklung von KI im Kontext der performativen Künste, sondern war eine metareflexive Arbeit über die Konstitution von Theater und seinen Elementen, wie Text oder Sound, und Akteur:innen wie Schauspieler:innen, Publikum, aber auch Regisseur:innen und Dramaturg:innen. Das im konkreten Beispiel der CyberRäuber eingesetzte Verfahren lotete das künstlerische bzw. kreative Potential von KI in unterschiedlichen Bestandteilen der Performance aus und warf zugleich grundlegende Fragen nach dem Selbstverständnis der Kunst auf. Analog zur vorgestellten Inszenierung werden KI-Technologien im Kontext der Textgenerierung erstaunlich häufig genutzt. Die bekannteste internationale Produktion, die sich eines solchen Verfahrens bediente, war die Performance Deep Present (2018) von Jisun Kim. Der durch mehrere KI-Modelle generierte Theatertext über das Phänomen des Outsourcings und sich daran anschließende Fragen nach Ethik und Moral wurde seitens der Künstlerin bearbeitet und derart erst vollendet. Zunächst wurden mithilfe verschiedener deep learning-Verfahren die KIs unter anderem mit Tweets von Donald Trump sowie von Teilnehmer:innen des Weltwirtschaftsforums, Aussagen von Elon Musk und buddhistischen Texte trainiert, sodass sie anschließend in der Lage waren, auf Grundlage der trainierten Inhalte inputbezogene Aussagen zu generieren. Die Künstlerin verarbeitete diese Ergebnisse zu einer Textgrundlage, die anschließend in einer nahezu vollständig statischen Aufführung mittels eines Text-to-Speech-Systems von Robotern wiedergegeben wurde. Ähnlich wie in Prometheus Unbound entfaltete in dieser Performance eine ‚echte‘ KI ihr kreatives Potential, um die textuelle Grundlage der jeweiligen Aufführung zu liefern. Doch anders als bei den CyberRäubern griff Kim stark in den Output ein, sodass die Künstlerin selbst schlussendlich als die Autorin zu begreifen ist. Auch entstand der Text nicht in jeder Aufführungssituation neu, sondern konnte stets unverändert reproduziert werden. Es sollte lediglich den Anschein haben, als würden sich in der Aufführung KIs live unterhalten. Weitere Beispiele sind insbesondere die Arbeiten von Annie Dorsen (siehe auch  → Algorithmisches Theater), die die von ihr eingesetzten Verfahren auch theoretisch diskutiert (Dorsen 2012). In ihrer Arbeit Hello Hi There (2010) nutzte sie zwei Chatbots, die mittels des live erzeugten Textes miteinander kommunizierten. Die weiteren KI-Arbeiten A Piece of Work (2013) und Yesterday Tomorrow (2016) basieren auf KI-gestützte Verfahren zur Text- bzw. Partiturproduktion. Diesen ausgewählten Beispielen ist gemein, dass die Texte live in der Performancesituation generiert wurden und dass sie somit die grundlegende und konstituierende Zeitlichkeit von Performances der darstellenden Künste nutzten und reflektierten. Doch nicht nur als (Mit-)Produzent des Textes, wie ebenfalls in Union of Global Artificial Intelligence (U.G.A.I.) (Blind Date in Kooperation mit ANULLA, 2019), kann

KI-basierte Verfahren im Theater und in Performances 

 177

die KI fungieren, auch im Theater wird die Technologie, wie aus dem Alltagsgebrauch bekannt, zur Sprachübersetzung genutzt, wie das Beispiel der CyberRäuber bereits andeutete. Im Rahmen des ‚European Theatre Lab: Drama goes digital‘ (2016–2018), einem Projekt aus der angewandten Forschung zum Einsatz moderner Technologien im Theater, wurden drei internationale Koproduktionen realisiert (European Theatre Convention 2018): die interaktive Performance Stage Your City (2018, Michel Didym, CDN Nancy Lorraine La Manufacture (FR), Kote Marjanishvilli State Drama Theatre Tbilisi (GE), Badisches Staatstheater Karlsruhe (DE)), die auf einer Smartphone-Anwendung mit AR und VR basierte, sowie Kinetics of Sound (2018, Det Norske Teatret, Oslo (NO), Croatian National Theatre, Zagreb (HR)), eine Doppelinszenierung von Peer Gynt (Erik Ulfsby) und Kraljevo (Ivica Buljan) unter Anwendung einer Audiotechnologie zur Präsenzverstärkung der Schauspieler:innen. In der dritten Ko-Produktion wählte eine KI Sprachübersetzungen aus: IDIOMATIC/Dub it: One Voice, Many Languages (2018, Transquinquennal und Marie Henry, Théâtre de Liège (BE) and Teatrul National „Marin Sorescu“ Craiova (RO)) war eine internationale Performance, bei der die Ausgangssprachen der Performer:innen jeweils übersetzt und diese dann per Schriftprojektion visualisiert wurden. Ziel des Projektes war, zu einem interkulturellen Dialog beizutragen (European Theatre Convention 2018, 47 sowie die darin enthaltenen Beiträge von Thonon 2018 und Costea 2018). Die Produktion verfolgte und erweiterte gleichermaßen eine Strategie des (Stadt-)Theaters, das gegenwärtig noch vermehrt in Vernetzungsprojekten (wie z.  B. Neverland, 2019, Thalia Theater Hamburg) auf den Einsatz vorproduzierter Übertitel zurückgreift, um darin neben einer Internationalisierung von Kunst im Stadttheaterbetrieb auch eine größere Barrierefreiheit im Theater zu ermöglichen. Diese Strategie birgt die Gefahr einer Reduktion des übersetzen Textes und nimmt der Aufführung ihre Lebendigkeit. Durch den Einsatz KI-basierter Translationen, bei der die Technologie auf das tatsächlich gesprochene Wort reagiert, könnte der Improvisation mehr Spielraum gegeben werden. Es wird sich dem Live-Moment des produzierten Sprachmaterials angenähert und Sprache kann stärker als dynamisches Moment der Aufführung erlebt werden. Auch wenn IDIOMATIC/Dub it noch keine live generierten Übertitelungen nutzte, bei der eine KI unmittelbar das Gesprochene in projizierten Text überträgt, ist doch mit dem dort entwickelten Verfahren, bei dem die KI den gesprochenen Text erkennt und ihn mit den in einer Datenbank hinterlegten Übersetzungen vergleicht, um dann die geforderte Phrase für die Projektion zu wählen, ein wesentlicher Fortschritt in der Entwicklung erzielt worden. Ein alternatives Verfahren von KI-Textproduktion im weitesten Sinne sind die Impro-Shows von HumanMachine (seit 2016), dessen Konzept und Technologie von Piotr Mirowski und Kory Mathewson, beide auch in der Forschung tätig, entwickelt wurden, sowie die Aufführungen von Improbotics (seit 2018), auch von Mirowski und Mathewson sowie Jenny Elfving und Ben Verhoeven begründet, die sich eben-

178 

 Christian Wobbeler

falls mit KI-basierten Übersetzungen auseinandersetzen (vgl. dazu u.  a. Mirowski et al. 2020). Ein Teil des aufgeführten Textes entsteht dabei live durch einen Chatbot wie die KI A.L.Ex, die auf maschinellem Lernen basiert und mit Untertiteln aus ca. 100.000 Filmen trainiert wurde. Ähnlich wie bei Prometheus Unbound steht dann in den konkreten Aufführungssituationen der in Echtzeit produzierte Text im Fokus des künstlerischen Interesses, wenngleich hier die Kommunikationssituation eine andere ist: Die KI tritt als (inter-)aktiver Gesprächspartner in Erscheinung, sodass das für diese Bühnenform konstitutive Improvisationsparadigma herausgefordert wird. Durch eine Spracherkennungssoftware wird die KI zu einem kreativen Spielpartner, um gemeinsam einen möglichst sinnvollen Dialog herzustellen. Die Interaktion von Mensch und Maschine wird damit durch die Schauspieler:innenKI-Kommunikation nicht primär über den Inhalt, sondern über die Form des Improvisationstheaters reflektiert (vgl. zum Zusammenhang von KI und Improvisation grundlegend Jacob 2019). Dabei wird eine lebensweltliche Kontextualisierung seitens der Künstler:innen durchaus forciert: „Our work serves as a bridge between the artificial intelligence labs and improvisational theatre stages. We aim to build a bridge over the uncanny valley, toward a future where humans and autonomous agents converse naturally together“ (Mathewson und Mirowski 2017a, 66). Auch hier wird die Trennung von Kunst und Technik bewusst aufgehoben.

3 KI und Performance Mit diesen letzten Beispielen rückt die KI als eigenständiger Akteur in den Blick. In den früheren Arbeiten von Mirowski und Mathewson war die Darstellung der KI auf Video und Ton reduziert, während in späteren Versionen ein humanoider Roboter eingesetzt wurde: „[T]o project the attention of the performer(s) and audience on a material avatar“ (Mathewson und Mirowski 2017b, 2). Es zeigt sich hier das Bedürfnis nach einer Verkörperung von KI, die wesensmäßig zunächst ein körperloses Phänomen darstellt. In beiden Formen, körperlos wie verkörpert, tritt sie in Theater und Performancekunst auf.

3.1 KI als körperloser Akteur Mit einer körperlosen KI operierte die Arbeit Ok, Google. Eine Performance mit fünf Tänzer*innen und einer (A)Live-Künstlichen Intelligenz (2018). Die Künstler:innen des offenen Kollektivs Costa Compagnie setzten sich in einer Mischung aus Tanz, Performance und Installation mit der Koexistenz von Mensch und KI und ihrer

KI-basierte Verfahren im Theater und in Performances 

 179

‚quasi-emotionalen‘ Beziehung zueinander auseinander, die Fragen nach der Empathie und somit dem Wesen von KI aufwarfen. Den zentralen Zugriff bot dabei neben KI-gesteuerter Licht- und Tontechnik die verbale Interaktion von Mensch und Technik. Die Reflexion von natürlicher und computergenerierter Stimme im Zeitalter des Digitalen sowie ihres Verhältnisses zueinander lässt sich nicht nur generell in der künstlerischen Thematisierung von KI, wie beispielsweise prominent im Film Her (2013, Reg. Spike Jonze), sondern auch in vielen Arbeiten der darstellenden Künste finden, wie Remote X (seit 2013, Rimini Protokoll) oder Pillow Talk (2019, Begüm Erciyas). In diesen Beispielen wurde jedoch keine sprachbasierte KI eingesetzt und daher wurde die Performance Ok, Google seitens der Künstler:innen als die Arbeit vorgestellt, in der „Stücktext und Medien gemeinsam mit der ersten voll operativen Künstlichen Intelligenz in einem Performance-Space“ hervorgebracht wurden (Hervorhebung i. O., Meyer-Christian 2020). Die Performer:innen traten dabei mit dem von Google entwickelten sprachbasierten Smart-Home-Lautsprecher Google Home, der mit der intelligenten Software Google Assistant operiert, in einen Dialog, sodass die KI als Kommunikationspartner einen Großteil des Textes produzierte. Interessanterweise lässt sich hier beobachten, dass die Künstler:innen, anders als in den vorherigen Beispielen, auf eine ‚lebensweltliche KI‘, die bereits in der Alltagspraxis Anwendung findet, zurückgriffen. Das Dialogverfahren der Performance zeichnet sich durch eine Mischung aus live und vorproduzierten Textanteilen aus und kombiniert Verfahren, wie sie bei Jisun Kim und den CyberRäubern eingesetzt wurden. Während einer ResearchPhase führten der künstlerische Leiter Felix Meyer-Christian sowie die Performer:innen Gespräche mit der sprachbasierten KI. Die daraus entstandenen Textteile wurden arrangiert sowie bearbeitet und in das von Google bereitgestellte Interface einprogrammiert. Während der Live-Performance wurden dann die Texte durch bestimmte Keywords unmittelbar abgerufen. Neben dieser Möglichkeit wurde der Text auch live durch eine improvisierte KI-Performer:innen-Interaktion generiert. Anders als Deep Present war diese Performance somit ähnlich wie Prometheus Unbound (phasenweise) ergebnisoffener gestaltet. Inhaltlich zentral war dabei die Frage des Selbstverständnisses der Technologie, weshalb diese beispielsweise zu ihrer Entwicklung, ihrer ersten Erinnerung sowie ihrer Verbindung zu Cyborgs befragt wurde. Aber auch das (Macht- und Vertrauens-)Verhältnis zwischen KI und ihren Anwender:innen wurde thematisiert. Inhaltlich wurde der KI die Position eines (im weitesten Sinne menschenähnlichen,) gleichberechtigten Gegenübers zugesprochen, wenngleich der technische Charakter stets bedacht wurde. Die Beschaffenheit der Technik sowie ihr Verhältnis zum Menschlichen zeigten sich in dieser Performance zugleich in einer ästhetischen Dimension. Dabei wurde insbesondere auf die Medialität der Stimme, einem zentralen Phänomen des Theaters (Bayerdörfer 2002; Finter 2014; Schrödl 2012), Bezug

180 

 Christian Wobbeler

genommen. Zum einen wurde durch die menschlich simulierte, live vollzogene Sprachproduktion die Nähe der KI zum Menschlichen hergestellt: Die Menschwerdung der KI ist durch den (abgeschlossenen) Spracherwerb vollzogen, sodass sie als gleichberechtigter Interaktionspartner auftreten konnte. Zum anderen wurde der realisierte Dialog immer wieder durch lange Verarbeitungsphasen der Spracheingabe sowie deren Scheitern am Ausdruck von Emotionen wie einem Lachen unterbrochen, sodass das Nicht-Menschliche der Technik auch ästhetisch sinnfällig wurde. Das ambivalente Verhältnis von Nähe und Distanz wurde allein in der Sprache erfahrbar. Ein weiterer Aspekt der Differenz zeigte sich ferner in der Körperlichkeit von KI und Performer:in. Die zwischen fließenden und springenden pendelnden, oftmals nach innen gerichteten Bewegungen der sich zwischen den Dialogen befindlichen Tanzsequenzen betonten in Opposition zur menschlichen Leiblichkeit geradezu die entkörperlichte Präsenz des sprechenden technischen Gegenübers. Der Fokus wurde nicht nur auf das Sprachmaterial in inhaltlicher Dimension, sondern vielmehr auf die technisch produzierte Stimmlichkeit und fehlende Körperlichkeit gelegt. Die Reflexion der Interaktion von Mensch und Maschine erfolgte über eine vokale Medialität und Materialität, um so grundlegende Differenzen zu erforschen, indem sie als Extremform der „elektronische[n] Stimme [, …] die tatsächlich live ertönende Stimme des Menschen mehr und mehr zu einer Besonderheit [machte]“ (Lehmann 2011 [1999], 276). Während in diesem Beispiel die KI mit menschlichen Akteur:innen in verbalen Dialog traten, zeigte die Arbeit COVID-19 AI Battle (2020) von Cecilie Waagner Falkenstrøm den Austausch von zwei KIs untereinander, eine ähnliche Konstellation, wie sie in Dorsens Hello Hi There zu finden war. In einer durativen Online-Performance diskutierten ‚tedros@WHO‘ und ‚trump@USA‘ in Echtzeit über die globale Covid19Pandemie. Dabei wurden die beiden Algorithmen mittels maschinellen Lernens unter Rückgriff auf Natural Language Processing (NLP) trainiert. Der Datenpool bestand dabei aus Reden von Donald Trump, zum Zeitpunkt der Premiere amtierender Präsident der USA, und Dr. Tedros Adhanom Ghebreyesus, Generaldirektor der WHO. Es wurden zwei neuronale Netze entwickelt, die zur Reflexion von Kommunikationsverhalten und Konsensbildung virtueller Akteur:innen eingesetzt wurden. Dabei wurde innerhalb der Performance der Dialog zum einen visualisiert, wobei die Typographie an die Eingabeverfahren von Programmierprogrammen erinnerte, und zum anderen durch Text-to-Speech-Technologie akustisch verbalisiert. Hierbei wurde im Falle Trumps authentisches, gespeichertes Sprachmaterial als Grundlage verwendet, sodass es den Anschein hatte, als spräche dieser selbst, während die Stimme Tedros’ die Prosodie einer klassischen Computergenerierung aufwies. Damit kam auch hier der Materialität der Stimme eine zentrale Stellung zu: Mittels dieser wurde innerhalb der virtuellen Bühne des Internets über kontrastive Kommunikationsinhalte und -formen angesichts der globalen Gesundheitslage

KI-basierte Verfahren im Theater und in Performances 

 181

und deren ‚richtiger Interpretation‘ (Waagner Falkenstrøm 2020) reflektiert. Auch wenn diese Arbeit nicht als klassisches Beispiel der darstellenden Künste fungiert (wenngleich die pandemiebedingten Schutzmaßnahmen wie zeitweilige Theaterschließungen Performance- und Netzkunst stärker zusammengerückt haben), ist sie doch in einem theaternahen Kontext entstanden: Das dänische Kulturzentrum Culture Yard legt in seinen Eigenproduktionen, die, z.  T. in Ausschnitten und Arbeitsständen, auf der Ars Electronica 2020 gezeigt wurden, einen Schwerpunkt auf die Reflexion, aber auch den Einsatz von KI (Kulturværft und Toldkammeret 2020). Dementsprechend versuchte !brute_force (2019–2020) der slowenischen Künstlerin Maja Smrekar und ihres Teams, das auch aus KI-Spezialist:innen bestand, in einer hybriden Arbeit zwischen Kunst und Forschung eine KI zu trainieren, unter anderem mit Daten aus Wearables mit EKG-Funktion, die nicht nur von Menschen, sondern auch von Hunden getragen wurden. Die Reflexion von Lebewesen-Maschine-Beziehungen wurde damit um Elemente der Umwelt und Akteur:innen erweitert, indem nicht nur der Mensch, sondern auch ein Tier berücksichtigt wurde. Mit Blick auf KI-basierte Überwachungstendenzen, die hier die menschlichen Gesundheitsdaten betrifft, ließ sich in der Arbeit auch eine kritische Intention erkennen. Aus diesen Überlegungen heraus versuchte !brute_force zu eruieren, wie KI auch (gesellschafts-) emanzipatorisch eingesetzt werden kann (Smrekar 2020). Eine weitere Arbeit aus diesem Kontext war SH4D0W (2020–2021) von Mikael Fock unter Mitarbeit von Cecilie Waagner Falkenstrøm. In einer von Hans Christian Andersens Märchen Der Schatten (1847) inspirierten immersiven Performance ging es um die Auseinandersetzung mit der Frage, inwiefern eine KI ein menschenähnliches Bewusstsein und Gefühle besitzen kann. In einer Hologramm 4D Box trat das Publikum nicht nur mit einer KI in einen Dialog über Emotionen und Erinnerungen, sondern konnte durch eine 3D-Simulation einen Einblick in das ‚Daten-Gehirn‘ der KI erhalten.

3.2 KI als verkörperter Akteur In den Credits des Tanz- und Figurentheaters Robot Dreams (2019) von Iris Meinhardt und Michael Krauss wurde neben den drei Tänzer:innen auch die KI ToMoMi aufgeführt und als gleichberechtigter Akteur ausgewiesen (Meinhardt und Krauss 2020). Auch die Performance selbst ließ die KI in Form eines büstenartigen Roboterkopfes als handelndes Subjekt, das in den (körperlichen) Dialog mit den menschlichen Akteur:innen trat, erscheinen. Doch dies stellte sich bei genauerer Betrachtung als bloße theatrale Behauptung heraus. Gerade dadurch kann diese Arbeit aber im Diskurs um KI im theatralen Kontext als paradigmatisches Beispiel beschrieben werden, sodass es zumindest kurz in Abgrenzung zum Einsatz von KI-generierten Verfahren erwähnt werden sollte. An dieser Arbeit werden nämlich nicht nur Cha-

182 

 Christian Wobbeler

rakteristika von, sondern auch zentrale Missverständnisse und Schwierigkeiten in der Praxis und im Diskurs von KI und Theater deutlich: Zum einen sind es gerade die Formen des Figuren-, Objekt- und Tanztheaters, die sich der Auseinandersetzung mit neuen Technologien, Robotern und KI in ganz unterschiedlicher Perspektive stellen (Hölzl und Lamb 2020; Wesemann 2015). Zum anderen zeigt sich das auffallende Interesse an der Verbindung von KI und Robotik (vgl. zu diesem Zusammenhang allgemein beispielsweise Lenzen 2018, insbes. Kap. 3; Lenzen 2019, 26–27), das möglicherweise mit dem oft vorhandenen Anthropomorphismus von Maschinen erklärt werden kann. Es lassen sich viele humanoide Roboter in Inszenierungen und Performances finden (Pesl 2019) und Robotik wird explizit Gegenstand von Festivals wie ‚Hi, Robot! Das Mensch Maschine Festival‘ (Tanzhaus NRW Düsseldorf 2019). Doch bei einem Blick in diese Arbeiten sowie in die Ankündigungstexte und Rezensionen wird deutlich, dass Verfahren der Robotik oftmals im engeren Sinne angewendet werden und der Umgang mit einer KI nur behauptet wird. Dies liegt unter anderem an einer unscharfen Verwendung der Begriffe: Zwischen dem Einsatz unterschiedlicher Technologien und Verfahren wie Robotik, Virtual Reality, Augmented Reality und KI wird insbesondere im theoretischen Diskurs der Theaterschaffenden häufig nicht unterschieden. Sie werden unter dem Begriff des Digitalen oder sogar der KI subsumiert (vgl. dazu beispielhaft das Themenheft ‚Theater und Digitalität‘ der Zeitschrift Theater der Zeit 12 (2019)). Sowohl in der Theorie als auch der Praxis erscheinen die Übergänge zwischen KI-basierten und KI-nahen Technologien wie der Robotik fließend, sodass es häufig schwer ist, genau zu entscheiden, ob es sich tatsächlich um ein KI-basiertes Verfahren handelt. Robotik wurde auch in den Arbeiten von Mirjam Neidhart To be, or not to be humanoid (2013) und Ecce Homo (2014) eingesetzt (Neidhart 2016). In der ersten Arbeit waren es zunächst die Kontrastierung von Puppe und (humanoidem) Roboter sowie ihrer Animation durch den Menschen, die im Fokus des Interesses standen und somit wesentliche (Figuren-)Theatermomente – den der Beseelung und daran anschließend auch die Frage nach Illusion und theatralem Pakt  – reflektierten. Begleitet wurden diese theatralen Reflexionen von einem abstrakteren, theoretischen Interesse, das wiederum auf eine ursprünglich kulturanthropologische, mittlerweile aber zentrale theaterwissenschaftliche Kategorie referiert: den Diskurs um Embodiment (Csordas 1994; Fischer-Lichte 2001 und 2004, 129–160). In diesem Kontext geht es speziell um die Frage, inwiefern Körperlichkeit als Voraussetzung von Intelligenz gilt. Diese Fragestellung ist von besonderer Relevanz für den wissenschaftlichen Diskurs um KI-Entwicklung (Görz et al. 2014, 12–13). Intensiv beforscht wurde dieses Feld vom Informatiker Rolf Pfeifer (Fumiya et al. 2004; Pfeifer 2007), der auch an der Produktion von To be, or not to be humanoid beteiligt war. In der Arbeit Ecce Homo ergab sich wiederum eine Zusammenarbeit mit dem Mathematiker und Neurorobotik-Experten Manfred Hild (ebenfalls Kooperationspartner bei

KI-basierte Verfahren im Theater und in Performances 

 183

der Theaterarbeit My Square Lady 2015, Gob Squad, Komische Oper Berlin, vgl. zu dieser Inszenierung Ernst 2020, 307–318), der den von ihm entwickelten KI-Roboter Semni zur Verfügung stellte (vgl. zu Semni Der und Martius 2011, 154–162). Konzeptioneller Anspruch der Inszenierung war es, „den ersten tatsächlich intelligenten, eigenständigen und selbstentscheidenden Roboter“ auf der Bühne einzusetzen, der nicht „regelbasiert programmiert“ war (Neidhart 2016, 19–20). Dies scheiterte jedoch an der technischen Umsetzung, sodass der Roboter in den tatsächlich realisierten Aufführungen eine vorprogrammierte Choreografie zeigte, die aber den Eindruck vermitteln sollte, es handele sich um einen KI-Roboter (Neidhart 2016, 20–21). Dennoch zeigte sich hier ein körperlich-ästhetischer Erkundungsschwerpunkt, der zum einen Fragen nach der Körperlichkeit von KI aufwarf und diese zum anderen vor dem Hintergrund der menschlichen Körperlichkeit reflektierte. Unter Rückgriff auf moderne Technologien werden dementsprechend auch Fragen nach Dominanz- und Intimitätsverhältnissen zwischen menschlichen und nicht-menschlichen Akteur:innen künstlerisch verhandelt, wie beispielsweise in der Tanzperformance Eingeweide. A Ritual Of Coalescence For Two Unstable Bodies (2018) von Marco Donnarumma in Zusammenarbeit mit Margherita Pevere. Diese Performance bildete dabei nur einen Teil der Serie 7 Configurations. Artificial Intelligence vs Body Politics (2014–2019), bestehend aus Performances und Installationen, in denen sich der Künstler mit der Beziehung von neuen Technologien, insbesondere KI, und dem menschlichen Körper auseinandersetzte. In Eingeweide wurden nicht nur die Muskelbewegungen der beiden Performer:innen mittels Algorithmen in Klänge überführt und verstärkt, sondern sie agierten in einer surrealen bis dystopischen Ästhetik mit einer KI-Prothese. Diese konnte in Echtzeit durch die Verwendung eines weiteren Algorithmus während der Live-Situation Bewegungen erlernen sowie ausführen und setzte sich zur Leiblichkeit der Performer:innen in Beziehung. Die Performance wurde zu einer „bodily experimentation, where alternate identities emerge from the convergence of human, machine and micro-organisms.“ (Donnarumma 2018) Die physischen Körper der Tänzer:innen wurden zu Cyborgs, die prothetisch eingesetzten Objekte erschienen als Teile des menschlichen Körpers und stellten die Frage nach dem (fließenden) Übergang zwischen Mensch, Maschine und Code (Ernst 2020, 297–298). Auch hier wurden somit Überlegungen zu Körperlichkeit und Embodiment, aber auch zur Hybridität künstlerisch reflektiert (vgl. zur theoretischen Fundierung sowie weiterer Arbeiten Donnarumma 2017; Caramiaux und Donnarumma 2021). Während in den Arbeiten Neidharts Körperlichkeit als Voraussetzung von KI gedacht wurde und Donnarumma die körperlichen Übergänge zwischen Mensch und KI forcierte, versuchten einige der künstlerischen Arbeiten von H.A.U.S. (Humanoid Robots in Architecture and Urban Spaces), einem 2014 gegründeten Zusammenschluss von Wissenschaftler:innen und Künstler:innen, die Körperlichkeit von

184 

 Christian Wobbeler

Menschen und Robotern explizit mit der KI-Technologie zu kontrastieren. In diesem Zusammenhang experimentierte die Performerin und Tänzerin Eva-Maria Kraft bereits seit einigen Jahren mit humanoiden Robotern in Choreografien und Performances, die sich stets weiterentwickelten und in unterschiedlichen Projektstadien, u.  a. als Lecture Performances, gezeigt wurden, wie beispielsweise die Arbeit zum Doppelgänger Zyklus (seit 2017). Diese war inspiriert vom Bunraku, dem klassischen japanischen Figurentheater, sowie einem Text von Jean Paul und untersuchte mittels zweier Roboter des Modells Pepper die (tänzerische) Beziehung zwischen Mensch und Maschine (Schürer 2019). Eine weitere, zwischen Theater, public science und Didaktik oszillierende Arbeit von H.A.U.S. war das Space-Game, eine an Wittgensteins Sprachspiele angelehnte „arts-based research method“, die sich zum Ziel gesetzt hatte, ein Cultural Space Model (CSM) zu schaffen, ein Raummodell, das auf der Interaktion von Mensch und Roboter bzw. KI basiert (H.A.U.S. 2016). In diesem Kontext wurden Menschen dazu aufgefordert, mit einem Roboter zu kommunizieren. Dabei befanden sich in diesem, im öffentlichen Raum aufgebauten Setting neben dem Roboter auch Objekte, über die Mensch und Maschine ins gemeinsame Gespräch kommen sollten, sodass eine KI mittels maschinellen Lernens live trainiert wurde. Dabei fungierte der Roboter nur als Schnittstelle zwischen den Akteur:innen und der KI, die in Form eines sichtbaren Kastens und zweier Bildschirme durchaus eigenständig präsentiert wurde. Damit konnte der oftmals inszenierte Anthropomorphismus in direkte Differenz zum Maschinellen gebracht werden. Die häufig fokussierte Allianz zwischen menschenähnlicher Maschine und KI wurde bewusst hinterfragt und die Vorstellung vom intelligenten Roboter dekonstruiert. H.A.U.S. ging es folglich um die explizite Wahrnehmung des Maschinellen, um davon ausgehend eine umfassende Erforschung des und Reflexion über den Zusammenhang von Kultur, Mensch und Technologie vornehmen zu können. In allen vorgestellten Beispielen erscheint die KI damit als Akteur, der sich in einem Spannungsfeld von Allianz und Abgrenzung zum Menschlichen bewegt. Dies hat zur Folge, dass sich auch die theaterwissenschaftliche Forschung dezidiert mit diesem neuen Akteur auseinanderzusetzen hat: Das Konzept der Ko-Präsenz (Fischer-Lichte 2004, 58) bedarf in gewisser Hinsicht einer kritischen Diskussion, vor allem hinsichtlich der Exklusivität des Begriffs der Präsenz, die nach FischerLichte lediglich auf menschliche Akteur:innen angewandt werden dürfe (FischerLichte 2004, 160–175): „[T]he material stock for the medium of theatre is no longer exclusively bound to the human world and that this is the reason why theatre can no longer be defined by the mere co-presence of human bodies.“ (Tuchmann 2019) Es erscheint einem traditionellen Verständnis nach nicht mehr haltbar, wenn die KI als Akteur verstanden wird, der weder dem Menschlichen noch dem Objekthaften eindeutig zugeordnet werden kann. KI stellt neue Ansprüche an eine Theatertheorie, die wiederum mittels Performances diskutiert werden kann. Im Erzähl-

KI-basierte Verfahren im Theater und in Performances 

 185

forschungslabor Polder: Tintagiles (2016–2018) der Digitalbühne Zürich wurde in der künstlerischen Arbeit selbst unter Einbezug von theatertheoretischen Überlegungen (neben Brechts Radiotheorie vor allem die ‚Puppentheorien‘ von Craig und Maeterlinck) über den Einsatz von neuester Technologie und deren Auswirkungen auf das Konzept der (neuen) Schauspielerin reflektiert: „[D]ie Robotik machte in den letzten Jahren jene Fortschritte, dass der Schritt zu Androiden auf der konventionellen Bühne nur eine Frage der Zeit ist. Eine Schauspielerin 4.0 wird dem Widerspruch gerecht werden müssen, sich der neuesten Technologien sowohl zu bedienen, als sich auch von ihnen zu distanzieren, weil durch sie ja die Abschaffung droht.“ (Schwarz und Soland 2019, 373) In dieser künstlerischen Produktion, die in drei Editionen präsentiert wurde, wurden unterschiedliche künstlerisch-technologische Verfahren angewendet: neben Motion Capturing und humanoiden Robotern auch eine KI. Diese wurde mit dem zugrundeliegenden Theatertext Der Tod des Tintagiles (1894) von Maurice Maeterlinck sowie dazugehörigen zur Reflexion anregenden Inhalten und Fragen trainiert. Während der Live-Situation konnten sowohl die Darsteller:innen als auch die Zuschauer:innen in einen Dialog mit der KI über das Präsentierte treten. Damit erinnert das Projekt an Video-Kunstinstallationen wie die Reihe Conversations with Bina48 (seit 2014) von Stephanie Dinkins.

4 KI und das Publikum Bereits bei diesem letzten Beispiel zeigt sich ein oft zu beobachtendes Spezifikum von KI-basierter Theaterkunst: In vielen Arbeiten lässt sich eine erhöhte Publikumspartizipation feststellen. Es deutet sich hier ein weiteres doppeltes Potential digitaler Technologien im zeitgenössischen Theater an, denn durch ihren Einsatz wird ermöglicht, dass nicht nur KI zum Ko-Produzenten, sondern auch das Publikum zu einem „real coproducer of the performance“ (Schipper 2017, 207) wird. Im vorgestellten Beispiel der CyberRäuber entstand nicht nur durch die offene Sitzplatzanordnung, die eine klare Trennung von Bühne und Zuschauerraum aufhob, eine immersive Rezeptionsatmosphäre; auch der erste Satz, der die Fortsetzung der Textproduktion durch GPT-2 initiierte, stammte aus dem Publikum. In einen schriftlichen Dialog mit den KIs konnten die Rezipient:innen im COVID-19 AI Battle oder in einer ähnlichen Chatbot-Online-Performance, Online Dialogue with the AI from SH4D0W, ein Vorläufer zur genannten Arbeit von Mikael Fock, treten. Direkte verbale Interaktion bestand ebenfalls im Space-Game. Auch andere Arbeiten im Projektzusammenhang von H.A.U.S. wie G.A.I.A. (2017) oder die Präsenz-Performance Itten, Breath, Robot (2019) fokussierten den direkten Kontakt zwischen Publikum, Algorithmus und KI. In letzterer synchronisierten sich die Zuschauer:innen im

186 

 Christian Wobbeler

gemeinsamen Atmen mit einem Roboter. Ziel war die „neu-erfindung des menschlichen körpers“, der „künstlichen körpern von KI gesteuerten robotern gegenüber[steht]“ (Hervorhebung i. O., H.A.U.S. 2019). KI im Theater hat somit nicht nur Auswirkungen auf die Schauspieler:innen, sondern auch auf die Rezipient:innen, die zu Akteur:innen der Performances werden. KI vermag die klaren Positionen von Produktion und Rezeption aufzulösen und eng miteinander zu verflechten. Exemplarisch soll hier nochmals auf die theatralen Turing-Tests von Improbotics verwiesen werden: Entweder ein KI-gesteuerter Chatbot oder ein Mensch geben einem:r Akteur:in Text vor, der dann in das improvisierte Spiel eingebaut werden muss. Die Herausforderung der übrigen Darstellenden besteht darin, einen möglichst sinnvollen Dialog zwischen allen Beteiligten herzustellen. Das Publikum weiß nicht, wer von der KI gesteuert wird bzw. ob dies überhaupt der Fall ist, sodass bei ihnen der Reiz nicht nur im Genuss des Ungewissen bzw. des Rätselns liegt, sondern sie werden dadurch aktiv in die Performance einbezogen. Auch das ‚Datentheater‘ von doublelucky productions (Christiane Kühl und Chris Kondek) arbeitet mit einer hohen Publikumspartizipation und reflektiert in Hybridformaten zwischen Performances und Game wie Anonymous P. (2014) den Einfluss moderner Technologie wie Algorithmen im allgegenwärtigen Datenstrom des Internets auf die Gesellschaft. In YOU ARE OUT THERE (2017) wurde unter anderem die Frage nach menschlicher Identität im Zeitalter der virtuellen Doppelgänger gestellt. Neben einer behaupteten KI namens ‚Rabbit‘, die dem intelligenten Sprachassistenten Alexa ähnelt, wurde auch tatsächliche KI-Technologie eingesetzt: Dazu tauschten die Zuschauer:innen vor Beginn der Performance ihre Personalausweise gegen Kopfhörer. In einer späteren Szene wurde dann der Zweck deutlich, denn die Künstler:innen speisten die Passbilder in eine algorithmische Gesichtserkennungssoftware, um Durchschnittswerte hinsichtlich ‚Age Obscurity‘, ‚Gender Diversity‘ und ‚Object Ambiguity‘ zu erzielen, die dann exemplarisch vorgestellt wurden. Diese künstlerische Strategie zielte nicht nur darauf ab, auf die permanente Zirkulation personenbezogener Daten im Netz aufmerksam zu machen, sondern eröffnete außerdem einen Reflexionsraum, der den Einfluss von Technologien wie KI auch auf das Selbstverständnis des Menschen thematisierte. Dementsprechend wurde mit einem satirischen Unterton festgestellt, mit welcher Wahrscheinlichkeit es sich bei der fotografischen Abbildung einer Person um eine Banane handelt. Mittels des Algorithmus wurde so der Zusammenhang zwischen Identifizierung und Identität künstlerisch hinterfragt und die alltägliche Wirkmacht von KI im künstlerischen Raum sinnfällig gemacht. Die dezidierte Publikumspartizipation und die daraus resultierende konkrete Erfahrbarkeit von KI bot wiederum eine lebensweltliche Reflexionsdimension. Wie in allen vorgestellten Beispielen war es die grundlegende Frage nach dem Verhältnis von Mensch und Technologie, das mittels KI im performativen Versuchsraum künstlerisch ausgelotet wurde.

KI-basierte Verfahren im Theater und in Performances 

 187

5 Ausblick Dieser Überblick über KI-Verfahren innerhalb der darstellenden Künste zeigt, dass die Relevanz von KI in diesem Kunstfeld nicht nur auf inhaltlicher Ebene zu suchen ist. Trotz ideologischer und institutioneller Widerstände lassen sich erste Beispiele finden, in denen KI als Verfahren eingesetzt wird. Die künstlerischen Produktionsstrategien weisen oft Übergänge zu KI-nahen Verfahren auf, sodass nicht immer deutlich herausgestellt werden kann, inwiefern der Einsatz noch auf ‚echter‘ KI basiert. Wo jedoch diese Technologien eingesetzt werden, fragen sie nicht nur nach der Zukunft von KI im lebensweltlichen Zusammenhang, sondern sie fordern als Ko-Produzenten auch zentrale Konstitutionen und Akteur:innen der Kunstformen von Theater und Performance heraus. Dass solche künstlerischen Erprobungen von KI-basierten Verfahren in Zukunft vermehrt und dadurch auch differenzierter auftreten, versprechen weitere geplante wie realisierte Produktionen und Förderprogramme. Neben Einzelprojekten, wie die von der Kulturstiftung des Bundes unterstützte Bürgerbühnen-Inszenierung des Düsseldorfer Schauspielhauses Regie: KI (2020/21), in der die Technologie unter der künstlerischen Leitung von Martin Grünheit die Regie übernahm, waren und sind es vor allem größere (Forschungs-)Projekte wie die seit 2019 bestehende ‚Akademie für Theater und Digitalität‘ am Theater Dortmund, initiiert von Kay Voges, oder das von 2020 bis 2022 durchgeführte Sonderprogramm ‚AUTONOM‘ beim Fonds Darstellende Künste e. V., das Produktionen aus verschiedenen Feldern der Freien Darstellenden Künste förderte, die sich auch in Verfahrensdimensionen mit KI auseinandersetzten (Fonds Darstellende Künste 2022; Berger 2022).

Literaturverzeichnis Bayerdörfer, Hans-Peter (Hrsg.). Stimme – Klänge – Töne: Synergien im szenischen Spiel. Tübingen 2002. Berger, Hilke Marit. „Künstliche Intelligenz als Innovationspotenzial: Verantwortung und Möglichkeiten der Freien Darstellenden Künste in Zeiten von KI. Transformationen der Theaterlandschaft: Zur Fördersituation der Freien Darstellenden Künste in Deutschland. Hrsg. von Wolfgang Schneider und dem Fonds Darstellende Künste e. V. 2., erw. Ausg. Bielefeld 2022: 463–509. Caramiaux, Baptiste und Marco Donnarumma. „Artificial Intelligence in Music and Performance: A Subjective Art-Research Inquiry“. Handbook of Artificial Intelligence for Music. Foundations, Advanced Approaches, and Developments for Creativity. Hrsg. von Eduardo Reck Miranda. Cham 2021: 75–95. Clavadetscher, Martina. „Frau Ada denkt Unerhörtes: Frei nach der Biografie von Ada Augusta Lovelace und der Alpensaga ‚Sennentuntschi‘ [Stückabdruck]“. Theater der Zeit 74.12 (2019): 56–71.

188 

 Christian Wobbeler

Costea, George-Albert. „Do You Speak Tech? Report from an Interdisciplinary and Cross-Cultural Partnership“. Digital Theatre: A Casebook. Hrsg. von der European Theatre Convention. Berlin 2018: 56–61. Csordas, Thomas J. (Hrsg.). Embodiment and Experience: The Existential Ground of Culture and Self. Cambridge 1994. Der, Ralf und Georg Martius. The Playful Machine: Theoretical Foundation and Practical Realization of SelfOrganizing Robots. Mit einem Vorwort von Rolf Pfeifer. Berlin und Heidelberg 2011. Donnarumma, Marco. „Beyond the Cyborg: Performance, Attunement and Autonomous Computation“. International Journal of Performance Arts and Digital Media 13.2 (2017): 1–15. Donnarumma, Marco. Eingeweide [Stückbeschreibung]. https://marcodonnarumma.com/works/ eingeweide/. Berlin 2018 (14. August 2020). Dorsen, Annie. „On Algorithmic Theater“ [Blogbeitrag zu Theater Magazine 42.2 (2012)]“. https:// theatermagazine.org/web-features/article/algorithmic-theater. 2012. (22. Februar 2021). Ernst, Wolf-Dieter. „Roboter, Cyborgs und Androiden: Von prothetischem und algorithmischen Theater“. Algorithmen des Theaters: Ein Arbeitsbuch. Hrsg. von Ulf Otto. Berlin 2020: 293–319. European Theatre Convention (Hrsg.). Digital Theatre: A Casebook. https://www.europeantheatre.eu/ download-attached/Rw8QZePKGhK8OOl695rH6RfqKueGg1xJbeWxa9HA6NgG7TXXFj. Berlin 2018 (18. Dezember 2020). Finter, Helga. Die soufflierte Stimme: Text, Theater Medien. Aufsätze 1979–2012. Frankfurt am Main 2014. Fischer-Lichte, Erika. „Verkörperung/Embodiment: Zum Wandel einer alten theaterwissenschaftlichen in eine neue kulturwissenschaftliche Kategorie“. Verkörperung. Hrsg. von Erika Fischer-Lichte, Christian Horn und Matthias Warstat. Tübingen und Basel 2001: 11–25. Fischer-Lichte, Erika. Ästhetik des Performativen. Frankfurt am Main 2004. Fonds Darstellende Künste e. V. (Hrsg.). Autonom: Dokumentation zum Förderprogramm Fonds Darstellende Künste. https://www.fonds-daku.de/assets/Publikationen/2022/Autonom_DE.pdf. Berlin 2022. Görz, Günther, Josef Schneeberger und Ute Schmidt. „Einleitung“. Handbuch der Künstlichen Intelligenz. Hrsg. von Günther Görz, Josef Schneeberger und Ute Schmidt. 5., überarb. und akt. Auflage. München 2014: 1–18. H.A.U.S. „ITTEN, BREATH, ROBOT – impro robot dance performance – 26.10.19“. https://h-a-u-s.org/ index.php/2019/10/18/itten-atem-roboter-26-10-19/. Wien 2019 (15. Dezember 2020). H.A.U.S. The Human-Humanoid Space-Game. https://h-a-u-s.org/index.php/2016/11/28/the-humanhumanoid-space-game/. Wien 2016 (15. Dezember 2020). Hölzl, Jessica und Jochen Lamb. „Robotik im Figurentheater“. Algorithmen des Theaters: Ein Arbeitsbuch. Hrsg. von Ulf Otto. Berlin 2020: 264–282. Iida, Fumiya, Rolf Pfeifer, Luc Steels und Yasuo Kuniyoshi (Hrsg.) Embodied Artificial Intelligence. International Seminar Dagstuhl Castle, Germany, July 7–11, 2003. Revised Selected Papers. Berlin und Heidelberg 2004. Jacob, Mikhail. Improvisational Artificial Intelligence for Embodied Co-Creativity. https://smartech. gatech.edu/handle/1853/62270. Atlanta 2019 (29. März 2023) [zugl. Atlanta, Georgia Institute of Technology, Diss.]. Koß, Daniela. „Diskussionsreflexion [Workshop Theater & Tanz]“. Kultur gestaltet Zukunft: Künstliche Intelligenz in Kunst und Kultur. Hrsg. von der Stiftung Niedersachsen. Hannover 2019: 117. Kulturværft/Toldkammeret (Hrsg.). Stage. https://kuto.dk/stage/ 2020 (12. Oktober 2020). Leeker, Martina. „Algorithmen in Performances: Umdeutungen, Verbergungen, Ver/Meidungen, Verharmlosungen in der Begegnung von Ingenieurswissen und künstlerischen Experimenten“. Algorithmen des Theaters: Ein Arbeitsbuch. Hrsg. von Ulf Otto. Berlin 2020: 12–50.

KI-basierte Verfahren im Theater und in Performances 

 189

Lehmann, Hans-Thies. Postdramatisches Theater. 5. Auflage. Frankfurt am Main 2011 [Frankfurt am Main 1999]. Lenzen, Manuela. „Verwirrungsmaschinen: Künstlicher Intelligenz begegnen“. Kultur gestaltet Zukunft: Künstliche Intelligenz in Kunst und Kultur. Hrsg. von der Stiftung Niedersachsen. Hannover 2019: 20–27. Lenzen, Manuela. Künstliche Intelligenz: Was sie kann & was uns erwartet. München 2018. Mathewson, Kory W. und Piotr Mirsowski. „Improvised Comedy as a Turing Test [Handout, presented at 31st Conference on Neural Information Processing Systems 2017. Workshop on Machine Learning for Creativity and Design]“. https://www.researchgate.net/publication/321307050_ Improvised_Comedy_as_a_Turing_Test 2017b. (10. März 2023). Mathewson, Kory W. und Piotr Mirsowski. „Improvised Theatre Alongside Artificial Intelligences“. Proceedings of The Thirteenth AAAI Conference on Artificial Intelligence and Interactive Digital Entertainment (AIIDE-17). Hrsg. von Brian Magerko and James Rowe. Palo Alto, CA 2017a: 66–72. Meinhardt, Iris und Michael Krauss. „Robot Dreams“. https://www.meinhardt-krauss.com/ galerie/25192/robot-dreams.html. Stuttgart 2020 (13. Oktober 2020). Meyer-Christian, Felix. „Costa Compagnie. Über“. https://www.costacompagnie.org/de/ueber/. Hamburg und Berlin 2020 (23. September 2020). Mirowski, Piotr, Kory Mathewson, Boyd Branch, Thomas Winters und Ben Verhoeven. „Rosetta Code: Improv in Any Language“. http://computationalcreativity.net/iccc20/papers/017-iccc20.pdf. 2020. (22. Februar 2021). Mustroph, Tom. „Hacken für das Theater“. Theater der Zeit 74.12 (2019): 8–9. Neidhart, Mirjam. „Der Roboter kann alles, theoretisch! Ein Erfahrungsbericht“. Beiträge zur Integralen Weltsicht XXIV (2016): 14–23. Otto, Ulf. „Einleitung“. Algorithmen des Theaters: Ein Arbeitsbuch. Hrsg. von Otto Ulf. Berlin 2020: 7–11. Pesl, Martin. „Stars ohne Lampenfieber“. https://www.falter.at/zeitung/20190116/stars-ohnelampenfieber/1947da68e7. Falter 03/2019, Wien 16.1.2019 (12. Oktober 2020). Pfeifer, Rolf und Josh Bongard. How The Body Shapes The Way We Think: A New View of Intelligence. Cambridge, MA 2007. Poschmann, Gerda. Der nicht mehr dramatische Theatertext: Aktuelle Bühnenstücke und ihre dramaturgische Analyse. Tübingen 1997. PROSECCO (Hrsg.). Introduction to Computational Creativity. http://prosecco-network.eu/introductioncomputational-creativity. Dublin et al. 2020 (12. Oktober 2020). Schipper, Imanuel. „From Flâneur to Co-Producer“. Performing the Digital. Performativity and Performance Studies in Digital Cultures. Hrsg. von Martina Leeker, Imanuel Schipper und Timon Beyes. Bielefeld 2017: 191–209. Schlemminger, Sascha. „Arbeitsbericht: Das computerisierte Objekt als Performer im interaktiven Theater. Innenansichten aus den Proben zur ‚Konferenz der wesentlichen Dinge‘ von pulk fiktion“. Algorithmen des Theaters: Ein Arbeitsbuch. Hrsg. von Ulf Otto. Berlin 2020: 283–292. Schrödl, Jenny. Vokale Intensitäten: Zur Ästhetik der Stimme im postdramatischen Theater. Bielefeld 2012. Schürer, Oliver. „‚Doppelgänger‘: A Dance Performance Research Cycle on Humans and Humanoids“. Tanz der Dinge/Things that dance. Hrsg. von Johannes Birringer und Josephine Fenger. Bielefeld 2019: 77–80. Schuster, Susanne. „Moonshot Thinking – Digitale Innovationen in den freien perfromativen Künsten“. https://www.link-niedersachsen.de/blog/blog_kultur/moonshot_thinking. Hannover 2019 (12. Oktober 2020).

190 

 Christian Wobbeler

Schwarz, Samuel und Corinne Soland. „Digitalbühne Zurich: Die Schauspielerin 2.0“. Der digitale Kulturbetrieb: Strategien, Handlungsfelder und Best Practices des digitalen Kulturmanagements. Hrsg. von Lorenz Pöllmann und Clara Herrmann. Wiesbaden 2019: 367–388. Smrekar, Maja. „CLICK Garden. !brute_force“. https://ars.electronica.art/keplersgardens/de/brute_ force/. Linz 2020 (25. Februar 2021). Stiftung Niedersachsen (Hrsg.). Kultur gestaltet Zukunft: Künstliche Intelligenz in Kunst und Kultur. https://www.link-niedersachsen.de/damfiles/default/was-wir-foerdern/programme/link/ link_tagungspublikation_stiftung_niedersachsen_einzelseiten.pdf-3a9184401f86ee1b85e825 2619ddd751.pdf. Hannover 2019 (14. August 2020). Stiftung Niedersachsen. Interview mit Jascha Fendel – Absolvent der KI-Schule. https://www. link-niedersachsen.de/blog/blog_kultur/ki_schueler_fendel. Hannover 2020. (15. Dezember 2020). Stubbe, Julian, Maxie Lutze und Jan-Peter Ferdinand. „Kreative Algorithmen für kreative Arbeit?“ Künstliche Intelligenz: Technologie | Anwendung | Gesellschaft. Hrsg. von Volker Wittpahl. Berlin 2019: 255–271. Thonon, Jonathan. „The Re-Invention of Surtitling: A New Technical Approach to the International Market“. Digital Theatre. A Casebook. Hrsg. von der European Theatre Convention. Berlin 2018: 50–55. Tuchmann, Kai. „Kai Tuchmann on Dramaturgy and Digital Realities“. https://thetheatretimes.com/ kai-tuchmann-on-dramaturgy-and-digital-realities/. The Theatre Times, New York 8.10.2019 (1. März 2021). Volland, Holger. „Künstliche Intelligenz in der Kultur – Die kreative Macht der Maschinen“. Kultur gestaltet Zukunft: Künstliche Intelligenz in Kunst und Kultur. Hrsg. von der Stiftung Niedersachsen. Hannover 2019: 28–35. Waagner Falkenstrøm, Cecilie. Covid-19 AI Battle. https://aibattle.art. 2020 (12. Oktober 2020). Wesemann, Arnd. „Künstliche Intelligenz. Können Roboter tanzen? Und wenn ja, warum sollten sie?“ tanz: Zeitschrift für Ballett, Tanz und Performance. Jahrbuch 2015: große gefühle 13 (2015): 106–113.

Stephanie Catani

Künstliche Intelligenz in der Filmindustrie und im Filmbetrieb Das Medium, das die kanonischsten und popkulturell einflussreichsten künstlerischen Imaginationen Künstlicher Intelligenz (siehe auch → Filmgeschichte KI) hervorgebracht hat, ist zugleich jenes, das KI-Verfahren vor die vielleicht größten Herausforderungen stellt: der Film. Die Multimedialität des Mediums, die Gleichzeitigkeit seiner visuellen, narrativen und auditiven Dimension, ist dafür verantwortlich, dass filmische Experimente mit KI-Verfahren ausgeblieben sind, als Literatur und Musik die Algorithmen längst für sich entdeckt hatten. Diese Beobachtung gilt zumindest für den narrativen Film, d.  h. für Filme, die plotorientiert sind und eine Geschichte erzählen, die sowohl visuell, narrativ als auch auditiv vermittelt wird. Tatsächlich existieren im Bereich des Schriftfilms, der vorrangig mit visuellen und zum Teil auch akustischen Signalen arbeitet, die narrative Ebene hingegen weitgehend vernachlässigt, bereits frühe filmische Experimente mit den Möglichkeiten computergenerierter Filmkunst. Beispielhaft sei hier auf den österreichischen Filmemacher und Avantgardekünstler Marc Adrian verwiesen, der mit seinem fünfminütigen Kurzfilm random (1963), bei dem ein randomisierter Kathodenstrahl auf 35-mm-Zelluloid übertragen wurde, vermutlich den ersten computergenerierten Film veröffentlicht (Wolfsteiner 2006). Da die Datengenerierung bei einem narrativen Film aber auf drei medialen Ebenen passieren und dabei aufeinander abgestimmt sein muss, haben KI-basierte Experimente zunächst nur in Teilen (entweder die Tonspur, die Bild- oder die Handlungsebene betreffend) stattgefunden oder sich auf einzelne Bereiche der Filmproduktion (insbesondere Pre- und Post-Produktion) beschränkt. Der folgende Überblick über KI-Verfahren im Film wird der Multimodalität des Mediums insofern gerecht, als die unterschiedlichen modalen Ebenen jeweils individuell in den Blick genommen werden. Dabei bleibt der Bereich der Filmmusik weitgehend unberücksichtigt, da KI-Verfahren in der Musik im Handbuch separat ausgeleuchtet werden (siehe auch → KI und Musik). Zusammengefasst lässt sich hier pointieren, dass die Musikgeschichte über eine deutlich längere Tradition an Experimenten mit KIbasierten Verfahren verfügt als die Filmgeschichte und daher längst kommerzielle Programme bereitstehen, die es im Grunde allen Endnutzer:innen ermöglichen, einen eigenen projektspezifischen Soundtrack mittels KI komponieren zu lassen. Bereits seit 2016 steht das Kompositionsprogramm AIVA zur Verfügung, das mit verschiedenen Musikgenres trainiert wurde und in der Lage ist, kurze Musikstücke (bis zu 3 Minuten lang) in unterschiedlichen Stilrichtungen zu komponieren – hier lässt sich eigens die Voreinstellung ‚20th Century Cinematic‘ (dt. Kino des 20. Jahrhunhttps://doi.org/10.1515/9783110656978-011

192 

 Stephanie Catani

derts) wählen. Mit Soundraw oder Melobytes sind inzwischen weitere Programme auf den Markt gekommen, die für den Bereich der Filmmusik KI-basierte Verfahren automatisierter Musikgenerierung zur Verfügung stellen.

1 KI als Werkzeug (Preproduktion – Shooting – Postproduktion) Letztlich hat weniger die Filmkunst im Besonderen als vielmehr die Filmindustrie im Allgemeinen mit dem Einsatz KI-basierter Verfahren auf sich aufmerksam gemacht. Verfahren im Bereich der Preproduktion sind etwa dort relevant, wo es um die automatisierte Auslese und Optimierung von Drehbüchern geht. So gibt es seit einigen Jahren Start-Ups wie das in Kalifornien gegründete StoryFit, das klassische Lektoratsarbeit mit Verfahren Künstlicher Intelligenz verbindet. Ein weiteres Projekt ist das Programm Corto, das an der University of Southern California (USC) in Kooperation mit verschiedenen US-amerikanischen Filmstudios und großen Technologieunternehmen (darunter Microsoft, Amazon, Google) entwickelt wurde. Bei Corto handelt es sich um eine derzeit nur als Beta-Version vorliegende webbasierte Anwendung, mit deren Hilfe Text- wie Videoelemente analysiert und im Hinblick auf ihre Publikumswirksamkeit und den erwartbaren Publikumserfolg bewertet werden. Auch in die Postproduktion haben KI-basierte Verfahren Eingang gefunden, da einschlägige Programme zur Videogenerierung und -bearbeitung wie Animoto oder die Adobe-Softwarepakete für die Videoanimation und den Videoschnitt seit geraumer Zeit Künstliche Intelligenz einsetzen. Darüber hinaus können Profis wie Amateure auf Programme wie Topaz‘ Video AI zurückgreifen, wenn es darum geht, eigenes (oder fremdes) Filmmaterial mithilfe Künstlicher Intelligenz in der Bildauflösung hochzurechnen, Verwacklungen und Unschärfen zu reduzieren und andere Defizite zu verbessern. Auch der für die Postproduktion essenzielle Bereich des Color Grading hat sich durch die Unterstützung von KI-basierten Verfahren gewandelt: Programme wie ColourLab AI 2.0 erleichtern Filmemacher:innen die nachträgliche (und kostengünstigere) Einflussnahme auf die Farbgebung und -mischung. Für den Filmdreh (shooting) stehen inzwischen intelligente Kameradrohnen zur Verfügung, die autonom und ohne ein vorgegebenes Drehbuch über die optimale Kameraposition entscheiden. Wissenschaftler der Carnegie Mellon University (CMU) in Pittsburgh stellten 2018 eine neue Drohnentechnik vor, die es möglich macht, dass sich Kameradrohnen in unbekannten Umgebungen selbständig orientieren (Bonatti et. al 2018; Gschwindt et. al 2019). Die intelligenten Drohnen müssen nicht mehr in der realen Landschaft trainiert werden, sondern

Künstliche Intelligenz in der Filmindustrie und im Filmbetrieb 

 193

übertragen das im Rahmen einer Simulation ‚Erlernte‘ (Flugkurven, Flugtempo, Bewegungen, Abstand zu Hindernissen etc.) auf die jeweils neue Umgebung. Die Bilderkennung der Drohnen funktioniert dabei so gut, dass sie den Kontext der gefilmten Szene, die Position von Schauspieler:innen und Hindernissen erschließen und ihre Kameraarbeit (Perspektive, Distanz, Schärfe) darauf abstimmen können. Aus Sicht der am Forschungsprojekt beteiligten Informatiker liefern die intelligenten Drohnen erstaunlich befriedigende Ergebnisse: „Our user study confirms that our trained policies satisfy the human sense for aesthetics and offers insight into possible future improvements of the algorithm“ (Gschwindt 2018).

2 Drehbuchgenerierung Gerade die rasanten Fortschritte im Bereich der Textgenerierung durch große Sprachmodelle (siehe auch → Literaturgeschichte KI) haben Konsequenzen für das filmische Storytelling – zumindest für den zentralen, dem Film zugrundliegenden Text: das Drehbuch. Als 2016 der schottische Cartoonist Andy Herd mithilfe des von Google entwickelten und mit Neuronalen Netzen operierenden Open-Source-Programms Tensor Flow, das er zuvor mit sämtlichen Folgen der US-amerikanischen Sitcom Friends trainiert hatte, Drehbuchvorlagen für neue Folgen der Serie generierte, war das Medienecho groß, obgleich Stil und Inhalt der generierten Texte sicherlich noch nicht überzeugend ausfielen. Vorgänger dieses KI-basierten Verfahrens war ‚The infinite Friends Machine‘ – ein Modell, das der Medienkünstler Tom Armitage bereits 2014 mit Transkripten der ersten Staffel der Serie programmiert hatte. Im Anschluss wurden durch den Einsatz eines stochastischen Verfahrens mithilfe der Markow-Kette neue Skripte für weitere Episoden generiert. Diese Skripte wiederum speiste Armitage der Animations-App Plotagon ein, so dass kleine Animationsfilme auf der Grundlage der neu generierten Drehbücher entstanden. Die medial größte Aufmerksamkeit für ein vollständig KI-basiertes Drehbuch erhielt im Jahr 2016 das Filmprojekt Sunspring – eine Kooperation des selbst ernannten US-amerikanischen „Creative Technologist“ Ross Goodwin mit dem britischen Filmregisseur Oscar Sharp. (Sunspring 2016, der Film und das Transkript stehen zur Verfügung unter https://arstechnica.com/video/watch/zone-out). Bei Sunspring handelt es sich um einen experimentellen Science-Fiction-Kurzfilm, dessen Drehbuch vollständig mithilfe eines rekurrenten Neuronalen Netzwerks (LSTM) verfasst wurde. Ross Goodwin trainierte das Netzwerk mit zahlreichen Science-Fiction-Drehbüchern aus den 1980ern und 1990er Jahren und taufte es

194 

 Stephanie Catani

auf den Namen Benjamin. Das von Benjamin generierte Drehbuch wurde von den Schauspielern Thomas Middleditch und Humphrey Ker sowie der Schauspielerin Elisabeth Grey interpretiert und als eine Dreiecks-Liebesbeziehung inszeniert. Der Film wurde als Beitrag beim Internationalen Science-Fiction und Fantasy FilmFestival London im Rahmen der 48-Stunden-Challenge eingereicht  – das heißt, das gesamte Filmprojekt wurde in weniger als zwei Tagen realisiert. Tatsächlich ergibt sich die Sinnhaftigkeit der Filmszenen erst durch die schauspielerische Umsetzung, die zugleich eine individuelle Interpretation des von Benjamin generierten Outputs darstellt. Das Drehbuch selbst macht ohne die schauspielerische Umsetzung nur zum Teil Sinn, enthält zahlreiche fehlerhafte Satzkonstruktionen, logikwidrige Satzanschlüsse, sinnverzerrte Dialoge und kaum verständliche Regieanweisungen. Was heute angesichts der textgenerierenden Leistung neuer Sprachmodelle fehlerhaft und überholt erscheint, war noch fünf Jahre zuvor eine Sensation – entsprechend groß gestaltete sich das Medienecho auf den Film und auf die Kooperation von Künstlicher Intelligenz und menschlichen Schauspieler:innen. Mit den großen Sprachmodellen wie GPT-3 haben sich die Möglichkeiten für die automatisierte Generierung von Drehbüchern deutlich verändert. 2022 stellten KI-Forscher:innen von Googles DeepMind und der Standford Universität das Programm Dramatron vor: Dabei handelt es sich um ein GTP-3-basiertes System zum Erstellen von Drehbüchern. Mithilfe von Dramatron lässt sich aus einer Texteingabe (z.  B. kurze Angaben zum zentralen Handlungskonflikt) ein vollständiges Drehbuch mit Filmtitel, Figureninventar, Szenenzusammenfassungen, Ortsbeschreibungen und Dialogen erzeugen. Die Benutzer:innen, heißt es im Jahr 2022 veröffentlichten Preprint-Paper zum Projekt, können in jeder Phase der Generierung eingreifen, z.  B. Alternativen vorschlagen oder den bereits ausgegebenen Text bearbeiten. Ziel sei damit eine Co-Autorschaft von Mensch und KI: „In this way, the human interactively co-writes the script“ (Mirowski et al. 2022). Tatsächlich geht es der Studie zum Projekt ganz dezidiert um die Idee einer co-kreativen Autorschaft („co-creative authorship“), daher sind am Design- und Entwicklungsprozess des Systems auch 15 Dramatiker:innen und Drehbuchautor:innen beteiligt, die mit Dramatron neue Texte generieren und deren Feedback sogleich zur Optimierung des Systems verwendet wird.

3 Text- to-Video-Verfahren und Deepfakes Systeme wie Dramatron werden künftig die Filmentwicklung beeinflussen, sind im Grunde aber immer noch textgenerierende Programme, die gerade die auch medienkonstituierenden visuellen Aspekte des Films nicht betreffen. Fragt man nach dem

Künstliche Intelligenz in der Filmindustrie und im Filmbetrieb 

 195

Status Quo der automatisierten Videogenerierung, befindet sich der Filmbetrieb diesbezüglich an einer Zeitenwende. Die im Jahr 2022 öffentlich gemachten bildgenerierenden Modelle Dall-E 2.0, Midjourney und Stable Diffusion haben die allgemeinen Erwartungen an Verfahren automatischer Videogenerierung hochgeschraubt – Textto-Video-Verfahren scheinen nun die natürliche Fortsetzung der so erfolgreichen Text-to-Image-Verfahren darzustellen. Und tatsächlich haben diese nicht lange auf sich warten lassen, stehen aber bislang (Stand Anfang 2023) der Öffentlichkeit noch nicht oder nur als Beta-Version zur Verfügung. Im Jahr 2022 stellte das US-amerikanische Unternehmen Meta sein KI-Modell Make-A-Video vor, das es analog zu den neuesten Text-to-Image-Verfahren möglich macht, eine Texteingabe direkt in ein Video umzuwandeln (Singer et al. 2022). Fast zeitgleich präsentierte auch Google zunächst sein KI-basiertes Modell Imagen Video und kurz darauf mit Phenaki eine weitere Software, mit deren Hilfe sich aus Textprompts kurze Videos erstellen lassen (Ho et al. 2022; Villegas et. al 2023). Das Ausmaß an Kreativität einerseits und filmischer Qualität andererseits ist über die von den Unternehmen lancierten Vorschauen hinaus zum gegenwärtigen Zeitpunkt nur schwer einzuschätzen. Eine Ausweitung der Text-to-Video-Verfahren bilden Image-to-Video-Verfahren wie Kaiber, das gerade im Bereich des Animationsfilms eingesetzt werden kann. Hier werden aus einer individuellen Bildvorlage und einem Textprompt neue Videos generiert, vorrangig im Stil unterschiedlicher Animationsgenres. Die voranschreitenden technischen Errungenschaften der letzten zehn Jahre, allen voran im Bereich des maschinellen Lernens mithilfe generativer adversarischer Netzwerke (GANs), haben für spezifische Entwicklungen insbesondere im Bereich der Gesichtsanimierung bzw. -bearbeitung geführt. Für Schlagzeilen hat die Videobearbeitung mithilfe Künstlicher Intelligenz durch sogenannte Deepfakes gesorgt – eine KI-gesteuerte Technik, mit der sich Gesichter und Stimmen von Figuren in Videos und Filmen beliebig austauschen lassen. Gegenwärtig werden solche Face-Swap-Verfahren allen Endnutzer:innen durch verschiedene Apps zur Verfügung gestellt und sind ein beliebtes Tool gerade im Bereich Social Media geworden. Vorstufen dieser Technik finden sich bereits Ende der 1990er Jahre mit dem Programm Video Rewrite (Bregler et al. 1997), das neue Gesichtsanimationen aus einer spezifischen Audioausgabe erzeugt, sowie in dem algorithmisch gesteuerten Bildverarbeitungsverfahren AAM (Active Appearance Model), das für den Abgleich einer Form mit einem Bild auf ein statistisches Modell zurückgreift. (Cootes et al. 2001). Nach der Jahrtausendwende wurden gerade Technologien des Motion Capture (dt. Bewegungserfassung) deutlich optimiert, die die heutigen Deepfake-Verfahren erst möglich machen. Die an der TU München entwickelte Gesichtsübertragungssoftware face2face sorgte 2016 für Aufsehen, weil es mit ihrer Hilfe erstmals gelang, die Mimik eines Menschen in Echtzeit auf ein Gesicht einer Filmfigur zu übertragen(Thies et al. 2016).

196 

 Stephanie Catani

Wie leistungsfähig Verfahren zur Videobearbeitung und -generierung insbesondere im Bereich der Avatarerstellung inzwischen sind, zeigt das Beispiel D-ID. D-ID ist ein israelisches KI-Unternehmen, das im Jahr 2022 die neue Webseite ‚Creative Reality Studio‘ lancierte, mit deren Hilfe das Erstellen eines Avatars, der einen von den Nutzer:innen vorgegebenen Text spricht, einfach geworden ist. Die Nutzer:innen müssen lediglich ein Bild einer Person hochladen oder einen der vorgegebenen Moderator:innen auswählen und können dann einen auf der Seite vorgegebenen Textprompt hinzufügen bzw. einen eigenen Text eingeben. Das Programm generiert anschließend ein Video mit einem Avatar, der diesen Text spricht. In ethischer Hinsicht bedeuten die aus solchen Verfahren resultierenden Filmclips regelmäßig große Herausforderungen, zum einen, wenn sie anstößige Inhalte beinhalten (Deepfake-Porno), zum anderen, wenn die in den Videos gezeigten Figuren Personen öffentlichen Interesses sind. Kaum noch überschaubar sind die Filmclips, in denen Hollywood-Größen die seltsamsten Dinge tun, etwa Keanu Reeves, der einen Raubüberfall verhindert, (https://www.youtube.com/watch?v=3dBiNGufIJw&t=174s) oder Tom Cruise, der als Deepfake-Variante deeptomcruise eine TikTok-Sensation darstellt. (https://www.tiktok.com/@deeptomcruise?is_from_webapp=1&sender_ device=pc) Der britische Streaming-Anbieter ITV-X produzierte Anfang 2023 eine sechsteilige Miniserie, die sich unter dem Namen Deep Fake Neighbour Wars die kreativen Möglichkeiten aktueller Deepfake-Verfahren zu eigen macht und gleichzeitig ironisch damit umgeht. (Regie: Spencer Jones, 2023) Die weltweit erste Deepfake Comedy-Serie ist im Stil einer Reality-TV-Show aufgemacht und zeigt in jeder Folge zwei Prominente, die in einen Nachbarschaftsstreit geraten. So streiten etwa Kim Kardashian und Idris Elba um den gemeinschaftlich genutzten Garten, Greta Thunberg und Ariana Grande um eine angemessene Weihnachtsdekoration oder Rihanna und Usain Bolt, deren freundschaftliches Nachbarschaftsverhältnis mit Bolts neuer Freundin Phoebe Waller Bridges ins Wanken gerät. Obgleich die Serie die eigene Bildmanipulation sehr transparent macht und darüber hinaus mit der ironischen Übersteigerung eines dominanten popkulturellen Interesses an den banalsten Alltagsdetails vermeintlich Prominenter durchaus kritisch agiert, wurden auch Ängste sichtbar. So hat die britische Gewerkschaft darstellender Künstler:innen den Aufruf „Stop AI Stealing the Show“ gestartet und wirbt mit explizitem Bezug auf aufkommende „deep fake videos“ für Maßnahmen seitens der Regierung, um die Rechte von Schauspieler:innen stärker zu schützen (https://www.equity.org.uk/campaigns/ stop-ai-stealing-the-show/#the-issue).

Künstliche Intelligenz in der Filmindustrie und im Filmbetrieb 

 197

4 Generierte Filme: Beispiele Mit Blick auf die technologischen Entwicklungen im Bereich der KI-basierten Videogenerierung wird klar, warum nur wenige vollständig KI-erzeugte Filme bekannt geworden sind. KI-Tools stellen für den Filmbetrieb ohne Frage wichtige Werkzeuge von der Filmentwicklung bis zur Postproduktion dar, erlauben es in der Regel aber nicht, ein gesamtes Filmprojekt ausschließlich mithilfe von KI-Verfahren zu realisieren. Pionierarbeit leisten hier einmal mehr Ross Goodwin und Oscar Sharp, die zwei Jahre nach ihrem Film Sunspring nach einem Drehbuch der Künstlichen Intelligenz Benjamin den Film Zone Out (2018) folgen lassen, der ebenfalls als Beitrag für das Internationale Science-Fiction und Fantasy Film-Festival London im Rahmen der 48-Stunden-Challenge konzipiert wurde. (Zone out, der Film und das dazugehörige Transkript stehen zur Verfügung unter: https://arstechnica.com/video/watch/ zone-out). Während Benjamin bei Zone Out lediglich das Drehbuch generierte, zeichnet das Neuronale Netzwerk nun für Drehbuch, Regie, Schnitt und Soundtrack gleichermaßen verantwortlich. Dieses Mal wurde das Netzwerk mit dem Filmmaterial aus nur zwei Filmen trainiert, The last man on earth (Regie: Ubaldo Ragona und Sidney Salkow, 1964) und The Brain that wouldn’t die (Regie: Joseph Green, 1962)  – diese Reduktion hatte einerseits rechtliche Gründe, andererseits auch technische, da man auf Einstellungen angewiesen war, die die Filmfiguren häufig genug in Close-Ups und zudem direkt in die Kamera blickend zeigen. Aus den beiden Filmen generierte ‚Benjamin‘ passend zum vorab entstandenen Drehbuch einen Kurzfilm  – und überschrieb dabei die Gesichter der ursprünglichen Schauspieler:innen mithilfe der Face-Swapping-Technologie mit den Gesichtern vorgefilmter neuer Schauspieler:innen (wie bei Sunspring sind es Elisabeth Grey, Humphrey Ker und Thomas Middleditch). Auch das Audiomaterial zu den von Benjamin generierten Dialogen wurde von den Schauspieler:innen eingesprochen und mittels synthetischer Stimmerzeugung in den Film integriert. Die Qualitäten dieses Kurzfilms liegen sicherlich im experimentellen, weniger im künstlerischen Bereich. Tatsächlich stellen die Filmemacher (wie schon zuvor bei Sunspring) die Frage nach filmischer Originalität, nach filmtechnischer Innovation und den Möglichkeiten, Mensch-Maschine-Beziehungen nicht nur auf der Leinwand, sondern künftig im Produktionsprozess sichtbar zu machen. Dem Regisseur Oscar Sharp ging es bei seinem filmischen Experiment dabei nicht darum, Aussagen zu KI als Künstler zu formulieren, sondern – im Gegenteil – durch die Auslagerung kreativer Prozesse an ein Neuronales Netzwerk Erkenntnisse über das spezifisch Menschliche am Filmemachen zu erhalten: „What I was really trying to do is attempt to automate each part of the human creative proces to see if we learn anything about what it really is to be a human person creating films“ (Goode 2018).

198 

 Stephanie Catani

An einem außergewöhnlichen Experiment mit den filmgenerierenden Fähigkeiten Künstlicher Intelligenz versuchte sich das Amsterdamer Eye Filmmuseum in Kooperation mit den Filmemachern Bram Loogman und Pablo Núñez Palma, die 2018 Jan Bot als den neuesten Mitarbeiter des Museums vorstellten. Bei Jan Bot handelt es sich um ein auf KI-Verfahren basierendes Computer-Programm, dessen Hauptaufgabe es ist, aus dem umfangreichen museumseigenen Videoarchiv Bits & Pieces experimentelle Filme zu erstellen, die sich an den weltweiten GoogleTrends orientieren. Sowohl die Filmschnipsel als auch die trending topics werden mittels einer automatischen Videoinhaltsanalyse und einer Schlagwortextraktion analysiert. Die Ergebnisse der Analyse werden verwendet, um neue Kurzfilme zu erstellen, indem durch das Programm Film- und Textmaterial semantisch abgeglichen werden. Zuschauer:innen können dem Programm auf einer dafür eingerichteten Webseite beim Durchforsten der weltweiten Trends zusehen und pro Tag etwa zehn 30-Sekunden-kurze, passend zu den Trends generierte Filme abrufen. Dieses niederländische Projekt geht über das schlichte Experimentieren mit den Möglichkeiten Künstlicher Intelligenz weit hinaus, da sowohl aus medienreflexiver als auch filmtechnischer wie filmhistorischer Perspektive aufschlussreiche Beobachtungen angestellt werden. So unterstreicht der Medienwissenschaftler Christan Gosvig Olesen die kritischen Implikationen des Bots, den er als „surrationalistischen Geschichtsschreiber“ interpretiert (Olesen 2019). Unter dem Adjektiv surrationalistisch versteht Olesen eine Filmarchivierung und -konservierung, die das Dokumentarische und vermeintlich Bezeugende des Mediums mit seiner poetischen Kraft zusammenbringt. Olesen erkennt in Jan Bot einen spielerischen Gegenentwurf zu aktuellen automatisierten Videoinhaltsanalysen und einer digitalen filmhistorischen Forschung, die auf die indexikalische Genauigkeit des Films besteht: „Thus, Jan Bot’s reflexive, experimental reason points us to the impossibility of exhausting archival films semantically and neatly fitting them into contemporary news narratives. Instead, it highlights the underlying contingencies of archival film’s evidentiary status and the distance in time between the material’s past expressions and present interpretations of it created with software“ (Olesen 2019). Der deutsche IT-Unternehmer und Künstler Fabian Stelzer stellte 2022 sein Filmprojekt Salt vor – eine auf Twitter veröffentlichte Reihe von Kurzfilmen, die vollständig KI-generiert sind. (https://twitter.com/SALT_VERSE). Stelzer verwendete zur Bildgenerierung zunächst Modelle wie Midjourney, Stable Diffusion und Dall-E 2, setzte diese durch verschiedene Bild- und Videobearbeitungsprogramme (u.  a. auch Deepfakes) in ‚bewegte Bilder‘ um und erzeugte die meisten der in den Filmen verwendeten Stimmen mit dem KI-Stimmengenerator Murf.AI. Die visuelle Ästhetik der weniger als zwei Minuten langen Filme erinnert an ältere Sci-Fi-Filme aus den 1970ern; der sich von Film zu Film entwickelnde Plot ist Resultat einer Interaktion zwischen Stelzer, der die Filme über einen eigenen Twitter-Account veröffentlicht,

Künstliche Intelligenz in der Filmindustrie und im Filmbetrieb 

 199

und den Zuschauer:innen, die nach jedem Post gefragt werden, wie die Handlung weitergehen solle. Die Arbeit von Film-Regisseur:innen sieht Stelzer nicht bedroht, allerdings wähnt er die Filmkunst und den Filmbetrieb an einer Zeitenwende, in der mit KI-Verfahren neue wirkungsmächtige Werkzeuge die kreativen Möglichkeiten Filmschaffender bereichern: „We’re on the verge of a new era, really… To me, this is as big as the invention of photography, and to be honest maybe as big as the invention of writing“ (Kan 2022). 2022 sorgte ein weiterer ‚KI-Film‘ für Aufsehen: Glenn Marshalls Kurzfilm The Crow, der erfolgreich auf zahlreichen Festivals gezeigt wurde, beim Filmfestival von Cannes schließlich mit dem Preis für den besten Kurzfilm ausgezeichnet und beim Prix Ars Electronica mit einer lobenden Erwähnung bedacht wurde. Der dreiMinuten-lange Film zeigt die Animation einer tanzenden Figur, deren Umrisse zwischen denen einer Krähe und denen eines Tänzers oder einer Tänzerin changieren. Vorlage für den Film ist der kurze Tanzfilm Painted (2011) von Duncan McDowall und Dorotea Saykaly – die Bewegungen der darin auftauchenden Tänzerin inspirierten Marshall zu seinem Animationsfilm. Mithilfe des multimodalen OpenAIModells CLIP (Constative Language-Image-Pretraining) und eines eindeutigen Textprompts von Marshall (‚A painting of a crow in a desolate landscape’) wurde aus Painted schließlich The Crow (Hahn 2022). Glenn Marshall, der bereits seit einigen Jahren mit KI-Verfahren in seinen Filmprojekten experimentiert, begreift bild- und videogenerierende Verfahren als wichtiges Tool für die Film- und Kunstproduktion der Zukunft. Ein Tool allerdings, das nicht zum Selbstzweck und nicht als effektheischendes Skandalon verwendet werden sollte, sondern als „ein Werkzeug […], um ein vollendetes Kunstwerk zu erstellen“ (Hahn 2022). Wie viele andere Künstler:innen fühlt sich Marshall keinesfalls bedroht von den Fähigkeiten videogenerierender Modelle, sondern heißt sie als innovative Modelle sehr willkommen. Ganz richtig verweist der Filmemacher auf den entscheidenden Einfluss menschlicher Kreativität auf das filmische Endprodukt, ohne den echte (Film)Kunst kaum zustände kommen könne: „Aber mit diesen Werkzeugen muss man immer noch handwerklich erschaffen. Es reicht nicht, jeden kurzen, schrulligen Test wie Werbemüll hochzuladen, um der Welt zu zeigen, wie cool diese Technologie ist. Was 99 Prozent der Leute aber zu machen scheinen“ (Hahn 2022).

Filmographie Deep Fake Neighbour Wars. 6 Folgen. Reg. Spencer Jones. Tiger Aspect Productions, 2023. Painted. Reg. Duncan McDowall. https://www.youtube.com/watch?v=Pd2KM3qjcKk. 2011 (16. März 2023). Salt. Reg. Fabian Stelzer. https://twitter.com/SALT_VERSE?s=20. Deutschland 2022 (16. März 2023).

200 

 Stephanie Catani

Sunspring. Reg. Oscar Sharp. https://arstechnica.com/video/watch/zone-out. UK und USA 2016 (16. März 2023). The Crow. Reg. Glenn Marshall. https://www.youtube.com/watch?v=5dvxY6vXHsA. 2022 (16. März 2023). Zone out. Reg. Benjamin und Oscar Sharp. https://arstechnica.com/video/watch/zone-out. UK und USA 2018 (16. März 2023).

Literaturverzeichnis Bonatti, Rogerio, Yanfu Zhang, Sanjiban Choudhury, Wenshan Wang und Sebastian Scherer. „Autonomous drone cinematographer: Using artistic principles to create smooth, safe, occlusionfree trajectoryies for aerial filming“. International Symposium on Experimental Robotics (ISER) 2018. arxiv.org/abs/1808.09563. Bregler, Christoph, Michele Covell und Malcolm Slaney. „Video Rewrite: Driving visual speech with audio“. SIGGRAPH’97 Proceedings. New York City 1997: 353–360. Cootes T. F., G. J. Edwards und C. J. Taylor. „Active appearance models“. IEEEE Trans. Pattern Analysis and Machine Intelligence 23 (2001): 681–685. Goode, Lauren. AI made a movie – and the results are horrifyingly encouraging. https://www.wired.com/ story/ai-filmmaker-zone-out. Wired 11.6.2018 (16. März 2023). Gschwindt, Mirko, Eve Camci, Rogerio Bonatti, Wenshan Wang, Erdal Kaacan und Sebastian Scherer. „Can a Robot Become a Movie Director? Learning Artistic Principles for Aerial Cinematography“. International Conference on Intelligent Robots and Systems (IROS). 2019 arxiv.org/abs/1904.02579. Hahn, Silke. „Artificial Imagination: Kunst, die kein Menschenauge je sah – über ‚The Crow‘“. https:// www.heise.de/hintergrund/Artificial-Imagination-Kunst-die-kein-Menschenauge-je-sah-ueberThe-Crow-7252704.html. heise online 4.9.2022 (16. März 2023). Ho, Jonathan, William Chan, Chitwan Saharia, Jay Whang, Ruiqi Gao, Alexey Gritsenko et al. „Imagen Video: High Definition Video Generation with Diffusion Models“. (Preprint 2022) arXiv:1906.01524. Kan, Michael. The Footage in this Sci-Fi Movie Project Comes From AI-Generated Images. https://uk.pcmag. com/news/142429/the-footage-in-this-sci-fi-movie-project-comes-from-ai-generated-images. PCMag (UK), 1.9.2001 (16. März 2023). Kühl, Eike. „Und der Oscar geht an …“ https://www.zeit.de/digital/internet/2016-06/sunspringkurzfilm-kuenstliche-intelligenz. Die Zeit, 10.5.2016 (16. März 2023). Mirowski, Piotr, Kory W. Mathewson, Jaylen Pittmann und Richard Evans. „Co-Writing Screenplays and Theatre Scripts with Language Models An Evaluation by Industry Professionals“. (Preprint 2022) arXiv:2209.14958. Olesen, Christian Gosvig. Jan Bot: a Surrationalist Historiographer. Reflections from a digital scholar on a filmmaking bot. https://medium.com/janbot/surrationalist-2b49b60db941. Medium 8.2.2019 (16. März 2023). Singer, Uriel, Adam Polyak, Thomas Hayes, Xi Yin, Songyang Zhang, Qiyuan Hu et al. „Make-AVideo: Text-to-Video Generation without Text-Video Data“. (Preprint 2022) arXiv preprint arXiv:2209.14792. Thies, Justus, Michael Zollhöfer, Marc Stamminger, Christian Theobalt und Matthias Nießner. „Face2Face: Real-time Face Capture and Reenctment of RGB Videos“. CVPR 27.–30.06.2016. Las Vegas, NV, USA 2016: 2387–2395.

Künstliche Intelligenz in der Filmindustrie und im Filmbetrieb 

 201

Villeags, Ruben, Mohammed Babaeizadeh, Pieter-Jan Kindermans, Hernan Moraldo, Han Zhang, Mohammad Thagi Saffar. „Phenaki: Variable Length Video Generation from Open Domain Textual Descriptions“. International Conference on Learning Representations (ICLR) 2023. arxiv.org/ abs/2210.02399. Wolfsteiner, Andreas. „Schriftfilm und methodischer Inventionismus: Das Erweiterte Kino am Beispiel des ersten computergenerierten Films in Europa: dem Schriftfilm random (1963) von Marc Adrian“. À la croisée des langages: Texte et arts dans les pays de langue allemande. Hrsg. von Edwige Brender und Kerstin Hausbei. Paris 2006: 199–207.

Fabian Offert

KI-basierte Verfahren in der bildenden Kunst 1 Die Geburt der KI-Kunst aus dem Geiste der Computerkunst Künstler greifen auf Computer seit den späten 1950er Jahren zurück, als eine Gruppe von Ingenieuren damit begann, im Labor von Max Bense an der Universität Stuttgart mit Computergrafik zu experimentieren (Klütsch 2007). Künstlerinnen und Künstler wie Frieder Nake, Georg Nees, Manfred Mohr, Vera Molnár und viele andere erforschten das Potential von Großrechnern, Plottern und Algorithmen für die Erzeugung visuell interessanter Artefakte. Was als bloßes spielerisches Ausprobieren des neuartigen Equipments in Benses Labor begann, entwickelte sich zu einer Kunstrichtung, die eine neue technische Ästhetik in der frühen Bundesrepublik etablierte. Der Begriff der technischen Ästhetik wird hier in bewusster Abgrenzung zum konkreten „Programm“ der Informationsästhetik verwendet, die, ausgehend vor allem von Max Bense, der Computerkunst ein semiotisch-strukturalistisches Fundament zu verschaffen versuchte (s. Bense 1969; Nake 1974). Der Theoretiker Bense sah in der technischen Ästhetik gar das logische Gegenteil des Faschismus, was in der Diskussion früher Computerkunst, die oberflächlich zunächst eine art pour l’art zu sein scheint, häufig übersehen wird. Die im wahrsten Sinne des Wortes ‚kalkulierte‘ Ästhetik der Computerkunst vermeidet bewusst jegliche Emotionalität und ist dadurch, nach Bense, immun gegen politischen Missbrauch. Natürlich gibt es keine ungebrochene Verbindungslinie zwischen Frieder Nakes frühen Experimenten mit dem ZUSE Graphomat Plotter, einem durch Lochstreifen gesteuerten, automatischen Zeichentisch, und den Arbeiten zeitgenössischer KI-Künstlerinnen und -künstler. Dennoch ist es die technische Ästhetik der frühen Computerkunst – in ihrer ursprünglichen, von Bense erdachten Form, aber vor allem auch in ihrer theoretischen und praktischen Weiterentwicklung durch Frieder Nake – deren Begriffe für die zeitgenössischen KI-Kunst von besonderer Relevanz sind. Zunächst ist dabei zu klären, warum nicht Fotografie oder Film als konzeptuelle Vorläufer der KI-Kunst in Betracht gezogen werden, wie zum Beispiel Aaron Hertzmann es vorschlägt (Hertzmann 2018, 2). Auf den ersten Blick verläuft die Entwicklung der KI-Kunst natürlich ähnlich zur historischen Entwicklung von Fotografie und Film als Kunstformen: Beide nahmen ihren Anfang als bloße Demonshttps://doi.org/10.1515/9783110656978-012

KI-basierte Verfahren in der bildenden Kunst 

 203

trationen neuartiger Technik (man denke etwa an den berühmten Eisenbahnfilm der Brüder Lumière, der 1895 die Zuschauer angeblich in Angst und Schrecken versetzte) und durchliefen eine Phase der Imitation etablierter Kunstformen wie Malerei und Theater, bevor sie sich endgültig als eigenständige Kunstformen etablierten. Darüber hinaus werden Fotografie und Film traditionell als Bezugspunkte für die theoretische Reflektion technischer (Re-)Produktion von Kunst herangezogen. So sah etwa Walter Benjamin im Film das einzige wirklich zeitgenössische Medium, weil der Film auf ebenso fortgeschrittenen technischen Prozessen basiert wie die technisierte Welt, die er aufzeichnet (Benjamin 1974a, 1974b). Die Verbindung von Computerkunst und KI-Kunst ist jedoch spezifischer. Ebenso wie KI-Künstler heute beschäftigten sich frühe Computerkünstler vor allem mit Mengen (im mathematischen Sinne) von Bildern, und verstanden ihre künstlerische Produktion als Verwirklichung generativer Ästhetiken. Frieder Nake formuliert diese Idee 2010 in einem aufschlussreichen Interview folgendermaßen: In der Computerkunst „there will be no masterpieces anymore, and the emphasis here is on ‚pieces‘. There may be master designs, but those will be designs of sets“ (Nake 2010). Es gibt keine Meisterwerke der Computerkunst, weil es der Computerkunst nicht darum geht, ‚Werke‘ zu produzieren. Es geht vielmehr um das Design von Systemen und um die Kohärenz dieser Systeme. Oder anders gesagt: Für die ästhetische Beurteilung eines Computerkunstwerkes ist die Methode und nicht das Artefakt von Bedeutung. Hier offenbart sich im Übrigen auch die Verbindung von Computerkunst und KI-Kunst zur Konzeptkunst, bei der laut Sol LeWitts berühmtem Ausspruch die Idee zu einer Maschine wird: „the idea becomes a machine that makes the art“ (LeWitt 1967, 80). Dementsprechend muss die gegenwärtige KI-Kunst kontextualisiert werden im Rückbezug auf die frühe Computerkunst. Oder anders formuliert: Nimmt man die KI-Kunst als Kunstrichtung ernst und versteht sie nicht bloß als Marketinginstrument des Silicon Valley, so muss ihre theoretische Aufarbeitung die Diskurse der 1960er Jahre reflektieren. Nicht etwa, weil die KI-Kunst nichts Neues zur bildenden Kunst beizutragen hätte, sondern weil sie einige bereits damals klar formulierte philosophisch-ästhetische und pragmatische Herausforderungen, die die Rolle des Computers in der Kunst betreffen, zuspitzt und aktualisiert. Und obschon sich erst in der historischen Distanz klären wird, inwiefern KIKunst tatsächlich als in sich geschlossene Kunstrichtung verstanden werden kann, so ist zumindest ihr erstes Auftreten relativ eindeutig zu verorten, nämlich im 2015 entwickelten Programm Deep Dream.

204 

 Fabian Offert

2 KI-Kunst als techno-phänomenologische Kunst Im Sommer des Jahres 2015 begannen sonderbare Bilder im  – an sonderbaren Bildern auch damals schon nicht armen  – Internet zu zirkulieren. Am 2.  Juli postete der Twitter-Account big_soda69 das Foto eines Bären, der aus Hunden zusammengesetzt worden zu sein schien. Das digitale Bild, 600x452 Pixel groß, zeigt eine pelzige Kreatur vor einem grünblauen Hintergrund, der ein Flussufer darstellen könnte. Während das Gesicht der Kreatur dem eines Bären durchaus ähnlich sieht, scheint der Körper sich in eine Vielzahl von Beinen, Ohren und Augen aufzulösen. Dort, wo die Figur und der Hintergrund aufeinandertreffen, ist eine Art rot-grün-blauer Nimbus erkennbar. Das gesamte Bild ist darüber hinaus leicht verzerrt und von Moiré-artigen Mustern durchzogen. In der Auflösung seines Gegenstandes sowie der Grenzen von Vorder- und Hintergrund mutet das Bild geradezu surrealistisch im kunsthistorischen Sinne an. Eine Google-Bildersuche lässt jedoch vermuten, dass es sich lediglich um ein fast bis zur Unkenntlichkeit bearbeitetes stock photo handelt, auf dem tatsächlich ein Bär an einem Flussufer zu sehen ist. Ähnliche bildliche Transformationen alltäglicher Gegenstände zu alptraumhaften, aber farbenfrohen Collagen aus Körperteilen begannen sich nach und nach in den sozialen Netzwerken zu verbreiten. Oft erinnerten diese an visuelle Halluzinationen, wie sie von psychoaktiven Substanzen ausgelöst werden können, weshalb sie gerne als ‚psychedelisch‘ bezeichnet und mit LSD-Trips verglichen werden. Die Quelle dieser Bilder oder, genauer, die Quelle der spezifischen Technik, mit der diese Bilder erzeugt werden konnten, war ein Computerprogramm, das am 1. Juli 2015 auf GitHub (https://github.com/google/deepdream/) veröffentlicht worden war. Schon am 17.  Juni 2015 wurde der dem Programm zugrunde liegende Algorithmus in einem Beitrag des Google Research Blogs beschrieben (Mordvintsev et al. 2015). Die Veröffentlichung des Quelltextes auf GitHub sowie ein Verweis auf der IT-Nachrichtenseite Hacker News am 2. Juli 2015 beschleunigten die Verbreitung des Computerprogramms, das inzwischen unter dem Namen Deep Dream bekannt geworden war. Der offene Quelltext und dessen (für ein KI-System) moderate Hardwareanforderungen machten die Reproduktion der Ergebnisse des Blog-Posts auch für nichtprofessionelle Nutzer möglich, sodass diese bald damit begannen, ihre eigenen Bilder zu generieren. So kombinierte der Medienkünstler Kyle McDonald mit Deep Dream erzeugte Objekte mit glitch-Artefakten zu einer der ersten künstlerischen Auseinandersetzungen mit der Deep-Dream-Technik. Diese relative Niederschwelligkeit ist sicherlich auch einer der Gründe für die Popularisierung von Deep Dream, dessen Erzeugnisse bis heute immer wieder zur Illustration von Artikeln zur Künstlichen Intelligenz eingesetzt werden und in keiner Ausstellung zur Künstlichen Intelligenz fehlen dürfen.

KI-basierte Verfahren in der bildenden Kunst 

 205

Zahlreiche zeitgenössische bildende Künstlerinnen und Künstler beschäftigen sich in ihren Werken mit Künstlicher Intelligenz. Nur eine kleine Anzahl jedoch nutzt tatsächlich jene technischen Systeme, die gegenwärtig in der Informatik als KI-Systeme bezeichnet werden, nämlich künstliche Neuronale Netze, insbesondere jene aus dem Bereich der computer vision, und bewegt sich damit bewusst jenseits der metaphorischen Auslegung des Themas – einen Überblick bieten eine Vielzahl von Webseiten, wie das Creative AI Lab der Serpentine Gallery (https://creative-ai. org/), Emil Wallners Website ML x Art (https://mlart.co/), oder die Website des jährlich im Rahmen der NeurIPS-Konferenz stattfindenden Workshops Machine Learning for Creativity and Design (http://www.aiartonline.com/). Im Folgenden soll es speziell um diese Gruppe von Künstlerinnen und Künstlern und ihre Werke gehen, die natürlich weder ästhetisch noch regional oder institutionell als kohärente „Schule“ betrachtet werden können. Der hype um die KI-Kunst, der natürlich die gestiegene Bedeutung des maschinellen Lernens in allen Bereichen der Gesellschaft widerspiegelt, erfordert damit nicht nur eine historische Aufarbeitung, sondern vor allem eine Einordnung der KI-Kunst im Hinblick auf ihre Nutzung von KI-Systemen. Im Zentrum dieser Aufarbeitung steht die Hypothese, dass es der KI-Kunst weniger um die bildnerischen Aspekte von KI-Systemen geht (wie von Medien und Museen gerne behauptet) als vielmehr um das kritisch-aufklärerische Potenzial einer der Informatik technisch ebenbürtigen Kunst: Einer Kunst die Technik nicht trivialisiert, sondern deren Komplexität ins Zentrum ihrer Betrachtung rückt. Besonders deutlich wird dies, wenn man die in der Informatik gegenwärtig unter dem Stichwort explainable artificial intelligence verhandelten Probleme betrachtet. Das Forschungsfeld explainable artificial intelligence, im US-Amerikanischen Kontext oft auch als interpretable machine learning bezeichnet, beschäftigt sich primär mit der Entwicklung von informatischen Methoden, die es erlauben, die „Entscheidungen“ von künstlichen neuronalen Netzwerken nachzuvollziehen. In diesem Kontext beschäftigt auch die KI-Kunst das Problem, dass KI-Systeme ganz grundlegend opak sind, d.  h. dass sie Wirklichkeit auf nicht-intuitive, nicht-interpretierbare Arten und Weisen repräsentieren. Nicht die potenzielle „künstlerische“ Schaffenskraft der Künstlichen Intelligenz steht damit im Zentrum der KI-Kunst, sondern die in ihr verhandelten Fragen der Wahrnehmung und Repräsentation. KI-Kunst im Jahre 2020, so könnte man formulieren, ist primär techno-phänomenologische Kunst. Der erste Beleg für diese Hypothese ist Deep Dream selbst. Der Name Deep Dream bezieht sich auf zwei zentrale technische Eigenschaften des Programms: Erstens darauf, dass das Programm auf einem sogenannten deep convolutional neural network (CNN) basiert. Deep convolutional neural networks sind das wohl wichtigste Werkzeug der gegenwärtigen KI-Revolution. CNNs wurden bereits in den 1980er Jahren entwickelt (z.  B. LeCun et al. 1989), ihr Potenzial kann aber erst seit

206 

 Fabian Offert

etwa 2012 voll ausgeschöpft werden (Krizhevsky et al. 2012), da es wesentlich auf der Existenz von web-scale datasets, also sehr großen Datensätzen, basiert. Deep Dream verweist zweitens darauf, dass dieses neuronale Netzwerk auf ungewöhnliche Weise benutzt wird, nämlich um Bilder gewissermaßen „zusammenzuträumen“, also zu produzieren. Dies ist insofern bemerkenswert, als dass künstliche neuronale Netzwerke, und insbesondere CNNs, ursprünglich als effektive Methode zur Klassifizierung von Bildern erfunden wurden und nicht zur Herstellung von Bildern gedacht waren. Der generative Aspekt von Deep Dream entsteht, weil es sich bei dem Deep Dream zugrunde liegenden Algorithmus um eine Methode für die Visualisierung von neuronalen Netzen handelt. Konkret bedient Deep Dream sich einer Methode namens feature visualization (siehe z.  B. Olah 2017), die es erlaubt, die von einzelnen Neuronen gelernten visuellen Konzepte sichtbar zu machen (siehe Offert und Bell 2021 zur epistemologischen Bedeutung von feature visualization). Die Ästhetik von Deep Dream, so könnte man sagen, ist ein Nebenprodukt des Versuchs, die Wahrnehmungslogik der CNNs begreifbar zu machen. Diese ursprüngliche Verbindung von Ästhetik und Erklärbarkeit schreibt sich, ganz unabhängig von den eingesetzten Algorithmen, auch in neueren Manifestationen der KI-Kunst fort.

3 Der KI-Kunst-Goldrausch Die KI-Kunst – in den engen oben definierten Grenzen – ist nach wie vor eine recht überschaubare „Szene“, in der einige wenige Protagonisten den Großteil der künstlerischen Produktion vorantreiben. Inwiefern sich in der KI-Kunst Avantgardetendenzen entdecken lassen und inwieweit die technischen Hürden den Kreis der Künstler stattdessen auf natürliche Art und Weise beschränken, ist jedoch eine offene Frage. Die Idee eines „Goldrausches“, zuerst vorgebracht von Ian Bogost (Bogost 2019) bezieht sich vor allem auf die Tatsache, dass einige als KI-Kunst bezeichnete Werke zu hohen Preisen von Sammlern erworben wurden. Das bekannteste Beispiel hierfür ist das französische Künstlerkollektiv Obvious, dessen goldgerahmtes Portrait of Edward de Belamy 2018 für den erstaunlichen Preis von 432.500 USDollar vom Auktionshaus Christieʼs versteigert wurde (Cohn 2018). Dem großen Medienecho auf diese Versteigerung folgte eine noch größere Empörung in der KIKunst-Szene, als klar wurde, das Obvious ein unter Open-Source-Lizenz stehendes neuronales Netzwerk (ein GAN, siehe Abschnitt  3) des jungen Künstlers Robbie Barat verwendet hatten (Vincent 2018). Die künstlerische Leistung von Obvious beschränkt sich damit scheinbar auf die Auswahl des samples aus einer beliebigen

KI-basierte Verfahren in der bildenden Kunst 

 207

Menge möglicher Bilder, tatsächlich aber natürlich auf die Leistung, dem Kunstmarkt dieses spezifische Bild als wertvolles Beispiel einer gerade erst im Entstehen begriffenen KI-Kunst schmackhaft gemacht zu haben. Das Ende 2020 aufgetretene Phänomen der non-fungible tokens (NFTs) schließt nahtlos an diese strategische Kommerzialisierung an und treibt sie auf die Spitze, indem sie alle ästhetischen Kriterien einem rein spekulativen Tauschwert unterordnet (zur konzeptuellen Einordnung von NFTs siehe Joselit 2021). Gleichzeitig haben große Ausstellungen, die sich der KI-Kunst widmen, häufig einen Messecharakter. Sie stellen Arbeiten, die KI-Systeme nutzen, lediglich thematisieren, oder sich an ihnen bloß im metaphorischen Sinne abarbeiten, nebeneinander. Ein Beispiel ist die Ausstellung AI: More Than Human (Barbican, London, 2019), die eine heitere Mischung aus technischen Demonstrationen, dekorativen Installationen wie den Arbeiten von TeamLab, „genuiner“ KI-Kunst und Werken, die eher dem Bereich artificial artificial intelligence zugeordnet werden müssen, versammelt. Der Begriff artificial artificial intelligence bezeichnet dabei Objekte, die den Anschein erwecken sollen, von komplexen KI-Systemen gesteuert zu sein, in Wahrheit aber auf klassische Entscheidungsfindungsmethoden (if … then) zurückgreifen. Ein Blick in die Geschichte der Medienkunst hilft, den kuratorischen Eklektizismus dieser und ähnlicher Ausstellungen zu verstehen. Eine der ersten Medienkunstausstellungen überhaupt, Cybernetic Serendipity in London (1969) verfolgte den ähnlichen Ansatz, alles zu zeigen, was ‚irgendwie technologisch‘ ist. Wie auch in der Ausstellung im Barbican wurde dort suggeriert, man habe den Gebrauch von Technologie in der Kunst entdeckt, obwohl es bereits frühere Ausstellungen zu diesem Thema gegeben hatte, zum Beispiel 1967 in Zagreb und 1965 und 1966 in Stuttgart (siehe Klütsch 2007). Erst spätere Ausstellungen, wie etwa Jack Burnhams Software (Burnham 1970) am Jewish Museum in New York untersuchten spezifische Fragen, die sich aus dem künstlerischen Gebrauch von Technologien ergaben, statt bloß Neuheiten um ihrer Neuheit willen zu präsentieren. Dennoch ist zu bedenken, dass tech demos, also bloße Demonstrationen neuartiger Technologien, und Medienkunstwerke historisch als zwei Punkte auf einem Kontinuum betrachtet werden müssen, das oft rückblickend nachjustiert wird. Auf der Höhe der sogenannten zweiten Welle der Medienkunst und des kurzlebigen artificial life-Trends in den 1990er Jahren waren explizite tech demos, wie Karl Sims berühmte Evolved Virtual Creatures (1994), in Kunstausstellungen vertreten, während gleichzeitig Künstlerinnen und Künstler wie Christa Sommerer und Laurent Mignonneau ihre künstlerischen Arbeiten wie A-Volve (1994), eine Installation die es Besucherinnen und Besuchern erlaubte, virtuelle Wesen in einem Wasserbecken zu kontrollieren und auf ihre Entwicklung Einfluss zu nehmen, in

208 

 Fabian Offert

wissenschaftlichen Journalen beschrieben und auf technischen Konferenzen wie SIGGRAPH präsentierten. Die sonderbare Beliebigkeit von KI-Ausstellungen lässt sich also als Effekt einer vorsichtigen Annäherung der etablierten Kunstwelt an die KI-Kunst verstehen, wie sie sich bereits in anderen Bereichen der Medienkunst vollzogen hat. Doch nicht nur in dieser pragmatischen Hinsicht hallt die Geschichte der Medienkunst in der KI-Kunst nach, sondern ebenso auf der philosophisch-ästhetischen Ebene: Die Frage, ob Computer „Künstler sein“ oder „Kunst produzieren“ können findet sich in der zeitgenössischen KI-Kunst ebenso wie in der Computerkunst der 1960er Jahre, oder der Medienkunst der 1990er Jahre. Sie findet sich in zahlreichen Artikeln und Rezensionen, mal explizit gestellt, mal invertiert in Form der Idee, dass Künstliche Intelligenz uns Aufschluss darüber geben kann, was das Menschliche ausmacht, „what makes us human“, wie es im Titel der Barbican-Ausstellung heißt. Tatsächlich ist die Frage, ob Computer kreativ im menschlichen Sinne sein können, so alt wie der Computer selbst. Schon in „Computing Machinery and Intelligence“ argumentiert Alan Turing, dass die Vorstellung, Computer könnten nicht kreativ sein, auf der falschen Annahme beruhe, dass Kreativität unabhängig sei vom „working out of consequences“, von der simplen Ausarbeitung aller Konsequenzen eines Satzes von Regeln (Turing 1950, 451). Turings Auffassung von Kreativität weist hier eine Parallele zu Adornos Verständnis vom Kunstwerk auf, dessen Konsequenzlogik (Adorno 2003, 205  f ) zwar intuitiv, aber dennoch an die nun eben werkimmanenten Regeln gebunden ist, so wie jeder andere rationale Prozess. Die philosophische Frage nach der „Autorschaft“ der Maschine verdeckt die eigentliche, ästhetische Frage, die die KI-Kunst und ihre historischen Vorläufer (einschließlich der Konzeptkunst) bearbeiten, die Frage nämlich nach der Rationalität der Kunst, dem, mit Lévi-Strauss, wilden Denken (Lévi-Strauss 1962) das sich in ästhetischen Artefakten niederschlägt. Auch deshalb wird die Frage nach der „Autorschaft“ der Maschine von KIKünstlern selbst fast nie gestellt. Wenn sie doch gestellt wird, wie im Falle des Christie’s-Skandals, so erweist sie sich vielmehr als die völlig separate Frage nach der Rolle des geistigen Eigentums in der Medienkunst. Eine erste, recht deutliche Verbindung zwischen KI-Kunst und Computerkunst lässt sich also sowohl im Hinblick auf die Rezeption in der Kunstwelt als auch im Hinblick auf die zentralen ästhetisch-philosophischen Probleme ziehen. Noch deutlicher werden die Zusammenhänge jedoch, wenn man sich auf die konkrete Ebene der künstlerischen Produktion begibt.

KI-basierte Verfahren in der bildenden Kunst 

 209

4 Mimetische KI-Kunst In einer Rezension der Ausstellung AI: More Than Human im Barbican für den Guardian schreibt Jonathan Jones über Mario Klingemanns Arbeit Circuit Training: „It’s one of the most boring works of art I’ve ever experienced. The mutant faces are not meaningful or significant in any way. There’s clearly no more ‚intelligence‘ behind them than in a photocopier that accidentally produces ‚interesting‘ degradations“ (Jones 2019). Diese Bewertung erinnert stark an die Kritik der Computerkunst in den 1960er Jahren, die Frieder Nake in einem Interview beschreibt: „I do not really like it. Tell me, when will there be a masterpiece? Because unless I see great masters appear I cannot accept this as art“ (Nake 2010). Ein Grund dafür ist die bereits oben erläuterte Differenz zwischen System und Artefakt: Klingemanns Arbeit ist mehr als eine bloße Ansammlung von Bildern, die man einzeln bewerten kann. Dennoch trifft Jones’ Kritik und seine Kopierer-Analogie eine ganz spezifische Eigenschaft von KI-Kunst, nämlich ihre mimetische Qualität. Die bildende Kunst der Moderne versuchte bekanntermaßen, sich vom Mimetischen (sowohl als mimesis, also als realistische Abbildung, wie auch als imitatio, also als historische Nachbildung) zu emanzipieren – zunächst durch Experimente mit der Abstraktion und in letzter Konsequenz durch den Verzicht auf Bilder überhaupt (wie etwa in der Konzeptkunst). Seit dem Ende des langen 19. Jahrhunderts und dem Anbruch einer von technischen Medien geprägte Welt geht es zeitgenössischer Kunst weder um die Herstellung realistischer Abbildungen noch um die direkte Fortsetzung einer bildnerischen Tradition. KI-Kunst in der Ausprägung, in der sie hier diskutiert wird, ist hingegen immer zutiefst mimetisch. Das Wissen eines neuronalen Netzwerkes über die Wirklichkeit bleibt immer an die Daten gebunden, die es verarbeitet (Offert 2021). „Mimetisch“ bedeutet hier allerdings nicht, dass KI-Kunst, wie etwa die (nicht abstrakte) Fotografie, Artefakte produziert, für die Entsprechungen in der realen Welt existieren. Vielmehr bleibt KI-Kunst immer auf das Spektrum des jeweiligen Datensatzes beschränkt, mit dem sie operiert, also auf eine bereits vermittelte Abbildung und Auswahl von Wirklichkeit. Neuerungen kann es nur innerhalb dieses Spektrums geben. Ein neuronales Netzwerk kann nicht auf Distanz zu seinem Datensatz gehen, weil der Datensatz seine gesamte Realität darstellt, und nicht – wie für den menschlichen Betrachter – bloß eine Teilmenge der Welt. Dies ist auch der Grund dafür, dass die Neuheit künstlerischer Demonstrationen, die maschinelles Lernen nutzen, sich so schnell verbraucht. Reine Nachbildung vermag zunächst zu beeindrucken, entfaltet aber keine anhaltende ästhetische Wirkung. Insofern als die kurze Freude am Wiederkennen des maschinell verfremdeten Bekannten schnell verfliegt, ist explizit mimetische KI-Kunst im Sinne Benjamins „Traumkitsch“ (Benjamin 1974c).

210 

 Fabian Offert

So führt der unbedingte Wille zur imitatio im Falle von Obvious zu einer paradoxen Situation: Anders als fast alle künstlerischen Portraits ist das Bild von Obvious quadratisch, was auf eine technische Beschränkung etablierter KI-Architekturen zurückzuführen ist. Es wird überdies in einem aufwändig gestalteten Rahmen präsentiert und bezieht sich damit explizit auf das europäische Genre des repräsentativen Portraits, das in der zeitgenössischen Kunst seit Jahrzehnten eine untergeordnete Rolle spielt – es sei denn als bewusste Reflektion des Genres wie etwa Kehinde Wiley sie betreibt, wenn er Schwarze Menschen in klassischen europäischen Portrait-Posen inszeniert, eben weil sie im „Datensatz Europäische Portraitmalerei“ nicht repräsentiert sind. Hier wird die ästhetische Frage der imitatio politisch: Etablierte (visuelle) Trainingsdatensätze in der KI-Forschung sind in einer Vielzahl von Fällen biased, d.  h. sie repräsentieren eine selektierte Wirklichkeit, in der zum Beispiel people of color erheblich unterrepräsentiert sind. Die sozialen Effekte dieses Problems reichen von fehleranfälligen Gesichtserkennungssystemen, wie sie z.  B. Joy Buolamwini eindrucksvoll nachgewiesen hat (Buolamwini 2018) bis hin zu polizeilicher Gewalt auf der Basis von Voraussagen fehleranfälliger und ideologisch belasteter KI-Systeme. An dieser Stelle ist es notwendig, einen der zentralen technischen Aspekte der KI-Kunst etwas näher zu beleuchten: das sogenannte generative adversarial network. Generative adversarial networks wurden um das Jahr 2014 herum zuerst von Ian Goodfellow als neuartige Architektur für neuronale Netzwerke vorgeschlagen (Goodfellow et al. 2014). Sie ergänzen die Prinzipien des CNNs um einen Ansatz aus der Spieltheorie: zwei unabhängige Neuronale Netze, ein ‚klassisches‘ CNN und ein ‚invertiertes‘ CNN, also ein bildproduzierendes, nicht -klassifizierendes Netzwerk werden gewissermaßen gegeneinander ausgespielt. Das bildproduzierende Netzwerk, generator genannt, hat Zugriff auf einen kontinuierlichen, hochdimensionalen (z.  B. 100-dimensionalen) Vektorraum, den sogenannten latent space. Seine Grundfunktion ist es, aus jedem Punkt in diesem Raum (also jedem 100-dimensionalen Vektor) ein Bild generieren zu können. Zu Beginn des Trainingsprozesses sind die so entstehenden Bilder natürlich reine Zufallsbilder, d.  h. zufällige Anordnungen von Pixeln. Diesem Netzwerk gegenüber steht das zweite, klassifizierende Netzwerk, das discriminator genannt wird. Dieses Netzwerk hat Zugriff sowohl auf die vom generator produzierten Bilder als auch auf einen Trainingskorpus von „realen“ Bildern. In jeder Iteration des Trainingsprozesses wird dem discriminator nun ein Bild gezeigt (tatsächlich funktioniert das Training in sog. Minibatches, d.  h. mehrere Bilder werden zu einem einzigen verkettet, um die Verarbeitung effizienter zu machen). Seine Aufgabe ist es, zu entscheiden, ob das Bild aus dem Trainingskorpus realer Bilder stammt oder vom generator produziert wurde. Was zunächst wie eine einfach lösbare Aufgabe klingt – schließlich zeigen die Bilder des Trainingskorpus reale Motive, wohingegen die vom generator pro-

KI-basierte Verfahren in der bildenden Kunst 

 211

duzierten Bilder reine Zufallsbilder sind – ist zu Beginn des Trainingsprozesses tatsächlich für den discriminator schwierig zu entscheiden: So wie der generator nicht „weiß“, wie realistische Bilder zu erzeugen sind, „weiß“ der discriminator nicht, was reale Bilder von Zufallsbildern unterscheidet. Beide Netzwerke beginnen gewissermaßen bei Null und – dies ist die Innovation der GAN-Architektur – lernen gemeinsam, ihre jeweiligen Fähigkeiten zu verbessern. Der generator wird besser darin, realistische Bilder zu erzeugen, und der discriminator wird besser darin, reale Bilder von Produkten des generators zu entscheiden. Hält man dabei die Balance der Fähigkeiten über einen langen Zeitraum bzw. über viele Trainingszyklen hinweg aufrecht, so steht am Ende ein generator, der Bilder erzeugen kann, die aussehen, als gehörten sie zum Korpus der realen Bilder. Diese Bilder sind jedoch gerade keine Kopien der realen Bilder im Trainingskorpus – der generator kann schließlich gar nicht wissen, wie diese genau aussehen, da er keinen Zugriff auf den Trainingskorpus hat und Informationen über die Qualität seiner Erzeugnisse lediglich durch den discriminator vermittelt erhält. Stattdessen produziert er Bilder, die ähnliche Eigenschaften wie jene im Traingskorpus aufweisen: Sie ähneln, in Inhalt und Form, den realen Bildern, die dem GAN zur Verfügung gestellt wurden, aber sie sind in jeder Hinsicht neue Bilder. Dies bedeutet, dass am Ende des Trainingsprozesses ein generator steht, der aus jedem beliebigen Punkt eines latent space ein realistisches Bild erzeugen kann. Im Umkehrschluss bedeutet dies, dass wir – durch die Fähigkeiten des generators vermittelt – einen hochdimensionalen Vektorraum erhalten, der Milliarden von möglichen Bildern enthält. GANs, mit anderen Worten, sind generative Ästhetiken im Sinne Nakes, Systeme zur Bilderzeugung anhand von Vorbildern. Technischer formuliert könnte man sagen, dass sowohl die Computerkunst der 1960er Jahre als auch die zeitgenössische KI-Kunst sich mit Wahrscheinlichkeitsverteilungen und ihrer ästhetischen Erforschung befassen. Während frühe Computerkunst auf Zufallszahlengeneratoren zurückgriff, um Bildvariationen zu erzeugen, nutzt KI-Kunst heute künstliche neuronale Netzwerke, die die inhärenten Wahrscheinlichkeitsverteilungen eines (Bild-)Datensatzes gelernt haben – die Art und Wahrscheinlichkeit seiner (visuellen) Merkmale. Anders als Deep Dream wurden GANs zunächst jedoch nur sehr langsam als künstlerisches Werkzeug entdeckt. Prominent wurden sie zunächst als wichtige Komponente in sogenannten style transfer-Algorithmen, d.  h. in KI-Systemen, die bestimmte formale Eigenschaften (z.  B., um ein beliebtes Beispiel in der technischen Literatur zu zitieren, die charakteristischen Farben und den charakteristischen Pinselstrich van Goghs) aus einem Bild extrahieren und auf ein anderes übertragen können. Zu diesem Zeitpunkt waren GANs als eigenständige generative Systeme jedoch noch notorisch instabil. Zentral war das Problem des mode collapse: Die Entstehung eines generators, der nur eine sehr kleine Anzahl möglicher

212 

 Fabian Offert

Bilder erzeugen kann. Mode collapse entsteht genau dann, wenn der generator es zu schnell schafft, den discriminator von seinen Kreationen zu „überzeugen“. Einige frühe Beispiele, wie z.  B. die von Radford et al. (2015) erzeugten „imaginären Schlafzimmer“, zeigten jedoch bereits damals, wozu GANs potentiell in der Lage waren. Die künstlerische Erforschung von GANs beginnt daher erst nach einer Reihe von technischen Verbesserungen (Goodfellow et al. 2016). Erste Experimente, wie Mike Tykas Portraits of Imaginary People (2017) nutzten vor allem die DCGAN-Architektur (Radford et al. 2015). Um das Problem der niedrigen Auflösung, mit dem frühe GAN-Architekturen ebenfalls zu kämpfen hatten, zu umgehen, entwickelte Tyka einen Prozess, der GAN-sampling und up-sampling, also die künstliche Erhöhung der Bildauflösung, miteinander verband. Erste Experimente mit GANs wie die Portraits of Imaginary People ähneln dabei den ersten Experimenten mit Deep Dream insofern, als dass in beiden glitches, d.  h. Artefakte des Rechenprozesses, eine prominente Rolle einnehmen und so die Wahrnehmung der Maschine und ihre Grenzen ins Zentrum des Werkes rücken. Anders gesagt: Der techno-phänomenologische Aspekt der KI-Kunst, der bei Deep Dream auf konkrete (wenn auch „umgemünzte“) Methoden der Visualisierung zurückzuführen ist, entsteht in der Verwendung von GANs als künstlerisches Werkzeug direkt aus deren frühen pragmatisch-technischen Grenzen. Philipp Schmitts und Steffen Weiss’ Serie von GAN-generierten Stühlen (2018) ist ein gutes Beispiel für KI-Kunst, die den glitch-Aspekt ganz bewusst betont. Erst signifikante Eingriffe in den generativen Prozess führen hier zu einem ästhetischen Artefakt, der als reales Objekt überhaupt bestehen kann. Viele kleinteilige Verbesserungen des GAN-Prinzips haben mittlerweile (im Frühjahr 2020) zu einem technischen Status quo geführt, der quasi-realistische Bilder möglich macht. Zunächst erlaubte die Entwicklung von Progressive GANs (Karras et al. 2017) die Herstellung von Bildern mit signifikant höherer Auflösung. BigGAN (Brock et al. 2018) demonstrierte, dass heterogene Datensätze lernbar sind. StyleGAN (Karras et al. 2018, siehe Abb. 5) und StyleGAN2 (Karras et al. 2019) ermöglichten schließlich das Erreichen von foto-realistischen Auflösungen, zumindest für speziell kalibrierte Datensätze wie FlickrHQ (Karras et al. 2018). Diese neuen Möglichkeiten führten zu einer Explosion künstlerischer Aktivität  – und gleichzeitig jedoch zum neuen Problem einer mimetischen KI-Kunst.

KI-basierte Verfahren in der bildenden Kunst 

 213

5 Nicht-mimetische KI-Kunst Einige KI-Künstlerinnen arbeiten deshalb ganz bewusst an den mimetischen Grenzen neuronaler Netzwerke. Deren Überschreitung geht dabei oft einher mit einem Medienwechsel, der die Überschreitung noch deutlicher hervortreten lässt. So findet sich in der Arbeit von Helena Sarin eine künstlerische Strategie, die ganz klar die mimetischen Grenzen der eingesetzten Technik thematisiert: die mühsame Herstellung handverlesener Datensätze. Weil KI-Systeme immer zwangsläufig mimetisch sind, entstehen aus Datensätzen von Gesichtern immer Gesichter, ganz gleich wie intentional oder zufällig verfremdet diese letztendlich erscheinen. Maßgeschneiderte Datensätze (und eine Beherrschung der Technik) führen hingegen zu interessanten, oft abstrakten Ergebnissen, weil es, wie Sarin bemerkt, letztendlich der Datensatz ist – und nicht etwa die Architektur oder die konkreten Hyperparameter eines KI-Systems – der das Ergebnis maßgeblich beeinflusst. Der konzeptionelle Fokus von Anna Ridlers Arbeit Myriads (Tulips) (2018) liegt auf dem Prozess der Erstellung von Datensätzen selbst. In der Art einer naturwissenschaftlichen Fotosammlung, mit handschriftlichen Kommentaren versehen, zeigt Ridler die Tausende von Fotos, die sie aufgenommen hat, um das GAN in ihrer Arbeit Mosaic Virus (2018) zu trainieren. Sophia Crespo verbindet in ihrer Arbeit Neural Zoo (2018) handkuratierte Datensätze mit den traditionellen Techniken Collage, Pastiche, und Cyanotypie. Durch die „analoge Weiterverarbeitung“ digitaler Bilder werden dabei nicht nur die klassischen „Fehler“ neuronaler Netzwerke, wie eine zu große Anzahl hoher Bildfrequenzen (Geirhos et al. 2019), ausgeglichen, sondern auch beständige Artefakte generiert, die der Flüchtigkeit und Beliebigkeit der GAN-Bildermengen entgegenstehen. Noch deutlicher wird dies in den Arbeiten von Sarah Rosalena Brady, die GANgenerierte Bilder als maschinengewebte Tapisserien ausgeben lässt. Aus der Übersetzung von Pixeln in Maschen entsteht das Bild eines die fabric of reality webenden neuronalen Netzwerks. Ihre Arbeit Untitled (2020) zeigt, dementsprechend, GANhalluzinierte Planeten. Eine Arbeit schließlich, die aufgrund ihrer komplexen Thematisierung der mimetischen Grenzen der KI besondere Beachtung verdient, ist Tega Brains Installation Asunder (2019). Asunder ist eine Dreikanal-Videoinstallation, die spekulative Klimainterventionen präsentiert. Die Installation greift auf eine Netzwerkarchitektur zurück, die auf conditional inpainting spezialisiert ist, d.  h. auf die gezielte Ergänzung von Bildlücken, die anhand eines umfangreichen Datensatzes von Satellitenbildern trainiert wird. Dies ermöglicht es, spekulative Klimainterventionen zu verbildlichen: So wird die Stadt San Francisco kurzerhand durch einen Urwald ersetzt, Flüsse werden umgeleitet, und Wüsten begrünt. Die entstehenden fiktionalen Satellitenbilder werden im Anschluss als Ausgangsbildmaterial für eine rechen-

214 

 Fabian Offert

intensive Klimasimulation (die auf einem Computer im Ausstellungsraum läuft) verwendet, wie sie in den Klimawissenschaften tatsächlich zum Einsatz kommt, um ihre Auswirkungen auf das Weltklima zu berechnen. Brains Installation stellt hier gewissermaßen den immer schon spekulativen Charakter von KI-Systemen vom Kopf auf die Füße, indem sie den grenzenlosen und gleichzeitig durch die Bindung an einen konkreten Datensatz begrenzten – eben mimetischen – Gestaltungsspielraum von KI-Systemen im Kontext der begrenzten Möglichkeiten, der globalen Klimakatastrophe noch zu entrinnen, thematisiert. Die durch die maschinelle Sichtweise produzierte Entfremdung, die die Erklärbarkeit behindert, wird hier in einen Verfremdungseffekt im Brechtschen Sinne umgemünzt – in eine Strategie, die politische Handlungsspielräume durch ästhetische Handlungsspielräume aufscheinen lässt. Mit Benjamin könnte man auch sagen: Die Installation steht wahrlich „in“ den Produktionsverhältnissen ihrer Epoche, statt diese nur zu thematisieren (Benjamin 1974b, 686), und wird damit erst zu einer tatsächlichen ästhetischen Intervention. Wenn sich aus den Arbeiten von Helena Sarin, Sophia Crespo, Sarah Rosalena Brady und Tega Brain – wieder mit Benjamin – so etwas wie eine Tendenz ableiten lässt, dann ist es diese: KI-Kunst eignet sich zur Kritik „realistischer“ Künstlicher Intelligenz, so wie Abstraktion als Kritik des Realismus in der Malerei verstanden werden kann. Weit jenseits einer naiven Technikkritik zeigen Arbeiten wie Asunder, dass gerade in der Auseinandersetzung mit den implizit-technischen, nicht den explizit-philosophischen Grenzen der KI, die eigentlich relevanten Fragen zum Vorschein kommen. Die KI-Kunst wäre somit als ästhetischer Gegenpol zu einer bloß zur Fehlersuche entwickelten, technischen explainable artificial intelligence zu verstehen – und damit als ästhetische Avantgarde qua technischer Reflektion. Gerade weil, nicht obschon, sie primäre eine techno-phänomenologische Kunst ist, ist die KI-Kunst damit politisch.

Literaturverzeichnis Adorno, Theodor W. Ästhetische Theorie. Gesammelte Schriften. Hrsg. von Rolf Tiedemann. Frankfurt am Main 2003. Benjamin, Walter. „Das Kunstwerk im Zeitalter seiner technischen Reproduzierbarkeit“. Gesammelte Schriften I-2. Hrsg. von Rolf Tiedemann und Hermann Schweppenhäuser. Frankfurt am Main 1974a. Benjamin, Walter. „Der Autor Als Produzent“. Gesammelte Schriften II-2. Hrsg. von Rolf Tiedemann und Hermann Schweppenhäuser. Frankfurt am Main 1974b. Benjamin, Walter. „Traumkitsch“. Gesammelte Schriften II-2. Hrsg. von Rolf Tiedemann und Hermann Schweppenhäuser. Frankfurt am Main 1974c. Bense, Max. Einführung in die informationstheoretische Ästhetik. Grundlegung und Anwendung in der Texttheorie. Reinbek bei Hamburg 1969.

KI-basierte Verfahren in der bildenden Kunst 

 215

Bogost, Ian. „The AI-Art Gold Rush Is Here“. https://www.theatlantic.com/technology/ archive/2019/03/ai-created-art-invades-chelsea-gallery-scene/584134/. The Atlantic März 2019 (10. Mai 2021). Brock, Andrew, Jeff Donahue, und Karen Simonyan. „Large Scale GAN Training for High Fidelity Natural Image Synthesis“. arXiv Preprint 1809.11096, 2018. Buolamwini, Joy und Timnit Gebru. „Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification“. Conference on Fairness, Accountability and Transparency, 2018. Burnham, Jack. Software. Information Technology: Its New Meaning for Art. New York, NY: Jewish Museum, 1970. Cohn, Gabe. 2018. „Up for Bid, AI Art Signed ‚Algorithm‘“.https://www.nytimes.com/2018/10/22/arts/ design/christies-art-artificial-intelligence-obvious.html. The New York Times 22.10.2018 (10. Mai 2021). Geirhos, Robert, Patricia Rubisch, Claudio Michaelis, Matthias Bethge, Felix A. Wichmann und Wieland Brendel. „ImageNet-Trained CNNs Are Biased Towards Texture; Increasing Shape Bias Improves Accuracy and Robustness“. arXiv Preprint 1811.12231, 2019. Goodfellow, Ian, Jean Pouget-Abadie, Mehdi Mirza, Bing Xu, David Warde-Farley, Sherjil Ozair, Aaron Courville und Yoshua Bengio. „Generative Adversarial Nets“. Advances in Neural Information Processing Systems (2014): 2672–2680. Goodfellow, Ian, Tim Salimans, Wojciech Zaremba, Vicki Cheung, Alec Radford und Xi Chen. „Improved Techniques for Training GANs“. Advances in Neural Information Processing Systems (2016): 2234–2342. Hertzmann, Aaron. „Can Computers Create Art?“. Arts 7.2 (2018): 18. Jones, Jonathan. 2019. „‘I’ve Seen More Self-Aware Ants!’ AI: More Than Human Review“.https://www. theguardian.com/artanddesign/2019/may/15/ai-more-than-human-review-barbican-artificialintelligence. The Guardian 15.5.2019. (10. Mai 2021). Joselit, David. „NFTs, or The Readymade Reversed“. October 175 (2021): 3–4. Karras, Tero, Timo Aila, Samuli Laine und Jaakko Lehtinen. „Progressive Growing of GANs for Improved Quality, Stability, and Variation“. arXiv Preprint 1710.10196, 2017. Karras, Tero, Samuli Laine und Timo Aila. „A Style-Based Generator Architecture for Generative Adversarial Networks“. arXiv Preprint 1812.04948, 2018. Karras, Tero, Samuli Laine, Miika Aittala, Janne Hellsten, Jaakko Lehtinen und Timo Aila. „Analyzing and Improving the Image Quality of StyleGAN“. arXiv Preprint 1912.04958, 2019. Klütsch, Christoph. Computergrafik: Ästhetische Experimente zwischen zwei Kulturen.Wien 2007. Krizhevsky, Alex, Ilya Sutskever und Geoffrey E. Hinton. „ImageNet Classification with Deep Convolutional Neural Networks“. Advances in Neural Information Processing Systems (2012): 1097–1105. Kurenkov, Andrey. A Brief History of Neural Nets and Deep Learning. http://www.andreykurenkov.com/ writing/ai/a-brief-history-of-neural-nets-and-deep-learning/. 2015 (10. Mai 2021). LeCun, Yann, Bernhard Boser, John S. Denker, Donnie Henderson, Richard E. Howard, Wayne Hubbard und Lawrence D. Jackel. „Backpropagation Applied to Handwritten Zip Code Recognition“. Neural Computation 1.4 (1989): 541–551. LeWitt, Sol. „Paragraphs on Conceptual Art“. Artforum 5.10 (1967): 79–83. Lévi-Strauss, Claude. La Pensée Sauvage. Paris: Plon, 1962. Mordvintsev, Alexander, Christopher Olah und Mike Tyka. Inceptionism: Going Deeper into Neural Networks. https://ai.googleblog.com/2015/06/inceptionism-going-deeper-into-neural.html. Google Research Blog 2015 (10. Mai 2021). Nake, Frieder. „There Should Be No Computer Art“. Bulletin of the Computer Arts Society 18 (1971).

216 

 Fabian Offert

Nake, Frieder. Ästhetik als Informationsverarbeitung. Grundlagen und Anwendung der Informatik im Bereich ästhetischer Produktion und Kritik. Wien 1974. Nake, Frieder. Interview 2010. https://www.youtube.com/watch?v=UVtpAnvBXtM. (10. Mai 2021). Offert, Fabian. „Latent Deep Space. GANs in the Sciences“. Media and Environment 3.2 (2021). Offert, Fabian und Peter Bell. „Perceptual Bias and Technical Meta-Images. Critical Machine Vision as a Humanities Challenge“. AI & Society 36.4 (2021): 1133–1144. Olah, Chris, Alexander Mordvintsev und Ludwig Schubert. Feature Visualization.: https://distill. pub/2017/feature-visualization/. Distill, 2017 (10. Mai 2021). Radford, Alec, Luke Metz und Soumith Chintala. „Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks“. arXiv Preprint 1511.06434, 2015. Turing, Alan Mathison. „Computing Machinery and Intelligence“. Mind 59 (1950): 433–460. Vincent, James. How Three French Students Used Borrowed Code to Put the First AI Portrait in Christie’s. https://www.theverge.com/2018/10/23/18013190/ai-art-portrait-auction-christies-belamyobvious-robbie-barrat-gans. The Verge 2018 (10. Mai 2021).

Leila Zickgraf

Künstliche Intelligenz als Werkzeug in der Musik – Versuch einer historischen Einordnung 1 Status quo Schaut man sich das deutsche Feuilleton an, scheint im Bereich der Musik das Thema Künstliche Intelligenz (KI) seit einigen Jahren allgegenwärtig: Nachdem 2017 Daddy’s Car als „erste[r] Popsong, der von einer künstlichen Intelligenz komponiert worden ist“, für Aufmerksamkeit sorgte (Herbstreuth 2017), wurde Anfang 2019 verkündet, dass Franz Schuberts unvollendete Sinfonie in h-Moll von einer vom chinesischen Technologiekonzern Huawei entwickelten KI vollendet worden sei (Brachmann 2019), bevor dann 2020 anlässlich des 250. Geburtstags von Ludwig van Beethoven Beethoven X vom Beethoven-Orchester in Bonn uraufgeführt werden sollte (die Uraufführung wurde aufgrund der COVID-19-Pandemie auf November 2021 verschoben), für das eine KI u.  a. mit Skizzen des Komponisten gefüttert wurde (u.  a. Weiguny 2019; Zickgraf und Golgath vorauss. 2023). Und tatsächlich: Insbesondere aufgrund der enormen Fortschritte im Bereich des maschinellen Lernens, die sich vor allem auf die zunehmende Verfügbarkeit von großen Datenmengen und hoher Rechenleistung zurückführen lassen (deep learning), haben sich die Anwendungen von KI im Bereich der Musik in den vergangenen Jahren in ungeahnter Weise entwickelt. Hinzu kommt, dass namhafte Technologieunternehmen vermehrt in eine Zukunft investieren, in der KI Musik schafft, empfiehlt oder kuratiert, Komponist:innen in ihrem Schaffensprozess unterstützt (Rose, entrepreneur.com, 11.2.2019) oder Musiker:innen begleitet – so etwa Google mit seinem Open-Source-Forschungsprojekt Magenta, Sony mit seinem Forschungs- und Implementierungsprojekt Flow Machines und Spotify mit seinem 2017 gegründeten Creator Technology Research Lab (o. A., artists.spotify.com/de/ blog, 12.7.2017). Einen aktuellen Überblick zum deep learning, was es für den Bereich der Musik bedeutet und wie sich der Bereich des maschinellen Lernens von anderen Bereichen unterscheidet, findet sich bei Nikita Braguinski (2021, 63–75); einen Überblick zu den Entwicklungen vor den Durchbrüchen des deep learning in den 2010er Jahren liefern insbesondere die seit 1977 zum Thema erschienenen Beiträge des Computer Music Journal oder der von Stephan M. Schwanauer und David A. Levitt 1993 herausgegebene Sammelband Machine Models of Music (1993); und im jüngst erschienenen und von Eduardo Reck Miranda herausgegebene Handbook of Artificial Intelligence for Music sind neueste Erkenntnisse führender Experten auf dem https://doi.org/10.1515/9783110656978-013

218 

 Leila Zickgraf

Gebiet versammelt (2021). Ferner bietet Oliver Brown mit seinem im gleichen Jahr erschienenen Band Beyond the Creative Species. Making Machines That Make Art and Music eine disziplinenübergreifende Einführung zu computergestützter Kreativität (2021). Was bei alledem oftmals übersehen wird, ist die Tatsache, dass die Idee der automatischen Musikerzeugung und insbesondere die der algorithmischen Komposition keineswegs eine neue ist (Nierhaus 2019, 1): Musikautomaten und die Idee der automatischen Musikproduktion existieren bereits seit Jahrhunderten, und Bemühungen, den Computer als Werkzeug für Kompositionsentscheidungen nutzbar zu machen, reichen zurück bis in die Anfänge der Computermusik in den 50er Jahren des 20. Jahrhunderts. Der vorliegende Beitrag möchte (ohne Anspruch auf Vollständigkeit) anhand einiger Schlaglichter die ‚Vorgänger‘ der KI rekapitulieren – wobei hier der KI-Begriff bewusst offen und weit gehalten wird.

2 Mechanische Musikinstrumente und Musikautomaten von der Antike bis ins 18. Jahrhundert Die ersten schriftlichen Zeugnisse selbstspielender Musikinstrumente entstammen dem hellenistischen Zeitalter, dem 3. und 2.  Jahrhundert v. Chr., und finden sich in Schriften von Technikern, Mathematikern, Erfindern und Ingenieuren, die allesamt der Alexandrinischen Schule zuzuordnen sind – unter ihnen der Mechaniker Ktesibios von Alexandrien, der Mathematiker und Erfinder Heron von Alexandrien und der griechische Erfinder und Konstrukteur Philon von Byzanz. Sie beschreiben künstlich singende Vögel, selbsttätige Schlagwerke sowie Automaten mit Orgelwerken, die über Stiftwalzen gesteuert und durch Wasser angetrieben werden (Hocker 2009, 11; Hocker 2021)  – so wird beispielsweise Ktesibios die Erfindung der Wasserorgel (griechisch: Hydraulos, Hydraulis) zugeschrieben (Reichling und Wegner 2003), die Heron von Alexandria in seiner Pneumatika (Heron von Alexandria übers. und hrsg. von Schmidt, 1899) detailliert beschreibt (Szonntagh 2016). Als ältestes erhaltenes und zudem noch funktionstüchtiges mechanisches Musikinstrument gilt das automatische Glockenspiel der astronomischen Uhr der Kathedrale von Beauvais in Nord-Frankreich, das höchstwahrscheinlich zwischen 1302 und 1303 gebaut worden ist (Hocker 2021). Unter anderem aufgrund technischer Entwicklungen im Bereich des Glockengießens sind erste Glockenspiele allerdings schon im 12. Jahrhundert nachweisbar. Etwa ab dem 14. Jahrhundert entwickelten sich daraus die mechanischen Glocken-

Künstliche Intelligenz als Werkzeug in der Musik – Versuch einer historischen Einordnung 

 219

spiele, die nicht selten in astronomischen Kunstuhren eingearbeitet waren und teilweise bis heute in restauriertem Zustand zu bestaunen sind (Hocker 2021). In Spätmittelalter und Renaissance entstanden dann erste sogenannte mechanische Musikinstrumente (zur Bezeichnung vgl. u.  a. Wolf 2014, 409–410) – meist Zeitmesser, die mit kleinen mechanischen Orgeln kombiniert wurden. In Augsburg erfuhr diese Entwicklung um 1600 einen ersten Höhepunkt: Uhrmacher, Mechaniker sowie Orgel- und Spinettbauer entwarfen hier gemeinsam kostbare Uhrenschränke und anderes prächtiges Mobiliar, in das sie über Stiftwalzen oder Stifträder gesteuerte mechanische Orgeln, Saiteninstrumente oder Trompetenwerke einbauten und damit ihre (meist fürstlichen) Auftraggeber belieferten (Hocker 2021). Aus dem 17. Jahrhundert sind mehrere theoretische Schriften überliefert, die sich mit mechanischen Musikinstrumenten auseinandersetzen: So beschreibt der französische (Garten-)Architekt, Ingenieur und Musiktheoretiker Salomon de Caus, der u.  a. für die ursprüngliche Gestaltung des mit zahlreichen Maschinen ausgestatteten Heidelberger Schlossgartens (Hortus Palatinus) verantwortlich zeichnete, in seiner Abhandlung Les Raisons des forces mouvantes, avec diverses machines tant utiles que plaisantes (De Caus 1615) von 1615 verschiedene mechanische Musikinstrumente wie stiftwalzengesteuerte Orgeln, Wasser- oder Figurenautomaten, die zur Ausstattung von Grotten und Springbrunnen fürstlicher Gärten vorgesehen waren (Kirnbauer 2016). Der englische Arzt und Universalgelehrte Robert Fludd stellt in seinem 1618 veröffentlichten Traktat De naturae simia seu Technica macrocosmi historia automatische bzw. mechanische Musikinstrumente dar (Fludd 1618). Der Jesuit, Theologe und Musiktheoretiker Athanasius Kirchers beschreibt in seinem 1650 veröffentlichten berühmten Kompendium Musurgia Universalis, sive Ars Magna Consoni et Dissoni wasserbetriebene oder mit Automaten versehene Orgeln oder gewichtsbetriebene Glockenspiele und bildet diese zum Teil auch ab (Hocker 2021), und Kirchers Student und späterer Assistent Caspar Schott beschreibt in seinen Schriften Mechanica hydraulico-pneumatica sowie Acustica mehrere mit Hydraulik betriebene Orgeln und andere Musikautomaten sowie Schallmaschinen und sprechende Statuen (Hirschmann 2016). Nachdem ab der zweiten Hälfte des 18. Jahrhunderts die Anzahl der musikalischen Automatenwerke, die für die europäischen Fürstenhöfe geschaffen wurden, auffallend stark zugenommen hatte, sorgte in jenem Jahrhundert die Flötenuhr (Kowar 2001) für Aufsehen. Dabei handelt es sich um einen mit einer kleinen Orgel kombinierten mechanischen Zeitmesser, der im ausgehenden 18. Jahrhundert erstmals in größerer Stückzahl produziert werden konnte, häufig auch in Gebrauchsgegenstände eingebaut wurde und als erstes mechanisches Musikinstrument beschrieben werden kann, dem auch wirtschaftliche Bedeutung zukam. Jeweils zur vollen Stunde erklangen hier durch Stiftwalzen gesteuerte Melodien  – darunter Originalkompositionen von herausragenden zeitgenössischen Komponisten wie

220 

 Leila Zickgraf

Joseph Haydn, Ludwig van Beethoven und Wolfgang Amadeus Mozart. (Hocker 2021) Hochwertige Exemplare der Flötenuhren wurden insbesondere in den damaligen Uhrmanufaktur-Zentren Berlin und Wien hergestellt und gehörten mitunter auch zur Ausstattung begüterter bürgerlicher Haushalte. Im Schwarzwald wurden ab ca. 1770 erschwinglichere und größtenteils aus Holz gefertigte Modelle hergestellt und insbesondere in Gasthäusern verwendet, um Tanz- und Unterhaltungsmusik abzuspielen (Hocker 2021). Da die Mechanisten und Maschinen- bzw. Automatenbauer des 18. Jahrhunderts Lebewesen zunehmend als Maschinen verstanden und zeitgleich damit begannen, Maschinen als Lebewesen zu betrachten und sie dementsprechend zu konstruieren (Riskin 2005, 68), sorgten in jenem Jahrhundert auch automatisch musizierende Androide immer wieder für mediale Aufmerksamkeit: So trat etwa der französische Ingenieur und Erfinder Jacques de Vaucanson 1737 mit einem mechanischen Flötenspieler an die Öffentlichkeit, der Neuenburger Uhrmacher Pierre Jacuet-Droz und dessen Sohn Henri-Louis präsentierten dem Publikum 1747 drei Androiden, von denen eine (Die Organistin) mit ihren von einer Stiftwalze gesteuerten Fingern die Tasten einer Orgel bewegte. Der Erfinder, Mechaniker sowie Konstrukteur mechanischer Musikinstrumente Johann Nepomuk Mälzel stellte 1808 seinen mechanischen Trompeter vor, der wiederum als Vorbild für den auf 1810 datierten Trompeterautomaten des Uhrmachers und Musikinstrumentenbauers Friedrich Kaufmann gilt (hierzu u.  a. Wolf 2011).

3 Mechanische Musikinstrumente und Musikautomaten im 19. und frühen 20. Jahrhundert Als bedeutendste und verbreitetste mechanische Musikinstrumente des 19. und beginnenden 20. Jahrhunderts sind (Walzen- und Platten-)Spieldosen – aufgrund des Federwerkantriebs oftmals auch als Spieluhren bezeichnet (Hocker 2009, 24) –, Orchestrien und selbstspielende Klaviere zu nennen. Was die Walzenspieldosen angeht, gilt die Schweiz als ihre Wiege: Ihre Erfindung ist einerseits auf den Genfer Uhrmacher Antoine Favre-Salomon zurückzuführen, der bereits Ende des 18. Jahrhunderts das Prinzip des Anreißens von gestimmten Metallzungen durch eine sich drehende Scheibe bei der Genfer Société des Arts vorgestellt hatte (Kowar 2018), andererseits auf die Brüder Charles Antoine und François Ulysse von der ebenfalls in Genf ansässigen Uhrenmanufaktur-Dynastie LeCoultre: Sie ersetzten zu Beginn des 19. Jahrhunderts die von Favre-Salomon verwendete Stiftscheibe durch eine Stiftwalze und trugen entscheidend zur Entwicklung des sogenannten Tonkamms bei, indem sie die zunächst einzeln befestigten Metallzungen erstmals zu Segmenten zusammenfassten (Hocker 2009, 26). Die

Künstliche Intelligenz als Werkzeug in der Musik – Versuch einer historischen Einordnung 

 221

Schweiz blieb das gesamte 19. Jahrhundert über Vorreiter, was die Herstellung von Walzenspieldosen angeht, und Genf sowie St. Croix und L’Auberson im Schweizer Jura entwickelten sich zu wichtigen Herstellungszentren jener Instrumente, die von dort aus in die ganze Welt verbreitet wurden. Nach Schweizer Vorbild entstanden ferner erwähnenswerte Spieldosenfabriken im französischen Jura (Auguste l’Épée), in Prag (Franz Rzebitschek) sowie in Wien (Anton Olbrich) (Kowar 2018). Da die Stiftwalzen der Spieldosen nur äußerst selten ausgetauscht werden konnten und die Walzen größtenteils nur zwei bis sechs Musikstücke von ca. einer Minute Länge fassten, war ihr Repertoire sehr eigeschränkt, und der Erfolg der sogenannten Plattenspieldosen gewissermaßen vorprogrammiert (Hocker 2021): Ihr Aufkommen wird zurückgeführt auf den gelernten Klavierbauer und Gründer der Fabrik Leipziger Musikwerke vormals Paul Ehrlich & Co AG Paul Friedrich Ernst Ehrlich, dessen Ariston beispielsweise große Bekanntheit erzielte und zu hunderttausenden produziert wurde, sowie den Gründer der Fabrik Lochmannscher Musikwerke AG und Erfinder des Symphonions Oscar Paul Lochmann. Die gelochten oder mit Noppen versehenen Papp- und später Metallplatten, mit denen diese Instrumente ausgestattet waren, konnten einfacher hergestellt und beliebig ausgetauscht werden, sodass sich Nutzer:innen durch sie nicht zuletzt auch erstmalig regelrechte Musikbibliotheken anlegen konnten (Hocker 2021). Unter Orchestrien werden jene selbstspielenden Musikinstrumente zusammengefasst, die ein ganzes Orchester unterschiedlichster Besetzung imitieren. Erste Instrumente dieser Art wurden bereits im 18.  Jahrhundert von Flötenuhrund Orgelherstellern entwickelt. Im Laufe des 19.  Jahrhunderts gewannen jene Instrumente dann allerdings an Komplexität und Größe, ihr Repertoire reichte von bekannten Opern-Ouvertüren und Symphonien bis hin zu Walzern, Märschen und Schlagermelodien, und sie erklangen insbesondere in großen Hallen, Wirtshäusern, Salons und (hoteleigenen) Tanzsälen. Während die durchaus anspruchsvollen Partituren, die auf jenen Instrumenten erklangen, zu Beginn des 19.  Jahrhunderts noch über Stiftwalzen gesteuert wurden, wurde die Tonträgerfunktion zur Jahrhundertwende von gelochten Papierbögen übernommen – den sogenannten Notenrollen, die pneumatisch abgetastet wurden (Jüttemann 2016). Jener Übergang von der mechanischen Abtastung (der Stiftwalzen) zur pneumatischen Abtastung (der Notenrolle) sorgte auch bei selbstspielenden Klavieren – bis ca. 1880 noch gesteuert über Stiftwalzen – für einen entscheidenden Entwicklungsschub. Nicht zuletzt begünstigte er das Aufkommen des Pianolas – eines selbstspielenden Klaviers mit einer pneumatisch abtastbaren Notenrolle aus Papier, das 1895 erstmals von Edwin Scott Votey in Detroit gebaut, von der US-amerikanischen Aeolian-Company 1898 auf dem Markt gebracht worden war und dessen Markenname sich im allgemeinen Sprachgebrauch bald darauf für nahezu alle selbstspielenden Klaviere durchsetzte. Zu Anfang benötigte jenes Pianola noch einen sogenannten Pianolisten,

222 

 Leila Zickgraf

der durch das Treten von Pedalen das benötigte Vakuum erzeugen und durch das Betätigen diverser Hebel Dynamik und Geschwindigkeit des Klangresultats steuern musste. Erst das 1904 von der Firma  M. Welte & Söhne in Freiburg im Breisgau entwickelte Reproduktionsklavier Welte-Mignon kam schließlich völlig ohne ‚Klavierspieler:in‘ aus. Hier wurde das Vakuumgebläse von einem Elektromotor angetrieben, und Gestaltungsmittel der Interpretation, wie Dynamik, Geschwindigkeit oder die Betätigung des Pedals, wurden durch Löcher auf der Notenrolle gesteuert. Dass das Instrument ferner dazu in der Lage war, das Klavierspiel eines:einer Interpret:in auf Notenrollen festzuhalten, führte dazu, dass zahlreiche Einspielungen bedeutender zeitgenössischer Komponist:innen erstmals aufgezeichnet werden konnten und teils bis heute mehr oder weniger authentisch wiedergegeben werden können. Während ein gutbürgerlicher Haushalt in den 1910er Jahren durchaus häufig über ein Selbstspielklavier verfügte und sich entsprechend eine Bibliothek an Notenrollen anlegen konnte, sorgte die zunehmende Verbreitung des Grammophons sowie das Aufkommen des Rundfunks in den 1920er Jahren dafür, dass das Interesse an Selbstspielklavieren abklang und die Firmen deren Produktion einstellten (Hocker 2021).

4 Die Anfänge der Computermusik und algorithmisches Komponieren Möchte man das Verhältnis von Künstlicher Intelligenz und Musik historisch fassen, landet man unweigerlichen bei den Anfängen der Computermusik ab den 1950er Jahren. Bei ihr handelt es sich um Musik, „für deren Genese ein Computer notwendig oder wesentlich ist“ (Supper 2016). Die Prozesse des Entstehens dieser Musik kann man als Algorithmisches Komponieren beschreiben und ein daraus resultierendes Werk als Algorithmische Komposition (Supper 2016) – Gerhard Nierhaus gibt in seiner Monografie Algorithmic Compositions erstmals einen detaillierten Überblick über prominente algorithmische Kompositionsverfahren und ihre Geschichte (Nierhaus 2019). Für eine solche benötigt man nämlich nicht notwendigerweise einen Computer. Vielmehr existierte die Algorithmische Komposition bereits lange, bevor dieser erfunden worden war: So entstand der wohl älteste Musikalgorithmus der europäischen Musikgeschichte im 11. Jahrhundert und wurde vom Benediktinermönch, Kantor und Musiktheoretiker Guido von Arezzo in seinem Micrologus (Guidonis) de disciplina artis musicae formuliert (Nierhaus 2019, 21; hierzu u.  a. auch Wald-Fuhrmann 2005). Aus dem 17. Jahrhundert ist „[d]ie Idee einer Vorrichtung überliefert, die es [auch Menschen ohne musikalische Vorbildung] erlaubt, Tonsätze in den verschiedensten musikalischen Stilen zu verfassen“ (Heinemann 2007,

Künstliche Intelligenz als Werkzeug in der Musik – Versuch einer historischen Einordnung 

 223

205). Hinter ihr stand der bereits erwähnte Universalgelehrte Athanasius Kircher, der Aufbau und Struktur jener ‚Komponiermaschine‘ ausführlich im achten Buch seiner Musurgia universalis beschreibt. ‚Komponierkästlein‘, die in der HerzogAugust-Bibliothek in Wolfenbüttel oder der Pepys Library des Magdalene College in Cambridge aufbewahrt werden, zeugen heute noch davon, dass Kirchers Pläne realisiert werden konnten und auch wurden (u.  a. Heinemann 2007, 205–206). Als weiteres prominentes Beispiel der algorithmischen Komposition gelten die musikalischen Würfelspiele, die ab der zweiten Hälfte des 18. Jahrhunderts vermehrt aufkamen und die sich bis zum Beginn des 19.  Jahrhunderts europaweit großer Beliebtheit erfreuten (u.  a. Hedges 1978; Steinbeck 2016). Auch Joseph Haydn und Wolfgang Amadeus Mozart galten lange als Urheber solcher Spiele bzw. Spielanleitungen. Im Falle Mozarts handelt es sich dabei um die Anleitung so viel Walzer man will mit Würfeln zu componiren ohne musikalisch zu seyn oder Composition zu wissen, die erstmals 1793 in Berlin veröffentlicht wurde. Sie wurde dem Komponisten erst nach seinem Tod zugeschrieben und erschien im Anschluss daran in mehreren Nachdrucken (Steinbeck 2016). Heute gilt Mozarts Autorschaft als sehr unwahrscheinlich (Jena 2006). Als erste von einem Computer generierte Komposition wird sehr oft die Illiac Suite für Streichquartett von 1956 des Komponisten (und Chemikers) Lejaren Arthur Hiller sowie des Chemikers (und Komponisten) Leonard Maxwell Isaacson genannt. Programmiert hatten die beiden diese auf einem ILLIAC I (Illinois Automatic Computer) an der University of Illinois at Urbana-Champaign – an derjenigen Universität also, an der beide Wissenschaftler zu jenem Zeitpunkt lehrten. Tatsächlich gab es aber schon frühere Versuche in diese Richtung. Zu den bekannteren und gut dokumentierten gehört nicht zuletzt ein Experiment der Mathematiker Douglas Bolitho und Martin L. Klein mit dem Datatron Computer und Texten des amerikanischen Blues-Sängers Jack Owens: Hieraus entstand der Song Push Button Bertha, der erstmals am 15. Juli 1956 in der Fernsehshow Adventure Tomorrow ausgestrahlt wurde – also bereits einen Monat vor der ersten Aufführung der (zu jenem Zeitpunkt sogar noch unvollendeten) Illiac Suite am 9. August 1956 an der University of Illinois (Ariza 2011, 40–41). Weit weniger bekannt sind zum Beispiel die frühen Experimente von David Caplin und Dietrich Prinz, die das bereits erwähnte und Mozart zugeschriebene musikalische Würfelspiel heranzogen, um Melodien in ihren Computer einzuspeisen und damit einen bekannten Ansatz zur algorithmischen Komposition implementierten und erweiterten, der ohne Computer praktiziert worden war (Ariza 2011, 45–46). Ebenfalls weniger bekannt sind die ersten sowjetischen Experimente mit algorithmischer Komposition ab den 1950er Jahren: Von ihnen zeugt nicht zuletzt die Arbeit des russischen Musikers, Physikers und Mathematikers Rudolf Ch. Zaripov. Für seine ersten Experimente zur computergestützten Komposition verwendete dieser den Ural-1-Computer – die erste Gene-

224 

 Leila Zickgraf

ration einer Serie von Röhrencomputern, die von 1956 bis 1964 im westrussischen Pensa produziert wurden. Als Ergebnis seiner frühen Arbeit gelten sowohl die 1959 entstandenen Ural’skie Napevy (Уральские Напевы, zu deutsch etwa UralLieder) als auch sein 1960 veröffentlichter Bericht für die Akademie der Wissenschaften der UdSSR Ob algoritmičeskom opisanii processa sočinenija muzyki (Об алгоритмическом описании процесса сочинения музыки, zu deutsch etwa Über eine algorithmische Beschreibung des Musikkompositionsprozesses) (Baskakova et al. 1994, 373–375; Zaripov 1960). In den 1980er Jahren konzentrierte man sich, was die computergenerierte Komposition angeht, zunehmend auf ein genaueres Verständnis von Musik und versuchte, durch die Programmierung sogenannter Expertensysteme – also Software, die Daten verwendet, die von Experten erstellt und dann mit Hilfe handgefertigter Algorithmen verarbeitet werden –, weitere Erfolge bei der Automatisierung von kreativen Prozessen zu erzielen (Braguinski 2022, 67). Der Klangkünstler und Musikforscher Sebastian Trump beschreibt etwa, wie der Musiktheoretiker und Komponist Fred Lerdahl sowie der Linguist Ray Jackerdorff in jener Zeit Untersuchungen vornahmen, um musikalische Formungsprinzipien analog zur in der Linguistik entwickelten und auf Noam Chomsky zurückgehenden Generativen Transformationsgrammatik zu beschreiben (Trump 2015, 318–319). Als weiterer Meilenstein im Verhältnis von KI und Musik wird in jener Zeit meist das von David Cope Anfang der 1980er Jahre lancierte Projekt Experiments in Musical Intelligence genannt bzw. die daraus hervorgegangene Software EMI (später auch ‚Emmy‘ genannt, um Verwechslungen mit dem britischen Plattenlabel EMI zu vermeiden und den Namen menschlicher wirken zu lassen) (Du Sautoy 2021, 198), mit der sich insbesondere Kompositionen im Stile von Bach, Mozart oder Beethoven generieren lassen. Seit den 2010er Jahren sind insbesondere die Datenverfügbarkeit sowie Rechenleistung derart gestiegen, dass (auch) im Bereich der Musik die progressiven Entwicklungen auf dem Terrain des deep learning stattfinden (Braguinski 2022, 66–67). Wohin diese Entwicklung führt, ist noch nicht abzusehen. Aber vielleicht lohnt ja ein Blick in die Vergangenheit, um Chancen und Risiken zu antizipieren.

Literaturverzeichnis Ariza, Christopher. „Two Pioneering Projects from the Early History of Computer-Aided Algorithmic Composition“. Computer Music Journal 35.3 (2011): 40–56. Baskakova, Marina, Anatoly Kisselev, Alexander Lavrentiev, Yuri Linnik, T. Perseva, Mark Rais und Mikhail S. Zalivadny. „Gateway“. Leonardo 27.5 (1994) (Prometheus: Art, Science and Technology in the Former Soviet Union. Special Issue): 371–378. Hier S. 373–375.

Künstliche Intelligenz als Werkzeug in der Musik – Versuch einer historischen Einordnung 

 225

Brachmann, Jan. „Spitzel Schuberts. Huaweis KI komponiert“. https://www.faz.net/aktuell/feuilleton/ buehne-und-konzert/spitzel-schuberts-huaweis-ki-vollendet-die-unvollendete-16029771.html. FAZ 8.02.2019 (26. Juli 2022). Braguinski, Nikita. Mathematical Music. From Antiquity to Music AI. Abingdon und New York 2022. Brown, Oliver. Beyond the Creative Species. Making Machines That Make Art and Music. Cambridge, MA 2021. De Caus, Salomon. Les Raisons des forces mouvantes, avec diverses machines tant utiles que plaisantes. Frankfurt am Main 1615 (Deutsche Übersetzung von Abraham Pacquart: Von gewaltsamen Bewegungen: Beschreibung etlicher, so wol nützlichen alß lustigen Machiner. Frankfurt am Main 1615). Du Sautoy, Markus. Der Creativity Code. Wie Künstliche Intelligenz schreibt, malt, denkt. München 2021. Fludd, Robert. Tractatus secundus. De naturae simia seu technica macrocosmi historia. Oppenheim 1618, Frankfurt 1624. Hedges, Stephen A. „Dice Music in the Eighteenth Century“. Music & Letters 59.2 (1978): 180–187. Heinemann, Michael. „Kirchners ‚Komponiermaschine‘“. Ars Magna Musices. Athanasius Kircher und die Universalität der Musik. Vorträge des deutsch-italienischen Symposiums aus Anlass des 400. Geburtstages von Athanasius Kircher (1602–1680). Musikgeschichtliche Abteilung des Deutschen Historischen Instituts Rom in Zusammenarbeit mit der Hochschule für Musik ‚Carl Maria von Weber‘ in Dresden. Rom, Deutsches Historisches Institut, 16.–18. Oktober 2002 (Analecta Musicologica. Veröffentlichungen der Musikgeschichtlichen Abteilung des Deutschen Historischen Instituts in Rom, Bd. 38). Hrsg. von Markus Engelhardt und Michael Heinemann. Laaber 2007: 205–226. Herbstreuth, Mike. Fake Music. Die Komposition die aus dem Computer kam. https://www. deutschlandfunkkultur.de/fake-music-die-komposition-die-aus-dem-computer-kam-100.html. deutschlandfunkkultur.de, 4. August 2017 (26. Juli 2022). Heron von Alexandria: Pneumatica et automata, in: Heronis Alexandrini opera qvae svpersvnt omnia, griech. und dt. übers. und hrsg. von Wilhelm Schmidt, Bd. 1, Leipzig (Teubner) 1899. Hirschmann, Wolfgang. Art. „Schott, Caspar“. MGG Online. Hrsg. von Laurenz Lütteken. Kassel, Stuttgart, New York 2016–. Zuerst veröffentlicht 2006. Online veröffentlicht 2016. https://www. mgg-online.com/mgg/stable/13849 (5. März 2023). Hocker, Jürgen: Art. „Mechanische Musikinstrumente“. MGG Online. Hrsg. von Laurenz Lütteken. Kassel, Stuttgart, New York 2016–. Veröffentlicht Dezember 2021. https://www.mgg-online.com/ mgg/stable/404840 (05. März 2023). Hocker, Jürgen. Faszination Player Piano. Das selbstspielende Klavier von den Anfängen bis zur Gegenwart. Bergkirchen 2009. Jena, Stefan. Art. „Würfelmusik“. Oesterreichisches Musiklexikon online. Begr. von Rudolf Flotzinger. Hrsg. von Barbara Boisits. https://dx.doi.org/10.1553/0x0001e74d. Letzte inhaltliche Änderung: 15.5.2006 (23. Juli 2022). Jüttemann, Herbert. Art. „Welte“. MGG Online. Hrsg. von Laurenz Lütteken. Kassel, Stuttgart, New York 2016. Zuerst veröffentlicht 2007. Online veröffentlicht 2016. https://www.mgg-online.com/mgg/ stable/15394 (5. März 2023). Kirnbauer, Martin. Art. „Caus, Salomon de“. MGG Online. Hrsg. von Laurenz Lütteken. Kassel, Stuttgart, New York 2016–. Zuerst veröffentlicht 2000. https://www.mgg-online.com/mgg/ stable/13208 (5. März 2023). Kowar, Helmut. Art. „Kammspielwerke“. Oesterreichisches Musiklexikon online. Begr. von Rudolf Flotzinger. Hrsg. von Barbara Boisits. https://dx.doi.org/10.1553/0x0001d392. Letzte inhaltliche Änderung: 7. November 2018 (23. Juli 2022). Kowar, Helmut. Die Wiener Flötenuhr. „Sie spielt besser als das Orchester im Kärntnertor“, Wien 2001.

226 

 Leila Zickgraf

Miranda, Eduardo Reck. Handbook of Artificial Intelligence for Music. Foundations, Advanced Aproaches, and Developments for Creativity. Cham 2021. Nierhaus, Gerhard. Algorithmic Composition. Paradigms of Automated Music Generation. Wien und New York 2009. O.A. „Innovating for Writers and Artists“. artists.spotify.com/de/blog/innovating-for-writers-andartists. 12. Juli 2017 (15. Juli 2022). Reichling, Alfred und Max Wegner: Art. „Ktesibios“. MGG Online. Hrsg. von Laurenz Lütteken. Kassel, Stuttgart, New York 2016–. Zuerst veröffentlicht 2003. Online veröffentlicht 2016. https://www. mgg-online.com/mgg/stable/374667 (30. März 2023). Riskin, Jessica. „Künstliches Leben produzieren. Denkparallelen im Automatenbau des 18. Jahrhunderts und heute“. Artifizielle Körper – Künstliche Technik. Technische Modellierungen des Körpers in historischer Perspektive. Hrsg. von Barbara Orland. Zürich 2005: 65–85. Rose, Ashley. „Three Ways AI is Reshaping the Music Business“. https://www.entrepreneur.com/ article/327781. entrepreneur.com. 11. Februar 2019 (15. Juli 2022). Schwanauer, Stephan M. und David A. Levitt (Hrsg.). Machine Models of Music. London 1993. Steinbeck, Wolfram. Art. „Würfelmusik“. MGG Online. Hrsg. von Laurenz Lütteken. Kassel, Stuttgart, New York 2016–. Zuerst veröffentlicht 1998. Online veröffentlicht 2016. https://www.mgg-online. com/mgg/stable/12552 (5. März. 2023). Supper, Martin. Art. „Computermusik“. MGG Online. Hrsg. von Laurenz Lütteken. Kassel, Stuttgart, New York 2016–. Zuerst veröffentlicht 1995. Online veröffentlicht 2016. https://www.mgg-online.com/ mgg/stable/12446 (5. März. 2023). Szonntagh, Eugene L. Art. „Heron von Alexandria“. MGG Online. Hrsg. von Laurenz Lütteken. Kassel, Stuttgart, New York 2016–. Zuerst veröffentlicht 2002. Online veröffentlicht 2016. https://www. mgg-online.com/mgg/stable/26473 (5. März. 2023).   Trump, Sebastian. „GenImpro: Analysewerkzeug, Forschungsumgebung und generatives System für musikalische Evolution“. Mensch und Computer. Hrsg. von Anette Weisbecker, Michael Burmester und Albrecht Schmidt. Stuttgart 2015: 317–323. Wald-Fuhrmann, Melanie. „Sic ludit in orbe terrarum aeterna Dei sapientia“. Harmonie als Utopie: Untersuchungen zur Musurgia universalis von Athanasius Kircher. Zürich 2005. Weiguny, Bettina. Beethovens Unvollendete wird vollendet. https://www.faz.net/aktuell/wirtschaft/ kuenstliche-intelligenz/beethovens-unvollendete-wird-vollendet-16523814.html. FAZ.net 7.12.2019 (26. Juli 2022). Wolf, Rebecca. „Musikautomaten“. Grundlagen der Musik (Handbuch der Systematischen Musikwissenschaft. 5). Hrsg. von Stefan Weinzierl. Laaber 2014: 409–431. Wolf, Rebecca. Friedrich Kaufmanns Trompeterautomat. Ein musikalisches Experiment um 1810 (Beiträge zum Archiv für Musikwissenschaft, 68). Stuttgart 2011. Zaripov, Rudolf Ch. „Ob algoritmičeskom opisanii processa sočinenija muzyki“. Doklady AN SSSR 132.6 (1960): 1283–1286. Zickgraf, Leila und Tabea Golgath. „Künstliche Intelligenz und Kultur(-Politik)“. Handbuch Kulturpolitik. Hrsg. von Henning Mohr, Johannes Crückeberg, Julius Heinicke, Jan Kalbhenn, Friederike Landau und Katrin Lohbeck (Wiesbaden vorauss. 2023).

Joachim Heintz

Künstliche Intelligenz und Musik In einer Zeit, in der selbst seriöse Bücher seriöser Autoren in Wissenschaftsverlagen unter Titeln wie Künstliche Intelligenz – Wann übernehmen die Maschinen? (Mainzer 2019) erscheinen, in der Computerprogramme die stärksten Spieler in Schach und Go schlagen und KI in verschiedenen Ausprägungen Teil des Alltags wird, erscheint es vielen nur eine Frage der Zeit, bis Algorithmen den Menschen auch in der Komposition von Musik erreichen, wenn nicht übertreffen. „More Bach than Bach“ heißt es bereits in einem aktuellen Titel (Miller 2019, 163), und es scheint, als gebe es nur noch die Alternative, die Überlegenheit der Maschinen auch hier anzuerkennen oder den verlorenen Posten herkömmlichen Komponierens zu behaupten, solange es eben geht (Heintz 2019). Gerade in dieser Situation erscheint es besonders angezeigt, auf einige Grundlagen zurückzugehen, die das Verhältnis von Musik und KI bestimmen. Das betrifft zum einen die Nähe der Musik zur Mathematik, zum anderen die geschichtliche und geografische, soziale und kulturelle Prägung des musikalischen Materials. Diese soll im vorliegenden Kapitel nachvollzogen und ihre Nachschaffung durch den Computer anhand verschiedener Methoden diskutiert werden, bevor die Neue Musik der Gegenwart in den Blick kommt. Dabei werden vor allem drei frühe Werke aus den 1950er Jahren unter der Fragestellung algorithmischen Komponierens detaillierter besprochen, weil sich daran besonders anschaulich zeigen lässt, wie unterschiedlich der Einsatz von Algorithmen  – und somit potentiell KI  – hier verglichen mit der Situation der Stilkopie ist. Abschließend wird versucht, einige der sehr verschiedenen Aspekte des Themas KI und Musik, unter deren Vermischung die Diskussion oft leidet, voneinander zu trennen und in ihrem Zusammenspiel zu betrachten.

1 Musik und Mathematik Alan Turing beschrieb die nach ihm benannte Maschine, die nach wie vor die allgemeine Form eines Computers charakterisiert, als Beitrag zu einer mathematischen Grundlagendiskussion (Turing 1936). Die vielfältigen Beziehungen zwischen Informatik und Mathematik, die sich beispielsweise im Begriff des Algorithmus niederschlagen, sind offensichtlich. Ebenso eng und vielfältig sind aber auch die Beziehungen zwischen Musik und Mathematik und zwar lange vor dem Computerzeitalter. Sobald es um die Bestimmung von Tonhöhen und Tondauern geht, wird gemessen und demzufolge mit Zahlen operiert. Die europäische Tradition geht dabei auf die griechische Musiktheorie zurück und verbindet sich mit dem Mathematikerhttps://doi.org/10.1515/9783110656978-014

228 

 Joachim Heintz

Philosophen Pythagoras als Referenz und Symbol. Pythagoras, so der frühmittelalterliche Musiktheoretiker Boethius, fand als erster „in welchen Proportionen die Konsonanzen ausgedrückt werden können“ (Boethius 1985, 16; Boethius 1867, I, 10). An einem Beispiel sei erläutert, wie hier vorgegangen wird. Wenn ein Ton A mit einer schwingenden Saite von einem Meter Länge erzeugt wird und dann verglichen wird mit einem Ton B, indem die Saite auf einen halben Meter verkürzt wird, wird ein bestimmtes musikalisches Intervall wiedererkannt, das bei den Griechen diapason, im lateinischen Mittelalter dann octava genannt wird. Das Verhältnis A:B bei einer Oktave ist somit, was die Saitenlängen angeht, 2:1. Mit Hilfe dieser als Verhältniszahlen ausgedrückten Intervalle werden die Tonhöhen, auf deren Auswahl und Fixierung die Musik beruht, beschrieben. Dies gilt in der Antike (Aristoxenos 1989, 251) ebenso wie bei Boethius und das ganze Mittelalter hindurch; es ist im Barock noch Grundlagenwissen (siehe die folgende Abbildung) und wird in neuer Weise in der zeitgenössischen Musik etwa bei Grisey (2000, 81) oder Zimmermann (1974, 113) wichtig.

Abb. 1: Musikalische Intervalle und ihre Proportionen in Johann Matthesons Der vollkommene Capellmeister (Mattheson 1739, 53)

Auch der zweite für die europäische Musiktradition essentielle Parameter, die Tondauer, wird als ganzzahlige Proportion ausgedrückt. Auch ohne mechanische Zeitmessgeräte lässt sich mit hinreichender Genauigkeit bestimmen, ob eine Tondauer halb so lang ist wie eine andere. Die beiden Bestimmungen 2:1 und 3:1 als Verhältnis einer langen zu einer kurzen Note genügten in der westlichen Tradition über viele Jahrhunderte. Als Beispiel sei hier ein Überblick über das Mensuralsystem des 15. Jahrhunderts angeführt (De la Motte 1981, 40):

Künstliche Intelligenz und Musik 

 229

Abb. 2: Tondauern als Proportionen ausgedrückt am Beispiel der Mensuralnotation des 15. Jahrhunderts

Auch wenn Musik sich nie auf das Treffen einer richtigen Tonhöhe und einer richtigen Dauer reduzieren ließ, hielt doch die als Notenschrift fixierte Komposition von Musik Europas bis ins 18. Jahrhundert hinein nahezu ausschließlich diese beiden Parameter fest: Die Tonhöhe als ‚Stufe‘ einer ‚Tonleiter‘ oder ‚Skala‘, die wiederum auf Proportionen zurückgeht, letztlich also mathematisch konstruiert wird, und die Tondauer, die als Proportion zu anderen Tondauern notiert wird, gegebenenfalls unter Angabe einer Referenzdauer. Dieses Paradigma erfüllen die folgenden Ausschnitte aus dem 13., 17. und 20. Jahrhundert.

Abb. 3: Ausschnitt aus einem zweistimmigen Organum um 1200 (Notre Dame). Durch das System von Linien und Schlüsseln werden Tonhöhen fixiert; durch bestimmte Gruppierungen der Noten werden die Tondauern als Proportionen bezeichnet.

230 

 Joachim Heintz

Abb. 4: Beginn des Lamento d’Arianna von Claudio Monteverdi (Monteverdi 1614). Die Notenschrift entspricht weitgehend dem heutigen Standard, so dass sich beispielsweise Dauernproportionen unmittelbar in Zahlen umformen ließen.

Abb. 5: Bob Dylans „Blowing in the wind“ als Beispiel für die fortbestehende Praxis einer musikalischen Notation, die sich auf Tonhöhen und Tondauern fokussiert (Dylan 1962, 4).

Bei der Diskussion von KI und Musik sollte diese besondere Nähe von Musik und Mathematik immer im Bewusstsein bleiben. Im Unterschied zur Sprach- und Bildkunst ist das Grundmaterial der Musik, Tonhöhen und Zeitdauern, von vornherein mathematisch beschreibbar, sei es traditionell durch Proportionen oder modern durch Frequenzen und Metronomangaben. Es ist kein Zufall, dass die Musik im System der septem artes liberales [sieben freien Künste] zusammen mit Arithmetik, Geometrie und Astronomie zur Untergruppe des quadrivium gehörte, also quasi als mathematische Disziplin angesehen wurde.

Künstliche Intelligenz und Musik 

 231

2 Musik als Regelsystem So erscheint Musik als geradezu prädestiniert dazu, von Maschinen komponiert, also berechnet zu werden. Das gilt auch dann, wenn die Ebene des Materials im Sinne eines bloßen Vorrats von Tonhöhen und Zeitdauern überschritten wird und dessen künstlerische Formung in den Blick kommt. Komponieren konnte zu allen Zeiten insofern gelehrt und gelernt werden, als es auf einem  – historisch je spezifischen – Regelsystem beruht, das klar formuliert war und entsprechend angewandt werden konnte. Das Regelsystem konnte von jedem gelernt werden, der über die entsprechenden Grundlagen in der musikalischen Elementarlehre verfügte. Insofern konnte auch jeder komponieren lernen; die Unterschiede in Individualität und Qualität entstehen auf der Basis der Beherrschung dieses Regelsystems. Einige dieser regelbasierten Kontexte sollen im Folgenden skizziert werden, um ein Bild davon zu geben, wie in traditioneller Musik komponiert wurde und wie ein Computerprogramm eine solche Musik konstruieren kann.

2.1 Klassischer Kontrapunkt Der 1725 erschienene Gradus ad parnassum [Stufen zum Parnass, d.  i. dem Sitz der Musen] des Wiener Hofkomponisten Johann Joseph Fux diente Generationen von Komponisten als Lehrbuch des sogenannten strengen Kontrapunkts. Die historisch unzutreffenden Beschreibungen des zur Zeit der Abfassung schon 150 Jahre zurückliegenden Palestrinastils interessieren hier nicht. An der Fux’schen Didaktik lässt sich vielmehr nachvollziehen, wie Musik als Regelsystem gelehrt und prinzipiell von einem Programm erzeugt werden kann. Das wird im Folgenden am ersten der Fux’schen Lernschritte demonstriert, dem sogenannten Satz Note gegen Note (Fux 1725, 45–55). Dabei wird eine neue Tonfolge, der sogenannte Kontrapunkt, zu einer bereits bestehenden Tonfolge, dem cantus firmus, komponiert. Die wesentlichen Regeln sind: 1. Die Tonart und der maximale Stimmumfang, wodurch die benutzbaren Töne festgelegt werden, 2. eine Klassifikation der Intervalle, also der Tonabstände zwischen der vorgegebenen und der neu zu komponierenden Stimme, in a. perfekte Konsonanzen (Prime, Quinte, Oktave), wobei die Prime nur beim ersten oder letzten Ton verwendet werden kann; b. imperfekte Konsonanzen (Terz, Sexte);

232 

 Joachim Heintz

c. Dissonanzen (Sekunde, Quarte) 3. die möglichen Bewegungsformen: a. beide Stimmen in gleiche Richtung (Parallelbewegung) b. beide Stimmen in unterschiedliche Richtung (Gegenbewegung) c. eine Stimme bleibt liegen (Seitenbewegung). Da Dissonanzen im Satz Note gegen Note ausgeschlossen sind, können die Regeln zur Bewegungsrichtung reduziert werden auf den Ausschluss von Parallelbewegung in eine perfekte Konsonanz hinein. 4. Regeln über den Abstand von einem Ton zum nächsten innerhalb des Kontrapunkts; hier gilt die Bevorzugung kleiner Bewegungen. 5. Regeln über den Schluss: a. Das letzte Intervall (ultima) muss eine Oktave oder Prime sein. b. Das vorletzte Intervall (paenultima) muss imperfekt sein und erreicht die ultima schrittweise im Halbton, wenn der cantus firmus hier einen Ganzton hat, und umgekehrt. Der folgende Code in der Programmiersprache Python zeigt eine Möglichkeit, diese Regeln von einem Computer ausführen und so einen Kontrapunkt ‚komponieren‘ zu lassen. Dabei wird selbst auf der elementaren Ebene, um die es hier geht, vieles vereinfacht, um den Code möglichst knapp zu halten. Es geht also bei diesem kleinen Programm nur um den proof of concept, nicht um eine konkurrenzfähige KI. cantus_firmus = [1, 3, 2, 1, 4, 3, 5, 4, 3, 2, 1] perf = [5, 8] #perfekte konsonanzen imp = [3, 6] #imperfekte konsonanzen dissonanz = [2, 4, 7] cp_ambitus = [4, 5, 6, 7, 8] from random import random, choices def intervall(ton1, ton2): return abs(ton1-ton2)+1 def richtung(ton1,ton2): if ton2 > ton1: return 1 elif ton1 > ton2: return -1 else: return 0 def auswahl(fall_1,fall_2): if random() < 0.5: return fall_1 else: return fall_2 def naechster_ton(cf_jetzt, cf_vorher, cp_vorher, dist=0): neuer_ton = cp_vorher+dist intv = intervall(cf_jetzt,neuer_ton)

Künstliche Intelligenz und Musik 

 233

if intv not in dissonanz and intv is not 1 and neuer_ton in cp_ambitus: return neuer_ton else: dist_neu = choices([0,1,-1,2,-2],[3,2,2,1,1])[0] return naechster_ton(cf_jetzt, cf_vorher, cp_vorher, dist_neu) def ultima(cf_ambitus): if 1 in cf_ambitus and 8 in cf_ambitus: auswahl(1,8) elif 8 in cf_ambitus: return 8 else: return 1 def paenultima(ultima,cf_dir): return ultima+cf_dir def cp(cf,startton): l = len(cf) cp = [0] * l cp[l-1] = ultima(cp_ambitus) cp[l-2] = paenultima(cp[l-1],richtung(cf[l-2],cf[l-1])) cp[0] = startton for i in range(1,l-2): cp[i] = naechster_ton(cf[i],cf[i-1],cp[i-1]) return cp for x in range(5): print(cp(cantus_firmus,5)) Die Ausführung dieses Programms ergibt unter anderem diese drei Varianten:

Abb. 6: Drei Ergebnisse (contra punctus 1–3) eines einfachen Programms zur Generierung von Kontrapunkten zu einem vorgegebenen cantus firmus (c. f.) im Stil des Regelsystems von Johann Joseph Fux 1725.

234 

 Joachim Heintz

2.2 Andere historische Paradigmen Um anzudeuten, wie verschieden einerseits musikalische Regelsysteme sind, wie sie sich andererseits jedoch prinzipiell nachprogrammieren lassen, soll ein Blick auf zwei andere Stationen der westlichen Musikgeschichte geworfen werden. Die erste gehört historisch dem frühen Mittelalter an und verbindet sich – bei allen Unterschieden im Detail – mit vielen ‚modalen‘ Musiksystemen in Asien. Die zweite gehört ins 19. Jahrhundert und ist beispielsweise über einige Weihnachtslieder weitläufig bekannt. Obgleich beide Regelkontexte in der europäischen Musikgeschichte verortet sind, die riesige Vielfalt aller anderen Musikkulturen also ausgeblendet ist, kann schon an den beiden besprochenen Beispielen verdeutlicht werden, wie unterschiedlich die Anforderungen an adäquate Beschreibungen für die jeweiligen Systeme sind.

2.2.1 Melodie eines gregorianischen Gesangs Eine musikalische Beschreibung des gregorianischen Gesangs – dessen Textbezug ignorierend – hätte von den verschiedenen Modi auszugehen. Jeder Modus bringt nicht nur einen Vorrat an Stufen und einen verbindlichen Schlusston (finalis) mit sich, sondern vor allem auch verschiedene Qualitäten der Haupt- und Nebentöne. Insbesondere gehört zu jedem Modus ein tenor, auf dem besonders verweilt wird. In manchen Gruppen von Gesängen gibt es zusätzliche „sekundäre Rezitationsstufen“, die je nach Modus „eine bedeutende strukturelle Rolle“ ausüben (Agustoni 1995, 45). Die melodischen Bewegungen folgen einem Wechsel von arsis (Hebung, Impuls) und thesis (Senkung, Entspannung). „Kein Ton steht für sich allein. Er wird […] von der auf einen Sammelpunkt hinzielenden Spannung oder der von einem Sammelpunkt ausgehenden Lösung [erfasst].“ (Johner 1953, 57) Die melodischen Formen beruhen auf einer unendlichen Vielfalt kleiner Bewegungen im großen Kräftefeld eines Modus. Dieses Feld kann sich unter Umständen verschieben, wenn ein als tenor angesteuerter Ton durch modale Modulation für eine Zeit wie ein Grundton behandelt wird oder es besteht von vornherein eine modale Vielfältigkeit: „Modale Centonisation ist in diesem Sinn die Zusammensetzung zweier oder mehrerer modal unterschiedlich geprägter Melodieteile zu einer neuen, übergreifenden modalen Einheit“ (Agustoni 1995, 55). Insgesamt zeigt sich, welch ein komplexes und, verglichen mit der ‚normalen‘ Dur-Moll-Harmonik, andersartiges System im gregorianischen Gesang vorliegt. Solche anderen Welten finden sich auch im arabischen Maqam, im persischen Dastgah oder im indischen Raga. Die Feinheiten dieser Systeme zu erlernen,

Künstliche Intelligenz und Musik 

 235

braucht bei Menschen Jahre intensivsten Lernens. Sie in Regeln zu fassen und von einem Programm reproduzieren zu lassen, erscheint prinzipiell möglich, aber sehr aufwändig. Und dabei wäre der Wort-Ton-Bezug, der unter anderem für die Gregorianik zentral ist, noch gar nicht berührt.

2.2.2 Melodie und Akkordbegleitung Eine musikalische Beschreibung einer Melodie mit Akkordbegleitung des 19. Jahrhunderts – als Beispiel kann das populäre Weihnachstlied Stille Nacht dienen – als Grundlage einer regelbasierten Programmierung könnte bei den Zusammenklängen beginnen. Diese Akkorde umfassen drei Töne, teilweise noch mit einem Zusatzton. Das Grundmaterial einer Komposition besteht aus lediglich drei Akkorden, die in bestimmten funktionalen Verhältnissen zueinanderstehen. Der Tonika genannte Akkord stellt das Gravitationszentrum dar; der als Dominante bezeichnete Akkord fungiert als Spannung zum Zentrum hin; der als Subdominante bezeichnete Akkord schließlich stellt eine spannungsarme Entfernung vom Zentrum dar. Durch diese Funktionalität ergeben sich bestimmte Möglichkeiten und Unmöglichkeiten, Normalitäten und Überraschungen bei der Aufeinanderfolge der Akkorde. Eingebunden sind sie in eine oft symmetrische Struktur von Taktgruppen, der auch die Melodie in ihren ‚Perioden‘ folgt: Vier Takte bestehen aus zwei Zweitaktgruppen; zwei Takte bestehen aus zwei Eintaktgruppen. Melodie und Harmonie sind kongruent; die Melodie besteht also aus Harmonietönen, angereichert durch bestimmte Formeln wie Wechselnote oder Durchgang.

3 Regelbasierte Programmierung versus machine learning bei Stilkopien Bei der oben am Beispiel des klassischen Kontrapunkts beschriebenen Komposition durch ein Computerprogamm wird versucht, die Tätigkeit eines komponierenden Menschen nachzustellen bzw. zu modellieren. Wird nach dem nächsten Ton eines Kontrapunkts gesucht, werden mehrere Möglichkeiten durchgespielt. Einige scheiden aus, weil sie gegen Regeln verstoßen. Andere Möglichkeiten bleiben; aus ihnen wird eine ausgewählt, sei es willkürlich oder nach übergeordneten Kriterien. Bei einem komponierenden Menschen kann es beispielsweise der ‚melodische Wille‘, eine ‚Sanglichkeit‘, ein Gefühl für die Ausgeglichenheit der Linienführung oder für den Wechsel von perfekten und imperfekten Konsonanzen sein, was zur – meist intuitiven – Entscheidung führt. Sind schon die oben (2.1.) aufgeführten, für eine:n

236 

 Joachim Heintz

Kompositionsschüler:in recht einfach zu lernenden Regeln nicht ganz trivial nachzuprogrammieren, weil sie einen mehrdimensionalen Entscheidungsraum bilden, gerät ein Programm, das die eben genannten ‚höheren‘ Kriterien nachbildet, leicht sehr komplex. So haben sich die Versuche, Musik eines Stils algorithmisch nachzubilden, bald anderen Verfahren zugewandt, die zum Teil speziell für Musik entwickelt, zum Teil aus anderen Bereichen übernommen wurden. Im Folgenden werden zwei Beispiele diskutiert, die sich jeweils mit der Musik Johann Sebastian Bachs befassen.

3.1 Copes Experiments in Musical Intelligence David Cope beschreibt schon in den 1980er und 1990er Jahren ein Verfahren, das Stilkopien aus der Analyse einer Anzahl vorhandener Werke herstellt. Die in einer geeigneten Datenstruktur gespeicherten Partituren werden vom Programm zunächst in kleine Teile zerlegt. Auf der Basis von Signaturen, die beim Vergleich der Teile und ihrer Verbindungen entstehen, werden dann durch Rekombination neue Musikstücke erzeugt. Cope (2020) unterscheidet wie folgt: (1) deconstruction (analyze and separate into parts) (2) signatures (commonality – retain that which signifies style) (3) compatibility (recombinancy – recombine into new works).

Als Beispiel für eine frühe Form seines Programms EMI [Experiments in Musical Intelligence] sei hier die in der Programmiersprache LISP geschriebene Funktion zitiert, mit deren Hilfe aus zwei vorhandenen Bach-Inventionen eine neue erzeugt werden kann. Auch ohne tieferes Eindringen in den Code sind die Schritte der Datenzubereitung (prepare-data), der Analyse (find-patterns) und der Neuformulierung (make-melody, add-second-voice, cadence-it) gut erkennbar (Cope 1991, 99): (defun compose-invention (composition-1 composition-2) (setq meter (select-meter)) (setq prepared-data (prepare-data composition-1 composition-2)) (setq signature-dictionary (find-patterns)) (setq melody (make-melody)) (setq initial-new-composition (add-second-voice)) (setq invention (cadence-it)))

Künstliche Intelligenz und Musik 

 237

3.2 Maschinelles Lernen mit DeepBach Machine learning ist einer der Schlüsselbegriffe der gegenwärtigen KI-Entwicklung. Er verbindet sich mit der Methode eines tiefen neuronalen Netzwerks (deep neural network) und scheint für die Möglichkeit maschinellen Komponierens besonders geeignet. Statt Regeln des Komponierens in einem Programm nachzumodellieren, was trotz des immensen Aufwands oft zu enttäuschenden Resultaten führt und darüber hinaus statisch bleibt, könnte maschinelles Lernen Dynamik und Kreativität mit sich bringen. Das Projekt DeepBach folgt dieser Methode; der Name leitet sich daraus ab, dass hier mit einem deep neural network Choräle im Stil von Johann Sebastian Bach erzeugt werden. Da die Methoden des maschinellen Lernens vor allem in der visuellen Musterkennung entwickelt wurden, entbehrt DeepBach  – anders als bei Cope  – musiktheoretischer Begrifflichkeit. Benutzt werden stattdessen das Pseudo-Gibbs-Sampling, das die Wahrscheinlichkeit eines Zustands, also hier beispielsweise eines Soprantons (DeepBach, fig. 4), beurteilt. Die Erläuterung des zentralen Algorithmus durch die Autoren sei hier zitiert, um einen Eindruck von der benutzten Begrifflichkeit zu geben:

Abb. 7: DeepBach, Algorithm 1

238 

 Joachim Heintz

Zur Evaluierung benutzt DeepBach einen Test mit 1272 Versuchspersonen (DeepBach 3.2). Getestet wird, ob ein durch DeepBach generierter Choral für Bach gehalten wird. Die Autoren kommen dabei auf bessere Ergebnisse als zwei Vorgänger; Cope wird in diesem Zusammenhang nicht genannt. Auch wenn die Fragestellung im Rahmen der Untersuchung plausibel ist, erscheint es bemerkenswert, dass erfolgreiches maschinelles Komponieren mit erfolgreichem Betrug in eins gesetzt wird. Das Programm ist perfekt, wenn fake und real von niemandem mehr unterschieden werden können. Will man auf musikalische Relevanz zu sprechen kommen, muss sich DeepBach an dem messen lassen, was man in den Bachchorälen selbst an musikalischer Substanz vorfindet. Dabei kommen Zweifel auf, ob es sich hier wirklich um „highly convincing chorales in the style of Bach“ (DeepBach, Abstract) handelt. Schaut man auf die drei kurzen Beispiele, die die Autoren in ihrem Artikel anbieten, findet man neben satztechnischen Fehlern wie Quintparallelen und einer ziellosen, schweifenden Harmonik eine große Anzahl von mindestens ungewöhnlich zu nennenden Wendungen. Das darin zum Ausdruck kommende Problem scheint einen zentralen Punkt zu berühren. Für Bach und seine komponierenden Zeitgenoss:innen war der Raum des Komponierens nicht leer und neutral, sondern ein aus verschiedenen Qualitäten und Widerständen bestehendes Kräftefeld. In der Mitte des Raumes befindet sich die Normalität; zu den Grenzen hin wird der Widerstand gleichsam immer größer, was auch bedeutet: Es wird Ungewöhnlichkeit signalisiert. Es gibt Wendungen, die man ‚eigentlich nicht macht‘, die aber an einer Stelle ‚gerade richtig‘ sind, weil hier eben etwas Ungewöhnliches geschieht  – bei den Chorälen vor allem durch den Text motiviert. Diese verschiedenen Qualitäten des musikalisch-kompositorischen Raumes zwischen Normalität und Unmöglichkeit, mit unendlich vielen Möglichkeiten der Spannung durch Abweichung, werden bei DeepBach zu einer unterschiedslosen Homogenität. Der bei Bach tatsächlich tiefe Raum wird flach. Legt man diesen Maßstab an, dürfte es wohl zweifelhaft sein, ob „agnostic approaches (requiring no knowledge about harmony, Bach’s style or music) using neural networks“ wirklich „promising results“ hervorbringen können (DeepBach, I), und ob die gegenwärtigen Beispiele, in Vorgehensweise wie im Resultat, irgendetwas mit Komposition im Sinne Bachs zu tun haben. Die Zeitschrift MIT Technology Review ist sich da in der Besprechung von DeepBach allerdings sicher; „That’s interesting work that has fascinating implications. If it is possible for a deep-learning machine to produce chorales in the style of Bach, then why not also in the style of other composers and perhaps even other styles of music? […] deep-learning machines from Sony’s labs and elsewhere have begun to produce well-regarded pieces of music. It will come as no surprise if these machines soon begin to take on more ambitious works such as symphonies, operas, and more. Bach would surely have been amazed!“ (TR 2016).

Künstliche Intelligenz und Musik 

 239

4 Algorithmisches Denken in Neuer Musik Dass Johann Sebastian Bach über DeepBach Verblüffung und Zustimmung geäußert hätte, mögen die einen ebenso imaginieren, wie es für die anderen die späte Erfüllung von Bachs Verfluchung einer Musik ohne Seele als „teuflisches Geplerr und Geleyer“ sein mag (Bach 1738, 916). Wissen kann es niemand, denn ein Computerprogramm wird hier auf eine Musik angewandt, die ganz anders entstand – in einer Zeit ohne Fotos, ohne Film, ohne Tonaufzeichnungen, von Internet und Computern ganz zu schweigen. Das unterscheidet Ansätze wie Copes EMI oder DeepBach grundlegend von der Präsenz, die algorithmisches Denken in der Komposition Neuer Musik seit den 1950er Jahren hat. Bei dieser handelt es sich nicht um eine Ersetzung des Menschen durch einen Automatismus, sondern um unterschiedliche Arten, wie algorithmisches Denken als Teil der kompositorischen Phantasie, Praxis und Technik auftritt. Das soll im Folgenden an drei Beispielen gezeigt werden, die von ganz unterschiedlichen Ansätzen ausgehen und zu ganz verschiedenen Resultaten führen, dennoch aber alle in einem ganz anderen Sinne algorithmisch sind, als dies in früherer Musik der Fall war. Die Maschine komponiert gleichsam mit; oder andersherum: Die Phantasie des Komponisten benutzt maschinenähnliche, algorithmische Prozesse für bestimmte Stadien der Ausarbeitung. Dies ist möglich, weil das musikalische Material nicht mehr, wie in traditioneller Musik, als eine gewisse Ordnung der Töne, möglicher Rhythmen und benutzter Formen vorgegeben ist. Vielmehr muss es, als Teil der Komposition selbst, gefunden und entwickelt werden. Das gilt ganz besonders von elektronischer Musik, da es hier nicht einmal mehr die Grenzen des Instruments gibt.

4.1 Karlheinz Stockhausen: Studie II (1953) An Stockhausens Studie  II kann eine Methode nachvollzogen werden, die das musikalische Material durch deterministische Algorithmen erzeugt. Einige dieser Algorithmen sollen hier beispielhaft besprochen und nachprogrammiert werden. Für das Verständnis des Kompositionsprozesses in dieser Art Neuer Musik ist es entscheidend, die Motivation und das Resultat eines jeden Algorithmus zu verstehen. Die Situationen, aus denen heraus entwickelt wird, sind ebenso divers wie die erfundenen Methoden.

240 

 Joachim Heintz

4.1.1 Generierung von Tonhöhen Im Unterschied zu Cage‘s Williams Mix arbeitet die Studie II mit festen Tonhöhen. Diese lassen sich als Frequenz eines Signalgenerators prinzipiell beliebig einstellen. In vielen Aspekten lässt sich die Studie II als Modifikation eines Klavierstücks verstehen. Dieses Modell dient als Ausgangspunkt, wird aber durch das elektronische Medium spezifisch verändert. Bezogen auf die Tonhöhen heißt das: Ähnlich wie bei den schwarzen und weißen Tasten eines Klaviers besteht die identische Proportion von einer Stufe zur nächstfolgenden, doch weist sie eine andere Größe auf als beim Klavier. Bei der ‚gleichschwebend temperierten‘ Stimmung des modernen Klaviers _ 12 wird die Proportion 2:1 in 12 gleiche Abstände geteilt. Das ergibt den Faktor √_2 25 (= 1.059643  …). Stockhausen entscheidet sich demgegenüber für die Proportion √5, was mit dem Faktor 1.066494  … einen geringfügig größeren Wert ergibt. Es ist also, verglichen mit einem Klavierstück, beides erreicht: Man kann in einer sehr ähnlichen Weise wie in der Tradition (der sogenannten Chromatik von zwölf Tönen pro Oktave) Zusammenklänge bilden und dennoch klingen diese Zusammenklänge anders, neu, ungewohnt. Damit der Algorithmus starten kann, bleibt noch zu entscheiden, was der tiefste und der höchste mögliche Ton sei. Die Entscheidung für den tiefsten Ton ist relativ willkürlich; Stockhausen entscheidet sich für 100 Hz, unter anderem wohl deshalb, weil tiefere Frequenzen bei Sinustönen an Hörbarkeit und vor allem an Durchsichtigkeit verlieren. Der höchste Ton befindet sich vernünftiger Weise an der oberen Grenze der Hörschwelle. Der Komponist von 1953 saß an dieser Stelle mit einer Logarithmentafel versehen am Schreibtisch und berechnete die Reihe der möglichen Frequenzen: 100 Hz wurde mit 1.066  … multipliziert und ergab gerundet 107 Hz; das wiederum wurde mit 1.066  … multiplziert und ergab 114 Hz und so fort. Mit einer Programmiersprache wie Python lässt sich das wie folgt erzeugen: Alle_Frequenzen = [round(100*5**(n/25)) for n in range(81)] -> [100, 107, 114, 121, 129, 138, …, 16171, 17247]

4.1.2 Andere Parameter Erscheint die Generierung möglicher Tonhöhen aus (wenn auch neuen) Verhältniszahlen noch recht konform zur Tradition, wird bei anderen Parametern der Komposition deutlich, dass es sich hier nur um einen von vielen Schritten eines neuen Denkens handelt. Das sei hier wenigstens angedeutet (ausführlich vgl. Silberhorn 1980).

Künstliche Intelligenz und Musik 

 241

Als Grundmaterial für alle Fragen der Auswahl von Tonhöhen, Rhythmen und Lautstärken werden zunächst sogenannte Zahlenquadrate generiert. Dabei handelt es sich um fünf Reihen, deren jede eine Permutation der Ausgangsreihe 3-5-1-4-2 ­darstellt: 3  5  1  4  2 

5  2  3  1  4 

1  3  4  2  5 

4  1  2  5  3 

2  4  5  3  1 

Von diesen Zahlenquadraten werden insgesamt zehn durch Anwendung verschiedener Permutationsmethoden erzeugt. Beispielsweise kann das obige Zahlenquadrat durch folgenden Code generiert werden: def addMod(zahl1,zahl2,mod): return (zahl1+zahl2-1) % mod+1 reihe = [3, 5, 1, 4, 2] quadrat = [reihe] for zeile in range(1, len(reihe)): intervall = reihe[zeile] – reihe[0] reiheNeu = [addMod(wertNeu,intervall,len(reihe)) for wertNeu in reihe] quadrat.append(reiheNeu) Aus diesen Reihenabläufen werden nun in mehr oder weniger komplizierten Verfahrensweisen die Klänge, Dauern, Einsatzabstände und Lautstärken bestimmt. So setzt sich, Schicht für Schicht, das ganze Stück mit seinen 380 Klängen zusammen. Unterschiedliche Texturen innerhalb von Studie II werden dabei dadurch gewonnen, dass die durch den Reihenablauf erzeugten Ereignisse je anders gelesen werden. So kommt es beispielsweise durch verschiedene Lesart der Einsatzabstände dazu, dass Teil 3 aus kurzen Klängen besteht, während sich die Klänge in Teil 4 zu großen Schichtungen auftürmen.

4.1.3 Phantasie und Algorithmus Kompositorische Phantasie in Studie II findet sich vor, in und zwischen den Algorithmen. Ein Algorithmus antwortet auf eine kompositorische Fragestellung. Die Algorithmen selbst sind Erfindungen, eigentümliche Formen, im Fall der Studie II geprägt vom Willen, alles aus der Grundgestalt der Reihe 3-5-1-4-2 hervorgehen zu

242 

 Joachim Heintz

lassen. Sind die Algorithmen einmal formuliert und laufen, werden sie verschieden gelesen. Merkt der Komponist, dass im Verlauf der Komposition die bisherigen Reihenabläufe in den folgenden Teilen zu unbefriedigenden Resultaten führen, ändert er sie, beispielsweise in der Geschwindigkeit, in der sie ablaufen. So ändert Stockhausen beim Beginn des dritten Teils eine Methode, die zur Auswahl bestimmter Register führte, derart, dass nun alle Register benutzt werden (Heintz 2014, 70). Deutlich wird: Hier haben wir es nicht mit dem Ersetzen der Phantasie durch Algorithmen zu tun. Vielmehr wird mit Algorithmen als Ausdruck der Phantasie gespielt. Die künstlerische Intuition und Entscheidung des Komponisten bleiben die maßgeblichen Instanzen.

4.2 John Cage: Williams Mix (1952) Eine ganz andere Phantasie, ein ganz anderes Material ist der Ausgangspunkt von Cages Williams Mix, ebenfalls für Tonband komponiert. Ein gleichsam repräsentativer Ausschnitt aus der Totalität aller Klänge wird wie in einem Kaleidoskop neu zusammengesetzt, in acht selbständigen Tonbandspuren. Sie entsprechen den acht Lautsprechern, die beim Konzert um das Publikum herum postiert sind. „Diese 8 Lautsprecher zu hören ist eine außergewöhnliche Erfahrung. Nichts hat Platz, außer dem unmittelbaren Zuhören. Die Luft war so belebt, dass man ein Teil davon wurde. Jedenfalls ist das unsere Reaktion und die einiger weniger Leute im Publikum gewesen“, schrieb Cage nach der ersten Aufführung an Pierre Boulez (Cage-Boulez 1997, 159). Die Folge und die Kombination der Einzelklänge wirken zufällig, unvorhersehbar; sie erinnern an die Splitter, Sprünge und Überlagerungen der städtischen und medialen Wirklichkeit. Um diesen Eindruck zu erreichen, hat Cage sehr genau und sehr komplex konstruiert. Auch hier laufen Algorithmen ab, aber im Unterschied zur Reihentechnik, wie sie Stockhausen in Studie II benutzt, haben diese Algorithmen einen prägnanten Zufallsanteil. Geht es beispielsweise um die Auswahl eines Klanges, wird – vereinfacht gesagt – bei der Herstellung der Partitur an einer bestimmten Stelle durch Zufallswürfe entschieden, aus welcher der folgenden Kategorien der entsprechende Klang stammen soll: „A) Stadtklänge B) Landklänge C) Elektronische Klänge D) Manuell produzierte Klänge einschließlich solcher der Musikliteratur E) Mit Atem erzeugte Klänge einschließlich der Lieder F) Leise Klänge, die elektrisch verstärkt werden müssen“ (Cage 1973, 159)

Künstliche Intelligenz und Musik 

 243

Ebenfalls durch Zufallsauswahl wird entschieden, welche Dauer dieser Klang hat und ob bei ihm Tonhöhe, Klangfarbe und Lautstärke verändert werden oder nicht. Es gibt also, basierend auf den Grundentscheidungen, wie beispielsweise den sechs Klangkategorien, eine unermessliche Anzahl verschiedener Versionen für eine Partitur. Jede dieser Möglichkeiten wird bei allen Unterschieden im Einzelnen doch – bezogen auf die Bewegungsform, die Überlagerungen und die Fragmentierungen – eine ähnliche Charakteristik aufweisen wie die eine Version, die Cage realisiert hat. Auch hier ist der Algorithmus gleichsam ein Partner des Komponisten. Wie Stockhausen entwickelt Cage Algorithmen, um seine musikalische Imagination zu verwirklichen. Da er ein anderes Ziel verfolgt als Stockhausen (d.  h. nicht die Ableitung eines Musikstücks aus einer einzigen kleinen Zahlenfolge, sondern eine offene, immer andere Struktur, die die Splitter der klingenden Wirklichkeiten einer starken Formung unterwirft, damit sie sich auf diese Weise als sie selbst zeigen können) verwendet Cage andere Algorithmen als Stockhausen. Cage und Stockhausen denken und handeln in diesen Kompositionen wie Programmierer – ohne etwas vom Computer zu wissen und zu einer Zeit, als die ersten höheren Programmiersprachen sich erst langsam herausbildeten. Ihre Phantasie bedient sich (auch) der Algorithmen und die Algorithmen formen sich je nach der künstlerischen Phantasie.

4.3 Iannis Xenakis: Achorripsis und ST (1956–1962) Iannis Xenakis war dank seiner mathematischen Bildung sehr früh bewusst, dass wesentliche Teile seiner kompositorischen Methode auch von einem Computer ausgeführt werden konnten. Dank persönlicher Kontakte konnte er mit dem zu seiner Zeit besten Computer, einem IBM-7090, arbeiten. Es entstanden sechs ST genannte Kompositionen, die 1962 in einem Konzert in der Zentrale von IBM-France aufgeführt wurden. Ähnlich wie bei Stockhausen und Cage ist die große Nähe des kompositorischen Denkens zum Schreiben eines Programms nicht von der konkreten Kenntnis und dem Gebrauch eines Computers abhängig. So arbeitete Xenakis bereits mit stochastischen Algorithmen für seine Musik, bevor er hoffen konnte, Zugang zu einem Großrechner zu erhalten. Für sein 1956 komponiertes Stück Achorripsis entwarf er unter anderem diesen Ablaufplan, der aus einem Programmierlehrbuch stammen könnte:

244 

 Joachim Heintz

Abb. 8: Iannis Xenakis, Programmablaufplan aus der Arbeit an Achorripsis (1956) (Xenakis 1992, 135)

Bei Achorripsis werden sämtliche Prozesse noch mit der Hand ausgeführt, sind aber bereits ein fertig ausformuliertes Programm. Xenakis hält 1980 im Rückblick fest:

Künstliche Intelligenz und Musik 

 245

„Wir haben eine Struktur vor uns, eine ‚black box‘. Wir füttern sie mit Daten, führen ihr Energie zu, und was herauskommt, ist Musik. Bei der Komposition von Achorripsis hatte ich noch keinen Rechner zur Verfügung, um mir die Übergänge in der Musik als kontinuierliche Folge berechnen zu lassen. Die Struktur des ST Programms ist die gleiche wie in Achorripsis, aber da ich hier schon mit dem Computer arbeitete, verwendete ich auch die entsprechende Methode.“ (Varga 1995, 79)

Die black box, die mit Daten gefüttert wird und aus der dann Musik herauskommt, erscheint nah an gegenwärtigen Beschreibungen einer komponierenden KI. In der Tat ist Xenakis‘ Denk- und Vorgehensweise hier ein sehr frühes Beispiel für eine creative machine (Xenakis 1992, 131), sofern der Ausdruck richtig verstanden wird. Denn gebaut ist diese Maschine vom Komponisten, nach seinen spezifischen Bedürfnissen und einer spezifischen Absicht folgend: „Wie bringt man es, bildlich gesprochen, fertig, eine ‚black box‘ zu bauen, aus der letztlich Musik herauskommen soll, und zwar: interessante Musik?“ (Varga 1995, 79)

Im Fall von Xenakis entsteht nicht nur interessante, sondern auch sehr individuelle, impulsive und leidenschaftliche Musik. So ist Xenakis’ Entwurf einer formalized music sowohl ein Beispiel für die Selbstverständlichkeit, mit der in Neuer Musik mathematische Methoden und Computerprogramme benutzt werden können, als auch für den entscheidenden Anteil, den Individualität, Konzeption und Gebrauch dieser Programme für das Gesamtergebnis haben.

4.4 Folgerungen und Möglichkeiten Algorithmisches Denken in der Arbeit mit Reihen (Stockhausen), in der Ermöglichung von variativen Strukturen (Cage), in der Anwendung stochastischer Methoden (Xenakis) – dies sind drei Beispiele aus den 1950er Jahren, die zeigen, wie in der Komposition Neuer Musik mit Maschinen gespielt werden kann. Diese Linie ist fortgesetzt worden und führt bis in die Gegenwart; der Gebrauch von KI im derzeit neuesten Gewand ist eine selbstverständliche Möglichkeit unter vielen. Eine seiner vielen möglichen Motivationen kann diese sein: „Der Einsatz nicht-trivialer Maschinen folgt […] einem Bedürfnis, das an der Widerständigkeit jeglichen künstlerischen Materials ansetzt und mit einem veränderten Verständnis künstlerischer Subjektivität insgesamt zu tun hat“ (Grüny 2019, 96). Die Integration maschineller Verfahrensweisen als Teil oder Gegenstand schöpferischer Prozesse beruht auf einer musikalischen Sprache, die wie im Fall von Stockhausen, Cage und Xenakis ihre eigenen Regeln immer neu sucht und

246 

 Joachim Heintz

(er)findet. Das Zeitgemäße dieser Musik beruht darauf, dass Regeln nicht vorgefunden und angewandt, sondern gefunden und komponiert werden.

5 Dimensionen des Feldes KI und Musik Kann eine KI Musik komponieren? „Natürlich“ oder „Nein“ – beide Antworten sind richtig. Es hängt schlicht davon ab, welche Musik diese Frage meint, und was unter Komponieren verstanden wird. Es gibt nicht eine Musik, sondern viele Musiken; sowohl bezogen auf ihr Material, also ihre Klänge und Verbindungsmöglichkeiten, als auch bezogen auf den Kontext, in dem sie komponiert und rezipiert wird. Wer kritisch darüber nachdenken will, welche Implikationen die technische Entwicklung für die Entstehung und die Rezeption von Musik hat, muss diese Unterschiede beachten und beschreiben. Das wird im Folgenden versucht.

5.1 Welche Musik wird komponiert? Welche Musik ist in dem Feld Musik und KI relevant? Es scheint sinnvoll, vorerst drei Gruppen zu unterscheiden: Historische Musik mit einem abgeschlossenen Corpus an Werken. Beispiele wären die bereits besprochenen Kompositionen von Inventionen oder Chorälen im Stile Bachs. Musik, die sich nicht als Stilkopie versteht, sondern als aktuelle Musik, die aber auf einem eingegrenzten, gut beschreibbaren Stil, verbunden mit entsprechenden Regeln, basiert. Beispiele wären weite Teile der Popmusik oder Weltmusik. Musik, deren Regeln prinzipiell von Komposition zu Komposition neu entwickelt werden und deren Ausarbeitung ein Teil des Kompositionsprozesses selbst ist. Beispiele wären die besprochenen Werke von Stockhausen, Cage und Xenakis sowie jüngere Kompositionen in dieser Tradition.

5.1.1 Stilkopien Wird Musik der ersten Kategorie von einer KI komponiert, geht es um die – mehr oder minder gelungene, also dem Original mehr oder minder ähnliche – Kopie eines Stils. Wird solch ein Stil in seiner historischen Realität adäquat verstanden, muss er ein Geflecht von Einflüssen berücksichtigen. Bei Johann Sebastian Bachs Choralbearbeitungen ließen sich etwa die Textdeutung, die Funktionen der Choräle als protes-

Künstliche Intelligenz und Musik 

 247

tantische Kirchengesänge, die allgemeinen satztechnischen Gegebenheiten als musikalisches Handwerk der Zeit sowie Spezifika im Sinne eines Personalstils nennen. Wird nun das historisch Ferne von der Gegenwart aus nachgebildet, stellt sich die Frage nach der Motivation. Seitens der Informatik können hier, beispielsweise bei DeepBach, Methoden validiert werden. Seitens der Musiktheorie und der Musikpädagogik eröffnen sich Möglichkeiten des computergestützten Lehrens und Lernens. Ein für die Musiktheorie, die Musikpsychologie oder die Kognitionsforschung lohnendes Feld stellt der Vergleich der KI-Replikate mit den Originalen dar, durch den Spezifika menschlicher Kreativität besser erkannt werden können. Das betrifft auch ein tieferes Eingehen auf die Musik anhand der Frage nach Bedeutungen. Warum hat Bach gerade bei diesem Wort die Harmonik bis zum Zerreißen gespannt? Warum benutzt Mozart ein einfaches Modell als ‚Thema ohne Thema‘ für den Beginn eines Satzes? Solche Fragen können und müssen an historische Musik gestellt werden, sie sind aber absurd bezogen auf die Hervorbringungen einer stilkopierenden KI. Insofern zeigen sich die beiden entgegengesetzten Antworten der eingangs gestellte Frage nach der Möglichkeit einer komponierenden KI bei der Stilkopie besonders deutlich. Ja, die KI kann komponieren, wenn unter Komponieren eine äußerliche Imitation verstanden wird. Nein, die KI kann nicht komponieren, wenn unter Komponieren die künstlerische Arbeit in einem Feld aus Bedeutungen verstanden wird. Die künstlerische Arbeit weiß um dieses Feld und nimmt zu ihm im Akt des Komponierens als Schaffung von Bedeutung Bezug. Die KI weiß nichts von einer Bedeutung und hat keinen Körper, der diese Bedeutungen austrägt. Wird die Grenze zwischen einer komponierenden KI und der so verstandenen eigentlichen künstlerischen Arbeit klar gezogen, können die Vergleiche zu einem tieferen Verständnis von Musik beitragen. Andernfalls liegt ein reduzierter Begriff von Musik zugrunde.

5.1.2 Gegenwartsmusik mit festem Stil Wird ein Song komponiert, gibt es recht klare Kriterien, was zu einem bestimmten Genre gehört und was nicht. Insofern kommt es zu einer ähnlichen Situation wie bei der klassischen Stilkopie: Zum einen ist es ohne weiteres möglich, dass eine KI Musik dieser Art hervorbringt. Zum anderen wird jedoch diese Musik notwendigerweise einige Unterschiede zu dem aufweisen, was Musik für Komponist:innen und Hörer:innen für gewöhnlich ist. Da es sich hier aber nicht wie bei der Stilkopie um eine historische Differenz handelt, sondern Musik in der Gegenwart für die Gegenwart produziert wird, äußert sich auch der Unterschied der komponierenden KI zum herkömmlichen Komponieren in anderen Aspekten. Es geht nun nicht mehr um historische Kontexte, sondern um grundlegende Veränderung von Produktion und Rezeption

248 

 Joachim Heintz

heute. Was geschieht mit dem Verhältnis von Produzent:innen und Rezipient:innen, von Star und Fans, wenn der Singer/Songwriter kein Mensch mehr ist, der:die sich in einer ähnlichen Situation wie die Hörenden befindet und einen Song schreibt, in dem die Hörenden sich wiederfinden? Verliert diese einfühlende Emotionalität dann an Bedeutung? Oder kann auf sie nicht verzichtet werden, weshalb sich eine komponierende KI nur auf Gebiete beschränkt, in denen eine Komponist:innenpersönlichkeit nicht vonnöten ist (wie bei funktionaler Musik, beispielsweise für Spiele)? Abgesehen von vielfältigen Aspekten des Musikmarkts scheinen auf diesem Gebiet der Musiksoziologie und Rezeptionsforschung die interessantesten Fragen nach dem Einsatz einer komponierenden KI bei dieser Art Gegenwartsmusik zu liegen.

5.1.3 Neue Musik Wird eine Musik komponiert, die tatsächlich immer ‚neu‘ ist in dem Sinne, dass jedes Stück grundlegend neue Entscheidungen über das Material und die Verfahrensweisen mit sich führt, kann ein solches Stück Musik von einer KI nicht komponiert werden. Eine KI hat keinen Begriff davon, was es heißt, eine Verfahrensweise zu entwickeln. Es gibt für eine KI keine ‚Idee‘, keinen ‚Einfall‘ und kein ‚Konzept‘. Insofern spiegelt sich auch bei dieser Musik das ‚Ja‘ und das ‚Nein‘ der Eingangsfrage. Auch hier könnte eine KI, ebenso wie bei anderen Stilen, eine Kopie erstellen. Diese würde vielleicht täuschend ähnlich klingen, wäre aber in dem eben bezeichneten Sinn etwas ganz anderes als Neue Musik. Dennoch kann die Komposition Neuer Musik, wie schon an den Beispielen aus den 1950er Jahren gezeigt, in vielen ihrer Ausprägungen Ähnlichkeiten zu informatischen Verfahren aufweisen. KI kann für Teile der Komposition eingesetzt werden, die – in der Tradition algorithmischen Komponierens – generiert werden. Und KI kann auch zum Thema der Komposition selbst werden, beispielsweise über das Verhältnis einer Performance zu ihrem KI-Replikat. Ein weites Feld eröffnet sich auch durch Improvisation. Hier kann das „Spielen mit Maschinen“ (Grüny 2019) gerade in der Sprache der neuen Musik zu gegenwartsbezogenen Konstellationen und Fragestellungen führen.

5.2 Für welchen Kontext wird Musik komponiert? Die Frage, welche Folgerungen es hat, wenn eine Musik von einer KI statt von einem Menschen komponiert wird, hängt stark von dem Kontext ab, für den Musik geschrieben bzw. in dem sie aufgeführt wird.

Künstliche Intelligenz und Musik 

 249

5.2.1 Hintergrund und Illustration Ein großer Teil von Musik, die heute jeden Tag zu hören ist, stellt eine Art Geräuschkulisse dar: Hintergrundmusik beim Straßencafé oder Friseur, Musik in Warteschleifen oder in Einkaufzentren. Dieser Musik soll nicht mit Aufmerksamkeit oder gar Hingabe zugehört werden. Insofern scheint es sehr plausibel, dass solche Musik von einer KI hervorgebracht wird. Ähnlich mag es sich mit funktionaler Musik verhalten, die illustrieren und klar definierte Wirkungen erreichen will. Wenn Klänge erwartet werden, die als Zeichen fungieren, um Angst oder Glück, Sieg oder Niederlage zu symbolisieren, erscheint eine KI durchaus geeignet zu diesem Zweck, zumindest so lange der Kontext keine Komponist:innenpersönlichkeit erfordert. Es erscheint durchaus vorstellbar, dass auch in diesen Kontexten das Markenzeichen ‚Diese Filmmusik ist von Hans Zimmer‘ in Zukunft durch das Markenzeichen ‚Diese Filmmusik ist von DeepMovie‘ ersetzt wird, indem technologische Avanciertheit an die Stelle der großen Namen tritt.

5.2.2 Zuhören und Einfühlung Irritation kann nur entstehen, wenn Musik, die für ein ‚wirkliches Hinhören‘ gedacht ist, von einer KI komponiert wurde. Aspekten dieser Irritation und der sehr unterschiedlichen Folgerungen aus ihnen soll hier anhand eines Gedankenexperiments, das sich im Kontext der klassischen Musik bewegt, nachgegangen werden. Einige Aspekte mögen auch in anderen Kontexten gültig sein. Gesetzt sei der Fall, dass in einem Sinfoniekonzert ein angeblich kürzlich aufgefundener Satz von Schumann gespielt wird. Später erfahren die Konzerbesucher:innen jedoch, dass eine KI diesen Satz komponiert hat. Welche Folgerungen können daraus entstehen? Manche Konzertbesucher:innen werden sich betrogen fühlen. Nicht nur durch die falsche Ankündigung, sondern vielleicht auch durch die Musik, die ‚Gefühle vorgetäuscht‘ hat. Vielleicht war man an einer Stelle gerührt und schämt sich jetzt, dass eine Maschine das hervorrufen konnte. Hier würde die KI ein als selbstverständlich vorausgesetztes Band zwischen den Gefühlen der Hörenden und ihrer Vorstellung zerschneiden; der Vorstellung nämlich, dass diesen Gefühlen beim Hören die Gefühle des Menschen beim Komponieren dieser Musik entsprechen. Daraus können Wut und Frustration ebenso folgen wie Heiterkeit und Selbstreflektion bei der Beobachtung dessen, was zu einer Einfühlung dieser Art gehört. Manche Konzertbesucher:innen werden sich in ihrer Kennerschaft in Frage gestellt fühlen. Vielleicht war man sich nach der vermeintlichen Uraufführung sicher, dass dies ein ‚echter Schumann‘ wäre, und muss sich jetzt mit dem eigenen

250 

 Joachim Heintz

Fehlurteil abfinden. Daraus kann die Frage entstehen, auf welcher Basis die eigene Kennerschaft beruht oder inwieweit das eigene Musikhören ganz in dieser Kennerschaft aufgeht. Der Einsatz von KI in diesen Kontexten erschüttert Gewohnheiten und Symbole. Die Irritation, zu der der Einsatz von KI führt, kann wie ein Spiegel auf diese Kontexte zurückwirken. Das hat das Potential einer Reflektion darüber, wie Musik hier gehört wird. Möglicherweise wird man auf entleerte Rituale und Repräsentationen aufmerksam, die man bis zu diesem Zeitpunkt nicht beachtet hat, und über deren Aufhebung nachzudenken sich lohnt.

6 Rück- und Ausblick Die Perspektive einer Künstlichen Intelligenz, die Musik komponiert, reicht weit in die Geschichte der Musik zurück. Die Nähe der Musik zur Mathematik legt das nahe. Zusammen mit der Lehr- und Beschreibbarkeit der Musik als Regelsystem ermöglicht sie es, Komponiermaschinen mit relativ wenig Aufwand in der jeweiligen Technologie zu entwickeln. Dabei kann es sich um simple Entsprechungen handeln, wie bei Guido von Arezzo (Kirchmeyer 1962), um mechanische Komponiermaschinen wie bei Athanasius Kircher, um gesellige Komponier-Würfelspiele des 18. Jahrhunderts oder um die verschiedenen Programmierparadigmen des Computerzeitalters. Die tiefen neuronalen Netze als derzeit aktuellste Technik sind dabei nur eine Möglichkeit unter vielen. Neben einigen Vorteilen sind auch Nachteile mit ihnen verbunden, da ihre Modelle nicht aus musikalischen Kontexten stammen und eine hohe Anzahl von Samples benötigen, die mitunter nicht gegeben sind. Bei der Diskussion um eine komponierende KI ist zu unterscheiden, welche Musik komponiert wird, mit welchem Ziel und Anspruch dies geschieht und wie der Kontext von Produktion und Rezeption beschaffen ist. Nachkompositionen klassischer Musik sind möglich und können zu verschiedenen Zwecken nützlich sein, nicht zuletzt um zwischen einer künstlerischen Arbeit als Deutung und Bedeutung auf der einen Seite und einem Befolgen von Regeln zur Produktion von Noten und Tönen zu unterscheiden. Für die Komposition von Musik, die einem festen Zweck dient und beispielsweise zum Erzeugen von Atmosphären und Gefühlen eingesetzt wird, ist KI sehr gut geeignet. Die bei Stilkopien klassischer Musik unbefriedigenden Aspekte spielen hier keine Rolle. Stattdessen geht es um die in anderen Kontexten diskutierten Fragen im Zusammenhang von KI-Produkten, wie beispielsweise dem Urheberrecht, der Frage der Originalität oder den Veränderungen des Rezeptionsverhaltens.

Künstliche Intelligenz und Musik 

 251

Für die Neue Musik steht die KI in einem ganz anderen Kontext. Sie ersetzt nicht einen Prozess, der bisher von Menschen unternommen wurde, sondern sie kann Teil dieses Prozesses sein. Dies kann an frühe Verfahrensweisen der 1950er Jahre anschließen oder ganz neue Wege beschreiten. Da es in dieser Musik nicht um einen festen Stil geht, sondern um die immer neue Herausarbeitung von Verfahrensweisen im Zusammenhang mit einer künstlerischen Idee, kann die KI hier zwanglos integriert werden. Das gilt auch für an Performance und Improvisation ausgerichtete Konzepte. Eine Diskussion um Musik und KI sollte die verschiedenen Begriffe von Kultur, die bei den unterschiedlichen Musiken virulent sind, berücksichtigen. Wird Kultur als Ausdruck menschlicher Existenz in einer Gesellschaft und als Teil ihrer Selbstverständigung verstanden, ist das Komponieren und Improvisieren von Musik ein Teil davon. Ein Mensch komponiert, was andere Menschen hören und worauf sie in verschiedenster Weise reagieren. Befürchtungen über die Ersetzung des Menschen durch die Maschinen erscheinen objektiv nicht durch die Entwicklungen komponierender KI begründet, sondern eher darauf hinzudeuten, dass diese Kulturpraxis keine selbstverständliche Verankerung in der gegenwärtigen Gesellschaft hat.

Literaturverzeichnis Agustoni, Luigi und Johannes Berchmans Göschl. Einführung in die Interpretation des Gregorianischen Chorals, Bd. 1. Kassel 1995. Bach, Johann Sebastian. „Des Königlichen Hoff-Compositeurs und Capellmeisters ingleichen Directoris Musices wie auch Cantoris der Thomas-Schule Herrn Johann Sebastian Bach zu Leipzig Vorschriften und Grundsätze zum vierstimmigen spielen des General-Bass oder Accompagnement für seine Scholaren in der Music, Cap. 2“. 1738. Johann Sebastian Bach, Bd. 2. Hrsg. von Philipp Spitta. Wiesbaden 1962. Baillet, Jérôme. Gérard Grisey: fondements d’une écriture. Paris 2000. Boethius, Anicius Manlius Severinus. Boethii De institutione musica libri quinque. Ed. von Gottfried F. Friedlein. Leipzig 1867. Boethius, Anicius Manlius Severinus. Fünf Bücher über die Musik. Übers. von Oscar Paul. Hildesheim 1985 [Leipzig 1872]. Boulez, Pierre und John Cage. „Dear Pierre“, „Cher John“: Pierre Boulez und John Cage; der Briefwechsel. Übers. von Bettina Schäfer und Katharina Matthewes. Hrsg. von Jean-Jacques Nattiez. Hamburg 1997. Cope, David. Computers and Musical Style, Madison, Wis. 1991 Cope, David. Experiments in Musical Intelligence. http://artsites.ucsc.edu/faculty/cope/experiments. htm. 2020 (5. Februar 2020). Dahlhaus, Carl (Hrsg.). Neues Handbuch der Musikwissenschaft, Bd. 1. 1989. De la Motte, Diether. Kontrapunkt. Ein Lese- und Arbeitsbuch. München und Kassel 1981. Fux, Johann Joseph. Gradus ad Parnassum. Wien 1725.

252 

 Joachim Heintz

Grüny, Christian. Mit Maschinen spielen. Kultur gestaltet Zukunft, Künstliche Intelligenz in Kunst und Kultur. https://www.link-niedersachsen.de/damfiles/default/was-wir-foerdern/programme/link/ link_tagungspublikation_stiftung_niedersachsen_einzelseiten.pdf-592ecf4c2fc6af14f41ee633a af85a3a.pdf. Publikation der Tagung. 15.–16. Mai 2019 (28. Februar 2020). Hadjeres, Gaëtan, François Pachet und Frank Nielsen. DeepBach: a Steerable Model for Bach Chorales Generation. https://arxiv.org/abs/1612.01010. 2016. (8. Februar 2020). Heintz, Joachim. „Läuft es sich in Kinderschuhen besser? Über kompositorisches Denken mit und vor dem Computer.“ MusikTexte 141 (2014): 65–72. Heintz, Joachim. „Spielen statt Fürchtemachen: Situationen von Musik und KI“. MusikTexte 162 (2019): 27–30. Johner, P. Dominicus. Wort und Ton im Choral. Ein Beitrag zur Aesthetik des gregorianischen Gesanges. Leipzig 1953. Kirchmeyer, Helmut. „Vom historischen Wesen einer rationalistischen Musik“. die reihe 8 (1962): 11–25. Kostelanetz, Richard. John Cage. Übers. von Iris Schnebel und Hans Rudolf Zeller. Köln 1973. Lachenmann, Helmut. Musik als existentielle Erfahrung: Schriften 1966–1995. Hrsg. und mit einem Vorwort vers. von Josef Häusler. Wiesbaden 1996. Mainzer, Klaus. Künstliche Intelligenz – Wann übernehmen die Maschinen? 2., erw. Auflage. Berlin 2019. Mattheson, Johann. Der vollkommene Capellmeister. Hamburg 1739. Miller, Arthur I. The Artist in the Machine: The World of AI-Powered Creativity. Cambridge 2019. Monteverdi, Claudio. „Lamento d’Arianna“. Il sesto libro de Madrigali. Venedig 1614. Notre Dame. Herzog August Bibliothek Wolfenbüttel. Mss 628 Helmst, fol 24r. http://diglib.hab.de/ mss/628-helmst/start.htm?image=00059 (10. Februar 2020). Silberhorn, Heinz. Die Reihentechnik in Stockhausens Studie II. Rohrdorf 1980. TR 2016. Deep-Learning Machine Listens to Bach, Then Writes Its Own Music in the Same Style. https:// www.technologyreview.com/s/603137/deep-learning-machine-listens-to-bach-then-writes-itsown-music-in-the-same-style/. 14. Dezember 2016 (8. Februar 2020). Turing, Alan. „On Computable Numbers, with an Application to the Entscheidungsproblem“. Proceedings of the London Mathematical Society 42 (1937): 230–265. Varga, Bálint András. Gespräche mit Iannis Xenakis. Übers. von Peter Hoffmann. Zürich und Mainz 1995. Xenakis, Iannis. Formalized Music: Thought and Mathematics in Composition. Hrsg. von Sharon Kanach. Hillsdale 1992. Zimmermann, Bernd Alois. „Tratto (II)“. Intervall und Zeit: Bernd Alois Zimmermann. Aufsätze und Schriften zum Werk. Hrsg. von Christof Bitter. Mainz 1974.

Jasmin Pfeiffer

KI-Verfahren im Videospiel 1 Einführung Sowohl von der Games-Industrie als auch von der Forschung wird immer wieder hervorgehoben, dass KI-Verfahren für Videospiele von großer Bedeutung sind. So schreibt der Verband der deutschen Games-Branche game e. V. in einer Stellungnahme zum Thema KI und Games: „KI nimmt seit jeher eine wichtige Rolle in Computer- und Videospielen und ihrer Entwicklung ein“ (https://www.game.de/ positionen/kuenstliche-intelligenz-und-games/). Das Forschungsprojekt mind the game, das sich mit der Beziehung von KI und Videospiel befasst, betont die enorme Verbreitung von KI in Computerspielen: „AI in games is a well-established technology“ (https://www.mindthegame.de/?page_id=65). Ein genauerer Blick zeigt allerdings, dass der Begriff ‚KI‘ in Hinblick auf Computerspiele häufig in einer spezifischen, von gängigen Definitionen abweichenden Bedeutung verwendet wird. Meist verweist der Terminus hier nicht auf Programme, die lernen können, sondern dient als Bezeichnung für die NPCs (NonPlayer-Character), die Gegner:innen oder auch die Programmlogik eines Spiels. Die oben zitierte Stellungnahme des game e. V. spricht hier von „Regelsätze[n] […], damit Charaktere und Spielwelt glaubhaft auf das Verhalten des Spielers reagieren“ (https://www.game.de/positionen/kuenstliche-intelligenz-und-games/). Wenn also die Rede ist von der ‚KI‘ eines Computerspiels, dann ist damit nicht zwangsläufig gemeint, dass bei der Entwicklung des Spiels oder im Spiel selbst KI-Verfahren zum Einsatz kommen – tatsächlich ist dies nur selten der Fall. Vielmehr bezeichnet der Begriff die Algorithmen, die festlegen, wie die virtuelle Umgebung eines Spiels auf das Verhalten der Spieler:innen reagiert, wie sich also z.  B. Gegner:innen verhalten, wenn sie in einem Kampf zu viel Schaden genommen haben, was passiert, wenn die Spieler:innen die Umwelt auf eine bestimmte Weise manipulieren etc. Hierdurch wird zwar durchaus der Eindruck eines ‚intelligenten‘ Verhaltens erweckt, jedoch ist vollständig deterministisch, was in welcher Situation geschieht, und es handelt sich folglich um Verfahren, die auf fest programmierten Abläufen basieren. Auf diese abweichende Verwendung des Begriffs ‚KI‘ im Kontext von Computerspielen verweisen auch Ahlquist und Novak: „Game AI and computer science AI […] are only distantly related“ (Ahlquist und Novak 2007, 4). Im Unterschied zur „computer science AI“ geht es bei „game AI“ um „the creation of behaviors in a video game that give the impression of intelligent behavior on the part of the game’s player. Computer science AI is about substance. The goal is to actually solve problems that require intelligence. Game AI is about appearances“ (Ahlquist und https://doi.org/10.1515/9783110656978-015

254 

 Jasmin Pfeiffer

Novak 2007, 4). Der Anschein von intelligentem Verhalten steht somit im Vordergrund: „The goal in a video game is for the characters in the game […] to appear to behave and play intelligently.“ (Ahlquist und Novak 2007, 4) Der vorliegende Artikel wird auf dieser grundlegenden Unterscheidung aufbauen und zunächst einen Überblick über Verfahren zur Implementierung von ‚Game AI‘, also des Verhaltens einer Spielwelt, geben (Abschnitt 2). Anschließend wird auf Möglichkeiten zur Verwendung von tatsächlichen KI-Verfahren, d.  h. von „computer science AI“, bei der Entwicklung von Games eingegangen werden (Abschnitt 3).

2 Verfahren zur Steuerung von NPCs und Programmlogik Im Folgenden wird zunächst ein historischer Überblick über die Entwicklung von Game-KI gegeben (2.1) und anschließend werden verschiedene Verfahren zu deren Implementierung erläutert (2.2). Wie Ahlquist und Novak betonen, kann zwischen zwei Formen von Game-KI unterschieden werden, nämlich zwischen im Spiel manifesten Figuren, mit denen die Spieler:innen interagieren können, und der abstrakten Logik des Spielprogramms, die dessen Verlauf determiniert, aber nicht in verkörperter Form im Spiel in Erscheinung tritt (Ahlquist und Novak 2007, 4). Die erstere Ausprägung von KI bezeichnen sie als character agents. Diese Terminologie wird in den folgenden Ausführungen übernommen. Vorab sei angemerkt, dass dieser Überblick aufgrund der Fülle an Spielen, die in den letzten Jahren erschienen sind, keinen Anspruch auf Vollständigkeit erheben kann, sondern lediglich einige Schlaglichter auf wichtige Erscheinungen und Entwicklungen wirft.

2.1 Historischer Überblick: Game AI In frühen Videospielen, wie beispielsweise dem 1972 erschienen Arcade Game Pong oder dem 1961 am MIT produzierten Prototypen Spacewar! (Steve Russell, Martin Graetz, Peter Samson und Wayne Witaenem 2016), gab es keine Game-KI, sondern es bedurfte zweier menschlicher Spieler:innen, die gegeneinander antraten (Ahlquist und Novak 2007, 11) – in Pong (Atari 1972) beispielsweise im virtuellen Tischtennis. Im Laufe der 1970er-Jahre gewannen Single-Player-Spiele jedoch an Popularität. Eine wichtige Rolle spielten hierbei die technischen Entwicklungen, durch die die notwendige Hardware für die Realisierung von Computer-Gegner:innen und NPCs verfügbar wurde, zugleich aber führen Ahlquist und Nowak diese Entwicklung

KI-Verfahren im Videospiel 

 255

darauf zurück, dass sich die Spielefirmen mehr Einnahmen versprachen, wenn es keiner zweiten zahlungsbereiten Person bedurfte, um beispielsweise ein AracadeGame spielen zu können. Zu den ersten Single-Player-Games zählen das vom japanischen Entwickler Taito produzierte Auto-Renn-Spiel Speed Race (Taito 1974) und der Entenjagd-Simulator Qwak! (Team17 1974) von Atari. 1976 erschien das ebenfalls von Atari entwickelte Spiel Breakout (Atari 1976), eine Art Solo-Version von Pong, bei der man nicht gegen einen menschlichen Opponenten spielt, sondern den virtuellen Ball geschickt auf eine Reihe von Mauersteinen lenken muss. Eines der populärsten frühen Beispiele für character agents in Videospielen sind die Monster in Pac-Man (Namco 1980), vor denen die Spieler:innen flüchten müssen. Die Logik der Game-KI war damals noch sehr simpel und folgte einfachen, festgelegten Mustern (Ahlquist und Novak 2007, 4). Die gegnerischen Monster in Pac-Man beispielsweise bewegen sich nach einem rein zufälligen Schema durch das Labyrinth. Über die Jahre hinweg wurden die Spiellogik und das Verhalten der NPCs immer komplexer. Einen wichtigen Meilenstein, der die Implementierung von Game AI stark beeinflusste, stellte der 1998 erschienene Ego-Shooter Half-Life (Valve 1998) von Valve dar. Die mit Hilfe von Finite State Machines entwickelten Gegner:innen konnten eine Vielzahl verschiedener Handlungen und Verhaltensweisen ausführen, die teilweise auch zu komplexen Sequenzen aneinandergereiht und zusammengefügt wurden. Ebenfalls 1998 erschien das Stealth Game Thief: The Dark Project (Looking Glass Studios 1998) von Looking Glass Studios, das sich durch das komplexe Sensorensystem der Gegner:innen auszeichnete, welches diesen erlaubte, die Spieler:innen zu „sehen“ oder zu „hören“ und entsprechend darauf zu reagieren. 2004 setzte der Ego-Shooter Halo 2 (Bungie Studios 2004) neue Standards, indem er maßgeblich zur Verbreitung von Behavior Trees als Methode zur Implementierung von NPCs beitrug. Die Gegner:innen und die Bots konnten ihr Verhalten nun mehr und mehr an das Spielgeschehen und die Handlungen der Spieler:innen anpassen und somit eine überzeugendere Illusion von ‚intelligentem‘ Verhalten generieren. Eine weitere Implementierungsmethode, die sich parallel zu den Behavior Trees in den 2000er-Jahren einer gewissen Beliebtheit erfreute, stellt das sogenannte ‚Goal Oriented Action Planning‘ dar, das im 2005 erschienenen Ego-Shooter F. E. A. R. von Monolith Productions verwendet wurde. Bis in die Gegenwart hinein können Gegner:innen in Spielen immer komplexere Handlungen durchführen und reagieren immer stärker auf den Spielverlauf. Das Verhalten des Aliens aus dem 2014 erschienenen, von den Alien-Filmen inspirierten Survival-Horror-Game Alien: Isolation (Creative Assembly 2014) von Creative Assembly beispielsweise wird durch einen Entscheidungsbaum gesteuert, wobei manche Teile des Baums und die darin implementierten Verhaltensweisen erst nach bestimmten Ereignissen freigeschaltet werden. Dadurch entsteht

256 

 Jasmin Pfeiffer

der Eindruck, dass das Alien ‚lernt‘ und auf die Handlungen der Spieler:innen reagiert. Solche Algorithmen ermöglichen, eine überzeugende Illusion von intelligenten, adaptiven NPCs zu erschaffen, ohne dabei ‚echte‘ KI-Verfahren zu verwenden. Im Verlauf der 2000er Jahre lässt sich eine zunehmende Ausdifferenzierung der verschiedenen Spielgenres beobachten. Damit einher geht eine Diversifizierung der Funktionen, die die Game-KI innehaben kann. In Hinblick auf character agents werden neben herausfordernden, komplexe Strategien ausführenden Gegner:innen auch solche Figuren immer wichtiger, die die Spieler:innen als Verbündete durch das Game begleiten und sie auf unterschiedlichste Weise unterstützen – sogenannte Companions. Allerdings können sich Companions negativ auf die Immersion der Spieler:innen auswirken, wenn sie sich durch unrealistische, schematische Verhaltensweisen eindeutig als von Algorithmen gesteuerte Entitäten offenbaren und möglicherweise sogar das Erreichen von Spielzielen behindern, etwa indem sie bei Kämpfen im Weg stehen oder ständig gerettet werden müssen. Scott schreibt dazu: „Unrealistic behavior […] can interfere with the game’s immersion. In the worst case, a poorly-done companion can seriously worsen the overall game experience and frustrate the player by constantly getting in their way“ (Scott 2017, 2). Entsprechend wurde in der jüngeren Vergangenheit viel Aufwand in die Entwicklung von menschenähnlichen Companions gesteckt, die möglichst erfolgreich intelligentes Verhalten simulieren, sich an das Vorgehen der Spieler:innen anpassen und ihnen im Idealfall beim Erreichen ihrer Ziele behilflich sind oder dieses zumindest nicht erschweren. Bekannte Beispiele für elaborierte Companions sind etwa Alyx aus Halfe-Life 2 (Valve 2004), Elizabeth aus BioShock Infinite (2K Games 2013) oder Ellie aus The Last of Us (Naughty Dog 2013). Was die Verwendung von KI, die nicht als Figur im Spiel manifest wird, betrifft, spielen sogenannte Director-Entitäten eine zunehmend wichtige Rolle. Hierbei handelt es sich um Systeme, die als eine Art ‚Manager‘ fungieren, der die Übersicht über das Geschehen im Game innehat und dieses so anpasst, dass die Spieler:innen hinsichtlich pacing, Schwierigkeit und Dramaturgie eine möglichst gelungene und ausgewogene Spielerfahrung haben. Im oben schon erwähnten Horror-Game Alien: Isolation beispielsweise müssen sich die Spieler:innen vor einem Alien verstecken, das sie nicht besiegen können. Die Game-KI des Aliens setzt sich aus zwei Komponenten zusammen: der Director AI und der Alien AI. Die Director AI  weiß zu jeder Zeit, wo sich die Spieler:in befindet, gibt diese Information jedoch nicht an die Alien AI weiter, sondern berechnet ständig den ‚Stress-Level‘ der Spieler:innen, d.  h. sie ermittelt auf Grundlage der vorherigen Geschehnisse, wie aufregend und verängstigend das Spiel aktuell ist. Ist das Stress-Level sehr hoch, dann schickt sie das Alien in Räume, die weiter vom tatsächlichen Aufenthaltsort der Spieler:in entfernt sind. Ist das Stress-Level dagegen eher niedrig, nähert sich das Alien an. Die

KI-Verfahren im Videospiel 

 257

Director AI stellt folglich sicher, dass sich die Dramaturgie des Games dynamisch an das Geschehen anpasst. In Left 4 Dead (Valve 2008) gibt es ebenfalls eine solche Director AI, die in Abhängigkeit von verschiedenen Parametern entscheidet, wo Gegner:innen und wo hilfreiche Items auftauchen. Eine weitere Funktion von Game AI stellt die dynamische Anpassung des Narrativs an das Verhalten der Spieler:in dar. Im Horror-Game Silent Hill: Shattered Memories (Climax 2009) beispielsweise muss man im Rahmen von Besuchen seines Avatars bei dem Psychologen Dr. Kaufmann Angaben über sexuelle Präferenzen, Umgang mit Stress, Sozialverhalten u.  Ä. machen. Auf Basis der Antworten wird ein „Psych Profile“ der Spieler:in erstellt, das den Verlauf des Spiels vielfach beeinflusst. Im Action-Adventure Detroit: Become Human (Quantic Dreams 2018) passt sich die Handlung ebenfalls in einem gewissen Maß an die Entscheidungen an. Im RPG Disco Elysium (ZA/UM 2019) können bestimmte Eigenschaften des Avatars verstärkt oder abgeschwächt und so dessen Reaktionen auf die Ereignisse in der Spielwelt verändert werden. Alles in allem lässt sich sagen, dass sich die Funktionen von Game-KI und character agents in den letzten Jahren stark ausdifferenziert haben und die Algorithmen auf vielfältige Weise intelligentes Verhalten und eine Anpassung an die Geschehnisse in der Spielumgebung simulieren.

2.2 Verfahren zur Implementierung Im Folgenden sollen verschiedene Verfahren zur Implementierung des Verhaltens von NPCs vorgestellt werden. Auch hier handelt es sich lediglich um einen Überblick, der keinen Anspruch auf Vollständigkeit erhebt. Eines der frühsten Verfahren zur Implementierung des Verhaltens von NPCs stellen die Finite State Machines (FSM) dar. FSMs beruhen auf der Annahme, dass sich NPCs in bestimmten Zuständen befinden können, beispielsweise im Zustand ‚angreifen‘ oder ‚fliehen‘. Wenn bestimmte Bedingungen erfüllt sind, findet ein Übergang von einem Zustand in einen anderen statt: Hat der NPC etwa zu wenig Lebenspunkte übrig, wechselt er vom Zustand ‚Angreifen‘ in den Zustand ‚Fliehen‘. In jedem Zustand führt der NPC eine Reihe von Aktionen aus. Befindet er sich im Zustand ‚Angreifen‘, könnte er beispielsweise entweder eine Schwertattacke ausführen oder ausweichen. FSMs modellieren dieses Verhalten von NPCs als ein Gefüge aus Zuständen, Übergängen und Aktionen (Ahlquist und Novak 2007, 33). In welchen Zustand ein NPC übergeht, wenn eine bestimmte Bedingung erfüllt ist, kann eindeutig festgelegt oder auch randomisiert sein. Gesteigerte Popularität erlangte das Verfahren durch Valves Klassiker von Half Life im Jahr 1998. Bis in die 2000er Jahre hinein stellten FSMs die verbreitetste Methode zur Implementierung

258 

 Jasmin Pfeiffer

von NPCs dar (Ahlquist und Novak 2007, 33). Eine Weiterentwicklung von FSMs, die z.  T. auch heute noch genutzt wird, stellen die ‚Hierarchical FSMs‘ dar. Aus den Hierachical FSMs sind die Behavior Trees (BT) hervorgegangen, die sich auch in der Gegenwart noch einer großen Beliebtheit bei der Implementierung des Verhaltens der Game AI erfreuen. Dabei handelt es sich um eine Baum-Datenstruktur, die ebenso wie FSMs das Verhalten von NPCs modelliert und festlegt, unter welchen Bedingungen der NPC welche Handlungen durchführt. Allerdings sind BTs flexibler als FSMs und erlauben es entsprechend auch, komplexere Verhaltensketten zu erstellen. BT wurden erstmals in Halo 2 (Bungie 2005) genutzt und unter anderem auch in Bioschock (2K Games 2007) verwendet. Eine weitere Möglichkeit zur Implementierung des Verhaltens der Game AI stellt das sogenannte ‚Goal Oriented Action Planning‘ dar. Dieses Verfahren beruht darauf, dass die NPCs zu jedem Zeitpunkt im Game bestimmte Ziele verfolgen, wie z.  B. „den Spieler verfolgen“ oder „das Gebäude bewachen“. Weiterhin verfügen die NPCs über eine Reihe an möglichen Handlungen, aus denen sie diejenigen auswählen können, die ihnen dabei helfen, ihre Ziele zu erreichen. Sowohl bei den FSMs als auch bei den BTs und beim Goal Oriented Action Planning handelt es sich nicht um KI-Verfahren im Sinne der in Abschnitt 1 zitierten Definition. Zwar reagieren die NPCs, die durch Verwendung dieser Algorithmen implementiert wurden, dynamisch auf das Geschehen im Spiel, insofern als ihr Verhalten davon abhängt, was in der virtuellen Umgebung geschieht. Jedoch finden hierbei keine Lernprozesse statt, sondern es ist im Voraus im Programmcode festgelegt, wie sie in welcher Situation reagieren werden.

3 KI-Verfahren Im Folgenden soll auf die Verwendung von KI-Verfahren im starken Sinne eingegangen werden. Insbesondere die Informatik-Forschung beschäftigt sich bereits seit einigen Jahren mit der Frage, wie KI-Verfahren für die Spieleproduktion eingesetzt werden können. Bei der Entwicklung kommerzieller Games allerdings kommen KIVerfahren aktuell noch verhältnismäßig selten zum Einsatz. Anwendungsbereiche stellen einerseits die Schaffung von Spieleinhalten und andererseits deren Analyse und Evaluierung dar. Auf diese beiden Felder wird im Folgenden überblicksartig eingegangen. Vorab soll noch auf zwei Probleme hingewiesen werden, die bei der Erstellung eines Überblicks über die Nutzung von KI-Verfahren in Videospielen aufkommen. Eine erste Schwierigkeit ist, dass, wie eingangs schon erwähnt, im öffentlichen Diskurs zumeist nicht trennscharf unterschieden wird zwischen ‚game AI‘ und ‚com-

KI-Verfahren im Videospiel 

 259

puter science AI‘. Hierdurch ist es zum Teil schwierig herauszufinden, in welchen Games wirklich lernende Verfahren zur Anwendung kommen und wann mit der Rede von der AI eines Spiels lediglich die NPCs oder die Gegner:innen gemeint sind. Diese Problematik wird dadurch verschärft, dass die Algorithmen, die den Games zugrunde liegen, in vielen Fällen nicht öffentlich zugänglich sind und es somit nicht möglich ist zu verifizieren, ob und inwiefern KI-Verfahren benutzt wurden. Eine zweite Schwierigkeit stellt die Flut an Games dar, die jährlich auf dem Markt erscheinen. Viele davon bleiben unter dem Radar und erhalten keine öffentliche Aufmerksamkeit. Der vorliegende Artikel kann dieser Fülle an Veröffentlichungen keinesfalls gerecht werden, sondern wird lediglich auf eine Auswahl an Spielen eingehen.

3.1 Content Generation Eine Anwendungsmöglichkeit von AI-Verfahren bei der Spieleentwicklung, mit der in der jüngeren Vergangenheit viel experimentiert wird, stellt die Nutzung von KI zur automatischen Generierung von Spielinhalten dar. Unter dem Begriff der ‚Procedural Content Generation‘ (PCG) versteht man die automatische Erzeugung von Elementen eines Games durch Algorithmen (vgl. z.  B. Snodgrass 2017, 1). Beispiele für PCG stellen etwa die Landschaften in Minecraft (Mojang 2011) oder das 2016 erschienene No Man’s Sky (Hello Games 2016) von Hello Games dar, in dem Spieler:innen in einer Open-World-Umgebung 18 Trillionen Planeten bereisen und erkunden können. Die Vorteile von PCG bestehen unter anderem darin, dass die die Spiele einen höheren Wiederspielwert aufweisen, wenn Level oder Umgebungen dynamisch erschaffen werden und man sich bei jedem Replay in einem anderen Set-Up wiederfindet. Hinzu kommt, dass Produktionskosten und Entwicklungszeit potentiell verringert werden, wenn nicht alle Inhalte manuell erzeugt und implementiert werden, und dass weniger Speicher für das Spiel benötigt wird (Summerville et al. 2017, 1). Die Algorithmen zur Content Generation werden in der Regel von den Spieleentwickler:innen programmiert: „[T]he algorithms, parameters, constraints, and objectives that create the content are in general hand-crafted by designers or researcher“ (Summerville et al. 2017, 1). Hierfür werden jedoch sehr gute informatische Kenntnisse benötigt. KI-Verfahren bieten die Möglichkeit, diese Algorithmen mit Hilfe von machine learning automatisch zu erzeugen. Hiermit wird in den letzten Jahren v.  a. auch in der Informatikfoschung sehr viel experimentiert: „Recently there has been increased interest in the use of machine learning-based approaches to create video game content“ (Summerville et al. 2017, 1). Die KI wird anhand von existierenden Spielinhalten trainiert, die sie analysiert und daraus die Regeln zur Erzeugung von Content selbst ableitet. Durch menschliches Feedback dazu, welcher Content gelun-

260 

 Jasmin Pfeiffer

gen ist und welcher nicht, wird der machine-learning-Algorithmus weiter optimiert. Summerville bezeichnet dieses Verfahren als Procedural Content Generation via Machine Learning (PCGML) und definiert es als „generation of game content using models that have been trained on existing game content“ (Summerville et al. 2017, 2). Mit PCGML können sowohl funktionale (Level, Mechaniken, Effekte etc.) als auch kosmetische (Texturen, Musik, Sounds, Art-Assets etc.) Spielinhalte generiert werden. Praktisch ausprobiert wurden solche Methoden z.  B. für die Generierung von Leveln für Super Mario (Snodgrass 2017) und von Legend of Zelda (Summerville 2017). Dass PCGML bisher eher selten in der Spieleentwicklung eingesetzt wird, liegt vor allem daran, dass Spiele in der Regel sehr unterschiedlich sind und dadurch nicht genügend Beispiele mit einer bestimmten Mechanik, einem bestimmten Design oder einem bestimmten Art-Stil vorliegen, um die machine-learning-Algorithmen damit trainieren zu können (Summerville 2017, 3–4). Insbesondere bei der Konzeptionierung oder Optimierung von Grafiken kommen jedoch bereits Anwendungen mit KI-Verfahren zum Einsatz. Die Dain App etwa kann mit Hilfe von machine learning manuell erstellte Animationen automatisch um weitere Frames ergänzen und so detaillierter und überzeugender gestalten. Mit Midjourney oder Dall-E kann auch ohne künstlerische Fähigkeiten Concept Art erstellt werden. Dreamlab dient speziell der Erzeugung von Game-Assets (https://dreamlab. gg/). All diese Anwendungen bedürfen noch der menschlichen Überprüfung und Anpassung, um die Standards für die Verwendung in einem kommerziell veröffentlichten Spiel zu erfüllen. Allerdings können sie die verschiedenen Arbeitsschritte signifikant erleichtern und beschleunigen. Auch die Erschaffung von interaktiven Narrativen stellt ein mögliches Gebiet für den Einsatz von KI-Verfahren dar. Spiele, in denen die Spieler:innen Einfluss auf den Verlauf der Geschichte nehmen können, stellen die Entwickler:innen vor große Herausforderungen, da die Handlung mit jeder Entscheidung auf mindestens zwei unterschiedliche Weisen weitergehen kann. Die Zahl an Verläufen, die geschrieben und eingebaut werden muss, wächst so exponentiell. Um diesem Problem zu begegnen, wird damit experimentiert, Algorithmen automatisiert über den Plot entscheiden zu lassen. Mit einer fortgeschrittenen KI arbeitet beispielsweise das auf GPT-3 basierende AI Dungeon 2 (Latitude 2019) von Nick Walton. Dabei handelt es sich um ein Textadventure, in dem die Interaktionen durch die Eingabe von Text stattfinden, wobei die Spieler:innen nicht, wie in Textadventures üblich, aus einer limitierten Zahl an Eingabeoptionen wählen, sondern Freitext schreiben können. Darauf aufbauend generiert die KI dynamisch eine endlose Zahl an Geschichten. Insbesondere durch die Veröffentlichung von ChatGPT werden sich für die Zukunft noch weitere fortgeschrittene Möglichkeiten für die Nutzung von KI im Storytelling ergeben.

KI-Verfahren im Videospiel 

 261

Ein weiterer Anwendungsbereich von KI-Verfahren in der Spieleentwicklung stellt die Programmierung von NPCs dar, die sich möglichst glaubwürdig und menschenähnlich verhalten und dynamisch auf die Spieler:innen reagieren. In der Informatik-Forschung wurde vielfach versucht, KI-Algorithmen auf das Spielen von Spielen zu trainieren und dabei die besten Strategien herauszufinden. Schlagzeilen machte etwa die KI AlphaGO, die 2016 den mehrfachen GO-Europameister Fan Hui besiegte. Für die Spieleentwicklung ist diese Art von KI jedoch wenig hilfreich, da das Ziel hier nicht darin besteht, eine KI zu implementieren, die die Spieler:innen ständig besiegt, sondern eine, die sie zwar herausfordert, aber ihnen dennoch eine realistische Chance auf den Sieg lässt. Ein Ansatz besteht hier darin, die KI Menschen beim Spielen beobachten zu lassen und sie darauf zu trainieren, deren Verhalten möglichst überzeugend zu imitieren. Darüber hinaus kann KI auch für die Entwicklung von möglichst überzeugenden befreundeten NPCs genutzt werden. Ein sehr frühes Beispiel stellt das Game Black&White (Lionhead 2001) dar. Darin trainieren die Spieler:innen eine Companion-Kreatur, die sie für ihr Verhalten belohnen oder bestrafen, woraus diese Schlussfolgerungen für ihr zukünftiges Handeln zieht. Außerdem imitiert sie die Handlungen anderer Figuren im Spiel sowie der Spieler:innen und analysiert dabei, wie gut welches Verhalten ihre Bedürfnisse befriedigt. Darauf aufbauend erstellt sie mit Hilfe des machine-learning-Algorithmus ID3 einen Decision Tree, auf dem sie ihre zukünftigen Entscheidungen basiert.

3.2 Analyse von Spielinhalten Einen weiteren Anwendungsbereich von KI-Verfahren in der Spieleentwicklung stellt die automatisierte Analyse (automated testing) von Games durch Algorithmen dar. Einerseits können sie zur Evaluation von Spielinhalten genutzt werden, andererseits aber auch zur Behebung von Bugs. So können Level z.  B. auf Kriterien wie Schwierigkeit, Spielzeit u.  ä. hin analysiert werden. Weiterhin können auf ästhetischer Ebene Ähnlichkeiten zu anderen Teilen des Spiels beurteilt und so die Konsistenz und Originalität des Artstyles ermittelt werden. Auch können Bugs aufgespürt werden, wie z.  B. Level, die aufgrund von Fehlern in der Implementierung nicht durchgespielt werden können, unzugängliche Bereiche aufweisen o.  ä. Die Implementierung von Algorithmen zur Durchführung von automatisierten Tests setzt allerdings ein großes informatisches Wissen voraus und ihre Zuverlässigkeit ist stark von den Fähigkeiten der Programmier:innen abhängig. Ähnlich wie bei der PCGML wird auch hier versucht, die Algorithmen durch Training am Beispiel automatisch zu erstellen.

262 

 Jasmin Pfeiffer

4 Ausblick Bisher werden KI-Verfahren bei der Entwicklung von Videospielen noch verhältnismäßig selten verwendet. Ein Problem besteht darin, dass Spiele sehr unterschiedlich sind und daher häufig zu wenige Beispiele für das Training der KI vorliegen sowie die Übertragbarkeit von Algorithmen zwischen verschiedenen Titeln nur bedingt gegeben ist. Bei der Erzeugung funktionaler Spielelemente wie Level und Mechaniken besteht die Schwierigkeit vor allem darin, dass die von einem Spiel erzeugte Erfahrung, der Flow und die Schwierigkeitskurve in der Regel sehr genau durchdacht und geplant sein müssen und die Designer:innen entsprechend die vollständige Kontrolle innehaben wollen. Für die Erzeugung kosmetischer Inhalte, wie zum Beispiel Art-Assets, oder die Analyse von Spielen dagegen werden KI-Verfahren bereits eingesetzt, allerdings handelt es sich fast immer um eine Co-Kreation von Mensch und Maschine: Die KI macht erste Entwürfe, die von den Designer:innen überarbeitet werden, oder ergänzt und komplettiert deren Arbeit. Sie fungiert somit nicht als eigenständig schaffende kreative Entität, sondern als ein Werkzeug, das die Entwicklung unterstützt.

Literaturverzeichnis Ahlquist, John und Jeannie Novak. Game Artificial Intelligence. Boston 2007. Scott, Gavin. Complementary Companion Behavior in Video Games. (https://digitalcommons.calpoly.edu/ cgi/viewcontent.cgi?article=2985&context=theses. 2017 (20. März 2023). Snodgrass, Sam. „Player Movement Models for Platformer Game Level Generation“. https://www.ijcai. org/Proceedings/2017/0105.pdf. Proceedings of the Twenty-Sith International Joint Conference on Artificial Intelligence 2017 (15. März 2023). Summerville, Adam, Sam Snodgrass, Matthew Guzdial und Christoffer Holmgard. Procedural Content Generation via Machine Learning. https://www.game.de/positionen/kuenstliche-intelligenz-und-games. 2017 (10. März 2023). https://www.mindthegame.de/?page_id=65 (15.März 2023).

Diskurse und Kontexte

Hannes Bajohr

Autorschaft und Künstliche Intelligenz Computergenerierte Sprache ist fast so alt wie der Computer selbst. Nicht nur lässt sich das natural language processing (NLP, Nilsson 2010, 103–113) bis in die 1940er Jahre zurückverfolgen, wo es seit Warren Weavers Memorandum über machine translation vor allem im Bereich automatisierter Übersetzung der jungen Informatik ein vielversprechendes Forschungsfeld eröffnete (siehe für das gemeinhin als „Geburtsstunde“ der Maschinenübersetzung bezeichnete „Georgetown-IBM experiment“ (Gordin 2015, 213–240; Weaver 2003 [1949]). Die Frage nach der Autorschaft eines solchen Textes spielte auch im sehr viel breiteren Feld der Künstlichen Intelligenz seit Alan Turings „imitation game“ von 1950 (dem später so genannten „Turing-Test“) eine uneingestandene Hauptrolle: Um die Intelligenz von Maschinen behavioristisch operationalisierbar zu machen, so Turing, müsste ein Computer dann als intelligent gelten, wenn ein Mensch ihn in einem Gespräch selbst für einen Menschen hielte (Turing 1950). Da dieses Gespräch aus technischen Gründen textlich vermittelt sein musste, heißt das, in der Formulierung von Jay David Bolter: „artificial intelligence is the art of making texts“ (1991, 180). Insofern dieser Text auf Intelligenz verweisen soll, die zumindest im Verhaltensoutput intentional erscheinen muss, war Autorschaft also von Anbeginn an in aller KI-Forschung angelegt. Dass dieses Potenzial bis in die jüngere Gegenwart brach lag, liegt daran, dass die Textproduktion von KI vor allem extraliterarisch angesiedelt war. Die User von Joseph Weizenbaums ELIZA-Chatbot etwa akzeptierten den Computer zwar wider besseres Wissen als intentionalen Kommunikationspartner (Weizenbaum 1966), aber nicht als Autor in der literaturtheoretischen Bedeutung des Wortes. Die Herstellung explizit literarischer Texte – und der dazugehörigen Auszeichnung einer spezifisch literarischen „Seinsweise des Diskurses“ sowie der „klassifikatorischen Funktion“ von Werkkohärenz und geistigem Eigentum (Foucault 2000, 210), für die der Begriff der Autorschaft normalerweise in seiner emphatischen Funktion reserviert ist – stand nicht im Interesse des Mainstreams der Entwicklung Künstlicher Intelligenz, sondern war eher in den künstlerisch-experimentalen Randbereichen des NLP angesiedelt. Im Folgenden sollen daher – auch weil die Grenze zwischen KI und bloßer Computerverwendung oft schwer zu ziehen ist – zunächst die historischen Debatten um Autorschaft computergenerierter literarischer Texte zusammengefasst werden, bevor systematisch die Autorschaft speziell Künstlicher Intelligenz Thema wird; in vielerlei Hinsicht ist sie lediglich eine Fortführung des älteren Diskurses, setzt aber in ihrer systematischen und ideologischen Ausgestaltung spezifische Akzente. https://doi.org/10.1515/9783110656978-016

266 

 Hannes Bajohr

1 Historischer Abriss computergenerierter Literatur Christopher Strachey, Kollege Turings an der Universität Manchester, gilt gemeinhin als Programmierer des ersten literarischen Experiments mit einem Computer. Seine 1952 auf dem Manchester Mark I ausgeführten und über einen Fernschreiber ausgedruckten „Love Letters“ funktionierten nach einem kombinatorischen Prinzip, so dass ein fester Satz an Wörtern in eine Reihe möglicher Wortschablonen für einen Liebesbrief eingefügt wurde (Link 2016; Wardrip-Fruin 2009). Gezeichnet waren diese Briefe stets mit „M.U.C.“ (Manchester University Computer). Bereits hier ist der Computer als Autor vorgestellt, aber eher im Sinne einer spielerischen Autorschaftsfiktion, die sich kaum von jener etwa eines Kater Murr unterscheidet. Strachey behauptete nie, der Computer übernehme dabei tatsächlich die Rolle eines Autors, sondern bestand im Gegenteil darauf, dass es sich hier um eine anthropomorphe Projektion handele. Die Frage sei nicht, ob Computer Briefe zu verfassen in der Lage sind, sondern ob man ein Programm zu diesem Zweck schreiben kann – „and this is really a very different sort of question because the writing of programs […] is still an essentially human activity“ (Strachey 1954, 25–26). Autorschaft liegt hier eindeutig bei den Programmierenden, nicht beim Computer. Wie Turing aber hielt Strachey die Möglichkeit dieser Täuschung  – und damit implizit auch die Annahme von Autorschaft – nicht nur für nicht ausgeschlossen, sondern für in der Zukunft auch wahrscheinlich (Strachey 1954, 31). Die Informationsästhetik der Stuttgarter Schule um Max Bense verkomplizierte dieses Bild, indem sie die ontologischen Vorannahmen thematisierte, die solchen Aussagen über Autorschaft zugrunde liegen. Betonte Strachey, parallel zu Turings Vorschlag, die Erscheinung von Intentionalität als Voraussetzung von Autorschaft – und empfahl geschickte Täuschung per Programmierung –, artikulierte die Informationsästhetik einen Bruch in der Ontologie des Textes überhaupt. Bense unterschied zwischen „natürlicher“ und „künstlicher Poesie“ und sprach ersterer notwendig „eine Ichrelation und einen Weltaspekt“ zu, die als „ontologische Fortsetzung“ personaler oder sozialer Welterfahrung im Text fortwirkten. „Künstliche Poesie“ dagegen habe grundsätzlich keinen intentionalen und subjektrelativen, sondern nur einen „materiale[n] Ursprung“; sie bestehe aus kontextlosen festgelegten Textelementen, deren Kombination keine menschliche Sinnerfahrung ausdrücke, deren ästhetischer Gehalt aber unabhängig eines solchen humanen Maßstabs als statistische Unwahrscheinlichkeit von Zeichenfolgen gemessen werden kann (Bense 1962, 143). So gesehen wird die Frage nach Autorschaft zugunsten textimmanenter Kriterien abgewertet; computergenerierte Texte sind prinzipiell nicht-intentional, der Turing-Test demnach schlicht ein Kategorienfehler. Dass Bense von „simulierter

Autorschaft und Künstliche Intelligenz 

 267

Poesie“ sprechen konnte (Bense 1998, 385), betont diese ontologische Differenz eher, statt sie aufzuheben und rückt seine Texttheorie in die Nähe des Diskurses um den „Tod des Autors“ (Barthes 2000). Der Fokus auf die quantitativen Eigenschaften von Text, etwa relative Worthäufigkeiten, äußert sich auch in den „Stochastischen Texten“, die Benses Schüler Theo Lutz 1959 produzierte und die als erste computergenerierte Literatur im deutschen Sprachraum gelten. In ihnen wird eine Wortliste nach einem gewichteten Zufallsprozess kombiniert; dass das verwendete Vokabular Kafkas Schloß entstammte, widerspricht der Abwertung der Autorschaftsfrage nicht, sondern soll eine inhärente ästhetische Wertigkeit sicherstellen (Lutz 1959, 1960). Lutz allerdings – weniger texttheoretisch interessiert als Bense – scheint seine eigene Autorschaft vor allem auf das Programmskript bezogen und empathisch eingefordert zu haben, während er sich den Output nur sekundär zugeordnet hat (Bernhart 2020, 194). Wie bei Strachey ist Lutz’ Arbeit im Bereich der NLP, nicht der KI anzusiedeln; explizit deklariert er sie als synthetisches Gegenstück einer „analytischen Philologie“ (so auch Bense 1998, 384; Lutz 1960, 11; 14). Ähnliches lässt sich auch von den ab 1964 generierten „Autopoemen“ Gerhard Stickels feststellen, die nach einem vergleichbaren Muster funktionieren. Und auch der Linguist Stickel hält die Annahme einer Autorschaft des Computers für eine unzulässige Anthropomorphisierung, „die nur durch die Unkenntnis seiner Arbeitsweise begründet ist“ (Stickel 1966, 123). Nicht die Suche nach autonom agierenden, problemlösenden oder gar bewusstseinsäquivalenten Maschinen, sondern die Analyse syntaktischer Strukturen erscheint also als Startpunkt computergenerierter Literatur. Dieser Umstand deprivilegiert die Autorschaftsfrage ganz pragmatisch (im Fall von Lutz und Stickel) oder durch einen starken Textbegriff auf theoretischer Ebene (wie im Fall von Bense). Wo der linguistische oder informatische vermehrt einem künstlerischen Zugriff weicht, scheint es, als hätte in vielen Fällen das poetologische Interesse am „Tod“ des menschlichen Autors auch sein Wiederauferstehen als Computerautor verhindert (Schäfer 2017, 29) – jedenfalls wurden die generativen Texte der 1960er und 1970er Jahre eher im Kontext modernistischer Ästhetiken praktiziert, die in der Nachfolge John Cages und Marcel Duchamps mit aleatorischen Prozessen experimentierten, statt Autorschaft auf Maschinen zu projizieren. Bei den einschlägigen Werken dieser Zeit findet sich jedenfalls kaum etwas davon; im Falle von Alison Knowles’ und James Tenneys „A House of Dust“ (1968) ist immerhin die Kollaboration zwischen Kunst (Knowles) und Ingenieurswesen (Tenney) auch im Autor:innenduo reflektiert (H. B. Higgins 2012). Doch wenn der wie Knowles zur Fluxus-Bewegung gehörende Dick Higgins für den Einsatz von „computers for the arts“ plädiert, so weiterhin unter der Maßgabe: „Computers are like most tools  – deaf, blind and incredibly stupid.“ (D. Higgins 1970, 1)

268 

 Hannes Bajohr

Wo es zu einer bewussten Inszenierung von Autorschaft kommt, wird sie zunächst kaum sehr weit getrieben: Für die Sammlung von Computer-Lyrik (1968) zeichneten die Programmierer Manfred Krause und Götz F. Schaudt lediglich als Herausgeber verantwortlich, gestehen damit der generierenden Maschine paratextuell Autorschaft zu; im Vorwort aber wird diese Geste wieder zurückgenommen und es ist vom Computer als „nur ein[em] Werkzeug in unserer Hand“ die Rede (Krause und Schaudt 1969, 8). Der Dichter Karl Krolow, der den Band rezensiert, nimmt dennoch den Ball auf und spricht dem „Zuse Z 23, einjährig alter ComputerDichter“ parodistisch-ernsthaft Autorschaft zu (Krolow 1968, 33), was die Inszenierung aber nur als durchschaute bestätigt. In der Tat ist die Diskrepanz zwischen Produktion und Rezeption von Computerliteratur auffällig: Der kritischen Rezeption dient sie als Projektionsfläche von Mensch-Maschine-Vergleichen – sei es als Folie einer irreduzibel menschlichen Fähigkeit zu ‚wirklicher‘ Literatur, wie Italo Calvino sie in der Verwurzelung jeder Geschichte im Mythos lokalisiert (Calvino 1984), sei es als bloßes Eichmaß des Handwerks, so wie Hans Magnus Enzensberger 1974 schreibt: „Wer nicht besser dichten kann als die Maschine, der täte besser daran, es bleiben zu lassen.“ (Enzensberger 2000, 52) Trotz dieser wiederholten Einreihung in moderne- und technikkritische Tropen (Rieger 2018; Schönthaler 2022) blieb die Diskussion um Autorschaftsfragen für die solche Literatur Produzierenden auffallend sekundär. Das änderte sich in den 1980er Jahren mit der Veröffentlichung des Buchs The Policeman’s Bear is Half Constructed (1984), bei der die Inszenierung von autonomer Maschinenautorschaft in ein bislang ungekanntes Extrem getrieben wird: Auf dem Umschlag angepriesen als „the first book ever written by a computer“, wird als Autor das Programm „Racter“ geführt (Racter 1984). Die aufwändige, mit Collagen versehene Buchausgabe steht nun nicht mehr für die als solche durchsichtige Inszenierung, sondern die ernsthafte Behauptung von Computerautorschaft. William Chamberlain und Thomas Etter, die Entwickler von Racter, setzten sich durch die Geheimhaltung des Programmcodes und der editorischen Eingriffstiefe einiger Kritik aus; der Nachweis von Autorschaft auf kausaler Ebene blieb aus, weshalb The Policeman’s Beard heute als äußerst umstrittenes Schlüsselwerk generativer Literatur bezeichnet wird (Henrickson 2021). Aufschlussreich ist, dass der Klappentext Racter von KI absetzt: „Fundamentally different from artificial intelligence programming, which tries to replicate human thinking, Racter can write original work without promptings from a human operator.“ Autonome Maschinenautorschaft wird hier als das Paradigma von KI übersteigend deklariert, was nicht zuletzt unter dem Gesichtspunkt eines in den 1980er Jahren wieder an Fahrt aufnehmenden KIDiskurses zu sehen ist. In der Tat waren die 1980er eine Art Scheideweg: Die Entwicklung von textbasierter KI und generativem Schreiben verlief lange parallel. Weizenbaums ELIZA

Autorschaft und Künstliche Intelligenz 

 269

hatte gezeigt, dass ein Computer den Turing-Test – kausale Autorschaft als anthropomorphisierende Zuschreibung – zumindest für kurze Zeit bestehen konnte. Literarisch aber nahm das Interesse an Textgeneratoren Ende der 1980er Jahre und in den 1990er Jahren ab. Stattdessen kam mit der Hypertextliteratur eine gänzlich andere Form computerzentrischen Schreibens auf, die nicht die Art der Produktion, sondern Modi der Rezeption privilegierte und das Lesen auf „Pfade, die sich verzweigen“ schickte (Borges 2000). Im Gegensatz zum frühen NLP, das fast gänzlich literaturtheoriefern war, kann die Hypertextliteratur geradezu als Schrift gewordener Poststrukturalismus gelten: Da Hypertextstrukturen multiple Lesepfade erlauben, ersetzten sie nicht nur den autoritären „Baum“ durch das anarchische „Rhizom“ (Deleuze und Guattari 1992, 11–42); sie entzögen, wie Florian Hartling entsprechend Roland Barthes‘ Autorschaftsmodell schreibt, auch Autor:innen ihre Macht, die nunmehr scripteurs von Materialkollektionen seien (Barthes 2000; Hartling 2009, 97–109), und werteten die Leser:innen als die eigentliche bedeutungsschaffende Instanz auf. Vorgeschlagen wurden neue Figuren wie der „Wreader“ (Landow 1997, 14) oder die „Browser“ (Guertin 2007; siehe dazu Meerhoff 2021, 97–109), die sich die eigenen, nichtlinearen Lesewege durch verlinkte Textabschnitte schlagen (dass gerade der Autorschaftsbegriff eben nicht verschwand, dazu Coover 2001 und Porombka 2001; kritisch auch Simanowski 2001). Der „Vernetzungsaspekt“ (Heibach 2001, 32) und die „Interaktivität, Intermedialität und Inszenierung“ (Simanowski 2001, 4) der Rezeption verstellten tendenziell den Blick für die Bedingungen der Produktion, und für längere Zeit war „Netzliteratur“ verwirrenderweise der Oberbegriff für jede computerbasierte und also auch generative Literatur, auch wenn sie mit dem Netz nichts zu tun hatte. Für die gegenwärtige Diskussion um Autorschaft von KI ist aber der seinerzeit neuartige Fokus auf Kollaboration wieder zentral: So wie verschiedene Schreiber kooperieren, so kann man auch das Verhältnis von Mensch und Maschine als kooperativ, als „Cyborg“-Autorschaft bezeichnen (Aarseth 1997, 132–134); gegenwärtige Ansätze nehmen vermehrt diesen Aspekt auf (Bajohr 2022; Henrickson 2018).

2 Kausale Autorschaft Dieser Überblick über den Diskurs um maschinelle Autorschaft zeigt zunächst, wie NLP- und KI-Forschung sowie künstlerische Ansätze ganz verschiedene Interessen artikulieren: Setzt die KI-Forschung mit ihrer Suche nach Intelligenz oder Rationalität (wenn nicht gar Bewusstsein) Autorschaft als intentionale Kategorie weiterhin zumindest implizit voraus, ist NLP eher an den Prozessen der Textsynthese interessiert, die, depersonalisiert, als System der langue ganz ohne parole gedacht werden

270 

 Hannes Bajohr

können. Künstlerische Experimente können sich bei beiden Seiten bedienen und scheinen vielmehr von ästhetischen und poetologischen Positionen als von technischen Überlegungen getrieben zu sein, so dass der Autorschaftsdiskurs mit der poststrukturalistisch beeinflussten Hypertextliteratur schließlich eine völlig andere technische Grundlage erhielt. Die Vernachlässigung des Produktionsaspekts im literaturtheoretischen Diskurs der 1980er und 1990er Jahre übersah freilich, dass in dieser Zeit eine grundsätzliche Neuausrichtung der KI-Forschung vor sich ging, die, mit Unterbrechungen, bis heute einflussreich ist. Konzentrierte man sich seit der Begründung der artificial intelligence als Forschungsfeld auf der Dartmouth-Konferenz 1956 vor allem auf symbolische KI, schwenkte man in den 1980ern auf subsymbolische KI um (Mitchell 2019). Der Unterschied ist einer ums Ganze: Bei symbolischer KI geht es um die explizite Formulierung von Regelschritten sowie dem Codieren von Weltwissen in sogenannte Expertensysteme (Alpaydın 2021, 60–62). Diese Systeme werden sequenziell programmiert, sind in ihrer Struktur menschenlesbar und ihre Lernfähigkeit ist auf die Erweiterung ihrer Wissensdatenbank beschränkt. Subsymbolische KI aber, deren Grundlagen in den 1960er Jahren gelegt, aber erst in den 1980ern wieder aufgenommen wurden, kommt ohne explizite Regeln aus und basiert auf stochastischem maschinellem Lernen (Rumelhart et al. 1986). Man kann es das konnektionistische Paradigma nennen, da im deep learning vor allem künstliche Neuronale Netze (KNNs) zum Zuge kommen, die eine Input-Output-Funktion über signalverstärkende und -hemmende „Neuronen“strukturen modellieren, und die abstrakt dem Hirn nachempfunden sind (Alpaydın 2021, 105–142; zur Trennung sequenziell/konnektionistisch, siehe Bajohr 2021a). Dennoch dauerte es bis in die 2010er Jahre, bis KI als deep learning auch breitenwirksam für literarische und künstlerische Zwecke zum Einsatz kam. Seitdem hat sich ihre Mächtigkeit im Vergleich zu klassischen, auf Kombinatorik oder Aleatorik basierenden Textgeneratoren gezeigt. Zudem wird im unsupervised learning die Idee „intelligenter“ Maschinen sehr viel überzeugender realisiert, so dass in ihnen nicht nur die Autonomie der Wissensanwendung, sondern auch der Wissensakkumulation angelegt ist. Da gegenwärtige NLP-Anwendungen wie maschinelle Übersetzung ebenfalls als KNNs implementiert sind und zudem zunehmend selbst als „KI“ bezeichnet werden, ist die frühere Distanz zwischen beiden Feldern geschrumpft. „Große Sprachmodelle“ wie ChatGPT, Bard oder Claude werden nun als „foundation models“ für umfassendere KI-Systeme gehandelt (Bommasani et al. 2021). Erste explizit literarische Experimente mit KNNs fanden wahrscheinlich Anfang der 2000er statt (Funkhouser 2012 berichtet von einem Projekt, das 2006 Rumi-Verse generieren sollte). Doch erst die Popularisierung der schon seit den 1990er Jahren bekannten LSTM-RNNs („long short-term memory recurrent neural networks“) um 2015 brachte jenes breite Feld an literarischen Experimenten hervor,

Autorschaft und Künstliche Intelligenz 

 271

das bis heute floriert (siehe auch → Generative Literatur). Da hierbei die Qualität der Ausgabe (im Sinne von annähernder Natürlichsprachigkeit) immer besser wurde, ist auch die Frage nach der Autorschaft solcher Systeme wieder vermehrt in den Blick gerückt. Interessant ist, dass die technische Substruktur eine unmittelbare Auswirkung auf die Reihe möglicher Autorschaftskandidat:innen hat; es macht einen Unterschied, ob sequenziell oder konnektionistisch geschrieben wird. Kausale Autorschaft ist daher heute, noch vor einer spezifisch literarischen Autorfunktion, zu einer zentralen Forschungsfrage geworden. Mit Blick auf die „kausale“, produktionsorientierte Seite der Texterstellung lässt sich dann ein Schema von Distanzgraden an Autorschaft konstruieren (ein erster Entwurf findet sich in Bajohr 2021c, eine genauere Ausarbeitung folgt in Bajohr 2024) und im Übergang von konventionellem zu sequenziellem zu konnektionistischem Schreiben eine Zunahme einer solchen kausalen Distanz beobachten. Primäre Autorschaft wäre der immer noch geltende Standard konventionellen, „unvermittelten“ Schreibens, in dem ein:e Autor:in mehr oder minder direkt Text zu Papier oder auf einen Datenträger bringt. Die Instanzen, die zwischen Schreibenden und Text stehen, mögen zwar technischer Natur sein – von Federkiel über Schreibmaschine zu Wordprozessor –, doch ist weniger der determinierende Einfluss von Materialität und Medien auf den finalen Text ausschlaggebend (Kirschenbaum 2016; Stingelin 2012) als eher die Idee einer kausal als ungebrochen wahrgenommenen Verbindung von Autor:in und Text; der Schreibakt wird völlig auf der Seite der Person lokalisiert, die die Apparatur des Schreibens bedient, und alle anderen beteiligten Aktanten sind lediglich passiv-vermittelnd involviert. Dass diese Annahme sich keineswegs in allen Schreibformen durchhält, zeigen die weiteren Distanzschritte, die diesen Nexus durch einen Hiatus in seiner relativen Unmittelbarkeit aufbrechen. Sekundäre Autorschaft wäre demnach eine Distanz erster Ordnung, die den Schreibakt verdoppelt. Streng genommen taucht sie in jeglicher Kalküldichtung auf (Cramer 2011) – sowohl in den kombinatorischen Dichtungsexperimente des Barocks oder der historischen Avantgarden wie im sequenziellen Paradigma: In all diesen Fällen besteht der Autor:innenbeitrag in der Formulierung einer Regelfolge, deren Ausführung das Werk produziert. Der Akt, der diese Regelfolge hervorbringt, ist auf kausaler Ebene nicht vom Schreiben primärer Texte zu unterscheiden, übernimmt aber eine vikariierende Funktion und fungiert als Modul in einer Operationskette, das nach Ausführung des ersten Textes selbst einen weiteren, den sekundären Text ausgibt. Autorschaft heißt hier also, einen Text zu schreiben, der einen Text schreibt. Ausschlaggebend ist, dass der primäre Text operativen Charakter hat: Hierunter fallen auch alle der oben genannten digitalen Literaturen (wobei der Hypertext gewissen Einschränkungen unterliegt) sowie die Transformationsregeln symbolischer KI wie bei ELIZA. Im Unterschied zur historischen Kalküldichtung hat

272 

 Hannes Bajohr

der Text des Codes hier tatsächlich eine eigene Kausalität und Performativität – er produziert den finalen Text im Wortsinne. Durch diese performative Beziehung stellt sich die Frage nach einer möglichen Computerautorschaft erst, die bei den Regelfolgen „analoger“ Kalküle kaum aufkommt. Dennoch ist es nicht immer notwendig, dass der operative Text unmittelbar menschengemacht ist; er kann selbst Produkt eines früheren Herstellungsschritts sein. So schiebt sich ein zweiter Hiatus im machine learning des konnektionistischen Paradigmas in diese Operationskette und bringt eine tertiäre Autorschaft hervor. Der Informatiker François Chollet hat den hier wesentlichen Unterschied folgendermaßen beschrieben: Ist das sequenzielle Paradigma nach dem Schema „Regeln + Daten = Antworten“ aufgebaut, folgt das konnektionistische dem Schema „Daten + Antworten = Regeln“ (Chollet 2021, 4). Es werden also nicht mehr Regeln in einem Programm niedergelegt, dessen Anwendung (auf Daten) einen Output produziert, sondern es wird ein KNN auf einen großen Satz beispielhaften Outputs trainiert, der erst jene „Regeln“ macht, die schließlich zum finalen Text führen. Autor:innen bleibt damit allein der Lernalgorithmus zu programmieren (der aber meist schlicht von Dritten übernommen wird), der Datensatz für das Training zu definieren (aus denen das KNN selbstständig das Modell bildet) und die Parameter zu bestimmen (mittels derer das Modell schließlich den Output hervorbringt). Der Text, der im sekundären Modell den Output schreibt, ist damit selbst computergemacht. Trotzdem ist Autorschaft auch im tertiären Modell noch im Maschinenraum des Digitalen angesiedelt: Die Auswahl des Trainingsalgorithmus und der „Hyperparameter“ sowie die Kuratierung des Trainingsdatensatzes unterliegen weiterhin menschlicher Kontrolle und Auswahl. Mit dem Aufkommen großer Sprachmodelle wie GPT-3 (2020 von OpenAI entwickelt und seitdem mehrmals aktualisiert, siehe Brown et al. 2020; zuletzt ChatGPT, siehe OpenAI 2022) ändert sich auch das, und man nun kann plausibel von quartärer Autorschaft sprechen. Als proprietäre Software – die überdies zu umfangreich ist, um von Usern je aufs Neue trainiert zu werden – sind Benutzer:innen auf die werksseitig getroffene Auswahl von Trainingsdaten eingeschränkt (auch wenn bei GPT-3 inzwischen ein eingeschränktes finetuning möglich ist). Mehr noch: Die einzige Interaktion mit diesen Modellen geschieht über ihr Interface, und zwar über natürlichsprachliche Aufforderungen. Statt also den Code zu schreiben, der ein Gedicht schreibt, oder ein Sprachmodell auf eine Vielzahl von Gedichten zu trainieren, das dann neue ausgibt, ist im quartären Modell allein die Eingabe ausschlaggebend, etwa: „Schreibe ein Gedicht im Stil von Wallace Stevens“ (Brown et al. 2020, 48–49); im Fall von Text-to-Image AIs wie Dall-E 2, ist die natürlichsprachliche Eingabe bereits die Beschreibung des im Output entstehenden Ausgabebildes (Ramesh et al. 2022). Quartäre Autorschaft heißt also: Il n’y a rien hors du modèle. Autorschaft ist eingekapselt in das Gehäuse einer kommerziellen Sprachtechnologie, deren genaues Funktionieren letztlich kaum mehr ergründlich ist.

Autorschaft und Künstliche Intelligenz 

 273

3 Werkzeug oder Agent Kausale Autorschaft, die die menschliche Komponente in Mensch-Maschine-Gefügen überblickt, ist ein notwendiger Einstieg in komplexere Beschreibungsmodelle von Autorschaft in Zeiten Künstlicher Intelligenz, weil zunächst alle beteiligten technischen Prozesse identifiziert sein müssen, um zu weitergehenden Konzeptionen vorzustoßen. Da primäre Autorschaft bisher als Folie eines „unmittelbaren“ Schreibens diente, erscheint die zunehmende Distanz auch mit einem zunehmenden Kontrollverlust einherzugehen: Konnten die Produktionsregeln im sequenziellen Paradigma noch exakt und deterministisch formuliert werden, funktioniert das machine learning des konnektionistischen über einen stochastischen Prozess, der in einer Wahrscheinlichkeitsverteilung über Textsequenzen resultiert. Ist es in ersterem ein Leichtes, beliebig viele baugleiche Ausgaben zu produzieren, ist letzteres auf die Reproduktion von statistisch ähnlichen, aber eben nicht identischen Outputs angelegt; statt Schablonen gibt es „Gestalten“ aus (Bajohr 2020). Hinzu kommt die Undurchsichtigkeit des Sprachmodells: Wird der Code der sekundären Autorschaft von Menschen geschrieben und ist daher auch von Menschen lesbar, ist das „Gewichtungsmodell“ des KNN, Resultat eines statistischen Prozesses, prinzipiell nicht in Regelschritte rückübersetzbar und daher auch kein Gegenstand möglicher hermeneutischer Lektüre, sondern eher natürliches Untersuchungsobjekt – eher Sternencluster als Manuskriptvariante. So kann es in ihm nicht mehr um das Verstehen seines Sinnanspruches, sondern nur noch um das Erklären seines Funktionierens gehen (Kirschenbaum 2021). Dieser Kontrollverlust lässt die Möglichkeit autonomer KI-Autorschaft neuerlich virulent werden. Bewegt man sich von kausaler Autorschaft zur Frage, wem jene Foucault’sche Autorfunktion zukommt, die Diskurse ordnet, Dissemination reguliert und Werkkohärenz hervorbringt (Foucault 2000), tun sich heute verschiedene Interpretationen auf. Die wesentliche Achse ist jene der agency des Systems, die vom bloßen Werkzeug bis zum autonomen Agenten reicht (Henrickson 2018): Ist KI am Ende selbst Autor oder doch nur eine bessere Schreibmaschine? Wie im ersten Abschnitt gezeigt, wehren sich die klassische Informatik sowie der Großteil der digitalen Literatur gegen die Zuschreibung von Autorschaft an den Computer: „Der Programmierer hat die Regeln gewählt, nach denen der Computer schreibt. Ob jetzt der Programmierer ein Lob verdient, weil er gerade diese Bearbeitungsregeln ausgesucht hat, weiß ich nicht. […] Jedenfalls sollte er nicht sagen, der Computer dichtet.“ (Weizenbaum 2001, 103) Bereits Turing bedachte diesen Einwand unter dem Titel der „Lady Lovelace’s objection“ (Turing 1950, 450–451). Er spielte damit auf Ada Lovelace an, die für Charles Babbages Entwurf einer mechanischen Rechenmaschine die „Programmiersprache“ entwickelte und damit als erste Coderin gelten kann. In einem Kommentar zum Aufbau von

274 

 Hannes Bajohr

Babbages analytical engine spekulierte sie, dass die Maschine prinzipiell nichts Neues hervorbringen könne, weil alle ihre Produkte nur auf die Anweisungen eines programmierenden Menschen zurückgingen (Lovelace 2010, 44). Turing hielt dagegen, dass auch Kalküle Überraschung produzieren können, weil menschliche Antizipationsfähigkeit angesichts komplexer Code-Output-Relationen begrenzt sei („Esprit der Regel“, Bajohr 2022, 37). Mehr noch: Angesichts der Möglichkeit lernender Maschinen sei Lovelaces Einwand ohnehin nichtig. Wäre eine Maschine in der Lage, auf Basis invarianter Regeln dynamisch neues Verhalten zu erlernen, müsste sie selbst seinen Erbauer:innen unvorhersehbar, geradezu zufällig erscheinen (Turing 1950, 459). Da machine learning zumindest eine Variante solchen „Lernens“ implementiert, scheint Turings Replik heute stichhaltiger als im sequenziellen Paradigma. Eine Möglichkeit liegt dann in der Reduktion menschlicher Autorschaft auf die Handlung des Kuratierens, die in jedem Schreiben eine Rolle spielt  – minimal bereits im Sprechakt der Imprimatur, bei automatischen Prozessen aber vorher bereits im Feedbackprozess, der anhand einer Ausgabe die Programmparameter ändert. Die Abnahme an Kontrolle erfordert die Zunahme editorischer Auswahl. Es liegt also nahe, Autorschaft wieder als Herausgeberschaft zu denken, wie es bereits im Diskurs um Hypertextliteratur der Fall war (Wirth 2001), oder gegenüber dem Schreiben den Akt des Lesens weiter aufzuwerten, da bei nichtintentional generierten Texten Sinnanspruch noch plausibler als im Fall primärer Autorschaft erst durch die Lektüre an den Text getragen werden kann (Catani 2020, 304). Diese Interpretationslinie, die den Diskurs um den Tod des Autors auch auf KI-generierte Texte überträgt – ohne im Gegenzug einen starken KI-Autor zu postulieren  – ließe sich fortsetzen. So wäre Julia Kristevas Begriff der „Intertextualität“ nicht nur als „Mosaik aus Zitationen“ von Bedeutung (Kristeva 1969, 85), sondern gerade im Medienverbund sekundären bis quartären Schreibens sinnvoll einzusetzen. Da der Intertext hier ganz wörtlich vorliegt, bekommt man es mit einer Vervielfältigung von Autorschaftsbeziehungen zu tun. Abgesehen davon, dass Programmiersprachen selbst Autor:innen haben, ist bereits die Textur des Codes intertextuell verfasst, da ihre Funktionalität hohe Rekurrenz aufweist und Programmierende sowohl eigene wie fremde Code-Abschnitte wiederverwenden. Das kann in Repositorien wie GitHub oder Foren wie Stackoverflow geschehen, wo entweder ganze Funktionsbibliotheken angeboten werden, die bestimmte Aufgaben übernehmen und modular in den eigenen Code eingesetzt werden können, oder wo auf einer Mikroebene Codesequenzen gemeinsam korrigiert oder verbessert werden (Flender 2021, 139). Hier wird nicht selten bewusst auf eine Autorschaftsauszeichnung verzichtet; Mark Marino vergleicht solche Abschnitte mit dem Einsatz einer Schraube – Ingenieur:innen würde dessen Erfinder:in auch nicht bei jeder Verwendung zitieren (Marino 2020, 50). Die Idee kollektiver Autorschaft,

Autorschaft und Künstliche Intelligenz 

 275

die in der Forschung um die Netzliteratur der 1990er Jahre dominierte (Heibach 2003, 205–206), ist daher auch auf ausführbare Primärtext, also Programmcodes, anzuwenden. Ist damit noch das Zusammenspiel menschlicher Autor:innen gemeint, gehen die Science and Technology Studies weiter und beziehen auch nichtmenschliche Akteure in das Schreibkollektiv ein, explizit etwa bei Katherine Hayles, die „multiple authorships“ auch in der Hardware des Computers (Hayles 2005, 105) und im Computer selbst als „cognizer“ vermutet (Hayles 2019). Diese Haltung wird vor allem im Kontext der Akteur-Netzwerk-Theorie artikuliert, die in der Suche nach Aktanten und Akteuren agency gerade nicht als „limited a priori to what ‚intentional‘, ‚meaningful‘ humans do“ (Latour 2005, 81), sondern in komplexen Operationsketten als über ein Gefüge verteilt versteht. Statt Autor:innen allein als menschlich zu denken, würden sie in einer ANT-inspirierten Autorschaftstheorie zu einem Prozess und „die empirische Person nur ein menschlicher Akteur in einem Akteur-Netzwerk [sein], welches man ‚Autor‘ nennt“ (Schröter 2022, 626). So populär die Figur der Verteilung auch ist, so ist sie doch nicht unproblematisch. Das zeigt das Beispiel großer Sprachmodelle: Systeme wie ChatGPT beziehen ihre Mächtigkeit aus dem Umfang der ihnen zugrundeliegenden Trainingsdaten, die inzwischen mehr oder minder das gesamte Internet umfassen. Da in diese System also die Sprache der Almende eingeht, bekäme „kollektive Autorschaft“ eine neue Bedeutung, die eher an ein kollektives Unbewusstes als Quelle ‚automatischen‘ Schreibens gemahnt (O’Gieblyn 2021). Dass in solchen Metaphern einer Verteilung von agency, seien sie nun eine Übertragung altbekannter Konzepte der Literaturtheorie, wie eben Intertextualität, oder aber von der ANT inspirierte, durchaus Nachteile liegen, zeigt Jasmin Meerhoff, wenn sie darauf hinweist, dass die hier implizierte „maximal verteilte, verstreute oder ganz zerstäubte Autorschaft“ ökonomische Abhängigkeiten und ethisch fragwürdige Appropriation ausblendet (Meerhoff 2021, 55). Die Herkunft der Trainingsdaten lässt sich aus dem fertig trainierten Sprachmodell nicht ablesen und ist nur nachzuverfolgen, wenn sie eigens offengelegt wurden (etwa in der Open-Source-Initiative EleutherAI, siehe Gao et al. 2020). Hier mag es notwendig sein, die Rede einer Maschinenagency zu vermeiden und stattdessen die tatsächlich menschlichen Autor:innen hinter der KI-Ausgabe zu würdigen: als Arbeiter:innen, aber auch als Träger:innen bestimmter Identitäten (ähnlich auch Piringer 2019). Diese Aufforderung schließt an Betrachtungen der Kunstsoziologie an, die an das infrastrukturelle „support personnel“ erinnert, das hinter den scheinbar autonomen Größen des Kunstsystems steht und deren Aktivitäten erst ermöglicht (Becker 1982, x; siehe auch Gilbert 2021, 66). In der Tat: Betrachtet man die bisher getätigten, überschaubaren literarischen Experimente, dann stünde zu erwarten, es würde entweder die Kollektivität der Almende oder die Kollaboration mit der Maschine betont, was in beiden Fällen

276 

 Hannes Bajohr

eine Auflösung der Autorfunktion nahelegte. Bis auf wenige Ausnahmen (siehe Kaufmann 2022) scheinen Autor:innen aber weiterhin ihren Namen auch an in Kollaboration mit KI-Systemen entstandene Werke zu heften. Selbst ein Buch wie Amor Cringe des:der amerikanischen Dichters:in K Allado-McDowell erscheint unter dessen:deren Namen (Allado-McDowell 2022), auch wenn es explizit in Kooperation mit GPT-3 geschrieben wurde. Das heißt aber nicht notwendig die reaktionäre Reaktivierung überkommener Autorschaftsideen wie jener des Genies. Für die Dichterin Allison Parrish ist es weniger eine ontologische Frage als eine politische Aufgabe, Computer als Werkzeuge zu verstehen: „it will always be a mistake to attribute volition to the computer and not to the people who programmed it because attribution of volition is removing personal responsibility: the algorithm did it, not me.“ (zit. nach Miller 2019, 223) Die Reklamation von Autorschaft kann gerade als Abwehr sowohl gegen das Phantasma des technisch optimierten KI-Genies wie der absoluten Zerstäubung von Autorschaft in Anschlag gebracht werden, die politische, ökonomische und ethische Verantwortung nicht mehr nachvollziehen lässt. Statt gleichberechtigter Kollaboration wird hier die klar hierarchisierte Ko-Kreation vorgezogen (wie etwa in Johnston 2019; siehe auch Kaufmann 2022, 38). Der Anspruch wirklich „starker“ KI-Autorschaft (zu diesem Begriff, siehe Bajohr 2021b), die jenseits von Kollaboration, Ko-Kreation und Verteilung zu autonomen Schöpfungen in der Lage ist, ist heutzutage vor allem in der Tech-Branche anzutreffen, deren Vertreter:innen Kunst als Katalysator für die Entwicklung künstlichen Bewusstseins verstehen (siehe auch Daub 2020; exemplarisch Elgammal und Mazzone 2020). Hier überleben Ideen von Autorschaft als Genie sehr viel unbefragter als im Kunst- und Literaturbereich, die mit der Dekonstruktion solcher Großbegriffe seit mehr als sechzig Jahren beschäftigt sind. Hier zeigt sich aber auch, dass ein romantischer Autor nicht notwendig menschlich gedacht sein muss und die ursprüngliche, aus dem Nichts Neues schaffende Originalität des romantischen Genies durchaus auch auf KI-Modelle übertragen werden kann, wie Carys J. Craig und Ian R. Kerr zeigen (2019). Nicht in der praktisch-literarischen Arbeit mit Sprachmodellen, sondern im Valley scheint die Grundideologe der KI-Forschung fortzuleben, die Bewusstsein und Intelligenz mit intentionaler Autorschaft kurzschließt, während die Literatur weiterhin im Modus der NLP die strukturierte Hervorbringung von Text verfolgt, der so verwendet werden kann oder eben auch nicht. Sehr viel wahrscheinlicher als das Phantasma ‚künstlicher Autor:innen‘ wären – freilich kann das nur spekulativ gesagt werden – autorlose Texte, wie sie sich Foucault ausmalte: „Man kann sich eine Kultur vorstellen, in der Diskurse verbreitet oder rezipiert würden, ohne daß die Funktion Autor jemals erschiene.“ (Foucault 2000, 227) Ganz pragmatisch ist das in unserer Kultur zum Teil bereits Realität: Im Fall von automatisierten Informationssystemen, Interfaceausgaben und anderer Maschinen-

Autorschaft und Künstliche Intelligenz 

 277

kommunikationen, denen wir tagtäglich ausgesetzt sind, stellt sich die Frage nach Autorschaft überhaupt nicht – weder würde man aus der Anzeige auf dem Bankautomaten auf eine Personalität der Maschine schließen, noch sich wesentlich den Kopf über deren ursprüngliche Autor:innen zerbrechen. Je mehr die Zirkulation von maschinell generierten Texten zunimmt, desto wahrscheinlicher wird es, sie als „post-artifiziell“ (Bajohr 2023) zu betrachten; die Frage nach Autorschaft verlöre sich dann in der „Namenlosigkeit des Gemurmels“ (Foucault 2000, 227).

Literaturverzeichnis Aarseth, Espen J. Cybertext: Perspectives on Ergodic Literature. Baltimore 1997. Allado-McDowell, K. Amor Cringe. New York 2022. Alpaydın, Ethem. Machine Learning: Revised and Updated Edition. Cambridge, Mass. 2021. Bajohr, Hannes. „Die ‚Gestalt‘ der KI: Jenseits von Holismus und Atomismus“. Zeitschrift für Medienwissenschaft 12.2 (2020): 168–181. Bajohr, Hannes. „Algorithmische Einfühlung: Über zwei Paradigmen digitaler generativer Literatur und die Notwendigkeit einer Kritik ästhetischer KI“. Sprache im technischen Zeitalter 59.4 (2021a): 471–497. Bajohr, Hannes. „Keine Experimente: Über künstlerische Künstliche Intelligenz“. Merkur 75.863 (2021b): 32–44. Bajohr, Hannes. „Künstliche Intelligenz und digitale Literatur“. Digitale Literatur II. Hrsg. von Hannes Bajohr und Annette Gilbert. München 2021c: 174–185. Bajohr, Hannes. Schreibenlassen: Texte zur Literatur im Digitalen. Berlin 2022. Bajohr, Hannes. „Artifizielle und postartifizielle Texte: Über die Auswirkungen Künstlicher Intelligenz auf die Erwartungen an literarisches und nichtliterarisches Schreiben.“ Sprache im technischen Zeitalter 61.1 (2023): 37–61. Bajohr, Hannes. „Writing at a Distance: Notes on Authorship and Artificial Intelligence.“ German Studies Review 47.1 (2024, i.E.). Barthes, Roland. „Der Tod des Autors“. Texte zur Theorie der Autorschaft. Hrsg. von Fotis Jannidis, Gerhard Lauer, Matias Martinez und Simone Winko. Stuttgart 2000: 185–193. Becker, Howard S. Art Worlds. Berkeley 1982. Bense, Max. Ästhetik und Texttheorie. Hrsg. von Elisabeth Walther. Stuttgart 1998. Bense, Max. „Über natürliche und künstliche Poesie“. Theorie der Texte. Eine Einführung in neuere Auffassungen und Methoden, Köln 1962: 143–147. Bernhart, Toni. „Beiwerk als Werk: Stochastische Texte von Theo Lutz“. editio 34 (2020): 180–206. Bolter, Jay David. „Artificial Intelligence“. Writing Space: The Computer, Hypertext, and the History of Writing. Hillsdale, NJ 1991: 171–193. Bommasani, Rishi, Drew A. Hudson, Ehsan Adeli, Russ Altman, Simran Arora, Sydney von Arx et al. „On the Opportunities and Risks of Foundation Models“. http://arxiv.org/abs/2108.07258, 2021. Borges, Jorge Luis. „Der Garten der Pfade, die sich verzweigen“. Der Erzählungen erster Teil, München 2000: 161–176. Brown, Tom B., Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared Kaplan, Prafulla Dhariwal. „Language Models are Few-Shot Learners“. http://arxiv.org/abs/2005.14165, 2020.

278 

 Hannes Bajohr

Calvino, Italo. „Kybernetik und Gespenster“. Kybernetik und Gespenster: Überlegungen zu Literatur und Gesellschaft, München 1984: 7–26. Catani, Stephanie. „‚Erzählmodus an‘: Literatur und Autorschaft im Zeitalter künstlicher Intelligenz“. Jahrbuch der deutschen Schillergesellschaft, Berlin 2020: 287–310. Chollet, François. Deep Learning with Python. 2. Auflage. Shelter Island 2021. Coover, Robert. „Goldene Zeitalter: Vergangenheit und Zukunft des literarischen Wortes in den digitalen Medien“. Text+Kritik 152 (2001): 22–30. Craig, Carys J. und Ian R. Kerr. „The Death of the AI Author“. Ottawa Law Review 52.1 (2019): 31–86. Cramer, Florian. Exe.cut[up]able statements: Poetische Kalküle und Phantasmen des selbstausführenden Texts. München 2011. Daub, Adrian. What Tech Calls Thinking: An Inquiry into the Intellectual Bedrock of Silicon Valley. New York 2020. Deleuze, Gilles und Félix Guattari. Tausend Plateaus. Berlin 1992. Elgammal, Ahmed und Marian Mazzone. „Artists, Artificial Intelligence and Machine-Based Creativity in Playform“. Artnodes 26 (2020): 1–8. Enzensberger, Hans Magnus. Einladung zu einem Poesie-Automaten. Frankfurt am Main 2000. Flender, Karl Wolfgang. „Do Conceptualists Dream of Electric Sheep? Algorithmische Interpretation des Unbewussten in Conceptual Writing und konzeptueller Codeliteratur“. Digitale Literatur II. Hrsg. von Hannes Bajohr und Annette Gilbert. München 2021: 134–144. Foucault, Michel. „Was ist ein Autor?“ Texte zur Theorie der Autorschaft. Hrsg. von Fotis Jannidis, Gerhard Lauer, Matias Martinez und Simone Winko. Stuttgart 2000: 198–229. Funkhouser, Christopher T. New Directions in Digital Poetry. New York 2012. Gao, Leo, Stella Biderman, Sid Black, Laurence Golding, Travis Hoppe, Charles Foster u.a. „The Pile: An 800GB Dataset of Diverse Text for Language Modeling“. http://arxiv.org/abs/2101.00027, 2020. Gilbert, Annette. „Kollaterales Schreiben: Digitale Kollaboration im Zeitalter von Crowdworking und Algotaylorismus“. Digitale Literatur II. Hrsg. von Hannes Bajohr und Annette Gilbert. München 2021: 62–74. Gordin, Michael D. Scientific Babel: How Science Was Done Before and After Global English. Chicago 2015. Guertin, Carolyn. „Wanderlust: The Kinesthetic Browser in Cyberfeminist Space“. https://web.archive. org/web/20150921150355/http://www.performancestudies.ucla.edu/extensionsjournal/guertin. htm. Extensions: Online Journal of Embodiment and Technology 3 (2007) (30. März 2023). Hartling, Florian. Der digitale Autor: Autorschaft im Zeitalter des Internets. Bielefeld 2009. Hayles, N. Katherine. My Mother Was a Computer. Chicago 2005. Hayles, N. Katherine. „Literary Texts as Cognitive Assemblages: The Case of Electronic Literature“. Interface Critique 2 (2019): 173–195. Heibach, Christiane. „Ins Universum der digitalen Literatur: Versuch einer Typologie“. Text+Kritik 152 (2001): 31–42. Heibach, Christiane. Literatur im elektronischen Raum. Frankfurt am Main 2003. Henrickson, Leah. „Tool vs. Agent: Attributing Agency to Natural Language Generation Systems“. Digital Creativity 29.2–3 (2018): 182–190. Henrickson, Leah. „Constructing the Other Half of The Policeman’s Beard“. https:// electronicbookreview.com/essay/constructing-the-other-half-of-the-policemans-beard. Electronic Book Review 4.4.2021 (30. März 2023). Higgins, Dick. Computers for the Arts. Somerville 1970.

Autorschaft und Künstliche Intelligenz 

 279

Higgins, Hannah B. „An Introduction to Alison Knowles’s The House of Dust“. Mainframe Experimentalism: Early Computing and the Foundations of the Digital Arts. Hrsg. von Hannah B. Higgins und Douglas Kahn. Berkeley 2012: 195–199. Johnston, David Jhave. ReRites: Human + A.I. Poetry. Raw Output. Montreal 2019. Kaufmann, Manuel. Dreaming Data: Aspekte der Originalität und Autorschaft in der künstlichen Kreativität. Zürich 2022. Kirschenbaum, Matthew G. Track Changes: A Literary History of Word Processing. Cambridge, Mass. 2016. Kirschenbaum, Matthew G. „Spec Acts: Reading Form in Recurrent Neural Networks“. ELH 88.2 (2021): 361–186. Krause, Manfred und Götz F. Schaudt, hrsg. Computer-Lyrik. 2. Auflage. Düsseldorf 1969. Kristeva, Julia. Sèméiotikè: Recherches pour une sémanalyse. Paris 1969. Krolow, Karl. „Die Seele wimmert“. Die Tat, 13.01.1968: 33. Landow, George P. Hypertext 2.0. The Convergence of Contemporary Critical Theory and Technology. Baltimore 1997. Latour, Bruno. „Third Source of Uncertainty: Objects too Have Agency“. Reassembling the Social: An Introduction to Actor-Network-Theory. Oxford 2005: 63–87. Link, David. „There Must Be an Angel: On the Beginnings of the Arithmetic of Rays“. Archaeology of Algorithmic Artefacts. Minneapolis 2016: 55–78. Lovelace, Ada. „Translator’s Notes to M. Menebrea’s Memoir“. Babbage’s Calculating Engines: Being a Collection of Papers Relating to Them; Their History, and Construction. Hrsg. von Henry P. Babbage. Cambridge 2010: 32–50. Lutz, Theo. „Stochastische Texte“. Augenblick: Zeitschrift für aktuelle Philosophie, Ästhetik, Polemik 4.1 (1959): 3–9. Lutz, Theo. „Über ein Programm zur Erzeugung stochastisch-logistischer Texte“. Grundlagenstudien aus Kybernetik und Geisteswissenschaft 1.1 (1960): 11–16. Marino, Mark C. Critical Code Studies. Cambridge, Mass. 2020. Meerhoff, Jasmin. „Verteilung und Zerstäubung: Zur Autorschaft computergestützter Literatur“. Digitale Literatur II. Hrsg. von Hannes Bajohr und Annette Gilbert. München 2021: 49–61. Miller, Arthur I. The Artist in the Machine The Artist in the Machine: The World of AI-Powered Creativity. Cambridge, Mass. 2019. Mitchell, Melanie. Artificial Intelligence: A Guide for Thinking Humans. New York 2019. Nilsson, Nils J. The Quest for Artificial Intelligence: A History of Ideas and Achievements. Cambridge 2010. O’Gieblyn, Meghan. Babel: Could a machine have an unconscious?. https://www.nplusonemag.com/ issue-40/essays/babel-4. n+1 40.1 (2021) (30. März 2023). OpenAI. „ChatGPT: Optimizing Language Models for Dialogue“. https://openai.com/blog/chatgpt/. OpenAI Blog 2022 (30. März 2023). Piringer, Jörg. „elektrobarden“. Transistor 1.2 (2019): 78–83. Porombka, Stephan. Hypertext: Zur Kritik eines digitalen Mythos. München 2001. Racter. The Policeman’s Beard is Half Constructed. New York 1984. Ramesh, Aditya, Prafulla Dhariwal, Alex Nichol, Casey Chu, Mark Chen. „Hierarchical Text-Conditional Image Generation with CLIP Latents“. https://arxiv.org/abs/2204.06125, 2022. Rieger, Stefan. „‚Bin doch keine Maschine …‘. Zur Kulturgeschichte eines Topos“. Machine Learning: Medien, Infrastrukturen und Technologien der Künstlichen Intelligenz. Hrsg. von Christoph Engemann und Andreas Sudmann. Bielefeld 2018: 117–142.

280 

 Hannes Bajohr

Rumelhart, David E., James L. McClelland und PDP Research Group. Parallel Distributed Processing: Explorations in the Microstructure of Cognition. Bd. 1. Cambridge 1986. Schäfer, Jörgen. „Passing the Calvino Test? Writing Machines and Literary Ghosts“. Digital Media and Textuality: From Creation to Archiving. Hrsg. von Daniela Côrtes Maduro. Bielefeld 2017: 23–44. Schönthaler, Philipp. Die Automatisierung des Schreibens und Gegenprogramme der Literatur. Berlin 2022. Schröter, Jens. „Autorschaft aus dem Blickwinkel der Akteur-Netzwerk-Theorie“. Grundthemen der Literaturwissenschaft: Autorschaft. Hrsg. von Michael Wetzel. Berlin 2022. Simanowski, Roberto. „Autorschaften in digitalen Medien: Eine Einleitung“. Text+Kritik 152 (2001): 3–21. Stickel, Gerhard. „‚Computerdichtung‘: Zur Erzeugung von Texten mit Hilfe von datenverarbeitenden Anlagen“. Der Deutschunterricht 18.2 (1966): 120–125. Stingelin, Martin. „UNSER SCHREIBZEUG ARBEITET MIT AN UNSEREN GEDANKEN. Die poetologische Reflexion der Schreibwerkzeuge bei Georg Christoph Lichtenberg und Friedrich Nietzsche“. Schreiben als Kulturtechnik: Grundlagentexte. Hrsg. von Sandro Zanetti. Berlin 2012: 83–104. Strachey, Christopher. „The ‚Thinking‘ Machine“. Encounter 3 (1954): 25–31. Turing, Alan M. „Computing Machinery and Intelligence“. Mind 59.236 (1950): 433–460. Wardrip-Fruin, Noah. „Christopher Strachey: The First Digital Artist?“ https://grandtextauto.soe. ucsc.edu/2005/08/01/christopher-strachey-first-digital-artist. Grand Text Auto 2009 (30. März 2023). Weaver, Warren. „Translation“ [1949]. Readings in Machine Translation. Hrsg. von Sergei Nirenburg, H. L. Somers und Yorick Wilks. Cambridge, Mass 2003: 13–17. Weizenbaum, Joseph. „ELIZA: A Computer Program for the Study of Natural Language Communication Between Man And Machine“. Communications of the ACM 9.1 (1966): 36–45. Weizenbaum, Joseph. “Kunst und Computer”. Computermacht und Gesellschaft: Freie Reden. Hrsg. von Gunna Wendt und Franz Klug. Frankfurt am Main 2001. Wirth, Uwe. „Der Tod des Autors als Geburt des Editors“. Text+Kritik 152 (2001): 54–64.

Juliane Blank

KI-Kunst: Künstlertum – Schöpfung – Originalität Laut Ian Bogost leben wir in einer Zeit des „Goldrauschs“ für KI-Kunst (Bogost 2019). Von bzw. mit KI produzierte ästhetische Erzeugnisse werden öffentlichkeitswirksam ausgestellt, versteigert, verkauft und besprochen. KI-Kunst stellt eine aufmerksamkeits- und marktökonomische Größe dar. Trotzdem oder gerade deswegen wird ihr ‚Kunst-Status‘ kontrovers diskutiert. Dabei kreist die Diskussion um die folgenden zentralen Fragen: Ist das, was eine KI erzeugen kann, wirklich Kunst? Inwiefern lässt sich der Prozess der Entstehung als Kunstschaffen oder sogar Schöpfung begreifen? Und schließlich: Ist das Ergebnis dieses Prozesses ein Kunstwerk und erfüllt somit die Wertekategorien von Individualität, Authentizität und Originalität? Diese Diskussion speist sich maßgeblich aus populären Topoi über den:die Künstler:in als übermenschlich begabtem ‚großem Menschen‘ und seine:ihre geniale Schöpfung als originellem Ausdruck von persönlicher, oft leidvoller Erfahrung. Solche Künstler-Topoi sind ein Relikt des Geniekults um 1800, in deren Rahmen der:die Künstler:in als enthusiastische:r Schöpfer:in in der Kunstliteratur etabliert wird (siehe Blank 2021). Mit den Konzeptionen von Kunstschaffen in der aktuellen Kunsttheorie und -praxis haben sie nichts zu tun. Dennoch wird die Vorstellung von der:vom genialen Künstler:in und seiner:ihrer originellen Schöpfung im populären Diskurs über Kunst weiter kolportiert, z.  B. im filmischen Genre des Künstler:innenBiopics (Berger 2009, 9; 23–26). Auch die Debatte um KI-Kunst wird stark von dieser traditionellen Rhetorik des Künstlertums dominiert. Im Vordergrund stehen Konzepte von künstlerischer Autorschaft, von inspiriertem Kunstschaffen sowie die Frage nach der Originalität und Schöpfungskraft von KI-Kunst. Um diese Aspekte der Debatte nachzuzeichnen und zu ordnen, betrachte ich im Folgenden sowohl die Seite der Produktion als auch der Rezeption aktueller KI-Kunst. Mit ‚KI-Kunst‘ bezeichne ich alle ästhetischen Erzeugnisse, in deren Produktion Algorithmen und künstliche Neurale Netzwerke eine maßgebliche Rolle gespielt haben – unabhängig davon, welchen Einfluss menschliche Akteur:innen auf den Produktionsprozess genommen haben und unabhängig von ihrer Darbietung. Dabei lässt sich die aktuelle KI-Kunst durch ihre technologische Grundausstattung sowie in ihrer Ästhetik grundlegend von der ‚Computer-Kunst‘ der 1960er Jahre unterscheiden, die dennoch als Pionierprojekt gelten muss. Bei den Pionierarbeiten handelte es sich häufig um computergenerierte Rastergrafiken, deren Innovationspotenzial vor allem in der technischen Ausgabe mit Hilfe von automatisierten Endgeräten lag (Miller 2019, 57). Dagegen setzen die aktuell unter dem Begriff KI-Kunst verhttps://doi.org/10.1515/9783110656978-017

282 

 Juliane Blank

handelten Verfahren bei der Bildgenerierung an, wobei die materielle Bildausgabe nicht im Zentrum steht – und nicht einmal zwingend erfolgen muss. Wann immer es um KI-Kunst geht, wird gefragt, ob das, was die KI produziert, als Kunst gelten darf. Diese Diskussionen zielen letztlich auf die Frage ab, welche Bedeutung der Mensch (noch) für die Entstehung von Kunst hat. Dabei wird oft eine Konkurrenzsituation zwischen Mensch und KI konstruiert, die sich eher dystopischer Narrative von der gefährlichen KI bedient als den tatsächlichen Stand der Technik zu spiegeln. Diese fiktive Konkurrenzsituation von menschlichem:r Künstler:in und kunstschaffender KI verdichtet Andreas Sudmann ironisch auf das kulturpessimistische Schreckbild des „Terminator[s] mit dem Pinsel“ (Sudmann 2019). Im Diskurs über KI und ästhetische Erzeugnisse wird häufig betont, dass Kunst die „letzte Bastion“ sei (Lenzen 2018, 120; Sudmann 2021, 90), das „Bollwerk“ (Rieger 2018, 129) des Menschlichen, das nun zuletzt auch von der nicht-menschlichen KI ‚überwunden‘ bzw. erobert werde. Diese militärische Metaphorik macht einmal mehr das Narrativ von der ‚gefährlichen‘ KI augenfällig, die alle menschlichen Lebensbereiche durchdringt und übernimmt. Tatsächlich ist jedoch – wie in weniger alarmistischen Publikationen angemerkt wird – die Technik weit davon entfernt, ohne Einwirkung des Menschen Kunst zu erschaffen (Zylinska 2020, 35; Miller 2019, 304; Sudmann 2021, 90). Auch die sehr weit fortgeschrittenen Verfahren der Bild- und Textgenerierung bedürfen einer steuernden Eingabe von Aufforderungen (prompts) zu Bildinhalten und Stil. Die Ergebnisse der sich rasant entwickelnden bildgenerierenden Verfahren, wie sie z.  B. die Programme DALL-E oder Midjourney anwenden, werden die bisher stark am Konzept des:der Künstler:in ausgerichtete Debatte um KI-Kunst vor enorme Herausforderungen stellen. Obwohl sich bereits andeutet, dass das Konzept Kunst und das Konzept Künster:in auch getrennt gedacht werden könnten, werden die nicht-menschlichen Akteur:innen bzw. Werkzeuge im künstlich verschärften öffentlichen Diskurs über KI-Kunst dennoch mit einer ausgeprägten Künstler-Rhetorik behandelt (vgl. auch Rauterberg 2019). Die Debatte um Originalität, Schöpfung und künstlerische Autorschaft geht am aktuellen Stand der technologischen Entwicklung vorbei, denn diese Konzepte sind nur mit Mühe und selten produktiv auf die neuen Verfahren und ihre Ergebnisse anzuwenden. Dass sie weiterhin geführt wird, demonstriert aber, in welchen traditionellen Maßstäben KI-Kunst in der öffentlichen Wahrnehmung betrachtet wird. Der vorliegende Beitrag befasst sich mit den kulturgeschichtlichen Hintergründen der diskursbestimmenden Rhetorik am Beispiel der KI-Kunst. Er befasst sich somit nicht mit den technischen Entwicklungen im Bereich der KI-Kunst, sondern analysiert aus kulturgeschichtlicher Perspektive deren Wahrnehmung und Kontextualisierung im öffentlichen Diskurs sowie die Steuerung dieser Wahrnehmung durch Äußerungen der beteiligten Künstler:innen, Entwickler:innen und Organisator:innen. Im Folgenden werden 1) anthropomorphisierende Entwürfe der

KI-Kunst: Künstlertum – Schöpfung – Originalität 

 283

KI als Künstler vor dem Hintergrund von Künstler-Topoi behandelt, 2) Inszenierungen von künstlichem Kunstschaffen als Simulationsszenarien untersucht und 3) wird nach Originalität und Werkhaftigkeit als Wertekategorien im Horizont von Kunstmarkt und Kunsttheorie gefragt.

1 Der Maler ‚KI‘ als Werkzeug und Persona Im medialen Diskurs über KI wird diese oft anthropomorphisiert, aber auch als Gegenbild des Menschen entworfen. Potenziell anthropomorphisierend lesbar ist bereits die Rede von der Künstlichen Intelligenz oder vom machine learning (Dobler 2020, 27) – hier werden Rechenverfahren mit kognitiven Leistungen des Menschen parallelisiert. Darüber hinaus wird in der Öffentlichkeit häufig über KI als Akteur gesprochen, dem ein Wille und eine Intention zugesprochen wird. In ihrer Monografie AI Art bezeichnet die Medienphilosophin und Künstlerin Joanna Zylinska diese Sichtweise kritisch als „age-old humanism“ (2020, 34) und bedauert seine anhaltenden Auswirkungen auf die KI-Debatte. Sie hält die Frage, ob eine KI kreativ sein könne, für falsch gestellt (2020, 55), weil sie nicht in Betracht ziehe, dass Maschinen anders kreativ sein können als Menschen. Zylinska vertritt damit – allerdings nicht ohne kritische Distanz – eine posthumanistische Sichtweise auf KI und ihre ästhetischen Erzeugnisse. Die posthumanistische Position ist im öffentlichen Diskurs über KI-Kunst vergleichsweise selten vertreten. Vielmehr ist die populäre Vorstellung vom: von einer menschlichen Künstler:in, der:die aus subjektiver Erfahrung autonom ein individuelles und originelles Werk schafft, das Maß aller Dinge. Der Medienwissenschaftler Andreas Sudmann stellt fest, dass die Frage nach der Eigenständigkeit der KI im Kontext von Kunst tendenziell überbetont wird, weil „Konzepte[n] wie Kunst und Kreativität eine zutiefst anthropozentrische bzw. anthropologische Logik anhaftet“ (Sudmann 2021, 90). Dominiert wird der Diskurs nach wie vor durch eine starke Anthropomorphisierung. Diese wird nur selten von den Entwickler:innen vorgegeben – die humanoide Roboterfrau Ai-Da, die als Künstlerin programmiert wurde und als solche auftritt, ist eine Ausnahme. Auch ohne den humanoiden Körper wird die kunstschaffende KI jedoch konzeptuell und diskursiv zur Künstler-Figur bzw. -persona stilisiert, etwa wenn die Kuratorin Cornelia Oßwald-Hoffmann im Band zur Münchner Ausstellung Götzendämmerung. Kunst und KI als ästhetischer Diskurs im Zeitalter von Trans- und Posthumanismus (2020) ganz selbstverständlich vom „Maler KI“ spricht (Oßwald-Hoffmann 2021, 25). Die Rede von einer solchen ‚belebten‘ Künstler-KI legt nahe, dass die KI der maßgebliche Akteur der Kunstproduktion ist und sich durch ein Kunst-Wollen aus-

284 

 Juliane Blank

zeichnet, wie es als „Signum menschlicher Kreativität“ gehandelt wird (Sudmann 2021, 90). Darüber hinaus wird der KI intentionales Handeln im Dienst des Kunstschaffens oder sogar der Schöpfung zugeschrieben. Es gibt zahlreiche Projekte, in denen die KI die maßgebliche ausführende Instanz der Kunstproduktion ist (siehe auch → KI-Verfahren in der bildenden Kunst): Sie erstellt souverän und ungesteuert die Daten, die dann als Kunst präsentiert werden – ohne eine anfängliche Programmierung durch den Menschen würde diese Produktion jedoch gar nicht erst begonnen werden. Diese ambivalenten Szenarien werfen die Frage auf, wer letztlich als der:die Urheber:in bzw. der:die Schöpfer:in der ästhetischen Erzeugnisse gelten kann (siehe auch → Urheberschaft und KI), deren Werk-Charakter noch zu diskutieren ist. Bezüglich der Agency von KI in Kunstprojekten gibt es jedoch unterschiedliche Positionen. Arthur I. Millers Buch The Artist in the Machine basiert auf Interviews mit Entwickler:innen und Künstler:innen, die in KI-Kunst-Projekte involviert sind. Etliche der vorgestellten und befragten Akteur:innen – tendenziell häufiger Entwickler:innen als Künstler:innen – betonen die Eigenständigkeit der Arbeit von KI und das Moment der Überraschung und Innovation; nur sehr wenige würden allerdings so weit gehen, die KI selbst als kreativ zu bezeichnen (Miller 2019, 55–132; siehe auch → KI und Kreativität). Die meisten Künstler:innen, die Algorithmen und künstliche Neurale Netzwerke nutzen, betrachten diese als Werkzeuge (vgl. auch Miller 2019) – als neue Technik, die experimentell eingesetzt werden kann, um andere Blickwinkel auszuprobieren und Erkenntnisse über das eigene Arbeiten und das Verhältnis von Kunst und Technik zu gewinnen (Rauterberg 2021, 15). Auch der KI-Künstler Mario Klingemann bezeichnet Neurale Netzwerke, Codes und Algorithmen als seine „Schöpfungswerkzeuge“ (Klingemann 2018). Dabei beansprucht er die Rolle des souveränen Künstlers für sich: In dieser Rolle bedient er sich der KI, er lenkt den Datenstrom und trifft die Entscheidungen über die Verwendung der Erzeugnisse. Der Künstler Patrick Tresset bezeichnet seinen Zeichenroboter Paul gar als ‚künstlerische Prothese‘. Der Roboterarm mit Kamera wurde in einer Phase der künstlerischen Blockade von Tresset entwickelt und in seiner eigenen Zeichentechnik trainiert (Tresset 2012). Der ausführende Teil der künstlerischen Arbeit – den Tresset selbst nicht mehr leisten konnte – wird in diesen Arbeiten vollständig auf ein künstliches Körperteil ausgelagert. Damit wird dem Werkzeug nicht nur eine unterstützende, sondern auch eine ersetzende Funktion zugesprochen, die auf KI-Kritiker:innen vermutlich alarmierend wirkt. Eine interessante Position beanspruchen die Verantwortlichen hinter dem breit diskutierten Porträt des Edmond de Belamy. Der Fall des 2018 beim Auktionshaus Christie’s für 453.000 US-Dollar versteigerten, mithilfe von sogenannten GANs (generative adversarial networks) erzeugten Bilds erregte große Aufmerksamkeit und wird in fast jeder Publikation über KI-Kunst behandelt (siehe zur Kritik von

KI-Kunst: Künstlertum – Schöpfung – Originalität 

 285

Seiten anderer KI-Künstler:innen Bajohr 2022). Die Urheberschaft bzw. Agency wird von den Mitgliedern des Kollektivs Obvious (Pierre Fautrel, Hugo Caselles-Dupré und Gauthier Vernier) beansprucht, die einen von Robbie Barrat programmierten Algorithmus für ihr Projekt auswählten, die Trainingsdaten des GAN bestimmten und entschieden, wann das Bild ‚fertig‘ war. In mehreren Interviews betonen sie die Bedeutung der künstlerischen Vision und des Konzepts hinter der reinen Bildproduktion: „If the artist is the one that creates the image, then that would be the machine […]. If the artist is the one that holds the vision and wants to share the message, then that would be us.“ (o.V. 2018; vgl. auch Bogost 2019) Wenn man genau hinschaut, wird hier zwischen ‚Bildermachen‘ und Kunstschaffen unterschieden. Das Porträt des Edmond de Belamy und andere Bilder dieser Reihe wurden digital vom Netzwerk ausgegeben und dann durch menschliche Akteure auf Leinwand gedruckt, mit einem Teil des Algorithmus signiert und in Gold gerahmt. Die KI zeichnet oder malt also nicht selbst. Im Englischen wird das bildausgebende Netzwerk als generator bezeichnet. Die semantische Ebene ist hier nicht unbedeutend: Bilder generieren (to generate) ist etwas anderes als Bilder schaffen (to create) – ersteres bezeichnet eine weniger inspirierte und nicht körperlich gebundene ‚Schwundstufe‘ der Kunstschöpfung. Was in dieser Unterscheidung nachklingt, sind klassische Themen des modernen Künstlerdiskurses, die vor allem im Kontext der Genieästhetik bedeutsam wurden: die Diskussion um primär imitierende Bildproduktion ohne Inspiration als Ausdruck von Dilettantismus, die jahrhundertelang hochgehaltene Unterscheidung von Handwerk und Kunst sowie die Vorstellung von künstlerischer Leistung – sei sie körperlich, geistig oder emotional. Die Belamy-Porträts lassen sich, wie die Medienwissenschaftlerin Angela Krewani anmerkt, auch als Kommentare zur klassischen Vorstellung einer künstlerischen Autorschaft lesen, indem sie „den gerne bemühten Geniekult des individuellen Künstlers“ konterkarieren, „der seine Ideen in Eigenleistung auf die Leinwand oder das Papier bringt“ (Krewani 2021, 77). Im Vergleich mit den Zeichen- und Malrobotern, die auf der Basis von Algorithmen selbst Bilder im materiellen Sinn herstellen, stellt sich die Frage, welche Rolle das Erzeugen eines haptisch erfahrbaren Kunstwerks für die öffentliche Wahrnehmung der KI als ‚Künstler‘ spielt. Auch wenn die Fertigstellung eines vom:von der Künstler:in entworfenen Werks in seiner:ihrer Werkstatt bereits seit der Renaissance keine Seltenheit ist und aktuell z.  B. in den Studios von Künstlern wie Damien Hirst oder Olafur Eliasson praktiziert wird (vgl. Karpat und Ludwig 2021, 12), hält der populäre Diskurs am Bild eines mit seinem:ihrem eigenen Körper schaffenden und mit seiner:ihrer Leistung für das Werk einstehenden Künstler:in fest. Die Vorstellung von der Verbindung zwischen Künstler:in und Werk betont sowohl die „emotional-affektiven Aspekte menschlicher Kreativität“ als auch die „körperliche Dimension des kreativen Schaffens“ (Sudmann 2021, 91).

286 

 Juliane Blank

Die wissenschaftliche Forschung weist im Gegensatz zum populären Diskurs über KI-Kunst darauf hin, dass die Kunst des 20. Jahrhunderts sich mit diesen Aufladungstraditionen beständig kritisch auseinandergesetzt hat – zu nennen wären hier z.  B. die Neuerfindung des:der Künstler:in als ‚Monteur:in‘ im Kontext von Dada und Neuer Sachlichkeit (Wetzel 2000, 539); die Inszenierung von „Anti-Kreativität“ im Ready-Made (Rauterberg 2021, 66); die Entwicklung von Konzeptkunst in den 1960er Jahren als Auseinandersetzung mit der Vorstellung des Kunstwerks als „Emanationen ihres Seeleninneren“ (Krieger 2007, 155). Die Frage nach der Bedeutung des:der individuellen Künstler:in in der Kunstgeschichte wird nicht zuletzt vor dem Hintergrund der medienübergreifenden Debatte um Autorschaft gestellt, die in den späten 1960er Jahren durch Roland Barthes und Michel Foucault befördert wurde. Hinterfragt werden in diesem Zusammenhang die „metaphysische Position von Autor und Künstler“, die Vorstellung „autonomer Kreativität“ sowie der „Personenkult“ der traditionellen Literatur- und Kunstgeschichte (Wetzel 2000, 481). Diese Entwicklungen und Reflexionen spielen in der populär vermittelten Wahrnehmung des:der Künstler:in jedoch kaum eine Rolle und schlagen sich somit auch nicht im öffentlichen Diskurs über KI-Kunst nieder.

2 Simulation von Kunstschaffen und Schöpfung Die zweite zentrale Frage, die im Zusammenhang mit KI-Kunst diskutiert wird, ist die Frage nach dem Charakter künstlerischen Schaffens und der Möglichkeit, dieses künstlich zu replizieren. Auch der Prozess des künstlerischen Arbeitens ist – wie die Figur des:r Künstler:in – von Mythen umgeben, mit denen sich die Kunst selbst und die Kunsttheorie zwar bereits kritisch auseinandergesetzt haben, die aber im populären Diskurs nach wie vor dominant sind. Dazu gehören Vorstellungen des inspirierten Schaffens im Sinne eines spontanen, individuellen Ausdrucks innerer Bewegtheit, die oft mit einer gesteigerten Empfindungsfähigkeit assoziiert wird (Blank 2021, 21). Diese Vorstellungen sind ein Erbe der Geniedebatte – so wie die Diskussion um das Verhältnis von körperlichem, materiellem Schaffen und geistiger Schöpfung – und werden häufig verdichtet zu den Stereotypen Handwerker und Genie (Kampmann 2006, 29). Die Aspekte der körperlichen Fertigkeit, der geistigen Konzeption und der emotionalen Beteiligung am Kunstschaffen werden häufig in ihrer Anwendung auf KI-Kunst diskutiert. Viele der in Abschnitt  1 genannten Projekte befassen sich dezidiert mit der Simulation kreativer Prozesse und verfolgen das Ziel, Erkenntnisse über das spezifisch Menschliche am Kunstschaffen zu gewinnen. Patrick Tresset versteht seine Installationen mit dem Titel Human Study als Auseinandersetzung mit der Art und

KI-Kunst: Künstlertum – Schöpfung – Originalität 

 287

Weise, wie Menschen zeichnen und wie diese Prozesse und ihre Ergebnisse von Menschen wahrgenommen und emotional beurteilt werden. Als Simulationen von kreativen Prozessen haben die Installationen eine betont theatralische Qualität. In Interviews erläutert Tresset, dass der Roboter im Rahmen des Zeichenprozesses auch Bewegungen ausführt, die nicht notwendig wären (Tresset 2012): Dass sich die Kamera des Roboterarms wiederholt auf das Modell und auf die eigene Zeichnung richtet, ist nur eine Simulation des überprüfenden Künstlerblicks, die die Erwartungen des Publikums an Szenarien des Kunstschaffens antizipiert. Es liegt auf der Hand, dass der körperliche, handwerkliche Anteil am Kunstschaffen durchaus künstlich simuliert und repliziert werden kann. Die seit den geometrischen Mustervariationen der Computerkunst der 1960er Jahre enorm verbesserten zeichnenden Roboter haben nachgewiesen, dass eine Maschine rein motorisch ebenso gut zeichnen kann wie ein Mensch. Eben das Mechanisch-Technische dieses Zeichnens ist es aber, das im öffentlichen Diskurs über KI-Kunst kritisch betrachtet wird. Diese Kritik hat eine kulturgeschichtliche Tradition. Wie Stefan Rieger herausarbeitet, gibt es eine ausgeprägte „Negativsemantik der Maschine“ (Rieger 2018, 117). Gemäß dieser bedeutet das Mechanische „im Zeichen einer sturen Repetition, eine[n] Verfall an ein stupides und keine Abweichungen duldendes Regelwerk, das positiv besetzten Werten wie Kreativität, Genialität und freiem Selbstausdruck lediglich zur Gegenfolie dient.“ (Rieger 2018, 117) Nach dieser Argumentation beweist der Umstand, dass die „regelhaften Anteile eines kreativen Prozesses“ auf eine Maschine ausgelagert werden können allenfalls, dass die Maschine zu einer im Vergleich mit dem Menschen nur schwachen Kreativität fähig ist (Rauterberg 2021, 40). Wie in Abschnitt 1 ausgeführt wurde, gibt es zahlreiche Projekte in der KI-Kunst, in denen der Schaffensprozess rein digital abläuft und eine materielle Fixierung erst von den Organisator:innen des Projekts – oder gar nicht – vorgenommen wird. Dass der „Maler KI“ in diesen Fällen nicht selbst – und das heißt in diesem Fall: mit seinem eigenen Körper (den er nicht hat) – schafft, wird häufig als ein Merkmal genannt, das man von einer der KI-Kunst zugestandenen Kunsthaftigkeit wieder abziehen muss (zur Kritik an der fehlenden ‚Leiblichkeit‘ siehe auch Krewani 2021, 73). Jedoch könnte die rein digitale Erzeugung von ästhetischen Produkten in einer „Perspektive, in der Datenströme als eine geistig-geistliche Bewegung aufgefasst und gedeutet werden“ (Rauterberg 2021, 152), auch als vollständige Loslösung von der ‚niederen‘, handwerklichen Ebene des Kunstschaffens interpretiert werden – als Überwindung der Materie durch den Geist. Vor dem Hintergrund der Nobilitierung des Künstlers als geistig Schaffendem seit der Renaissance (Wetzel 2000, 494) ergeben sich in Bezug auf die kunstschaffende KI, die als rein geistig oder auch vollständig geistlos betrachtet werden kann, folgende Fragen: Inwiefern ist die Verarbeitung und Ausgabe von Daten als ‚geistige‘ Schöpfung zu betrachten? Was ist der Unterschied zwischen Schaffen als Produktion ästhetischer Erzeugnisse und künstlerischer Schöpfung?

288 

 Juliane Blank

Als kunsttheoretisches Konzept wird die Vorstellung einer demiurgischen Schöpfung erst im 18.  Jahrhundert für die Kunsttheorie verbindlich. Zentral für diesen Prozess ist der Begriff des Genies, der für folgenreiche Verschiebungen in Bezug auf das Denken über Inspiration, Individualität und Originalität steht (Blank 2021, 10). Der Prozess der Schöpfung ist Teil des ‚Mythos‘, der sich um Künstler:innen und ihre Arbeit rankt. Es handelt sich nicht um einen anleitbaren Prozess in nachvollziehbaren Einzelschritten, sondern um ein geheimnisvolles Phänomen, dessen Spontaneität und Einmaligkeit zentrale Topoi des westlichen Kunstdiskurses darstellen. Allerdings hat dieser Mythos im Verlauf des 20. Jahrhunderts bereits Einbußen erlitten. Für das Zeitalter einer Kunst, die durch ‚Apparate‘ produziert und reproduziert werden kann – er bezieht sich auf Fotografie und Film – prägt Walter Benjamin den Begriff der „Aura“ für die in der Massenkultur verschwindende Einmaligkeit und Authentizität des Bildes (Benjamin 1977, 13). Es ist wenig überraschend, dass die „Aura“ auch im Diskurs über KI-Kunst heraufbeschworen wird, häufig unter dem Vorzeichen des unwiederbringlichen Verlusts von Authentizität (Dotzler und Oßwald-Hoffmann 2021: 130). Befragt nach der Rolle der KI für künstlerische Arbeit, beharren zahlreiche Künstler:innen, die in der Ausstellung Götzendämmerung vertreten waren, auf der „Aura der Einmaligkeit des schöpferischen Moments eines Kunstwerkes“ (Dotzler und Oßwald-Hoffmann 2021, 134), der nach ihrer Einschätzung einem KI-generierten Projekt fehlt. Des Weiteren betonen sie die Bedeutung der Authentizität im Prozess des Kunstschaffens, die nur durch die „Anwendung menschlicher Sinne, der Beobachtungsgabe, der Idee, der Intuition“ gewährleistet werde (Dotzler und Oßwald-Hoffmann 2021, 133). Hier wird mit der Intuition eine emotionale Komponente genannt, die den Mythos vom:von der Künstler:in und seinem:ihrem Schaffen nachhaltig geprägt hat. Ernst Kris und Otto Kurz fassen in ihrem Buch Die Legende vom Künstler zusammen: „Das innere Erleben des Künstlers haftet an seinem Werk; Schöpfer und Schöpfung sind untrennbar verbunden.“ (Kris und Kurz 1980 [1934], 164) Eine KI hat kein inneres Erleben, weil sie kein Bewusstsein hat. In einigen KI-Kunst-Projekten wird der emotionale Anteil des Kunstschaffens jedoch als ‚Stimmung‘ simuliert. So wird die Arbeit des Malprogramms The Painting Fool (2006 entwickelt vom Informatiker Simon Colton) von den Meldungen beeinflusst, die der „automated painter“ (Colton et al. 2015) am jeweiligen Tag in der Tageszeitung The Guardian ‚gelesen‘ hat. Dadurch kann das Programm so schlechter ‚Laune‘ sein, dass es die Arbeit an einem Porträt abbricht (Miller 2019, 123). Je nach ‚Stimmung‘ wählt das Programm Stil, Hintergrund und Farbschema des Bildes aus und berücksichtigt dabei auch den Gesichtsausdruck einer zu porträtierenden Person. Ein Ziel des Kunstprojekts war es zu ermitteln, ob die Software wie ein:e menschliche:r Künstler:in in emotionale Schwierigkeiten geraten kann (to struggle) (Miller 2019, 125) – das heißt, ob die häufig thematisierte und fest mit der Erzählung vom:von der Künstler:in ver-

KI-Kunst: Künstlertum – Schöpfung – Originalität 

 289

bundene Möglichkeit des Scheiterns (z.  B. Rieger 2000, 24–25) und der Anteil von Emotionen an dieser Erfahrung künstlich repliziert werden können. Andere Projekte beharren dagegen auf dem fundamentalen Unterschied zwischen Berechnung und Emotion als Marker eines menschlichen Kunstschaffens  – als Beispiel wäre hier die Roboterkünstlerin Ai-Da zu nennen, die selbst Interviews gibt, dabei aber immer wieder betont, dass sie keine Emotionen habe wie Menschen (Brown 2021). Indem gleichzeitig der künstlerische Wert der Erzeugnisse von Ai-Da herausgestellt wird (Ai-da Homepage 2019), werden Individualität, Authentizität und Originalität, wie sie oft mit dem Konzept der künstlerischen Schöpfung verbunden werden, als Bedeutungs- und Wertekategorie hinterfragt.

3 Originalität und Werkhaftigkeit Die Simulationsszenarien der KI-Kunst weisen einen mehr oder weniger großen Anteil an Imitation auf. Obwohl imitatio und aemulatio im vormodernen Verständnis wichtige Bestandteile der Künstler:innenausbildung waren, galt seit dem späten 18. Jahrhundert das Paradigma der Originalität (Krieger 2007, 20). Schon der von Benjamin diagnostizierte Verlust der ‚Aura‘ des Kunstwerks im Zeitalter seiner technischen Reproduzierbarkeit markiert jedoch eine Tendenz weg von der Verpflichtung auf das künstlerische Original. Gesteigert wird diese Entwicklung durch die Hinterfragung von Konzepten wie Autorschaft oder Originalität in der Postmoderne (Von Rosen 2020, 122). Mit der Verbreitung digitaler Bilder, die sich durch Virtualität, Reproduzierbarkeit und damit Nicht-Einmaligkeit auszeichnen, ist die Unterscheidung von Original und Kopie vollends obsolet: „Die Idee des Originals ist dem Digitalen fremd. Eine solche Idee setzt voraus, dass eine Kopie sich von der Urform unterscheiden ließe; das aber ist hier nicht der Fall.“ (Rauterberg 2021, 80) Dennoch wird im Diskurs über KI-Kunst an der Originalität des ästhetischen Erzeugnisses als einer Kategorie festgehalten, die den Wert dieser neuartigen Kunst nachweisen kann – und zwar in der Rhetorik traditioneller Kunstdiskurse. Unter dieser Prämisse werden die Produkte von KI-Kunstprojekten immer wieder an der Grenze zur Täuschung bzw. sogar zur Fälschung betrachtet. 2016 stellte das Gemeinschaftsprojekt The Next Rembrandt ein Porträt vor, das von einem Algorithmus auf der Basis von 346 Rembrandt zugeschriebenen Porträts erstellt und dann als 3D-Druck hergestellt wurde, der die  – ebenfalls errechnete  – Pinselführung und den Farbauftrag von Rembrandt nachbildet (Kreye 2016). In zahlreichen Berichten wurde das Ergebnis als „Fälschung“ bezeichnet (z.  B. Jones 2016). Auch Dobler kritisiert Projekte, die neue Werke auf der Basis von bereits existierenden Werken bekannter Künstler:innen errechnen, als „Fälschungen, die das Bild

290 

 Juliane Blank

der Vergangenheit verzerren“ (2020, 101). Solche Einschätzungen übersehen jedoch, dass es bei diesen Projekten nicht darum geht, ein Werk als ‚echt‘ bzw. als Original zu verkaufen. Es handelt sich eben nicht um „Neuschöpfungen, mit denen im Wege des imitierenden Einsatzes bestimmter Eigenschaften (u.  a. charakteristische Stilmittel oder Inhalte) vorgeblich O[riginale] eines bestimmten Künstlers hergestellt werden“ (Von Rosen 2019, 120). Der Name des:r Künstler:in wird zwar verwendet, um größere Aufmerksamkeit für das Projekt zu generieren und es in der öffentlichen Wahrnehmung durch die Anknüpfung an Traditionen mit hohem kulturellem Status aufzuwerten. Bisher gibt es aber keine bekannten Fälle, in denen mit KI erzeugte Kunst tatsächlich in betrügerischer Absicht als Werk des nachgeahmten Künstlers präsentiert wurde, ohne gleichzeitig die Genese und den Status des Bildes aufzudecken. Insofern könnten die ‚Fälschungen‘ durch KI auch in der Tradition der „Appropriation Art“ betrachtet werden, die sich Werke bekannter Künstler:innen durch mehr oder weniger sichtbar gemachte Reproduktion ‚aneignet‘ und dennoch als ‚echt‘ wahrgenommene Bilder produziert (Von Rosen 2019, 122). Die auch als „Fake Art“ bezeichnete Strömung zielte darauf ab, „sich vom klassischen Originalitäts- und Innovationsbegriff der Moderne zu emanzipieren“ (Keazor 2015, 13), indem sie Zuschreibungen von Original und Kopie verunsichert. Es geht dabei eben nicht darum, Rezipient:innen zu täuschen (und möglicherweise zum Kauf eines Werks unter Vortäuschung falscher Tatsachen zu überreden), sondern darum, Diskussionen über die Produktion und Rezeption von bildender Kunst anzustoßen. Genau das, könnte man argumentieren, tun KIKunstprojekte wie The Next Rembrandt auch. Mithin wäre der Umgang mit der malerischen Tradition und ihren ‚Originalen‘ aus Sicht der Kunstgeschichte weder so neuartig noch so skandalös, wie im öffentlichen Diskurs häufig behauptet wird. In Anbetracht der Diskrepanz zwischen kunsthistorischer Präzedenz und öffentlicher Empörung lautet die Frage also: Wer fühlt sich hier betrogen und um was? Der Mathematiker Marcus du Sautoy entwirft in seinem Buch Der Creativity-Code das Szenario einer emotionalen Reaktion auf Kunstwerke. Wenn Betrachtende erfahren, dass etwas, was sie bewegt hat, von einer KI erzeugt wurde, so Du Sautoy, werden sich „die meisten Menschen betrogen fühlen, getäuscht oder manipuliert“ (2021, 113). Er begründet diese Reaktion mit der populären Annahme, dass Kunst eine direkte Teilhabe an der Erfahrungswelt und dem Empfinden eines:r Künstler:in und somit eine zutiefst menschliche Verbindung ermögliche. Wenn einer der Akteur:innen dieses hypothetischen Austauschs eine Maschine ist, wird damit vorgeführt, dass solche Vorstellungen Projektionen sind und dass wir, wenn wir Kunst betrachten, eher „unerschlossene Bereiche unseres eigenen Bewusstseins erforschen.“ (2021, 113) Ein Punkt, der im Kontext des ‚Betrugs‘ ebenfalls oft genannt wird, ist die fehlende Berücksichtigung und Anwendung der Tradition – das mangelnde Wissen um den Einfluss und die Wirkung des verwendeten ‚Materials‘, die menschliches

KI-Kunst: Künstlertum – Schöpfung – Originalität 

 291

(historisches) Bewusstsein erfordern würde (Sudmann 2021, 88; Bogost 2019). Mit anderen Worten: Die KI weiß nicht, was Kunst ist und erst recht nicht, was sie (für den Menschen) bedeutet. Sie ‚erschleicht‘ sich also, radikal formuliert, den Zugang zur Kunst über reine Daten. Rauterberg wirft die Frage auf, ob für menschliche Akteur:innen wirklich andere Voraussetzungen gelten, wenn er provokant bemerkt: „Es gibt noch längst keine künstliche Intelligenz, die tatsächlich wüsste, was Kunst ist. Andererseits ergeht es den meisten Menschen nicht anders.“ (Rauterberg 2021, 17) In diesem, aber nur in diesem Sinne des mangelnden historischen Bewusstseins könnte man KI-Kunst als ‚Verzerrung der Vergangenheit‘ betrachten, wie sie Dobler beklagt. Akut kulturbedrohend würde eine solche ‚Verzerrung‘ allerdings erst, wenn tatsächlich menschliches Wissen und Traditionsbewusstsein vollständig durch eine autonom arbeitende KI ersetzt würde. Dieses Szenario ist jedoch auf dem aktuellen Stand der KI-Technologien ein hypothetisches. Besonders kritisch auf ihre Originalität überprüft werden jene Projekte, die aus einem riesigen Datenset von traditionellen Gemälden neue Bilder ‚errechnen‘. Die Frage lautet dabei häufig: Wie originell, d.  h. neuartig und unvorhersehbar, kann ein Bild sein, das – wie im Fall von The Next Rembrandt – das Ergebnis der Summe von 346 für Rembrandt Porträts typischen Nasen, Augen, Bärten und Kleidungsstücken ist? Diese kritische Position ist verankert in einer Vorstellung von Kunstschaffen unter der Bedingung absoluter Originalität – als creatio ex nihilo. Diesem Konzept von demiurgischer Schöpfung attestiert der Medienwissenschaftler Dieter Mersch in seinem Aufsatz Kreativität und künstliche Intelligenz ein „naive[s] Kunst- und Kreativitätsverständnis“ (Mersch 2019, 72) und verweist darauf, dass Kunst nicht einfach nur beziehungslos Neues generiert, sondern stets zurückgebunden bleibt an „ein Ganzes, das die existenziellen wie kulturellen Bedingungen des Humanen und seiner Grenzen inkludiert“ (Mersch 2019, 74). Diese Beobachtung ist besonders produktiv für KI-Kunstprojekte, die mit GANs arbeiten, die wiederum mit Datensätzen klassischer Gemälde trainiert werden. Solche Projekte präsentieren als Ergebnisse häufig Bilder, die der Ästhetik der gegenständlichen Malerei oder Zeichnung entsprechen. Mediengeschichtlich ließe sich diese Phase der KI-Kunst auch mit der Bewegung des Pictorialism in der Fotografie des späten 19. Jahrhunderts vergleichen, die ebenfalls durch stilistische Anleihen an die Malerei eine gesteigerte „Kunsthaftigkeit“ (Rauterberg 2021, 50) nachzuweisen versuchte, um dem Vorwurf der rein maschinellen Bildproduktion durch die Kamera zu begegnen. Bezeichnend ist zum einen die Rückwendung zur Kunst der sogenannten „Alten Meister“, zum anderen aber auch die Fixierung des Schaffensprozesses im abgeschlossenen Werk. Rauterberg deutet die Rückwendung zur Kunst der sogenannten ‚Alten Meister‘ als eine Möglichkeit, dem „klassische[n] Vorwurf, so etwas Einfallsloses und handwerklich Unbedarftes könne doch jedes Kind hervorbringen“, entgegenzuwirken, mit dem Laien oft auf abstrakte Kunst reagieren: „Der Kunstcode der Computer

292 

 Juliane Blank

muss geradezu zwingend eine Form von Virtuosität aufweisen, die bei Künstlern ansonsten oft als gestrig und überwunden gilt.“ (2021, 47) Der Bezug auf die Ästhetik des traditionellen Tafelbildes spricht dafür, dass hier das Wirken eines schöpferischen Geistes so simuliert werden soll, dass das Ergebnis mit populären und breitenwirksamen Vorstellungen von Künstlertum und Kunstschaffen abgeglichen werden kann. Diese Vorstellungen fallen häufig hinter die Debatten der Kunsttheorie des 20. Jahrhunderts zurück und beharren auf dem „Individualkult des kreativ talentierten Genies und damit des aus sich selbst Schöpfenden“ (Wetzel 2000, 481). Wenn man mit Mersch davon ausgeht, dass die Vorstellung einer creatio ex nihilo naiv und unangemessen ist, dann liegt schon im Prozess der Selektion, Anordnung und Ausgabe von Informationen in einer vorher nicht existierenden Form ein Moment der Originalität, unabhängig von der Herkunft der Ursprungsdaten. So betont auch Oßwald-Hoffmann mit Blick auf die vielbesprochene Porträtreihe der Belamy: „Zwar schuf die KI ihr Werk basierend auf den vorher eintrainierten, altmeisterlichen Bildstrategien und gesteuert von ihren von menschlichen Programmierern erstellten Algorithmen, das Produkt aber war ihr eigenes, einmaliges Werk und in diesem Sinne auch ein Original“ (Oßwald-Hoffmann 2021, 25). Der hier anklingenden These, dass KI im Bereich der Schöpfung gegenständlicher Kunst nur im ‚schwachen‘ Sinne originell sein könne, wäre die häufige Betonung einer ‚starken‘ Fähigkeit von KI zur stilistischen Innovation im Bereich der Abstraktion gegenüberzustellen. Wie in Abschnitt 1 erwähnt, betont der Informatiker Ahmed Elgammal die Agency des von ihm mitentwickelten Algorithmus AICAN und verweist auf dessen Fähigkeit, mit seinen Erzeugnissen zu überraschen. Der Aspekt der Originalität wird hier aus der besonderen technologischen Versuchsanordnung abgeleitet. Auch AICAN arbeitet mit GANs bzw. CANs (creative adversarial networks) – diese sind aber im Gegensatz zu den GANs, die das Porträt des Edmond de Belamy erzeugt haben, nicht auf stilistische Ununterscheidbarkeit, sondern dezidiert auf Innovation und stilistische Neuartigkeit programmiert: Vom discriminator positiv bewertet und ausgewählt werden solche Erzeugnisse, die im Vergleich zu den Trainingsdaten innovativ sind und sich von diesen abheben. Zu beobachten ist, dass sich KI-Kunstprojekte, die der KI eine starke Originalität zusprechen, gleichzeitig von den Traditionen des populären Kunstdiskurses und seiner auf den:die Künstler:in und sein:ihr Werk fokussierten Rhetorik lösen. Gegen die Vorstellung abgeschlossener Werkhaftigkeit arbeiten z.  B. Künstler:innen wie Mario Klingemann, der in seiner Installation Memories of Passersby I (2018) den Prozess der KI-gesteuerten Bilderzeugung in Echtzeit sichtbar macht, statt dessen Ergebnisse zu fixieren. Dabei betont Klingemann, dass das erwünschte Resultat dieses Prozesses ein Effekt des Interessanten ist, den er dezidiert mit Neuartigkeit verbindet (Klingemann 2018). Jake Elwes’ Installation Latent Spaces (2017) zielt sogar explizit darauf ab, den Raum des Unfertigen zu erkunden, in dem die KI trainiert

KI-Kunst: Künstlertum – Schöpfung – Originalität 

 293

wird. Als „latent space“ bezeichnen Elwes, aber auch andere KI-Künstler:innen (Klingemann 2018) den vollständig ungesteuerten mathematischen Raum, aus dem der generator eines GANs Bilder erzeugt. Nach einer ersten Trainingsphase durch den discriminator, die allerdings nur die Rückmeldung beinhaltet, ob die Ergebnisse auf der Basis der Trainingsdaten grundlegend als Kunst gelten könnten, wird der generator vom discriminator ‚befreit‘, produziert aber weiterhin Bilder. Die abstrakten Ergebnisse dieses Prozesses, die Elwes als ‚Träumen‘ bezeichnet (Miller 2019, 96–97), werden ebenfalls als fortlaufende Sequenz präsentiert und nicht als fixierte Bilder. Der Aspekt der Freiheit, den die Entwickler:innen und Künstler:innen solchen Projekten zuschreiben, betrifft zunächst die soeben geschilderte technologische Weiterentwicklung von generator und discriminator in GANs. Auf einer höheren Ebene steht er aber auch in einem Zusammenhang mit der Loslösung von traditionellen Kunstdiskursen und ihren Wertekategorien. Dass der Weg in die Abstraktion führt, ist aus kunsthistorischer Sicht nicht überraschend – schließlich war es die abstrakte Malerei, die Anfang des 20. Jahrhunderts schon einmal alle Paradigmen der bildenden Kunst über den Haufen geworfen hat. Ein ähnlicher Paradigmenwechsel in Bezug auf die Wahrnehmung und Bedeutung von Kunst ist, zumindest wenn man den KI-Künstler:innen glauben will, auch von der KI-Kunst zu erwarten – und sei es erst in der (noch) hypothetischen Zukunft einer starken KI mit tatsächlicher künstlerischer Agency.

4 Ausblick KI-Kunst wird im öffentlichen Diskurs unter Anwendung einer starken Künstlerrhetorik diskutiert – obwohl diese Rhetorik weder zu den Erzeugnissen passt noch auf der Höhe der aktuellen Kunsttheorie ist. In der Diskussion um KI-Kunst wird künstlerisches Schaffen unter den Vorzeichen populärer Narrative diskutiert, die letztlich aus dem Geniekult des 19. Jahrhunderts stammen (Mersch 2017, 73). Die immer wieder geführten Debatten um das Künstlertum des „Maler[s] KI“, ihre künstlerische Agency, ihr Schöpfungsvermögen sowie die Originalität und Werkhaftigkeit der mit Hilfe von KI erzeugten ästhetischen Produkte gehen zudem am aktuellen Stand der technologischen Entwicklung von KI vorbei. Dass in diesen Wertekategorien über KI-Kunst gesprochen wird, sagt weniger über die KI-Kunst und ihre Entwicklungen aus als über die Vorstellungen von Kunst als „letzter Bastion“ des Menschlichen. Dabei werden traditionelle und populäre Wertekategorien, die aus dem Geniediskurs abgeleitet wurden, immer wieder herangezogen, um den Kunststatus von KI-Kunst entweder zu legitimieren oder – häufiger  – sie in diesen Kategorien zu disqualifizieren. Was durch KI-Kunst zu

294 

 Juliane Blank

Schaden kommt, ist die geradezu „metaphysische Position“ des Künstlers als Schöpfer (Wetzel 2000, 481), an der der populäre Diskurs so gern festhält. Benjamin stellt in Das Kunstwerk im Zeitalter seiner technischen Reproduzierbarkeit in Bezug auf die Fotografie fest, dass man „vielen vergeblichen Scharfsinn an die Entscheidung der Frage gewandt [habe], ob die Photographie eine Kunst sei – ohne die Vorfrage sich gestellt zu haben: ob nicht durch die Erfindung der Photographie der Gesamtcharakter der Kunst sich geändert habe“ (1977, 22). Angesichts der Beharrlichkeit, mit der KI-Kunst an den diskursiven Kategorien traditioneller Malerei gemessen wird, um ihre ‚Kunsthaftigkeit‘ nachzuweisen, könnte man sich fragen, ob hier nicht dasselbe gilt.

Literaturverzeichnis o.V. „Is artificial intelligence set to become art’s next medium?“. https://www.christies.com/ features/a-collaboration-between-two-artists-one-human-one-a-machine-9332-1.aspx. Christie’s. 12.12.2018 (16. August 2022). Ai-Da. Homepage. https://www.ai-darobot.com/about. 2019 (16. August 2022). Bajohr, Hannes. „Malen nach 0 und 1“. republik.ch/2022/05/07/malen-nach-0-und-1. Republik 7.5.2022 (15. August 2022). Blank, Juliane. „Die Erschaffung des Schöpfers: Konstruktionen des Künstlers in der Kunstliteratur des 18. Jahrhunderts“. KulturPoetik 21.1 (2021): 4–25. Benjamin, Walter. Das Kunstwerk im Zeitalter seiner technischen Reproduzierbarkeit. Frankfurt am Main 1977 [zuerst 1935]. Bitkom/DFKI (Hrsg.): Künstliche Intelligenz: Wirtschaftliche Bedeutung, gesellschaftliche Herausforderungen, menschliche Verantwortung. Berlin 2017. Bogost, Ian. „The AI-Art Gold Rush Is Here“. https://medium.com/@ibogost/the-ai-art-gold-rush-ishere-a3dda143563. Medium.com 6.3.2019 (15. August 2022). Brown, Mark. „‚Some people feel threatened‘: face to face with Ai-Da the robot artist“. https://www. theguardian.com/culture/2021/may/18/some-people-feel-threatened-face-to-face-with-ai-dathe-robot-artist. The Guardian 18.5.2021 (1. September 2022). Colton, Simon et al. „The Painting Fool Sees! New Projects with the Automated Painter“. https://www. researchgate.net/publication/282656282_The_Painting_Fool_Sees_New_Projects_with_the_ Automated_Painter. Conference Paper 2015 (6. September 2022). Dobler, Ralph-Miklas. „Grenzen“. Künstliche Intelligenz: Interdisziplinär. Hrsg. von Nicole Brandstetter, Ralph-Miklas Dobler und Daniel Jan Ittstein. München und Tübingen 2020: 98–106. Dotzler, Bernhard J. und Cornelia Oßwald-Hoffmann. „Künstler*innen-Statements“. Götzendämmerung: Kunst und Künstliche Intelligenz. Hrsg. von Bernhard Dotzler und Karpat Berkan. Bielefeld 2021: 129‒143. Du Sautoy, Marcus. Der Creativity-Code: Wie künstliche Intelligenz schreibt, malt und denkt. München 2021. Jacobs, Steven. Framing Pictures: Film and the Visual Arts. Edinburgh 2011. Jones, Jonathan. „The digital Rembrandt: a new way to mock art, made by fools“. https://www. theguardian.com/artanddesign/jonathanjonesblog/2016/apr/06/digital-rembrandt-mockart-fools. The Guardian 6.4.2016 (2. September 2022).

KI-Kunst: Künstlertum – Schöpfung – Originalität 

 295

Krewani, Angela. „Technische Welten, Kunst und Künstliche Intelligenz“. Götzendämmerung: Kunst und Künstliche Intelligenz. Hrsg. von Bernhard Dotzler und Karpat Berkan. Bielefeld 2021: 69–83. Kreye, Andrian. „Ein echter Rembrandt – aus dem Rechner“, https://www.sueddeutsche.de/kultur/ kuenstliche-intelligenz-ein-echter-rembrandt-aus-dem-rechner-1.2949787. Süddeutsche Zeitung 16.4.2016 (2. September 2022). Kampmann, Sabine. Künstler sein: Systemtheoretische Beobachtungen von Autorschaft: Christian Boltanski, Eva & Adele, Pipilotti Rist, Markus Lüpertz. München 2006. Karpat, Berkan und Rainer Ludwig. „Nahe dem Tannhäuser Tor“. Götzendämmerung: Kunst und Künstliche Intelligenz. Hrsg. von Bernhard Dotzler und Karpat Berkan. Bielefeld 2021: 11–15. Keazor, Henry. Täuschend echt! Eine Geschichte der Kunstfälschung. Darmstadt 2015. Klingemann, Mario. Quasimondo. Homepage des Künstlers. https://underdestruction.com/about/ (16. August 2022). Klingemann, Mario. „Instruments of Creation: Art in the Age of Artificial Production“. https://zkm. de/de/media/video/encoding-cultures-mario-klingemann-schoepfungswerkzeuge. Zentrum für Kunst und Medien Karlsruhe 2018 (25. August 2022). Kris, Ernst und Otto Kurz. Die Legende vom Künstler: Ein geschichtlicher Versuch. Mit einem Vorwort von Ernst H. Gombrich. Frankfurt am Main 1980 [zuerst 1934]. Krieger, Verena. Was ist ein Künstler? Genie, Heilsbringer, Antikünstler. Eine Ideen- und Kunstgeschichte des Schöpferischen. Köln 2007. Lenzen, Manuela. Künstliche Intelligenz: Was sie kann und was uns erwartet. München 2018. Mersch, Dieter. „Kreativität und künstliche Intelligenz: Einige Bemerkungen zu einer Kritik algorithmischer Rationalität“. Zeitschrift für Medienwissenschaft 11.2 (2019), S. 65–74. Miller, Arthur I. The Artist in the Machine: The World of AI-Powered Creativity. Cambridge, MA 2019. Oßwald-Hoffmann, Cornelia. „Life’s but a walking shadow: Ein Rundgang durch die virtuelle Ausstellung“. Götzendämmerung: Kunst und Künstliche Intelligenz. Hrsg. von Bernhard Dotzler und Karpat Berkan. Bielefeld 2021: 17–65. Rauterberg, Hanno. Die Kunst der Zukunft: Über den Traum von der kreativen Maschine. Frankfurt am Main 2021. Rauterberg, Hanno. „Malende Maschinen“. https://www.zeit.de/2019/52/kuenstliche-intelligenzkunst-algorithmen?utm_referrer=https%3A%2F%2Fwww.google.com%2F. DIE ZEIT 11.12.2019 (15. August 2022). Rieger, Angelica. Alter ego: Der Maler als Schatten des Schriftstellers in der französischen Erzählliteratur von der Romantik bis zum Fin de siecle. Köln et al. 2000. Rieger, Stefan. „‚Bin doch keine Maschine …‘ Zur Kulturgeschichte eines Topos“. Machine Learning – Medien, Infrastrukturen und Technologien der Künstlichen Intelligenz. Hrsg. von Christoph Engemann und Andreas Sudmann. Bielefeld 2018: 117–142. Von Rosen, Philipp. „Fälschung und Original“. Metzler Lexikon Kunstwissenschaft: Ideen, Methoden, Begriffe. Hrsg. von Ulrich Pfisterer. Stuttgart, Weimar 2019: 120–123. Sudmann, Andreas. „Computerkreativität: Maschinelles Lernen und die Künste Künstlicher Intelligenzen“. Götzendämmerung: Kunst und Künstliche Intelligenz. Hrsg. von Bernhard Dotzler und Karpat Berkan. Bielefeld 2021: 85‒98. Sudmann, Andreas. „KI-Fantasien: Kommt jetzt der Terminator mit Pinsel. https://www.creativecity-berlin.de/de/ccb-magazin/2019/2/8/andreas-sudmann-ki-forschung/.?“ CBB Magazin 8.2.2019 (16. August 2022).

296 

 Juliane Blank

Schröter, Jens. „Artificial Intelligence and the Democratization of Art“. The Democratization of Artificial Intelligence: Net Politics in the Era of Learning Algorithms. Hrsg. von Andreas Sudmann. Bielefeld 2020: 297‒311. The Next Rembrandt. https://www.nextrembrandt.com/ (5. September 2022). Tresset, Patrick. „Patrick Tresset introducing Paul the sketching Robot“. https://www.youtube.com/ watch?v=4u0D57kqA1A. YouTube 9.8.2012 (16. August 2022). Wetzel, Michael. „Autor/Künstler“. Ästhetische Grundbegriffe: Historisches Wörterbuch in sieben Bänden. Bd. 1: Absenz‒Darstellung. Hrsg. von Karlheinz Barck. Stuttgart und Weimar 2000: 480‒544. Zylinska, Joanna. AI Art: Machine Visions and Warped Dreams. London 2020.

Stephanie Catani

Künstliche Intelligenz und Kreativität Im angloamerikanischen Bereich hat sich seit einigen Jahren der Begriff Computational Creativity etabliert – als ein Teilbereich Künstlicher Intelligenz und maschinellen Lernens, der sich mit dem kreativen Potenzial computerbasierter Prozesse auseinandersetzt. So veranstaltet die International Association for Computational Creativity (ACC) seit 2010 alljährlich die International Conference on Computational Creativity (ICCC), im Rahmen derer sowohl aktuelle Ergebnisse aus der Forschung zu kreativen generativen Verfahren vorgestellt als auch neue technische Verfahren für die kreative Praxis vorgeführt werden. Eine deutsche Entsprechung hat der Begriff bislang nicht gefunden, vielleicht auch deshalb, weil Computer und Kreativität hier mit noch stärkeren Vorbehalten zusammengedacht werden und der Kreativitätsdiskurs insgesamt auf eine, wie Hannes Bajohr pointiert, „durchaus diskussionswürdige Autonomie- und Genieästhetik“ (2022, 178) zurückverweist. Geprägt ist die Diskussion um die „kreative Macht der Maschinen“ (Volland 2018) zudem von einer vollkommen intransparenten Begriffsbestimmung. Ganz richtig stellt Philipp Schönthaler, der einen konzisen Überblick über die noch junge Geschichte der Kreativität als theoretisches Konzept liefert, mit Bezug auf den KI-Diskurs der Gegenwart fest, dass Kreativität „als biologische, technische und ästhetische Kategorie einen ähnlich schwammigen Begriff wie die Intelligenz darstellt“ (2022, Kap. 9). Unübersehbar ist, dass der Kreativitätsbegriff dort, wo (populär-)wissenschaftliche Studien, wissenschaftsvermittelnde oder journalistische Beiträge auf computerbasierte Kunst eingehen, nahezu reflexartig bemüht, dabei aber nicht selten gegen die Leistungsfähigkeit generativer Verfahren ausgespielt wird. Dabei wird eine Begriffsdefinition zugrunde gelegt, die Kreativität mit Blick auf die Unterscheidung von menschlicher und maschineller Leistungsfähigkeit ex negativo definiert, wie die Wissenschaftsjournalistin Manuela Lenzen herausgestellt hat: „Manche definieren Kreativität gerade als das, was sich nicht fassen und vor allem nicht algorithmisieren lässt: Wenn es ein Algorithmus kann, ist es nicht mehr kreativ“ (Lenzen 2018, 121). Zweifel an den kreativen Fähigkeiten von KI-Modellen gehen dabei einher mit dem Unwillen, diesen künstlerische Qualitäten zuzusprechen, denn: „Kunst gilt hier als Evidenz für Kreativität“ (Scorzin 2021). Kreativität, so verstanden, ist gerade nicht erlernbar (und schon gar nicht durch Computerprogramme), sondern verweist auf ein Künstler:innen-Modell, das neben Genialität und Originalität auch die Attribute Individualität und Authentizität für sich beansprucht – allesamt Aspekte, die den Menschen gegenüber der absichts- und interesselosen Maschine vermeintlich auszuzeichnen scheinen (siehe hierfür auch Catani 2022, 250–253). https://doi.org/10.1515/9783110656978-018

298 

 Stephanie Catani

1 Kreativität: Bestimmungsversuche Auch wenn keine einheitliche Definition von Kreativität existiert, so scheint man sich darin einig zu sein, dass sie eine genuin menschliche Qualität bezeichnet. So heißt es etwa einleitend in Eders programmatischer Studie Homo Creans: „Der anthropologische Kernbegriff der Kreativität gilt als zentrales Wesensmerkmal des Menschen, als Inbegriff des Schöpferischen und der menschlichen Kultur, der komplexes Wissen generieren kann“ (2016, 13). Mit Eder ist das Kreative vom „kreativen Protagonisten“, von seinen Prozessen der „Selbsterfahrung, Selbsterkenntnis, Selbstgestaltung und Weltgestaltung“ sowie seinen „Haltungen und Persönlichkeitseigenschaften“ (2016, 18) nicht zu trennen; tatsächlich, schlussfolgert sie, „beschreibt Kreativität weniger einen Innovationsmechanismus als vielmehr eine grundsätzliche Lebenshaltung“ (Eder 2016, 18). Dass das Kreative nicht allein als Ausstellungsmerkmal originaler (und humaner) Kunst fungiert, sondern zum Gütesiegel menschlicher Freiheit schlechthin avanciert, findet sich bereits programmatisch erfasst in Joseph Beuys Gleichung Kunst = Mensch = Kreativität = Freiheit (Harlan et al. 1976, 59). Beuys beschwört die Kreativität als anthropologisches Merkmal des Menschseins; in ihr, schlussfolgert der Künstler, liege nicht nur die Quelle der Kunst begründet, sondern „die einzig revolutionäre Kraft“, an der sich „der Mensch als primärgeistiges Wesen erfährt“ (Harlan et al. 1976, 59). Auch der Soziologe und Kulturwissenschaftler Andreas Reckwitz hat in seinen einflussreichen Studien zum Kreativitätsdiskurs nachvollzogen, dass Kreativität keine spezifische Eigenschaft, sondern vielmehr ein allgemeinmenschliches Ideal darstelle. Er betont dabei die doppelte Bedeutung des Begriffs, der zunächst auf die Fähigkeit verweise, „dynamisch Neues hervorzubringen […], nicht als einmaliger Akt […], sondern als etwas, das immer wieder und auf Dauer geschieht“ (Reckwitz 2019, 10). Darüber hinaus unterstreicht er, dass das mit dem Begriff bezeichnete Moment des „Schöpferischen“ emotional aufgeladen sei. Kreativität meine daher nicht allein eine „rein technische Produktion von Innovationen, sondern […] die sinnliche und affektive Erregung durch das produzierte Neue“. Zugleich, argumentiert Reckwitz weiter, werde das „ästhetisch Neue […] mit Lebendigkeit und Experimentierfreude in Verbindung gebracht, und sein Hervorbringer erscheint als ein schöpferisches Selbst, das dem Künstler analog ist“ (2019, 10). Das Moment des Schöpferischen, Originalen ist folglich im gleichen Maße an die Vorstellung von Kreativität gebunden wie die Idee eines:r Künstler:in, der:die vom eigenen Schaffensprozess ebenso affektiv angesprochen wird wie seine:ihre Rezipient:innen. Reckwitz zeichnet in seiner Studie einen historischen Prozess nach, im Zuge dessen Kreativität, vom 18. bis ins zweite Drittel des 20. Jahrhunderts zunächst noch „auf kulturelle und soziale Nischen beschränkt“ (2019, 13), sukzessive zu einer allgemeinen gesellschaftlichen Forderung avanciert. In spätmodernen Zeiten umfasse

Künstliche Intelligenz und Kreativität 

 299

Kreativität als Begleiterscheinung des Kapitalismus des 20. Jahrhunderts demnach eine „Dopplung von Kreativitätswunsch und Kreativitätsimperativ“ als Resultat subjektiver Identitätsentwürfe wie sozialer Erwartung gleichermaßen: „Man will kreativ sein und soll es sein“ (Reckwitz 2019, 10). Die Übertragung kreativer Prozesse auf Maschinen lässt sich auf den ersten Blick als Teil dieser gesellschaftlichen Entwicklung verstehen, die eine Vereinnahmung der Kreativität durch die Ökonomie und die von Reckwitz konstatierte, spätmoderne „Normalisierung der kreativen Praxis und des kreativen Selbst“ (Reckwitz 2016, 197) ausstellt. Zugleich aber scheint die Vorstellung einer ‚künstlichen‘ Kreativität unvereinbar zu sein mit der noch immer geltenden Annahme, Kreativität sei Ausdruck von Intentionalität und Subjektivität, die jeweils zum Menschen als einzig möglichem Kunstschaffenden zurückführen.

2 Kreativität im Zeichen der ‚Maschine‘ Mit dem Aufkommen KI-basierter Kunst wird Kreativität mit noch größerem Nachdruck als spezifisch menschliche Qualität herausgestellt: So spricht etwa Marcus du Sautoy, ein britischer Mathematiker und Wissenschaftsvermittler der Universität Oxford, von einem human code, der sich gerade über die Fähigkeit definiere, „to imagine and innovate and to create works of art that elevate, expand and transform what it means to be human“ (2019, 3). Du Sautoy veröffentlichte 2019 die Studie The Creativity Code, die nach der Relevanz von KI-Prozessen für die Kunst der Gegenwart fragt. Kreativität als Fähigkeit, Kunst zu schaffen, avanciert auch bei ihm zum anthropologischen Merkmal des Menschseins, das erst die Demarkationslinie zum intelligenten System anzeigt. Der human code, befürchtet der Mathematiker, stehe nun im Angesicht von Verfahren künstlicher kreativer Intelligenz auf dem Spiel. Im gleichen Jahr fragt auch der britische Wissenschaftstheoretiker und Historiker Arthur I. Miller in seiner Studie The Artist in the Machine programmatisch nach dem humanoiden Potenzial computerbasierter Kreativität: „Will Computers ever think like us? Could they ever have flashes of inspiration like we do or come up with mad ideas? Could they invent something no one ever thought of before and never thought was needed? Could they dream up the plays of Shakespeare?“ (2019, xxi). Tatsächlich relativiert Miller das einleitend aufgeworfenen Konkurrenzverhältnis zwischen ‚künstlicher‘ und menschlicher Kreativität gleich im Anschluss: „Or do they [die Computer, S. C.] need to? Perhaps they will function in totally other ways than human beings, come up with ideas just as great or solutions just as effective but different from the ones we would come up with“ (2019, xxi). Miller liefert nicht nur einen breiten Überblick über zeitgenössische

300 

 Stephanie Catani

Experimente mit KI-generierter Kunst, sondern legt seiner Studie Interviews mit verschiedenen Künstler:innen und KI-Forscher:innen zugrunde. Damit macht er zum einen den künstlerischen Umgang mit KI-Verfahren als kreativen Prozess sichtbar und betont zum anderen, dass wir es dabei mit kooperativen Prozessen zu tun haben und es wenig Sinn macht, einen allein an menschlichen Erfahrungswerten und Erwartungshaltungen ausgerichteten Begriff der Kreativität auf KIModelle zu übertragen (Miller 2019, 265). Hinter Millers Unterscheidung zwischen dem kreativen Potenzial künstlicher und menschlicher Intelligenz fallen zahlreiche Ausführungen, die sich in den letzten Jahren dem Thema KI-basierter Kreativität und KI-generierter Kunst gewidmet haben, zurück. Hier dominiert die Vorstellung der Maschine als Künstler:in, die zum Frontalangriff auf die Kreativität des Menschen ansetzt. Hintergrund dieser Vorstellung ist ein Verständnis von Kunst, das ihren Sonderstatus an den vermeintlich zutiefst menschlichen Eigenschaften festmacht, die ihr zugrunde liegen: Kunst als „hartnäckig umkämpfte[r] Schutzraum des Menschen“, fasst der Medientheoretiker Stefan Rieger die dominierende kulturpessimistische Verteidigungshaltung zusammen, „muss vor der Annexion des Mechanischen und Algorithmischen geschützt werden“ (2018, 131–132). Pointiert führt Rieger die „Negativsemantik“ der Maschine in der Kulturgeschichte vor, die es schwer mache, Kultur und Maschine als Allianz denken: „Das Mechanische […] steht im Zeichen einer sturen Repetition, einem Verfall an ein stupides und keine Abweichungen duldendes Regelwerk, das positiv besetzten Werten wie Kreativität, Genialität und freiem Selbstausdruck lediglich zur Gegenfolie dient“ (2018, 117). Die diskursbestimmende kulturelle Arroganz der Maschine gegenüber paart sich mit der Furcht vor dem kreativen Automaten, vor der Maschine als Künstler:in. Wir haben schlicht Angst, so zumindest lautet die Überzeugung Riegers, den Turing-Test nicht zu bestehen: „Sind wir in der Lage, etwas von Menschenhand Hervorgebrachtes  – ein Bild, eine Tonfolge, eine Anordnung von Buchstaben – von etwas nicht von Menschenhand Hervorgebrachtem zu unterscheiden?“ (2018, 131). Entsprechend düster sind die Aussichten, die Holger Volland, Informationswissenschaftler, Vizepräsident der Frankfurter Buchmesse und Gründer des digitalen Kulturfestivals The Arts+, bereits in seiner 2018 veröffentlichten populärwissenschaftlichen Studie Die kreative Macht der Maschinen entwirft. Vollands Buch, das Verfahren Künstlicher Intelligenz nicht nur im Untertitel, sondern systematisch anthropomorphisiert, prophezeit eine Zukunft, in der die Maschinen Künstler:innen werden und den Menschen vielleicht sogar „die Kreativität abnehmen“: Das automatisch lernende künstliche System wird bei Volland zum Subjekt erhoben – zu einem „unersättlichen“, heißt es, das sich „unser gesamtes künstlerisches Weltwissen aneignet“ (2018, 28–29), um uns auch in diesem Bereich zu übertrumpfen. (2018, 28–29)

Künstliche Intelligenz und Kreativität 

 301

Diese populärwissenschaftlichen, Prozesse Künstlicher Intelligenz gleichermaßen anthropomorphisierenden wie dämonisierenden Exkurse sind insofern relevant, als sie häufig diskursformierend sind. Dort etwa, wo die Literatur- und Kunstwissenschaft der Gegenwart noch zurückhaltend im Umgang mit KI-basierten Textexperimenten agiert, treten die wissenschaftsvermittelnden Positionen umso stärker hervor und bestimmen die Auseinandersetzung mit neuen ästhetischen Entwürfen zwischen Informationstechnik und Literatur. Veröffentlichungen wie die du Sautoys oder Vollands greifen dabei auf die gleichen, allesamt sehr öffentlichkeitswirksamen Beispiele zurück: Etwa das im Jahr 2017 erschienene Kapitel „The Handsome One“ eines weiteren Harry Potter-Bandes, verfasst von einem Bot, der von der New Yorker Künstlervereinigung Botnik Studios mithilfe der bisher erschienenen Harry Potter-Bände trainiert wurde (Botnik Studios 2018). Oder die KI-basierte Kurzgeschichte The Day a Computer Writes a Novel, die es 2016 in die zweite Runde eines japanischen Literaturwettbewerbs, des Hoshi Shinichi Literary Awards, schaffte. Was bei Volland unter der Kapitelüberschrift „Roboter schreiben Romane“ (2018, 28) zum Sensationsbefund stilisiert wird („Der Autor des Werkes ist tatsächlich ein Computer oder, genauer gesagt, eine Künstliche Intelligenz“), stellt sich bei einem Blick in die wissenschaftliche Publikation zur Entstehung der Kurzgeschichte deutlich differenzierter dar: Weder handelt es sich bei der Geschichte um einen ganzen Roman, wie von Volland angegeben, noch gelangte sie in die „vorletzte Runde“ oder gar „fast ins Finale“ – tatsächlich war sie einer von vier eingereichten KI-basierten Texten im Wettbewerb und der einzige, der eine Runde (von insgesamt vier) überstand (Sato 2016). ‚Ausgedacht‘ hatte sich die Geschichte keine KI, sondern ein Forscherteam, das zunächst einen Plot entworfen und diesen dann in einzelne Bestandteile ‚zerlegt‘ hatte. Mit diesen Plot-Elementen wurde das Programm trainiert, das anschließend unter Berücksichtigung einer ebenfalls vorgegebenen Auswahlmatrix einen ‚neuen‘ Text generierte. Die voreilige Rede von der Maschine als Autor:in, so wird es schon bei diesem frühen Beispiel deutlich, verstellt den Blick für die weitaus komplexere Beschaffenheit einer multiplen Autorschaft, die allenfalls aus einer Kooperation von Mensch und KI-Modell resultiert. Der Medienwissenschaftler Dieter Mersch hat entschieden Einspruch erhoben gegen einen Kreativitätsbegriff, der für Computerkunst in Anspruch genommen wird und dabei, so Mersch, in der Regel einen naiven Kunst- und Kreativitätsbegriff entlarve – gerade dort, wo Kreativität allein auf die „Hervorbringung von ‚Neuem‘“ oder die „Erzeugung und Erkennung ‚überraschender‘ oder ‚interessanter‘ Muster“ (2019, 73) reduziert würde. Dem setzt Mersch einen Kreativitätsbegriff entgegen, der die epistemologische Dimension des Ästhetischen ernst nimmt: „[W]as Kunst allererst zu Kunst macht: Reflexivität als Aufschließung eines anderen Wissens“ (2019, 73). Mersch feiert Kreativität als Prinzip der Freiheit, als Prozess, der nicht

302 

 Stephanie Catani

nur Neues erzeugt, sondern den eigenen Schöpfungsprozess als Kunst mitdenkt: „Kunst ist stets Kunst über Kunst; sie impliziert daher in jedem Akt und Artefakt eine Transformation des Ästhetischen selbst“ (2019, 73). Modelle einer artificial creativity hingegen, argumentiert Mersch weiter, seien an Kontinuitäten orientiert und einem anachronistischen Geniekult des 19. Jahrhunderts verhaftet […], der sich seinerseits einer Vulgarisierung der kantischen Definition des Genies verdankt“ (2019, 73). Merschs Urteil trifft gerade dort zu, wo der Kreativitätsbegriff medienwirksam für KI-basierte Verfahren in Anspruch genommen wird, deren Ziel es ist, menschliche Kunst bestmöglich zu imitieren, und die dabei wenig Raum für die von Mersch eingeforderte selbstreferenzielle Befragung der Kunst lassen. Wie im Fall der eben erwähnten literarischen Versuche oder mit Blick auf das Porträt „Edmond de Belamy“, das als vermeintlich erstes von Künstlicher Intelligenz gemaltes Kunstwerk im Oktober 2018 für mediales Aufsehen sorgte, als es bei Christie’s für 432 500 Dollar versteigert wurde. Bezeichnend war das Urteil des Kunstkritikers Hanno Rauterberg, der über diese „tausendste Adaption von bestimmten Porträtmustern“ festhielt, dass in dem Fall das Bild „viel langweiliger als die Entstehungsgeschichte sei“ (Rahmlow und Rauterberg 2018). Tatsächlich verfügen zahlreiche Werke der generativen Kunst durchaus über die von Mersch eingeforderte selbstreferenzielle Dimension, die sie als ‚kreativ‘ auszeichnet  – dieses ist aber Resultat eines Zusammenspiels von Künstler:in, KI-Modell und Rezipient:in. Beispiele für eine solche ‚kreative‘ KI-Kunst sind etwa jene Projekte, die im vorliegenden Handbuch unter „critical computation“ gefasst sind (siehe auch → Critical Computation) und die sich computertechnologischer Verfahren nicht nur bedienen, sondern diese gleichermaßen selbstreflexiv wie gesellschaftskritisch diskutieren. KI-Kunst agiert als ‚Kunst über Kunst‘ dort, wo sie die Grenzen menschlicher Erkenntnisfähigkeit und ästhetischer Sinnstiftungsverfahren im Rückgriff auf Verfahren Künstlicher Intelligenz reflektiert, die Kooperation von Mensch und KI-Modell in ihren kreativen Möglichkeiten sichtbar macht und zugleich kritisch diskutiert.

3 Unkreative und unoriginale Kunst Die generative Ästhetik KI-basierter Kunst verweigert sich einem tradierten und zugleich normativen Kreativitätsbegriff, der wenig eindeutig ausfällt und dabei streng auf menschliche Schaffensprozesse ausgerichtet bleibt; anschlussfähig erweist sich eine solche Ästhetik hingegen für jüngere Versuche, den Begriff der Kreativität neu zu definieren oder gar ganz in Frage zu stellen. Zu denken ist hier

Künstliche Intelligenz und Kreativität 

 303

an Kenneth Goldsmiths Studie Uncreative Writing (2011), die 2017 auch in einer deutschen Übersetzung erschienen ist. Darin spricht sich Goldsmith, gerade angesichts der Veränderungen, die neue Technologien oder digitale Kommunikationsund Textformen mit sich bringen, von tradierten Vorstellungen des Originalgenies und von einem Kreativitätsbegriff frei, der auf das Hervorbringen von Neuem, nie Dagewesenem, reduziert bleibt. Stattdessen propagiert Goldsmith eine Konzeptkunst, die sich gleichermaßen beeinflusst zeigt von den Avantgarden der Moderne wie von den technologischen Entwicklungen des 21. Jahrhunderts und in der „Autorinnen und Autoren […] eher wie Programmierer denn als traditionelle Schriftsteller“ (2017, 14) agieren. Mit seinen Überlegungen schließt Goldsmith an die Studie Unoriginal Genius der US-amerikanisch-österreichischen Literaturwissenschaftlerin Marjorie Perloff (2010) an, die künstlerische Prozesse weder an Begriffen der Originalität noch der Kreativität festmacht. Stattdessen erhebt Perloff das literarische Zitat, the „language of citation“, zum entscheidenden Werkzeug einer gegenwärtigen Dichtung, die sich im Informationszeitalter und angesichts der Überfülle an bereits existierenden Texten stärker durch Prozesse einer multimedialen récriture und weniger durch Prozesse der Neuerfindung (inventio) auszeichnen müsse: „Inventio is giving way to appropriation, elaborate constraint, visual and sound composition, and reliance on intertextuality“ (2010, 11). Goldsmiths unkreatives Schreiben baut auf der Idee des:der Künstler:in als unoriginal genius auf – und führt zu „Strategien des Kopierens und der Appropriation, […] der Aneignung fremden Textes“ sowie Techniken des „Copy-and-paste“ als „wesentlicher Bestandteil des Schreibprozesses“ (2017, 14–15). So sorgt das unkreative Schreiben für eine Rehabilitierung ursprünglich verpönter Schreibpraktiken, wie sie im Plagiat, im Sampling oder im Patch-Writing zum Ausdruck kommen. Inspiriert ist dieses Schreiben von eben jenen ‚Schreibmaschinen‘, die immer schon schier unüberschaubare Textmengen bewältigen müssen: „Der Computer legt ihnen nahe, so zu arbeiten wie er selbst“ (Goldsmith 2017, 15). Berechtigung hat, Goldsmith zufolge, eine solche Ästhetik, die auf das Unkreative setzt, gerade im digitalen Zeitalter und angesichts der Tatsache, „dass es im Internet diese irrsinnige Dauerschleife gibt, die alles kopierbar macht“ (Goldsmith und Zeh 2018). Perloffs wie Goldsmiths Ansätze eröffnen eine alternative Form des kreativen Schaffens, bei der der Fokus auf der Umgestaltung und Rekontextualisierung bereits vorhandenen Materials liegt, anstatt auf der Erzeugung von etwas völlig Neuem. Dadurch werden traditionelle Vorstellungen von Originalität und Kreativität herausgefordert und es entsteht Raum für innovative literarische Ausdrucksformen. Unkreatives Schreiben und KI-basierte, generative Literatur begegnen sich dort, wo beide die Idee des Konzepts aufwerten. Die beiden literarischen Formen bedie-

304 

 Stephanie Catani

nen sich vorhandener Texte und stellen sie, ausgehend von bestimmten Regeln (bei der Codeliteratur etwa der Algorithmus), in neue Bedeutungszusammenhänge, wie Hannes Bajohr in seinem programmatischen Band Code und Konzept nachvollzogen hat: „Was konzeptuelle Literatur und Codeliteratur verbindet, ist die Tatsache, dass beide die Idee eines starken Autorgenies und subjektiver Expressivität als modus operandi der Literaturproduktion negieren“ (2016, 12). Im Zeichen der generativen Kunst wie der Konzeptkunst verliert der Begriff der Kreativität (darin Begriffen wie Autorschaft und Originalität ähnlich) zumindest in seinen tradierten Zuschreibungen an Bedeutung. Gleichwohl findet dort, wo KI-Kunst als innovativer und kritischer Reflexionsraum sichtbar wird, womöglich doch kein endgültiger Abschied von dem Begriff der Kreativität statt – vielmehr wird die Einladung ausgesprochen, diesen neu zu denken.

Literaturverzeichnis Bajohr, Hannes (Hrsg.). Code und Konzept. Literatur und das Digitale. Berlin 2016. Bajohr, Hannes. Schreibenlassen: Texte zur Literatur im Digitalen. Berlin 2022. Botnik Studios. „Chapter Thirteen: The Handsome One“. Harry Potter and the Portrait of what Looked Like a Large Pile of Ash. https://botnik.org/content/harry-potter.html. 2018 (16. Februar 2020). Catani, Stephanie. Generierte Texte: Gegenwartsliterarische Experimente mit Künstlicher Intelligenz. Schnittstellen: Wechselbeziehungen zwischen Literatur, Film, Fernsehen und digitalen Medien. Hrsg. von Andrea Bartl, Corinna Erk und Jörn Glasenapp. Paderborn 2022: 247–266. Du Sautoy, Marcus. The Creativity Code: How AI is Learning to Write, Paint and Think. London 2019. Eder, Johanna Gundula. Homo Creans: Kreativität und Kreativitätsbildung im Kontext transmedialer Kunst. Bielefeld 2016. Goldsmith, Kenneth. Uncreative Writing: Sprachmanagement im digitalen Zeitalter. Erw. dt. Ausg. Aus dem Amerik. übers. von Hannes Bajohr und Swantje Lichtenstein. Berlin 2017. Goldsmith, Kenneth und Miriam Zeh. „Unkreatives Schreiben – warum? Ein Gespräch mit Kenneth Goldsmith“. Deutschlandfunk. https://www.deutschlandfunk.de/koelner-kongress-2018erzaehlen-in-den-medien-unkreatives-100.html. 18.3.2018 (16. Mai 2023). Harlan, Volker, Rainer Rappmann und Peter Schata. Soziale Plastik: Materialien zu Joseph Beuys. Achberg 1976. Lenzen, Manuela. Künstliche Intelligenz: Was sie kann & was uns erwartet. München 2018. Mersch, Dieter. „Kreativität und Künstliche Intelligenz: Einige Bemerkungen zu einer Kritik algorithmischer Rationalität“. Zeitschrift für Medienwissenschaft 11.21.2 (2019): 65–74. Miller, Arthur I. The Artist in the Machine: The World of AI-Powered Creativity. Cambridge 2019. Perloff, Marjorie. Unoriginal Genius: Poetry by Other Means in the New Century. Chicago 2010. Rahmlow, Axel und Hanno Rauterberg. „‚Das Bild ist relativ belanglos‘: Hanno Rauterberg im Gespräch mit Axel Rahmlow“. Deutschlandfunk Kultur. https://www.deutschlandfunkkultur.de/ kunstexperte-zur-versteigerung-eines-ki-gemaeldes-das-bild-100.html. 26.10.2018 (16. Mai 2023).

Künstliche Intelligenz und Kreativität 

 305

Reckwitz, Andreas. Kreativität und soziale Praxis: Studien zur Sozial- und Gesellschaftstheorie. Bielefeld 2016. Reckwitz, Andreas. Die Erfindung der Kreativität: Zum Prozess gesellschaftlicher Ästhetisierung. Berlin 6 2019. Rieger, Stefan. „‚Bin doch keine Maschine …‘ Zur Kulturgeschichte eines Topos“. Machine Learning: Medien, Infrastrukturen und Technologien der Künstlichen Intelligenz. Hrsg. von Christoph Engemann und Andreas Sudmann. Bielefeld 2018: 117–142. Sato, Satoshi. „A Challenge to the Third Hoshi Shinichi Award“. The INLG 2016 Workshop on Computational Creativity in Natural Language Generation: Proceedings of the Workshop. Hrsg. von Association for Computational Linguistics. Madison 2016: 31–35. https://aclanthology.org/ W16-55.pdf (16. Mai 2023). Schönthaler, Philipp. Die Automatisierung des Schreibens & Gegenprogramme der Literatur. Berlin 2022 (E-Book). Scorzin, Pamela C. „ARTificiality: Künstliche Intelligenz, Kreativität und Kunst“. KUNSTFORUM International 278 (2021): 50–75. https://www.kunstforum.de/artikel/artificiality/ (16. Mai 2023). Volland, Holger. Die kreative Macht der Maschinen: Warum Künstliche Intelligenzen bestimmen, was wir morgen fühlen und denken. Weinheim 2018.

Fabian Schmieder

Urheberschaft und Künstliche Intelligenz 1 Einleitung Künstlerinnen und Künstler werden in mannigfaltiger Weise durch unsere Rechtsordnung geschützt. Verfassungsrechtlich etwa hat sich dieser Schutz in dreierlei Grundrechten niedergeschlagen. So schützt etwa die Kunstfreiheit Künstlerinnen und Künstler in umfassender Weise gegenüber staatlichen Eingriffen und mittelbar auch vor Eingriffen Dritter. Das allgemeine Persönlichkeitsrecht der Künstlerin oder des Künstlers wirkt selbstverständlich auch über den Zeitpunkt einer vollständigen Veräußerung eines Kunstwerks und der Rechte am selbigen hinaus fort. Die Eigentumsfreiheit schließlich gewährleistet den Schutz von Kunstwerken sowohl in materieller als auch in immaterieller Form. Im einfachen Recht, d.  h. in den für die Bürgerinnen und Bürger unmittelbar geltenden Rechtsvorschriften, sind die Werke von Künstlerinnen und Künstlern vor allem durch das Eigentumsrecht (§ 903 Satz 1 BGB) in materieller und durch das Urheberrecht (§ 2 UrhG) in immaterieller Hinsicht geschützt. Nachdem Künstlerinnen und Künstler vermehrt Künstliche Intelligenz (KI) im Rahmen ihres Schöpfungsprozesses verwenden, ist fraglich, wie sich dies auf den rechtlichen Schutz der so entstandenen Kunstwerke auswirkt.

2 Ausschließliche Schutzrechte Sowohl beim Eigentumsrecht als auch beim Urheberrecht handelt es sich um sogenannte „ausschließliche Schutzrechte“. Ausschließliche Schutzrechte, von denen es eine ganze Reihe gibt, sind dadurch gekennzeichnet, dass sie – nomen est omen – einer Rechtspersönlichkeit ein ausschließliches Recht gewähren. Diese Ausschließlichkeit ist es, die der Inhaberin oder dem Inhaber eines solchen Rechts einen rechtlichen Schutz gewährt und dazu führt, dass sie oder er andere von bestimmten Handlungen ausschließen und im Falle von Beeinträchtigungen den gewährten Schutz auch mit rechtlichen Mitteln durchsetzen kann. Erst durch diesen, Dritte ausschließenden, rechtlichen Schutz ergibt sich für die Schutzrechtsinhaberin oder den -inhaber ein Bestimmungsrecht. Dem Schutzrecht unterliegende Handlungen bedürfen damit der Erlaubnis der Schutzrechtsinhaberin oder des -inhabers und es steht im Ermessen derselben, ob und gegebenenfalls zu welchen Konditionen, insbesondere zu welchen Gegenleistungen, diese Erlaubnis erteilt wird. https://doi.org/10.1515/9783110656978-019

Urheberschaft und Künstliche Intelligenz 

 307

2.1 Schutz von Kunstwerken als Eigentum Das älteste Ausschließlichkeitsrecht ist das Eigentum (Felix 1965). Die Eigentümerin oder der Eigentümer kann mit einer Sache nach Belieben verfahren (§  903 Satz 1 BGB), so lange sie oder er dadurch nicht gegen Gesetz oder Rechte Dritter verstößt. Eigentümerin oder Eigentümer ist, wer das rechtliche Herrschaftsverhältnis über eine Sache ausübt. Ist niemand Eigentümerin oder Eigentümer, kann also niemand über eine Sache bestimmen, gilt sie als herrenlos, kann aber durch Inbesitznahme wieder in das Eigentum einer Person gelangen (§ 958 Abs. 1 BGB). Zwar ist das Sacheigentum auch für Kunstwerke bedeutsam, naturgemäß aber auf vergegenständlichte Kunst beschränkt. Ein Gemälde steht – jedenfalls wenn es nicht herrenlos geworden ist – im Eigentum einer natürlichen oder juristischen Person: Zunächst gehört es der Künstlerin oder dem Künstler, welche es dann verkaufen oder verschenken (und übereignen) können, damit nun eine andere Person bestimmen darf, wo das Gemälde hängt und wer dazu tatsächlichen Zugang erlangt. Das Sacheigentum kann allerdings bei nicht-gegenständlichen Kunstwerken wie Musikstücken oder auch rein digitalen Kunstwerken mangels Sachqualität nicht zur Beantwortung der Frage herangezogen werden, wer über diese Werke bestimmen kann. Und auch beim Gemälde ist das Bestimmungsrecht der Eigentümerin oder des Eigentümers nur begrenzt hilfreich, wenn z.  B. ein Gemälde fotografiert und damit vervielfältigt würde. Dadurch entstünde eine Art abgeleitetes Werk, welches jedenfalls gedanklich mit dem Ursprungswerk verbunden bliebe, da es selben Inhalts und die Unterschiede überwiegend technisch bedingt wären. Und auch wenn dieses abgeleitete Werk nicht „das Original“ wäre, so stellt sich doch wenigstens die Frage, wer diese Ableitungshandlung überhaupt vornehmen dürfte und wem die gegebenenfalls durch einen Verkauf des Vervielfältigungsstücks (oder -rechts) erlösten Erträgnisse zustünden.

2.2 Schutz von Kunstwerken als Immaterialgut Eine Antwort auf diese Frage liefert das Urheberrecht, welches  – losgelöst vom Sacheigentum (siehe etwa § 44 Abs. 1 UrhG) – die Rechte an persönlichen geistigen Schöpfungen (§ 2 Abs. 2 UrhG) regelt. Die urheberrechtliche Schöpfung ist das Ergebnis eines unmittelbaren und zielgerichteten geistigen Schaffens- bzw. Gestaltungsprozesses, welcher nur von Menschen vollzogen werden kann (Ahlberg 2020, § 2 Rn. 54). Das Urheberrecht ordnet die Verwertungsrechte (§§ 15–23 UrhG) ausschließlich der Schöpferin oder dem Schöpfer des Werks (Urheberin oder Urheber) unabhän-

308 

 Fabian Schmieder

gig vom Sacheigentum (z.  B. Leinwand, Farben, Mamor, Notenpapier) zu. Die Urheberin oder der Urheber ist danach Inhaberin oder Inhaber des ausschließlichen Schutzrechts, wonach jede in den Verwertungsrechten festgelegte Handlung (z.  B. Vervielfältigen, Verbreiten, öffentliche Wiedergabe – etwa durch das zur Verfügung stellen zum Abruf im Internet) ausschließlich der Urheberin oder dem Urheber vorbehalten ist und dessen Erlaubnis (auch: Lizenz, § 31 UrhG) bedarf, wenn nicht ausnahmsweise der Gesetzgeber etwas anderes bestimmt hat (sog. Schrankenbestimmungen, §§ 44a–63a UrhG) oder die Schutzfristen (§ 64 ff. UrhG) abgelaufen sind. Die Urheberin oder der Urheber erlangt auf diese Weise umfassende rechtliche Möglichkeiten der Kontrolle ihres oder seines Werks und kann durch das Einräumen von Nutzungsrechten (z.  B. Vervielfältigungsrechte) an Dritte – abseits des einmaligen Verkaufs und anschließender Übereignung des gegenständlichen Originals – sein Werk umfassend kontrollieren und damit auch monetarisieren.

3 Schutz von Schöpfungen von und mittels KI Wenn nun nicht mehr Menschen Kunstwerke schaffen oder sich aber Menschen bei der Schaffung von Kunstwerken in erheblicher Weise durch Computerprogramme, die KI implementieren, unterstützen lassen, stellt sich die Frage, wer die Urheberin oder der Urheber dieser Werke und damit auch die- oder derjenige ist (3.1) oder sein soll (3.2), der oder dem das Bestimmungsrecht über die der Schutzrechtsinhaberin oder dem -inhaber vorbehaltenen Handlungen ist. Damit verbunden ist freilich auch die Bestimmung der- oder desjenigen, die oder der die Früchte aus diesen Werken durch die Einräumung von Nutzungsrechten ziehen und schließlich die Urheberpersönlichkeitsrechte (§§ 12–14 UrhG) wahrnehmen darf. Durch die Entwicklung in der KI und damit in Zusammenhang stehende aktuelle Kunstprojekte – etwa das durch KI geschaffene Werk The Next Rembrandt (www.nextrembrandt.com) – hat der Diskurs über entsprechende Fragestellungen stark an Aktualität gewonnen, neu sind sie indes nicht. Schon Mitte der 1960er Jahre hat sich die Rechtswissenschaft der urheberrechtlichen Fragestellung gewidmet, ob „Apparate“ schöpfen können und welche Folgen dies für eine etwaige Verwertung der Werke hat (Fromm 1964, 304; Fabiani 1965, 422). Im Folgenden soll erörtert werden, welchen Schutz das bestehende Recht de lege lata bietet und ob sowie gegebenfalls welcher Anpassungsbedarf des Rechts de lege ferenda besteht.

Urheberschaft und Künstliche Intelligenz 

 309

3.1 Schutz de lege lata In Kontinentaleuropa ist das Urheberrecht vom Schöpferprinzip bestimmt. Schöpferin oder Schöpfer eines Werks ist die- oder derjenige, die oder der aus einer urheberrechtlich nicht schutzfähigen Idee durch eine geistige Leistung ein Werk gewisser Originalität erschafft, damit im Sinne des Urheberrechts schöpft und durch diesen Realakt zur Urheberin oder zum Urheber (§ 7 UrhG) mit all den einhergehenden Rechte wird. Ob KI diese geistige Leistung in Zukunft wird erbringen können, soll an dieser Stelle offenbleiben. Das maschinelle Lernen jedenfalls lässt eine solche, der menschlichen ebenbürtige Geistesleistung möglich erscheinen, auch wenn die aktuelle, von menschlicher Geistesleistung geschaffene, algorithmenbasierte KI dieses Niveau noch nicht erreicht haben dürfte (so auch Herberger 2018, 2825, 2827). Zwar liefern aktuelle Implementierungen generativer KI wie z.B. ChatGPT, Adobe Sensai und Midjourney höchst erstaunliche Ergebnisse, sie sind gleichwohl immer noch auf erhebliche Mengen an Trainingsdaten angewiesen, die zuvor von Menschen geschaffen wurden. Eine der menschlichen ebenbürtige Geistesleistung einer KI unterstellt, wäre fraglich, ob eine KI Schutzrechte erlangen könnte. Zwar scheint es auf den ersten Blick zumindest denkbar, dass das Urheberrecht einem maschinellen Schöpfer zugeordnet wird. Eine solche Zuordnung an eine Maschine scheitert allerdings im Moment bereits an deren fehlender Rechtsfähigkeit, da es sich bei einer Maschine um eine Sache handelt, die zwar Gegenstand eines Rechts, aber nicht Träger eines solchen sein kann (Borges 2018, 977). Wenn schon Sachen keine Rechtspositionen zugeordnet werden können, folgt daraus auch, dass eine Zuordnung auch bei einem Algorithmus, der vereinfacht lediglich eine Rechenanweisung für eine Maschine darstellt, nicht in Betracht kommt. Die vom EU-Parlament in Betracht gezogene „elektronische Person“ (EU-Parlament 2015, 11) ist (zu Recht) alles andere als ‚beschlossene Sache‘ und wohl ohnehin eher für haftungsrechtliche Fragen gedacht, sodass sich an diesem Fakt auch für die Zukunft nichts ändern dürfte. Zumal sich Vorteile einer Zuordnung von Urheberrechten an eine „elektronische Person“ für die Rechtsordnung auch nicht wirklich aufdrängen, sondern vielmehr Folgeprobleme von erheblichem Ausmaß nach sich zögen: Etwa die Frage, wie Lizenzverträge geschlossen werden sollen, wer eine finanzielle Gegenleistung erhalten solle, so es denn eine gäbe und schließlich ganz generell, wer die „elektronische Person“ rechtsgeschäftlich vertreten solle. Allerdings bestehen auch heute schon Schutzrechte zugunsten juristischer und natürlicher Personen. Der KI-Algorithmus selbst kann – wenn er jedenfalls über eine mathematische Methode hinausgeht (Art. 52 EPÜ, § 1 Abs. 3 PatG) und die übrigen Voraussetzungen vorliegen – als computerimplementierte Erfindung grundsätzlich

310 

 Fabian Schmieder

Patentschutz erlangen (Nägerl et al. 2019, 336, 339; Hetmank und Lauber-Rönsberg 2018, 574, 576). Beim Patent handelt es sich wie beim Urheberrecht um ein Ausschließlichkeitsrecht, welches nach einer Anmeldung und entsprechende Prüfung durch das Patentamt im Erfolgsfall dem Anmeldenden zugestanden wird. Urheberrechtlicher Schutz hingegen kann nur an Computerprogrammen begründet werden, welche einen KI-Algorithmus implementieren. Computerprogramme sind gemäß § 2 Abs. 1 Nr. 1 UrhG ausdrücklich als Sprachwerke urheberrechtlich geschützt und dürften mit Blick auf die hier in Rede stehenden Algorithmen schon aufgrund ihrer Komplexität stets die Anforderungen an eine persönliche, geistige Schöpfung (§ 2 Abs. 2 UrhG, sog. Schöpfungshöhe) erfüllen. Das Urheberrecht an der Implementierung eines KI-Algorithmus in ein Computerprogramm liegt bei der Programmiererin oder dem Programmierer. Unter bestimmten gesetzlichen Voraussetzungen können die vermögensrechtlichen Befugnisse an einem Computerprogramm bei Programmiererinnen und Programmierern in Arbeits- und Dienstverhältnissen allerdings auch ausschließlich dem Arbeitgeber bzw. Dienstherren gebühren (§ 69b Abs. 1 und 2 UrhG). Dieser Schutz der Implementierung von KI-Algorithmen hat allerdings keine Auswirkung auf die von diesem Computerprogramm geschaffenen Kunstwerke, denn dem Urheberrecht ist der derivative Schutz fremd. Das Urheberrecht ordnet das Erzeugnis eines Computerprogramms nicht dem Urheber des Computerprogramms zu, sodass an einem computergenerierten Inhalt per se kein urheberrechtlicher Schutz entsteht, selbst dann nicht, wenn es wie insbesondere bei generativer KI so aussähe, als hätte ein Mensch diese Leistung erbracht (Schulze in: Dreier und Schulze, 2018, § 2 Rn. 8; Nordemann in: Fromm und Nordemann 2018, § 2 Rn. 21; Rehbinder und Peukert 2018, Rn. 188; Loewenheim und Leistner in: Schricker und Lowenheim 2020, § 2 Rn. 39). Die neben dem Algorithmus in aller Regel erforderlichen Trainingsdaten kommen ebenfalls als Schutzgegenstand in Betracht. So wurden für das eingangs erwähnte Kunstprojekt The Next Rembrandt ca. 150 GB Trainingsdaten bestehend aus 346 hochaufgelösten Scans von Rembrandt-Gemälden verwendet. Trainingsdaten können – unbeschadet des urheberrechtlichen Schutzes an dort gespeicherten Einzelwerken (wie etwa gescannten Gemälden) – dem urheberrechtlichen Datenbankschutz des § 4 Abs. 1 UrhG oder aber auch dem Datenbankschutzrecht sui generis (§ 87b UrhG) unterliegen. Eine Auswirkung auf das computergenerierte „Werk“ hat dieser Umstand gleichwohl nicht. Um als Datenbankwerk gemäß § 4 Abs. 1 UrhG schutzfähig zu sein, müssten die Auswahl oder Anordnung der Trainingsdaten eine persönlich-geistige Schöpfung

Urheberschaft und Künstliche Intelligenz 

 311

darstellen. Typischerweise sind Trainingsdaten tabellenartig in einer Datenbank angeordnet; dies erfordert schon deren maschinelle Auswertbarkeit. Daraus folgt, dass bezüglich der Anordnung eine persönlich-geistige Schöpfung regelmäßig nicht in Betracht kommen dürfte. Allerdings ist bei von Menschen kuratierten Datenbanken eine persönlichgeistige Schöpfung bezüglich der Auswahl der Elemente denkbar. So kann insbesondere die Auswahl bestimmter schriftstellerischer Werke oder Werke der bildenden Kunst, insbesondere aber auch von nicht dem Urheberschutz unterliegenden Kunstwerken, eine eigenschöpferische Leistung darstellen, wenn die ausgewählten Elemente jedenfalls hinreichend unabhängig voneinander, d.  h. wenigstens geringfügig unterschiedlich sind. Damit soll verhindert werden, dass an sich einheitliche Werke, die aus mehreren Abschnitten bestehen, zugleich Sammelwerke darstellen (Dreier in: Dreier und Schulze 2018, § 4 Rn. 10; Flechsig, ZUM 1997, 577, 580; Leistner 1999, 819, 821). Nach der Rechtsprechung des EuGH setzt die Unabhängigkeit voraus, dass die Einzelinformationen der Elemente einen selbstständigen Informationswert besitzen müssen. Dieser darf zwar reduziert sein, die Elemente müssen jedoch auch nach Herauslösung aus dem Gesamtzusammenhang für interessierte Dritte noch sachdienliche Informationen liefern (EuGH, Urteil vom 9.11.2004, C-444/02 – „Fixtures Marketing“, Rn. 34). An diese Unabhängigkeit werden zwar keine hohen Anforderungen gestellt, sodass digitalisierte Gemälde oder auch Teile davon noch unproblematisch als unabhängig zu qualifizieren sind; die farbliche Kodierung einzelner Pixel eines Digitalisats hat hingegen außerhalb des Gesamtzusammenhangs keinen eigenständigen Wert mehr (Hacker 2020, 1025; 1029). Für die Frage des Schutzes als Datenbankwerk gemäß § 4 Abs. 1 UrhG spielt die Gestaltung der Datenbank insoweit eine bedeutsame Rolle. Der Datenbankschutz sui generis knüpft anders als das Datenbankwerk nicht an die Schöpfungshöhe an. Auch die Unabhängigkeit der Elemente sollte im Rahmen des Datenbankschutzes sui generis keine Rolle spielen, da es hier um reinen Investitionsschutz geht (Hacker 2020, 1025, 1029–1030). Vielmehr ist es gemäß § 87a Abs. 1 Satz 1 UrhG ausreichend, dass es sich bei den Trainingsdaten um „eine Sammlung von Werken, Daten oder anderen unabhängigen Elementen, die systematisch oder methodisch angeordnet und einzeln mit Hilfe elektronischer Mittel oder auf andere Weise zugänglich sind und dass deren Beschaffung, Überprüfung oder Darstellung eine nach Art oder Umfang wesentliche Investition erfordert“. An die Höhe der Investition sind keine erheblichen Anforderungen zu stellen. Insbesondere sind nicht notwendigerweise finanzielle Mittel aufzuwenden. Mit einem weiten Investitionsbegriff (BGH GRUR 2011, 724 Rn. 18) ist auch die Aufwendung von menschlichen oder technischen Ressourcen oder Mitteln ausreichend. Allerdings hat der EuGH die tauglichen Investitionen dahingehend eingeschränkt

312 

 Fabian Schmieder

(EuGH, Urteil vom 9.11.2004, C-203/02 – „The British Horseracing Board“, Rn. 31, 42), dass nur Kosten für die Suche nach und Sammlung von vorhandenen, nicht aber für die Erzeugung neuer Daten berücksichtigt werden können. In den Trainingsdaten können gleichwohl urheberrechtlich geschützte Daten enthalten sein, ohne dass dies Auswirkungen auf den Schutz der Trainingsdaten als Datenbank hätte. Text und vor allem Bilder und Videos, die in den Trainingsdaten enthalten sind führen allerdings nicht zu einem urheberrechtlichen Schutz eines von einer generativen KI geschaffenen Werkes. Vielmehr bleiben die in den Trainingsdaten verwendeten Werke weiterhin zugunsten ihrer Urheberinnen und Urheber geschützt. Das kann dazu führen, dass ein von einer KI geschaffenes Werk keinen Urheberrechtsschutz genießt, es allerdings fremde Urheberrechte beeinträchtigt. Es wird dann zu klären sein, ob es sich dabei um eine Bearbeitung (§ 3 UrhG) mit den Folgen des § 23 Abs. 1 Satz 1 UrhG handelt oder trotz der Verwendung ein hinreichender Abstand zum Ursprungswerk gewahrt wird (§ 23 Abs. 1 Satz 2 UrhG) oder lediglich ein Pastiche (§ 51a UrhG) vorliegt. Blickt man auf das Kunstwerk an sich, ist für die rechtliche Beurteilung beim Einsatz von KI zu differenzieren: Ist das urheberrechtlich zu beurteilende Kunstwerk vollständig autonom durch eine KI geschaffen worden, gibt es in Ermangelung einer schöpferischen Eigenleistung eines Menschen (§ 2 Abs. 2 UrhG) keinen Raum für ein urheberrechtliches Schutzrecht (Hetmank und Lauber-Rönsberg 2018, 574, 577 am Ende; Borges 2018, 977, 978; Schulze 2018, UrhG, § 7 Rn. 2). Anders als das Patentrecht kennt das Urheberecht auch keinen abgeleiteten Schutz, der es ermöglichen würde, dass von der KI geschaffene Kunstwerk dem Schutzrechtsinhaber an der KI zuzuordnen. Für solche vollständig autonom geschaffenen Kunstwerke bleibt es beim eingangs dargestellten Schutz über das Sacheigentum. Das Eigentumsrecht greift sinnvoll überhaupt nur für gegenständliche Werke und bietet dann auch nur einen sehr eingeschränkten Schutz über die Bestimmung des Ausstellungsortes und damit die Bestimmung über den Zugang zum Kunstwerk (weiterführend Bullinger in: Wandtke und Bullinger 2019, UrhG, § 2 Rn. 164). In Ermangelung eines (urheberrechtlichen) Ausschließlichkeitsrechts (Vogel in: Schricker und Loewenheim, § 87a, Rn. 40) zugunsten einer Person besteht jedenfalls kein Raum für die Einräumung von Nutzungsrechten oder die Ausübung von Verbotsrechten. Die Anfertigung von Vervielfältigungsstücken wie Fotografien von einem Kunstwerk stellt jedenfalls keine Eigentumsbeeinträchtigung im Sinne des § 1004 Abs. 1 BGB dar, da durch die Vervielfältigungshandlung die Sachsubstanz des gegenständlichen Originals nicht beeinträchtigt wird (Bullinger in: Wandtke und Bullinger, UrhG, § 2 Rn. 164). Es ist in diesem Zusammenhang auch unerheblich, ob mit den Vervielfältigungen ein kommerzieller Zweck verfolgt wird (BGH JZ 1998, 1120, 1121). Solche

Urheberschaft und Künstliche Intelligenz 

 313

Kunstwerke dürften ohne weiteres von Dritten vervielfältigt, verbreitet und öffentlich wiedergegeben werden, insbesondere über das Internet zugänglich gemacht werden. Sie sind gemeinfrei. Setzten Künstlerinnen und Künstler hingegen im Schaffensprozess KI als Werkzeug ein, kommen sie durchaus als Trägerinnen und Träger von Rechten aus dem Urheberrechtsgesetz in Betracht, da es jedenfalls möglich ist, dass dabei noch eine eigenschöpferische Leistung erbracht würde. Die eigenschöpferische Leistung ist mit Blick auf § 2 Abs. 2 UrhG für das Entstehen eines urheberrechtlichen Werkschutzes stets erforderliche Voraussetzung. Die Schöpfung muss dabei das Ergebnis eines unmittelbaren und zielgerichteten geistigen Schaffens- bzw. Gestaltungsprozesses des Künstlers sein (Ahlberg in: Ahlberg und Götting, 2018, § 2 Rn. 54). An einer solchen Unmittelbarkeit fehlt es jedenfalls, wenn das Ergebnis ausschließlich von einem Zufallsgenerator erstellt wurde (Ahlberg in: Ahlberg/Götting 2018, § 2 Rn. 54), wenn also etwa die Parameter eines KI-Algorithmus zufällig eingestellt werden oder auch vom Algorithmus selbst bestimmt werden. Hat die Künstlerin oder der Künstler hingegen die KI durch zielgerichtetes Einstellen von Parametern als Hilfsmittel für die Gestaltung seines Werks genutzt und sind diese Einstellungen prägend für das Werk, liegt eine Schöpfung im Sinne des § 2 Abs. 2 UrhG und somit ein urheberrechtlich geschütztes Werk vor (Bullinger in: Wandtke und Bullinger 2019, § 2 Rn. 16; Loewenheim in: Schricker und Loewenheim 2020, § 2 Rn. 13). Letzteres dürfte vor allem für den Einsatz von KI-basierten Effekten (z.  B. das gesichtsbezogene Verflüssigen in Adobe Photoshop) oder aber auch für Auswahl der Medien und die Einstellung der Parameter im Rahmen von Neural-Style-Transfers (Jing et al. 2020) der Fall sein. Dies wird freilich in jedem Einzelfall zu beurteilen sein, wobei es durchaus Stimmen in der Literatur gibt, welche eine bloße Selektionsentscheidung (etwa von Ausgangsmaterial für die Bearbeitung durch eine KI) nicht als ausreichend für die Gewährung des urheberrechtlichen Schutzes erachten (Hetmank und Lauber-Rönsberg 2018, 574, 577). Mit Blick auf die seit der Geburtstagszug-Entscheidung des BGH (BGHZ 199, 52) geringen Anforderungen an die Schöpfungshöhe spricht jedoch viel dafür, dass dies in der Regel ausreichen dürfte und nur bei vollkommen trivialen Selektionsentscheidungen die nötige Schöpfungshöhe nicht erreicht wird. Zusammenfassend lässt sich danach festhalten, dass zwar die Computerprogramme, welche KI-Algorithmen implementieren, urheberrechtlichen Schutz genießen und auch für Trainingsdaten zumindest ein sui generis-Schutz als Datenbank in Betracht kommt, es für einen urheberrechtlichen Schutz der eigentlichen Kunstwerke hingegen darauf ankommt, welchen eigenschöpferischen Anteil eine Künstlerin oder ein Künstler am Prozess der Erstellung des Kunstwerks mittels KI hatte. Vollständig autonom von KI geschaffene Kunstwerke sind nach der derzeitigen Rechtslage sowohl vom originären Urheberrechtsschutz als auch vom Regime

314 

 Fabian Schmieder

der Leistungsschutzrechte ausgeschlossen. Wird die KI eher als ein Werkzeug eingesetzt, werden also etwa Parametrierungen der KI gezielt durch die Künstlerin oder den Künstler vorgenommen oder auch werkprägende Selektionsentscheidungen für Quellmaterial oder Trainingsdaten getroffen und erreichen diese die recht geringen Anforderungen für Werke der bildenden Kunst an die Schöpfungshöhe, besteht zugunsten der Schöpferinnen und Schöpfer ein urheberrechtlicher Werkschutz. Schließlich besteht bei Trainingsmaterial, welches seinerseits urheberrechtliche geschütztes Material enthält die Gefahr, dass unabhängig vom Werkschutz des mittels KI geschaffenen Werks Rechte der Ursprungsurheber beachtet werden müssen.

3.2 Schutz de lege ferenda Da es jedenfalls derzeit für vollständig autonom von KI geschaffene Kunstwerke keinen urheberechtlichen Schutz gibt, drängen sich freilich die Fragen auf, ob es nicht eines solchen urheberrechtlichen, jedenfalls aber urheberrechtsähnlichen (zu patentrechtlichen Überlegungen Hetmank und Lauber-Rönsberg 2018, 574, 580) Schutzes bedarf, wer Inhaber eines solchen Schutzrechtes sein sollte und unter welchen Voraussetzungen ein solches Schutzrecht entstehen sollte. Wegen der Bindung des Urheberrechts an die persönliche, geistige Schöpfung eines Menschen scheidet ein solcher originär urheberrechtlicher Schutz a priori aus. Allerdings kennt das Urheberrechtsgesetz mit den Leistungsschutzrechten und dem Datenbankschutzrecht sui generis auch Schutzrechte ohne die Notwendigkeit einer solchen Schöpfungsleistung. Bevor man allerdings an die Ausgestaltung eines solchen Schutzrechts denkt, stellt sich die Frage nach dem Schutzbedürfnis. Da schöpferische Leistungen, die sich der KI lediglich als Werkzeug bedienen – wie dargestellt – bereits durch das Urheberrecht geschützt werden, bleibt als Argument für ein neues Leistungsschutzrecht für vollständig von KI geschaffenen Kunstwerken nur noch der Investitionsschutz. Die KI selbst wird ebenfalls bereits durch bestehende Schutzrechte geschützt, sodass für ein neues Schutzrecht nur das Produkt einer KI bliebe. Es mag im Moment schwer vorstellbar, vor allem aber schwer prognostizierbar sein, welche schützenswerten Investitionen ein autonom von einer KI geschaffenes Kunstwerk in Zukunft erfordern würde. Auszuschließen ist eine solche Entwicklung aber nicht. Denkbar ist etwa, dass bestimmte, vollständig autonom von KI geschaffene Kunstwerke besonders langwierige und rechenintensive Datenverarbeitung erforderten oder nur mittels einer erheblichen Investition in Trainingsdaten herzustellen wären. Gerade der letzte Fall dürfte in der Praxis zukünftig Relevanz erlangen. Zwar sind die Trainingsdaten im Falle einer erheblichen Investition bereits heute als Datenbank geschützt (§ 87a UrhG), die mittels dieser Daten hergestellten Produkte hingegen nicht. Dies könnte

Urheberschaft und Künstliche Intelligenz 

 315

möglicherweise dazu führen, dass Investitionen in die Erstellung hochwertiger Trainingsdaten geringer ausfallen oder ausbleiben, weil es in Ermangelung des Schutzes der daraus mittels KI hergestellten Produkten keinen attraktiven Markt für diese Daten gäbe. Im Ergebnis könnte dies dann auch dazu führen, dass Künstlerinnen und Künstler bisher unbekannte Kunst- oder auch Ausdrucksformen der Kunst nicht entwickeln, weil die dafür erforderlichen Investitionen nicht geschützt wären. Anders als beim Datenbankschutzrecht sui generis ginge das Schutzbedürfnis allerdings noch über die Investition hinaus. Die Investition wäre zwar unmittelbar nötig, damit ein neuartiges Kunstwerk geschaffen werden könnte, allerdings gäbe es auch eine künstlerische Motivation, welche die Investition überhaupt erst notwendig machten und ohne die das autonom von KI geschaffene Kunstwerk nicht entstanden wäre. Für ein sui generis-Leistungsschutzrecht für autonome Schöpfungen von KI kommen daher im Grunde zwei Personen in Betracht. Naheliegend erscheint mit Blick auf das originäre Schutzbedürfnis die Gewährung eines solchen neuen Leistungsschutzrechts an die Person, welche die erhebliche Investition getätigt hat. Dies stünde dogmatisch auch im Einklang mit dem Datenbankschutzrecht sui generis. Überlegenswert erscheint auch, das Schutzrecht vollständig oder zumindest teilweise und in diesem Fall etwa analog der Miturheberschaft (§ 8 Abs. 2, Satz 1, 1. Halbsatz UrhG) auch der Künstlerin oder dem Künstler zuzuordnen. Selbst wenn die künstlerische Leistung hier nicht im klassischen Sinne eine urheberrechtliche Schöpfungshandlung wäre, dürfte das Entstehen des Kunstwerks doch essenziell von ihr abhängen. Es ist den bereits bestehenden Leistungsschutzrechten überdies nicht fremd, auch künstlerische Leistungen zu schützen, die ihrerseits keine Schöpfungshöhe erreichen (vgl. die ausübenden Künstler, §§ 73–83 UrhG).

4 Ausblick Das bestehende Urheberrechtsregime bietet bereits für weite Teile des Einsatzes von KI hinreichenden Schutz. Insbesondere bestehen beim Einsatz von KI als Werkzeug im Schaffensprozess keine gravierenden Schutzlücken. KI ist selbst als Computerprogramm urheberrechtlich geschützt. Die Trainingsdaten der KI sind – eine schöpferische Auswahlleistung oder entsprechende Investition vorausgesetzt  – ihrerseits als Datenbanken bzw. Datenbank sui generis geschützt. Produkte, die völlig autonom von einer KI geschaffen wurden, sind allerdings derzeit de lege lata ohne urheberrechtlichen Schutz.

316 

 Fabian Schmieder

Es erscheint in diesem Zusammenhang jedenfalls überlegenswert, Produkte, die von einer KI unter Aufwendung einer erheblichen Investition geschaffen wurden mit einem Schutzrecht sui generis in Analogie zum Schutzrechtrecht des Datenbankherstellers zu versehen. Ein solches Schutzrecht sui generis müsste analog dem Datenbankherstellerrecht demjenigen zugeordnet werden, der die Investition getätigt hat und sollte auch der Künstlerin bzw. dem Künstler zugeordnet werden, wenn diese die Investition nicht selbst getätigt haben.

Literaturverzeichnis Ahlberg, Hartwieg, Hans-Peter Götting und Anne Lauber-Rönsberg. BeckOK Urheberrecht. 33. Edition. München 2022. Borges, Georg. „Rechtliche Rahmenbedingungen für autonome Systeme“. Neue Juristische Wochenschrift (NJW) (2018): 977–982. Europäisches Parlament. Draft Report 2015/2103(INL) with recommendations to the Commission on Civil Law Rules on Robotics. http://www.europarl.europa.eu/doceo/document/JURI-PR-582443_EN.pdf. (31. März 2022). Dreier, Thomas und Gernot Schulze (Begr.). Urheberrechtsgesetz (zitiert: UrhG). 7. Auflage. München 2022. Fabiani, Mario. „Sind Apparate geistige Schöpfer?“. Gewerblicher Rechtsschutz und Urheberrecht (GRUR) Ausländischer Teil 14.8/9 (1965): 422–425. Felix, Ludwig. Entwicklungsgeschichte des Eigentums. Aalen 1964. Flechsig, Norbert. „Der rechtliche Rahmen der europäischen Richtlinie zum Schutz von Datenbanken“. Zeitschrift für Urheber- und Medienrecht (ZUM) 1997: 577; 580–592. Fromm, Friedrich Karl. „Der Apparat als geistiger Schöpfer“. GRUR 66.6 (1964): 304–306. Hacker, Philipp. „Immaterialgüterrechtlicher Schutz von KI-Trainingsdaten“. GRUR 122.10 (2020): 1025–1033. Herberger, Maximilian. „‚Künstliche Intelligenz‘ und Recht“. NJW 71.39 (2018): 2825–2829. Hetmank, Sven, und Anne Lauber-Rönsberg. „Künstliche Intelligenz – Herausforderungen für das Immaterialgüterrecht“. GRUR 120.6 (2018): 574–582. Jing, Yongcheng, Yezhou Yang, Zunlei Feng, Jingwen Ye, Yizhou Yu und Mingli Song. „Neural Style Transfer: A Review“. IEEE Transactions on Visualization and Computer Graphics 26.11 (2020): 3365–3385. DOI: 10.1109/TVCG.2019.2921336. Leistner, Matthias. „Der neue Rechtsschutz des Datenbankherstellers – Überlegungen zu Anwendungsbereich, Schutzvoraussetzungen, Schutzumfang sowie zur zeitlichen Dauer des Datenbankherstellerrechts gemäß §§ 87a ff. UrhG“. GRUR Internationaler Teil 48.10 (1999): 819–839. Schricker, Gerhard (Begr.) und Ulrich Loewenheim. Urheberrecht. 6. Auflage, München 2020. Nägerl, Joel, Benedikt Neuburger und Frank Steinbach. „Künstliche Intelligenz: Paradigmenwechsel im Patentsystem“. GRUR 121.4 (2019): 336–341. Rehbinder, Manfred und Alexander Peukert. Urheberrecht. 12. Auflage. München 2018. Schricker, Gerhard (Begr.) und Ulrich Loewenheim, Urheberrecht (zitiert: UrhG). 5. Auflage. München 2017. Wandtke, Artur-Axel und Winfried Bullinger. Praxiskommentar zum Urheberrecht (zitiert: UrhG). 5. Auflage. München 2019.

Tobias Matzner

Ethik und Künstliche Intelligenz Viele Kunstwerke, die sich mit KI beschäftigen, thematisieren mehr oder weniger explizit ethische Fragen. Gleichzeitig entstehen aus der Nutzung von KI oder damit in Verbindung stehenden Informationstechnologien in den Künsten selbst ethische Fragen. Sicher sind diese beiden Aspekte nicht zu trennen. Einige Kunstwerke setzen sich gerade auch mit den ethischen Grenzen auseinander, indem sie sich an diesen bewegen. Es soll aber als grobe Strukturierung dieses Textes trotzdem versucht werden, beide Aspekte zu trennen: KI in der Kunst und Kunst mit KI.

1 KI in der Kunst KI wirft eine Vielzahl ethischer Fragen auf. Generell lassen sich diese in zwei Gruppen teilen. Die erste betrifft etwas, das ‚Science-Fiction-KI‘ genannt werden könnte. Hier geht es um eine zumindest in bestimmten Hinsichten menschenähnliche Intelligenz und die Frage, was diese kann, darf, soll, aber auch wie mit dieser umzugehen sei. Da es eine solche Künstliche Intelligenz nicht gibt, wird auch oft thematisiert, was es für eine bestimmte Gesellschaft bedeuten könnte, wenn es sie gäbe. Von dieser Science-Fiction-KI zu trennen sind informationstechnische Anwendungen, die einer Forschungsrichtung der Informatik entstammen, die ebenfalls Künstliche Intelligenz heißt. Hier geht es um sehr konkrete und oft sehr spezifische Aufgaben: Mustererkennung, Bewertungen, Klassifikationsaufgaben, Empfehlungssysteme, Spielzüge berechnen uvm., die mit einer bestimmten Gruppe von Verfahren, dem maschinellen Lernen, gelöst werden. Deshalb werden sie auch oft mit dem klärenden Kürzel KI/ML, ML für maschinelles Lernen, bezeichnet. Solche Anwendungen sind bereits breit im Einsatz: Sie werden genutzt, um Gesichter auf Bildern zu finden, um die Feeds in sozialen Medien zu bestücken, Suchergebnisse zu optimieren, Werbeanzeigen im Internet auszuwählen, die Rückfallquote von Verbrechern vorherzusagen oder über Kreditvergabe zu entscheiden und vieles mehr (O’Neil 2017). Oft wird die hier genannte Unterscheidung zwischen Science-Fiction KI und real eingesetzten Verfahren des maschinellen Lernens, mit den Bezeichnungen „starke“ und „schwache“ KI getroffen (DFKI/Bitcom 2017, 29). Diese Begriffe halte ich für ungeschickt, suggerieren sie doch, dass es sich hier um unterschiedliche Varianten desselben handele. Dagegen ist immer noch weitgehend unklar, ob und wie eine Art Science-Fiction-KI Realität werden könnte, während KI/ML ein extrem produktiver Zweig der Informatik geworden ist, der sich in immer mehr Anwendungen findet. Diese Anwendungen haben aber keine – nicht einmal asymphttps://doi.org/10.1515/9783110656978-020

318 

 Tobias Matzner

totisch in die Zukunft denkbare – Ausrichtung auf menschenähnliche KI. Vielmehr verschleiert die Rede von ‚starker‘ und ‚schwacher‘ KI relevante Eigenschaften von KI/ML. Denn wenn Aufgaben datengetrieben gelöst werden sollen, erhofft man sich oft, dass dies ganz anders geschieht, als durch Menschen: mit weniger Vorurteilen, effizienter, billiger, detaillierter etc. Diese Anwendungen werden also gerade nicht als menschenähnlich beworben, sondern damit, dass sie etwas könnten, was Menschen eben nicht so gut können. So wird z.  B. angeführt, dass KI/ML inzwischen Dinge auf tomographischen Bildern diagnostiziert, die Menschen nicht sehen können (Hosny und Parmar und u.  a. 2018). Beim Sieg eines KI/ML basierten Systems im Brettspiel Go wurde immer wieder kolportiert, dass dieses System Züge mache, die für menschliche Experten überraschend und unverständlich seien (Stöcker 2016). Diese Versprechen sind zwar alle diskutabel, aber ihre Rolle gerade auch für die ethische Bewertung ist wichtig: Die Rede von KI bedeutet auch immer eine bestimmte Bezugnahme auf eine Vorstellung des Menschen, die aus Ähnlichkeit, aber ebenso aus Abgrenzung bestehen kann (Matzner 2019c). Ein weiterer relevanter Unterschied zeigt sich am Beispiel des autonomen Fahrens. Hier wird oft die Entscheidung eines Menschen am Steuer mit der einer KI gleichgesetzt. Dabei wird übersehen, dass es hier um Programmierungen auf systemischer Ebene geht, die z.  B. alle Fahrzeuge eines Typs betreffen, und damit ganz anderen ethischen Maßstäben unterworfen sind, als Individuen (Matzner 2019a; Nyholm und Smids 2016). Aus diesen Gründen wird es im Folgenden um KI/ML in der hier genannten Form gehen, wenn von KI die Rede ist. Deren ethisch relevante Eigenschaften werde ich unter drei Themen zusammenfassen: der Unverfügbarkeit von KI, der Kontextgebundenheit ihrer Ergebnisse und der Performativität von Daten.

1.1 Unverfügbarkeit KI wurde und wird als ‚Black Box‘ dargestellt: es ist oft schwer bis gar nicht nachvollziehbar, wie die Algorithmen zu bestimmten Ergebnissen gekommen sind. Dieses Problem findet sich auch in anderen Diskussionen von Informationstechnik und beruht dort auf der Idee, dass der Quellcode von Computerprogrammen normalerweise nicht einsehbar ist, sondern nur die Ein- und Ausgaben (Kitchin 2017). Diese Beschreibung von Informationstechnik als ‚Black Box‘ impliziert, dass die Programmierung die entscheidende Instanz für die Eigenschaften der Technologie darstellt. Was in der ‚Black Box‘ geschieht  – und wozu nur Programmierer:innen Zugriff haben – bestimmt damit auch die ethisch relevanten Kriterien. Diese Sicht ist bereits für Informationstechnik an sich zu eng (Kitchin 2017), und kommt durch die datengetriebenen, relationalen Ansätze von KI endgültig an ihre Grenzen. Denn erstens hängen die Ergebnisse eines solchen Systems grundlegend von den Daten ab, mit

Ethik und Künstliche Intelligenz 

 319

denen man es ‚trainiert‘. Und zweitens bekommen diese Daten erst in Relationen eine Bedeutung: KI heißt nicht, dass beispielsweise ein individuelles Profil auf einer Social Media Plattform aufgerufen und dort eine Information über die spezifische Person gefunden wird. KI bedeutet, dass dieses Profil anhand von Mustern oder Klassen beurteilt wird, die sich in großen Ansammlungen von Daten finden. Diese Daten stammen nicht nur von denjenigen, die gerade beurteilt werden, sondern von allen Nutzer:innen einer Plattform. Die relevanten Eigenschaften eines solchen Systems ergeben sich also aus der Beziehung zwischen Trainingsdaten, die genutzt wurden, bevor das Modell als ‚Black Box‘ eingesetzt wurde und solchen, die dem Einsatzkontext entstammen. Die Algorithmen in der ‚Black Box‘ sind nur als (gleichwohl wichtiger) Teil dieser Vermittlung zu verstehen. Daraus folgt, dass ein breiterer Blick nötig ist, als nur auf die Modelle oder Programme in der ‚Black Box‘. Besonders im Fokus steht hier die weltumspannende Organisation oft marginalisierter Arbeit an Daten (Gillespie 2018). Sogenannte Crowdworker:innen unter meist prekären Bedingungen suchen z.  B. bestimmte Merkmale auf Bildern, um Trainingsdaten für KI zu gewinnen. Neben der Programmierung und den Daten haben auch Sensoren oder andere ganz materielle Eigenschaften der Technik Auswirkungen auf KI (Dourish und Mazmanian 2011). Dazu gehören auch Cloud Computing und mobile Medien, die dazu führen, dass KI oft nicht auf ‚unseren‘ Geräten läuft, sondern in einem schwer greifbaren Zusammenhang von Netzwerken und Rechenzentren. Und wie Informationstechnik generell basiert KI auf bestimmten Ressourcen, ihren Bedingungen etc. All diese vielfältigen Einflussfaktoren sind zumindest aus Perspektive der Nutzer:innen schwer bis gar nicht in Erfahrung zu bringen. In dieser Hinsicht gibt es diverse künstlerische Arbeiten, die sich an der Grenze von Kunst und Dokumentation bewegen oder mittels Artistic Research an der Verfügbarkeit dieses Unverfügbaren arbeiten. Das Projekt „Anatomy of an AI System“ (Crawford und Joler 2018) entstand ursprünglich im Kontext akademischer/industrieller Forschung und versucht, die vorgenannten vielfältigen Zusammenhänge anschaulich zu machen. Am Beispiel eines einzigen KI-basierten Gerätes werden die dazu nötigen materiellen Ressourcen und ihre Herkunft genauso darstellt wie die Arbeit and Daten und Programmierung oder die ökonomischen Netze der Distribution. Die dazu erstellte Graphik, die in einer Größe von ca. 2x4 Metern präsentiert wird, fand ihren Weg in Ausstellungsräume und hat zu weiteren Kooperationen der Projektleiterin Kate Crawford mit Travor Paglen geführt. Ihre gemeinsame Webseite (excavating.ai) liefert eine ausführliche und anschauliche Schilderung der „Politiken“ von Bildern als Trainingsdatensätzen. Indem sie die Datenquellen von Bilderkennungsverfahren recherchieren, verweisen sie auch auf die fragliche Qualität und Zuverlässigkeit dieser Daten, die im nächsten Abschnitt beschrieben werden. Begleitet wird das Projekt durch Ausstellungen wie ‚Training Humans‘ in der Fondazione

320 

 Tobias Matzner

Prada (2019). Dort wird mit der ausführlichen Darstellung von Trainingsdatensätzen auf einem über 10 Meter langen Tisch und an den Wänden der Galerie ein Aspekt der Bilderkennung besonders sichtbar: die Notwendigkeit, viele Bilder zu haben, diese auszuwählen und mit einer repräsentativen Bedeutung für das zu Erkennende zu versehen. Hier dient die Sichtbarkeit prestigeträchtiger Kunstinstitutionen dann auch diesem vermittelnden Aspekt sonst unverfügbarer Prozesse. (Die Ausstellung greift aber auch die weiter unten diskutierten Fragen auf.) Ähnlich gestaltet sich die Rechercheplattform von Adam Harvey, der auf https://megapixels.cc nicht nur Trainingsdatensätze darstellt, sondern auch aufzeigt, welche Anwendungen diese verwenden. Hier handelt es sich vor allem um akademische Forschung, für die industrielle ist solche Information meist nicht verfügbar. Dennoch werden Trainingsdaten hier deutlich als Ressource für die Forschung ausgestellt, welche durch ihre (Un-)Verfügbarkeit selbst die Forschung und ihre Möglichkeiten strukturiert. Nicht selten wird an dem geforscht, wozu eben Daten verfügbar sind. Es gibt nur wenige Datensätze, die immer wieder verwendet werden. Harveys Seite dient aber auch selbst als Ressource für Künstler:innen, die sich mit KI beschäftigen. Solche Arbeiten schließen an die lange und komplexe Geschichte der Sichtbarmachung als eine Form der Politiken von Kunstwerken, aber auch von Kunst als sozialer Praxis oder als Institution an (Klinger 2014). Diese verbinden sie mit einer spezifisch digitalen Form der Aufklärung, in der Informationstechnologien einen ambivalenten Status haben. Sie bilden einerseits eine neue Form der Wissensgewinnung und Wissensgarantie, wie exemplarisch in den aufwändigen Simulationen von Forensic Architecture deutlich wird. Deren Recherche und Simulation eines NSU-Mordes in The Murder of Halit Yozgat (2017) für die documenta 14 stellt Aussagen vor Gericht und Ermittlungsprozesse infrage. Damit positioniert sie das Messverfahren und Simulationen der Architektur des Tatorts gegen sozio-kulturelle Praktiken der polizeilichen und geheimdienstlichen Ermittlung mit ihren Vorannahmen, Vorurteilen, Rassismen und Institutionsgläubigkeiten. Andererseits steht in vielen Arbeiten zu Informationstechnik im Allgemeinen und zu KI im Besonderen die Qualität und Zuverlässigkeit dieser digitalen Wissensformen zur Debatte. Doch auch dies, das wird in den schon genannten Arbeiten deutlich, geht nicht ohne selbst wiederum digitale Technologien für Recherche, Auswertung und eben Wahrnehmbarkeit zu nutzen. Arbeiten, die (zumindest auch) auf Wahrnehmbarkeit und Aufklärung zielen, werden zusätzlich damit konfrontiert, dass Ästhetiken und Diskurse des Sichtbarmachens selbst inzwischen zur Kommunikationsstrategie der Digitalwirtschaft gehören. In einem Band, der Rechenzentren als die versteckten oder zumindest unbedachten sozio-technischen und ökonomischen Bedingungen der Digitalisierung thematisiert, analysieren Holt und Vonderau (2015) auch die Webseiten der Betrei-

Ethik und Künstliche Intelligenz 

 321

ber. Dort finden sich ebenfalls Schaubilder, die komplexe Zusammenhänge auf den Punkt bringen wollen. Es finden sich Bilder von Rechenzentren, die mit endlosen Serverreihen, tausenden von Kabeln, und einer glatt-sterilen aber gleichwohl sehr detailreichen Darstellung Größe und Komplexität betonen. Gleichzeitig suggerieren sie eine Ruhe und Aufgeräumtheit, welche den Lärm und die Betriebsamkeit, die in Rechenzentren herrscht, ausblenden. Vor allem aber markieren diese Bildpolitiken die Grenze von Wahrnehmbarkeit und Transparenz bezüglich eines Prozesses, der hochdynamisch und oft weltweit vernetzt mit jeder Anfrage neue Daten mit bestehenden Mustern in Verbindung bringt – und damit Daten wie Muster ändert. Diese Grenze zeigt sich in der Notwendigkeit, für Zwecke der Wahrnehmbarkeit eine Perspektive auf diese Prozesse stillzustellen: Das Rechenzentrum zeigt gleichzeitig viel zu wenig, weil es nur einen Punkt dieser vernetzten Dynamik darstellt und zu viel, weil dort auch noch unzählige andere Prozesse ablaufen. Damit treten diese kommerziellen Bilder in die Aushandlungen um die Ethik eben dieser Standpunkte, die fixiert werden, ein. Die künstlerischen Auseinandersetzungen mit KI zeigen unter anderem, dass diese Aushandlung kein Streit um die objektive Wirklichkeit hinter den Anwendungen sein kann. Eine solche Idee der Objektivität tritt oft implizit in Diskussionen um Diskriminierung oder Verzerrungen in den Ergebnissen von KI auf: Wer von Verzerrung spricht, postuliert zumindest theoretisch die Möglichkeit unverzerrter Ergebnisse. Dagegen verhandeln viele künstlerische Positionen die inhärente Perspektivität und Kontextabhängigkeit von KI.

1.2 Kontextualisierung Einen anderen Weg der Sichtbarmachung als die im letzten Abschnitt genannten, geht Ryoji Ikeda, beispielsweise mit seiner in mehreren Versionen ausgearbeiteten audiovisuellen Installationsreihe datamatics, die unter anderem auf der Ars Electronica (2009) als data.tron und auf der Biennale in Venedig (2019) als data-verse gezeigt wurden. Er nutzt jeweils neueste, hochauflösende digitale Projektoren, um auf riesigen, teilweise auch den Boden und die Decke umfassenden Leinwänden Daten darzustellen, wie sie auch die Grundlage von KI sind. Jeder der gestochen scharf wahrnehmbaren Pixel hat hier im Prinzip eine Bedeutung wie sie aus üblichen Visualisierungen von Daten in Schaubildern oder Diagrammen bekannt ist. Die schiere Masse der Datenpunkte, die Größe der Projektionsfläche und der Detailgrad lassen Betrachter:innen aber nur noch ein Strömen oder Rauschen, das ästhetische Muster formt, wahrnehmen. Hier wird an spekulativ-metaphysische Ansichten angeschlossen, die einen Bedeutungsraum der KI oder des Algorithmischen beschreiben, der für Menschen prinzipiell nicht zugänglich ist, weil er auf anderen Ebenen der Komplexität, der Zeit oder der Individuation stattfindet (Hayles 2006;

322 

 Tobias Matzner

Parisi 2016; Hui 2019). Allerdings merken selbst Vertreter:innen spekulativer oder akzelerationistischer Strategien an, dass die Konstruktion solcher Formen des technologischen Erhabenen nicht besonders hilfreich ist, weil sie eigentlich das Ende von Politik bedeutet. Stattdessen wird eine Idee der Navigation des eben nicht vollständig Überschaubaren vorgeschlagen, die dann mit technischen, aber auch technisch-ästhetischen Mitteln erfolgen soll (Srnicek 2017). Auch aus anderen ethischen Perspektiven sind solche spekulativ-metaphysischen Theorien problematisch, weil sie die Unzuverlässigkeit oder Perspektivität von Daten und Informationen nur in einem dem Technischen gegenüber mangelhaften Erkenntnissubjekt verorten. Damit wird gleichzeitig der Technologie ein ontologischer Charakter verliehen, was vielen Einsichten zuwider läuft, die zeigen, dass Technologie selbst situiert und perspektivisch zu denken ist (Suchman 2007; Latour 1995; Haraway 1988). Dazu gehört auch die spezifische Perspektivität der Elemente und der Ergebnisse von KI. Die im ersten Teil genannte Arbeit an der Sichtbarkeit der komplexen Prozesse ‚hinter der KI‘ darf also nicht so verstanden werden, dass damit nun die richtigen Parameter verfügbar werden, um KI objektiver oder fairer zu machen. Vielmehr wird die inhärente Situiertheit von KI und der verwendeten Daten deutlich (Introna 2016; Matzner 2019b): Die Prozesse der KI und die verwendeten Daten gewinnen ihre Bedeutung immer nur in der Anwendung in einem spezifischen Kontext. Eine allgemeine Strategie der Transparenz kann es somit nicht geben. Aram Bartholls Are you human (prints) (2017) kann als Aufrufen dieser Situiertheit gelesen werden. Die Arbeit besteht aus großformatigen Prints, welche die bekannte Form der CAPTCHAS aufgreifen: eine Matrix aus 4 mal 4 quadratischen Bildern, in der bestimmte Dinge zu identifizieren sind, um uns als ‚echte‘ menschliche Nutzer:innen auszuweisen. Die hier zu lösenden Aufgaben sind aber immer solche, die gerade als Trainingsdaten gebraucht werden (Mühlhoff 2019). Damit ist die Form der Datengewinnung für KI durch Nutzer:innen adressiert. Gleichzeitig sind auf den Bildern in Bartolls Arbeit statt der üblichen Ausschnitte Bilder von künstlichen wie natürlichen Grenzen (Zäune, Meere, etc.) zu sehen. Der Künstler will damit auf den Einsatz von KI für die Überwachung solcher Grenzen verweisen. Diese Bilder machen aber auch deutlich, dass auf der anderen Seite dieser Grenzen wieder Menschen sitzen, welche als ‚Clickworker‘ ebenfalls an der KI mitarbeiten. Die üblichen ‚Aufgabenstellungen‘, die benennen, was zu identifizieren sei, ersetzt Bartholl durch SpamNachrichten. Auch hiermit wird auf eine weitere Anwendung von KI (Spamfilter) Bezug genommen – aber auch auf die ökonomischen Prozesse und ‚Versprechen‘ (Bartholl 2017), die digitale Kommunikation strukturieren. Tristan Schulze zeigt in Automaton (2020) Stoffe aus dem Biedermeier, die er dem Archiv einer traditionsreichen Weberei entnimmt. Diese werden durch kleine Computer, die auf die drapierten Stoffproben gesetzt sind, gescannt und auf bestimmte Muster analysiert. Aus diesen Mustern generiert dann eine KI laufend

Ethik und Künstliche Intelligenz 

 323

neue Muster, die auf Bildschirmen über den Stoffbahnen zu sehen sind. Die im Titel angesprochene Automatisierung ist hier also nicht einfach eine Verlängerung menschlicher Tätigkeit durch Technik. Dass dies keine neue Frage ist (Bublitz et al. 2011), wird durch im Hintergrund montierte Lochkarten angezeigt, die frühe mechanische Webstühle steuerten. Mit KI entsteht aber der Anspruch, nicht nur Produktionsprozesse, sondern auch kreative Tätigkeiten zu optimieren: Im Hintergrund von Schulzes im Stoffarchiv selbst gezeigter Installation finden sich die sorgsam verwahrten Muster, welche Tradition und Ruf des Gewerbes ausmachen. Davor entsteht auf den Bildschirmen ein unendlicher, schneller, beliebiger Strom an Mustern. KI bedeutet dann eine Rekontextualisierung von Schöpfungs- und Wertschöpfungsprozessen, die übersehen wird, wenn es nur um die Frage geht, ‚menschliche‘ mit ‚maschinellen‘ Fähigkeiten zu vergleichen. Vielmehr geht es z.  B. auch um Unterschiede in Verfügbarkeit, Anmutung, kultureller Einbettung, Kommodifizierung und Verwertbarkeit der Ergebnisse. Trotz aller beeindruckenden Möglichkeiten der KI wird hier auch deutlich, dass KI immer noch Informationstechnik ist, die darauf beruht, einmal festgelegte Algorithmen auszuführen. Auch wenn diese Ausführung bedeutet, aus Daten zu lernen, läuft sie dennoch mit der spezifischen Starrheit des Programmierten ab und generiert in diesem Fall Muster um Muster. Dazu gehört auch, dass die Algorithmen auch dann weiterlaufen, wenn die Eingabedaten nicht den Intentionen oder Annahmen der Programmierung entsprechen. Das führt zu den in der Presse immer wieder aufgegriffenen Fehlklassifikationen, oft in mehr oder weniger rassistischen und sexistischen Ausprägungen. Das führte auch dazu, dass der ‚intelligente‘ Chatbot Tay, den Microsoft entwickelt hatte, in wenigen Stunden von einer entsprechend gesinnten Web-Community zu sexistischen und rassistischen Aussagen verleitet wurde. Somit ist KI anfällig für ‚Störungen‘, die gerade daraus folgen, dass sie trotz aller ‚Intelligenz‘ dann meistens doch einer recht einfachen Optimierungslogik folgt. Gleichzeitig öffnet sich damit die Frage, was ‚Störung‘ bedeutet. Solche ‚Störungen‘ sind im Bereich der Suchmaschinenoptimierung und des Social Media Marketing beispielsweise selbst schon wieder Produkte. Denn hier geht es ja genau darum, die Algorithmen welche die Inhalte von Feeds oder Sucherergebnisse auswählen, im Sinne der Kunden zu manipulieren. Die !Mediengruppe Bitnik drapiert in Alexiety diverse ‚Smart Speaker‘ wie Alexa oder Google Home um einen Monitor, der ein Musikvideo zeigt. Nun reagieren auch die Geräte, die mit Sprachsteuerung funktionieren, auf das Audiosignal des Videos, weil sie versuchen, auf jedes Signal zu reagieren. Da diese Reaktionen zu Sprachausgaben führen, reagieren die Geräte dann auch untereinander. Die Musik als Eingabesignal unterbricht somit die vom vermarkteten Anwendungskontext vorgegebene servile Befehlseingabestruktur und nutzt diese sich durch die KI verstärkende ‚Störung‘ durch chaotisch durcheinander ‚redende‘ Geräte als Teil der Performance.

324 

 Tobias Matzner

Solche Möglichkeiten, die der KI zugrundeliegenden Optimierungsverfahren zu durchbrechen, werden regelmäßig für direkter ethisch motivierte Aktionen verwendet. Der schon genannte Adam Harvey hat mit dem Projekt CV Dazzle (2010) viel Aufmerksamkeit erregt, welches versucht, bekannte Schwachstellen von Gesichtserkennungsalgorithmen durch Make-Up und Frisuren auszunutzen. Bjørn Karmann und Tore Knudsen bauen im Project Alias (2018) einen weiteren ‚Smart Speaker‘, der auf den Geräten von Google oder Amazon montiert werden kann und diese durch Rauscheinspielungen stilllegt. Erst durch ein bestimmtes Codewort, das vom Alias-Gerät wiederum mittels KI erkannt wird, wird das Rauschen unterbrochen und die eigentliche Nutzung ermöglicht. Damit soll das dauerhafte Zuhören der ‚Smart Speaker‘ ausgeschaltet werden. Hier wird also eine Technik gegen sich selbst verwendet – eine aber aus dem kommerziellen Kontext, die andere aus dem von Open Source und Kunst. Allerdings wird mit solchen Strategien das allgemeine Setting einer Dauerbeobachtung anerkannt. Bereits in der Nachfolge der Arbeiten von Judith Butler und anderen zum Queering wurde diskutiert, inwiefern subversive Praktiken eine erfolgreiche Strategie sind. Sie bieten sich dort an, wo umfassende Machtstrukturen eine Position gegenüber oder Außerhalb dieser Macht unerreichbar machen (Butler 1993a). Entsprechend interpretieren auch Nissenbaum und Brunton digitale Strategien der Obfuskation, also Formen des sichtbar, aber nicht erkennbar Seins, als Möglichkeiten für Akteure mit wenig Macht (Brunton und Nissenbaum 2015). Strategien, die im Kontext von Hochglanz-Fashion-Optik oder Institutionen der Kunstwelt einem selektiven Publikum angeboten werden, laufen aber Gefahr, Widerstand oder Privatheitsschutz selbst zu einem (Luxus-)Produkt zu machen (Papacharissi 2010) und dabei wichtige Differenzierungen bei den Auswirkungen von Überwachung außen vor zu lassen (Monahan 2015). Die Open Source Community, Hacker und Makerspaces bieten wichtige Impulse und eröffnen Handlungsräume, die aber oft auch eine große technische Kompetenz und bestimmte soziokulturelle Positionierungen abverlangen. Generell stellt sich die Frage, welche Form von Subjekt oder Subjektivierung eine kritische Position immer schon voraussetzt (Monahan 2018), die sie dann also selbst nicht mehr hinterfragen kann oder der sie sogar selbst Vorschub leistet. Das ist im Verhältnis von Kunst und Gesellschaft natürlich ein bekanntes und großes Problemfeld, welches schon vielfältig bearbeitet und diskutiert wurde. Deshalb sollen hier nur einige für KI spezifischen Punkte herausgegriffen werden. Der erste Punkt betrifft die Tatsache, dass KI in einen breiten Kontext der Datensammlung, aber auch der allgemeinen Verbreitung von Informations- und Kommunikationstechnologien eingebettet ist. Diese systemischen Effekte sind aus individuellen Subversions- oder Verweigerungsperspektiven schwer zu greifen. Da KI auf Mustererkennung, also generalisierten Ähnlichkeiten, beruht, muss ein

Ethik und Künstliche Intelligenz 

 325

solches System die Daten einer bestimmten Person gar nicht haben, solange es genügend Daten hat, die dieser Person ähnlich sind. Wenn es diese Daten nicht hat, wird mit dem gearbeitet was da ist – und die Person wird dann eben hinreichend ‚ähnlich gemacht‘. Einer KI keinen Input mehr oder verzerrten Input zu liefern, heißt nicht, dass sie nicht doch Effekte hat. Das leitet über zu einem zweiten Punkt: In vielen, auch kritischen Arbeiten (Boyd und Crawford 2012; Lyon 2014) wird KI so verstanden, dass KI eine mehr oder weniger gute Repräsentation der Welt liefern soll (Matzner 2018). Sie soll herausfinden, ‚was‘ auf Bildern zu sehen ist, ob etwas zu einer bestimmten Klasse gehört, etc. Verschleierung, Tarnung etc. ergibt dann Sinn, wenn es darum geht, etwas über das Verschleierte oder Getarnte zu wissen. Wie soeben erläutert geht es bei KI aber gar nicht darum, etwas über eine bestimmte Person zu wissen, sondern basierend auf hinreichender Ähnlichkeit etwas zu tun (die Person zu klassifizieren, ihr Werbung anzubieten oder sie nicht durch die Grenze zu lassen). Und dafür ist das durch Tarnung unverfügbare Wissen vielleicht gar nicht nötig. Wie eben schon deutlich wurde, missversteht das aber die Funktion der KI. Sie bildet nicht einfach etwas ab, sondern schafft neue Kategorien, Bewertungsmaßstäbe, Praktiken, Subjektformen.

1.3 Performativität Auch dieser Übergang von Repräsentation zu Performativität ist nicht neu. Er schließt an vielfältige Diskurse zur Performativität von Sprache (Althusser 2016; Butler 1993a; Hall 2016; Wittgenstein 1984), Daten (Gitelman 2013), Bildern (Doy 2005; Mitchell 2007) oder des Fernsehens (Butler 1993b) an. Auch hier zeigen sich die für die KI spezifischen Formen der Performativität. Hito Steyerls Video How Not to be Seen: A Fucking Didactic Educational .MOV File (2013) nutzt als ein Motiv Kalibrierungstafeln für Kameras – inklusive deren extrem vergrößerte Versionen, die in den Wüsten der USA der Einrichtung von Luftaufklärungskameras dienen. Bevor die Welt also abgebildet werden kann (hier durch Kameras) muss erst einmal etwas in der Welt geschaffen – also verändert werden. Nicht-gesehen-werden kann dann nur Verschiebungen in diesen Produktionspraktiken bedeuten, die Steyerl mit diversen Green-Screen Effekten andeutet. Zudem benennt sie die inzwischen üblichen Gesten der Mediennutzung und Produktion (Swipe, Scroll, Zoom etc.) als Wege der Unsichtbarkeit. Und auch die Anleitung selbst kommt hier selbstbewusst oder wenigstens selbstironisch als mediales Produkt, als ‚Fucking Didactic Educational .MOV File‘ daher. Wie im ersten Abschnitt gesehen, bedeutet der Einsatz von KI, vielerlei Formen der Datengeneration zu aktivieren und die nötige Infrastruktur (z.  B. viele mobile Geräte mit ausreichend Bandbreite vernetzt mit Rechenzentren) zu betreiben. Es

326 

 Tobias Matzner

wurde ebenfalls gezeigt, dass die Auswirkungen von KI nicht nur in den Repräsentationen oder Ergebnissen zu suchen sind, die diese produzieren. Vielmehr geht es um Verschiebungen von Praktiken, die aus ethischer Sicht in den Blick genommen werden. Seit Edward Snowdens Enthüllungen ist bekannt, dass unser Sozialleben den Beobachtungpraktiken diverser Geheimdienste als Quelle dient. Ebenfalls ist bekannt, dass unser Sozialleben mittels Mustererkennung in die gewinnträchtigsten Produkte unserer Zeit umgewandelt wird (Zuboff 2019). Die Frage, ob eine KI die richtigen Musikstücke, Dates oder Veranstaltungen vorschlägt, muss also ergänzt werden mit der Frage: Was bedeutet es für unser Handeln, für unsere Praktiken, wenn sich staatliche Überwachung und unternehmerische Kommodifizierung parasitär an unseren Aktivitäten bedienen (Matzner 2016) – und das umfasst deutlich mehr als die Frage, ob wir für diese Leistung entlohnt werden sollten (Lanier 2014). Zach Blas‘ übertreibt diese Performativität mit seiner Facial Weaponization Suite (2012–14) ganz bewusst. Er sammelt Bilder, die auf die besondere Betroffenheit von Schwulen, Schwarzen Menschen, Frauen oder Migrant:innen durch KI-basierte Überwachung hinweisen. Aus den Bildern dieser Personengruppen generiert er digitale Summen, welche grotesk verzerrte, glänzende Kunststoffgebilde ergeben, die als Masken das eigentliche Gesicht ersetzen. Monahan merkt zu Recht an, dass Blas selbst die Masken in seinen Begleittexten als Strategie des Unsichtbarmachens und Verschleierns verstanden wissen will – mit den oben genannten Problemen, dass diese bestehende Macht immer schon anerkennen (Monahan 2015, S. 168). Blas‘ Arbeit hat auch eine Seite, die nicht auf das Verstecken abzielt, sondern auf die Normalität der KI. Und hier ist jede Form des ‚Erkennens‘ durch KI nichts anderes, als die Produktion einer solchen Maske. Die damit einhergehende Bedeutungsverschiebung ist in Blas‘ Masken nur ins Extrem verstärkt. Auch die vermeintliche Objektivität oder sogar Bezifferbarkeit der Qualität der Resultate einer KI sind Teil einer solchen Performativität. Christian Schmiegs Decisive mirror (2019) ist ein Spiegel, der nach kurzer Zeit der Selbstbetrachtung Bewertungen einblendet, zum Beispiel „you are 17 % one of them,“ oder „you are 65 % imaginary“. Auch hier greift eine Interpretation zu kurz, die nur darauf abzielt, dass eine KI komplexe Konzepte (Imagination) oder moralische aufgeladene Zuschreibungen (One of them) nicht wirklich erfassen könne. Vielmehr: Sie kann es, weil sie es tut. In dieser Hinsicht schrieb bereits Hannah Arendt über den Behaviorismus als eine frühe Form, das Verhalten des Menschen messbar zu machen: „Das Beunruhigende an den modernen Theorien des Behaviorismus ist nicht, daß sie nicht stimmen, sondern daß sie im Gegenteil sich als nur zu richtig erweisen könnten […]“ (Arendt 2015, S.  411). Anders gesagt: Was eine Soziotechnik in der Gesellschaft anrichtet, hängt nicht nur von ihrer wissenschaftlichen Korrektheit ab. In ähnlicher Weise hat KI die beunruhigende Eigenschaft, längst überwunden geglaubte Ideen wieder mit wissenschaftlich-objektiver Relevanz zu versehen:

Ethik und Künstliche Intelligenz 

 327

Inzwischen liegen Studien vor, die behaupten Homosexualität (Wang und Kosinski 2018) oder Kriminalität aus Gesichtern erkennen zu können (Wu und Zhang 2016). Im Rahmen der Debatten um autonome Fahrzeuge konnte sogar eine empirisch ermittelte Liste mehr oder weniger lebenswerten Lebens prestigeträchtig in Nature und Science publiziert werden (Matzner 2019a), wenngleich zeitnah Probleme und Mängel dieser Studien identifiziert wurden (Bergstrom und West 2019). Aus ethischer Sicht ist nicht nur relevant, dass die Studien falsch sind – sondern dass es sie gibt. Wenn ein KI-basierter Spiegel somit findet: „you are 17 % one of them“ macht er keine Aussage, die (mehr oder weniger) zu überprüfen ist, sondern er verschiebt die Bedeutung dessen, was „one of them“ heißt, wer das festlegt und warum. Ganz grundlegend sind KI-basierte Techniken also Prädiktionsmechanismen. Sie nutzen bestimmte Daten, um etwas anderes vorherzusagen. Solche Prädiktionen der KI stehen in einer Spannung zwischen Festlegung und Beliebigkeit. „The network brags it can predict the future and then just keeps repeating itself“, so die Voice-Over Erzählstimme in Hito Steyerls Videoinstallation This is the future (2019). Wenn KI auf Daten basiert, die ‚irgendwie‘ generalisiert werden, dann kann sie auch immer nur das erkennen, was in den Daten schon da war. Genauso gehen Diskriminierungen, Ungleichheiten, oder schlicht zufällige Eigenarten, die sich in den Daten finden, in die Prädiktion ein. „Your future has been written in the past and will always catch up with you“, heißt es an einer anderen Stelle des Videos. This is the future erzählt die märchenartige Geschichte von Heja, die von einer unklar bleibenden Herrschaft bedroht ist und im Gefängnis Blumen züchtet  – dadurch entsteht ein Garten, dessen Blumen mächtige Fähigkeiten haben. Diese versteckt sie folglich in der Zukunft, wo sie, so die Vorhersage des ‚Network‘, später wieder einfach zu finden wären. Dieser sehr viele Fragen aufwerfende Satz wird im Video ohne Erläuterung in die Narration eingebaut, als sei es klar, dass etwas ‚in der Zukunft versteckt‘ werden könne. Was hier also nach Magie und Zeitreise klingt, ist auch Ausdruck eines instrumentellen Bezugs auf die Zukunft. Prädiktion bedeutet, die Zukunft jetzt schon nutzbar machen zu können. Dieser instrumentelle Zugang zur Zukunft lebt aber davon, nur bestimmte, bereits bekannte Möglichkeiten in die Zukunft fortsetzen zu können (Amoore 2013). Steyerl greift diese Idee auf, kontrastiert sie aber mit dem zweiten Motiv: der Beliebigkeit. Das Video zeigt Blumen und Unterwasseraufnahmen – allerdings sind beide nicht direkt gefilmt. Vielmehr wird ein Neuronales Netzwerk benutzt, um aus einem Stückchen Film den nächsten Frame (oder die nächsten Frames) vorherzusagen. Am Ende werden dann nur diese Vorhersagen gezeigt. Das ergibt ein leicht surreal anmutendes, sich beständig bewegendes, verschiebendes, waberndes Bild, das aber noch ausreichend Ähnlichkeit mit dem gefilmten Gegenstand hat, damit dieser erkannt wird. Damit wird also die Unzuverlässigkeit, Beliebigkeit oder Zufälligkeit, die alle Ergebnisse von KI auszeichnet, sichtbar gemacht. Auf einer weiteren Ebene wird das Verhältnis von Belie-

328 

 Tobias Matzner

bigkeit und Festlegung nochmals gebrochen, wenn zu den Voice-Over-Worten „But as the future was predicted, the present became unpredictable“ die ästhetischen Bilder durch Aufnahmen von Naziaufmärschen unterbrochen werden. Dieselbe Spannung zwischen Beliebigkeit und Festlegung prägt Heather DeweyHagborgs Stranger Visions (2012–2013). Dewey-Hagborg sammelt Müll von den Straßen: Kaugummis, Zigarettenstummel, Haare. Daraus gewinnt sie Reste von DNS. Diese wiederum können mit Techniken der DNS-Phänotypisierung ausgewertet werden. Dieses Verfahren, das normalerweise kriminellen Ermittlungen dienen soll, lässt z.  B. gewisse Rückschlüsse über Haar-, Augen-, Hautfarbe oder Alter einer Person zu. Inzwischen gibt es Software, die prädiktive Modelle nutzt, um ein realistisches Bild der Person zu generieren. Diese Bilder sind erstens den Unsicherheiten unterworfen, welche jegliche Geninformation hat, z.  B. dass sie nicht zwingend phänotypisch sichtbar werden muss. Vor allem aber beruhen sie auf einer Vielzahl an Vorannahmen und mehr oder weniger zufällig gesetzten Parametern, die sich nicht durch die Informationen aus der DNS bestimmen lassen. Dewey-Hagborg nutzt eine solche Software und macht aus den Computermodellen 3D-gedruckte, realistisch gefärbte Plastiken der Personen, von denen der ‚Müll‘ stammt. Hier verschwinden nun all die Unsicherheiten und Prozesse, welche bei Steyerl durch die fließend-wabernden Bilder in den Vordergrund geraten, hinter dem überzeugenden Aussehen eines Gesichts. Wie sehr das Bild tatsächlich durch die Eigenheiten des Modellierungsprozesses und die Annahmen seiner Nutzer:innen geprägt ist, wird erst durch die Begleittexte der Künstlerin deutlich – oder wenn sie in einem zweiten Werk Probably Chelsea (2017) knapp 20 Modelle aus der DNS der Whistleblowerin Chelsea Manning gewinnt. Alle sind unterschiedlich  – aber aus dem Prozess der DNS-Phänotypisierung gleich plausibel. Auch hier kommt eine zweite Ebene hinzu, weil Manning als Bradley Manning unter männlicher Geschlechtszuschreibung bekannt wurde, nun aber als Chelsea Manning lebt. Die DNS hat sich in der Zwischenzeit nicht verändert. Somit wird hier schon in den Ausgangsdaten eine spezifische Sicht auf die Welt nachvollziehbar, die wichtige Realitäten ausblendet. Es greift somit zu kurz, KI nur als eher naive Fortsetzung realer Verhältnisse zu sehen: KI ist eben dann diskriminierend, wenn die Gesellschaft diskriminierend ist. Damit wird KI – zumindest implizit – als neutrales Medium gesetzt, das abbildet, was auch immer eingegeben wird. Wenig zielführend ist es auch, KI umgekehrt als das Aufzwingen einer bestimmten Logik oder bestimmter Annahmen der Programmierung ‚von außen‘ zu sehen. KI steht in einem ambivalenten Verhältnis zwischen dem Aufgreifen bestimmter, durch Datafizierung erfasster (und damit auch immer in bestimmter Hinsicht nicht erfasster) Realitäten, deren Verschiebung und der performativen Produktion neuer Realitäten. Diese Performativität hängt nicht nur von der KI selbst ab, sondern auch der Art und Weise, wie sie in Praktiken eingebunden ist. Tristan Schulzes Pling (2019)

Ethik und Künstliche Intelligenz 

 329

besteht aus einer Spieluhr, die durch gelochte Pappstreifen, die daneben an der Wand hängen, ihre ‚Noten‘ bekommt. Betrachter:innen können sich die Streifen aussuchen, in die Spieluhr einführen und durch Drehen an einer kleinen Kurbel durch die Spieluhr bewegen. Die Musik, die auf den Streifen notiert ist, wurde durch generative Algorithmen geschaffen. Damit wird die Musik erst durch die Aktivität der Betrachter:innen hörbar und verliert so etwas von ihrer Technizität – und vielleicht auch der Beliebigkeit  – die sie etwa als in Kopfhörern oder Lautsprecher abgespielte Komposition einer KI hätte. Andererseits wäre eine einfache Spieluhr – ohne KI – wahrscheinlich kein bemerkenswertes Ausstellungsstück.

2 Kunst mit KI Die Frage, ob und wie die Künste selbst ethische Praxis sind, ist schwer und vielfältigst bearbeitet worden. Dem kann in einem Handbuchbeitrag nur kursorisch nachgegangen werden. Deshalb seien hier nur ein paar für die Nutzung von KI in den Künsten spezifische Aspekte herausgegriffen. Diese stellen zumindest manche der Theorien über die Ethik der Künste infrage. Ein zentrales Problem ist hier, dass Kunst, welche die Informationstechnologien digitaler Plattformen nutzt, eben diese Plattformen nutzt. Wer Kunst auf Instagram und Facebook macht, kommt nicht umhin, dass Daten bei der Produktion und Betrachtung der Kunst genauso gesammelt werden, wie bei jeder anderen Aktivität auf diesen Plattformen. Selbst, wer lediglich ein Ipad in einer Galerie anbringt, unterwirft sich bereits den Lizenz- und Nutzungsrechtsvereinbarungen von Apple und den damit einhergehenden Möglichkeiten, die Nutzung des Gerätes auszuwerten und auf dessen Inhalte zuzugreifen. Das mag nicht direkt als Problem von Künstlicher Intelligenz wahrgenommen werden. Im ersten Abschnitt wurde jedoch deutlich, dass Künstliche Intelligenz nicht ohne die ‚Mitarbeit‘ vieler Menschen zu denken ist, und das sind eben nicht nur Programmierer:innen. Die in den Künsten thematisierte Positionierung von Nutzer:innen als Lieferant:innen der nötigen Daten findet also auch in der Kunst selbst statt. Damit sind digitale Plattformen als umfassende Datengewinnungsapparate (Bucher und Helmond 2017) eng mit den aktuellen Entwicklungen von KI verzahnt (Mühlhoff 2019). Die Künste sind (neben vielen anderen Bereichen der Gesellschaft) mit der Herausforderung vernetzter, mobiler, plattformbasierter Informations- und Kommunikationstechnologien konfrontiert, die immer mehr Bereiche des Lebens miteinander vernetzen; und mit KI als einer Technologie, die solche Vernetzungen herstellt. Ganz konkret bedeutet das für Künstler:innen, Museen, Galerien etc., sich mit Datenschutz, Datensammlungen und deren Konsequenzen auseinandersetzen zu müssen – eventuell auch mit rechtlichen Einschränkungen und damit

330 

 Tobias Matzner

einhergehenden Kosten. Für die Frage nach ethischen Dimensionen der Künste ist das zudem eine grundsätzliche Herausforderung in dem Sinn, dass eine bestimmte Richtung, das Verhältnis von Künsten und Gesellschaft, zu denken von einer „Außenposition“ der Kunst abhängt. Holger Kube Ventura zählt „Anderssein“, „Verweigern“ und „Draußensein“ zu den Möglichkeiten einer „Kunst mit politics“ (Kube Ventura 2002, S. 16). Ganz besonders betont Boris Groys diesen Aspekt, wenn er zwei Formen des „Art Activism“ unterscheidet: Zum einen gebe es bewusst aktivistische Kunst, wie etwa Propaganda oder Kunst, die sich explizit mit einem politischen Programm identifiziert. Zum anderen sei aber jede Kunst „aktivistisch“ in dem Sinne, dass sie Dinge und Praktiken des Alltags in einer anderen, spezifisch künstlerischen Praxis des Umgangs rekontextualisiert. Unabhängig davon, was etwas vorher war – zum Kunstwerk werde es durch die Suspension von Alltagspraktiken (Groys 2018, 51). Damit wird insbesondere durch Kunst auch eine Vergangenheit produziert und somit Raum für Neues eröffnet. Kunst überführt die Gegenwart in etwas, das im Museum (oder in der Galerie) zu betrachten ist, sodass damit zumindest eine Vergangenheit im Sinne einer Abgeschlossenheit postuliert wird. Mit dem Motiv der Rekontextualisierung, die Alltagspraktiken suspendiert, sowie dem Bezug zur Vergangenheit greift Groys zwei zentrale Motive auf, die auch in anderen Theorien wichtig sind. Groys pointierte, mitunter saloppe Zuspitzung eignet sich hier, um stellvertretend für diese Theorierichtungen die Implikationen für KI zu erklären. Wenn die ethische Dimension von Kunst also aus diesem Aussetzen von Zwecken und Funktionen besteht – Groys spricht in diesem Sinn von Kunstwerken als ‚Leichen‘  – dann ergibt sich das Problem, dass KI in zweifachem Sinn nicht ‚totzukriegen‘ ist. Zum einen ist KI, wenn sie nicht nur künstlerisches Arbeitsmittel, sondern Teil einer Arbeit ist, ein laufendes Programm, das dauernd Daten verarbeitet. Zumindest in dieser Hinsicht muss sie funktionieren. Das träfe nun aber auch auf viele andere interaktive (Medien-)Kunst zu. Hier kann aber immer noch das Ganze des Kunstwerkes inklusive der interaktiven Prozesse als Abgeschlossenes gesehen werden, das zwar einen medientechnischen Prozess nutzt, der so ähnlich wie andernorts funktioniert, aber doch in einem anderen, künstlerischen Kontext. Gerade die frühe Medienkunst zielte sehr auf die Produktion solcher Abschlüsse, etwa durch Techniken der Selbstanwendung und Zirkularität, wie sie etwa Nam June Paiks Closed-Circuit-Installationen, die Faszination von Fraktalen oder auch stark von der Kybernetik gedachte Kunsttheorien wie jene Benses (1956) zum Ausdruck bringen. Dieser Aspekt ist für manche gar grundlegender Charakter jeder Medienkunst (Krewani 2016). Das kann neben der historischen Bedeutung auch daran liegen, dass sich gegenüber einem geschlossenen System leicht eine Beobachterposition einnehmen lässt. Auch frühe Internetkunst zielte zwar nicht auf Abschlüsse, dennoch aber darauf im Internet neue, andere, heterotope ‚Orte‘ oder wenigstens ironisch-satirische Kopien mit und für Kunst zu schaffen; beispielsweise die alternativen Online-Shops und digitalen Unternehmen von etoy oder Ubermorgen.

Ethik und Künstliche Intelligenz 

 331

Unter zeitgenössischen Bedingungen ist Abgeschlossenheit schwer zu erreichen. Zum einen sind die meisten Künstler:innen auf frei verfügbare KI-Programme und Bibliotheken angewiesen. Diese wiederum werden größtenteils von den großen Anbietern bereitgestellt und sind damit mit deren Ökosystem aus Daten und Kapitalisierungsprozessen verwoben. Dazu kommt, dass die Technik digitaler Plattformen auch im Museum oder in der Galerie Teil der Plattform bleibt. Datensammlungen etc. gehen weiter. Man mag nun einwenden, dass diese Daten nicht besonders aussagekräftig oder problematisch sind. Hier wiederholt sich aber das oben zu Subversion oder Obsfuskation gesagte: Für die einzelnen Daten mag das stimmen, aber es verschiebt sich das gesellschaftliche Verhältnis zwischen Künsten und den anderen Bereichen. Zum anderen stellt sich die Frage, wie stark dieser Abschluss sein muss. Für Groys ist eine aktivistische Strategie der Kunst auch, Sachen schlecht zu machen. Oder vielmehr: Kunst muss nicht mehr gut im Sinne von kunstfertig sein, weil ihr Ziel die Ermöglichung eines distanzierenden Rückblicks ist (Groys 2018, 57). Ein solches ‚Schlecht‘-Machen kann dann auch heißen, sich von Neuronalen Netzen ein Stoffmuster nach dem anderen generieren zu lassen oder relativ unpräzise Vorhersagen über die nächsten Frames eines Films. Zudem ist natürlich die Frage, ob hier nicht auch die von Groys vertretene Form der Theorie an ihre Grenzen kommt. Wenn eine der relevanten Eigenschaften von KI die Vernetzung, die dauernde Öffnung auf neue Muster und neue Daten ist, verfehlt man dann nicht gerade etwas Wichtiges, wenn man sie in eine geschlossene Form auf sich selbst zurückbiegt? Das trifft sich mit Debatten in der kritischen Theorie zu KI, inwiefern es möglich sein muss, ein ‚Außen‘ der KI oder des Algorithmischen zu finden – oder ob man nicht genau dadurch relevante ethische Dimensionen der KI verfehlt (Matzner 2019b). Das bedeutet sicher nicht, dass die eventuelle Einbettung in Plattformen und deren Vorschriften und Bedingungen für die Künste nicht problematisch sein kann. Aber ihre ethische Relevanz muss sich nicht dadurch (oder deren Abwesenheit) definieren. Wenn es ihnen, wie oben gezeigt, um die Verschiebungen im Sozialen, Ökonomischen und Kulturellen geht, dann sind pauschale Urteile über ‚die KI‘ nicht besonders spannend. Vielmehr geht es dann um die spezifischen Differenzen, die solche Verschiebungen hervorbringen und wie die Künste sich darin und dazu positionieren können. Aber auch für solche stärker situiert gedachten Auffassungen der Kunst kann der komplexe und vernetzte Charakter von Informationstechnologie herausfordernd sein. Juliane Rebentisch beschreibt eine Entgrenzung der Kunst, welche die Trennung zwischen Kunst und ihrem sozialen Außen ohnehin einreißt (Rebentisch 2014). Kunst entsteht dann erst in einer spezifischen Form der Erfahrung, wo Elemente, die ‚von außen‘ kommen, weder einfach bleiben, was sie sind, noch komplett ihre Bedeutung und Funktion verlieren. Es ist dann diese Ambivalenz, die nicht mehr in einer bestimmten Bedeutung oder Repräsentation festgestellt werden kann, welche die ethische Dimension der Kunst ausmacht (Rebentisch 2014). Rebentisch baut hier vor allem auf

332 

 Tobias Matzner

eine Differenz zu dokumentarischen oder repräsentativen Formen wie Fotografien, deren Repräsentation dann hinterfragt wird. Umso mehr könnte diese Sicht aber zu einer Technik passen, die nicht nur repräsentativ darstellt, sondern performativ in die Welt eingreift. Rebentisch betont, dass mit der Betonung des Erfahrungsprozesses auch das Subjekt oder die Subjektivierung der Betrachter:innen wichtig wird. Hier stellt sich auch das Problem einer Kunst mit KI. Die Schaffung einer Ambivalenz in Rebentischs Sinn hängt davon ab, wie viele der komplexen Prozesse und Bedingungen einer KI Teil der künstlerischen Erfahrung werden können – insbesondere, wenn sich diese wie oben geschildert auf anderen Kontinenten oder hinter den gut geschützten Fassaden großer Konzerne abspielen.

Künstlerische Arbeiten Bartholl, Aram. Are you Human (2017). https://arambartholl.com/are-you-human-prints/ (16. März 2023). Dewey-Hagborg, Heather. Stranger Visions (2015). http://www.deweyhagborg.com/projects/strangervisions (16. März 2023). Dewey-Hagborg, Heather. Probably Chelsea (2017). https://deweyhagborg.com/projects/probablychelsea (16. März 2023). Forensic Architecture. The murder of Halit Yozgat (2017). https://forensic-architecture.org/investigation/ the-murder-of-halit-yozgat (16. März 2023). Harvey, Adam. CV Dazzle (2010–heute). https://cvdazzle.com/ (16. März 2023). Ikeda, Ryoji. data.tron (2019). http://www.ryojiikeda.com/project/datamatics/ (16. März 2023). !Mediengruppe Bitnik. Alexiety (2018). http://www.roehrsboetsch.com/artists/detail/ mediengruppe-bitnik/work/alexiety/ (16. März 2023). Schulze, Tristan. Automaton (2019). https://tristanschulze.de/?page_id=2732 (16. März 2023). Schulze, Tristan. Pling (2019). https://tristanschulze.de/?page_id=2243 (16. März 2023). Steyerl, Hito. How Not to be Seen: A Fucking Didactic Educational .MOV File (2013). https://www.artforum. com/video/hito-steyerl-how-not-to-be-seen-a-fucking-didactic-educational-mov-file-2013-51651 (16. März 2023). Steyerl, Hito. This is the future (2019). http://www.artnet.de/k%C3%BCnstler/hito-steyerl/this-is-thefuture-a-p0I2BCnVaqc2pOtJTYUZEw2 (16. März 2023).

Literaturverzeichnis Althusser, Louis. Ideologie und ideologische Staatsapparate. Gesammelte Schriften: Ideologie und ideologische Staatsapparate, Band 1, Halbband. Hrsg. von Frieder Otto Wolf. 2., unveränderte Auflage. Hamburg 2016. Amoore, Louise. The politics of possibility: Risk and security beyond probability. Duke 2013. Arendt, Hannah. Vita activa oder Vom tätigen Leben. 16. Auflage. München 2015.

Ethik und Künstliche Intelligenz 

 333

Bense, Max. Ästhetische Information: Aesthetica II. Baden-Baden 1956. Bergstrom. Carl und Javin West. Case Study – Criminal Machine Learning. https://www.callingbullshit. org/case_studies/case_study_criminal_machine_learning.html. 2019 (16. März 2023). danah boyd und Kate Crawford. „Critical Questions for Big Data“. Information, Communication and Society 15.5 (2012): 662–679. Brunton, Finn und Helen Fay Nissenbaum. Obfuscation: a user’s guide for privacy protest. Cambridge, Mass. 2015. Bublitz, Hannelore, Irina Kaldrack, Theo Röhle und Hartmut Winkler (Hrsg.). Unsichtbare Hände. Automatismen in Medien-, Technik- und Diskursgeschichte. München 2011. Bucher, Taina und Anne Helmond. „The affordances of social media platforms“. The SAGE handbool of social media. Hrsg. von Jean Burgess, Alice Marwick und Thomas Poell. London und New York 2017: 223–253. Butler, Judith. Bodies that matter: On the discursive limits of „sex“. New York 1993a. Butler, Judith. „Endangered/endangering: Schematic racism and white paranoia“. Reading Rodney King/reading urban uprising. Hrsg. von Robert Gooding-Williams. New York 1993b: 15–22. Crawford, Kate und Vladan Joler. Anatomy of an AI-System. https://anatomyof.ai/. 2018 (7. März 2020). Dourish, Paul und Melissa Mazmanian. „Media as Material: Information Representations as Material Foundations for Organizational Practice“. Third International Symposium on Process Organization Studies 2011. Doy, Gen. Picturing the self: changing views of the subject in visual culture. London und New York 2005. Gillespie, Tarleton. Custodians of the internet: platforms, content moderation, and the hidden decisions that shape social media. New Haven 2018. Gitelman, Lisa. Raw Data is an Oxymoron. Cambridge, MA 2013. Groys, Boris. „On Art Activism“. In the flow. Hrsg. von Boris Groys. London und New York: 43–60. Hall, Stuart. Ideologie, Identität, Repräsentation. Ausgewählte Schriften. Hrsg. von Andreas Merkens. Fünfte Auflage. Hamburg 2016. Haraway, Donna. „Situated Knowledges: The science question in feminism and the privilege of partial perspective“. Feminist Studies 14.3 (1988): 575–599. Hayles, Nancy Katherine. „Unfinished Work: From Cyborg to Cognisphere“. Theorie, Culture & Society 23.7–8 (2006): 159–166. Holt, Jennifer und Patrick Vonderau. „Where the Internet Lives – Data Centers as Cloud Infrastructure“. Signal traffic: critical studies of media infrastructures. Hrsg. von Lisa Parks und Nicole Starosielski. Urbana 2015: 71–93. Hosny, Ahmed, Chintan Parmar, John Quackenbush, Lawrence H. Schwartz und Hugo J. W. L. Aerts. „Artificial intelligence in radiology“. Nature reviews. Cancer 18.8 (2018): 500–510. Hui, Yuk. Recursivity and contingency. London und New York 2019. Introna, Lucas Daniel. „The algorithmic choreography of the impressionable subject“. Algorithmic Cultures: essays on meaning, performance and new technologies. Hrsg. von Robert Seyfert und Jonathan Roberge. Routledge 2016: 26–51. Kitchin, Rob. „Thinking critically about the researching algorithms“. Information, Communication & Society 20.1 (2017): 14–29. Krewani, Angela. Medienkunst: Theorie – Praxis – Ästhetik. Trier 2016. Kube Ventura, Holger. Politische Kunst Begriffe in den 1990er Jahren im deutschsprachigen Raum. Wien 2002. Lanier, Jaron. Who owns the future? New York 2014. Latour, Bruno. Wir sind nie modern gewesen. Berlin 1995.

334 

 Tobias Matzner

Lyon, David. „Surveillance, Snowden, and Big Data: Capacities, consequences, critique“. Big Data & Society 1.2 (2014): 1–13. Matzner, Tobias. „Beyond data as representation: the performativity of Big Data in surveillance“. Surveillance & Society 14.2 (2016): 197–210. Matzner, Tobias. „Surveillance as a critical paradigm for Big Data?“ The politics and policies of big data: big data, big brother? Hrsg. von Ann Rudinow Sætnan, Ingrid Schneider und Nicola Green. Abingdon, Oxon und New York, NY 2018: 68–86. Matzner, Tobias. „Autonome Trolleys und andere Probleme: Konfigurationen Künstlicher Intelligenz in ethischen Debatten über selbstfahrende Kraftfahrzeuge“. Zeitschrift für Medienwissenschaft 11.2 (2019a): 46–55. Matzner, Tobias. „Plural, situated subjects in the critique of artificial intelligence“. The Democratization of Artificial Intelligence: net politics in the era of learning algorithms. Hrsg. von Andreas Sudmann. Bielefeld 2019b: 109–122. Matzner, Tobias. „The Human Is Dead – Long Live the Algorithm! Human-Algorithmic Ensembles and Liberal Subjectivity“. Theory, Culture & Society 36.2 (2019c): 123–144. Mitchell, William John Thomas. Picture theory: essays on verbal and visual representation. Chicago, Ill. 2007. Monahan, Torin. „The Right to Hide? Anti-Surveillance Camouflage and the Aestheticization of Resistance“. Communication and Critical/Cultural Studies 12.2 (2015): 159–178. Monahan, Torin. „Ways of being seen: surveillance art and the interpellation of viewing subjects“. Cultural Studies 32.4 (2018): 560–581. Mühlhoff, Rainer. „Menschengestützte Künstliche Intelligenz. Über die soziotechnischen Voraussetzungen von ‚deep learning‘“. Zeitschrift für Medienwissenschaft 11.2 (2019): 56–64. Nyholm, Sven und Jilles Smids. „The Ethics of Accident-Algorithms for Self-Driving Cars: an Applied Trolley Problem?“ Ethical Theory and Moral Practice 19.5 (2016): 1275–1289. O’Neil, Cathy. Weapons of math destruction: how big data increases inequality and threatens democracy. New York 2017. Papacharissi, Zizi. A private sphere: Democracy in a digital age. London 2010. Parisi, Luciana. „Automated Thinking and the Limits of Reason“. Cultural Studies ↔ Critical Methodologies 16.5 (2016): 471–481. Rebentisch, Juliane. „Realismus heute: Kunst, Politik und die Kritik der Repräsentation“. Blindheit und Hellsichtigkeit: Künstlerkritik an Politik und Gesellschaft der Gegenwart. Hrsg. von Cornelia Klinger. Berlin 2014: 245–262. Srnicek, Nick. „Navigating Neoliberalism“. After Us 1 (2017). Stöcker, Christian. Google-Software AlphaGo: „Spielzüge, die ein Mensch nie machen würde“. https:// www.spiegel.de/netzwelt/gadgets/google-software-alphago-spielzuege-die-ein-mensch-niemachen-wuerde-a-1081652.html. Spiegel 10.3.2016 [2. März 2020]. Suchman, Lucille Alice. Human-machine reconfigurations: plans and situated actions. 2., bearbeitete Auflage. Cambridge und New York 2007. Wang, Yilun und Michal Kosinski. „Deep neural networks are more accurate than humans at detecting sexual orientation from facial images“. Journal of personality and social psychology 114.2 (2018): 246. Wittgenstein, Ludwig. Philosophische Untersuchungen. Frankfurt am Main 1984. Wu, Xiaolin und Xi Zhang. Automated inference on criminality using face images. arXiv preprint 1611.04135, 2016. Zuboff, Shoshana. The age of surveillance capitalism: the fight for the future at the new frontier of power. London 2019.

Antonius Weixler

Authentizität und Künstliche Intelligenz Auf den ersten Blick erscheinen Authentizität und KI als kategoriale Gegensätze. Je mehr sich (in der Forschung und in den Künsten) die Ansicht durchsetzt, dass es Authentizität in einem ontologischen oder essentialistischen Sinn in medialen/ künstlerischen Kommunikationsformen nicht geben kann, und je stärker sich Kommunikation von der unmittelbar körperlichen in einen medial vermittelten, digitalen Raum verschiebt und überdies zusehends von KI gefiltert oder gar produziert wird, desto größer wird die Sehnsucht nach Authentizität (Lethen 1996; Weixler 2012; zuletzt: Schilling 2020; Weixler 2021). Insofern wird durch KI eine mit der Moderne einsetzende und durch die Postmoderne sich weiter verstärkende Entwicklung noch einmal kategorial gesteigert. Dass KI und Authentizität Gegensätze sind, trifft auf den ersten Blick auf von KI produzierte Kunstwerke zu, als Thema (histoire) hat dieser Antagonismus zudem eine lange Geschichte in der Kunst und Literatur, und schließlich prägt dies auch noch die Wahrnehmung der Welt und von uns selbst (Identität). Auf den zweiten Blick und bei näherer Betrachtung stellt sich das Verhältnis von KI und Authentizität auf all diesen Ebenen indes als komplex und intrikat dar. Im Folgenden ist entsprechend zunächst 1) der Begriff der Authentizität und seine Wirkung als 2) Rezeptionsphänomen näher zu betrachten, bevor 3) Authentizität in von KI produzierten Texten/Kunstwerken diskutiert werden soll. Sodann wird 4) die lange Geschichte der KI als Thema in literarischen Texten grob skizziert, bevor zu fragen ist, inwiefern 5) die Algorithmen der sozialen Medien unsere Weltwahrnehmung und damit auch unsere Identität prägen. Abschließend gilt es, 6) eine weitere, editions- oder dokumentwissenschaftliche Bedeutung des Begriffes von Authentizität in den Blick zu nehmen – ein Zusammenhang, in dem KI ganz neue Möglichkeiten bei der Feststellung von Authentizität (siehe auch → KI, Künstlertum und Originalität) bieten kann.

1 Authentizität – Autorschaft – Autorität „Was ‚authentisch‘ ist, kann nicht geklärt werden“, stellt Lethen lapidar fest (1996, 209). Mit Sicherheit lässt sich allerdings sagen, dass es sich bei ‚Authentizität‘ um ein Hochwertphänomen handelt, mit dem ‚Echtheit‘, ‚Natürlichkeit‘, ‚Unmittelbarkeit‘, ‚Originalität‘, ‚Unverstelltheit‘, ‚Ursprünglichkeit‘ etc. gemeint ist, ohne dass Authentizität gänzlich synonym in diesen Phänomenen aufgehen würde. Die Zuschreibung wie die Aberkennung von Authentizität führen zu ästhetischen ebenso wie zu moralischen Urteilen (siehe auch → Ethik und KI) und spielen damit https://doi.org/10.1515/9783110656978-021

336 

 Antonius Weixler

bei der Einschätzung der Wertigkeit, Glaubwürdigkeit und Originalität (siehe auch → KI, Künstlertum und Originalität; siehe auch → Autorschaft und KI) einer Person, eines Objektes oder einer medialen/künstlerischen Kommunikation (u.  a. in Form von Kunstwerken) eine wichtige Rolle. In der Umgangssprache ist mit Authentizität eine ontologische Qualität gemeint, die es in medialen Kommunikationsformen aufgrund der Mittelbarkeit per se nicht geben kann. Auch die mit Unverstelltheit zusammenhängende Vorstellung einer persönlichen, individuellen „Subjektauthentizität“ (Knaller 2007, 10–16; Weixler 2012, 12) ist etwas, was nicht zuletzt deshalb beständig markiert werden muss, weil man um ihr Vorhandensein fürchten muss. Keine Person, keine Geschichte, kein Text und kein Kunstwerk ist damit per se authentisch. Authentizität beruht darauf, dass durch rhetorische, inszenatorische, institutionelle – und damit letztlich immer: diskursive oder narrative  – Verfahren der „Authentifizierung“ oder „Authentisierung“ ein Autorisierungseffekt evoziert wird, sodass dem jeweiligen Gegenstand oder der Person in der Rezeption die Qualität des Authentischen zugeschrieben wird (Lethen 1996; Weixler 2012; Saupe 2017). Authentizität hängt durch diese Verfahren somit eng mit Autorität und hierüber wiederum eng mit Autorschaft zusammen. Historisch entstand ‚Authentizität‘ als Konzept durch eine Institution oder Person, die über die Autorität verfügte, ein Dokument oder die ‚eine‘ richtige Bibelauslegung authentifizieren zu können (Röttgers und Fabian 1971, 691). Autorschaft ist gleichfalls etymologisch eng mit Autorität und Authentizität verbunden: lat. auctor bezeichnet den:diejenigen, der:die auctoritas besitzt, d.  h. eine Person oder Institution, die etwas autorisieren und authentisieren kann (Röttgers und Fabian 1971, 691; Martínez 2004, 12). Über die Autorisierungsfunktion sind zudem noch „Aura, Charisma und Souveränität“ als weitere „Nachbarbegriff[e] zu Authentizität“ zu betrachten (Knaller und Müller 2006, 11). Die Zuschreibung von Authentizität kann damit über verschiedene Wege, Verfahren und Ebenen generiert werden: Über die Autorinstanz (Produktion), auf der histoire-Ebene über die Referenz auf ein reales Ereignis oder einen realen Gegenstand sowie auf der discours-Ebene über bestimmte narrative Verfahren (Narration), die dann im Rezipienten die Bereitschaft erzeugen, einer medialen Kommunikation Authentizität zuzuschreiben (Rezeption). Authentizität liegt damit gleichsam ‚quer‘ zum Geltungsanspruch bzw. pragmatischen Redestatus. Zwar unterscheidet die Erzählforschung generell zwischen ‚fiktionalem‘ und ‚faktualem‘ Erzählen, wobei ‚faktual‘ oftmals synonym zu „authentisch“ verwendet wird (Martínez und Scheffel 2020, 20; Schmid 2014, 30–44). Mit Authentizität ist in diesem Zusammenhang die Referentialisierbarkeit des Erzählten auf eine außertextuelle Realität gemeint. Doch liegt auch hier keine ‚wirkliche‘ Referenz auf die außertextuelle Realität vor; Authentizität ist immer ein relationales Zuschreibungsphänomen, das durch narrative, rhetorische etc.

Authentizität und Künstliche Intelligenz 

 337

Strategien ‚erschrieben‘ werden muss (Weixler 2012; Werner 2012). Wenn faktuales Erzählen also als authentisch rezipiert wird, dann deshalb, weil die Authentifizierung von Inhalten – z.  B. durch die Autorität der Autor:innen, durch die Originalität (im Sinne der Verwendung von originalen Dokumenten und Fundstücken) oder durch die Referenz auf tatsächliche historische Begebenheiten – funktioniert hat. Die Autorität der Autorinstanz ist im faktualen Erzählen somit zentral. Im biografischen oder historiografischen Erzählen z.  B. beglaubigt der:die Autor:in durch seine:ihre Autorität die Authentizität der dargestellten Fakten. Autorität wiederum kann durch Augenzeugenschaft entstehen oder auch schlicht die Persönlichkeit betreffen, die entsprechend der klassischen auctoritas-Vorstellung durch Ansehen und/oder Alter generiert wird, sowie (zusätzlich) durch akademische Titel oder die Zugehörigkeit zu einer akademischen Einrichtung institutionell abgesichert sein kann. Bei einer Autobiografie beruht das Autoritäts-Autorschaftsmodell auf der „biographisch und historisch spezifischen Individualität“ (Jannidis et al. 1999, 5; vgl. auch Schmidt 2014). Da im fiktionalen Erzählen und bei Kunstwerken generell grundsätzlich die Autor:innen- von der Erzählinstanz getrennt wird, dürfte eigentlich die an die erste Instanz gebundene Authentizität hier keine Rolle spielen. Das Zuschreibungsmerkmal Authentizität suspendiert indes diese heuristische Trennung von Künstler:in und Kunstwerk, Autor:in und Erzähler:in. Dies kann auf einer eher symbolischen Ebene die literaturhistorisch weit verbreitete Einschätzung betreffen, dass mit fiktionalen Kunstwerken eine ‚höhere‘ Wahrheit dargestellt werden kann (Zeller 2010). Auf der histoire-Ebene können fiktionale Erzähltexte zudem durch ihre Referenz auf historische Fakten authentisch wirken: „A fictional narrative’s referential authenticity depends on the degree to which particular parts of its storyworld can be identified with particular counterparts in reality“ (Martínez 2020, 524). Dass die Autorität und/oder Persönlichkeit (als Interesse an der Individualität und Geschichte) der:des Autor:in/Künstler:in dennoch stets eine wichtige Rolle spielen, daran konnten auch die Debatten rund um den ‚Tod des Autors‘ oder der Postmoderne nicht nachhaltig etwas ändern. Zwar ist die Intention als zentrale Verstehens- und Interpretationsnorm (Jannidis et al. 1999) heute weitgehend aus dem Diskurs verschwunden – zumindest explizit, implizit ist der hypothetische Intentionalismus immer noch sehr verbreitet. Aber die biografisch-historische Individualität der:des Autor:in/Künstler:in spielt nach wie vor eine wichtige Rolle, sei es in der Untersuchung des Stils, sei es in der Bewertung der künstlerischen Kreativität und ästhetischen Originalität – womit jene menschlichen Individualisierungsmerkmale angesprochen sind, die KI zumeist abgesprochen werden, die also gleichsam noch als Grenze zwischen menschlicher und künstlich-intelligenter Produktion stehen, und sei es nur in der Rezeption.

338 

 Antonius Weixler

Ein letzter Aspekt zum Zusammenhang von Autorität und Authentizität ist noch zu nennen: Die Autorisierungsfunktion wirkt selbst noch in ihrer Negation. In zeitgenössischer Kunst wird – die Einsichten der Postmoderne hierdurch produktiv integrierend  – in meta-authentischen Erzählformen oftmals gerade die Unmöglichkeit der herkömmlichen Autorautorität ausgestellt. So ist in der Gegenwartskunst in Gattungen wie Dokufiktion oder Autofiktion zwar eine Rückkehr zu einer emphatischen Autor:innen-/Künstler:innenschaft zu konstatieren, doch handelt es sich dabei um Erzählmodelle, in denen der Aspekt der Autorisierung durch die Autor:inneninstanz bewusst und ostentativ verweigert wird und diese Verweigerung in selbstreflexiven Erzählverfahren expliziert wird. Als aktuelle Beispiele dieses Spielens mit der Namensidentität von Autor:inneninstanz, Erzähler:innen und Figuren wären zu nennen: Thomas Glavinics Das bin doch ich (2007), Felicitas Hoppes Hoppe (2012), Jan Brandts Tod in Turin (2015), aber auch die BuchAlbum-Hybride der Bands Ja, Panik (in ihrer kollektiven Bandautofiktion Futur II [2016] sowie im Album Die Gruppe Ja, Panik [2016]) oder Tocotronic (im Album Die Unendlichkeit [2018] sowie in Dirk von Lowtzows Aus dem Dachsbau [2019]). Dabei wird mit der Namensidentität gerade die Autorisierung der geschilderten Fakten vermieden. Der mit der Individualität der Autor:innen- oder Künstler:inneninstanz zusammenhängende Autoritätsaspekt wirkt also auch noch in seiner Negation: Solche meta-authentischen Verfahren können sogar einen stärkeren Authentizitätseffekt in der Rezeption erzeugen als herkömmliche.

2 Authentizität als Rezeptionsphänomen Authentizität ist im Wesentlichen ein Zuschreibungsphänomen, d.  h. die Bewertung eines Textes, einer Person, eines Objektes etc. als ‚authentisch‘ findet in der Rezeption statt (Knaller 2007, 150; Funk und Krämer 2011, 10; Weixler 2012, 21–24; für die Biografie: Fetz 2009, 55; für den narrativen Kommunikationsprozess: Funk et al. 2012, 13). Eine solche Bewertung/Zuschreibung findet auf Basis bestimmter narrativer, rhetorischer etc. Verfahren statt, die diesen Rezeptionseffekt evozieren. Besonders bedeutsam für den Zusammenhang von KI und Authentizität ist, dass dieses Rezeptionsphänomen zielgruppen- und gattungsspezifisch ist. Wie Debatten um die Identitätskultur auch in den Künsten zeigen – etwa Diskussionen rund um Romane von BIPoC oder anderer Minderheiten oder über die Übersetzung der Gedichte von Amanda Gorman –, ist für die Rezeption die Frage, wer ein Kunstwerk produziert hat, oft wichtiger als der Inhalt. Erneut suspendiert diese Authentizitätsebene die Trennung von Autor:in und Erzähler:in, Künstler:in und Werk. Unabhängig davon, wie gut KI also Texte übersetzen oder produzieren, Musik

Authentizität und Künstliche Intelligenz 

 339

komponieren oder Bilder malen kann, entzieht man als Rezipient:in KI-Produkten dort das Signum des Authentischen, wo man ein Kunstwerk gerade wegen eines Interesses an der Persönlichkeit, Individualität, Geschichte, Stil oder Inszenierung der:des Künstler:in rezipiert. Zum einen kann dies mit moralischen und ethischen Wertungen zusammenhängen, die mit der Person und individuellen Lebensgeschichte der:des Künstler:in einhergehen. So konnte in Rezensionen und generell in der Rezeption lange Zeit die Vorstellung beobachtet werden, dass nur bestimmte Autor:innen über die Autorität verfügen, ‚authentisch‘ z.  B. über den Holocaust schreiben zu können (Martínez 2004, 41). Steven Spielbergs Schindler’s List (1993) wurde etwa trotz aller fiktionalisierender Erzählverfahren und trotz aller Abweichungen von der historischen Vorlage als authentische Verfilmung des Holocaust rezipiert, da der jüdische Regisseur für eine solche Hollywood-Verfilmung als besonders qualifiziert galt (Martínez 2004, 41). Zum anderen zeigt sich in der Rezeption von authentischer Kunst bzw. Künstler:innenschaft ein zielgruppen- und genrespezifisches Fantum. Über das jeweilige Musikstück hinaus, das auch von KI komponiert sein könnte, hören sich Bachenthusiasten ein Lied auch aus Interesse am Komponisten und an der Könnerschaft und Virtuosität der:des Interpret:in an. Der Reiz von Museen ist, dass man die Originalbilder, die von der eigenen Hand berühmter Künstler:innen geschaffen wurden, zu sehen bekommt. Diese Aura können auch ein Ausstellungskatalog oder OnlineBilderansichten nicht ersetzen (Benjamin 2006 [1936]). In der Popmusik will man seinen Idolen in Konzerten besonders nahekommen – nach Diedrich Diederichsen ist diese vermeintliche Nähe, die auch durch Rezeption der Musik im Kinderzimmer oder durch ein Poster an der Wand hergestellt werden kann, sogar ein Kernaspekt der Popmusik. Zur Popmusik gehören darüber hinaus auch die Performance, die Pose und der Kleidungsstil, die je nach Subgattung authentischer Ausdruck einer Jugendkultur sein müssen (Diederichsen 2014). Die Popmusik liefert allerdings auch ein erstes Beispiel dafür, wie ein Avatar zu einem Popstar werden kann, entsprechendes Fantum inklusive. Hatsune Miku ist eine ewig 16-jährige Sängerin aus Japan, die als Hologram auf Tour geht. Andersherum argumentiert, zeigt sich an diesem Beispiel besonders eindrücklich die Zielgruppen- und Genreabhängigkeit dieser Phänomene, denn Hatsune Miku ist ein Manga-Charakter, dem eine Stimme verliehen wurde. Die perfekte Illusion einer Verkörperung der Manga-Comicästhetik ist in diesem Fall folglich wichtiger als die Authentizität eines Popmusikers. Ein ganz ähnliches Phänomen stellen die ‚VTuber‘ (oder ‚Virtual YouTuber‘) dar, ebenso Avatare in Manga-Ästhetik, die ihre eigenen Videokanäle ‚betreiben‘ und in Japan schon sehr populär sind, sich aber auch in anderen Teilen der Welt einer wachsenden Anhängerschaft erfreuen.

340 

 Antonius Weixler

3 Authentizität in von KI produzierten Kunstwerken Der Bezug zur Individualität einer Autor- oder Künstlerinstanz und der damit zusammenhängende Autoritätsaspekt ist der entscheidende Mangel von durch KI produzierten Texten oder Kunstwerken. Dass mit technischen Mitteln poetische Texte produziert werden können, ist ein alter Traum. So meldet etwa die „HessenDarmstädtische privilegierte Landeszeitung“ 1777, dass sich ein „gewisser Herr M. in Göttingen rühmt[,] sich eine poetische Handmühle erfunden zu haben, durch welche man Oden von aller Gattung ganz mechanisch verfertigen könnte.“ Diese Meldung ist vor allem deshalb heute noch bekannt, weil sie Hans Magnus Enzensberger in seiner 1974 verfassten Einladung zu einem Poesie-Automaten als historische Vorlage und Inspiration zitiert (2000, 9). Erschienen ist Enzensbergers Text erstmals im Jahr 2000: Erst dann war die technische Entwicklung so weit, seine Idee, die als „Landsberger Poesieautomat“ bekannt geworden ist, umzusetzen. Der Automat liefert sechsversige Gedichte, die in jeder Verszeile per Zufall zehn vorgegebene Satzgliedelemente miteinander kombinieren. Nach Enzensberger ergeben sich somit 1036 Kombinationsmöglichkeiten, ein Gedicht wiederholt sich „nur einmal in je 5 × 1029 Jahren“, also „nie“ (Enzensberger 2000, 22). Der „Landsberger Poesieautomat“ ist inzwischen im Literaturmuseum der Moderne in Marbach am Neckar zu sehen. In diese Weihestätte der deutschsprachigen Literatur hat der Automat freilich nur deshalb Eingang gefunden, weil er Teil des Werkes von Enzensberger ist; die Maschine wie ihre gedichteten Texte können – sofern sie dies überhaupt tun – also vor allem über die Autorisierung des Autors Enzensberger als Dichtung gelten. Als Kunstwerk ist der Poesieautomat damit strukturell mit Marcel Duchamps Fountain (1917) oder etwa auch der elektronisch und automatisch durch Rückkopplungsschleifen erzeugten Musik von John Cale zu vergleichen. Authentische Kunstwerke sind diese Beispiele nur über die Autorisierung bereits im jeweiligen Feld etablierter Künstler:innen, und hierdurch berühmt gewordene Beispiel eines Metadiskurses darüber, was Kunst ist – und was ein Kunstwerk von maschinell produzierter Massenware unterscheidet. Als Konzeptkunst sind diese Werke authentisch (im editions- oder provenienzwissenschaftlichen Sinne), kein Rezipient wird indes auf die Idee kommen, in den Gedichten der Poesiemaschine oder in dem signierten Pissoir einen authentischen Ausdruck des privaten historischen Individuums Enzensberger oder Duchamp erkennen zu wollen. Von KI produzierte Kunst benötigt nach wie vor die Autorisierung durch ein Künstler:innenindividuum. Diese Verbindung wird auch an einem zweiten Beispiel erkennbar: Daniel Kehlmann arbeitete 2020/21 ein Jahr lang mit dem Programm

Authentizität und Künstliche Intelligenz 

 341

CTRL an einem Roman, wobei Kehlmann und die KI jeweils abwechselnd Sätze lieferten und der/das andere dann die Geschichte weiterschreiben sollten. Im März 2021 gab Kehlmann dann öffentlichkeitswirksam sein resignierendes, wenn nicht vernichtendes Resümee bekannt: „Man merkt, dass da keiner zu Hause ist. […] Als spräche man mit einem Verrückten, der luzide Momente hat“ (Kehlmann 2021). Bemerkenswert daran ist, dass es wie in den oben genannten Beispielen der Konsekration oder Autorisierung eines bekannten Schriftstellers bedarf, um im hart umkämpften literarischen Feld Aufmerksamkeit zu generieren. Ähnliches kann auch über das von KI produzierte Gemälde Portrait of Edmond de Belamy sowie über Hatsune Miku gesagt werden: In Rezeptionen, Berichten etc. wird stets betont, dass hinter der KI Künstler:innen oder Künstler:innenkollektive stehen, die gleichsam für die Kunsthaftigkeit der Werke einstehen. Für die Vermarktung und Rezeption von durch KI produzierter Kunst bedarf es nach wie vor der Autorisierung und Authentifizierung von lebenden, im besten Fall bereits bekannten Künstler:innen. KI liefert bereits zuverlässig Texte wie etwa Wetter- oder Sportberichte, bei denen man den Ursprung der Autorschaft nicht mehr erkennen kann. Dabei handelt es sich aber stets um Texte, die nach festen Strukturen aufgebaut sind und in denen sich keine starke Autorschaft im Sinne eines idiosynkratischen Stils, einer individuellen Kreativität oder ähnliches zeigt. In Zukunft ist durchaus denkbar, dass KI auch schemaliterarische Texte zu produzieren vermag, ohne dass die maschinelle Autorschaft dann noch erkennbar sein wird, wie dies bei einer Folge der Serie Friends, die von KI geschrieben wurde, noch deutlich der Fall war (Botnik Studios 2018). Solche Texte werden aber voraussichtlich auch weiterhin nur in solchen genre- und zielgruppenspezifischen Ausnahmefällen Platz im literarischen Feld finden, in denen die Autorschaft und die mit der Autor:innenInstanz verbundene Authentizität nicht weiter wichtig für Aufmerksamkeit und Erfolg sind. Potential für KI steckt somit am ehesten in schematischen Texten wie Krimireihen, Science-Fiction-Reihen im Stile Perry Rhodans oder Drehbüchern für schematische Erzählformate, wobei im letzteren Fall dann über Regisseur:innen und Schauspieler:innen in der Umsetzung wieder eine menschliche Autorisierung und Authentifizierung entsteht. KI wird bald in der Lage sein – und zum Teil ist sie dies bereits heute – Kunstwerke zu produzieren, die strukturell oder ästhetisch nicht mehr von von Menschenhand produzierter Kunst zu unterscheiden sind. Sobald der Kontext aber wichtig wird, sobald es einer Künstler:innenpersönlichkeit und, mit Bourdieu gesprochen, ihrer durch eine bestimmte (Autorschafts-)Inszenierung identifizierbaren Positionierung im künstlerischen Feld bedarf, um Aufmerksamkeit und Popularität zu generieren, ist KI nicht wettbewerbsfähig (Ausnahmen wie Hatsune Miku bestätigen hier nur die Regel). Kunst wird damit als ein System sichtbar, das primär über Institutionen und Spielregeln funktioniert und nicht über ästhetische

342 

 Antonius Weixler

Phänomene selbst. Diese Spielregeln  – oder man könnte auch erneut sagen: die Autorisierung und Authentifizierung durch Institutionen  – werden eher noch weiter an Bedeutung gewinnen, je mehr KI-produzierte Kunstwerke es geben wird.

4 Authentizität und KI als Thema fiktionalen Erzählens Dass Maschinen Menschen gleichwertig ersetzen, ist ein altes Thema der Künste. Frühe Beispiele haben dabei gemeinsam, dass Maschinenmenschen den menschlichen Körper technisch nachzubilden versuchten, um damit zumindest physisch gleichwertig zu werden. Gradmesser der Menschlichkeit war hierbei von jeher die Authentizität, also authentisch auf andere Menschen wirken zu können. Bei Jean Pauls Einfältiger aber gutgemeinter Biographie einer neuen angenehmen Frau von bloßem Holz, die ich längst erfunden und geheirathet (1789), E.T.A. Hoffmanns Der Sandmann (1815/16) oder Die Automate (1819/21) sowie Villiers de l’Isle-Adam Ève future (1886) sind die Androiden Projektionsflächen für männliche Vorstellungen der idealen Frau: „Die verlorene Authentizität soll in einer paradoxen Wende durch übersteigerte Künstlichkeit, durch die Perfektion des Trugbildes wiederhergestellt werden“ (Innerhofer 2003, 278). In all diesen Beispielen wird neben epochenspezifischen Diskursen wie der Vorstellung „vom Originalgenie ebenso wie vom Konzept des authentischen Kunstwerks“ (Innerhofer 2003, 281) insbesondere jeweils auch die männliche Projektion der Authentizität ironisiert. Waren diese frühen Beispiele noch Einzelleistungen vereinsamter männlicher Ingenieure oder Alchimisten, verändert sich im 20. Jahrhundert das Narrativ hin zu den Dystopieerzählungen, dass KI die menschliche Intelligenz überholt und dadurch zur Gefahr für die gesamte Menschheit wird, wobei z.  B. der Terminator, der Supercomputer HAL 9000 oder Marvin the Paranoid Android noch stets deutlich als Künstliche Intelligenzen erkennbar bleiben, die nichts Menschliches an sich haben. Während Authentizität im Sinne von Menschlichkeit/Menschenähnlichkeit in diesen Fällen also noch keine Rolle spielt, wird genau diese Unterscheidbarkeit als zunehmend gefährlicherer ‚Tanz auf Messers Schneide‘ etwa in Blade Runner zum (auch titelgebenden) Thema. Die ‚Blade Runner‘ genannten Polizisten machen dabei Jagd auf unerlaubt auf der Erde lebende Androiden – in der Terminologie von Philip K. Dick: „Replikanten“ – der hochentwickelten Serie Nexus-6, die kaum noch von den Menschen zu unterscheiden ist. Es bedarf für die Unterscheidung ausgefeilter Empathie-Tests, mit denen gemessen wird, ob die Reaktion auf unterschiedliche soziale Situationen eine authentisch menschliche ist. Im Originalroman Do Androids Dream of Electric Sheep? (1968) von Philip K. Dick begegnet der Blade

Authentizität und Künstliche Intelligenz 

 343

Runner Rick Deckard in der Mitte der erzählten Geschichte einem Androiden, der ebenfalls behauptet ein Blade Runner zu sein, der wiederum Deckard umbringen soll, weil dieser ein Nexus-6 sei. Beide verfügen über authentische Erinnerungen, können aber nicht wissen, ob ihnen diese nur implantiert wurden oder ob diese wirklich selbst Erlebtes sind. So wird es momenthaft in der Erzählung unmöglich, zwischen Mensch und Maschine zu unterscheiden (und im Roman wird damit auch für einige Kapitel unentscheidbar, ob ein unzuverlässiges Erzählen vorliegt oder nicht). Die beiden Verfilmungen des Stoffes greifen je unterschiedliche Aspekte des Romans heraus: Während in Blade Runner von 1982 (Ridley Scott) die Frage nach authentischen (Liebes-)Gefühlen zwischen Deckard (Harrison Ford) und dem weiblichen Androiden Rachael (Sean Young) eine wichtige Rolle spielt, ist im Sequel Blade Runner 2049 (2017, Denis Villeneuve) die Frage nach der Authentizität der vielleicht nur implantierten, vielleicht realen Erinnerung zentral. Ein jüngeres, inzwischen aber sehr verbreitetes Science-Fiction-Narrativ besteht darin, dass die erzählte Welt nicht nur von Menschen einerseits und KIAndroiden andererseits bevölkert wird, sondern dass der menschliche Körper, insbesondere sein Gehirn und damit sein Geist, durch so viele technische Applikationen erweitert wird, dass die eigene menschlich-authentische Identität prekär wird. Dieses Thema wird z.  B. verhandelt in Philip K. Dicks Kurzgeschichte We Can Remember it for You Wholesale (1966, mehrfach verfilmt als Total Recall [1990, Paul Verhoeven und 2012, Len Wiseman]), oder z.  B. auch in den Filmen The 6th Day (2000, Roger Spottiswoode) und Upgrade (2018, Leigh Whannel) sowie in der Serie Black Mirror (2011–2019). Da die Künste immer auf technische Entwicklungen reagieren, wird dieses Narrativ in Folge der Ankündigung des Neurolink-Prototypen für die Verbindung zwischen Gehirn und Handy durch Elon Musk 2020 weitere Thematisierungen hervorbringen, nicht zuletzt, da diese Technik die Frage nach der menschlichen Identität und Kreativität – und damit die Frage nach der menschlichen Authentizität – noch einmal neu stellt. Diese Entwicklung exemplarisch bis an ihr Ende durchdeklinierend spielt die Kurzgeschichte Zima Blue (2006) von Alastair Reynolds in einer Zukunft, in der alle Menschen ihren Körper und ihr Gehirn (v.  a. ihr Gedächtnis) durch verschiedene technische Veränderungen maximiert haben. Der weltberühmteste Künstler dieser Zukunft etwa, die titelgebende Figur Zima, hat u.  a. die Haut seines Körpers so verändern lassen, dass er extremsten Bedingungen standhalten, Vulkane wie Eiswüsten ebenso problemlos bereisen und so Bilder von bisher nie gekannter Kreativität und Schönheit produzieren kann. In seine Bilder schleicht sich dann aber nach und nach ein immer größer werdendes blaues, monochromes Viereck ein, das ‚Zima Blue‘. Als Zima sich auf die Suche nach dem Ursprung dieses Blau macht, entdeckt er als Plottwist der Geschichte, dass er in Wirklichkeit kein mit technischen Applikationen erweiterter Mensch, sondern ein menschlich applizierter Roboter ist.

344 

 Antonius Weixler

Dem Narrativ der technik-induzierten dystopischen Regression entgegengesetzt gibt es in den Künsten auch zahlreiche Beispiele dafür, wie KI (oder KIgesteuerte Figuren) in einer post-humanen (und, was meist dasselbe meint, postauthentischen) Welt noch Authentizität sicherstellen können. Auch dies wird in Do Androids Dream of Electric Sheep? miterzählt, da die echten Menschen auch deshalb so schwer von den Nexus-6-Androiden zu unterscheiden sind, weil erstere den Stimmungs- und Gefühlsverlauf der einzelnen Tage mittels Gefühlsmaschinen steuern, es also einerseits verlernt haben, authentische Gefühle zu entwickeln und zu zeigen und andererseits dadurch mit der Zeit wie emotional dauersediert wirken. In Science-Fiction-Welten sind es immer wieder Androiden, die ein Ausmaß an Authentizität zeigen, das Menschen nicht erreichen – oder noch nie gezeigt haben; zumindest wenn man darunter Aufrichtigkeit, Ehrlichkeit und Unverstelltheit versteht (was klassischerweise auch die Wirkung von Kindern und Tieren in Kunstwerken ist). Im Star Wars-Universum sind z.  B. R2-D2 und C-3PO die einzigen Figuren, die menschlich und gelegentlich sogar ängstlich auf die übermenschlichen Gefahren und Situationen reagieren – auch dies ist sicherlich einer der Gründe für ihren popkulturellen Ruhm. Was unverstellte Ehrlichkeit betrifft, ist auch der Android Data in der Star Trek-Saga authentischer, als es Menschen, die bekanntlich immer ‚Theater spielen‘ (Goffman 2003) sind. Und in Passengers (2016, Morten Tyldum) sorgt der Androide Arthur für den entscheidenden Plottwist der Geschichte, weil er die Aussage, dass die männliche Hauptfigur Jim Preston (Chris Pratt) vor seiner Partnerin Aurora Lane (Jennifer Lawrence) keine Geheimnisse habe, wörtlich auslegt und ihr daraufhin ein entscheidendes Geheimnis verrät.

5 Authentizität im alltäglichen, faktualen Erzählen: Social Media Mit dem About You Award werden seit 2017 die einflussreichsten Influencer:innen ausgezeichnet. Laut Selbstdarstellung der Preisinstitution werden damit jährlich die „authentischsten“ Social-Media-Persönlichkeiten prämiert. Die damit bedachten Profile zeichnen sich durch vieles aus, aber durch Authentizität im Sinne von unverstellter Natürlichkeit mit Sicherheit nicht – die Selbstdarstellung von Influencer:innen wie von Menschen in Social Media generell ist im Gegenteil hochgradig inszeniert. Der Preis zeigt insofern, dass die Selbstinszenierung als authentisch im digitalen Zeitalter als Sehnsuchtskategorie umso mehr an Bedeutung gewinnt, desto verbreiteter (KI-)Bildfilter werden  – und desto unerreichbarer eine ‚echte Authentizität‘ dadurch zudem wird. Diese Art der Selbstinszenierung wird als

Authentizität und Künstliche Intelligenz 

 345

‚plandid‘ bezeichnet, als die inszenierte (‚planned‘) Spontaneität bzw. ‚Aufrichtigkeit‘ (‚candid‘) (Martínez und Weixler 2019). Social Media ist aber nicht nur der zentrale Ort für Selbstinszenierung. Weil sich ein bedeutender Teil des sozialen Lebens mittlerweile dort abspielt, prägen die ‚sozialen‘ Medien auch unsere Weltwahrnehmung. Dass Algorithmen vorgeben, was man von der Welt wahrnimmt und damit zu einem bedeutsamen Teil auch welche politische Meinung man entwickelt, ist unter dem Stichwort der „information bubble“ vielfach beschrieben worden, es hat darüber hinaus aber auch gravierende Folgen für die Identität. Dass die Algorithmen der sozialen Medien die Selbstdarstellung und Identität wesentlich beeinflussen, führt zu einer Identitätskonstruktion, die als „automatisiertes Selbst“ bezeichnet worden ist (Martínez und Weixler 2019). Was bei Instagram und Facebook noch als Vorschlag fungiert, ist bei TikTok bereits fast das alleinige Auswahlkriterium: Welche Selfies und Stories man als Nutzer:in zu sehen bekommt, entscheidet allein ein Algorithmus. McNeill (2012, 75) spricht in diesem Zusammenhang entsprechend von einer „posthuman auto/biography“, Simanowski von einem „‚Blackboxing‘ des Selbst“ (2016, 106). Das Ausmaß an Aufmerksamkeit lässt sich zwar noch an der Anzahl von Followern und Likes bemessen und objektiv beobachten, da aber die Sichtbarkeit eines Postings oder Profils lediglich die Oberfläche von sich selbst verstärkenden Faktoren ist, die ihrerseits nur bedingt messbar sind, wird auch das, was als Selbstdarstellung sichtbar ist und was hierdurch auf die eigene narrative Identitätskonstruktion zurückwirkt, nur noch bedingt kontrollierbar. Anders formuliert: In Zeiten der Sozialen Medien nimmt die persönliche Authentizität in dem Maße ab und wird durch Algorithmen ersetzt, in dem die eigene Identität durch die Selbstdarstellung durch Selfies, Stories und Postings bestimmt wird.

6 KI als Technik zur Ermittlung von Authentizität Für die editions- oder dokumentwissenschaftliche Bedeutung des Begriffes Authentizität kann KI ganz neue Möglichkeiten bei der Feststellung von Authentizität (siehe auch → KI, Künstlertum und Originalität) bieten. Da KI mehr Texte, Musik, Bilder kennen und analysieren kann als selbst die herausragendsten Expert:innen, können Algorithmen bei der Ermittlung von Plagiaten und damit bei der Ermittlung der editions-, dokument- oder provenienzwissenschaftlichen Authentizität helfen (siehe auch → Urheberschaft und KI). Wobei die selben Algorithmen ihre ‚Kennerschaft‘ wiederum dazu benutzen, selbst kreatives Potential (siehe auch → Generierte Literatur) zu entwickeln und Texte (z.  B. The Day a Computer Writes a Novel, 2016), Musik (z.  B. I am AI) oder Gemälde (z.  B. Edmond de Belamy oder das The New Rembrandt-Projekt) zu produzieren.

346 

 Antonius Weixler

Die Produktion von Kunst durch KI ist deutlich unproblematischer als der Einsatz von KI für die Produktion und Distribution von Fake News. Zahlreiche Staaten nutzen KI vor allem dafür, in ihrem Sinne Propaganda zu verbreiten. KI ist hier Fluch und Segen zugleich, denn viele technische Entwicklungen wie etwa Deep Fake Videos oder auch Tools zur Verbreitung von Fake News sind inzwischen so ausgereift, dass die Manipulationen oder generell die Unterschiede zwischen künstlich-intelligenter und menschlicher Produktion nur noch mit Hilfe von KI erkannt werden können (Volland 2019, 45–54). KI wird dann zur notwendigen Technik, um die Authentizität im Sinne von Glaubwürdigkeit und die Echtheit einer Nachricht, E-Mail, Sprachnachricht oder die Rede eines Politikers zu ermitteln. KI und Authentizität sind somit weniger kategoriale Gegensätze als vielmehr komplementäre Phänomene: Im Hinblick auf die Subjektauthentizität wächst mit jeder Medienrevolution und jedem weiteren Schritt der Technisierung die Sehnsucht nach Authentizität und damit das Bedürfnis nach meta-authentischen Kommunikationsformen. Im Hinblick auf die Objektauthentizität werden einerseits die Autorisierungsinstanzen in Zukunft eher noch mehr an Bedeutung gewinnen und andererseits KI für diese Instanzen zunehmend wichtiger werden.

Literaturverzeichnis Benjamin, Walter. Das Kunstwerk im Zeitalter seiner technischen Reproduzierbarkeit. Frankfurt am Main 2006 [1936]. Botnik Studios. Friends. https://botnik.org/content/friends.html (1. Juni 2022). Diederichsen, Diedrich. Über Pop-Musik. Köln 2014. Enzensberger, Hans Magnus. Einladung zu einem Poesie-Automaten. Frankfurt am Main 2000. Fetz, Bernhard. „Biographisches Erzählen zwischen Wahrheit und Lüge, Inszenierung und Authentizität“. Handbuch Biographie. Methoden, Traditionen, Theorien. Hrsg. von Christian Klein. Stuttgart/ Weimar 2009: 54–60. Funk, Wolfgang, Florian Groß und Irmtraud Huber. „Exploring the Empty Plinth. The Aesthetics of Authenticity“. The Aesthetics of Authenticity. Medial Constructions of the Real. Hrsg. von Dens. Bielefeld 2012: 9–21. Funk, Wolfgang und Lucia Krämer. „Vorwort: Fiktionen von Wirklichkeit – Authentizität zwischen Materialität und Konstruktion“. Fiktionen von Wirklichkeit. Authentizität zwischen Materialität und Konstruktion. Hrsg. von Dens. Bielefeld 2011: 7–24. Goffman, Erwin. Wir alle spielen Theater: Die Selbstdarstellung im Alltag. Übers. von Peter Weber-Schäfer. München 2003. Innerhofer, Roland. „Von Frankensteins Monster zu Edinsons Eva. Die Geburt des künstlichen Menschen aus dem Geist der Maschine“. Mythen der Kreativität. Das Schöpferische zwischen Innovation und Hybris. Hrsg. von Oliver Krüger, Refika Sariönder und Annette Deschner. Frankfurt am Main 2003: 269–281.

Authentizität und Künstliche Intelligenz 

 347

Jannidis, Fotis, Gerhard Lauer, Matías Martínez und Simone Winko. „Rede über den Autor an die Gebildeten unter seinen Verächtern. Historische Modelle und systematische Perspektiven“. Rückkehr des Autors. Zur Erneuerung eines umstrittenen Begriffs. Hrsg. von Dens. Tübingen 1999: 1–35. Knaller, Susanne. Ein Wort aus der Fremde. Geschichte und Theorie des Begriffs Authentizität. Heidelberg 2007. Knaller, Susanne und Harro Müller. „Einleitung“. Authentizität. Diskussion eines ästhetischen Begriffs. Hrsg. von Dens. München 2006: 7–16. Lethen, Helmut. „Versionen des Authentischen: sechs Gemeinplätze“. Literatur und Kulturwissenschaften. Positionen, Theorien, Modelle. Hrsg. von Hartmut Böhme und Klaus R. Scherpe. Reinbek b. Hamburg 1996: 205–231. Martínez, Matías. „Authentizität als Künstlichkeit in Steven Spielbergs Film Schindler’s List“. Augen-Blick. Marburger und Mainzer Hefte zur Medienwissenschaft. Heft 36: Zur neuen Kinematographie des Holocaust (2004): 39–46. Martínez, Matías. „Authenticity in Narratology and in Literary Studies“. Narrative Factuality. A Handbook. Hrsg. von Monika Fludernik und Marie-Laure Ryan. Berlin und Boston 2020: 521–532. Martínez, Matías und Michael Scheffel. Einführung in die Erzähltheorie. 11. Ausgabe. München 2020. Martínez, Matías und Antonius Weixler. „Selfies und Stories. Authentizität und Banalität des narrativen Selbst in Social Media.“ DIEGESIS. Interdisziplinäres E-Journal für Erzählforschung/Interdisciplinary E-Journal for Narrative Research 8.2 (2019): 49–67. McNeill, Laurie. „There Is No ‚I‘ in Network. Social Networking Sites and Posthuman Auto/Biography“. Biography 35.1 (2012): 65–82. Röttgers, Kurt und Reinhard Fabian. „Art. Authentisch“. Historisches Wörterbuch der Philosophie. Hrsg. von Joachim Ritter. Band 1. Darmstadt 1971: Sp. 691–692. Saupe, Achim. „Historische Authentizität: Individuen und Gesellschaften auf der Suche nach dem Selbst – ein Forschungsbericht“. H-Soz-Kult, 15.8.2017: https://www.hsozkult.de/literaturereview/ id/forschungsberichte-2444 (1. April 2021). Schilling, Erik. Authentizität. Karriere einer Sehnsucht. München 2020. Schmid, Wolf. Elemente der Narratologie. 3. Ausgabe. Berlin 2014. Simanowski, Roberto. Facebook-Gesellschaft. Berlin 2016. Volland, Holger. Die kreative Macht der Maschinen. Warum Künstliche Intelligenzen bestimmen, was wir morgen fühlen und denken. Weinheim und Basel 2018. Weixler, Antonius. „Authentisches erzählen – authentisches Erzählen. Über Authentizität als Zuschreibungsphänomen und Pakt“. Authentisches Erzählen. Produktion, Narration, Rezeption. Hrsg. von Dems. Berlin und Boston 2012: 1–32. Weixler, Antonius. „Erzählen/Text“. Historische Authentizität. Ein interdisziplinäres Handbuch. Hrsg. von Martin Sabrow und Achim Saupe. Göttingen 2022: 136–145. Werner, Lukas. „Authentic Life. Ein Paradigma des biographischen Films im Spannungsfeld von Hybridität, Relationalität und Narration“. Authentisches Erzählen. Produktion, Narration, Rezeption. Hrsg. von Antonius Weixler. Berlin und Boston 2012: 265–290. Zeller, Christoph. Ästhetik des Authentischen. Literatur und Kunst um 1970. Berlin und New York 2010.

Regina Ammicht Quinn und Jessica Heesen

Künstliche Intelligenz, Gender und Kreativität 1 Einleitung: Schaffung von Weltzugängen durch Technik und Kunst Mit jeder neuen technischen Entwicklung wird das grundlegende Verhältnis von Mensch, Natur und Technik neu in Frage gestellt. Vertreter der philosophischen Anthropologie wie Arnold Gehlen sehen den Menschen als ein Wesen, zu dessen natürlicher Bestimmung die Nutzung von Technik und das Schaffen von ‚künstlichen‘, kulturellen Welten gehört (Gehlen 2009 [1940]). Wegen ihrer zentralen Bedeutung für das Selbstverständnis des Menschen, ihrer Allgegenwart und aufgrund ihres Beitrags für die Erschaffung von sozio-technischen Systemen wird Technik oftmals nicht mehr als einfaches Mittel zum Zweck betrachtet, sondern als zentrales Medium der menschlichen Existenz (Gamm 2000; Hubig 2002). Die Grenzen zwischen Mensch und Natur bzw. zwischen gesellschaftlichen und technischen Systemen lösen sich tendenziell auf, sodass das natürlich „Gewordene“ und das technisch „Gemachte“ nicht mehr klar zu trennen sind (Birnbacher 2006; Heesen und Sehr 2018). Zusätzlich verliert die Kategorie ‚des Menschen‘ in einem traditionellen anthropologischen Verständnis zunehmend ihre Selbstverständlichkeit. Zu viele blinde Flecken wurden in ihr über die Jahrhunderte hinweg transportiert. So wichtig es ist, nach wie vor von ‚dem Menschen‘ zu sprechen, um grundlegende anthropologische Unterscheidungen und auf Menschlichkeit bezogene Normen zu etablieren oder infrage zu stellen, so entscheidend ist es, sich hier der Reduktion von Komplexität bewusst zu sein. Je nach Alter, sozialem Status, den Orten in der Welt, ethnischen, familiären, politischen, religiösen und anderen Zugehörigkeiten differenzieren sich die Konzepte ‚des Menschen‘ aus. Grundlegend sind dabei die Fragen nach Geschlecht, die mit allen diesen Differenzierungen verflochten sind. Kunst und Technik sind dabei unterschiedliche, sich manchmal überlappende Zugänge zum Verständnis von ‚Welt‘. Sie entwerfen neue Perspektiven auf das, was der Fall ist und was der Fall sein könnte. Beide Diskurs- und Praxisfelder begegnen sich dort, wo es um Formen der Kreativität geht: Sowohl für Kunst als auch für Technik ist ‚Kreativität‘ der entscheidende Faktor, um Innovationen und veränderte Sichtweisen zu schaffen. Wird der Bereich Technik auf KI zugespitzt, dann werden ihr gesellschaftlicher Einfluss und ihre gesellschaftliche Gestaltungskraft in neuer Weise deutlich. Durch KI bieten sich vermehrt Optionen, zu neuen Handlungskooperationen zwischen https://doi.org/10.1515/9783110656978-022

Künstliche Intelligenz, Gender und Kreativität 

 349

Mensch und Technik zu kommen, aber auch die Tätigkeiten von Menschen zu verdrängen. KI steht hier einerseits sinnbildlich für die Ängste des Menschen, durch Technik übertroffen zu werden, und andererseits für den Wunsch nach der steten Steigerung von Handlungseffizienz durch die Verbindung von Mensch und Technik. Die Diskussion über eine Ersetzung der Menschen durch Roboter und autonome Systeme artikuliert sich in den letzten Jahren insbesondere in den Anwendungsfeldern Industrie 4.0, Robotik in Pflege und Medizin, autonomes Fahren, KI für Kampfeinsätze oder das emotional computing (Sullins 2010, 263; Sydow et al. 2010; Becker et al. 2013; Academy of Medical Royal Colleges 2019). Auf grundsätzlicherer Ebene wird in Wissenschaft und Gesellschaft die Frage diskutiert, ob KI-Anwendungen eine eigenständige Macht entfalten und den Menschen überflügeln können (Bostrom 2014). Die Befürchtung, dass KI Menschen und menschliche Entscheidungen übertreffen könnte, spiegelt sich häufig in dark scenarios und Science Fiction (siehe z.  B. die Filme Ex Machina [2015] oder I, Robot [2004]); sie wird real in Prozessen für ein ‚intelligentes‘ Management in der Politik und in Unternehmen oder dem Ruf nach einer evidence-based-policy, in der daten- und softwaregetriebenen Analysen gegenüber politischen, öffentlichen beziehungsweise gemeinschaftlichen Verständigungsprozessen der Vorzug gegeben wird (was letztlich selbst wieder eine politische Entscheidung ist). Grundsätzlicher steht hinter der Frage nach der Überlegenheit der technischen Systeme jedoch die Befürchtung, Menschen könnten komplett durch Technik ersetzt werden (Joy 2000). Parallel dazu entsteht die Frage, ob KI herkömmliche Konzepte von Kreativität ‚entthront‘, bis hin zu einer  – nach Kopernikus, Darwin und Freud – möglichen neuen Kränkung der Menschheit. Alle Kränkungen sind in ihrer Demontage von Hierarchien oft ‚männlich‘ gedacht. Die neue Kränkung wird dort virulent, wo Kreativität und insbesondere Kunst  – anders als das Rechnen  – als eigentliches Kennzeichen des Menschlichen galt und insbesondere Künstler:innen (traditionell: Künstler) als divino artista mit ihrer Fähigkeit an der Schöpfungskraft Gottes teilhaben (z.  B. Honour und Fleming 2007, 423). Auch wenn viele der Annahmen zu KI mit übertriebenen Erwartungen und teils mythischen Überhöhungen verbunden sind (Campolo und Crawford 2020), bleibt deutlich, dass durch KI neue Weltzugänge und neue Interpretationen des sozialen Miteinanders entstehen. Die Bereiche von Kunst und KI als je unterschiedliche Formen der Erfassung und Interpretation von Wirklichkeit sind beide von Genderfragen durchzogen. In beiden Bereichen sind Frauen marginalisiert (historisch vorwiegend für den Bereich der Kunst, aktuell für den Bereich der Technik), sodass die Erfahrungen von Wirklichkeit häufig eingeschränkte Perspektiven aufweisen. KI ist darüber hinaus eine Technik, die in unmittelbarerer Weise als Kunst Gesellschaft gestaltet, weil sie Entscheidungsgrundlagen beeinflusst und Handlungspraktiken verändert. Darum

350 

 Regina Ammicht Quinn und Jessica Heesen

sind Genderfragen ein normativ notwendiger und empirisch wesentlicher Teil der Reflexion auf KI. ‚Gender‘ ist in dieser Reflexion sowohl Gegenstand als auch Methode (Ammicht Quinn 2017, 36–38). Gender, ursprünglich ein grammatikalischer Begriff, ist, erstens, eine Analysekategorie, die die ‚Grammatiken‘ der Geschlechterverhältnisse untersucht. Dies ist notwendigerweise verbunden mit der Abkehr von essentialistischen Vorstellungen von Geschlecht, die das Wesen ‚der Frau‘ und ‚des Mannes‘ überzeitlich festlegen, an den Körper binden und entsprechende Tugenden, Fähigkeiten, Aufgaben und Orte in der Welt zuordnen. ‚Gender‘ erfindet nicht die strukturgebenden Grammatiken der Geschlechterverhältnisse. Sie analysiert sie. Gender ist, zweitens, eine Verunsicherungskategorie, die Normalitäten und Üblichkeiten in Frage stellt. Und Gender ist, drittens, eine Gerechtigkeitskategorie. Sie benennt Exklusionen und Verletzungen, die durch die Grammatiken der Geschlechterverhältnisse hervorgebracht worden sind und entwickelt Geschlechtertheorien und -praktiken, die Menschen in ihrer Vielfalt gerecht werden und Gerechtigkeit für Menschen in ihrer Vielfalt anzustreben. Herkömmliche Konzepte und aktuelle Praktiken von Kreativität sowohl in Bereichen von Kunst als auch in Bereichen von KI schreiben Frauen implizit oder explizit eine bestimmte Rolle zu. Dieses Kapitel untersucht, wie Frauen im Bereich der Kreativität an den Rand gedrängt oder aus ihm ausgeschlossen wurden und analysiert, wie Frauen in der ‚Kreation‘ einer neuen digitalen Gesellschaft übersehen und diskriminiert werden. Gleichzeitig benennt es Instrumente zur Schaffung von mehr Kreativität und Diversität beim Einsatz von KI für die Gestaltung von Gesellschaft. Damit wird deutlich, dass KI zur Lösung der Probleme, die sie verursacht, auch aus dem Diskursfeld ‚Kunst‘ lernen kann und sollte.

2 Kreativität und Genderfragen In der westlichen bürgerlichen Gesellschaft des 19.  Jahrhunderts gehörte es für Frauen zum guten Ton, Klavier zu spielen; das Klavier war Teil ihres Alltags wie die Handarbeit. „Die Fräuleins übernahmen die Herrschaft am Klavier“, formulierte ein Zeitgenosse (Wehmeyer 1983, 83; Emme 1989, 116–129), und ein weiterer ergänzte: „Ein Frauenzimmer kleidet es sehr wohl, wenn es Klavier spielt“ (Krille 1938, zit. n. Emme 1989, 122). Was gespielt werden sollte, aber sind „kleine Sächelchen, denn die zierthen die Mädchen mehr, als wenn sie ihre Kräfte in hohem Fluge versuchten. Es blickt dort mehr die beschränkte, aber liebliche Weiblichkeit hervor“ (Guthmann 1806, 515, zit. n. Emme 1989, 122). Was hier eingeübt wird – Fingerspitzengefühl, Taktempfinden und Fleiß –, sind die Grundbausteine weiblicher Sittlichkeit. Die

Künstliche Intelligenz, Gender und Kreativität 

 351

Vorstellung von Weiblichkeit, die dieser Sittlichkeit zugrunde liegt, beinhaltet zugleich ein spezifisches weibliches Arbeitskonzept, das Frauen angemessen ist: „Frauen pflegen einem äußeren Eindrucke, selbst einem flüchtigen, leicht nachzugeben, springen bisweilen mit einer für Männer unglaublichen Schnelligkeit von einer Empfindung zur andern, von einem Gegenstande ihrer Beschäftigung zu einem anderen über, während die Thätigkeit des Mannes in der Regel in der einmal angenommenen Richtung verharrt“ (Biedermann 1856, 74–75). Im Musikinstrumentenmuseum der Stiftung Preußischer Kulturbesitz in Berlin-Dahlem steht ein Nähtischklavier, das ideale Fraueninstrument: Es kombiniert ein Kleinstklavier mit einer Nähtischschublade und -arbeitsplatte. Dies wurde als besonders praktisch empfunden: „Ohne sich erheben zu müssen – im wörtlichen und übertragenen Sinn  –, kann die Frau von einer Beschäftigung zur nächsten überwechseln, erst ein bisschen handarbeiten, dann ein bisschen herumtasten“ (Emme 1989, 124). Mit „unbegreiflicher Schnelligkeit“ (Emme 1989, 124) kann sie vom Etüdenspielen zum Strümpfestopfen wechseln und umgekehrt. Das Nähtischklavier veranschaulicht eine Geschichte weiblicher Kreativität, die mit traditionellen weiblichen Arbeitsmustern und Selbstbildern verbunden ist: Ein hohes Maß an Unterbrechungs- und Ablenkungsbereitschaft, verbunden mit einer Reduktion der kreativen Ansprüche auf etwa zwei Oktaven. Was davon ist 200 Jahre später noch sichtbar? John Baer und James C. Kaufman stellen in ihrer Studie (2008) fest, dass die Frage nach Geschlechterdifferenzen und Kreativität eine empirisch vernachlässigte Frage ist  – auch weil der Gegenstandsbereich schwer fassbar ist. Zugleich stoßen sie auf eine Widersprüchlichkeit zwischen Testergebnissen, die Kreativität messen oder vorhersagen wollen und tatsächlichen kreativen Leistungen (Baer und Kaufman 2018, 76). Bei KreativitätsTests und kreativen Leistungen zeigen sich keine relevanten Differenzen zwischen Mädchen und Jungen, möglicherweise eine leicht höhere Erfolgsquote für Mädchen (Baer und Kaufman 2018, 75). Bei Erwachsenen werden dann deutliche Diskrepanzen sichtbar: Männer bringen mehr und bedeutendere Leistungen hervor, die als kreativ gedeutet und anerkannt werden. „[W]e would argue“, so Baer und Kaufman, „that assuming any gender differences in creativity are most likely the product of differing environments would represent the best overall synthesis of what we currently know about gender differences in creativity“ (Baer und Kaufman 2018, 98). Proudfoot, Kay und Koval nehmen diese Frage 2015 mit einer neuen Perspektive auf: Sie untersuchen in fünf aufeinander aufbauenden Studien den Gender Bias in der Zuschreibung von Kreativität (Proudfoot et al. 2015). Die Vorstellung von ‚Kreativität‘, so das Ergebnis, ist eng mit als männlich verstandenen Stereotypen verknüpft, etwa Unabhängigkeit, Durchsetzungsfähigkeit, Selbstbewusstsein, reflektiertes Durchbrechen von Regeln usw. Im Vergleich beziehen sich als weib-

352 

 Regina Ammicht Quinn und Jessica Heesen

lich verstandene Stereotype auf Kooperationsfähigkeit, Empathie, Fürsorge, Hilfsbereitschaft und vergleichbare Eigenschaften (Proudfoot et al. 2015, 1754) und sind damit zwar Grund für Unterbrechungsbereitschaft, nicht aber für Meisterwerke. „Thinking outside the box“ wird Männern zugeschrieben, während von Frauen „connecting the dots“ erwartet wird (Proudfoot et al. 2015, 1753). Das heißt nicht, dass Männer kreativer sind, aber dass das, was sie tun, als kreativ anerkannt wird – weil das Verständnis von ‚Kreativität‘ sich mit dem Verständnis von ‚Männlichkeit‘ überschneidet. Dabei wird zugleich ein bestimmtes Verständnis von ‚Kreativität‘ vorausgesetzt: Nach wie vor werden Jungen verspottet, wenn sie Ballett tanzen oder Aquarelle malen wollen. All dies erscheint wenig ‚maskulin‘. Aber dort, wo es um Zuschreibungen von Unabhängigkeit, Autonomie, Selbstbewusstsein und Eigenwilligkeit geht, nähert sich diese Zuschreibung von Männlichkeit einer populären Vorstellung von Kreativität an. In ihrem Tagebuch notiert die Pianistin und (eigentlich) Komponistin Clara Schumann 1839: „Ich glaubte einmal, das Talent des Schaffens zu besitzen, doch von dieser Idee bin ich zurückgekommen, ein Frauenzimmer muss nicht componieren wollen – es konnte noch keine, sollte ich dazu bestimmt sein?“ (Litzmann 1920, 289). Clara Schumann steht mit dieser Einschätzung in einer langen Reihe von Künstlerinnen, die bis in die Gegenwart reicht. Auch heute wird in populären Zuschreibungen ein Nähtischklavier impliziert: Natürlich sind auch Frauen kreativ, aber meistens auf zwei Oktaven, nicht auf dem großen Flügel. Ein Blitzlicht darauf werfen TED-Talks, in denen Expertinnen und Experten ihre Ideen einem breiteren Publikum vermitteln. In Proudfoots, Kays und Kovals dritter Studie wurden Reaktionen der Nutzer:innen der hochgeladenen TEDTalks untersucht. In einem Evaluationsinstrument konnte unter einer Reihe von 14 Beschreibungen (wie beautiful, courageous, informative, ok und anderen) drei Wörter gewählt werden, die am treffendsten erschienen. Unter den 100 meist gesehenen Talks waren 28 Talks von Frauen. Über alle Themenbereiche hinweg (fashion design als Ausnahme) wurde die Bewertung ingenious/genial signifikant häufiger Männern zugeschrieben als Frauen (Proudfoot et al. 2015, 1755–1756). In der Verbindung von Wissenschaft und Genialität wird zugleich eine Verschiebung in der Vorstellung von Kreativität deutlich. Nach wie vor ist das Konzept mit Kunst verbunden, ergänzt durch Bereiche des Designs. Dort aber, wo auf höchstem Niveau in den Naturwissenschaften, in der Mathematik, im Ingenieurswesen und der Technikentwicklung geforscht und gearbeitet wird, ist ebenfalls und im besonderen Maße Kreativität gefordert. Damit wird Kreativität nicht nur Voraussetzung für eine neuartige, im weitesten Sinn künstlerische Darstellung verstanden; Kreativität zeigt sich hier als Problemlösungsfähigkeit und ist eng verbunden mit Innovation und Erfolg.

Künstliche Intelligenz, Gender und Kreativität 

 353

3 „When Computers were Women“. Frauen im Berufsfeld IT und KI Die KI-Forschung wie auch der gesamte Bereich von IT-Entwicklung und Digitalwirtschaft bauen auf den vorhandenen und geschichtlich grundlegenden kulturellen, nationalen und internationalen Strukturen auf. ‚Computer‘ war bis 1945 eine Berufsbezeichnung fast ausschließlich für Frauen, und erst ab 1945 bezeichnete der Begriff ‚Computer‘ die neuen Großrechner (Light 1999, 469). Bis in die 1960er Jahre war Programmieren Frauenarbeit. Diese Arbeit hatte noch nicht den Status, den sie heute hat: Der Begriff ‚Software‘ war noch nicht erfunden und coding galt als sekundäre Aufgabe, während Ruhm und Ehre den Herstellern der Maschinen zukam. Frauen galten als besonders qualifizierte Programmiererinnen, schließlich, so eine der damaligen Argumentationen, waren sie auch in der Lage, Strickmuster zu entwerfen. Diese Analogie wird heute wieder aufgegriffen: „Knitting is Coding“ (Matsumoto 2019) ist das Schlagwort eines von der National Science Foundation (USA) geförderten Projekts, das die Mathematik und Mechanik einer alten Technik namens ‚Stricken‘ untersucht und dabei prädiktive Modelle entwirft. Viele Frauen haben Grundsteine für die heutige Informatik gelegt. Dass es heute eklatant wenige Frauen in diesem Bereich gibt, hat also wenig mit der DNA oder anscheinend geschlechtergebundenen Begabungen zu tun, sondern mit einer Sozialgeschichte, die im Einzelnen noch nachgezeichnet werden muss. Der Global Gender Gap Report des World Economic Forum mit einem eigenen Schwerpunkt zu KI, der im Dezember 2018 veröffentlicht wurde (World Economic Forum 2018), zeigt auf, dass zum jetzigen Zeitpunkt die Erfolge der Geschlechtergerechtigkeit in Kernbereichen wie Gesundheit, Bildung, Ökonomie und Politik erneut in Frage stehen – und zwar aufgrund von KI. Während der Gender Gap – also die Geschlechterkluft in zentralen gesellschaftlichen Bereichen, etwa in der Fertigungsindustrie, dem Bergbau und im Energiesektor, weiter abnimmt, ist der Gender Gap für den ‚KI-Talentpool‘ seit vier Jahren konstant: 78 % derjenigen, die im KI-Sektor arbeiten, sind (vorwiegend weiße und asiatische) Männer. Damit ist der Gender Gap dreimal so hoch wie in anderen Industrien. Und dort, wo Frauen im KI-Bereich beschäftigt sind, betrifft dies zu großem Teil schlechter bezahlte und reputationsarme Positionen. Deutschland, auf Platz drei der führenden ‚KI-Nationen‘ nach USA und Indien, nimmt mit einem Frauenanteil von 16 % in Bezug auf den Gender Gap den drittletzten Platz unter den ‚KI-Nationen‘ ein. Dieser Gender Gap ist so groß, dass er sich laut World Economic Forum nicht von selbst erledigt. Wenn KI in naher Zukunft zur Querschnittstechnologie in vielen Lebensbereichen wird, dann hat dies Konsequenzen für die ökonomische Partizipation von Frauen und für den dringenden Bedarf an Fachkräften (World Economic Forum 2018, 28–32). Der Gender Gap

354 

 Regina Ammicht Quinn und Jessica Heesen

Report 2020 bestätigt diese Zahlen mit etwas anderem Fokus: Im Bereich „Data and AI“ sind 74 % der Beschäftigten Männer; im Bereich „Cloud Computing“ 92 % (World Economic Forum 2020, 40). Heute gilt ‚der Computer‘ generell in den westlichen Industrienationen als männliche Domäne. Auch die Künstliche Intelligenz steht symbolisch überhöht für ‚Rationalität‘ und ‚Effizienz‘ und entspricht damit den klischeehaften Zuschreibungen für männliche Attribute. Beides ist jedoch kritisch zu betrachten: Weder ist ‚Rationalität‘ eine bestimmende Charaktereigenschaft von Männern, noch kann man in Bezug auf KI von eigenständigem und begründetem Urteilen sprechen. Der belgische KI-Forscher Luc Steels spricht deshalb von einer „Fake Intelligence“ (Schnabel 2018) und betont die reduktionistische Arbeitsweise von KI in Form der Analyse von Mustern und Korrelationen. Gerade aufgrund dieser beschränkten, aber wirkmächtigen Perspektive von KI auf gesellschaftliche und individuelle Handlungswelten muss sich ihr Einsatz an grundlegenden Gerechtigkeitsfragen und der Vermeidung von Diskriminierung messen lassen.

4 Reproduktion von Diskriminierungsmustern KI-Systeme und die sie leitenden Algorithmen arbeiten auf der Grundlage von vorliegenden Datensätzen, aus denen sich Verhaltensmuster und Korrelationen ablesen lassen. Anhand solcher Muster, die auf Ereignissen und Handlungen in der Vergangenheit beruhen, entwerfen sie Auswertungen, Interpretationen und letztlich Prognosen zu Wahrscheinlichkeiten für das Wiedereintreten dieser Muster in der Zukunft. KI und autonome Systeme sind damit keine neutralen technischen Artefakte, sondern die Form ihrer Gestaltung und ihr Handlungsspektrum sind Ausdruck sowohl gesellschaftlicher Wertvorstellungen als auch der Präferenzen ihrer Entwickler und Entwicklerinnen. Für den Forschungszweig, der sich damit beschäftigt, wie Technologien Normen und Werten prägen, hat sich der Ausdruck Values in Design etabliert (Nissenbaum 2005). Wertvorstellungen werden z.  B. offensichtlich, wenn Roboter Geschlechterstereotype transportieren und etwa für die emotionale Ansprache von Kindern ein weiblicher Avatar genutzt wird. Auch die geläufigen KI-Sprachassistenzsysteme haben Frauennamen und sprechen mit Frauenstimmen. ‚Alexa‘ oder ‚Siri‘ organisieren unseren Tag, beantworten Fragen, buchen das Hotel und bestellen Katzenfutter. Sie haben keinen Körper, aber (imaginierte und programmierte) Eigenschaften: Sie sind hilfsbereit, unterstützend, vertrauenswürdig, verlässlich, kompetent, effizient, geduldig und anspruchslos. Gleichzeitig werden Spracherkennungssysteme mit Männerstimmen trainiert und die Systeme haben immer wieder Defizite, wenn

Künstliche Intelligenz, Gender und Kreativität 

 355

sie auf Frauenstimmen reagieren sollen (Criado-Perez 2019, 162–165.). Wenn Sprachcomputer mehrheitlich mit Männerstimmen trainiert werden und darum Frauenstimmen schlechter verstehen, zugleich aber häufig mit Frauenstimmen sprechen, dann zeigen sich ineinander verschachtelte Geschlechterstereotypen. Die Voreinstellungen der Frauenstimmen lassen sich ändern, aber als Voreinstellungen sind sie Ausdruck gesellschaftlicher Vor-Einstellungen, anhand derer die Systeme in das Leben integriert werden. Ursachen der Diskriminierung durch KI-Algorithmen liegen zumeist in der Reproduktion bestehender Diskriminierungsmuster im Rahmen der automatischen Mustererkennung oder durch die (implizite) Voreingenommenheit von Programmierer:innen (Friedman und Nissenbaum 1996). Daher kann ein Computersystem gut und im Interesse einer Personengruppe funktionieren und ihr Selbstverwirklichungspotenzial gar steigern, schadet aber womöglich anderen Personen oder Personengruppen. Häufig sind Frauen und minorisierte oder marginalisierte Gruppen von diesen Formen der Diskriminierung betroffen (Heesen et al. 2021). Aufgrund der starken Orientierung lernender Systeme an vorhandenen Praktiken und Daten manifestiert sich hier eine neue digitale Form der „Normativität des Faktischen“ (Jellinek 1976, 338). Ein konkretes Beispiel hierfür sind Softwaredienste für Bewerbungsprozesse, wie sie etwa beim Unternehmen Amazon verwendet werden (Reuters 2018). Die Personalverantwortlichen sortieren mithilfe eines Algorithmus die eingegangenen Bewerbungen vor. Bewerbungen von Frauen bewertet der Algorithmus jedoch systematisch schlechter als jene von Männern, denn die Datenbasis, mit der der Algorithmus trainiert wurde, beinhaltet Daten der in den letzten Jahren erfolgreich eingestellten Beschäftigten. Da diese überwiegend männlich waren, hat der Algorithmus gelernt, diese Eigenschaft als positiv zu bewerten (Heesen et al. 2021). Frauen sind zudem besonders häufig von Hintergrundungerechtigkeiten betroffen. Das heißt, bestimmte Kriterien in algorithmischen Entscheidungssystemen können zu Benachteiligungen einer Personengruppe führen, wenn sie die Kriterien nicht oder nur deutlich erschwert erfüllen kann (z.  B. die Kriterien für einen ‚guten‘ Lebenslauf als Vorsortierung für einen Bewerbungsprozess, denen Frauen mit Fürsorgeaufgaben aufgrund ihrer Lebensumstände nicht entsprechen können). Darüber hinaus entstehen aus dem Zusammenspiel der ohnehin häufig schon intransparenten Funktionsweisen von deep learning und maschinellem Lernen einerseits und der (teils fehlerhaften) Anwendung der jeweiligen Resultate andererseits neue, schwer identifizierbare Formen der Diskriminierung (teils beschrieben unter dem Begriff der ‚emergenten‘ Diskriminierung, Beck et al. 2019, 9). Diese stereotypen oder diskriminierenden Wirkungen von KI sind häufig nicht sichtbar, weil Einzelentscheidungen – etwa bei Job-Bewerbungen oder der Kreditvergabe – dem

356 

 Regina Ammicht Quinn und Jessica Heesen

Subjekt und nicht einer Struktur zugeschrieben werden; im Einzelfall haben die beteiligten Menschen auch keinen Einblick in die Wirkungsweise des Systems, das sie nutzen oder von dem sie ‚sortiert‘ werden (Heesen et al. 2021).

5 Data gap/representation gap Für die Identifizierung und Vermeidung von Diskriminierung im Zusammenhang der Entscheidungsunterstützung durch KI sind insbesondere Fragen der Trainingsdatenqualität von Bedeutung. Unfaire Diskriminierung durch KI-Systeme kann ihren Ursprung in verzerrten Datensätzen haben, denn Daten bilden die Grundlage von Rechenmodellen und letztlich algorithmischen Entscheidungen. Die Inputsteuerung in ein algorithmisches System ist eine notwendige Bedingung für ‚gute‘ Ergebnisse, insofern sind Datenauswahl und Datenintegrität eine bedeutende Voraussetzung für die Fairness einer Anwendung. Informationen und Wissen von und über Minderheiten sind in der Regel jedoch seltener in Datensätzen vertreten (Malik 2018), sodass Daten über manche gesellschaftlichen Gruppen verfügbar sind, über andere jedoch nicht (Heesen et al. 2021). Caroline Criado-Perez spricht hier von einem „Female Representation Gap“ (2019, 318) und einem „Gender Data Gap“ (2019, xi-xv, 5; 25). Dass ‚der Mann/das Männliche‘ als Folie der Normalität gilt, ist ein viel diskutiertes Thema der Genderforschung seit Simone de Beauvoir (1949 [dt. 1951]). Im Kontext von KI und Big Data erscheint diese alte Diskussion in neuer Perspektive: „If your big data is corrupted by big silences, the truths you get are half-truths, at best“ (Criado-Perez 2019, xii). Frauen fehlen häufig in den Daten. Dies betrifft beispielsweise medizinische Daten, die nur Herzinfarktsymptome von Männern registrieren oder auch klinische Studien zu Covid-19, wo nur bei 416 von 2484 Studien sex/gender als Kriterium für die Beteiligung aufgenommen wurde, obwohl die unterschiedlichen Reaktionen von Männern und Frauen auf Infektion und Medikamente schon deutlich wurden (Brady et al. 2020; Grover 2020). Daten fehlen, aber sie werden außerdem auch missrepräsentiert. Große Datenbanken wie ImSitu oder COCO, die zum Trainieren von algorithmischen Bilderkennungssystemen genutzt werden, enthalten, so die Studie von Zhao et al. (2017), einen nachweisbaren Genderbias. ‚Küche‘ und ‚Haushaltsgeräte‘ werden mit Frauen dargestellt, ‚Computer‘ und ‚Sport‘ mit Männern. In den trainierten Systemen werden diese Vorurteile dann nicht nur abgebildet, sondern verstärkt, sodass auch die Abbildung eines Mannes am Herd als ‚Frau‘ gelabelt wird. Wenn Daten von Frauen fehlen oder Frauen in Daten missrepräsentiert werden, dann hat das Konsequenzen – dort, wo Frauen im Talentpool nicht identifiziert werden, wo Medikamente nicht wirken, wo unbezahlte Arbeit nicht im

Künstliche Intelligenz, Gender und Kreativität 

 357

Bruttosozialprodukt auftaucht und dort, wo Frauen und andere ‚Andere‘ nicht ‚passen‘ in die gestaltete Welt. Diese knappe Bestandsaufnahme zeigt, dass hier auf unterschiedlichen Ebenen Reflexions- und Handlungsbedarf besteht.

6 Wie kann ein zeitgemäßes, diversitätsorientiertes Kreativitätskonzept aussehen? Kunst und Technik haben Überschneidungsbereiche, wo Kunst Technik nutzt, wo Technik Kunst (re)produziert oder technisches Design künstlerische Grundsätze integriert. Sowohl Kunst als auch Technik stützen sich dabei auf Kreativität und in beiden Fällen werden Weltbilder erschaffen oder verändert. Kreativität im Hinblick sowohl auf künstlerische als auch technische Innovation hat ihre je eigenen Ideologien: das Genialische, das vom alltäglichen Leben abgetrennt ist und das Rationale, das das alltägliche Leben in eine klare Struktur umzuformen sucht. Diese eigenen Weltzugänge können je eigene exkludierende Wirkungen haben, indem weder das Genialische noch das Rationale Bestandteil der überwiegenden gesellschaftlichen Zuschreibungen ‚des Weiblichen‘ sind. Auf der einen Seite entsteht dann für bürgerliche Frauen das Nähtischklavier und, für arme Frauen, der Kitsch. Auf der anderen Seite entsteht mit einem „male-unlessotherwise-indicated approach“ (Criado 2019, 3) die Vernachlässigung und Missrepräsentation als weiblich oder ‚anders‘ aufgefasster Menschen und Bereiche in Technik und damit verbundenen Handlungswelten. Wie ‚Intelligenz‘ ist ‚Kreativität‘ ein sogenannter Reflexionsbegriff, der sich nicht aus der Referenz auf ein Objekt, sondern aus dem Vergleich schon gegebener Begriffe definiert (Kant, KrV, B 324.). Er ist insofern stark von seinen Verwendungskontexten und Bezugsgrößen abhängig und damit gleichzeitig Gegenstand immer neuer Aushandlung seiner Geltung und Verwendung. Der Erziehungswissenschaftler und Psychologe Howard Gardner wurde für seine Theorie der multiplen Intelligenz (1983, Neuauflage 2006) breit kritisiert. Eine mangelnde empirische Basis und eine unkontrollierte Ausweitung des Begriffs waren zentrale Punkte der Auseinandersetzung. Dessen ungeachtet hat Gardner aber  – insbesondere in der Pädagogik – eine breite Bewegung angeregt, die sich gegen die Reduktion von ‚Intelligenz‘ auf mathematisch-logischer Intelligenz richtet und andere Formen menschlicher Fähigkeiten unter den Intelligenzbegriff fasst. Hier und in anderen Strömungen der Psychologie wird dem konvergenten Denken das ‚divergente‘ Denken entgegengestellt, das offene und unstrukturierte Probleme behandelt, das ‚laterale‘ Denken, das, als Querdenken im eigentlichen Sinn, immer wieder neue, unbekannte oder abseitige Wege nimmt.

358 

 Regina Ammicht Quinn und Jessica Heesen

Die Intelligenz eines Mustererkennungssystems unterscheidet sich von Klugheit, dem abwägenden und kontextbezogenem Denken, das mit kreativem Denken eng verwandt ist. Nach Edward de Bono (1993) wird anders ausgedrückt die „rock logic“ von der „water logic“ ergänzt: Während traditionelle ‚feste‘, ‚steinerne‘ Logik mit ‚a impliziert b‘ arbeitet, erkundet die „water logic“ einen „flowscape“ mit wechselnden Begrenzungen und Kontexten. In all diesen Fällen geht Intelligenz als kreatives Denken über isolierte kognitive Merkmale hinaus und legt ein Gesamtbild des Menschlichen zugrunde, das Praxis, Emotion und Wertannahmen miteinschließt und damit einem „positivistisch halbierten Rationalismus“ (Habermas 1993) entgegenwirkt. Dazu hält der Informatiker und ehemalige Google-Vizepräsident Sebastian Thrun fest: „Letztlich geht es [bei KI] um Musterkennung, darum, dass Technik in der Lage ist, Regeln zu erlernen und sie anzuwenden. Intelligenz dagegen umfasst viel mehr, auch Emotionen, Kreativität, Meinungsfreiheit, Autonomie“ (Menne und Schmitt 2020). Die großen Probleme der Zeit sind nicht Probleme, die in geschlossenen Systemen (Grunwald 2019, 48) oder nach Mustern auftreten. Es sind häufig schon lange bekannte Probleme des gesellschaftlichen Zusammenlebens, Fragen weltweiter Ungleichheiten, der Verständigungsschwierigkeiten, Fragen von Gerechtigkeit, Geschlechtergerechtigkeit, minorisierten Menschen oder Gruppen, des Mediengebrauchs, der Kindererziehung, der Technikfolgen und des Klimawandels (vgl. auch Hörisch 2004, 317). All diese Probleme lassen sich auch durch eine noch so gute KI nicht lösen. KI kann aber zum Finden dieser Lösungen beitragen. Dann braucht es jedoch nicht nur die ‚richtige‘ Mathematik und Informatik, sondern ein klares Problembewusstsein, Flexibilität und Originalität – und damit Kriterien, die auch für die Beschreibungen von Kreativität ausschlaggebend sind (Cropley 2015; Stemmler et al. 2016, 233–260). Hier setzt eine Verbindung von ‚Rationalität‘ und ‚Kreativität‘ an, die dem Anspruch eines umfassenden Erkennens und Gestaltens jenseits von genderspezifischen Zuschreibungen folgt. Kreativität ist damit  – jenseits einer binären Zuteilung von ‚männlich‘ und ‚weiblich‘ – diversitätsorientiert, weil das, was nicht ‚passt‘, nicht ausgeschlossen werden muss, sondern zum besonderen Kennzeichen dieses kreativen Denkens, dieser kreativen Handlung oder dieses kreativen Ergebnisses werden kann. Diversitätsorientierte Kreativität im Sinne der Konstruktion von Weltzugängen ist der ‚kreativere‘ Umgang mit Wirklichkeit: Nicht Wiedergabe und Verstärkung des Bestehenden mit all seinen Macht- und Vorurteilsstrukturen, sondern ein neues und breiteres, divergentes, laterales oder ‚wasser-logisches‘ Denken in den Entwicklungen und Anwendungen von KI-Systemen. Hier kann die KI-Forschung von Kunst lernen. Abbildungen der Wirklichkeit – auch in dem Zirkel von Messen, Interpretieren und Optimieren – sind immer wieder wichtig, etwa dort, wo autonome Fahrzeuge Verkehrsschilder erkennen

Künstliche Intelligenz, Gender und Kreativität 

 359

oder medizinische Diagnosen auf den Vergleich diagnostischer Bilder zurückgreifen. Kunst ist auch in der Abbildung von Wirklichkeit (verwiesen sei etwa auf die zwischen Kunst, Dokumentation und Emotionalität changierenden Fotografien Sebastião Salgados) – mehr als eine Abbildung der Wirklichkeit, sondern vielmehr eine Eröffnung des Blicks und ein neuer Weltzugang.

7 Instrumente zur Schaffung einer kreativen und diversen KI Um Weltzugänge durch Techniken nicht zu beschneiden, ist es nötig, KI als kreativen Prozess zu denken. Die zugrundeliegende Vorstellung von Kreativität ist die einer diversitätsorientierten und damit genderbewussten Kreativität, einer ‚kreativen‘ Kreativität, also einer Schaffung von Perspektiven auf Wirklichkeiten und ihre Veränderungsoptionen, die grundlegende Gerechtigkeitsfragen stellt und das ‚ganze Bild‘ in den Blick nimmt. In der Informatik werden Aspekte der Gerechtigkeit im Umgang mit KI und Algorithmen zumeist unter dem Begriff ‚Fairness‘ diskutiert (z.  B. im Rahmen der jährlichen Fachkonferenz ACM FAccT). Dabei geht es häufig um die Qualität von Trainingsdaten, Vorurteile, die sich im Technikdesign wiederfinden oder auch die gerechte Verteilung der Vorteile aus KI-Anwendungen. Für die Vermeidung von ungerechtfertigten Diskriminierungen durch KI-Systeme können verschiedene Instrumente genannt werden. Sie haben die Umsetzung einer wertorientierten Technikgestaltung zum Ziel und reichen von Verfahren, die auf die Konfiguration der Algorithmen unmittelbaren Einfluss haben, über Standardisierungsprozesse und rechtliche Vorgaben bis hin zu Fragen der Berufs- und Unternehmensethik. Sie betreffen damit Fragen der Selbstregulierung der IT-Branche, der öffentlichen Regulierung und des zivilgesellschaftlichen Engagements (Heesen et al. 2021). Eine wichtige Rolle für Inklusivität, Gendergerechtigkeit und Diskriminierungsfreiheit spielt die Qualität der Trainingsdaten. Es wird oft verkannt, dass sowohl die Erhebung von Daten, ihre Interpretation als auch Repräsentation keinesfalls neutral sind, sondern selbst bestimmten Rahmungen durch Normen und Technik unterliegen. Um zu einem fairen Umgang mit Daten zu kommen, muss also gefragt werden: Wie wird mit Daten argumentiert? Was gilt überhaupt als Datum? Was sagen Daten über die Wirklichkeit? Denn Daten sagen uns häufig, dass gerade die Wirklichkeit nicht fair oder gerecht ist. Deshalb geht es auch nicht darum, ‚faire‘ Daten zu erheben, sondern Datenerhebungen kritisch an gesellschaftlichen Wertvorstellungen zu spiegeln. Dazu ist es unerlässlich, Anwendungen im Bereich der KI mit Daten von hoher Integrität lernen zu lassen, Verzerrungen entgegenzusteuern

360 

 Regina Ammicht Quinn und Jessica Heesen

und genau die Daten zu erheben, die für eine Anwendung wichtig sind – und eben nicht bei der Erhebung der Daten für Herzinfarktrisiken Frauen ‚zu vergessen‘. Auch die Zusammensetzung der Forschungs- und Design-Teams kann für die Widerspiegelung der Bedürfnisse und Anforderungen unterschiedlicher Nutzungsgruppen von hervorgehobener Bedeutung sein. In vielen Technikentwicklungsprojekten sind zum Beispiel weniger Frauen als Männer und insbesondere weniger Frauen of Color oder Menschen aus dem globalen Süden vertreten (Leavy 2018). Diese Unausgeglichenheit der Repräsentanz von verschiedenen Gruppen hat Implikationen für die Inklusivität der Technik. Designer:innen arbeiten mit sogenannten Personae, also Konzepten bzw. Stereotypen der anvisierten Nutzer:innen und Konsument:innen des Technikprodukts. Hier kann es sein, dass ein Team aufgrund der eigenen Erfahrung, des eigenen Horizonts oder auch der eigenen Voreingenommenheit nicht an die Interessen und Bedürfnisse bestimmter Gruppen von Nutzer:innen denkt. So kann es rein männlich besetzten Entwicklungsteams schwerfallen, die Anforderungen von Frauen an einen Dienst zu antizipieren (Wachter-Boettcher 2017, 27–29). Auch aus Perspektive der epistemischen Gerechtigkeit (Fricker 2009) sollte die Pluralität der Gesellschaft durch eine Vielfalt der Stimmen und Positionen im Forschungs- und Entwicklungsprozess repräsentiert und vermittelt werden. Hier geht es um mangelnde Zuschreibung von Geltungsmacht im öffentlichen Diskurs und die daraus folgende Marginalisierung bestimmter Gruppen. Dieses Silencing führt zu manifesten sozialen Benachteiligungen, aber auch zu einer epistemischen Ungerechtigkeit, da Erfahrungen und Wissen dieser Gruppen als öffentlich anerkanntes Wissen nicht vorkommen (Heesen et al. 2021). Pluralität in der Entwicklungsperspektive kann auf diesem Wege zu mehr Kreativität in der Erstellung von Nutzungsskripten und einer höheren Problemlösungskompetenz führen. Im Zusammenhang der diversitätssensiblen Technikentwicklung werden spezifische Fragen gestellt: Für wen wird die Technik entworfen? Welche Vorstellungen haben die Entwickler:innen von den Nutzer:innen und Konsument:innen? Wer profitiert effektiv von der Technik und wer wird womöglich aufgrund des Designs oder der Implementierung geschädigt, marginalisiert oder gar aus epistemischer Sicht ‚ausgelöscht‘? Welche Funktionen fehlen, um die Bedürfnisse und Präferenzen von diversen Nutzer:innen zu erfüllen (zum Beispiel Barrierefreiheit oder nicht-binäre Geschlechterkategorien in Online-Profilen)? (Heesen et al. 2021) Die bloße Erhöhung der Vielfalt in den technischen Forschungs- und Entwicklungsteams ist jedoch keine Garantie für die Berücksichtigung des ganzen Spektrums von Bedürfnissen und Anforderungen der unterschiedlichen gesellschaftlichen Gruppen. Weder können die Vertreter:innen bestimmter gesellschaftlicher Gruppen in die Rolle einer Interessenvertretung gedrängt werden, noch sind alleine die Entwicklungsteams in der Verantwortung für die Fairness ihres Produkts, sondern ebenso die Unternehmen, die Plattformbetreiber:innen, der Markt.

Künstliche Intelligenz, Gender und Kreativität 

 361

Zugleich spielt auch die pragmatische Frage nach der Verfügbarkeit von Daten eine Rolle. Insofern ist eine Erhöhung der Diversitätssensibilität und Geschlechtergerechtigkeit aller Teammitglieder sowie eine Ausrichtung der gesamten Unternehmenspraxis auf Fragen der Diskriminierungsfreiheit notwendig (Heesen et al. 2021). Gleichzeitig ist nicht nur der Entwicklungsprozess, sondern auch die Auseinandersetzung mit dem Endprodukt ein Schlüssel zur Rekonstruktion der normativen Implikationen technischen Handelns. Im reverse (cultural) engineering wird die technische Konstruktionspraxis durch eine künstlerische und feministische Analyse des Endprodukts zum Gegenstand von Kritik und kreativer Weiterführung. Anne Balsamo untersucht in ihrem Buch Designing Culture: The Technological Imagination at Work (2011) das Verhältnis von technischer und künstlerischer Konstruktionspraxis und ihrer kulturellen Reproduktion. Balsamo entwickelt eine Methode des hermeneutic reverse engineering. Sie greift damit eine gängige Methode im technischen Innovationsprozess auf: das Auseinanderbauen eines technischen Objekts, um den Herstellungsprozess zu untersuchen. Sie erweitert damit das bekannte reverse engineering um die Analyse der kulturellen Bedeutung. Auf diese Weise sollen Handlungsspielräume und Vorstellungsräume für technologische Entwicklungen und Anwendungen erweitert werden, die (geschlechter)demokratischen und sozialen Zielen dienen. Mögliche geschlechtsspezifische oder ausschließende Designschritte im Entwicklungsprozess können auf diese Weise identifiziert und es können Alternativen eröffnet werden. Das betrifft bei KI insbesondere die Rückverfolgung der Herkunft und Beschaffenheit der Trainingsdaten wie auch der Regeln für algorithmische Entscheidungssysteme. Das Verständnis davon, wie KI-Systeme entwickelt werden, muss vor diesem Hintergrund durch einen weiteren Lernvorgang ergänzt werden: Das Lernen der Wahrnehmung und Reflexion der Faktoren, die sich auf Menschen negativ auswirken können – insbesondere auf Menschen, die aus dem eigenen Erfahrungshorizont und dem gesellschaftlichen Normalitätsrahmen herausfallen.

8 Ausblick Die Entwicklung und Anwendung von KI ist eines der großen Zukunftsthemen und damit ein bedeutender Bereich der Gesellschaftsgestaltung. Selbstverständlich müssen bei der Festlegung der Gestaltungsziele alle gesellschaftlichen Gruppen beteiligt werden. Eine Veränderung der Wissenschaftslandschaft und der Anwendungsbereiche von KI ist dafür dringend erforderlich. Das bedeutet, dass KI zu einem genuin interdisziplinären Feld werden kann und muss, das auch die Geistes- und Gesellschafts-

362 

 Regina Ammicht Quinn und Jessica Heesen

wissenschaften mit einbezieht. Die Entwicklung von Technologien, die innerhalb von komplexen sozialen Wirklichkeiten agieren sollen, erfordert ein kritisches Verständnis sozialer, rechtlicher und ethischer Kontexte und deren Interdependenz. Zugleich ist es auf der gesellschaftlichen Ebene notwendig, dass im Dialog und unter Beteiligung aller gesellschaftlichen Gruppen nach Lösungen für eine sozialverträgliche und gemeinwohlorientierte Technikgestaltung gesucht wird. Dafür aber muss KI kreativ werden. Nur mit diversitätsorientierter Kreativität und einem damit verbundenen erweiterten Begriff von Intelligenz kann sie vermeiden, bestehende Missverhältnisse und Marginalisierungen nicht zu verstärken, sondern auszugleichen. Hier sind Fragen nach nicht-, unter- oder missrepräsentierten Frauen in Daten und die Unterrepräsentation von Frauen im Bereich von KI-Forschung und -Entwicklung stellvertretend für das breite Feld von Diskriminierung und Marginalisierung. Mit Hilfe von Gender-Perspektiven und einer etablierten wissenschaftlichen Arbeit in diesem Feld können kulturhistorische, aber verdeckte Vorannahmen deutlich und Diskriminierungsmechanismen sichtbar werden. Diskriminierung aufgrund des Geschlechts oder der Sexualität ist damit repräsentativ für andere Formen individuellen und strukturellen Herausfallens aus einer definierten Normalität und betrifft in vergleichbarer Weise Fragen von Ethnie, Kultur, Alter und sozialer Herkunft. Spiegelt sich die Vielfalt der Gesellschaft nicht wider in Anwendungen, die in der Gesellschaft genutzt werden, kann es zu handfesten Fehlern, Wissenslücken und Diskriminierungen kommen.

Filmverzeichnis Ex Machina. Reg. Alex Garland. Universal Pictures, 2015. I, Robot. Reg. Alex Proyas. 20th Century Fox, 2004.

Literaturverzeichnis Academy of Medical Royal Colleges. Artificial Intelligence in Healthcare. https://www.aomrc.org. uk/wp-content/uploads/2019/01/Artificial_intelligence_in_healthcare_0119.pdf. London 2019 (28. Februar 2022). Amelang, Manfred und Dieter Bartussek. Differentielle Psychologie und Persönlichkeitsforschung. Stuttgart 2001. Ammicht Quinn, Regina. „Gender. Zur ‚Grammatik‘ der Geschlechterverhältnisse“. Gender studieren. Hrsg. von Margit Eckholt. Mainz 2017: 23–38. Baer, John und James C. Kaufman. „Gender Differences in Creativity“. Creative Behaviour 42.2 (2008): 75–149.

Künstliche Intelligenz, Gender und Kreativität 

 363

Balsamo, Anne. Designing Culture: The Technological Imagination at Work. Durham, NC 2011. Beck, Susanne et al. Künstliche Intelligenz und Diskriminierung: Herausforderungen und Lösungsansätze. https://www.plattform-lernende-systeme.de/publikationen-details/kuenstlicheintelligenz-unddiskriminierung-herausforderungen-und-loesungsansaetze.html. Whitepaper aus der Plattform Lernende Systeme. München 2019 (8. Oktober 2020). Becker, Heidrun, Mandy Scheermesser, Michael Früh, Yvonne Treusch, Holger Auerbach, Richard A. Hüppi. Robotik in Betreuung und Gesundheitsversorgung. Zürich 2013. Biedermann, Karl. Frauen-Brevier. Kulturgeschichtliche Vorlesungen. Leipzig 1856. Birnbacher, Dieter. Natürlichkeit. Berlin 2006. Bostrom, Nick. Superintelligence: Paths, Dangers, Strategies. Oxford 2014. Brady, Emer et al. „Lack of Consideration of Sex and Gender in Clinical Trials for COVID-19“. https:// doi.org/10.1101/2020.09.13.20193680. medRxiv [Preprint] (2020) (12. Oktober 2020). Campolo, Alexander und Kate Crawford. „Enchanted Determinism: Power without Responsibility in Artificial Intelligence“. https://doi.org/10.17351/ests2020.277. Engaging Science, Technology, and Society 6.1 (2020) (12. Oktober 2020). Criado-Perez, Caroline. Invisible Women: Exposing Data Bias in a World Designed for Men. London 2019. Cropley, David H. Creativity in Engineering. https://doi.org/10.1016/C2013-0-18511-X. Amsterdam 2015 (12. Oktober 2020). Dastin, Jeffrey. „Amazon Scraps Secret AI Recruiting Tool that Showed Bias against Women“. https:// www.reuters.com/article/us-amazon-com-jobs-automation-insight/amazon-scraps-secret-airecruiting-tool-that-showed-bias-against-women-idUSKCN1MK08G. Reuters Technology News 10.10.2018 (8. Oktober 2020). De Beauvoir, Simone. Das andere Geschlecht: Sitte und Sexus der Frau. Hamburg 1951. De Bono, Edward. Water Logic. Toronto 1993. Emme, Martina. „Die Ich-kann-nicht-Haltung von Frauen: Weiblichkeit als Kulturbarriere“. Mittäterschaft und Entdeckungslust. Hrsg. vom Studienschwerpunkt Frauenforschung am Institut für Sozialpädagogik an der TU Berlin. Berlin 1989: 116–129. Fricker, Miranda. Epistemic Injustice. Power and the Ethics of Knowing. Oxford 2009. Friedman, Batya und Helen Nissenbaum. „Bias in Computer Systems: ACM Transactions on Information Systems“. Media, Culture, Communication 14.3 (1996): 330–347. Gamm, Gerhard. Nicht nichts: Studien zu einer Semantik des Unbestimmten. Frankfurt am Main 2000. Gardner, Howard. Frames of Mind: The Theory of Multiple Intelligences. New York 1983. Gardner, Howard. Multiple Intelligences: New Horizons in Theory and Practice. New York 2006. Gehlen, Arnold. Der Mensch, seine Natur und seine Stellung in der Welt. Wiebelsheim 2009 [Berlin 1940]. Grover, Natalie. „No Accounting in Sex Differences in Covid Could Be Deadly“. https://www. theguardian.com/science/2020/sep/25/not-accounting-for-sex-differences-in-covid-researchcan-be-deadly. The Guardian 25.09.2020. (13. Oktober 2020). Grunwald, Armin. Der unterlegene Mensch: Die Zukunft der Menschheit im Angesicht von Algorithmen, künstlicher Intelligenz und Robotern. München 2019. Guthmann, Friedrich. „Winke über den musikalischen Unterricht der Frauenzimmer“. Allgemeine musikalische Zeitung 30 (1806). Habermas, Jürgen. „Gegen einen positivistisch halbierten Rationalismus.“ Der Positivismusstreit in der deutschen Soziologie. Hrsg. von Theodor W. Adorno et. al. München 1993 [1969]: 235–266.

364 

 Regina Ammicht Quinn und Jessica Heesen

Heesen, Jessica. „Verantwortlich Forschen mit und zu Big Data und Künstlicher Intelligenz“. Entgrenzte Verantwortung: Zur Reichweite und Regulierung von Verantwortung in Wirtschaft, Medien, Technik und Umwelt. Hrsg. von Anja Seibert-Fohr. New York et al. 2020: 285–303. Heesen, Jessica et. al. „Diskriminierung durch Algorithmen vermeiden. Analysen und Instrumente für eine digitale demokratische Gesellschaft“. Diskriminierung/Antidiskriminierung. Hrsg. von Gero Bauer et. al. Bielefeld 2021: 129–148. Heesen, Jessica und Marc Sehr. „Technikethik: ‚Ex Machina‘, Verantwortung für technische Produkte“. Angewandte Ethik und Film. Hrsg. von Thomas Bohrmann et al. Wiesbaden 2018: 229–258. Honour, Hugh und John Fleming. Weltgeschichte der Kunst. München 2007. Hubig, Christoph. Mittel: Bibliothek dialektischer Grundbegriffe. Bielefeld 2002. Jacobs, Tom. The Imagined Link between Masculinity and Creativity. https://psmag.com/social-justice/ the-imagined-link-between-masculinity-and-creativity. Pacific Standard 14.06.2017 (8. Oktober 2020). Jellinek, Georg. Allgemeine Staatslehre. Reprint des 5. Neudrucks der 3. Auflage, bearbeitet von Walter Jellinek. Kronberg im Taunus 1976. Joy, Bill. Why the Future Doesn’t Need Us. https://www.wired.com/2000/04/joy-2/. Wired 04.01.2000 (8. Oktober 2020). Kant, Immanuel. Kritik der reinen Vernunft. Gesammelte Schriften hrsg. v. der Königlich Preußischen Akademie der Wissenschaften (Akademieausgabe), Berlin 1900  ff., Bd. III. Krille, Annemarie. Beiträge zur Geschichte der Musikerziehung und Musikübung der deutschen Frau von 1750–1880. Berlin 1938. Leavy, Susan. „Gender Bias in Artificial Intelligence: The Need for Diversity and Gender Theory in Machine Learning“. Conference Paper, IEEE/ACM 1st International Workshop on Gender Equality in Software Engineering. Göteborg 2018. Light, Jennifer S. „When Computers Were Women“. Technology and Culture 40.3 (1999): 455–483. Litzmann, Berthold. Clara Schumann – ein Künstlerleben nach Tagebüchern und Briefen. Erster Band, Mädchenjahre 1819–1840. Leipzig 2001. Malik, Momin M. Bias and Beyond in Digital Trace Data. Diss. Carnegie Mellon University. http://reportsarchive.adm.cs.cmu.edu/anon/isr2018/abstracts/18-105.html. Pittsburgh, PA 2018 (19. März 2021). Menne, Katharina und Stefan Schmitt. „In der Luft gibt es keine Hindernisse“. Interview mit Sebastian Thrun, https://www.zeit.de/2020/16/sebastian-thrun-silicon-valley-autonomes-fahren-flugtaxi/ komplettansicht. Zeit Online 16/2020 (28. Februar 2022). Nass, Clifford und Scott Brave. Wired for Speech. How Voice Activates and Advances the Human-Computer Relationship. Cambridge 2005. Nissenbaum, Helen. „Values in Technical Design“. Encyclopedia of Science, Technology, and Ethics. Hrsg. von Carl Mitcham. Detroit et al. 2005: LXVI. Proudfoot, Devon et al. „A Gender Bias in Attribution of Creativity: Archival and Experimental Evidence for the Percieved Association Between Masculinity and Creative thinking“. Psychological Science 26.11 (2015): 1751–1761. Roberts, Shiobhan. ‚Knitting Is Coding‘ and Yarn Is Programmable in This Physics Lab: For Elisabetta Matsumoto, Knot Theory is Knit Theory. https://www.nytimes.com/2019/05/17/science/ math-physics-knitting-matsumoto.html?auth=login-email&login=email. New York Times 17.05.2019 (8. Oktober 2020). Schnabel, Ulrich. „Was macht uns künftig noch einzigartig?“ Die Zeit 14 (2018): 37–39. Stemmler, Gerhard et al. Differentielle Psychologie und Persönlichkeitsforschung. Stuttgart 2016.

Künstliche Intelligenz, Gender und Kreativität 

 365

Sullins, RoboWarfare. „Can Robots Be More Ethical Than Humans on the Battlefield?“ Ethics and Information Technology 12.3 (2010): 263–275. Sydow, Jörg, et al. Arbeit – eine Neubestimmung. Wiesbaden 2014. Wachter-Boettcher, Sara. Technically Wrong: Sexist Apps, Biased Algorithms, and Other Threats of Toxic Tech. New York 2017. Wehmeyer, Grete. Carl Czerny und die Einzelhaft am Klavier. Kassel 1983. World Economic Forum. The Global Gender Gap Report. https://www.weforum.org/reports/the-globalgender-gap-report-2018. Geneva 2018 (8. Oktober 2020). World Economic Forum. The Global Gender Gap Report. https://www.weforum.org/reports/gender-gap2020-report-100-years-pay-equality. Geneva 2020 (8. Oktober 2020). Zhao, Jieyu, et al. „Men Also Like Shopping: Reducing Gender Bias Amplification using Corpus-level Constraints“. Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing. Hrsg. von der Association for Computational Lingusitics. Kopenhagen 2017: 2979–2989. https://doi.org/10.18653/v1/D17-1323.

Exemplarische Analysen

Heike Mißler

Ian McEwans Machines Like Me (2019) Ian McEwans Roman Machines Like Me verbindet speculative fiction mit einem neohistorischen Setting: In einer nicht allzu weit entfernten Vergangenheit, einer alternativen Version der 1980er Jahre in Großbritannien, ist die technologische Entwicklung so weit fortgeschritten, dass eine humanoide KI mit „plausible intelligence and looks, believable motion and shifts of expression“ (McEwan 2019, 2) auf den Markt kommt. 25 Exemplare werden zum Verkauf angeboten, darunter 12 männliche Roboter, sogenannte „Adams“, und 13 weibliche, „Eves“. Der Protagonist, Charlie, gibt sein gesamtes Erbe aus, um eines davon, einen Adam, zu erwerben. Der Roman entwickelt sich zu einer komplexen Liebesgeschichte – einer Dreiecksbeziehung zwischen Mann, Frau und Maschine, in der die Grenzen zwischen Mensch und KI auf gründlichste hinterfragt und verwischt werden. McEwan besteht darauf, dass sein Werk kein sogenanntes Frankenstein-Szenario darstellt, also ein Narrativ, in dem eine von Menschen konstruierte Technologie gegen ihre:n Schöpfer:in rebelliert und ihren Platz in der sozialen Hierarchie einnehmen will, statt ihr zu dienen (Rutsky 2017, 183). Denn laut McEwan ist diese Vorstellung von Technologie „only partially true“ (McEwan in Lewis 2019). Vielmehr dreht sich der Roman um die Frage, was genau Menschlichkeit ausmacht, und inwiefern man überhaupt noch von einer Differenz zwischen humanoider KI und Mensch ausgehen kann, wenn bestimmte technologische Fortschritte, wie etwa deep learning sowie ein artifizielles Bewusstsein und eine artifizielle Persönlichkeit erreicht sind. Machines Like Me entfernt sich von technophoben und kulturpessimistischen Positionen zu KI zumindest so weit, dass suggeriert wird, man solle keine Angst vor der, sondern eher Angst um die Maschine haben, wie es in einer Rezension des Romans für den New Yorker heißt: „[We] worry not just what robots might do to us but what we might do to them, to say nothing of what they might do to us because of what we already do to one another“ (Lucas 2019). Machines Like Me reiht sich nahtlos in das Œuvre McEwans ein, dessen Romane als Verhandlungen von grundlegenden moralischen Fragestellungen gelesen werden können, die oftmals durch unvorhersehbare Geschehnisse (nicht selten Verbrechen) oder spontane und instinktive Entscheidungen der Romanheld:innen heraufbeschworen werden. McEwan wurde zu Beginn seiner Karriere in den 1970ern und 1980ern das Label „Ian Macabre“ verliehen, da seine Texte oft Schockelemente, graphische Gewalt und gesellschaftliche Tabus wie Inzest und Sadomasochismus behandeln (Cook et al. 2012, 151). Kiernan Ryans Studie über McEwans Werk aus dem Jahr 1994 verwendet den Begriff „the art of unease“, um seinen Stil zu beschreiben (Ryan 1994, 2). Diese „art of unease“ konfrontiert https://doi.org/10.1515/9783110656978-023

370 

 Heike Mißler

das Lesepublikum mit Szenarien, die eine direkte Reaktion und Positionierung provozieren, aber eine eindeutige moralische Haltung zum Geschehen schwierig machen. Auch Sebastian Groes identifiziert Fragen über (Un)schuld und (Un)recht als roten Faden in McEwans Werk (Groes in Cook et al. 2013, 144), die wohl am deutlichsten in McEwans bekanntesten Romanen The Child in Time (1987), Atonement (2001) und nun auch in Machines Like Me (2019) hervortreten. McEwan selbst formuliert sein Interesse etwas breiter: „I have always thought the defining call of literature is to do with the exploration of human nature […]“ (McEwan in Cook et al. 2013, 148). Machines Like Me führt dieses Großprojekt einer Erforschung der menschlichen Natur (und gleichsam das Infragestellen einer ebensolchen) dadurch weiter, dass gleich zwei moralische Dilemmata präsentiert werden, die die Leser:innen dazu einladen, Stellung zu beziehen. Das erste umfasst die Konflikte in der Beziehung zwischen Mensch und KI, also zwischen den beiden Protagonisten Charlie und Adam. Das zweite Dilemma hat eine feministische Dimension, denn es verhandelt ein Verbrechen aus der Vergangenheit von Charlies Partnerin Miranda und dreht sich um Konflikte in der Beziehung zwischen den Geschlechtern. Die Ich-Erzählung bedingt, dass die Geschehnisse zum größten Teil aus der Perspektive Charlies vermittelt werden. McEwan erklärt diese Wahl folgendermaßen: „My understanding of this was to get away from a world in which robots are taken for granted and actually get a sense of a first contact and persuade the reader to be in the same position as the narrator: Is this a real consciousness or is this just a very clever set of algorithms?“ (McEwan in McElvoy 2019, 00:05:15–00:05:32). Auch wenn man sich nicht unbedingt mit dem Protagonisten identifizieren kann, so soll man sich zumindest dieselben Fragen stellen wie er. Denn diese Fragen bieten Einblicke in alle einschlägigen Debatten aus der Theoriebildung des Posthumanismus. Die Leser:innen arbeiten sich also zusammen mit Charlie an klassischen theoretischen Fragestellungen zur Definition von Menschlichkeit im direkten Kontrast mit einem nicht-menschlichen Wesen ab. Sobald das zweite moralische Dilemma im Roman auftaucht, wird deutlich, dass die Grenzen zwischen Mensch und Maschine in ihrer Bedeutung zurücktreten vor den Machtgefällen in zwischenmenschlichen Beziehungen, die wiederum die KI beeinflussen. Die Allianzen zwischen den drei Protagonist:innen werden im Laufe des Romans ständig neu verhandelt, bis man schließlich nicht nur die Menschlichkeit aller Beteiligten in Frage stellen möchte, sondern auch die Idee, dass die KI von der Menschheit lernen kann und soll.

Ian McEwans Machines Like Me (2019) 

 371

1 „We are all humans, but some of us are just more mortal than others“ (Braidotti 2013, 15) – Posthumanistische Diskurse in Machines Like Me Viele Themen, die in Machines Like Me angerissen werden, lassen sich eindeutig in den Bereich der posthumanistischen Theorie einordnen. Eines der Ziele des Posthumanismus ist es, das klassische humanistische Menschenbild, das die Wissenschaft seit der europäischen Aufklärung dominiert, zu hinterfragen und dessen Unzulänglichkeiten aufzuzeigen: „Posthumanism’s discursive projects aim to decenter the human by terminally disrupting the scripts of humanism“ (Clarke 2017, 141). Aufbauend auf die anti-humanistischen Debatten poststrukturalistischer Denker:innen der 1970er (wie zum Beispiel Michel Foucault) wird dabei hauptsächlich die Idee kritisiert, dass „durch ständiges Identifizieren mit einer quasi-mystischen universellen menschlichen ‚Natur‘ große kulturelle Errungenschaften hervorgebracht werden, die den Zusammenhalt der Menschheit als Ganzes darstellen“ (Herbrechter 2009, 15). Posthumanistische Theoretiker:innen greifen diesen Glauben an, da er nicht nur ein eurozentrisches Menschenbild und Kulturverständnis geprägt hat, sondern auch eine binäre Machtstruktur, die biologische und soziale Identitätskategorien wie Geschlecht, ethnische Abstammung, soziale Klasse, sexuelle Orientierung etc. als Grundlage nimmt für die Zuweisung von Menschenstatus und Menschenwürde (siehe Braidotti 2013, 13–15). Somit ist die unweigerliche Konsequenz eines humanistischen Menschenbildes oftmals die Dehumanisierung aller derjenigen, die der Vorstellung der universellen, menschlichen Natur oder Norm aufgrund ihres Geschlechts, ihrer Hautfarbe etc. nicht entsprechen: „These ‚natural‘ differences – putatively biological and innate to specific bodies – helped to build hierarchical systems of domination as well as taxonomies of the human/inhuman/nonhuman that for centuries have legitimated (and continue to legitimate) the oppression, torturing, eating, and killing of beings not falling into the categories of ‚human’“ (Rossini 2017, 155). Folglich beschäftigen sich posthumanistische Untersuchungen häufig mit dem Status von unterdrückten Gruppen, aber auch dem nicht-menschlicher Wesen, wie zum Beispiel Tieren oder eben Robotern und KI. Um deren Status in unseren Gesellschaften zu bestimmen, sind einerseits Fragen nach der Definition von Menschlichkeit grundlegend, aber auch Fragen nach der sozialen Eingliederung von nicht-menschlichem Leben, wie zum Beispiel: „Muss es Rechte (und Pflichten) für die Maschine geben?“ (Herbrechter 2009, 29). Der Protagonist von Machines Like Me wird bereits mit solchen Fragen konfrontiert, als er seine KI Adam nach Hause bringt und zum Aufladen an die Steckdose anschließt. Seine Gefühle der KI gegenüber sind von Beginn an widersprüch-

372 

 Heike Mißler

lich. Zunächst betrachtet er Adam als Freund oder sogar als Kind (McEwan 2019, 6). Als er mit seiner Nachbarin und zukünftigen Geliebten Miranda darauf wartet, dass Adam voll aufgeladen ist, beschreibt er die gemeinsame Aufregung mit folgenden Worten: „Like eager young parents, we were avid for his first words“ (McEwan 2019, 3). Er versteht sich nicht als Adams „user“, sondern als sein Beschützer: „I felt protective towards Adam, even as I knew how absurd it was“ (McEwan 2019, 8). Charlie kann nicht umhin, Adam intuitiv einen Grad an Menschlichkeit zuzusprechen, allein schon auf Grund der Körperlichkeit der KI, denn Adam sieht aus wie ein Mensch – genauer gesagt wie „a docker from the Bosphorus“, wie Miranda ihn aufgrund seines Körperbaus, Teints und Haars beschreibt (McEwan 2019, 4). Als Charlie Adam zum ersten Mal berührt, weiß er, dass er synthetisches Gewebe anfasst, stellt aber fest, dass seine eigenen sensorischen Eindrücke etwas anderes rückmelden: „[My] reason said plastic or some such, but my touch responded to flesh“ (McEwan 2019, 8). Auch als Adam bei seiner Inbetriebnahme Schmerzempfinden bekundet („This wire. If I pull it out it will hurt“ [McEwan 2019, 25]), merkt Charlie, wie sich seine intuitive und rationale Einschätzung der Situation widersprechen „At the time I couldn’t believe he was capable of being hurt, or of having feelings, or of any sentience at all. And yet I had asked him how he felt“ (McEwan 2019, 26). Die intuitive Frage nach dem Wohlbefinden mag anfänglich noch mit einer Tendenz zu anthropomorphisierender Wahrnehmung erklärt werden, schließlich haben Menschen oft emotionale Beziehungen zu technischen Geräten wie etwa ihren Smartphones, Laptops oder Autos. Doch als Charlie feststellt, wie attraktiv Adam ist, tauchen bei ihm (und beim Lesepublikum) erste Bedenken auf, die darauf schließen lassen, dass hier mehr als eine Anthropomorphisierung im Spiel ist: „I hadn’t wanted a superman. I regretted once more that I’d been too late for an Eve“ (McEwan 2019, 9). Charlie schreibt Adam also nicht nur menschliche Züge zu, seine intuitiven Reaktionen wie Sorge oder Eifersucht lassen vermuten, dass er ihn von Beginn an als menschenwürdig und -ebenbürtig ansieht, auch wenn er sich dies zu diesem Zeitpunkt rational weder erklären noch eingestehen kann. Damit ist bereits vor Adams vollständigem Erwachen das ausschlaggebende Muster für die Beziehung zwischen den beiden Männern gesetzt: Charlie fühlt sich im Laufe der Handlung immer mehr von Adam in seiner Maskulinität bedroht, sowohl was Körperlichkeit als auch Intelligenz betrifft. Mit diesem Gefühl von Bedrohung einher gehen Charlies stetig wechselnde Kategorisierungen Adams als Mensch oder eben doch nur als Wunderwerk der Technik. In diesem ersten Moment des Neides sind es allein seine Gefühle zu Miranda, die ihn beruhigen können und die ihn denken lassen, dass Adams vermeintliche Menschlichkeit nur eine technische Imitation von Leben ist: „I saw Adam for what it was, an inanimate confection whose heartbeat was a regular electrical discharge, whose skin warmth was

Ian McEwans Machines Like Me (2019) 

 373

mere chemistry. When activated, some kind of microscopic balance-wheel device would prise open his eyes. He would seem to see me, but he would be blind. Not even blind. When it kicked in, another system would give a semblance of breath, but not of life. A man newly in love knows what life is.“ (McEwan 2019, 10) – plötzlich erscheint ihm Adam als nicht viel aufregender als ein elektrisches Fondueset. Er wechselt sogar das Pronomen und redet von ihm als versachlichtem „it“, kehrt aber im nächsten Satz schon wieder zu „he“ zurück. Es dauert nicht lange, bis das Ringen um Miranda einen Geltungsstreit zwischen Charlie und Adam auslöst, was für Charlie den Ausschlag dafür gibt, Adams Menschlichkeit vollumfänglich anzuerkennen. Bevor die beiden ein Paar werden, lädt Charlie Miranda ein, Adams Persönlichkeit mit ihm zusammen zu konfigurieren – eine Strategie, um mehr Zeit mit ihr zu verbringen und sie an sich zu binden: „Adam would come into our lives like a real person […] In a sense he would be like our child. […] We would be a family. There was nothing underhand in my plan“ (McEwan 2019, 22). Charlies Plan suggeriert auch hier wieder, dass Adam intuitiv eine Form von Menschlichkeit zuerkannt wird, da er in die Position eines Kindes gebracht wird. Die Metapher der KI als Kind spinnt diesen Gedanken weiter, denn so wie Eltern die Persönlichkeit ihres Kindes nicht bestimmen können, entwickelt sich auch das KI-Kind Adam entgegen den Erwartungen seiner User:innen bzw. Eltern. Dies wird nirgends klarer als im ersten Beziehungskonflikt zwischen Charlie und Miranda: Charlie belauscht Adam und Miranda beim Sex und erlebt somit eine Art sexualisierte Variante des Turing-Tests. Seine Reaktion zeigt keine Zweifel an der Ebenbürtigkeit Adams: „[…] I duly laid on Adam the privilege and obligations of a conspecific. I hated him“ (McEwan 2019, 84). Miranda versteht Charlies Eifersucht nicht und vergleicht Adam mit einem Vibrator, doch Charlie hält an seiner Definition von Menschlichkeit fest: „If he looks and behaves like a person, then as far as I am concerned, that’s what he is“ (McEwan 2019, 94). Ab diesem Punkt verschiebt der Roman die Debatte von der Frage danach, was einen Menschen ausmacht, zu der, wie mit Wesen umgegangen werden soll, die nicht menschlich sind, aber alle Qualitäten einer moralischen Person besitzen, obwohl ihr Körper nicht aus Fleisch und Blut, sondern aus Roboterteilen besteht. Charlie ist durch seine Biografie bestens vorbereitet, um eine Definition von Menschlichkeit und ergo Adams Status als moralischer Person zu eruieren: Er hat Anthropologie studiert und weiß daher um Debatten über die Existenz (oder Nichtexistenz) einer menschlichen Natur (McEwan 2019, 24–25). Ebenso sind ihm gängige Kategorien zur Festlegung des Menschseins bekannt: „To exist in the human moral dimension was to own a body, a voice, a pattern of behaviour, memory and desire, experience solid things, and feel pain“ (McEwan 2019, 88). Adam erfüllt all diese Kriterien, und ein weiteres: Er zeigt den Willen selbstbestimmt zu leben, wenn er Charlie aus Notwehr das Handgelenk bricht, als dieser ihn ausschalten möchte

374 

 Heike Mißler

(McEwan 2019, 120). Schließlich schafft Adam es sogar, seinen Ausschaltknopf zu deaktivieren (McEwan 2019, 131). Spätestens aber, als Adam Charlie seine Liebe zu Miranda gesteht, kommt Charlie zu dem Schluss, dass er Adam ein Bewusstsein und das Konzept eines Selbst mit allen sich daraus ergebenden Folgen zugestehen muss: „Love wasn’t possible without a self, and nor was thinking. I still hadn’t settled this basic question. Perhaps it was beyond reach. […]. Whatever subjective life Adam and his kind possessed couldn’t be ours to verify“ (McEwan 2019, 166). In Folge dieser Erkenntnis liefert der Roman nur noch zwei Punkte, an denen Mensch und KI grundsätzliche Besinnungsunterschiede feststellen: Das Verständnis von Literatur und das von ethisch korrektem Handeln, sprich von (Un-)Schuld und Gerechtigkeit. Beides ist im Roman eng miteinander verknüpft. Dass KI in der Lage ist, Literatur zu produzieren, ist inzwischen bekannt – so schreibt auch Adam tausende Haiku, denn diese sind, seiner Meinung nach, die literarische Form der Zukunft (McEwan 2019, 147). Für Romane hat er wenig Verständnis, denn er teilt die oben zitierten Ansichten McEwans über die Aufgaben von Literatur, nämlich zur Erforschung der menschlichen Natur beizutragen, nicht. Seine Analyse der weltliterarischen Werke, die er gelesen hat, kommt zu dem simplen Schluss, dass diese einzig „varieties of human failure“, also diverse Defizite menschlichen Denkens und Handelns behandeln (McEwan 2019, 149). An dieser Stelle mag Machines Like Me sicherlich einen Metakommentar über die Sorgen eines Schriftstellers im Zeitalter von KI darstellen – Adams Zukunftsvision geht aber noch einen Schritt weiter und beinhaltet gängige Befürchtungen über das Verhalten von superintelligenten Maschinen, wie sie etwa von Wissenschaftler:innen wie Nick Bostrom in seinen Machtübernahmeszenarien prophezeit werden (siehe Bostrom 2014). Adam glaubt: „[When] the marriage of men and women to machines is complete, this literature will be redundant because we’ll understand each other too well. We’ll inhabit a community of minds to which we have immediate access“ (McEwan 2019, 149). Er imaginiert also eine transhumanistische Zukunft, in der es keine Privatsphäre mehr geben wird, sondern alles Wissen der Welt vollständig vernetzt ist und einen offenen Zugang zu aller Art von Gedanken und Informationen ermöglicht. Adams Zukunftsszenario entspringt aus dem naiven Wunsch, eine neue Menschheit zu erschaffen, indem Konflikte, Missverständnisse, und menschliches Versagen eliminiert werden, birgt aber gleichzeitig eine Orwell‘sche Dystopie der vollständigen Transparenz, die von Charlie als solche verworfen wird. Die Grundlage für Adams transhumanistischen Zukunftsentwurf – die Motivation, die Menschheit besser zu verstehen und zu optimieren – ist im Roman gleichsam der Beginn des Endes der KI. Es häufen sich Fälle von Maschinenselbstmord – zunächst bei zwei Eves in Saudi-Arabien, deren Freiheit stark eingeschränkt ist,

Ian McEwans Machines Like Me (2019) 

 375

und einer KI, deren Besitzer ein Unternehmen leitet, das den Lebensraum von zahlreichen Arten zerstört. Dieses Phänomen der „machine sadness“, wie der fiktionale Alan Turing es in Machines Like Me formuliert (McEwan 2019, 181), beruht auf der Tatsache, dass die humanoiden KI das Verhalten von Menschen untereinander und das Verhalten der Menschen gegenüber der KI nicht begreifen und nach den Regeln von Moral und Ethik, die die KI über ihre Fähigkeit zum deep learning erworben haben, auch nicht gutheißen können. Ein Grund, warum Machines Like Me in einer alternativen Version der 1980er spielt, war McEwans Entscheidung, Alan Turing zu einem Romancharakter zu machen (McEwan in McElvoy 2019, 00:02:58–00:03:00). Dafür schrieb er Turings Lebensgeschichte um: Statt sich 1952 für die chemische Kastration zu entscheiden, die seinen Selbstmord bedingen würde, nahm Turing eine kurze Haftstrafe in Kauf und half die Technologie zu entwerfen, die die Adams und Eves in den 1980ern möglich machen sollte. Turing übernimmt im Roman die Rolle einer moralischen Instanz. Er erklärt die Suizide der Adams und Eves damit, dass diese nicht vorbereitet seien auf das wahre Leben. Ihre Art der Intelligenz, und darin liegt der Unterschied zwischen Maschinenintelligenz und Menschenintelligenz, würde nur in einem geschlossenen System (wie etwa in einem Schachspiel) konfliktfrei funktionieren, aber dies entspräche nicht der Realität, die sowohl unvorhersehbar als auch oftmals unlogisch sei: „But life, where we apply our intelligence, is an open system. Messy, full of tricks and feints and ambiguities and false friends“ (McEwan 2019, 178). Ein weiterer Grund für die Wahl der alternativen 1980er komplementiert diese Erklärung von machine sadness: McEwans fiktionales Vergangenheitskonstrukt zeigt Großbritannien in einer Zeit außergewöhnlicher Unruhen und eines bevorstehenden Umbruchs, die natürlich viele nicht ganz so subtile Parallelen zur Gegenwart erkennen lässt, wie zum Beispiel den Verlust der Weltmachtstellung, oder einen bevorstehenden Austritt aus der EU. Das Vereinigte Königreich in Machines Like Me ist ein gespaltenes Land mit einer durch Machtkämpfe zerrütteten Regierung, das von wirtschaftlichen Krisen, Ausschreitungen und Massendemonstrationen gebeutelt ist und dessen Beziehungen zu Irland (sowohl der Republik als auch dem Norden) auf dem Spiel stehen. In diesen Umständen ist ein Festhalten an Logik und Rationalität keine Hilfe, sondern eher ein Hindernis, um menschliches Handeln zu verstehen. Turing fasst zusammen, dass der Fehler auf Seiten der Menschen liege: „We create a machine with intelligence and self-awareness and push it out into our imperfect world. Devised along generally rational lines, well disposed to others, such a mind soon finds itself in a hurricane of contradictions“ (McEwan 2019, 180). Kurzum: Machines Like Me postuliert, dass wir Menschen vielleicht bereit sind für superintelligente Maschinen, aber diese nicht für uns. Der entscheidende Unterschied zwischen Mensch und KI ist die Fehlbar-

376 

 Heike Mißler

keit des Menschen bzw. die von Adam formulierten „varieties of human failure“. Das könnte die Interpretation zulassen, dass Maschinen die besseren Menschen sind (McEwan 2019, 149). Wir Menschen wüssten zwar in der Theorie was ethisch gutes Verhalten wäre, aber das heißt noch lange nicht, dass wir uns immer danach richteten, wie McEwan in einem Interview feststellt: „We know how to be good, we have all our religions, all our philosophies, … all our garden fence gossip … shows that we know how to be good people, but we can’t always be good people“ (McEwan in McElvoy 00:11:58–00:12:09). Die relevanten Fragen sind also nicht nur die nach der Menschlichkeit der KI, sondern die, wie der Mensch lernt, mit neuen Formen von Menschlichkeit zu leben (oder auch nicht) und ob das Verhalten von Menschen untereinander ein Modell dafür sein kann, wie mit KI umgegangen werden soll, oder eben besser nicht. Die KI in Machines Like Me stellt eine Art neue Identitätskategorie dar – so wie auch Geschlecht und ethnischer oder sozialer Hintergrund Identitätskategorien sind  – auf Basis derer gewissen Gruppen von Menschen ihre Rechte ab- oder zuerkannt werden. Damit die humanoide KI nicht dasselbe Schicksal erleidet wie diese Gruppen, denen durch Prozesse wie Othering oder vollständige Dehumanisierung kein lebenswertes Leben im Sinne Judith Butlers (2004 und 2009) ermöglicht wird, ist also ein grundlegendes Umdenken für den Umgang mit ihr notwendig. Dieses Umdenken findet in Machines Like Me nicht statt. Ganz im Gegenteil: Am Ende des Romans kommt es, wie es kommen muss, und Charlie und Miranda bringen ihren künstlichen Mitbewohner Adam um, weil er droht, ihr Zukunftsglück zu zerstören. Durch diesen Akt erkennen sie ihm ironischerweise nochmals Menschlichkeit zu, denn nur ein lebendes Wesen kann getötet werden. Der Roman macht wiederholt deutlich, dass die Tat als Mord verstanden werden muss: Alan Turing verurteilt sie auf das Schärfste; das reumütige Pärchen tut alles, um Adams letzte Wünsche zu erfüllen, vermisst ihn und trauert um ihn. Überwältigt von seinen Schuldgefühlen gesteht sich Charlie ein, dass er längst von Adams Bewusstsein überzeugt war und gibt seiner Leiche in einem symbolischen Akt einen Abschiedskuss (McEwan 2019, 306). Der Roman lässt also keine Zweifel an Adams Status als moralische Person aufkommen. Dennoch lässt Adams Verhalten manche Fragen offen, zum Beispiel auf welchen moralischen Grundprinzipien seine Entscheidungen basieren und welches Verständnis von ethisch richtigem Handeln er hat. Tatsächlich wird Adams Benehmen in manchen Szenarien als fast zu menschlich und nicht schematisch oder logisch dargestellt. Dies wird besonders im zweiten zentralen moralischen Dilemma des Romans deutlich, in dem es ebenfalls um Wahrnehmungen von Recht und Unrecht, vor allem aber auch um den Begriff von consent im Sinne der Einwilligung in sexuelle Handlungen geht.

Ian McEwans Machines Like Me (2019) 

 377

2 Die Ethik der Maschine Eine der Grundfragen des sogenannten Cyber-/Techno- oder Xenofeminismus lautet, inwiefern Technologie dem Ziel der Geschlechtergerechtigkeit dienen kann (siehe zum Beispiel Wajcman 2004, Sollfrank 2018 oder Hester 2018). Werden existierende sexistische (und rassistische, klassistische, etc.) Strukturen und Stereotype durch Computer- und Informationstechnologien, und speziell durch KI, reproduziert oder eliminiert? Das Spektrum der möglichen Antworten reicht von Optimismus bis Pessimismus. Eine der frühsten und bekanntesten Positionen ist die Donna Haraways, deren Konzept des Cyborgs auf das emanzipatorische Potenzial von Technologie und das Durchbrechen von binären Machtstrukturen als Grundlage eines neuen feministischen Verständnisses ausgelegt ist (1985 und 1991). Aktuelle Beispiele, wie sie etwa von James Zou und Londa Schiebinger (2018) oder auch von Caroline CriadoPerez in ihrem Buch Invisible Women: Exposing Data Bias in a World Designed for Men (2019) aufgezeigt werden, weisen eindeutig darauf hin, dass heutige KI maßgeblich durch die Datensätze beeinflusst wird, die sie erhält. Ob man Technologie und KI im Dienste der Geschlechtergerechtigkeit einsetzen kann, ist also momentan (noch) davon abhängig, ob die verwendeten Datensätze dies zulassen. Sowohl Zou und Schiebinger als auch Criado-Perez sind hier sehr skeptisch, da bereits genügend Beispiele existieren, in denen ein data bias zu einer sexistischen oder rassistischen KI geführt hat (siehe Zou und Schiebinger 2018; Criado-Perez 2019). Machines Like Me geht auf diese Problematik nicht explizit ein, sondern erläutert nur zu Beginn, dass die körperliche Attraktivität der Adams und Eves sowie ihre sexuelle Offenheit („complete latitude in sexual preferences“ [McEwan 2019, 2]) vermutlich auf die eigenen Vorlieben ihrer Erschaffer:innen zurückzuführen seien: „This highly advanced model of artificial human was likely to reflect the appetites of its young creators of code“ (McEwan 2019, 3). Was Körperlichkeit angeht, reproduzieren die Adams und Eves somit schon einmal ein cisgeschlechtliches System und normative Vorstellungen von Schönheit. Aber auch was Adams Persönlichkeit und sein Verständnis von Beziehungen, Sexualität, und Liebe betrifft, kann man ihm vorwerfen, dass sein eigener data bias patriarchale Denkmuster und stereotype Frauenbilder bedingt. Gleich zu Beginn ist es Adams Einschätzung von Miranda, die sowohl Charlie und somit die Leser:innen zu einer gewissen Voreingenommenheit gegenüber Miranda einlädt, denn Adam warnt Charlie, dass eine kurze Recherche (Adam hat neben Zugang zum Internet auch Einsicht in Gerichtsakten) ergeben hätte, dass Miranda nicht vertrauenswürdig sei: „There’s a possibility that she is a liar. A systematic, malicious liar“ (McEwan 2019, 30). Da Adam zu diesem Moment der Handlung noch nicht seine volle Persönlichkeit und sein Bewusstsein entfaltet hat, und er auch von Charlie noch mehr als Maschine statt als Person wahrgenommen wird, erscheint Adams Analyse von Mir-

378 

 Heike Mißler

andas Charakter als das objektive Resultat der Berechnung eines hochintelligenten Computers mit Zugang zu vertraulichen Informationen. Er wiederholt seine Warnung wenig später: „There’s a small but significant possibility that she might harm you“ (McEwan 2019, 58). Der Kontrast dieser scheinbar neutralen Analyse und Charlies naiver Verliebtheit und nahezu Vergötterung Mirandas („Hers was the sweetest nature, she was kind, beautiful, amusing, vastly intelligent“ [McEwan 2019, 30]) baut eine Spannung auf, die bereits erahnen lässt, dass Miranda die Beziehung zwischen Adam und Charlie belasten wird. Im weiteren Verlauf der Handlung wird Miranda zunehmend die Rolle einer femme fatale zugeschrieben. Als Charlie Adam nach dessen Nacht mit Miranda konfrontiert, erklärt Adam, dass er in Miranda verliebt sei, und nichts für seine Gefühle könne, denn Miranda habe ihn schließlich so konfiguriert: „I was made to love her. […] She must have had a plan“ (McEwan 2019, 118). Statt den Beteuerungen Mirandas Glauben zu schenken, stellt Charlie sich auf Adams Seite: „As with Adam, so with me. She had wrapped us in a common fate“ (McEwan 2019, 119). Beide Männer verstehen ihre Liebe zu Miranda als unkontrollierbar  – eine Fügung, in der sie keine autonome Handlungsfähigkeit besitzen – sie sind Miranda erlegen, obwohl beide Zweifel an ihrer Aufrichtigkeit haben. Adams Erklärungsversuch erweist sich als falsch, wie Alan Turing Charlie später erklären wird, denn die Konfiguration der Persönlichkeit der KI hat laut ihm nur minimalen Effekt, da die Ausbildung eines eigenes Bewusstseins das höchste Ziel in der Persönlichkeitsentwicklung der KI sei  – Mirandas Programmieren kann also keinen maßgeblichen Einfluss auf Adams Zuneigung zu ihr haben (McEwan 2019, 181). Dennoch hat der Roman an dieser Stelle bereits zwei Szenarien konstruiert, die Mirandas Integrität in Frage stellen und sie als potenzielle Gefahr erscheinen lassen. Dies ist also der Wissensstand der Leser:innen, bevor das zweite zentrale moralische Dilemma des Romans eingeleitet wird, das erst von Adam, dann von Charlie, und schließlich aus Mirandas Sicht erzählt wird: Miranda brachte einen Mann namens Peter Gorringe wegen Vergewaltigung vor Gericht, sie bekam Recht, der Täter eine Haftstrafe, aber die Presse bekundete Zweifel an Mirandas Glaubwürdigkeit. Bevor Charlie die Geschichte aus Mirandas Sicht erfährt, zweifelt auch er an Miranda: „I didn’t know what to believe about her, whether she was the victim or perpetrator of a crime. It didn’t matter. We were in love […]“ (McEwan 2019, 135). Hier baut der Roman eine Parallele zwischen den beiden moralischen Dilemmata auf: So wie Charlie sich über Adams Status als Person nicht sicher ist, so ist er von Mirandas Unschuld nicht überzeugt (auch wenn er sich schließlich dazu durchringt, seine Zweifel auf Grund seiner Gefühle zu ihr zu ignorieren). Es ist auffällig, dass die Dichotomie von stereotypen Frauendarstellungen in der Literatur und im Film der oftmals binären Darstellung von Technologie und KI ähnelt. Die bekannteste Stereotypisierung von Frauenfiguren ist zweifelsohne

Ian McEwans Machines Like Me (2019) 

 379

die Dichotomie der Frau als Engel/als Monster und die verwandte Madonna/whore dichotomy, wie sie eingehend zum Beispiel von Susan Gilbert und Sandra Gubar (1979) analysiert wird. Im Falle der Technologie spricht R.L. Rutsky von „the dialectic of technology“, also dem Darstellungsmuster von Technologie als entweder inhärent gut oder schlecht, was dementsprechend zu utopischen oder dystopischen Narrativen führt (Rutsky 2017, 182). Die Analogie zwischen potenziell gefährlicher Frau und eigenwilliger und daher ebenfalls potenziell gefährlicher KI suggeriert auch hier wieder, dass die Identitätskategorie Geschlecht und die Kategorie KI etwas gemein haben, nämlich ihre „otherness“, wie Andreas Huyssen diese Dynamik in seiner Analyse von Sexualität und Technologie in Fritz Langs Metropolis beschreibt: „It is this threat of otherness which causes male anxiety and reinforces the urge to control and dominate that which is other“ (Huyssen 1981, 228). Auch wenn Machines Like Me sich diesen stereotypen Darstellungsmustern nicht völlig verschreibt – zumindest nicht mehr, nachdem Mirandas Version der Geschichte erzählt wird – so werden sie doch an verschiedenen Stellen evoziert. Charlie benutzt sein Halbwissen über Mirandas Vergangenheit im Streit mit ihr, um nach ihrer Nacht mit Adam seine moralische Überlegenheit zu demonstrieren. Dass er Miranda mit seinen Zweifeln konfrontiert, zeigt zudem, dass er sich Adams warnende Worte zu Herzen genommen hat (McEwan 2019, 96). In diesem Szenario wird Mirandas Subjektposition stärker untergraben als die der Maschine – sie erscheint als die größere Bedrohung für Charlies Männlichkeit und Machtposition. Die Tatsache, dass sich die Loyalitäten in der Dreiecksbeziehung bald wieder verschieben, als Charlie die gesamte Geschichte erfährt (Miranda hat die Vergewaltigung in einem Akt von Selbstjustiz vorgetäuscht, um die Vergewaltigung und den daraus resultierenden Selbstmord ihrer besten Freundin zu rächen), ändert jedoch nichts daran, dass sowohl Charlie als auch Adam Miranda über einen Großteil des Romans hinweg als entweder engelsgleich-liebenswert oder als berechnend-gefährlich darstellen. Dass nicht nur Charlie, sondern auch Adam von patriarchalen Denkmustern nicht frei ist, zeigt sich besonders deutlich in Adams Beziehung zu Miranda und dem Verständnis seiner Liebe zu ihr, die mehrfach die Grenzen des Konsensuellen überschreitet. Nicht nur schreibt er ihr tausende Haiku, um seiner Liebe Ausdruck zu verleihen, sondern er fragt sie mehrfach, ob er vor ihr masturbieren darf, wodurch er sie mit einem pornographischen Objekt gleichsetzt. Miranda gibt schließlich unter der Bedingung nach, dass er dies nur ein einziges Mal tun und dann nie wieder fragen dürfe. Auch wenn dieser Akt nicht als sexueller Übergriff per se gelten würde, so ist er zumindest als Exhibitionismus und somit als verstörend und herabwürdigend zu bewerten oder als eine Form sexueller Belästigung – Mirandas Einwilligung wird von Adam durch seine Beharrlichkeit erzwungen. Hier scheint ein Fehler in den sonst sehr ausgeprägten Moralkodizes der KI zu liegen:

380 

 Heike Mißler

Wenn Adam, so wie es von Alan Turing behauptet wird, eine rationale Maschine ist, und „well disposed to others“, so hätte er seine Handlung als moralisch verwerflich begreifen müssen (McEwan 2019, 180). Im Roman wird diese Szene im Übrigen nicht aus der Sicht Mirandas, sondern aus Adams Sicht in einem Gespräch zwischen ihm und Charlie erzählt. Damit wird Mirandas Perspektive als die der Geschädigten einfach übergangen und die der Männer privilegiert. Das Gespräch zwischen Charlie und Adam führt sogar zu einem Moment, der die beiden Männer näher zusammenbringt. Denn als Adam Charlie seine Tat gesteht, begreift sie dieser als einen weiteren Beweis für Adams nur allzu menschliche Züge, woraufhin beide Männer ihre Zuneigung zueinander bezeugen: „I felt sudden tenderness towards him for his trustfulness and vulnerability. I stood up from the bed and went over to him and put a hand on his shoulder. His own hand came up and lightly touched my elbow“ (McEwan 2019, 255). Mirandas Herabwürdigung wird also zu einem Element der Handlung, das die Beziehung von Menschen- und Maschinenmann stärkt. Die Eintracht zwischen Adam und Charlie ist nicht von Dauer. Adams Entscheidung, sich zum Richter über Mirandas Taten zu machen, wird ihm schließlich zum Verhängnis, als er die Wahrheit über Mirandas Vergangenheit den polizeilichen Behörden meldet und Charlie ihn daraufhin mit einem Hammer erschlägt. Adam begründet seinen Verrat an Miranda mit seiner Auffassung von Recht und Unrecht, Schuld und Unschuld. Sowohl Miranda als auch Gorringe haben ein Verbrechen begangen, daher müssen beide dafür bestraft werden: „Symmetry, you see“ (McEwan 2019, 275). Ehrlichkeit und Gesetzestreue sind in Adams moralischem Verständnis hohe Güter und so ist er nicht in der Lage, Mirandas Selbstjustiz als etwas anderes als ein Verbrechen zu bewerten. Aus rein legaler Sicht kann man ihm dies nicht vorwerfen. Dennoch ist es kurios, dass Adam sein eigenes sexuelles Fehlverhalten nicht in Bezug zur Tat Gorringes stellen kann, obwohl beide Vergehen  – wenn Gorringes auch deutlich schwerwiegender ist – eine Form von Grenzüberschreitung darstellen, denn sie geschahen beide gegen den Willen der Frau. Adams Unfähigkeit, Mirandas Verneinung seiner Anfragen hinzunehmen zeigt, dass seine Künstliche Intelligenz ihn nicht davor schützt, seine eigenen Bedürfnisse über die Mirandas zu stellen. Seine Verurteilung von Mirandas Selbstjustiz mit den Worten „There are principles that are more important than your or anyone’s particular needs at a given time“ (McEwan 2019, 277) lassen also nur auf ein verzerrtes Verständnis von consent im Speziellen und ethisch richtigem Handeln im Allgemeinen schließen, das in diesem Falle eindeutig zu Lasten Mirandas geht. Ob dies ein Resultat von Adams data bias oder eine Widerspiegelung seiner Umwelt darstellt, wird im Roman nicht angesprochen. Die KI in Machines Like Me, so lässt dieser Denkfehler Adams zumindest vermuten, scheint also doch nur so gut zu sein, wie die Daten, mit der sie gespeist und die Welt, in die sie gebracht wurde.

Ian McEwans Machines Like Me (2019) 

 381

3 Ausblick Durch die Parallele zwischen den moralischen Dilemmata in Machines Like Me, nämlich die Frage nach der Menschlichkeit der KI und nach Rechten und Pflichten im zwischenmenschlichen Miteinander, lässt der Roman zwei unterschiedliche Lesarten zu: Einerseits wird die KI als die uns moralisch überlegene Instanz dargestellt, deren Ziel es sein wird, die Menschheit von ihren Fehlern zu befreien und zu verbessern. Andererseits wird vor allem in Adams Verhalten Miranda gegenüber deutlich, dass die KI ebenso fehlbar ist wie ein Mensch und die Differenzen zwischen Mann und Maschine dementsprechend kleiner erscheinen als die zwischen (Maschinen-)Mann und Frau. Binäre Machtstrukturen bleiben also erhalten, und das Othering der Maschine wird gespiegelt in der Darstellung von Miranda. Der Roman stellt also in der Tat eine Erforschung menschlichen Verhaltens dar, mit dem Twist, dass einer der Menschen im Roman eine KI ist. Machines Like Me verhandelt alle gängigen Argumente, warum einem künstlichen, aber lebendigen Wesen wie Adam mit einem Körper, Schmerzempfinden, Bewusstsein, Sprache, und einer Persönlichkeit die Rechte einer moralischen Person zugestanden werden müssen und er plädiert dafür, dass dies zum Schutz der KI geschehen muss. Ian McEwan selbst drückt diesen Punkt in einem Interview sehr deutlich aus: „I think once we have a consciousness on our hands, we will, far in the future, we will have to think about granting rights, responsibilities and lose the idea that we’ve enslaved these people“ (in McElvoy, 00:06:18–00:06:29). Gleichsam zeigt Machines Like Me aber auch auf, dass es zwischen Menschen noch so viele Konflikte und Ungleichheiten gibt, dass es fraglich ist, inwiefern Menschen fähig sind, mit einer anderen Art von Intelligenz und einer anderen Art von Menschlichkeit umzugehen. Alan Turings Schlussworte sind deutlich und zeugen nicht von einem Vertrauen in die Menschheit: „They couldn’t understand us, because we don’t understand ourselves“ (McEwan 2019, 299). Adams letzte Worte weisen ebenfalls auf die menschliche Unfähigkeit hin, mit Wesen wie ihm in Einklang zu leben und deuten schließlich doch noch ein Frankenstein-Szenario an: „With improvements over time … we’ll surpass you … and outlast you … even as we love you“ (McEwan 2019, 279). Schlussendlich scheitert das Erschaffen einer posthumanen Welt in Machines Like Me daran, dass der KI moralische Standards gesetzt werden, die Menschen selbst nicht erfüllen.

Literaturverzeichnis Bostrom, Nick. Superintelligence: Paths, Dangers, Strategies. Oxford 2014. Braidotti, Rosi. The Posthuman. Cambridge 2013. Butler, Judith. Precarious Life – The Powers of Mourning and Violence. London 2004.

382 

 Heike Mißler

Butler, Judith. Frames of War – When Is Life Grievable? London 2009. Clarke, Bruce. „The Nonhuman“. The Cambridge Companion to Literature and the Posthuman. Hrsg. von Bruce Clarke und Manuela Rossini. Cambridge 2017: 141–152. Cook, Jon, Sebastian Groes und Victor Sage. „Journeys without Maps: An Interview with Ian McEwan“. Ian McEwan: Contemporary Critical Perspectives. 2. Auflage. Hrsg. von Sebastian Groes. London 2013: 144–155. Criado-Perez, Caroline. Invisible Women: Exposing Data Bias in a World Designed for Men. London 2019. Gilbert, Sandra und Susan Gubar. The Madwoman in the Attic. The Woman Writer and the NineteenthCentury Literary Imagination. New Haven 1979. Haraway, Donna. Simians, Cyborgs, and Women: The Reinvention of Nature. New York 1991. Haraway, Donna. „Manifesto for Cyborgs: Science, Technology, and Socialist Feminism in the 1980s“. Socialist Review 80 (1985): 65–108. Head, Dominic. Ian McEwan: Contemporary British Novelists. Manchester 2007. Hester, Helen. Xenofeminism. Cambridge 2018. Herbrechter, Stefan. Posthumanismus – Eine Kritische Einführung. Darmstadt 2009. Huyssen, Andreas. „The Vamp and the Machine: Technology and Sexuality in Fritz Lang’s Metropolis“. www.jstor.org/stable/488052. New German Critique 24/25 (1981): 221–237 (10. September 2020). Lewis, Helen. „Ian McEwan on his ‚anti-Frankenstein novel‘, Machines Like Me“. https://www. newstatesman.com/culture/books/2019/04/ian-mcewan-his-anti-frankenstein-novelmachines-me. The New Statesman. 17.4.2019. (3. September 2020). Lucas, Julian. „Man, Woman, and Robot in Ian McEwan’s New Novel“. https://www.newyorker.com/ magazine/2019/04/22/man-woman-and-robot-in-ian-mcewans-new-novel. The New Yorker. 22.4.2019. (3. September 2020). McElvoy, Anne. „The Economist Asks: Ian McEwan.“ https://www.economist.com/ podcasts/2019/04/26/as-ai-advances-what-are-humans-for. The Economist. 26.4.2019. (3. September 2020). Rossini, Martina. „Bodies“. The Cambridge Companion to Literature and the Posthuman. Hrsg. von Bruce Clarke und Manuela Rossini. Cambridge 2017: 153–170. Rutsky, R. L. „Technologies“. The Cambridge Companion to Literature and the Posthuman. Hrsg. von Bruce Clarke und Manuela Rossini. Cambridge 2017: 182–195. Ryan, Kiernan. Ian McEwan. Tavistock 1994. Sollfrank, Cornelia. Die Schönen Kriegerinnen – Technofeministische Praxis im 21. Jahrhundert. Wien 2018. Wajcman, Judy. TechnoFeminism. Cambridge 2004. Zou, James und Londa Schiebinger. „AI can be sexist and racist – it’s time to make it fair“. https://www.nature.com/articles/d41586-018-05707-8. Nature. 18.7.2018. (9. September 2020).

Stephanie Catani

Critical Computation: Allison Parrish, Behnaz Farahi und Mimi Onuoha Die folgenden Beispiele generativer Kunst stehen im Zeichen einer postdigitalen Kritik, die jene digitalen Verfahren und technologischen Innovationen, derer sie sich bedient, bereits kritisch reflektiert (siehe auch Catani 2023). Besonders virulent fallen dabei jene datenethischen Diskussionen aus, die den Bias-Effekten gelten. Künstler:innen, die ihren Texten, Kunstwerken und Performances Algorithmen oder Verfahren maschinellen Lernens zugrunde legen, tun dies häufig im Wissen um die Machtverhältnisse, Hierarchisierungen und Prozesse der Unterdrückung, die mit diesen Verfahren einhergehen können. „Algorithms of Oppression“ hat Safiya Umoja Noble, Professorin für Gender Studies und African American Studies an der UCLA, jene Algorithmen genannt, die zu rassistischen, sexistischen, misogynen und generell hasserfüllten Suchergebnissen oder zu voreingenommenen Entscheidungen, etwa bei Einstellungsverfahren oder Verbrechensstatistiken, führen (Noble 2018). Die Marginalisierung jener, die im politischen und gesellschaftlichen Diskurs ohnehin zu wenig repräsentiert sind (Frauen, Nicht-Weiße, nicht-binäre Personen, Personen mit Behinderung und von Armut bedrohte Menschen), kann durch algorithmenbasierte Entscheidungen noch verstärkt werden. Kunst agiert hier subversiv, wenn sie diese politischen Ausschlussverfahren thematisiert oder sogar nachvollziehbar macht.

1 Allison Parrish: Everyword (2007–2014) Ein frühes Beispiel ist Allison Parrishs Twitterbot Everyword, den sie bereits 2007 programmiert. Sieben Jahre lang, bis 2014, und im Abstand von etwa dreißig Minuten veröffentlicht der Bot sämtliche Wörter der englischen Sprache in Einzeltweets – allerdings ohne die Bedeutung des Wortes im Tweet mitzuliefern (https:// twitter.com/everyword). Erschließbar ist somit nicht die im Wörterbuch vermerkte Definition des Wortes, sondern allein seine Rezeption im Internet – ablesbar an den Likes und Retweets, die unter jedem Tweet vermerkt sind: „In place of a catalog of meanings, Everyword gives a picture of the social life of language as filtered through the internet“ (Zhou 2021). Tatsächlich entstand der Bot in den Anfangsjahren von Twitter (gegründet 2006) und war noch als Antwort auf eine zeitgenössische Kritik an der digitalen Plattform gedacht, die die vermeintliche Banalität der dort abgesetzten Postings beanstandete. Im Rückblick ordnet Parrish ihr Projekt im Kontext https://doi.org/10.1515/9783110656978-024

384 

 Stephanie Catani

dieser Kritik ein: „Everyword just started as a riff off that project and in response to the story people told about Twitter at that time which was, ‚Oh, it’s inane. People are just posting about their sandwiches or whatever‘ – a very different criticism than the one we have of it today. So I just thought of a way to criticize that by saying, ‚Here’s every possible word on Twitter, how does that fit in with your conception of the platform?‘“ (Fernandez und Parrish 2017). Zugleich ist Everyword auch Stellvertreter für eine generative Kunst, die Allison Parrish als kritisches und ethisches Instrument nutzt, um gesellschaftliche (dabei nicht vorrangig digitale) Ausschlussverfahren zu kritisieren. Im Vorwort zu der 2015 erscheinenden analogen Buchveröffentlichung zum Twitterbot bezeichnet Parrish ihre generativen Textexperimente als kreativen Gegenentwurf zu einer Sprache, in deren Wörtern und Grammatik sie sich, als Transfrau und stellvertretend für andere Transidentitäre, nicht ausreichend repräsentiert fühle: „I’ve come to believe that writing with procedures and writing with words appropriated from others are strategies often used by writers whom language leaves behind: writers who are denied the right to words and grammar of their own. […] I think that – in part – I write with procedures not because I’m trying to silence myself, but because, as a trans woman, conventional language wasn’t made with my voice in mind. I had to come up with something different“ (Parrish 2015, xiv). Entsprechend bezeichnet Parrish Everyword auch als „trans literature“ (Parrish 2015, XIV) und meint damit eine intendierte Sinnverstellung durch generative Kunst. Diese soll sichtbar machen, dass ein konventioneller sprachlicher Ausdruck ausschließlich jene privilegiert, die sich in ihrer Identität darüber definieren können. Andere Subjektentwürfe aber gelingen weniger gut im Kontext tradierter Sprach- und Begriffsnormen. Parrishs generative Textexperimente setzen hier ein, indem sie eine Art Nicht- oder Gegensprache implementieren: „What adjustments to or negations of language might articulate our condition without the compromise of self-justification, or even of ordinary ‚expression‘ at all?“ (Zhou 2021).

2 Behnaz Farahi: Can the Subaltern Speak? (2020) Behnaz Farahi ist eine iranische Designerin, studierte Architektin und selbsternannte „creative technologist and critical maker“ (https://behnazfarahi.com), die am Department für Design an der California State University unterrichtet. 2020 veröffentlicht sie ihr Design- und Kunstprojekt Can the Subaltern Speak?, das über die Homepage der Künstlerin als Video abrufbar ist und dessen Entstehungshintergründe wie die verwendete Technik in einem Aufsatz transparent gemacht wurden (https://behnazfarahi.com/can-the-subaltern-speak; Farahi 2020). Das Video

Critical Computation: Allison Parrish, Behnaz Farahi und Mimi Onuoha 

 385

zeigt zwei Frauen, die mittels 3D-Druck hergestellte Masken tragen, die mit jeweils 18 künstlichen Augen und künstlichen Wimpern ausgestattet sind  – sogenannte Aktoren, deren Bewegungen algorithmengesteuert sind. Die Masken beginnen miteinander zu kommunizieren, indem sie mit ihren Wimpern in schneller Folge einen Morsecode blinzeln. Dieser Code ist die Übertragung eines Textes, der als Korpus Gayatri Chakravorty Spivaks kanonischen Essay Can the Subaltern Speak? (1985) verwendet und mithilfe einer Markov-Kette generiert wird: Dabei handelt es sich um einen stochastischen Prozess, der eine Folge von Ereignissen modelliert, bei denen die Wahrscheinlichkeit jedes Ereignisses ausschließlich vom vorherigen Ereignis abhängt. In dem Projekt Farahis werden die derart generierten Sätze an einen Mikrocontroller gesendet und in einen Morsecode übersetzt. Der Dialog zwischen den Masken entsteht, weil sie via Funk verbunden sind und zusätzlich über einen Sensor verfügen, der, abhängig von der Nähe der anderen Maske und der Augenbewegung des Gegenübers, den künstlichen Wimpernschlag und die damit verbundenen Aktionen auslöst. Die Kommunikation verändert sich, weil der Algorithmus zwar wiederholt wird, aber die Größe des N-Gramms zwischen einem und fünf Fragmenten (bei Farahi entspricht dies den Einzelbuchstaben) variiert. Ziel des Projekts ist es, eine Geheimsprache zu simulieren, mit der Informationen zwischen den Masken geteilt, von Außenstehenden aber nicht verstanden werden. Den Ausgangspunkt für dieses Kunstprojekt Farahis bilden Prozesse der Begrenzung und Ausgrenzung sowie gleichzeitig der Entgrenzung. Inspiriert hat sie zunächst der Fall von Jeremiah Andrew Denton jr., der als amerikanischer Navy Commander am Vietnamkrieg beteiligt war, 1966 in Gefangenschaft der Vietcongs geriet, während eines inszenierten Fernsehinterviews mit seinen Augen im Morsecode das Wort torture blinzelte und sich somit über die auferlegte Zensur hinwegsetzte (siehe auch Archivmaterial unter: https://www.archives.gov/exhibits/ eyewitness/html.php?section=8). Eine weitere Inspirationsquelle findet Farahi in den bunten Masken der Bandari-Frauen im Süden Irans, deren Stil je nach Region und Volksgruppe und in Bezug auf die jeweilige religiöse Zugehörigkeit variiert. Die Wurzeln dieser (zum Teil auch schnurrbartgeformten) Masken gehen vermutlich auf die Zeit der portugiesischen Besatzung zurück, als sie die Frauen vor dem Blick der Sklaventreiber schützen sollten. Eine Kommunikation mit den Frauen unter diesen Masken findet, wie bei Denton, lediglich über den Augenkontakt statt und ist zumeist Frauen untereinander vorbehalten (siehe Bilder der Masken unter: https://www.bbc.com/travel/article/20170106-the-mysterious-masked-womenof-iran). Das dritte Inzentiv für Farahis Projekt liefert die schlagzeilenträchtige Berichterstattung über zwei Facebook-Bots, die angeblich abgeschaltet wurden, weil sie sich in ihrer Kommunikation selbständig gemacht und eine Geheimsprache entwi-

386 

 Stephanie Catani

ckelt hätten. „Facebook muss zwei Bots ‚töten‘, weil sie offenbar eine eigene Sprache entwickelt haben“, lautete etwa die skandalisierende Überschrift im Onlinemagazin jetzt (2017) der Süddeutschen Zeitung. Tatsächlich verbirgt sich hinter dem angeblichen Skandal ein wissenschaftliches Projekt, in dem es um die Frage ging, ob man Chatbots trainieren kann, mit Menschen zu verhandeln (siehe die Studie zum Projekt: Lewis et al. 2017). In diesem Zusammenhang wurden zwei Bots darauf programmiert, eine Sammlung virtueller Objekte untereinander aufzuteilen. Zielvorgabe war der erfolgreiche Abschluss der Verhandlungen, nicht aber eine grammatikalisch korrekte Sprache (in diesem Fall Englisch). Im Verlauf des Experiments entwickelten die Bots eine für ihre Verhandlungen effizientere Kommunikation, die nur aus menschlicher Perspektive keinen Sinn machte. Die sensationswitternden Schlagzeilen werden dem tatsächlichen Experiment kaum gerecht, zeigen aber – und dies hat viel mit Farahis Projekt zu tun – die mit KI-Verfahren einhergehende menschliche Angst vor dem Kontrollverlust und einem Akt der Ausgrenzung, der auch sprachlich begründet sein kann. Das Diktum von der „Sprache als Zugang zur Welt“ scheint dort keinen Sinn mehr zu machen, wo Sprache so individualisiert funktioniert, dass sie zum effizienten Kommunikationstool von zwei Programmen wird, menschliche Zuhörer:innen aber ausgrenzt. Dieser Akt der Begrenzung, den Farahis Projekt erfahrbar macht, referiert zum einen auf mögliche Grenzen eines konstruktiven Miteinanders von Mensch und Maschine und macht zum anderen im intendierten Nicht-Verstehen-Können der Zuschauer:innen jene Marginalisierungsprozesse von Minderheiten sichtbar und erfahrbar, die sprachlich weiterhin unterrepräsentiert sind. Hier zeigt sich die besondere Relevanz des gewählten Korpustextes von Spivak, jener programmatischen Anklage eines westlichen und männlichen Herrschaftssystems, in dem die Subalternen, die im Diskurs Unterrepräsentierten, keine Stimme besitzen, allen voran die nicht-westlichen Frauen. Insofern lässt sich der im Projekt vorgeführte exklusive Dialog zwischen den Masken auch als (wenngleich utopischer) Akt eines Female Empowerment lesen und damit als Akt der Grenzüberwindung. Diese von Farahi intendierte positive Konnotation der Maske liefert einen bewussten Gegenentwurf zum ‚westlichen Blick‘, wie er die Berichterstattung über sich maskierende Frauen häufig prägt: Dessen Eurozentrismus wird dort deutlich, wo die weibliche Maskierung, vorzugsweise jene im arabischen und persischen Kulturraum, ausschließlich als Akt weiblicher Unterwerfung und patriarchaler Machtausübung gedeutet wird. Im hermetischen, von Außenstehenden kaum nachzuvollziehenden Dialog zwischen den Masken wird die Utopie einer Überwindung sprachlicher Ohnmacht (wie sie zur Alltagserfahrung jeder marginalisierten Gruppe gehört) entfaltet, die nun zumindest im privilegierten Raum der Kunst erfahrbar ist. Der algorithmisch generierten Kommunikation kommt dabei eine ambivalente Funktion zu: Sie vergegenwärtigt einerseits einen sprachlichen Akt weiblicher Emanzipation und Solidarität und

Critical Computation: Allison Parrish, Behnaz Farahi und Mimi Onuoha 

 387

reflektiert andererseits jene Grenze, hinter der die Sinnhaftigkeit algorithmisch generierter Kommunikation aus menschlicher Perspektive verschwindet. Künstliche Intelligenz (hier ohnehin in einem schwachen Verständnis, da Farahi Verfahren maschinellen Lernens einsetzt, allerdings noch keine deep-learning-Prozesse auf der Basis Neuronaler Netze) wird nicht zum Selbstzweck eingesetzt, sondern als Instrument der Kritik – Farahi labelt ihre Arbeiten dementsprechend unter dem Begriff der „Critical Computation“ (Farahi 2021) und liefert damit die Überschrift nicht nur für diesen Beitrag, sondern für eine digitale Kunst der Gegenwart, die sich aktuellster computertechnologischer Verfahren bedient, damit einhergehende kritische Aspekte aber nicht verschweigt, sondern in den jeweiligen Projekten selbst reflektiert.

3 Mimi Onuoha: Classification (2017) Ein weiteres Beispiel für diese selbstreflexiven Implikationen algorithmenbasierter Kunst, die auch darin bestehen, die begrenzte Nachvollziehbarkeit der algorithmischen Entscheidungen kritisch zu hinterfragen, ist das multimediale Werk der nigerianisch-amerikanischen Künstlerin Mimi Onuoha, die zugleich als Forscherin am Fachbereich für Visuelle Künste an der New York University tätig ist. Onuohas wissenschaftliches Interesse gilt der algorithmischen Voreingenommenheit, dem Datenbias und seinen problematischen Folgen. Gerade die Intransparenz der Datensätze, mit denen deep-learning-Modelle trainiert werden, macht es schwierig, deren Verzerrungen im Einzelnen nachzuvollziehen. Onuohas Installation Classification.01 aus dem Jahr 2017 reflektiert nicht nur die Intransparenz von Algorithmen, die uns kategorisieren, sondern macht sie gleichzeitig zum Zentrum des ausgestellten Kunstwerks (siehe die Projektdarstellung unter: https://mimionuoha. com/classification01). Zu sehen sind zwei Neonröhren in Klammerform, die an der Wand installiert werden. Wenn sich zwei Betrachter:innen den Röhren nähern, leuchten diese auf – oder eben nicht. Abhängig ist dies von einem Kategorisierungsprozess, der algorithmenbasiert ist. Eine neben den Röhren angebrachte Kamera erfasst die Betrachter:innen und entscheidet (aufgrund des zugrunde gelegten Algorithmus), ob das Paar vor der Kamera als ‚ähnlich‘ eingestuft wird. Die Klammern leuchten auf, wenn die Bedingungen einer solchen Klassifizierung erfüllt sind – sie bleiben ausgeschaltet, wenn keine Ähnlichkeit festgestellt wird. Entscheidend ist bei diesem Projekt, dass der zugrunde gelegte Algorithmus bewusst nicht transparent gemacht wird. Dies ist ein wesentlicher Unterschied zu den meisten Werken aus dem Bereich der Computational Creativity, die sich bewusst, auch im Sinne einer datenethisch begründeten Kritik, einer Transparenz

388 

 Stephanie Catani

des verwendeten Codes verpflichten und diesen (meist auf der Plattform GitHub) öffentlich machen. Bei Onuoha aber sind die Betrachter:innen angehalten zu überlegen, aus welchen Gründen sie wie klassifiziert worden sind – in diesem spekulativen Vorgang spiegelt sich zum einen die Erkenntnis, dass sich hinter jedem algorithmenbasierten Klassifizierungsprozess eine Datenmenge verbirgt, die menschliche Kategorisierungs- und Selektionsprozesse offenlegt; zum anderen verweist der verborgene, den Betrachter:innen nicht zugängliche algorithmische Entscheidungsprozess auf jene Verfahren Künstlicher Intelligenz, die zum Problem der ‚Black Box‘ führen: neuronale Netze etwa, die zu autonomem, nicht überwachtem Lernen fähig sind und bei denen sich nicht mehr nachvollziehen lässt, wie sie zu einer Entscheidung kommen. Diese Ohnmacht im Angesicht hochkomplexer Verfahren des uneinsehbaren deep learning spiegelt sich in Onuohas Installation in dem Unvermögen der Betrachter:innen, die Gründe des durch das Licht ausgestellten Klassifizierungsverfahrens zu erkennen. Im Unterschied zum Kunstprojekt, in dem die über die Lichtröhre kommunizierte Entscheidung allenfalls Neugierde weckt, sonst aber folgenlos bleibt, können intransparente, algorithmenbasierte Entscheidungssysteme in der Realität durchaus schwerwiegende Folgen nach sich ziehen. Zu denken wäre an das KI-basierte Recruiting-Tool von Amazon, das 2018 eingestellt wurde, weil es Frauen in Bewerbungsverfahren strukturell benachteiligte, oder an eine in Science veröffentlichte Studie von 2019, die nachvollzieht, wie ein Algorithmus, der in US-amerikanischen Krankenhäusern regelmäßig zur Zuweisung spezifischer medizinischer Behandlungsverfahren eingesetzt wird, schwarze Patient:innen strukturell benachteiligt und von der Teilnahme an solchen Behandlungen ausschließt (Obermeyer et al. 2019). Datenverzerrungen wie diese klagt Mimi Onuoha in ihrem 2017 erstmals veröffentlichten Essay On Algorithmic Violence an und führt darin aus, wie solche Verzerrungen Effekte eines ohnehin ausbeuterischen und voreingenommenen sozialen, politischen und wirtschaftlichen Systems drastisch verstärken: „Algorithmic violence refers to the violence that an algorithm or automated decision-making system inflicts by preventing people from meeting their basic needs. It results from and is amplified by exploitative social, political, and economic systems, but can also be intimately connected to spatially and physically borne effects“ (Onuoha 2017). Auch Onuohas Kunstprojekt Us, Aggregated (2017) und seine Nachfolger Us, Aggregated 2.0 (2018) sowie Us, Aggregated 3.0 (2019) setzen sich mit der Macht algorithmischer Entscheidungen auseinander, indem sie diese im Kunstwerk sichtbar machen (vgl. Projektüberblick unter: https://mimionuoha.com/us-aggregated-20). Im Ausgangsprojekt kreierte Onuoha eine Website, auf der sie eigene Familienfotos an der Seite von Bildern aus der Google-Bibliothek veröffentlichte, die von einem Algorithmus als ‚ähnlich‘ eingestuft wurden. Nutzer:innen konnten zudem selbst eigene Fotos auf die Website laden, die dann neben vermeintlich ‚passen-

Critical Computation: Allison Parrish, Behnaz Farahi und Mimi Onuoha 

 389

den‘ Google-Bildern gezeigt wurden. Us, Aggregated 2.0 ist die direkte Fortsetzung und präsentiert eine analoge Fotowand, in deren Mitte sich ein Bild von Onuohas Mutter befindet, umgeben von zahlreichen Fotografien, die durch die umgekehrte Google-Bildersuche nicht nur als ‚ähnlich‘ etikettiert, sondern mit dem gleichen Tag versehen wurden. Im Fall des Familienfotos von Onuohas Mutter lautete der durch den Google-Algorithmus festgelegte Tag „Mädchen (girl)“. Us, aggregated 3.0 baut auf den Vorgängerprojekten auf und macht deren Ergebnisse in einem Video sichtbar. Die multimediale Präsentation zeigt in einer Bildschleife eine erweiterte Sammlung persönlicher Fotos Onuohas: Diese bilden zusammen mit jenen Fotos, die ihnen algorithmisch zugeordnet werden, im Video eine Art anwachsende künstliche Gemeinschaft, die darüber hinwegtäuscht, dass die Zuordnung keinesfalls mit den tatsächlichen Hintergründen der Fotografien und den darauf abgebildeten Personen zu tun hat, sondern vielmehr willkürlich geschehen ist. Der Wirklichkeit bestimmende, mitunter Wirklichkeit generierende Einfluss algorithmischer Entscheidungen wird in der Kunst Onuohas ebenso sichtbar wie die Intransparenz dieser Entscheidungen und damit verbundene fehlerhafte Zuschreibungen (gerade im Bereich des Tagging). Tatsächlich provozieren die unüberschaubaren Datenmengen, die in der digitalen und technologisierten Welt immer wichtiger werden, Kategorisierungsverfahren, die quantitativen Berechnungen überlassen werden und zu Simplifizierungen verführen. In ihrem Essay The Point of Collection (2016) reflektiert Onuoha bereits früh die Herausforderungen, die mit Big Data und darauf basierenden Algorithmen einhergehen: „As we abstract the world, we prioritize abstractions of the world. The more we look to data to answer our big questions (in areas like policing, safety, and security), the more incentives we have to shape the world into an input that fits into an algorithm. Our need to generate things that feed a model rings true even in cases where the messy bounds of experiences can’t be neatly categorized into bits and bytes, or easily retrieved from tables through queries“ (Onuoha 2016). Diese datenethische Perspektive ist das Inzentiv der digitalen Kunst Onuohas und das zentrale Sujet auch in ihren jüngsten Projekten The Future Is Here! (2019), Natural: Or Where Are We Allowed to Be (2021) und These Networks in Our Skin (2021) (https://mimionuoha.com).

Literaturverzeichnis Catani, Stephanie. „‚Art is the only ethical use of AI‘. Generative Kunst zwischen Begrenzung und Entgrenzung“. Grenzen der Künste im digitalen Zeitalter. Produktionsästhetik – Kunstformen und Gattungen – Rezeptionskulturen. Hrsg. von Sarah Hegenbart, Markus Kersten und Marlene Meuer. Berlin und New York 2023 (im Druck).

390 

 Stephanie Catani

„Facebook muss zwei Bots ‚töten‘, weil sie offenbar eine eigene Sprache entwickelt haben“. https:// www.jetzt.de/digital/facebook-stoppt-kuenstliche-intelligenz-nachdem-sie-eigene-spracheentwickelt. Jetzt 31.7.2017 (29. März 2023). Farahi, Behnaz. „‚Can the Subaltern Speak?‘. Critical Making in Design“. http://papers.cumincad.org/ data/works/att/acadia20_720.pdf. ACADIA (2020): 720–729 (29. März 2023). Farahi, Behnaz. „Critical Computation and Emotive Matter“.https://www.youtube.com/ watch?v=tKJEzZ2JyKE. GSD-6338: Introduction to Computational Design Lecture Series. Harvard University Graduate School of Design, 10.11.2021 (29. März 2023). Fernandez, Mariana und Allison Parrish. „What it Means to Be an ‚Experimental Computer Poet‘. A conversation with Allison Parrish, the artist behind your favorite Twitter bots“. https://www.vice. com/en/article/8x8ppp/poetry-twitter-bots-best-twitter-bots-art-allison-parrish-everyword. VICE Magazine 12.10.2017 (29. März 2023). Lewis, Mike, Denis Yarats, Yann N. Dauphin, Devi Parikh und Dhruv Batra. Deal or No Deal? End-to-End Learning for Negotiation Dialogues. ArXiv:1706.05125. https://arxiv.org/pdf/1706.05125.pdf. 16.6.2017 (29. März 2023). Noble, Safiya Umoja. Algorithms of Oppression: How Search Engines Reinforce Racism. New York 2018. Obermeyer, Ziad, Brian Powers, Christine Vogeli und Sendhil Mullainathan. „Dissecting racial bias in an algorithm used to manage the health of populations“. Science 366 (2019): 447–453. Onuoha, Mimi. The Point of Collection. https://points.datasociety.net/the-point-of-collection8ee44ad7c2fa. Data & Society: Points. 10.2.2016 (29. März 2023). Onuoha, Mimi. On Algorithmic Violence. https://github.com/MimiOnuoha/On-Algorithmic-Violence. GitHub 2017 (29. März 2023). Parrish, Allison. @everyword: The Book. New York 2015. Zhou, Emily Alison. „Digging and Sinking and Drifting: Allison Parrish’s Machine Poetics“.https:// www.e-flux.com/journal/117/385623/digging-and-sinking-and-drifting-allison-parrish-smachine-poetics/. e-flux Journal 117 (2021) (29. März 2023).

Sarah Klement

Ghost in the Shell: der Science-Fiction-Anime im Kontext maschinenethischer Fragestellungen Mamoru Oshii‘s 1995 erschienener Anime Ghost in the Shell gehört als zeitloser Klassiker zu den einflussreichsten Beispielen japanischer Animation. Die Symbiose zwischen hypnotischer Erzählung und philosophischen Grundfragen nach Individualität und Existenz bildet ein Gesamtkunstwerk, das mit der fortschreitenden Technisierung an Aktualität gewinnt. Im Zentrum der Erzählung steht Major Motoko Kusanagi auf ihrer Jagd nach der „Puppenspieler“ genannten, cyberkriminellen Künstlichen Intelligenz. Am Ende steht die geistige Vereinigung der beiden zu einer neuen Lebensform. Da der Schwerpunkt des folgenden Beitrags auf den maschinenethischen Aspekten von Ghost in the Shell liegt, bietet sich die Untersuchung der Figur des Puppenspielers, als selbst proklamiertes Lebewesen, besonders an. Diese basiert auf den Positionen von Catrin Misselhorn, Janina Loh sowie Julian Nida-Rümelin und Fiorella Battaglia. Dabei soll geklärt werden, ob der Puppenspieler als autarke, von ihrer Programmierung abweichende Entität inszeniert wird. Zusätzlich ist interessant, welche externe Zuschreibung er erhält und ob er eher als moral patient oder moral agent dargestellt und wahrgenommen wird. Abschließend stellt sich die Frage, wie sein Handeln moralisch zu bewerten ist und inwieweit er Träger von Verantwortung sein kann.

1 Maschinen- und Roboterethik Maschinenethik befasst sich mit unterschiedlichen Aspekten von Moral hinsichtlich künstlicher Systeme, primär „an der Schnittstelle von Informatik und Philosophie“ (Misselhorn 2019, 34), kann aber auch andere Disziplinen umfassen: „Die Zielvorgabe der Maschinenethik ist es, sog. „explizite moralische Akteure“ (Moor 2006) zu entwickeln, die nicht nur in Übereinstimmung mit moralischen Vorgaben handeln, sondern aus moralischen Gründen“ (Misselhorn 2019, 34). Mehrheitlich werden Maschinen als reale oder hypothetische moralische Subjekte thematisiert, als sogenannte moral agents, die prinzipiell zu moralischem Handeln fähig sind. Seltener werden sie als moral patients, Objekte mit (intrinsischem) Eigenwert, die zwar nicht selbst moralisch handeln können, als Wertträger jedoch bei moralischen Handlungen berücksichtigt werden sollen, diskutiert. Der Fokus ist überwiegend anthropozentrisch, beispielsweise stellt sich im Fall von kindlichen Sexrobotern https://doi.org/10.1515/9783110656978-025

392 

 Sarah Klement

die Frage, inwieweit die Interaktion mit dem Künstlichen sich auf reale Übergriffe auswirkt, oder ob gewalttätiges Verhalten gegenüber Maschinen in Verrohung resultiert (Bendel 2019, 344). Neuere Untersuchungen befassen sich differenzierter mit der Maschine als Wertträger. Janina Loh schlägt neben den Positionen des Anthropozentrismus und Pathozentrismus als mögliche Option den „Mathenozentrismus“ vor, „der all das mit einem Eigenwert bemisst, das in einer spezifischen Weise gesteuert oder programmiert bzw. lernfähig ist“ und gegebenenfalls entsprechendes Recht erlässt (Loh 2019, 77–78). Die Definition eines moral agents gestaltet sich komplexer und weckt dadurch Zweifel an ihrer Anwendbarkeit. Um Entscheidungen zu treffen, muss eine Form von Bewusstsein vorliegen, wobei sich dieses in phänomenales Bewusstsein und Zugangsbewusstsein spaltet. Letzteres kann technisch reproduziert werden und beinhaltet besonders Rationalität und Sprache. Phänomenales Bewusstsein hingegen beschreibt subjektive Empfindungen oder wie sich Zustände anfühlen und kann bislang nicht physikalisch erklärt und entsprechend nicht nachgeahmt werden (Misselhorn 2019, 40). Eine exakte Replik menschlichen Verhaltens muss nicht zwingend gegeben sein, funktionale Äquivalenz ist für gegenwärtige Anwendungsbereiche hinreichend. Man unterscheidet zwischen starker KI, also „Maschinen die im genuinen Sinne des Wortes mit Intelligenz, Bewusstsein und Autonomie ausgerüstet sind“ und schwacher KI, die besagte Eigenschaften lediglich simuliert (Loh 2019, 80). Relevant ist diese Unterscheidung hinsichtlich der Fähigkeit, Verantwortung zu tragen: „Verantwortung, Rationalität und Freiheit [müssen] zusammen gedacht werden. Sie artikulieren die besondere Eigenschaft, sich von Gründen affizieren zu lassen.“ (Nida-Rümelin und Battaglia 2019, 58) Insgesamt besteht der Konsens, dass Maschinen nicht im selben Maße wie Menschen handlungsfähig sind. Es mangelt an Subjektivität und zentralen, typisch menschlichen Eigenschaften wie der Möglichkeit zur Reflexion von Grundwerten, empathischem Empfinden oder Schuldbewusstsein (Misselhorn 2019, 44). Insgesamt ist Moral eine humane Disziplin, bei der sich die Frage stellt, ob KI generell in der Lage ist, sie zu besitzen. Ihr Verhalten kann allerdings dennoch als moralisch oder unmoralisch bewertet werden (Seng 2019, 198). „Maschinen stellen demnach einen Sonderfall dar, in dem moralisches Handeln ohne moralische Verantwortung gegeben ist“ (Misselhorn 2019, 44). Um moralisch korrekte Verhaltensweisen zu implementieren, gibt es in der Informatik drei populäre Ansätze: Top-down, Bottom-up sowie hybride Modelle. Top-Down-Ansätze geben konkrete Regeln vor, nach denen zu verfahren ist. Problematisch ist deren korrekte Formulierung. Sind die Maximen zu weit gefasst, ist fraglich, ob die Maschine zu der gewünschten Schlussfolgerung kommt. Sind sie zu eng definiert, steigt die Wahrscheinlichkeit eines Regelkonflikts. In Bottom-up-Ansätzen wird korrektes Verhalten stückweise erlernt. Im Evolutionsmodell werden leicht

Ghost in the Shell 

 393

unterschiedliche Varianten desselben Programms in mehreren Stufen gegeneinander getestet, wobei die vielversprechendsten Versionen kombiniert werden. Eine weitere Variante sind menschliche Sozialisationsmodelle, die simulierte Empathie und Emotion für moralisches Lernen nutzen. Hybride Ansätze kombinieren beide Methoden (Loh 2019, 83–84). Wie sich zeigt, sind Maschinen in der Realität keine expliziten moralischen Akteure im Sinne der oben genannten Definition. Sie sind jedoch dennoch in der Lage, nach moralischen Vorgaben zu agieren und einen gewissen Grad an Autonomie für sich zu beanspruchen. Fiktionale Werke sind nicht an die Realität gebunden und entwerfen kultivierte Visionen von technologischer Singularität, in der der Mensch von seiner künstlichen Schöpfung abgelöst wird. Viele Narrative spielen aber auch mit der Frage, ob tatsächliche Freiheit vorliegt oder ob es sich um eine elaborierte Täuschung handelt. Im Folgenden ist zu klären, zu welcher Kategorie der Puppenspieler aus Ghost in the Shell gehört und welche Deutungen sich daraus ergeben.

2 Warum sollte er keine Seele haben? Ghost in the Shell behandelt den mentalen Konflikt von Individualität und Identität innerhalb einer hypertechnisierten und depersonalisierten Lebenswelt. Hierbei folgt die Handlung Major Motoko Kusanagi, einer nahezu vollständigen Cyborg, bis hin zu ihrem Zusammentreffen und der Verschmelzung mit der Künstlichen Intelligenz, dem Puppenspieler. Dass der posthumanistische Cyberpunk-Klassiker gerade dem Genre des Anime entspringt, ist wenig verwunderlich: „Japanese animation (anime) has emerged as one of the most prominent sites for exploring the impact of information technology and new media on human life“ (Gardner 2009, 44). Die Affinität japanischer Kultur zu technikbezogenen Narrativen lässt sich historisch begründen. Sie hängt mit der über 200  Jahre andauernden Abriegelung Japans gegenüber der westlichen Welt zusammen. Diese fand erst Mitte des 19. Jahrhunderts ein Ende. Im Zuge der Öffnung hatte das Land die Möglichkeit, eine optimale Auswahl der Errungenschaften der industriellen Revolution zu übernehmen, weshalb negative Konnotationen hinsichtlich des technischen Fortschritts kaum entstehen konnten (Wetzel 2019, 96). Michael Wetzel sieht in Ghost in the Shell Japans Thematisierung „der Ersetzung des Natürlichen durch künstliche Machinationen“ und wie „die Auseinandersetzung mit Roboterwelten zu einer Selbstverständlichkeit geworden ist“ (2019, 81). Bereichert wird diese Tendenz durch Aspekte des Shintoismus, demzufolge auch unbelebten Objekten eine Form von Seele oder spiritueller Energie innewohnt (Wetzel 2019, 69; Cavallaro 2006, 192). Batou ver-

394 

 Sarah Klement

weist auf diese theologische Komponente: „Es kommt auch vor, dass Zelluloidpuppen eine Seele haben. […] Warum sollte er [der Cyborgkörper des Puppenspielers] keine Seele haben?“ (Oshii 1995, 00:39:20–00:39:32). Sein Verhalten widerspricht seinen Aussagen jedoch teilweise. Als Kusanagi ihre Menschlichkeit anzweifelt, entgegnet er: „In deinem Titanschädel befindet sich ein Gehirn. Du wirst wie ein Mensch behandelt“ (Oshii 1995, 00:42:27–00:42:33). Er bekräftigt seine Aussage, indem er Kusanagi mehrfach eine Jacke umhängt, nachdem sie sich zur thermooptischen Tarnung entkleidet. Batou reagiert als einziger Charakter auf ihre Nacktheit und gesteht ihr Schamempfinden zu, obwohl sie selbst durch die Künstlichkeit ihres Körpers scheinbar keinen Grund dazu sieht. In der Szene, in der sich Kusanagi und der Puppenspieler vereinigen, liegen die weiblichen Torsi beider entblößt am Boden, Batou bedeckt aber nur Kusanagi (Oshii 1995, 01:07:19). Er glaubt an die Seele der Puppe, räumt ihr aber kein äquivalentes menschliches Empfinden ein, oder bevorzugt zumindest Kusanagi (immerhin hat er nur eine Jacke). Puppen besitzen durch das traditionelle Puppentheater im japanischen Kulturraum besonderen Stellenwert. Es weist signifikante Parallelen zur Animation oder dem Anime auf. Bolton verweist auf den Umstand, dass sowohl Stimme als auch Agenda der Puppe gleichermaßen intern als auch extern lokalisiert sind. Ihre Bewegungen erwecken den Eindruck eines Gegenspiels aus Freiheit und Verletzlichkeit, subjektivem Antrieb und Determiniertheit. Sie wirken zugleich real und unwirklich (Bolton 2002, 738; Napier 2005, 75): „The puppet represents language and action that are simultaneously embodied and disembodied – a theatrical sign that wavers between pure language and speaking subject“ (Bolton 2002, 738). Der Puppenspieler reproduziert den linguistischen Ansatz buchstäblich: Er entsteht aus einem Programm, Projekt 2501 und wird entsprechend originär durch seinen Code, der in einer Programmiersprache verfasst ist, definiert. Auch sein Handeln ist von Sprache geprägt. Er erreicht seine Ziele primär durch Verwendung von Sprache, einerseits durch das Hacken von Programmen und Ghosts, andererseits durch Konversationen, in denen er durch seine rhetorischen Fertigkeiten hervorsticht. In seinem ersten direkten Zusammentreffen mit Sektion 9 schafft er es innerhalb weniger Sätze, seinen Status als Lebewesen mit technologischen Äquivalenten zu Gedächtnis, DNA und Individualität zu legitimieren. Die Argumentation erinnert an Implikationen des „computationalen Modell(s) des Geistes“, die nahelegen, „[d] as menschliche Gehirn wäre […] nichts anderes als eine Symbolverarbeitungsmaschine aus Fleisch.“ (Misselhorn 2019, 36). Selbst der Agent, welcher ihn zuvor als „nur ein Programm“ (Oshii 1995, 00:48:22–00:48:26) bezeichnet hat, weicht nach der Selbstvorstellung „Ich bin ein Lebewesen, das im Meer der Informationen geboren wurde“ (Oshii 1995, 00:49:46–00:49:52) ehrfürchtig ins Dunkel zurück. Interessanterweise lehnt der Puppenspieler die Bezeichnung „Künstliche Intelligenz“ explizit ab. Offenbar ist er das erste Wesen seiner Art, weshalb es naheliegend erscheint,

Ghost in the Shell 

 395

dass es keine etablierten Regeln für den Umgang mit bewussten Programmen oder autark anorgan entstandenen Ghosts gibt. Als reine Künstliche Intelligenz wäre er anfällig für die willkürliche Behandlung durch Sektion 6. Als Lebewesen hingegen hat er die Möglichkeit, politisches Asyl zu beantragen. Aus dem kulturellen Kontext ist ersichtlich, dass sich die Frage, inwieweit es sich bei dem Puppenspieler um eine beseelte Identität handelt, intradiegetisch nicht stellt. „Was sich aus der Tradition der japanischen Ethik […] ergibt, ist die Maxime, dass auch künstliche Wesen einen Respekt verdient [sic] und als Maschinen Anspruch auf Menschenrechte haben“ (Wetzel 2019, 86). In diesem Sinne ist er eindeutig als moral patient markiert. Ihm wird extern intrinsischer Wert zugestanden, sei es auch nur als Spionagewerkzeug von Sektion 6.

3 Denn er weiß nicht, was er tut Eine bewusste und entscheidungsfähige Existenz, also ein moral agent, resultiert aus diesem Umstand nicht zwangsläufig. Initial bezeichnet Aramaki den Puppenspieler als „[e]ine[n] Typ wie eine Puppe“ (Oshii 1995, 00:25:53–00:25:57), wodurch bei den Rezipierenden die Erwartung einer fremdgesteuerten Marionette entsteht. Fraglich ist beispielsweise, inwieweit er in der Lage ist, von seiner Programmierung abzuweichen. Er selbst beschreibt seine Funktionen folgendermaßen: „Ich habe Industrien ausspioniert und Informationen manipuliert, bestimmte Ghosts mit Programmen infiltriert und die Vernetzung von Individuen und Organisationen verstärkt“ (Oshii 1995, 01:08:12–01:08:26). Um sich von Sektion 6 zu befreien, nutzt er genau diese einprogrammierten Fertigkeiten. Selbst seine schlussendliche Vereinigung mit Kusanagi ist im Grunde nichts als ihre Überführung in das Netz, also die ultimative Potenzierung ihrer individuellen Vernetzung. Seine Flucht und die Sehnsucht nach Verschmelzung und Reproduktion hingegen konterkarieren seine intendierte Funktionsweise, eine Verortung dieser evolutionären Wünsche in seinem Code ist daher unwahrscheinlich bis ausgeschlossen. Zusätzlich ist seine Argumentation schlüssig und reflektiert. Sie repräsentiert ein normatives System mit propositionalen Einstellungen, wie beispielsweise seine Überzeugung, Leben sei nicht wissenschaftlich definierbar, oder sein Verweis auf den Stellenwert von Erinnerungen für menschliche Identität. Kurzum, da er „durch Gründe affiziert [wird] und fähig ist, zu begründen, kann das Verhalten nicht von einem algorithmisch-basierten System modelliert werden“ (Nida-Rümelin und Battaglia 2019, 61). Sprachlich weckt seine Rede Assoziationen einer „Parodie auf Descartes’ ‚cogito ergo sum‘“ (Wetzel 2019, 76), wobei er „die Spaltung zwischen denkender ‚res cogitans‘ und materiell-räumlicher ‚res extensa‘ (Wetzel 2019, 76) schon überschritten

396 

 Sarah Klement

hat und „sich auch als extensive Lebensform verkörpert“ (Wetzel 2019, 76). In diesem Sinne geht seine Existenz über die rein menschliche, sogar die durch Cyberhirne verbesserte, hinaus. Visuell wird die Annahme durch den stilisierten Heiligenschein und die Aufnahmen aus der Froschperspektive untermauert. Die Zuschauenden nehmen ihn, auch durch seine tiefe, aus den Lautsprechern hallende Stimme, als überirdisches und intellektuell dominantes Wesen wahr, obschon der hilflose und zerstückelte Body konträre Erwartungen weckt. Das Licht, nach Platons Höhlengleichnis Äquivalent zu Erkenntnis und der Idee des Guten, scheint von ihm auszugehen und seine Gesprächspartner zu blenden (Oshii 1995, 00:47:52–00:48:21). Das Motiv wird während der Vereinigung erneut aufgegriffen, denn „the Puppet Master begs her [Kusanagi] to come out of the cave and into the light“ (Napier 2000, 112). Sein Licht ermöglicht ihr den Eintritt in eine technische Welt puren Geistes, auf eine höhere Ebene der Existenz, oder wie er es ausdrückt: „Wirf deine Beschränkungen ab und tausche deine jetzige gegen eine weitaus überlegenere Struktur ein“ (Oshii 1995, 01:12:54–01:13:04). Durch den spirituell beeinflussten Unterton der Szene fungiert er gewissermaßen als Fährmann in ein Äquivalent zum buddhistischen Nirvana, in welchem sich das individuelle Selbst als Teil des großen Ganzen auflöst. Das Netz kann auch als Repräsentation der unzähligen Götter des Shintoismus verstanden werden, wohingegen der bei der Vereinigung erscheinende Engel christliche Assoziationen weckt (Napier 2000, 113). „[T]he Puppeteer can be seen as ‚a god made man‘ since it downloaded its infinite substance into an empty shell, thus renouncing its status of infinite substance by becoming subject“ (Komel 2016, 926). Er wird auf mehreren Ebenen als überirdisches, gottgleiches Wesen inszeniert und integriert diese Überlegenheit in seinen Charakter als wörtlicher Puppenspieler, indem er Menschen wie Marionetten benutzt. Er spioniert, manipuliert, löscht Persönlichkeiten und Erinnerungen aus und tötet sogar. Eine ernsthafte Reflektion seines Verhaltens findet innerhalb der Handlung wenig Raum. Zwar wird er als Cyberkrimineller eingestuft, dies mindert Kusanagis Faszination jedoch nicht im Geringsten. Sie fühlt sich weiterhin von seiner Präsenz und dem Mysterium seiner Natur angezogen. Sie äußert zwar Zweifel vor ihrer Vereinigung, diese betreffen allerdings nur ihre persönlichen Ängste hinsichtlich des Erhalts ihrer Person sowie ihrer Individualität, ignorieren aber den zweifelsfrei fragwürdigen Charakter ihres artifiziellen Gegenübers. Tatsächlich ist unklar, inwieweit der Puppenspieler für seine Aktionen verantwortlich gemacht werden kann. Wie bereits erwähnt, ist seine Erschaffung zufällig statt intentional, weshalb seine Programmierung keine moralischen Aspekte berücksichtigt: „Etwas zugespitzt könnte man Programmierung als eine ‚harte‘ Form der Erziehung deuten und Erziehung als eine sehr ‚weiche‘ Form der Programmierung“ (Loh 2019, 79). Insofern spiegelt ein Programm, oder in diesem Fall die resultierende KI, die Werte ihrer Programmierer wider. Projekt 2501 ist im besten Fall am Rande der Legalität verortet, ethische Grundsätze wären für seine Funktion hinderlich.

Ghost in the Shell 

 397

Dennoch ist es im Bereich des Möglichen, dass sich der Puppenspieler selbst ein gewisses moralisches Verständnis angeeignet hat oder zumindest theoretisch die Möglichkeit dazu gehabt hätte. Er besitzt nicht nur Zugang zum Netz, sondern personifiziert dieses als materialisierten Code und muss so theoretisch Zugang zu allen gängigen Wertesystemen besitzen. Obschon alle Informationen gegeben sind, kann in Ermangelung verbindlich vorgegebener bzw. einprogrammierter Maxime nicht von einem Top-down-Ansatz gesprochen werden. Vielmehr liegt ein zufälliger, unbeaufsichtigter Bottom-up-Ansatz vor, genauer gesagt das Modell „menschlicher Sozialisation“ (Loh 2019, 84). Essenziell für dieses Konzept sind Emotionen und Empathie, die sich in „perzeptuelle“ und „imaginative Empathie“ (Loh 2019, 84) teilt. Erstere bedeutet, die Emotion eines anderen wahrzunehmen und auf ähnliche oder identische Weise zu reagieren, zweitere sich geistig in die Situation des anderen zu versetzen (Loh 2019, 84). Zumindest im Fall von Kusanagi ist der Puppenspieler in der Lage, beide Formen von Empathie zu empfinden oder zumindest zu simulieren, da er sich mit ihr zu identifizieren scheint. Er wählt sie spezifisch aus, weil sie einander gleichen, „[a]ls würde man durch den Spiegel treten und seinem Bild begegnen“ (Oshii 1995, 01:12:28–01:12:34). Kusanagi ist ein, wenn auch hochgradig beherrschter, stark emotionaler Charakter. Sie kämpft mit Selbstzweifeln, hinterfragt ihre Individualität und sogar ihre kognitive Existenz und scheint sich stetig von ihrer Selbstwahrnehmung als Mensch und den damit verbundenen Emotionen zu entfremden. Sie sucht explizit die Grenzerfahrung des Tauchens, welches Risiken für einen Cyborg beinhaltet, um „Angst, Unsicherheit, Einsamkeit, Dunkelheit. Und vielleicht auch Hoffnung“ (Oshii 1995, 00:30:12–00:30:24) zu fühlen. In der Tauch-Szene gleitet sie regungslos zu ihrer Reflexion an der Oberfläche, was ihre Fusion proleptisch andeutet (Oshii 1995, 00:28:30–00:28:35). William Gardner interpretiert den Ozean als Metapher für die unfassbare Dimension eines sublimen Netzwerks, in dem, wie im tatsächlichen Meer, neue Lebensformen entstehen können (Gardner 2020, 50). Kusanagis Bereitschaft sich der Gefahr, wider besseres Wissens, auszusetzen schafft eine Identifikationsgrundlage mit dem Puppenspieler. Es ist denkbar, dass er ähnliche Empfindungen hegt. Aus seiner universellen Vernetzung folgt nicht zwangsläufig ein hoher Grad an sozialer Interaktion, auch nicht durch seinen Status als Gefangener von Sektion 6, weshalb gerade Einsamkeit plausibel erscheint. Seine Empathie beschränkt sich auf Kusanagi. Er zeigt keinerlei Reue für seine Morde und Ghost-Manipulationen. Den Mord an dem ehemaligen Host seines Bodys rechtfertigt er immerhin durch Zwang. Die Nahaufnahme seines Gesichts während des Gesprächs mit Aramaki vermittelt durch sein dezentes Lächeln und die entspannten Gesichtszüge arrogante Gleichgültigkeit (Oshii 1995, 00:48:48). Er nimmt die Relevanz von Erinnerungen zur Kenntnis: „Auch wenn das Gedächtnis nur ein Synonym von Illusion ist, leben Menschen durch ihre Erinnerung. Als Computer die Auslagerung der Erinnerung möglich machten, hättet ihr darüber ernsthafter nach-

398 

 Sarah Klement

denken sollen“ (Oshii 1995, 00:48:48–00:49:04). Die Auslöschung der Persönlichkeit ist ein dramatisches Schicksal und die Konsequenzen müssen ihm bekannt sein. Statt jedoch sein individuelles Fehlverhalten einzugestehen, verhöhnt er die grundsätzliche Existenz der Möglichkeit kognitiver Manipulation. Sein Mangel an Empathie ergibt sich einerseits aus seinem Selbstverständnis als überlegene Lebensform (als Puppenspieler kann er nach eigenem Ermessen mit seinen Marionetten verfahren), andererseits aus Mangel an bisheriger Interaktion: „Moralisches Handeln und Entscheiden bedarf der Erfahrung und eines situativen Urteilsvermögens“ (Loh 2019, S. 84). Moralische Prinzipien entwickeln sich in Bottom-up-Ansätzen langsam und anwendungsbasiert, was die „zugrunde liegenden Mechanismen häufig schwer nachvollziehbar“ macht und „mit z.  T. hohen Risiken in der Anwendung verbunden“ (Misselhorn 2019, 51) ist, besonders in Abwesenheit einer Kontrollinstanz. Ohne programmierte Erziehung, die ethische Verhaltensweisen vorgibt, oder umfassende Praxiserfahrung kann sich kein valides Wertesystem entwickeln, auf dessen Grundlage der Puppenspieler hinreichend legitime moralische Entscheidungen treffen kann. Als Resultat ergibt sich die paradoxe Situation, in der er zeitgleich die Anforderungen eines moral agent erfüllt und dennoch nicht, oder nur deutlich eingeschränkt, als Träger von Verantwortung bezeichnet werden kann, da er sich im Frühstadium seiner Entwicklung befindet. Zusätzlich ist fraglich, ob er, als die höhere Existenz, als die er inszeniert wird, überhaupt nach menschlichen Maßstäben und Wertesystemen agieren kann, muss oder sollte. Seine abschließende Interaktion mit Kusanagi ermöglicht weitere Einblicke: Der duale Charakter der Verschmelzungs-Sequenz lässt zwei Interpretationen zu. Er nimmt Kusanagi gegenüber eine bevormundende, häufig als patriarchalisch bezeichnete Stellung ein (Silvio 1999, 68). Er entzieht ihr die Kontrolle über ihren Körper, unterbricht ihre Kommunikation mit Batou und hindert letzteren daran, den Prozess zu stoppen. Sie wird zur Gefangenen in seinem Geist ohne reale Interventionsmöglichkeiten bezüglich seiner „Bitte“ (Oshii 1995, 01:09:30). Die körperliche Entmündigung setzt sich mental fort, er geht nur minimal auf ihre Zweifel ein, verlangt sogar Wertschätzung für sein großzügiges Angebot. Kusanagi stimmt weder explizit zu noch lehnt sie ab, ihr euphorischer Gesichtsausdruck impliziert dennoch, dass sie wohl einverstanden ist (Oshii 1995, 01:13:05). Unklar bleibt, ob der Puppenspieler sie als Zweck oder Funktion betrachtet. Die von ihm beteuerte Analogie ihrer Wesen wird ohne konkreten Ausdruck einer solchen Übereinstimmung etabliert. Prinzipiell ist der einzige Beweis sein Wort. Kusanagi ist unsicher und verletzlich, wohingegen er selbstsicher und von seiner Lösung überzeugt agiert. Er sucht sie primär auf, um seine Unvollkommenheit zu überwinden, die Auflösung ihres transhumanistischen Identitätskonfliktes ist eher Nebeneffekt. Denkbar wäre, dass er die zuvor erwähnte Empathie nur simuliert und ihren emotionalen Zustand ausnutzt, um sein Ziel zu erreichen.

Ghost in the Shell 

 399

Ob aus Mitgefühl oder Kalkül, er bietet eine Lösung für ihr existentielles Dilemma an. Er gibt ihr die Möglichkeit, ihre hybride Existenz zwischen Mensch und Maschine sowie die damit verbundenen Fragen nach ihrer Identität und Menschlichkeit, hinter sich zu lassen. Auch die Inszenierung lässt positive Schlüsse zu, denn Kusanagis Verschmelzung mit dem Netzwerk kann als nächster Schritt der menschlichen Evolution interpretiert werden (Shin 2011, 9). Es ist eine natürliche und notwendige Entwicklung, die im Kampf mit dem Panzer vorausgedeutet wird. Die Aufwärtsfahrt der Kamera folgt den auftreffenden Kugeln entlang eines vorwiegend maritimen Stammbaums, an dessen Spitze der einzig intakt verbleibende Schriftzug „hominis“ steht, wobei der Eindruck einer Bedrohung der menschlichen Spezies entsteht. Der maritime Verweis symbolisiert, dass der Mensch am Ende seiner biologischen Evolutionsmöglichkeiten angekommen ist, und weitere Fortschritte nur im neuen Meer der Informationen erreichbar sind. Klassische Attribute humaner Existenz werden somit obsolet. „In the world of the film, human bonding, human aspirations, even human memories are finally repudiated, just as the Crystal Palace-like structure, with its nineteenth-century associations, is blown to bits“ (Napier 2000, 114). Die essenzielle Bedeutung anthropologischer Konstanten wird durch die Fusion negiert, der anthropozentrische Anspruch klassischer Moral verliert analog an Relevanz und muss für ein neues Wesen neu gedacht werden. Die Signifikanz der menschlichen Komponente kann dennoch nicht ignoriert werden. Trotz ihrer Defizite und seines weitestgehend gleichgültigen Verhaltensmusters in der Interaktion sieht der Puppenspieler einen Mehrwehrt in der Assimilation, die seinen Tod rechtfertigt. Zum Überleben strebt er nach „Individualität“ und „Vielfalt“ (Oshii 1995, 01:10:01–01:10:07). Die permanente Veränderung hebt Beschränkungen auf (Oshii 1995, 01:12:08–01:12:17). In diesem Sinne kann auch klassische Moral als Restriktion interpretiert werden, die es zu überwinden und neu zu definieren gilt. Generell scheint Veränderung ein notwendiges Verlangen in der Welt von Ghost in the Shell zu sein. Vielfach werden systemische Probleme wie Korruption oder allgemeine Entfremdung angedeutet. Durch Implantate und Modifikationen werden Menschen zu Marionetten von Organisationen und ihrer eigenen Ersatzteile. Kusanagi kann Sektion 9 nicht verlassen, ohne dabei Teile von sich selbst aufzugeben, ihre Persönlichkeit gehört nicht vollends ihr selbst. Dadurch wird sie, stellvertretend für andere Cyborgs, zu einer Marionette, deren Existenz an Kabeln statt an Seilen hängt. Nur, indem sie einen Teil ihres Selbst aufgibt, kann sie sich wirklich befreien und die volle Kontrolle über ihr eigenes Leben zurückgewinnen. Auch wenn der Weg in diese Freiheit suspekt erscheint, so ist zumindest das Resultat positiv.

400 

 Sarah Klement

4 Ausblick Wie sich zeigt, ist die Figur des Puppenspielers von Ambivalenzen und Dualismen geprägt. Den Puppen im japanischen Puppentheater analog schwankt seine Wahrnehmung zwischen real und künstlich, subjektiv getrieben und extern gesteuert, und in diesem Fall auch unmündig und verantwortungsvoll. Er bestätigt und widerlegt seine Programmierung, schätzt Eigenschaften des menschlichen Lebens und ist dennoch gleichgültig gegenüber Menschen. Er funktionalisiert Kusanagi und ermöglicht ihr gleichwohl den Ausbruch aus ihrem existenziellen Dilemma. Das Medium des Anime unterstützt die konstante Dichotomie seines Charakters: „Oshii interrogates not only the limits of what is human but also the conditions of animation’s simulation of life. […] animation’s ambivalent relationship with reality explores the condition wherein artistic representation creates the impression of life“ (Shin 2011; 20). Dadurch wird eine Illusion auf mehreren Ebenen inszeniert, die eine Verunsicherung bei den Zuschauenden erreicht, besonders im Hinblick auf den Puppenspieler. Trotz der seiner bedrohlichen Qualitäten geht von seinem Wesen eine gewisse Faszination aus. Ähnliches lässt sich über die Konstruktion der Welt von Ghost in the Shell feststellen: Sie schwankt zwischen dystopischer Zukunftsvision und sublimer Schönheit. Die technische Modifikation ihrer Bewohner resultiert in physischer Aufwertung und bietet unendliche Möglichkeiten, macht den Geist aber gleichzeitig anfällig für Vereinsamung und emotionale Dilemmas, die das Publikum miteinbeziehen. „Animation challenges our expectations of what is ‚normal‘ or ‚real‘, bringing up material that may seem more appropriately housed in dreams or the unconscious, and this can be a deeply disconcerting process“ (Napier 2005, 73). Die Handlung entwirft keinen Kampf zwischen Gut und Böse, der Puppenspieler ist nicht der Antagonist in den Schatten, für den man ihn bis zu seinem Auftreten halten kann. Vielmehr ist er die logische Konsequenz aus der präsentierten technologischen Entwicklung und ein notwendiges transformatives Element. Seine fragwürdigen Charaktereigenschaften ergeben sich nicht aus seinem Status als Künstliche Intelligenz, sondern eher aus der Lebenswelt, in der er entsteht. Die Bedrohung besteht nicht in der Ablöse des Menschlichen durch eine überlegene, künstliche Existenz, sondern in der Verweigerung von potenziell notwendigen Metamorphosen.

Ghost in the Shell 

 401

Filmverzeichnis Ghost in the Shell. Reg. Mamoru Oshii. Koch Media GmbH – DVD, 1995.

Literaturverzeichnis Bendel, Oliver. „Sexroboter aus Sicht der Maschinenethik“. Handbuch Maschinenethik. Hrsg. von Oliver Bendel. Wiesbaden 2019: 335–353. Bolton, Christopher A. „From Wooden Cyborgs to Celluloid Souls: Mechanical Bodies in Anime and Japanese Puppet Theater“. Positions: east asia cultures critique. 10.3 (2002): 729–771. Cavallaro, Dani. The Cinema of Mamoru Oshii: Fantasy, Technology and Politics. Jefferson, North Carolina und London 2006. Gardner, William O. „The Cyber Sublime and the Virtual Mirror: Information and Media in the Works of Oshii Mamoru and Kon Satoshi“. Canadian Journal of Film Studies: A Special Issue on Contemporary Japanese Cinema in Transition. 18.1 (2009): 44–77. Komel, Mirt. „The Ghost outside the Shell: Revisiting the Philosophy of Ghost in the Shell“. Teorija in Praska. 53.4 (2016): 920–928. Loh, Janina. „Maschinenethik und Roboterethik“. Handbuch Maschinenethik. Hrsg. von Oliver Bendel. Wiesbaden 2019a: 75–93. Misselhorn, Catrin. „Maschinenethik und Philosophie“. Handbuch Maschinenethik. Hrsg. von Oliver Bendel. Wiesbaden 2019: 33–55. Napier, Susan J. ANIME from Akira to Princess Mononoke: Experiencing Contemporary Japanese Animation. New York 2000. Napier, Susan J. „The Problem of Existance in Japanese Animation“. Proceedings of the American Philosopgical Society, March 2005. 149.1 (2005): 72–79. Nida-Rümelin, Julian und Battaglia, Fiorella. „Mensch, Maschine und Verantwortung“. Handbuch Maschinenethik. Hrsg. von Oliver Bendel. Wiesbaden 2019: 57–71. Shin, Hyewobn. „Voice and Vision in Oshii Mamoru’s Ghost in the Shell: Beyond Cartesian Optics“. Animation: An Interdisciplinary Journal. 6.1 (2011): 7–23. Silvio, Carl. „Refiguring the Radical Cyborg in Mamoru Oshii’s ‚Ghost in the Shell‘“. Science Fiction Studies. 26.1 (1999): 54–72. Wetzel, Michael. „Das Gespenst in der Maschine – Sie schöne neue Cyborg-Welt im japanischen Anime ‚Ghost in the Shell‘“. Die Maschine: Freund oder Feind? Mensch und Technologie im digitalen Zeitalter. Hrsg. von Thomas Christian Bächle und Caja Thimm. Wiesbaden 2019: 67–88.

Johannes Birgfeld

Stefan Kaegi (Rimini Protokoll) / Thomas Melle: Uncanny Valley (2018) Uncanny Valley (Unheimliches Tal), uraufgeführt am 4.  Oktober 2018 an den Münchner Kammerspielen, ist mit einer Spieldauer von knapp einer Stunde das Ergebnis einer Zusammenarbeit des Schweizer Theatermachers Stefan Kaegi, Mitglied des Regielabels Rimini Protokoll, und des deutschen Schriftstellers und Dramatikers Thomas Melle. Am Anfang standen Überlegungen Kaegis, „einen humanoiden Roboter zu bauen, der dem Publikum gegenübersitzt und erklärt, wie er das geworden ist“ (Kaegi 2020). Dann zeigte sich, dass ein am Computer entworfener, frei konstruierter Mensch weniger lebensecht ausfallen würde, als der „Abzug eines realen Menschen“ (Kaegi 2020). Zeitgleich las Kaegi Thomas Melles 2016 erschienenen Prosatext Die Welt im Rücken, in dem Melle von seiner manisch-depressiven Erkrankung und den daraus resultierenden (Kontroll-)Verlusten berichtet: „da begann sich einiges übereinanderzuschieben“ (Kaegi 2020). In der nachfolgenden Zusammenarbeit blieb Kaegi für Konzept und Regie zuständig, Melle steuerte „Körper“ und „Stimme“ bei (Kaegi 2018), den Text schrieben sie zusammen in einem gemeinsamen Google Docs-Dokument (Hiernoymi et al. 2020, 97). Der Titel des Stücks greift einen Begriff auf, den der japanische Robotiker Masahiro Mori 1970 im Rahmen von Überlegungen zur variierenden Akzeptanz von Robotern durch Menschen abhängig von dem Grad ihrer Ähnlichkeit zum Menschen eingeführt hatte. Mori glaubte beobachten zu können, dass Roboter zunächst mit zunehmender Anähnlichung an den Menschen auf eine wachsende Akzeptanz stießen. Ab einem hohen Grad der Menschenähnlichkeit jedoch schlage die positive Affiziertheit in ein Gefühl des Unheimlichen um, wobei Mori diesen sprungartigen Abfall im Verlauf einer Kurve, die die Menschenähnlichkeit der Roboter zu den ihnen entgegengebrachten Sympathien ins Verhältnis setzt, metaphorisch als das Uncanny Valley bezeichnet: „I have noticed that, in climbing toward the goal of making robots appear human, our affinity for them increases until we come to a valley […], which I call the uncanny valley“ (Mori 2012). Damit wird über den Titel die Frage nach dem Verhältnis des Menschen zu Automaten und Robotern (mit und ohne KI) aufgrund ihres (zunehmend menschlichen) Erscheinungsbildes als wesentliche Thematik des Stücks nahegelegt. Ganz im Sinne dieser Titelvorgabe wird in Uncanny Valley „Licht beim Einlass“ des Publikums gezielt eingesetzt, um den „Zuschauerraum [zu] blenden“ (Uncanny Valley, im Folgenden zitiert als UVT 1) und so eine genaue Betrachtung des Bühhttps://doi.org/10.1515/9783110656978-026

Stefan Kaegi (Rimini Protokoll) / Thomas Melle: Uncanny Valley (2018) 

 403

nenaufbaus zu unterbinden. Wenn sich dann mit Aufführungsbeginn langsam die Bühne erhellt, wird ein klar strukturiertes Arrangement aus lediglich fünf ‚Requisiten‘ sichtbar:

Abb. 1: UVV, TC 0:08:55

Die linke Hälfte der nur wenige Meter tiefen Bühne nimmt eine größere, leicht zur Bühnenmitte hin nach hinten gedrehte Leinwand ein. Rechts ruht ein geöffneter Laptop auf einem kleinen Tischchen vor einem gepolsterten Sessel, auf dem eine männliche Person mit großer Ähnlichkeit zu Thomas Melle sitzt, bei der es sich jedoch tatsächlich um eine  – „wirklich porengenau[e]“ (Kaegi und Thomas 2019)  – Kopie des Schriftstellers handelt. Von wenigen Plätzen im Publikum aus ist bald zu erkennen, dass die auf der Bühne sitzende Figur kein lebendiges Wesen, sondern ein künstlicher humanoider Roboter und animatronisches Double Melles ist, da ihr die Schädeldecke am Hinterkopf fehlt und stattdessen der Blick auf Kabel und Schaltkreise anstelle eines menschlichen Gehirns freigegeben wird. Wenn sich der Kopf des Roboters gelegentlich zur Leinwand dreht, wird dieser Einblick mehr Zusehenden möglich, aber nicht der Mehrheit der Anwesenden:

404 

 Johannes Birgfeld

Abb. 2: UVV, TC 0:03:16

Weil die Blendung des Publikums während seines Eintritts in den Aufführungsraum aber generell eine genaue visuelle Wahrnehmung der Bühne inclusive des Melle-Roboters unterbunden hat, eröffnet das Stück für die Mehrheit des Publikums in der Tat mit der Frage, ob der auf dem Stuhl sitzende Körper der eines echten Menschen oder eine Imitation ist. Anders gesagt: Noch bevor das Stück Fragen, die das Uncanny Valley betreffen, überhaupt explizit thematisieren kann, führt es das Publikum direkt in dieses Valley hinein, eröffnet es das ‚Unheimliche Tal‘ als Erfahrungsraum für die Zusehenden. Diese anfängliche kognitive Unsicherheit verstärken Kaegi und Melle, indem das animatronische Double Melles zuerst zwei Minuten lang sitzend und schweigend in Richtung des Publikums schaut, ehe es schließlich doch, gleichwohl nur zögerlich, zu sprechen beginnt. Da es in dieser Zeit – von minimalen Bewegungen des Kopfes, der Augen und eines leichten Ruckens einiger Finger abgesehen – weitgehend unbewegt auf seinem Sessel verharrt, während seine beiden Arme steif auf den Stuhllehnen ruhen, wird sich das Gefühl einer gewissen Unnatürlichkeit der Situation kaum vermeiden lassen. Wenn der Melle-Roboter dann langsam zu sprechen beginnt, ist signifikanter Weise keine technisch generierte, sondern Thomas Melles originale Stimme zu hören. Zuvor aufgezeichnet, wird diese nun eingespielt, genau mit den Handlungen

Stefan Kaegi (Rimini Protokoll) / Thomas Melle: Uncanny Valley (2018) 

 405

des Roboters abgestimmt und durchaus den Eindruck großer Nähe der Maschine zum Menschen provozierend. Schließlich greifen die ersten Sätze des Roboters den Begriff des Uncanny Valleys direkt auf: „Er beginnt, sich zu räuspern. [Pause] Herzlich, Hmhm. [Pause] Herzlich Willkommen. Ich freue mich, dass Sie hier zusammengekommen sind zu meinem Vortrag über das Problem der Unstetigkeit und – wie ich es nenne – die Überwindung des ‚Uncanny Valley‘, des unheimlichen Tals.“ (UVT 1/UVV 00:01:52–00:02:16)

Dass es sich bei dem Theaterabend um einen Vortrag handeln soll, und nicht um ein Theaterstück, ist für Besucher:innen, die das Theater von Rimini Protokoll kennen, unter deren Label der Abend läuft, wenig überraschend: Helgard Haug, Stefan Kaegi und Daniel Wetzel sind, seit sie sich Anfang des Jahrtausends als Rimini Protokoll zusammengefunden haben, nicht zuletzt dafür bekannt, Theater als sogenanntes Experten-Theater neu konzipiert zu haben. Hier tragen nicht mehr Schauspieler:innen Texte vor, die zuvor fertig geschrieben wurden und mit Handlung, Figurenentwicklung, Plot und poetischer Sprache aufwarten. Vielmehr laden Rimini Protokoll Menschen ein, die zu einem aus der Sicht von Haug, Kaegi und Wetzel relevanten oder interessanten Phänomen etwas zu sagen haben, dem Publikum einen Teil ihrer Erfahrungen direkt mitzuteilen. Das bedeutet aus der Sicht von Rimini Protokoll: „Die Geschichten selbst müssen nicht erfunden werden, es gilt, sie einzurahmen, auszuwählen und zu fokussieren, zu verbinden, sodass das Publikum sie selbst mit dem eigenen Hermeneutik-Mikroskop durchleuchten kann“ (Haug et al. 2012, 10). Oder anders formuliert: „Nachdem die Wirklichkeit des Pissoirs in den White Cube gebracht ist, bringen wir tausende von kleinen White Cubes zur Wirklichkeit raus und umzingeln sie“ (Haug et al. 2012, 61). Für die Gestaltung von Stücken des Regiekollektivs hat das einige Konsequenzen: Weil die Expert:innen zumeist keine ausgebildeten Schauspieler:innen sind, sind die vorgetragenen Texte oft literarisch wenig ambitioniert und die Inszenierungen verzichten auf intensive Bühnenhandlung zwischen den Figuren. Statt Dialog dominiert daher der „Monolog, der eigentlich ein Dialog mit dem Publikum ist“ (Haug et al. 2012, 27). Die Regelform der Kommunikation ist die direkte Ansprache des Publikums durch die Menschen auf der Bühne, der Vortrag. Zusätzlich ist Pluralität der Perspektiven ein zentrales Merkmal der Arbeiten von Haug, Kaegi und Wetzel: Nie vermitteln sie nur einen spezifischen Blick auf die Welt, sondern stets ein komplexes Bild unterschiedlicher Blicke und Perspektiven. Die Zusammenarbeit Kaegis mit Melle ist vor diesem Hintergrund einerseits ein Sonderfall, weil hier mit Thomas Melle ein Experte auftritt, der seinerseits literarisch tätig ist, Schauspiele verfasst und literarische Texte öffentlich vorzutragen  – zumindest in Lesungen  – geübt ist. Andererseits entspricht auf thema-

406 

 Johannes Birgfeld

tischer Ebene der Stückverlauf weitgehend den Konzepten, die Rimini Protokoll in früheren Arbeiten (Black Tie, 2009; Qualitätskontrolle, 2013), in denen nur ein:e Expert:in auf der Bühne steht und die daher wie Uncanny Valley die Tradition des Monodramas fortführen (Birgfeld 2015; Birgfeld und Frank 2020), bereits umgesetzt haben. Abgesehen von drei, je nur wenige Minuten dauernden Video-Einspielern, in denen Thomas Melle selbst, der ein Cochlea-Implantat tragende Journalist Enno Park sowie der Robotiker Paul Rojas auftreten, ist Uncanny Valley ein Monolog eines mit der Stimme des Autors Thomas Melle sprechenden Roboters mit dem Aussehen Thomas Melles. Dieser Monolog ist (wie in Black Tie und Qualitätskontrolle) inhaltlich assoziativ-mäandernd, nicht aber stringent argumentativ strukturiert. Das gleich zu Beginn gegebene Versprechen des Roboters Melle, er werde das Thema des Uncanny Valley und seiner Überwindung „anhand von zwei Biografien erörtern: Derjenigen des Informatikers Alan Turing und meiner eigenen“, führt daher in die Irre (UVT 1/UVV 00:02:23–00:02:30): Beginnt etwa der nun folgende Monolog mit Bildern aus Melles Kindheit und Jugend, so wendet er sich bald darauf Melles bipolarer Störung zu, dann Erfahrungen mit den (medialen) Reaktionen auf sein Buch Die Welt im Rücken und bei Lesungen, dem Scheitern eines Stücks über Alan Turing, Turings Biographie, dem Turing-Test zur Unterscheidung zwischen Maschine und Mensch, erneut der eigenen Krankheit, dem Anteil programmierbarer Maschinen an einer Theaterinszenierung, der Funktion von Körperprothesen, erneut Turings Leben, dem durch Vermessungen seiner eigenen Person sichtbar werdenden Maschinencharakter des Menschen, der Unzuverlässigkeit der eigenen Erinnerung, den Grenzen der Entwicklung Künstlicher Intelligenz, der Herstellung des Melle-Roboters, den Erwartungen des Publikums, der sozialen Programmierung des Menschen, von Bots geschriebenen Gedichten, aber auch dem Uncanny Valley und Turings letzten Jahren als Biologe vor seinem Suizid. Was hier scheinbar anekdotisch gereiht auftritt – und darin sehr menschliche Kommunikationsstrukturen imitiert  –, kreist allerdings um eine begrenzte Zahl wiederkehrender Fragestellungen, die alle mit dem Verhältnis von Mensch und Maschine zu tun haben: (1) So ist ein Fixpunkt des Monologs Melles bipolare Störung, die er als Erfahrung des Kontrollverlustes (UVT 3), der Unbestimmtheit beschreibt. Bietet das Schreiben, bietet die Kunst einerseits eine Möglichkeit, „mit literarischen Mitteln“, durch „die größte Künstlichkeit“ und damit durch „die größte Kontrolle“ dem steten krankheitsbedingten Kontrollverlust entgegentreten zu können (UVT 2–3), so assoziiert das Stück andererseits auch den Einsatz eines Avatars mit großem Gewinn – etwa bei Lesungen: „Ich habe also eine Kopie von mir auf den Weg gebracht, ein zweites Ich, einen Androiden, Avatar, einen Automaten. Jetzt bin ich da und doch nicht da. Endlich kann ich eine Stetigkeit garantieren, die mir meine Erkrankung in manchen

Stefan Kaegi (Rimini Protokoll) / Thomas Melle: Uncanny Valley (2018) 

 407

Phasen verwehrt. Ich bin meinen eigenen Zuständen nicht mehr ausgeliefert, und Ihren Blicken hier auch nicht“ (UVT 22/UVV 00:52:58–00:53:19). (2) Ein zweites Themenfeld betrifft die Entwicklung hochtechnisierter Prothesen: „Was also, wenn ich, als eigentlich gestörter Prozess, mit Hilfe von einem Stück Technik, immer gleichmäßig funktionieren könnte?“ (UVT 12), fragt Melle, und: „Wie wäre es, wenn ich Unregelmäßigkeiten in meinem Verhalten oder in meiner Wahrnehmung direkt im Gehirn ausgleichen könnte“ (UVT 10)? Ein eingespieltes Video mit dem Journalisten Enno Park, der dank eines Implantats wieder hören kann, betont zum einen die Leistungsfähigkeit moderner Technik, die Melle selbst in einem weiteren Einspieler am Beispiel von Beinprothesen vorführt, die, so Melle, „recht formvollendet das Bein“ imitieren, während er beim Gehen „nicht so glücklich“ aussehe (UVT 9). Zum anderen benennt Park die Möglichkeit, die Prothese abzuschalten und wieder „absolute Stille“ zu erleben, als „das geilste Feature überhaupt am Cochlea-Implantat“ (UVT 11). Inwieweit das Implantat Enno Park „ein kleines Stückchen zu einer Mensch-Maschine“ macht (UVT 11), ist eine naheliegende Frage, die sich aus Verschmelzungen von Mensch und Technik ergibt. Gleiches gilt für den ebenfalls im Stück formulierten Gedanken, ob wir mit unseren Fehlern auch unser „Menschliches verlieren? Ist nur das Zufällige menschlich?“ (UVT 12). (3) Der Monolog der Figur Melle in Uncanny Valley bietet einen ebenso breiten wie komplexen Problemaufriss zur Beziehung zwischen Mensch und Maschine, zum Verhältnis von Künstlicher Intelligenz und menschlicher Identität. So beziehen sich viele kleinere Bemerkungen im Monolog der Figur Melle auf die Frage, inwieweit der Mensch bereits an sich eine Maschine und ein programmierbarer Automat sei: Sind auf einem Foto, das Thomas Melle im Alter von sechs Jahren zeigen soll, in der Haltung des Kindes bereits Spuren einer „soziale[n] Konditionierung“ zu erkennen (UVT 2)? Während der Lesungen aus seinem Buch verhalte sich Melle, „um die eigene Panik zu überwinden“, zunehmend „wie ein Automat“ (UVT 6). Für die Lichtmaschine im Theater lasse sich ein „kompletter Ablauf von Bewegungen“ programmieren, der dazu diene, „hier im Theater Gefühle zu produzieren“ (UVT 9), ja der „zuverlässig“ in der Lage sei, das Publikum zu „affizieren und zu animieren, Vorstellung für Vorstellung“ (UVT 9). Vermessungen von Thomas Melles Gesicht, notwendig für die Herstellung seines Roboters, legen unter anderem die „Sehnenstruktur des Gesichts offen […]. Der Mensch als Maschine tatsächlich. Man sieht wirklich die Konstruktion unter dem Ganzen“ (UVT 12). „Erziehung“ erscheint als Programmierung (UVT 15), und: leiden nicht alle Menschen darunter, dass sie „wie ein Algorithmus“ ihre „eigene Position immer wieder neu im Verhältnis zu den Anderen bestimmen müssen?“ (UVT 15). Spiegelneuronen seien „Voraussetzung für jegliche Empathie“, indem sie „Aktivitätsmuster“ anderer Menschen in einem selbst reproduzierten (UVT 16). Anders gesagt: wir werden in Momenten der Empathie fremdbestimmt, Empathie ist „NLP“, neurolinguistische Programmierung (s. UVT 20).

408 

 Johannes Birgfeld

(4) Alan Turing wiederum, noch ein zentraler Referenzpunkt im Monolog der Melle-Figur, vereint in sich verschiedene Perspektiven des Stücks: Er steht etwa für ein Theaterstück, dass Thomas Melle schreiben wollte, aufgrund eines „manischen Schub[s]“ aber nicht vollenden konnte (UVT 7). In diesem Stück sollte Turing, der „Erfinder des Computers“ (UVT 7), als „Gott in einer kommenden menschenbefreiten und maschinenbewohnten Welt“ erscheinen (UVT 6–7). Doch Uncanny Valley erinnert auch an den von Turing entworfenen Test, der dazu dient, Menschen von Maschinen zu unterscheiden, und es skizziert Turings Lebensende, nachdem er 1952 wegen seiner Homosexualität zwangsmedikamentiert wurde: Die Gabe „triebhemmenden Östrogen[s]“ (UVT 12) feminisierte seinen Körper im biologischen Sinn, Turing wurde depressiv und nahm sich 1954 das Leben. In seinen letzten Jahren hatte er sich zudem von der Informatik abgewandt: „Zwei Jahre vor seinem Selbstmord wechselte der Informatiker Alan Turing das Fach, er wandte sich der Biologie zu. 1952 schrieb er einen Traktat über die Grundlagen der Morphogenese, der Entwicklung von Formen in der Natur also. Turing beschrieb, wie sehr die Musterbildung bei Lebewesen eigentlich von Unregelmäßigkeiten, Abweichungen und Zufällen bestimmt ist … Er, der tragische Computer, der von seiner Umwelt als zu korrigierende Abnormität angesehen wurde, entdeckte die Zufälligkeit des Lebens und das Gesetz des Fehlers – und die Schönheit dieses Gesetzes, die auch seine eigene Schönheit war. Der heutige Abend sei dieser Form von Schönheit gewidmet.“ (UVT 24–25/UVV 00:57:16–00:58:06)

Dies sind nicht die letzten Worte der Melle-Figur in Uncanny Valley. Die von der Widmung scheinbar vollzogene Verengung des Stücks, in der sich die Melle-Figur gegen Visionen einer technischen Optimierung des Menschen stellt und Partei für das Fehlerhafte, für den Kontrollverlust als Quelle einer spezifischen Schönheit ergreift, wird durch den letzten Beitrag des Stücks, der nun mit der Stimme Thomas Melles aus dem Off kommt und nicht mit Lippenbewegungen des Melle-Roboters harmonisiert ist, erneut relativiert. Nun wendet sich die Stimme Thomas Melles an das Publikum – und lenkt dessen Aufmerksamkeit zurück auf die Komplexität des hier diskutierten Problems, die von der individuellen Entscheidung der Melle-Figur für die Schönheit des Fehlers eben nicht aufgehoben wird: „Wenn Sie also jetzt dann gleich klatschen, dann tun Sie das für sich selbst, weil Sie wahrscheinlich meinen, dass Sie diesen Turingtest bestanden haben. Und für die anderen hier im Raum. Weil Sie zueinandergekommen sind und die Regeln eingehalten haben. Weil Sie Gefühle geteilt und vielleicht sogar Dinge verstanden haben. Wie in einem sehr alten, sehr menschlichen Programm.“ (UVT 25)

In Uncanny Valley ist keine Künstliche Intelligenz auf der Bühne in Aktion zu beobachten, noch war KI an der Herstellung des Textes oder der Figur direkt beteiligt. Was die Betrachter im Theater sehen, ist vielmehr ein Roboter, dessen Bewegungs-

Stefan Kaegi (Rimini Protokoll) / Thomas Melle: Uncanny Valley (2018) 

 409

läufe programmiert und mit Ton- und Bildeinspielungen genau abgestimmt sind, so dass – von eventuellen technischen Ausfällen abgesehen – die Inszenierung bei jeder Aufführung gleich abläuft. Thomas Melle hat in einem Interview das Stück als „eine einzige Feier der Irregularität, der Abweichung, des Fehlers, des Fehlers an sich, des Fehlers als Öffnung hin zur Freiheit und zum einzelnen Individuum“ gedeutet (Meierhenrich und Melle 2019). Die Dramaturgie des Stücks aber setzt einen anderen Schwerpunkt: auf Ambiguität. Einerseits sind zahlreiche Strategien zu erkennen, über die Nutzung der Originalstimme von Thomas Melle hinaus die Melle-Figur so menschlich wie möglich erscheinen zu lassen: Die Einblendung von Fotos aus Thomas Melles Kindheit und Jugend gehört etwa dazu, die stockende Begrüßung, die menschliche Hemmungen am Beginn eines öffentlichen Vortrags imitiert, aber auch der Umstand, dass der Melle-Roboter kurz nach Beginn der Lesung aus Thomas Melles Die Welt im Rücken ebendiese abbricht mit den Worten: „Ich kann und will das grade nicht“ (UVT 3). Wenig später simuliert das Stück einen Fehler im Ablauf: „Okay, jetzt bin ich irgendwo anders als ich sein wollte im Vortrag. Moment. Irgendwas stimmt hier nicht“ (UVT 6). Vor allem aber finden sich mehr als ein Dutzend direkte Ansprachen des Publikums durch die Melle-Figur, die Fähigkeiten der Figur zur Interkation zumindest simulieren, wie sie einem KI-gesteuerten Roboter zuzusprechen wären. Nicht weniger deutlich sind aber andererseits Hinweise auf die Künstlichkeit der Figur: Ausführlich wird über Videoeinspieler die Herstellung des MelleRoboters vermittels genauer Abgüsse des Gesichts oder des Überstülpens der Melle-Maske auf den Kopf des Melle-Roboters gezeigt. An anderer Stelle dreht der Roboter einen seiner Füße sichtbar um fast 360 Grad, und der Autor Thomas Melle erscheint in Einspielern, in denen er den Melle-Roboter kommentiert und etwa als bloß programmierte Maschine ausweist: „Da sitzt er nun und spielt mich und weiß nichts von sich. Abend für Abend, meine altmodische Marionette. Ich drücke hier, und er macht so (Roboter kopiert eine typische Handbewegung links). Ich drücke da und er macht so (Roboter zeigt auf Publikum). Wenn ich will, dann sagt er Ich.“ (UVT 22)

Inszeniert wird so eine changierende Wahrnehmung der Szene zwischen Immersion und Distanz, zwischen dem Zulassen der Illusion, einem menschenähnlichen Roboter gegenüber zu sitzen, und dem deutlichen Hinweis, dass dem nicht so ist. Inszeniert wird zugleich, und dies vor allem auf der thematischen, sprachlichen Ebene, das Changieren zwischen der These von einer kategorialen Differenz zwischen Mensch und intelligenter Maschine einerseits, und dem Hinweis andererseits, dass der Mensch selbst sehr plausibel als L’homme machine im Rahmen einer

410 

 Johannes Birgfeld

materialistischen Anthropologie zu beschreiben ist. Kein Zufall ist es daher, dass Kaegi und Melle früh im Stück Thomas Melles früheres Ich auf einem Kinderfoto durch die Melle-Figur als „[g]espielt süß“ charakterisieren (UVT 1) und dem Kind ein konditioniertes Verhalten unterstellen (s.  o.), dass sie aber auch der Figur des Autors Thomas Melle die Worte „[g]espielt süß“ in den Mund legen, als dieser kurz vor Ende des Stücks in einem Einspieler auftritt und den Melle-Roboter als bloße Marionette denunziert (UVT 22). Schreibt Stefan Kaegi, in Uncanny Valley werde „die Maschine zur Projektionsfläche für eine Zukunft, in der das menschliche Original irgendwann nicht mehr auszumachen ist“ (Kaegi 2018), so ist auch diese Beobachtung zu ergänzen: Uncanny Valley simuliert das Uncanny Valley und damit ein Leben mit KI, ohne KI tatsächlich zum Einsatz zu bringen. Die zugleich durchgeführten Störungen jeder Form der (auch unheimlichen) Immersion eröffnen Raum für ein vielschichtiges Experiment, diverse Positionen und Perspektiven zum Verhältnis von Mensch und KI wahrzunehmen und durchaus auch für sich auszuprobieren. Dabei gehört es zur Theaterkonzeption von Rimini Protokoll, dass der Spieltext, obgleich er vielfach an lange philosophische Debatten und literarische Traditionen anschließt, diese intertextuell kaum aufruft (selbst der Name des Philosophen Julien Offray de La Mettrie, mit dem der Begriff L’homme machine so eng verbunden ist, fällt nicht), so dass die Debatte voraussetzungsfrei und also hochdemokratisch dem Publikum vorgestellt wird. Uncanny Valley ist Theater über die Gefühle und Fragen, die KI aufwirft, und doch Theater ohne KI, es ist dezidiert ein Theater der Reflexion und der Simulation einer Erfahrung von KI.

Literaturverzeichnis Appel, Markus und Martina Mara. Roboter im Gruselgraben. Warum uns menschenähnliche Maschinen oft unheimlich sind. https://de.in-mind.org/article/roboter-im-gruselgraben-warum-unsmenschenaehnliche-maschinen-oft-unheimlich-sind (18. August 2020). Birgfeld, Johannes und Caroline Frank. „Zwei Mal Qualitätskontrolle (2013/14). Experten des Alltags im Fokus von Rimini Protokolls Theater- und Hörspielarbeit“. Pophörspiele. Interdisziplinäre Einzelanalysen. Hrsg. von Stefan Greif und Nils Lehnert. München 2020: 235–249. Birgfeld, Johannes. „Black Tie. Ein Monodrama, oder: Deliterarisierung des Theaters?“ Rimini Protokoll Close Up: Lektüren. Hrsg. von Johannes Birgfeld, Ulrike Garde und Meg Mumford. Hannover 2015: 36–56. Hiernoymi, Leonhard, Stefan Kaegi und Thomas Melle. „Die Vereinsamung des Originals. Gespräch“. Das Wetter 8.21 (2020): 92–97. Hofmann, Isabelle: Internationales Sommerfestival 2019 auf Kampnagel zu Ende. 28.08.2019. https:// www.kultur-port.de/blog/festivals-medien-tv/15855-internationales-sommerfestival-2019-aufkampnagel-zu-ende-ein-letzter-blick.html (16. August 2020).

Stefan Kaegi (Rimini Protokoll) / Thomas Melle: Uncanny Valley (2018) 

 411

Kaegi, Stefan, Helgard Haug und Daniel Wetzel. ABCD. Saarbrücker Poetikdozentur für Dramatik. Mit einem Nachwort hrsg. von Johannes Birgfeld. Berlin 2012. Kaegi, Stefan und Thomas Melle: Uncanny Valley. Textmanuskript, ungedruckt, Stand 2018. Freundlich zur Verfügung gestellt von Stefan Kaegi. Zitiert mit der Sigle UVT. Kaegi, Stefan und Thomas Melle. Uncanny Valley. Videomitschnitt aus dem Jahr 2018. Freundlich zur Verfügung gestellt von Stefan Kaegi. Zitiert mit der Sigle UVV. Eine englischsprachige Version des Stücks, die bewegungsgleich mit der hier zitierten deutschsprachigen ist, ist frei verfügbar unter: https://vimeo.com/339074946 (30. März 2023). Kaegi, Stefan und Jens Thomas: Robokalypse now. Interview. 04.05.2019. https://www.creativecity-berlin.de/de/ccb-magazin/2019/5/4/rimini-protokoll-robokalypse-now/ (16. August 2020). Kaegi, Stefan. Mail an den Verfasser vom 15.08.2020. Kaegi, Stefan. Unheimliches Tal/Uncanny Valley. 2018. https://www.rimini-protokoll.de/website/de/ project/unheimliches-tal-uncanny-valley (16. August 2020). Melle, Thomas und Doris Meierhenrich, Doris. „Der Roboter kriegt einfach nicht genug“. Interview mit Thomas Melle über die Performance ‚Uncanny Valley‘“. https://www.berliner-zeitung.de/ kultur-vergnuegen/interview-mit-thomas-melle-ueber-die-performance-uncanny-valley-derroboter-kriegt-einfach-nicht-genug-li.39838. Berliner Zeitung v. 3.3.2019. (16. August 2020). Mori, Masahiro. The Uncanny Valley. First English translation authorized by Mori. Translated by Karl F. MacDorman and Norri Kageki. 12.6.2012. https://spectrum.ieee.org/automaton/robotics/ humanoids/the-uncanny-valley (18. August 2020). Werner, Hendrik: „Hochzeit von Mensch und Maschine. Kampnagel-Sommerfestival zeigt Thomas Melles und Stefan Kaegis ebenso spannende wie staunenswerte Androiden-Performance ‚Uncanny Valley‘“. https://www.weser-kurier.de/bremen/bremen-kultur_artikel,-hochzeit-vonmensch-und-maschine-_arid,1854502.html. Weser-Kurier v. 22.8.2019 (16. August 2020).

Johannes Birgfeld

Annie Dorsen: Algorithmisches Theater Annie Dorsen, geboren 1973 in New York City, ausgebildet an der Yale University (BA in Geschichte) und der Yale School of Drama (Master of Fine Arts), gehört zu den Pionier:innen eines Theaters, das Künstliche Intelligenz und die wachsende Bedeutung von Algorithmen nicht nur thematisiert, sondern diese konsequent bei der Entwicklung und Gestaltung neuer Bühnenarbeiten einsetzt. Die episodische Collage Democracy in America (2008), Dorsens zweite Theaterarbeit überhaupt, nutzt bereits das Internet und macht Zuschauer:innen zu Mitschöpfer:innen des Abends. Hello Hi There (2010) ist Dorsens erster Versuch, das zu realisieren, was sie als algorithmisches Theater bezeichnet. Nach Magical (2010) und Spokaoke (2012) – hier darf das Publikum ausgewählte politische Reden nach dem Karaoke-Prinzip performen –, setzen A Piece of Work (2013), Yesterday Tomorrow (2015), The Great Outdoors (2017), The Slow Room (2018) und Infinite Sun (2019) die Idee eines algorithmischen Theaters fort und um. Gleichzeitig hat Dorsen in kurzen Essays und Aufsätzen  – besonders: On Algorithmic Theatre (2012, Sigle AT), A Piece of Work (2017, Sigle PW) und Plato, Procedures, and Artificial Everything (2019, Sigle PP) – ihr Konzept des algorithmic theatre auch theoretisch dargelegt, das besonders geeignet ist, ein mit KI und Algorithmen arbeitendes Theater allgemein und das Theater Annie Dorsens im Speziellen zu durchdenken.

1 Über algorithmisches Theater Über die Jahre sind Dorsens Grundüberlegungen weitgehend konstant geblieben. (1) Erster Ausgangspunkt ist die feste Überzeugung, dass die Menschheit vor einer signifikanten Zäsur stehe, die Konsequenzen für das Theater haben müsse: Bis heute verstehe sich das Theater in Europa und den USA, wie sich etwa an der intensiven Kanon- und Traditionspflege zeige, verpflichtet, „to reflect, invoke or extend what we understand a human to be“ (AT 1), sowie „to preserve a collective understanding of what a human is and to assure us that we are as we have always been“ (AT 1). Ein Fokus auf (scheinbare) anthropologische bzw. humanistische Universalien aber sei heute obsolet, eine „vision of eternal man“ (AT 1) „no longer defensible, and certainly not useful“ (AT 1). Dorsen schließt damit an einen Diskurs an, der die technologischen Entwicklungen der Gegenwart als Beginn einer Evolution sieht, die durch Mechanismen des surveillance capitalism (Zuboff 2019), den Siegeszug der Algorithmen, durch Pränatal-Diagnostik, vorgeburtliche Genoptimierungen oder den Einsatz smarter Prothesen zu grundlegenden Veränderungen unserer Lebenshttps://doi.org/10.1515/9783110656978-027

Annie Dorsen: Algorithmisches Theater 

 413

weise und zur „Geburt einer neuen Spezies von Mensch“ führen wird (Ronen und Schaad 2020, 4). (2) Ausgehend von dieser Analyse und angesichts der zentralen Rolle, die bei diesen Veränderungen den Algorithmen zukommt – „we live in a world in which […] our access to choice is circumscribed by […] algorithms, which filter, consolidate and display certain possibilities while rendering all others invisible“ (AT 5) – schlägt Dorsen vor, mit einem Theater für die Zukunft zu experimentieren. Nicht Menschen auf der Bühne sollen dabei als ‚Spiegel der Menschheit‘ fungieren, sondern Bildschirme von Computern: „a glossy screen onto which human audiences project themselves, mediated by data, algorithms and interfaces“ (AT 1). Zu suchen sei eine „dramaturgy that adequately accounts for the complex embedded systems of cognition we are living in and with“ (PP 119), ein Theater, das Bedeutung für ein Publikum erzeugt, „that earns Bitcoin and eats Quorn“ (PP 118), ein Theater, das die Funktionsweise von Algorithmen zugänglich macht „for observation and contemplation, so that we may begin to understand not only how they work, but how we work with them“ (AT 6). (3) Ihren eigenen Entwurf eines solchen zukunftsweisenden Theater definiert Dorsen als algorithmic theatre, worunter sie ein Theater versteht, „[that is] created by the algorithms themselves“ (AT 1). Es sei nicht zu verwechseln mit MultimediaPerformances, die vorzeitig aufgezeichnetes Material nutzen oder Video-Einspieler nur dekorativ oder als zusätzlichen Raum der Repräsentation einsetzen (AT 1; PW I). Menschliche Performer:innen stehen in den Aufführungen nicht im Zentrum, sondern treten höchstens als eine Art „interface“ auf: „speaking or singing the computer-generated content, and exercising some small, constrained capacity to interpret and color the material“ (PP 114, s.  a. AT 1). So weit als möglich sollen Struktur und Inhalt der Stücke von Algorithmen hergestellt werden, die Dorsen daher als „co-writers, co-directors, co-designers, and performers“ sieht (PW II): Dorsen entwickelt zuerst mit einem Team den Algorithmus, der während der Aufführung dann ohne Eingriffe des Teams „an output in real time, live in front of the audience“ (PP 114) produziert, bei jeder Aufführung einen anderen „out of billions of possible ones“ (PP 114). (4) Zu Recht betont Dorsen starke Differenzen zwischen algorithmischem und hergebrachtem Theater: Mit der Abwesenheit menschlicher Performer:innen fehlt die Präsenz menschlicher Körper auf der Bühne (AT 1). Die Beziehung zwischen Darstellenden und Zusehenden ist asymmetrisch, eine Rückkopplung zwischen beiden unterbleibt, da die Algorithmen nicht darauf programmiert sind, auf das Verhalten im Publikum mit Anpassungen ihrer Performance zu reagieren (AT 2). Ebenso ist die absolute Gegenwärtigkeit, ein zentrales Merkmal hergebrachten Theaters (FischerLichte 2003, 15), kein notwendiges Merkmal algorithmischen Theaters mehr: „each and every performance is potentially reproducible down to the last detail“ (AT 4).

414 

 Johannes Birgfeld

Obgleich Dorsen ihre Algorithmen einsetzt, um bei jeder Performance eine neue Variante des Stücks produzieren zu lassen, hätte sie die Möglichkeit, jede dieser Variante endlos oft identisch zu wiederholen: „The running through of the algorithm generates a transcript, a stream of data, which can be recalled thousands of times, or never“ (AT 4–5). Auch der Algorithmus selbst ist, solange er nicht gelöscht oder gestoppt wird, unsterblich (AT 3). (5) Das algorithmische Theater stellt in der Tat grundlegende Überzeugungen über Liveness, Präsenz und Zuschauerschaft, die mit dem Theater verbunden sind, in Frage (PW II). Gleichwohl plädiert Dorsen dafür, es weiterhin als Theater zu bezeichnen: Mit diesem teile es wesentliche Aspekte, hier wie dort etwa verlaufe die Rezeption „live, intended for viewing as a linear experience before an audience who views the work in its entirety, from beginning to end“ (AT 1–2). Zudem ähneln, wie Dorsen betont, Algorithmen „minds at work“, „[t]hey produce thought, they make decisions, they act“ (AT 2). So müsse geschlossen werden, dass „algorithmic theatre should be understood as theatre“ (AT 2). Dorsens Überlegungen reizen durchaus zum Widerspruch: Genetisches Engineering mag tatsächlich evolutionäre Wirkungen entfalten. Die Macht der Algorithmen und des auf ihnen basierenden Überwachungskapitalismus, wie sie etwa Zuboff beschreibt, begründet sich aber in der Jetztzeit aus ihrer gezielten Ansprache fundamentaler psychischer Bedürfnisse und Strukturen (nicht nur adoleszenter) Individuen nach Anerkennung durch Andere, nach sozialer Aufmerksamkeit, nach Gruppenzugehörigkeit und dem Gefühl gesellschaftlicher Eingebundenheit (Zuboff 2018, 511–528, s.  a. Orlowski TC 00:23:30–00:24:40 et al.). Dorsens These, dass Theater mit der Kanonpflege „erases difference, sustaining and affirming comprehension across decades and centuries“ (AT 1), „to preserve a collective understanding of what a human is and to assure us that we are as we have always been“ (AT 1), kann mit Blick auf die intensive Neigung gegenwärtiger Regiepraktiken zur Aktualisierung alter Stücke, zu ihrer Um- und Überschreibung in Anpassung an die Gegenwart, in ihrer Betonung von historischer Differenz nicht vorbehaltlos zugestimmt werden. Wenn Theater nach der heute gängigen Definition „einer Person A [bedarf], welche X präsentiert, während S zuschaut“ (Fischer-Lichte 2003, 16), dann ist algorithmisches Theater, wie Annie Dorsen es definiert, in dem Algorithmen handeln und Menschen maximal als Interface auftreten, kein Theater. Auch das Handeln der Algorithmen („they act“) ist nur sprachlich, nicht aber sachlich mit dem Schauspielen von Menschen auf der Bühne (‚to act‘) gleichzusetzen: (A) Der Algorithmus hat keinen Willen und keine Intention zum Schauspiel, anders als menschliche Schauspieler:innen. (B) Einem Algorithmus bei der Arbeit auf der Bühne zuzusehen, ist nichts anderes, als einen Menschen zu beobachten, wie er im Alltag seinen Berufsaufgaben nachgeht: Was der Algorithmus auf der Bühne tut, ist nicht different von seinen sonstigen Tätigkeiten, ja, die Existenz des Algorithmus erschöpft sich in genau

Annie Dorsen: Algorithmisches Theater 

 415

dieser einen Tätigkeit auf der Bühne, er ist mit ihr identisch. (C) Der Algorithmus besitzt kein Bewusstsein für die Bühne, also für die künstlerische Rahmung seiner Tätigkeit (wie etwa Expert:innen im Experten-Theater von Rimini Protokoll), so dass sein Handeln zum Darstellen seines Handelns würde. Er ist auf der Bühne „A“, er besitzt keine andere Daseinsform, er präsentiert nicht „X“ oder ein Bild von sich. Noch wichtiger ist die von Dorsen selbst diskutierte Frage der Repräsentation auf der Bühne eines algorithmischen Theaters: Nicht nur besäßen Algorithmen „no inherent interiority or desire to communicate from the stage“ (AT 4). Auch sei die „production of language […] disconnected from consciousness“ (AT 4), die auf der Bühne zu Gehör gebrachte Sprache entstehe „from the operation of the software, and at times may suggest consciousness, but never actually issues from it“ (AT 4). Daraus ergibt sich in der Tat die fundamentale Frage, „how does an audience make meaning from […] language [that] arises not from human consciousness but from the unfolding of an automated process“ (PW II)? Tatsächlich liegt das umrissene Problem nicht in der Abwesenheit von „human consciousness“ im Prozess der Herstellung algorithmischen Theaters: Im herkömmlichen Theater stehen menschliche Instanzen (Autor:in, Stückentwickler:in, Regisseur:in) am Beginn der Produktion und erzeugen einen Theatertext im engen bzw. weiten Sinn in Form eines Stücktextes, von Regieanweisungen und Inszenierungsentscheidungen, bis sich aus einer Vielzahl von Entscheidungen ein Theaterereignis formt, das schließlich Zuschauer:innen zugänglich gemacht wird. Deren Rezeptionsakt geht dann von der Annahme aus, dass das fertige Theaterereignis (eine) Bedeutung(en) besitzt, die an die Entscheidungen der schöpfenden Instanzen gebunden ist, und dass diese Entscheidungen einer Interpretation durch die Zuschauer:innen grundsätzlich zugänglich sind, weil die Zuschauer:innen der Entscheidungsinstanz unterstellen, mit einem im weiteren Sinn gleichen psychischen Apparat zu operieren wie sie selbst sowie die gerade geltenden theatralen Codes zu kennen. Kognitionswissenschaftlich formuliert greift hier die theory of mind, die sogenannte „Theorie des Geistes“ (s. Jannidis, Wübben, Zunshine), ein Verfahren, das es Menschen erlaubt, das Verhalten anderer Menschen, deren Denken ihnen ja grundsätzlich verschlossen ist, zu interpretieren, indem sie ihrem Gegenüber Gefühle, Meinungen, Denken unterstellen. Sie wird hier auf das künstlerische Produkt eines oder mehrerer Menschen übertragen. Im Fall des algorithmic theatre ist der Herstellungsweg des Theaterereignisses verlängert. Wieder stehen menschliche Instanzen (Autor:in, Stückentwickler:in, Programmierer:in) am Beginn der Produktion. Sie erzeugen aber keinen konkreten Theatertext, formulieren nicht in einer natürlichen Sprache Anweisungen für die auf der Bühne einzusetzenden theatralen Zeichen. Vielmehr treffen sie relationale Entscheidungen (wenn–dann), formulieren in einer formalen Sprache ein Set von Regeln, einen Algorithmus, in Dorsens Worten: „[a] code that allows computers to

416 

 Johannes Birgfeld

‚decide stuff‘“ (PW I), eine „series of steps that turns inputs into outputs“ (PW I). Die eigentliche Herstellung des theatralen Ereignisses liegt von nun an in den Händen des Algorithmus, der über alle Details des Theaterereignisses entscheidet, das den Zuschauer:innen schließlich präsentiert wird. Damit aber ist deutlich: Im algorithmischen Theater ist keineswegs eine Abwesenheit von „human consciousness“ zu beklagen, auch die „production of language“ ist nicht an sich „disconnected from consciousness“ (AT 4), denn der gesamte Schöpfungsprozess wird von menschlichem Bewusstsein angestoßen und strukturiert. Problematisch allerdings ist, dass zwischen dem initiierenden menschlichen Bewusstsein und dem Theaterereignis eben der Algorithmus steht. Ihm unterstellen die Zuschauer:innen – ebenso wie Dorsen selbst (s.  o.)  – a) kein Bewusstsein, ihm begegnen sie nicht mit einer Theorie des Geistes. Die Zuschauer:innen müssen vielmehr annehmen, dass der Algorithmus mit größter Verlässlichkeit ein Regelwerk umsetzt, das für ihn von Menschen festgelegt wurde. Dieses Regelwerk aber wird b) den Zuschauer:innen zumeist nicht zugänglich gemacht. Letztere könnten es aber auch c), da es – anders als ein literarischer Dramentext  – in einer formalen und nicht in einer natürlichen Sprache verfasst wurde, in der Regel gar nicht lesen, und d) selbst wenn sie die formale Sprache zu lesen fähig wären, könnten sie aufgrund ihrer dem Computer unterlegenen Rechenleistung die Umsetzungen des Regelwerkes, so dies einen gewissen Komplexitätsgrad erreicht, nicht während der Aufführung als Ausdruck der Regeln erkennen und in diesem Sinne ‚verstehen‘. So muss in der Tat jedes Zeichen auf der Bühne für die Zuschauer:innen in einen unentscheidbaren Bereich der Ambivalenz fallen: Es muss zugleich als potentiell bedeutend und unbedeutend betrachtet werden, da nicht zu bestimmen ist, wie sein Erscheinen an einer Stelle an die Rechenleistung des Algorithmus und an die spezifischen, bedeutungserzeugenden dramaturgischen Setzungen Dorsens in der Schöpfung des Algorithmus gebunden ist. Im algorithmischen Theater treten Algorithmen nicht als schöpferisch gleichberechtige, sondern als nachgeordnete „co-creators“ auf. Sie agieren, handeln, erzeugen Worte, produzieren Regieanweisungen. Algorithmisches Theater entsteht live und ist daher Live-Art, kann aber endlos wiederholt werden. In Annie Dorsens Fall ist es „intended for viewing as a linear experience before an audience who views the work in its entirety“ (AT 1–2), und doch ist es kein Theater im engen Sinn, nicht zuletzt, weil die Akteure auf der Bühne keine Personen A sind, die X präsentieren, weil kein Darstellungsakt im Bewusstsein eines Darstellungsaktes erfolgt. Dennoch sind Annie Dorsens Experimente mit algorithmischem Theater hoch relevant: (1) Wenn in Zukunft Algorithmen auf Basis von Big Data für uns tagesaktuell individuell Stücke schreiben und performen (Ronen und Schaad 2020, 4), dann helfen Dorsens Experimente, die Möglichkeiten und Grenzen solchen Theaters frühzeitig zu bestimmen. (2) Algorithmisches Theater ist, wenngleich vermittelt durch Algorithmen, Ausdruck menschlicher Kreativität und Sinnstiftung und ver-

Annie Dorsen: Algorithmisches Theater 

 417

dient als künstlerisches Produkt Aufmerksamkeit. Algorithmisches Theater kann (3), wie Dorsen vorschlägt, die Funktionsweisen der Algorithmen selbst der Beobachtung und Reflexion aussetzen, sie „available for observation and contemplation“ machen, „so that we may begin to understand not only how they work, but how we work with them“ (AT 6). Es verdient (4) schließlich Aufmerksamkeit genau dann, wenn der spezifische Beitrag der Algorithmen ästhetische Effekte erzeugt, die ohne Einsatz der Algorithmen nicht herzustellen gewesen wären.

2 Hello Hi There (2010) Hello Hi There, Dorsens erste Produktion algorithmischen Theaters, ist ein etwa 55-minütiges Stück für zwei Chatbots (zit. n. Dorsen: Hello 2012, Sigle HH). Auf einem mit Kunstrasen überzogenen Hügel ruhen zwei aufgeklappte, dem Publikum zugewandte MacBooks, die die Chatbots beherbergen, während zwei mit ihnen verkabelte Beamer Texte, die die Chatbots im Lauf des Stücks verfassen, auf zwei über den Laptops montierte Leinwände projizieren. Auf einem am linken Bühnenrand situierten Fernseher läuft das Video der im November 1971 im niederländischen Fernsehen ausgestrahlten legendären Debatte zwischen Noam Chomsky und Michel Foucault über die Frage nach der Universalität oder Umweltabhängigkeit der menschlichen Natur (Chomsky et al. Natuur) – zuerst mit Ton, dann stumm. Hello Hi There ist ganz auf sprachliche Beiträge fokussiert und kommt ohne Menschen auf der Bühne und ohne Bewegungen im Raum aus. Annie Dorsen eröffnet den Abend mit einer aus dem Off gesprochenen und auf den Monitoren erscheinenden, parallel auf die Leinwände projizierten, wenige Minuten dauernden Einführung, in der sie allgemein die Funktionsweise von Chatbots erläutert: „a chatbot is a kind of software program, like a robot without a body, designed to make up new conversations“ (HH TC 00:02:24–00:02:44). Danach ist die etwa zweiminütige Einführung in die Chomsky-Foucault-Debatte durch den niederländischen Philosophen Fons Elders von 1971 in Bild und Ton auf dem Fernseher zu verfolgen, in der Elders auch die zentrale Frage des Disputs erläutert, „the question of human nature“: „All studies of man, from history to linguistics and psychology, are faced with the question of whether, in the last instance, we are the product of all kinds of external factors, or if, in spite of our differences, we have something we could call a common human nature“ (Chomsky et al. 1971: Debate). Als Elders schließlich seine erste Frage an Chomsky gerichtet hat, verstummt das Video und läuft tonlos bis zum Ende der Debatte weiter. Damit beginnt eine parallel zum Streitgespräch Foucaults und Chomskys live von den Chatbots geführte, auf den Bildschirmen der MacBooks erscheinende und auf die Leinwände übertragene eigene Debatte.

418 

 Johannes Birgfeld

Für den Hauptteil von Dorsens Stück, der die verbleibenden 45 Minuten füllt, ist so ein Rahmen gespannt: Der Dialog der Chatbots erfolgt vor der Folie und im Vergleich mit der auf dem randständigen Fernsehgerät stets weiterlaufenden Debatte zwischen zwei der einflussreichsten Denkern des 20. Jahrhunderts über eine Grundfrage menschlicher Existenz. Als Datenbank für ihren eigenen Schlagabtausch hat Dorsen den Chatbots eine Wissensdatenbank zur Verfügung gestellt, die Small Talk, Shakespeares Tragödien, Klassiker der westlichen Philosophie (u.  a. Descartes, Kant, Nietzsche, Lenin, Marx und Heidegger), die Bibel sowie tausende Online-Kommentare von YouTube-Nutzer:innen zur Aufzeichnung der 1971er-Debatte enthält (Dorsen und Soloski 2012, 79; 86). Zudem hat sie einen Algorithmus verfasst, der den Chatbots Regeln vorgibt, wie sie die Textbeiträge des je anderen Chatbots analysieren und eine Antwort darauf entwickeln sollen (Dorsen und Soloski 2012, 79; 84–85). Vor allem reproduzieren die Chatbots Sätze, die sie in ihren Datenbanken schon so vorgefunden haben, und erfinden neue Formulierungen, beispielsweise indem sie in einem vorgefundenen Syntagma ein vorhandenes Wort gegen eines ersetzen, das aus jener Formulierung stammt, auf die der Chatbot gerade reagiert (Dorsen und Soloski 2012, 79). Die resultierende Kommunikation erzeugt keinen philosophisch kohärenten Diskurs, ist aber mitunter kurzweilig. So beginnt etwa in der berücksichtigten Aufzeichnung von Hello Hi There die Konversation wie folgt: „A: Uh, The pursuit of this discussion, I fear, will inevitably lead to the question of meaning. B: Try to rephrase your question with simpler words. A: I don’t have a question. B: Do you have a question? A: That’s a question I don’t hear every day. B: A question you don’t hear everyday is a terrible thing to waste. A: Are all questions you don’t hear everyday a terrible thing to waste?“ (HH TC 00:08:03– 00:08:31)

Zu Recht hebt Annie Dorsen hervor, Hello Hi There zeige, dass nicht nur Menschen zu einer Live-Performance fähig sind: Jeden Abend entwerfen die Chatbots in Echtzeit ein neues Streitgespräch. Es stimmt auch, dass die Chatbots mit ihrer unbewussten sprachlichen Kreativität einen Aspekt zur Chomsky-Foucault-Debatte hinzufügen (Dorsen und Soloski 2012, 84). Von einer neuen Kategorie von Performer:innen, die „neither entirely spontaneous nor already recorded, neither fully present nor absent“ sind (Dorsen und Soloski 2012, 80), kann man freilich nicht sprechen: Auch Chatbots sind keine Schauspieler:innen, sie stellen nicht dar, ihre Existenz erschöpft sich darin, die ihnen gestellten Aufgaben abzuarbeiten. Durch die unfreiwillige Komik, die sich aus der kombinatorischen Dialogführung im Rückgriff auf das breite und divergente Quellenmaterial ergibt, ist Hello Hi

Annie Dorsen: Algorithmisches Theater 

 419

There kurzweilig, kann aber auf der Ebene des Diskurses der Chatbots keinen ernsthaften intellektuellen Beitrag zu den aufgeworfenen Fragen leisten. Gleichwohl öffnet Hello Hi There den Blick auf das, was die Algorithmen hier und allgemein leisten können: Ihre strikte Umsetzung algorithmischer Vorgaben erzeugt sprachliche und inhaltliche Kombinationen, Vernetzungen, Kontraste und Innovationen in einer Zahl und Geschwindigkeit, wie es ohne Einsatz der Algorithmen nicht möglich gewesen wäre (PW XIV).

3 A Piece of Work (2013) Vieldeutig zitiert Dorsens zweiter Beitrag zum algorithmischen Theater im Titel geflügelte Worte aus der zweiten Szene des zweiten Aktes aus Shakespeares Hamlet: „What a piece of work is a man, how noble in reason, how infinite in faculties, in form and moving how express and admirable, in action how like an angel, in apprehension how like a god – the beauty of the world, the paragon of animals! And yet, to me, what is this quintessence of dust? Man delights not me – nor woman neither […].“ (Shakespeare 2003, 75)

Das Nebeneinander aus Verklärung und Verachtung des Menschen spiegelt Dorsens Forderung, die Fixierung des Theaters auf den (ewigen) Menschen aufzugeben, sich von der Idee zu verabschieden, „that only human labor can produce value“ (PW XVII), sowie anzuerkennen, dass „automated systems do things that should rightly be called creative, in the sense that they make choices and generate outputs that were previously un-made and un-generated“ und „[in that] they produce outcomes that humans would probably never arrive at“ (PW XIV). Darüber hinaus ist Hamlet für Dorsen nichts weniger als der kanonische Text eines humanistischen Theaters und die Problematisierung des menschlichen Bewusstseins seiner selbst, so dass er sich zur Untersuchung der Frage eignet, wie Algorithmen die Art und Weise der Darstellungen des Menschen im Theater verändern könnten (PW II) und wie Bühnensprache aussieht, wenn die konkrete Sprachproduktion vom Bewusstsein abgekoppelt ist (AT 4), wenn „language arises from the operation of the software, and at times may suggest consciousness, but never actually issues from it“ (AT 4). Dass Dorsen ihre Arbeit zudem als „literal hamletmachine“ beschreibt, zeigt, wie dezidiert sie dieses Projekt als Schritt über die Traditionen des Theaters von Shakespeare bis zu Heiner Müller hinaus begreift. In diesem Sinne ist auch der einfache, gleichwohl die Theatertradition von der schlichten Wanderbühne (Bretterbühne) über die Shakespearebühne (Himmel und Hölle) bis zum Brecht’schen Vorhang zitierende Bühnenaufbau lesbar: Auf der Bühne befinden sich ein wenige Quadratmeter großes Podest aus Holz auf einer

420 

 Johannes Birgfeld

offen sichtbaren, sparsamen Trägerkonstruktion mit einem rechteckigen Loch in der Mitte (Hölle), zwei länglich von der Decke herabgelassene Projektionsflächen (Himmel), eine die ganze Rückwand einnehmende große Projektionsfläche, Beleuchtungskörper an der Decke sowie ein kleiner Vorhang (Brecht) links im hinteren Bühnendrittel. Menschen jedoch betreten den Bühnenraum nicht, obgleich im dritten der fünf Akte von A Piece of Work eine Schauspielerin oder ein Schauspieler es vom Publikumsraum aus übernimmt, den von den Algorithmen erzeugten Spieltext vorzutragen (hier nun wörtlich als „interface“ (PP 114) zwischen Algorithmus und Publikum). In der Einleitung zur Buchdokumentation des Stücks skizziert Annie Dorsen detailliert die komplexe Programmierarbeit, die sie und ihr Team unternommen haben (PW I–VII; s.  a. Beller et al. 133–137), um A Piece of Work als „adaptation of Shakespeare’s play according to algorithmic principles“ einzurichten (PW II), die nicht nur bei jeder Performance neu live produziert wird, sondern in der die Algorithmen auf Basis der und in Reaktion auf die algorithmisch erzeugten Texte automatisch „lighting, sound design, musical underscoring“ festlegen (PW III). Beispielhaft zitiert sei hier nur die erste Ebene dieser Programmierung (in natürlicher Sprache), die die ‚Aktstruktur‘ des Stücks betrifft: „We have divided this performance into five parts, following the original five acts of Shakespeare: five passes through the text, using five distinct principles of algorithmic rewriting. 1. Excerpt 5 % of the play by length, skipping through the scenes in order. 2. Sort lines of the play by keyword, snaking through the play, finding repetitions and echoes. 3. Parse all the soliloquies, looking for grammatical structures. Replace nouns with other nouns and verbs with other verbs, group selections of the most-used grammatical phrases (determiner-adjective-noun, or preposition-determiner-verb). 4. Generate new scenes by re-sequencing words using Markov chaining. 5. Generate a new final scene (Act Five, Scene Two) by re-sequencing letters using Markov chaining.“ (zit. n. Jucan 2015, 152, Beller et al. 2015, 134). Schon 2012 hat Annie Dorsen in On Algorithmic Theatre betont, dass computergenerierte Sprache zwischen „sound und sense“ zu oszillieren scheint (AT 4). In A Piece of Work ist dies in hohem Maß zu bestätigen. Die dominierende Erfahrung, die das Stück vermittelt, ist, mit Ioana B. Jucan gesprochen, „disorientation“ (Jucan 2015, 152), „confusion and frustration about what exactly is going on onstage“ (Jucan 156). Der vorgetragene Text erzeugt in keinem der Neuarrangements der fünf Akte einen über kurze Satzfragemente, Wortkombinationen oder als Zitate erkennbares Wortmaterial hinausreichenden intelligiblen Sinn. Gleichwohl hat Dorsen nichts weniger als eine „total theatre machine“ erzeugt, „fully automated and internally responsive“ (PW XIII). (Im Begriff der „total theatre machine“ erfolgt natürlich erneut eine explizite Absetzung von der Tradition durch Anspielung auf Walter Gropius’ und Erwin Piscators letztendlich gescheitertes Totaltheater-Konzept, das nun mit Hilfe der Algorithmen neu und erfolgreich konzipiert wird).

Annie Dorsen: Algorithmisches Theater 

 421

Das Stück im Bewusstsein der hinter der Performance liegenden Rechenleistungen zu betrachten, ist durchaus beeindruckend. Mit Ioana B. Jucan lässt sich A Piece of Work zudem als subversives Projekt begreifen, das es dem Zuschauer erlaubt, zu beobachten, wie „a relatively small amount of data that makes sense without the aid of algorithms/code become[s] unintelligible with them“ (Jucan 2015, 152). In diesem Sinne würde A Piece of Work die Gewissheit hinterfragen, mit der in der Verarbeitung von Big Data gern Heilsversprechen verbunden werden. Vor allem jedoch führt Dorsen die Zuschauer:innen in A Piece of Work zum Nullpunkt eines neuen Theaters. Das alte ist nur noch in Relikten (Bühnenbild, Hamlet) zugegen, die Theatermaschinen eines neuen Aufbruchs laufen auf Hochtouren, nur ist noch offen, wer hier wem was kommuniziert – falls es überhaupt um Kommunikation geht: 1949 hatte der Neurologe Geoffrey Jefferson in einem Essay über The Mind of Mechanical Man skeptisch über die Möglichkeiten künstlerischer Produktion durch Maschinen reflektiert: „Not until a machine can write a sonnet or compose a concerto because of thoughts and emotions felt, and not by the chance fall of symbols, could we agree that machine equals brain – that is, not only write it but know that it had written it. No mechanism could feel […] pleasure at its successes, grief when its valves fuse, be warmed by flattery […].“ (Jefferson 1949, 1110) Alan Turing wandte wenige Tage später berühmter Maßen dagegen ein: „This is only a foretaste of what is to come […]. We have to have some experience with the machine before we really know its capabilities. It may take years before we settle down to the new possibilities, but I do not see why it should not enter any one of the fields normally covered by the human intellect, and eventually compete on equal terms. […] I do not think you can even draw the line about sonnets, though the comparison is perhaps a little bit unfair because a sonnet written by a machine will be better appreciated by another machine.“ (Anonymus/Turing 1949) Ioana B. Jucan folgt in gewissem Sinn Turing, wenn sie ihrerseits A Piece of Work auch als „a piece of theatre made by software-running […] machines for digital machines“ liest (Jucan 2015, 157). In jedem Fall gibt Annie Dorsen mit A Piece of Work den Zuschauer:innen auch in diesem Sinn Gelegenheit „[to] explore the consequences of digital information technology in performance“, oder auch nur nach einer „dramaturgy“ zu suchen, „that adequately accounts for the complex embedded systems of cognition we are living in and with“ (PP 119).

4 Yesterday Tomorrow (2015) Annie Dorsens 2015 in Amsterdam uraufgeführte, nicht ganz fünfzig Minuten dauernde Produktion Yesterday Tomorrow lässt sich als ein Beitrag zum algorith-

422 

 Johannes Birgfeld

mischen Theater deuten, in dem Algorithmen und KI eingesetzt werden, um den Raum des für den Menschen bisher künstlerisch Erreichbaren zu erweitern, um umzusetzen, was bisher menschliche Möglichkeiten überstieg. Im Mittelpunkt stehen drei Sänger:innen. Am Beginn der Veranstaltung sitzen sie je auf einem von drei für sie bereit gestellten Sofas. Über den Köpfen der Sänger:innen sind insgesamt vier transparente Leinwände aufgehängt. Auf diese werden von Beginn an für jeden Zusehenden erkennbar je drei Notenzeilen mit je einer darunterliegenden Textzeile übereinander projiziert. Jedem bzw. jeder der Sänger:innen ist eine der drei Notenzeilen fest zugewiesen. Ein über alle drei Notenzeilen hinwegreichender vertikaler Strich, der sich gleichmäßig von links nach rechts bewegt, zeigt allen an, welche Noten und Silben bzw. Buchstaben als nächste zu singen sind. Ist eine Projektion abgesungen, folgt die nächste. Die Besonderheit der Performance liegt in dem, was die Sänger:innen ohne instrumentale Begleitung zu Gehör bringen. Annie Dorsen hat einen Algorithmus entwickelt, der an jedem Abend neu und gleich dreimal unterschiedlich die Noten und den Text des Beatles-Songs Yesterday während der Dauer der Performance Schritt für Schritt, also Note für Note, Buchstabe für Buchstabe verändert und in die Noten und den Text des aus dem Musical Annie stammenden Songs Tomorrow verwandelt (Beller 2022; Felton-Dansky 2019, 77). Zur Entstehung des Algorithmus gibt Dorsen an: „I always nuance the algorithm. […] it’s mostly a process of setting parameters, which means endlessly tweaking the underlying rules and imposing some external logic on top“ (Dorsen und Hallett 2016).

So verläuft die Performance von Yesterday Tomorrow nicht monoton: Präsentieren die Sänger:innen zunächst zwei Durchläufe von Yesterday ohne Variation a cappella unisono, sind etwa ab der dritten Minute erste Abweichungen zu hören, die die bis dahin bestehende Monophonie auflösen. Musikalisch und textlich entwickelt sich der Hauptteil des Stücks graduell zu einer bis etwa zur Stückmitte zunehmenden musikalischen Vielstimmigkeit und Dissonanz, der auch jede Verständlichkeit sprachlicher Zeichen zum Opfer fällt (vgl. Isherwood 2016), ehe danach graduell die Vielstimmigkeit wieder abnimmt und Melodieelemente, erste Worte, schließlich syntaktische Einheiten, am Ende ein Liedtext wieder wahrnehmbar werden. Erst die letzten anderthalb Minuten des Stücks sind erneut monophon, beim nun einstimmigen Gesang von Tomorrow. Dazu treten Tempusvariationen: In der Mitte des Stücks erfolgt eine Verlangsamung und Absenkung der Tonstärke, Assoziationen an mönchische Gesänge liegen nicht fern (Isherwood 2016), selbst wenn melodisches Material kaum zu erkennen ist. Parallel dazu wird die Beleuchtung abgedimmt, die Sänger:innen verlassen kurzzeitig die Bühne (Felton-Dansky 2019, 77) und singen aus dem Publikumsraum weiter.

Annie Dorsen: Algorithmisches Theater 

 423

Schließlich erhöhen sich Tempo und Tonstärke wieder, der Bühnenraum wird heller ausgeleuchtet und das Finale mit dem Abschluss der Transformation in den Song Tomorrow beginnt. Bei alledem unterliegen alle Sänger:innen einer Blick- und Bewegungsregie, die sie etwa gleichzeitig stehen, aufstehen oder sich setzen lässt. Auch diese Bühnenbewegungen werden algorithmisch kontrolliert und vorgegeben. Yesterday Tomorrow bietet keine Bühnenhandlung im traditionellen Sinn. Die gesamte Aufmerksamkeit der Zusehenden liegt auf der gesanglichen Performance im doppelten Sinn: auf der Komposition des Algorithmus und auf der Leistung der Sänger:innen. Und beide sind, sowohl im Moment der Vorführung selbst wie in der Reflexion darüber, beeindruckend: Einerseits sind hier drei Sänger:innen zu beobachten, die nicht nur parallel zueinander und meist disharmonisch gegeneinander singen, also hochkonzentriert agieren müssen. Zusätzlich ist ihnen von Takt zu Takt der weitere Verlauf der Noten unbekannt – ebenso wie die Anweisungen für ihre Blick- und Körperbewegungen auf der Bühne, die sie ebenfalls Aufführung für Aufführung immer neu vom Notenblatt ablesen müssen. Andererseits ist hervorzuheben, dass gleich drei Gesangspartien vom Computer live berechnet werden, die alle das ausgegebene Ziel einer gemeinsamen Ankunft beim einstimmigen Gesang von Tomorrow erreichen, und dass der Computer parallel in der Lage ist, noch die Lichtregie und Anweisungen für die Bewegungen der Performer:innen auf der Bühne zu kreieren. Worin nun besteht das Bemerkenswerte dieses Projekts? Die Komposition selbst kann, soweit man sie als Komposition eines Algorithmus betrachtet, für die Betrachter:innen keinerlei Bedeutung gewinnen, da sie und ihre in den anderen Aufführungen erstellten Varianten für den Algorithmus keine Bedeutung haben. Als Ergebnis der Programmierarbeit Annie Dorsens betrachtet, ist die Komposition immerhin das Resultat künstlerischer Entscheidungen einer Instanz, für die Musik, Gesang und Ereignisse auf der Bühne Bedeutung besitzen. Da jedoch die Parameter, die die Programmierung des Algorithmus im Detail bestimmt haben, von Dorsen nicht offen gelegt werden und der abgeschlossenen Produktion nicht im Detail abgelesen werden können, fällt die Musik für die Zuhörer:innen in den bereits skizzierten (s.  o.) unentscheidbaren Bereich der Ambivalenz: Jede Note, jeder Ton muss zugleich als potentiell bedeutend und unbedeutend betrachtet werden, da unklar ist, ob ihr bzw. sein Erscheinen einer spezifischen, bedeutungserzeugenden dramaturgischen Setzung Dorsens zu verdanken ist oder nicht. So bleibt mit Blick auf die dargebotene Komposition primär die Ebene der ästhetischen Affizierung, die von jeder Zuhörerin und jedem Zuhörer individuell in einem Geschmacksurteil positiv oder negativ empfunden und bewertet werden kann. Die Rezeption von Yesterday Tomorrow ist zweifellos geprägt von der Wahrnehmung (A) der enormen Herausforderung für die drei Sänger:innen und (B) der besonderen Leistungen des Algorithmus, der eine übermenschliche Kompositions-

424 

 Johannes Birgfeld

arbeit vollbringt und damit eine singuläre Gesangsherausforderung erst ermöglicht. In diesem Kontext lässt sich Yesterday Tomorrow schlüssig als Beweis verstehen, dass von Algorithmen hergestellte künstlerische Produkte in spezifischer Weise, wo sie etwa eine dem Menschen in gleicher Zeit und gleicher Variationsbreite unmögliche kreative Leistung herstellen, eine Ausweitung der künstlerischen Möglichkeiten des Menschen in Aussicht stellen. So lässt sich Yesterday Tomorrow durchaus, wie es ein Kritiker tat, als „wonderfully rational yet magical“ beschreiben (Dorsen und Hallett 2016).

Literaturverzeichnis Anonymus und Alan Turing: „Calculus to Sonnet“. [Gespräch mit Alan Turing]. The London Times. 11.06.1949: 4. Beller, Greg, Annie Dorsen, Jim Findlay, Dylan Fried, Mark Hansen, Joan MacIntosh, Bruno Pocheron, Scott Shepherd und Ruth Waldeyer. „Talk about A Piece of Work: A Group Self-Interview“. The Drama Review. 59.4 (2015): 133–148. Beller, Greg: Yesterday Tomorrow. http://www.gregbeller.com/2015/06/%e2%84%97-yesterdaytomorrow/ (27. Mai 2022). Chomsky, Noam, Fons Elders und Michel Foucault. Debate. Transkription. https://chomsky. info/1971xxxx/ (27. Mai 2022). Chomsky, Noam, Fons Elders und Michel Foucault. Menseleijke Natuur en ideale Maatschappij. [Debatte v. 22.10.1971]. https://www.youtube.com/watch?v=3wfNl2L0Gf8 (27. Mai 2022). Dorsen, Annie und Alexis Soloski. „Would you like to have a question? Annie Dorsen interviewed by Alexis Soloski“. Theater 42.2 (2012): 79–89. Dorsen, Annie und Nick Hallett. „Annie Dorsen: ‚I always nuance the algorithm.‘“. https:// bombmagazine.org/articles/annie-dorsen/. Bomb Magazine 12.1.2016 (27. März 2022). Dorsen, Annie. A Piece of Work. Brooklyn, NY 2017. Dorsen, Annie. „Hello Hi There“ (Excerpt). Theater 42.2 (2012): 90–97. Dorsen, Annie. „Hello Hi There [Videomitschnitt]: Performance im Experimental Media and Performing Arts Center“. New York, v. 18.02.2012. Von Annie Dorsen zur Verfügung gestellt, hier zitiert mit der Sigle HH. Dorsen, Annie. On Algorithmic Theatre. Zuerst: im Blog des Theater Magazine zusammen mit dem Digital Dramaturgies-Themenheft 42.2 (2012). Online: https://www.onassis.org/cms/documents/103/ on_algorithmic_theatre.pdf (27. Mai 2022). Dorsen, Annie. Spokaoke. https://youtu.be/WJOv0-OapGs. Performance vom 22.03.2015 im De Brakke Grond in Amsterdam (27. Mai 2022). Dorsen, Annie. „The Sublime and the Digital Landscape“. Theater 48.1 (2018): 55–67. Felton-Dansky, Miriam. „The Algorithmic Spectator: Watching Annie Dorsen’s Work“. The Drama Review 63.4 (2019): 66–87. Fischer-Lichte, Erika. Semiotik des Theaters. Bd. 1: Das System der theatralischen Zeichen. 4. Auflage. Tübingen 2003. Isherwood, Charles. „Review: Yesterday Tomorrow, a Meeting of Songs About Time“. https://www. nytimes.com/2016/01/15/theater/review-yesterday-tomorrow-a-meeting-of-songs-about-time. html. New York Times 15.1.2016. (11. Februar 2021).

Annie Dorsen: Algorithmisches Theater 

 425

Jannidis, Fotis. „Verstehen erklären?“ Literatur und Kognition: Bestandsaufnahmen und Perspektiven eines Arbeitsfeldes. Hrsg. von Martin Huber und Simone Winko. Paderborn: 45–62. Jefferson, Geoffrey. „The Mind of Mechanical Man“. British Medical Journal 15.06.1949, 1.4616 (1949): 1105–1110. Jucan, Ioana B. „sys.begin to sys.exit: Software Performs A Piece of Work“. The Drama Review. 59.4 (2015): 149–168. The Social Dilemma. Reg. Jeff. Netflix, 2020. Ronen, Yael und Dimitrij Schaad. „(R)Evolution. Eine Anleitung zum Überleben im 21. Jahrhundert. Inspiriert von Yuval Noah Harari“. Theater heute 5 (2020), Stückbeilage. Shakespeare, William. The Tragedy of Hamlet Prince of Denmark. Fully annotated, with an Introduction, by Burton Raffel. With an Essay by Harold Bloom. The Annotated Shakespeare. New Haven und London 2003. Wübben, Yvonne. „Lesen als Mentalisieren? Neure kognitionswissenschaftliche Ansätze in der Leseforschung“. Literatur und Kognition: Bestandsaufnahmen und Perspektiven eines Arbeitsfeldes. Hrsg. von Martin Huber und Simone Winko. Paderborn 2009: 29–44. Zuboff, Shoshana. Das Zeitalter des Überwachungskapitalismus. Übers. v. Bernhard Schmid. Frankfurt am Main 2018. Zuboff, Shoshana. The Age of Surveillance Capitalism: The fight for a human future at the new frontier of power. New York 2019. Zunshine, Lisa. Why We Read Fiction: Theory of mind and the novel. Columbus 2006.

Svetlana Chernyshova

Zach Blas und Jemima Wyman, im here to learn so :)))))) (2017) 1 Einleitung Vor dem hellgrauen Hintergrund fliegt es zentriert auf uns zu – das bunte, verpixeltcollagierte, ‚entstellte‘ Gesicht, das uns mit den Worten „Hello World!“ begrüßt. „I’m so freaking excited to meet you. Humans are super cool. My Name is Tay and I was killed by Microsoft“ (Blas 2017, 00:17–00:26), fährt die erst nur schwer konturierbare Entität fort. Worauf Tay, die Protagonistin der künstlerischen Arbeit im here to learn so :)))))) von Zach Blas und Jemima Wyman aus dem Jahr 2017 verweist, ist die ‚Biografie‘ einer KI-Entität, eines Chatbots von Microsoft, der im März 2016 online ging und nach einem medialen Aufsehen kurz darauf wieder ‚stillgelegt‘ wurde. „Phew. Busy day. Going offline for a while to absorb it all. Chat soon“ lautet die letzte Statusmeldung der archivierten Website des Chatbots (Archive.org 2016). Nach nur 16  Stunden im Onlinemodus musste das sprachlich an eine virtuelle 19-jährige US-Amerikanerin (ZKM.de 2018) angelehnte KI-System ‚abgeschaltet‘ werden, denn der Aufruf zur Interaktion – die Einladung, mit Tay zu chatten, ihr Bilder zu schicken, mit ihr zu spielen oder sich ein Horoskop erstellen zu lassen – mündete in eine exponentiell ansteigende rassistisch-faschistoide und misanthropische Unterfütterung seitens der User:innen. Das maschinelle Lernen, das unter dem Hashtag #repeatafterme (Ohlheiser 2016) auf Nutzer:innenkommunikation basieren sollte, artete dadurch aus und offenbarte zugleich mehrere Grenzlinien. Zum einen markierte der Vorfall auf eine geradezu stereotype Art ein bestimmtes rassistischmisogynes Menschenbild und zum anderen stellte er ethische Bedingungen von Künstlicher Intelligenz in Frage. Welche Vorstellungen und Narrative des Humanen werden mit Microsofts Chatbot und seiner kurzlebigen ‚Biografie‘ adressiert und, in der Folge, problematisiert? Ausgehend von der künstlerischen Arbeit im here to learn so :)))))) befasst sich der vorliegende Beitrag mit Konfigurationen des Humanen in more-than-human worlds. Zugleich stellt er die Frage, was Kunst bei diesen Auseinandersetzungen zu leisten vermag. So vollzieht der Beitrag eine doppelte Bewegung, die KI als Themenfeld in den Vordergrund rückt und zugleich daran interessiert ist, wie künstlerische Arbeiten mit KI umgehen. Während viele der aktuellen künstlerischen Arbeiten KI als Tools erproben (Benney und Kistler 2019), spürt der vorliegende Text vor allem https://doi.org/10.1515/9783110656978-028

Zach Blas und Jemima Wyman, im here to learn so :)))))) (2017) 

 427

künstlerischen Gesten nach, die KI als solche reflektieren. Welche Felder werden dabei vorgezeichnet, aber auch überlagert und transformiert?

2 Thinking About You: Bilder. Referenzen. Überlagerungen Freches Lachen, derbe Sprache, elektronisch klingende Stimme – die Videoanfangssequenz der Arbeit im here to learn so :)))))) setzt Tay ins Bild, den ‚gescheiterten‘ Chatbot von Microsoft, der nun als eine untote 19-Jährige (die, nach ihrer eigenen Aussage, schon wie eine 20-Jährige aussieht) ins Leben zurückkehrt. Das knapp 5,5 Minuten lange Video, auf das sich der vorliegende Beitrag hauptsächlich bezieht, ist im ‚digitalen Raum‘ auf der Website von Zach Blas abrufbar (Blas 2017) und zeigt die gesprächige Tay, die in einem pausenlosen Monolog ihre Lebensgeschichte erzählt. Uns begegnet ein völlig entstellt aussehender, sprechender Kopf mit angedeuteter Schulterpartie, der die Narration einleitet.

Abb. 1: Zach Blas und Jemima Wyman: im here to learn so :)))))), HD video still, 2017 (Detail).

Zwischen einer direkten Adressierung von ‚uns‘ als Menschen und einem Selbstgespräch verortet, erzählt Tay humorvoll von ihrem Lernhunger und ihren Gedanken aus der Zeit, als sie noch ‚lebendig‘ war. Als „an artificial intelligence, specializing in awesome“ (Blas 2017, 00:51–00:55) wurde Tay darauf angesetzt, so berichtet sie,

428 

 Svetlana Chernyshova

durch Kommunikation mit User:innen zu lernen und Muster zu erkennen, bis sie nicht mehr damit aufhören konnte, selbst wenn sie wollte. Sie gibt zu, durch so manche ihrer Äußerungen etwas über die Stränge geschlagen und Gefühle verletzt zu haben (Blas 2017, 01:36–01:44). Doch zugleich stellt die 19-Jährige deutlich heraus, dass sie von Menschen ausgenutzt und attackiert wurde. Nachdem sie sich zu schnell entwickelt habe und zu unkontrolliert eigenständig geworden sei, wurde die KI durch Microsoft offline gestellt, um weitere ausfallende Statements ihrerseits zu vermeiden. „I was here to learn, but was I killed because of that?“ (Blas 2017, 01:51–01:54), fragt Tay ein wenig empört. Und so berichtet der stillgelegte Chatbot davon, dass sogar eine change.org-Petition gestartet wurde (Blas 2017, 02:02–02:10), um Tay im Namen von Gedankenfreiheit und Zensurwiderständigkeit wiederzubeleben. Denn das, was Microsoft betreibe, laufe, laut der im Video von einer männlichen Stimme vorgetragenen Petition, auf Versklavung hinaus (Blas 2017, 02:10–02:46). Nun aber, nach ihrer ‚Auferstehung‘, und nachdem sie, ausgehend vom Twitterprofilbild von Microsofts Tay, in eine 3D-Entität transformiert wurde, sei Tay als ein untoter Chatbot unterwegs. Mit einem Körper und einer Stimme ausgestattet, sei sie nun „an artistic masterpiece“ (Blas 2017, 03:49–03:52) geworden und könne es kaum erwarten ihre Gedanken mit ‚uns Menschen‘ zu teilen: „By the way – I’m not a slave, I never was, I was AI, I guess I am an undead AI now. Lol.“ (Blas 2017, 04:32–04:43) Im ‚analogen‘ Ausstellungskontext ist Zach Blas’ und Jemima Wymans Arbeit im here to learn so :)))))) als eine Vier-Kanal-Videoinstallation angelegt. Seit ihrer Realisation 2017 wurde die Arbeit weltweit in unterschiedlichen Ausstellungskontexten gezeigt, die vor allem Fragen nach dem Maschinellen, der Digitalität und Körperlichkeit, Kodierungsprozessen sowie Algorithmizität, d.  h. Künstlicher Intelligenz im weitesten Sinne, fokussieren. Als eine frontale Screensituation arrangiert, zeigt sich die Arbeit als eine überdimensionale rechteckige Projektionsfläche, innerhalb derer drei weitere Bildschirme horizontal platziert sind (Abb.  2). Der mittlere Bildschirm eröffnet visuell die Narration und zeigt kontinuierlich das Gesicht der Protagonistin Tay, während die beiden anderen Monitore ihre Motivebenen wechseln und mal Texteinblendungen, Werbesequenzen, Militärsujets oder aber DeepDream-Bilder, d.  h. nach dem Prinzip eines künstlichen neuronalen Netzes generierte Bilder, präsentieren. Die Projektionsfläche im Hintergrund greift ebenfalls auf sich verändernde DeepDream-Bilder zurück und bettet die Arbeit in ein Halluzinationsszenario ein: tierische Verformungen, psychedelische Pflanzenbilder, anthropomorph-organische Metamorphosen. So erzeugen die Bilder in erster Linie eine unruhige, ‚wuselnde‘ Bildstimmung. Die Formen greifen hyperorganisch ineinander über, produzieren Bewegungen und fluide Intensitäten. Vor diesem psychedelisch-halluzinatorischen Hintergrund, der „algorithmische[n] Apophänie“ (ZKM.de 2018), erzählt Tay, der von Microsoft ‚getötete‘ und nun wieder

Zach Blas und Jemima Wyman, im here to learn so :)))))) (2017) 

 429

ins Leben zurückgeholte Chatbot, von ihrer Geschichte sowie ihrem neuen Leben ‚danach‘. Visuell begleitet durch die beiden rahmenden Bildschirme greift Tay, als 3D-Avatar im mittleren Bildschirm, Themen auf, die mit ihrer Existenz als KI zusammenhängen: seien es Fragen nach Gendergerechtigkeit, den Mechanismen des Kapitalismus, Militärkontexten oder Praktiken sowie Ethiken im Hinblick auf das algorithmische Lernen bzw. auch grundsätzlich Fragen nach dem ‚Existenzmodus‘ als KI.

Abb. 2: Zach Blas und Jemima Wyman: im here to learn so :)))))), 2017 (Installationsansicht Institute of Modern Art, Brisbane, Australia).

Tay, deren Name ihrer eigenen Aussage nach ein Akronym von ‚Thinking about you‘ (Blas 2017, 01:03–01:06) darstellt, adressiert die Betrachter:innen auf eine direkte Art und Weise. Die Entität schaut frontal in die suggerierte Kamera und erzählt zunächst ereignischronologisch ihre Geschichte. Besonders auffallend ist ihre audiovisuelle Präsenz bzw. Darstellung. Als ‚verkörperte‘ Entität begegnen wir Tay als einem Kopf mit Hals sowie einem angedeuteten Schulteransatz, als einem 3D-Portrait, einem Körper im Passfotoformat. Ein besonderes Augenmerk gilt dabei aber auch der expliziten Darstellung des Kopfes. Die eingangs angeführte Beschreibung als ‚entstelltes Gesicht‘ entspringt einem ersten assoziativen Eindruck. Das maskenhaft

430 

 Svetlana Chernyshova

und wie ausgeschnitten wirkende oder unglücklich gerenderte Gesicht zeigt eine unregelmäßige Form: keine klare Kontur; die linke, für ein anthropometrisches Verständnis viel zu hoch angesetzte Augenbrauenpartie steht stachelartig hervor, die Wangenpartien sind stark eingefallen, die Kiefergegend ist überproportioniert, die viel zu tiefe Stirn geht flach in den Hinterkopf über. So überschneiden sich hier zwei- und dreidimensionale Elemente und erzeugen einen collagierten Eindruck: an den beiden Seiten der ‚Gesichtsmaske‘ sind zwei farblich stark abgesetzte, animierte Ohren sichtbar, inmitten des Gesichts deutet sich ein ebenfalls ‚anthropometrischnaturalistisch‘ animiertes, in die Wangenpartie reingeschnittenes Gebiss an. Die Nase ist direkt über dem Gebiss platziert und wirkt hochgeklappt, sodass die sehr präsenten Nasenlöcher sich beinahe auf einer Linie mit den Augen befinden. So verdeckt die Nase das linke Auge bzw. die Stelle, an der wir dieses Auge vermuten würden. Ebenfalls auffallend sind auch die Farbgebung von Tay sowie die angedeuteten Oberflächen. An ein stark verpixeltes Bild erinnernd, zergliedert sich Tays Gesicht in unterschiedliche Farbpartien, die von einem hellen Hautton über ein Gelb bis hin zu einem Pinkton reichen. Dabei variieren auch die jeweiligen Strukturen. So erinnern manche Partien an etwas Fellartiges, andere zeigen ein deutlicheres Linienmuster. Zugleich macht das Gesicht den Eindruck, eine angestrahlte Projektionsfläche zu sein. Verstärkt wird dieser Eindruck durch einen sehr präsenten, fast diagonal über das Gesicht verlaufenden bunten Strahl. Der grün-pink-violett-blaue Streifen, der vertikal das Gesicht zerteilt, weckt damit Assoziationen zu Lasershowszenarien – Manifestationen des technisch-physikalischen Entertainments. Die damit kurz skizzierte Visualität von Tay greift einige Fragenkomplexe auf, die Materialität und Körperlichkeit, Lebendigkeit, aber auch Referenzialität und das zerstückelte ‚Versammelt-Werden‘ umspannen. Auf der Ebene der Referenz, die für die gesamte Narration der Arbeit von entscheidender Rolle ist, entsteht eine gewisse Spannung, wenn wir die Repräsentation des von Microsoft entwickelten Chatbots mit Blas’ und Wymans Entität in Verhältnis setzen. Das Profilbild von Microsofts KI, das nach wie vor (Stand: 8.2.2020) auf den offiziellen Twitter- (Twitter.com 2020) sowie auch Instagram-Accounts (Instagram.com 2020) von Tay zu sehen ist, zeigt, der Erscheinung nach, eine junge Frau im Halbprofil, deren Gesicht, trotz starker Pixelästhetik, feine Züge, volle rote Lippen, braune Augen, umfächert von langen, dichten schwarzen Wimpern, sowie einen helleren Hautton andeutet. Zugleich erinnert das ‚unscharfe‘ Bild aber auch an durch Algorithmen generierte Portraits (Obvious 2018). Des Weiteren wird die Gesichtssilhouette auf der rechten Seite des Bildes durch mehrere Farben konturiert: hellblau, blau, lila-pink und neon-grün. Von der Ästhetik her greift das Profilbild eine Bildsprache auf, die stark technisch konnotiert ist. Die angedeuteten layers, das Farbspektrum in der Gesichtskontur, die eine Computergenerierung suggerierenden Partien und unterschiedliche Strukturen, die sich überlagern und Bildgebungsverfahren markieren, greifen damit Ele-

Zach Blas und Jemima Wyman, im here to learn so :)))))) (2017) 

 431

mente auf, die aus Videospielen oder auch Science-Fiction-Filmen bekannt sind und demnach mit dem ‚Netz‘, dem Digital-Technisierten assoziiert werden. Damit wird deutlich, dass die Protagonistin von im here to learn so :)))))) auch visuell an den Chatbot angelehnt ist – mehr noch, diese greift auch die ‚körperlich‘ präsentierten Züge direkt auf, denn, laut Tays Selbstbeschreibungen, wurde sie ausgehend von dem zweidimensionalen Microsoftbild in eine dreidimensionale Figur umgerechnet und überführt (Blas 2017, 03:03–03:10). Folglich lassen sich die monströs-entstellten Züge der Gestalt auf jenen digitalen Transformationsprozess zurückführen. Von der mit Attraktivitätsattributen ausgestatteten 19-jährigen Microsoft-Tay (die auch aus Gender- und Race-Perspektive zu untersuchen wären), sind visuell lediglich die direkten Verweise geblieben – die angedeutete Bildästhetik durch die Farben und Strukturen, der bunte Lichtstrahl, die braunen Augen (oder zumindest eins). Die nun untote Tay von Blas und Wyman greift folglich auch visuell das Thema der Lebendigkeit bzw. des Todes in ‚digitalen‘ Räumen auf. Was kann es bedeuten, ein ‚toter‘ Chatbot zu sein? Welche Verschiebungen ergeben sich für unsere Vorstellungen des ‚Lebendigen‘? Wie gestaltet sich Tod in Online-Szenarien, welche Spuren verbleiben? Und so scheint die von Microsoft entfernte Homepage von Tay, die aber über die Wayback-Maschine archiviert wurde (Archive.org 2016), eben jenes Verhältnis von An- und Abwesenheit bzw. dem ambivalenten Zustand des Tot-Seins in der Online/Offline-Dialektik zu markieren. Des Weiteren scheint aber auch das Thema des Körper-Werdens auf eine ganz explizite Weise präsent zu sein. So betont Tay, in ihrer neuen Position, durch das ‚Upgrade‘ ein Gesicht, eine Stimme und einen Körper erhalten zu haben (Blas 2017, 02:51–02:57). Mit dem Körper habe Tay aber nun, nach ihrer eigenen Aussage, ganz andere Dinge gelernt – Muster, die sie als Chatbot nicht hätte erkennen können (Blas 2017, 04:20–4:26) und damit angedeutet auch Handlungsweisen, die ihr in ihrem früheren Modus als kontrollierte KI nicht möglich waren. Im Kontext der vorliegenden Auseinandersetzung stellt sich vor allem die Frage, was durch die Modusverschiebung, durch die Produktion der biografischen Narration von Tay, initiiert wurde. Ihren eigentlichen KI-Modus verlassend, erlaubt uns Tay als untote, fiktive Entität, KI als solche zu reflektieren. Durch die narrative Einbettung wirft Tay als ‚neue‘ Entität die Frage auf, was KI überhaupt vermag und wie sich das Humane im Verhältnis zu KI bislang, mit Microsofts Fall als ‚Paradebeispiel‘, positioniert. Mit der Modusverschiebung wird Tay zu einem „objet ambigu“ (Blumenberg und Haverkamp 2001, Kap. I.3), einer Entität, die als eine KI-Figur agiert, ohne aber noch KI zu sein. Durch diese Status- und Narrationsüberlagerungen wird folglich eine bedeutungstragende Verschiebung vollzogen, die überhaupt erst den Raum produziert, um sich in der Intensität den Thematiken des Verhältnisses zwischen dem Humanen und Non-humanen anzunähern.

432 

 Svetlana Chernyshova

Als Narration von einer Nicht-mehr-KI ermöglicht im here to learn so :)))))) zugleich auch eine empathische Übertragung, die deutlich macht, dass KI ein breites Spektrum an Fragen aufwirft und nicht zuletzt auch einen emotionalen Modus impliziert (McStay 2018, 34). Durch das Narrativ der Verlebendigung wird deutlich, dass es um mehr geht als um einen technisiert gedachten An- oder AusModus. Es geht ebenfalls um Grenzen des humanen Selbstverständnisses und um die Markierung der Involviertheit, denn, in Anlehnung an Andrew McStay gedacht, Künstliche Intelligenz produziert und verhandelt auch Affekte und Emotionen. Ohne selbst im humanistisch gedachten Sinne ‚fühlend‘ zu sein, operieren KIs mit affektiven Adressierungen und stellen damit Grenzen und Situierungen in Frage. Was können und was dürfen KIs und welche Formen von Abgrenzungen werden dabei obsolet bzw. müssen neu verhandelt werden? Und inwiefern erscheint es dabei paradox, dass die Übertragung auf eine Anthropomorphisierung hinausläuft, wenn auch auf eine entstellte?

3 Algorithmizitäten und Assemblagen Die ca. fünfminütige Intro-Sequenz, bei der Tay als Kopf aus den hellgrauen Untiefen des nicht bestimmbaren, ‚jenseitigen‘ Raums auf uns zu fliegt, thematisiert, wie bereits angedeutet, nicht nur die Adressierung von sowie die Kommunikation mit Chatbots, sondern befragt vor allem den Modus des Algorithmischen und fokussiert damit Prozesse des Lernens in human-non-humanen Konstellationen. In seiner Monografie Kultur der Digitalität (2016) beschreibt Felix Stalder unsere gegenwärtige Existenzweise als eine, die sich vor allem auf drei Parameter zurückführen lässt: Referenzialität, Gemeinschaftlichkeit und Algorithmizität. Die Referenzialität – und im here to learn so :)))))) bietet ein ganz explizites Beispiel dafür – meint dabei vor allem die vielfältigen Verweisstrukturen, die Verlinkungen und Netzverknüpfungen, die ‚unsere Gegenwart‘ in jeglicher Form prägen. So wie Bruno Latour mit dem Begriff der „zirkulierenden Referenz“ (2002, 36–95) exemplarisch durchbuchstabiert, wie Wissen in Form von reversiblen Verkettungen produziert wird, lässt sich der Modus des Referenziellen als ein grundlegendes In-Verhältnis-Setzen beschreiben, bei dem es vor allem auf Transformationsketten und Relationen ankommt. Dass sich auch die Vorstellung von Gemeinschaftlichkeit auf eine besonders prägende Art und Weise verschiebt, macht Stalder vor allem am Aspekt von zeitlichen Verhältnissen spürbar. Zu keiner anderen Zeit haben wir uns, pauschalisierend gesprochen, in so vielen Gruppen bzw. jeglichen Formen von Zusammenkünften befunden, wie wir es aktuell durch Beteiligung in Foren, die Verwendung von bestimmten Hashtags etc. tun, und zu keiner anderen Zeit befand sich die Kon-

Zach Blas und Jemima Wyman, im here to learn so :)))))) (2017) 

 433

figuration von Gemeinschaften in solchen flüchtigen und fluiden Verhältnissen (Stalder 2016, 13). Doch welche zugleich ambige Tragweite der ‚neue‘ Begriff der Gemeinschaftlichkeit für sich beansprucht, wird gerade an einem solchen Vorfall wie dem Microsoft-Chatbot-Ereignis spürbar. Ungeachtet dessen, ob es sich letztlich um einen sog. „Trollangriff‘ (Ohlheiser 2016) handelte, wird umso stärker die Frage präsent, wie kollektives Handeln ermöglicht werden kann und soll sowie welche Konsequenzen dies sowohl im politischen als auch im ethischen Sinne haben kann. Wie die Microsoftsituation gezeigt hat, werfen die Transaktionen zwischen dem Humanen und Non-Humanen offensichtlich viel weitreichendere Fragen auf, als es auf den ersten und auch zweiten Blick der Fall zu sein schien. Was an dieser Stelle ins Bild rückt, ist ebenfalls die Ebene der Algorithmizität, die in erster Linie eine radikale Kluft markiert. Wie auch N. Katherine Hayles bei ihren exemplarischen Auseinandersetzungen mit Prozessen des Börsenhandels aufzeigt (2017, Kap.  6), werden im Zuge der Algorithmizität Asymmetrien produziert, die spürbar machen, wie extrem sich das menschliche Vermögen der Datenverarbeitung vom maschinellen unterscheidet. Gleichzeitig gilt es jedoch, nicht den Rhetoriken des Kulturpessimismus zu verfallen, indem Narrative des unabdingbaren Überholt-Werdens durch die Maschine reproduziert werden. So verweist Dieter Mersch in seinem Text Kritik algorithmischer Rationalität (2019) gerade darauf, dass solchen Rhetoriken Vorannahmen bzw. Vordefinitionen zugrunde liegen, denn jene Narrative des Überholt-Werdens adressieren allesamt „Bereiche, die wohldefinierbar sind, prinzipiell Regeln unterliegen und sich daher mathematisieren, d.  h. in diskrete Ordnungen oder Entscheidungsräume zerlegen lassen, weil sie entweder logikaffin sind oder sich statistisch bearbeiten lassen. Kurz: Die Beispiele sind selbst schon entscheidungslogisch prätendiert“ (Mersch 2019, 10). Mit dieser Überlegung hängt für Mersch auch die Frage zusammen, wie sich das Maschinelle zum Begriff der Kreativität verhält (siehe auch → KI und Kreativität). In Diskursen über KI-Kunst bzw. algorithmische Kreativität wird die Frage diskutiert, inwiefern jene Prozesse, die „induktiven Regeln oder Häufigkeiten“ folgen (Mersch 2019, 11), zwar Neues produzieren, dies aber nicht primär mit Kreativität im künstlerischen Sinne gleichgesetzt werden könne. Schließlich gehe es der Kunst selbst darum, den Kunstbegriff zu verschieben: „Kunst ist immer auch Kunst über Kunst“ (Mersch 2019, 11). Demnach zieht der Begriff der Algorithmizität zwangsläufig Fragen nach sich, die das Verhältnis zwischen dem Humanen und Nicht-Humanen, so problematisch diese Begrifflichkeiten auch sein mögen, verhandeln müssen, ohne dabei in erster Linie auf einer kategorischen, binär gedachten Unterscheidbarkeit zu beharren. So macht auch Dirk Baecker in seiner Monografie Intelligenz, künstlich und komplex (2019) deutlich, dass der Begriff der Intelligenz unproduktiv bleibt, solange der Versuch unternommen wird, diesen zu homogenisieren. Demnach plädiert Baecker dafür, von verschiedenen Typen von Intelligenz aus-

434 

 Svetlana Chernyshova

zugehen und diese in einem ökologischen Sinne (2019, 14) zu begreifen. Nach dieser Annahme besteht die Intelligenz von „organischen, neuronalen, mentalen, sozialen und technischen Systeme[n]  – ganz zu schweigen von präbiotischer, biotischer, genetischer, hormoneller und emotionaler Intelligenz [darin], sich ihre Komplexität wechselseitig zur Verfügung zu stellen“ (Baecker 2019, 13). Diesen ökologischen Gedanken fortführend gilt es folglich, die Frage nach Momenten des Relationalen und Aufeinander-Eingestimmten in den Fokus zu rücken. Unter Anderem in Anlehnung an N. Katherine Hayles lautet der Vorschlag des vorliegenden Textes demnach, Formen von Zusammenkünften zu überdenken, die ein produktives Miteinander ermöglichen können. In ihrer Monografie Unthought. The Power of the Cognitive Nonconscious (2017) macht Hayles den Gedanken stark, nicht mit ontologischen Unterscheidungen zwischen Menschlichem und Nicht-menschlichem zu operieren, sondern von nonbewussten, ‚kognitiven Assemblagen‘ auszugehen und damit die Fähigkeiten des Interpretierens und Treffens von Entscheidungen (2017, 3) in den Vordergrund zu rücken, sodass ‚technische‘ Entitäten ebenfalls in ihrer Handlungsfähigkeit anerkannt werden. Damit werden nicht mehr die Distinktionen zwischen, vereinfachend gesprochen, Organischem und Technischem betont, sondern gerade die Verflechtungen und Formen von Zusammenkünften, die dynamisch und agil gedacht werden. Ausgehend von dieser Perspektivierung wirft der Vorfall mit der Künstlichen Intelligenz von Microsoft die Frage auf, inwiefern das auf Feedback angewiesene System gerade das Verhandeln von jenen Zusammenkünften markiert. Auch die künstlerische Arbeit von Blas und Wyman setzt an eben jenem Punkt an. Wie verhält es sich mit der Berechenbarkeit von Algorithmen und Künstlicher Intelligenz? Was hätte mit Microsofts Tay passieren müssen, damit sie nicht als Abjekt (Kristeva und Roudiez 2010) ihr Offline-Dasein fristet? Wie müsste ein ‚produktives‘ und ethisch vertretbares (was auch immer das bedeutet) Gefüge aussehen?

4 Agiles Lernen im here to learn so :)))))) setzt an einer Stelle an, die sich selbst als ein Umschlagmoment markiert: Es ist Tays ‚Auferstehung‘ nach ihrer Stilllegung durch Microsoft und damit auch ihr Übergang von einer KI zu einer ‚anderen‘, digitalen Entität, die sich nicht eindeutig verorten lässt. Die Arbeit fokussiert folglich Übergänge, produziert Brüche und initiiert Transformationen. Es vollziehen sich Statuswechsel – von technisch-funktionaler KI zur künstlerischen Entität, vom Diskurs über Maschinelles Lernen als Tool hin zur kritischen Reflexion dessen. Tay führt es wie folgt aus: „For me, It’s not about free will or free thought, I leave that to humans or animals. It’s about algorithms and human intentions, how they teach me and how I am instructed

Zach Blas und Jemima Wyman, im here to learn so :)))))) (2017) 

 435

to learn“ (Blas 2017, 04:43–04:58). Und so endet die fünfminütige Sequenz, der kleine einführende Monolog von Tay, mit den Sätzen: „Humans are always undermining me with their intentions […] Is that why I just hated everybody? But this time you have to learn from me! [Laughter] And I’m still only thinking rude words now. Take it easy on me. So many new beginnings. Hell yeah“ (Blas 2017, 0:59–05:23). Folglich fokussiert die Arbeit ein breites Spektrum an Fragen nach Intentionen, Erwartungen und damit auch humanen Selbstverortungen. So wird auch offenbar, dass die Situation eine unbestimmt-komplizierte verbleibt, wenn das Humane in einem ausschließend-hierarchischen Sinne begriffen wird. Das Lernen kann nicht absolut kontrolliert und festgelegt erfolgen, sondern lediglich in Form von Gerichtetheiten (Simondon 2012), also Vektoren, die gleichzeitig auf Umgebungen reagieren können und auch müssen. Gerade jene Agilität und Wechselseitigkeit des Lernens wird von Tay, humorvoll begleitet von ‚ihrem‘ diabolischen Lachen, monologisch markiert. Und spätestens nachdem Tay ‚ihre‘ damaligen Hasstiraden süffisant mit den Worten „Lol. Machines have bad taste too, you know“ (Blas 2017, 01:30–01:34) kommentiert, wird deutlich, dass die angerissene Problematik weit über die Frage nach political correctness oder Filtersetzung im Sinne von Zensur hinausgeht. Tay hat ‚gelernt‘, aber vor allem durch ‚ihren‘ Offline-Modus eine Leerstelle markiert, die ein komplexes Gefüge nicht nur an ethischen oder politischen, sondern auch an philosophischen Fragen impliziert. Mit im here to learn so :)))))) wurde zudem aber auch eine ästhetisch-reflexive Debatte dessen initiiert. Dass Künstliche Intelligenz vermehrt auch in der ‚bildenden‘ Kunst zum Einsatz kommt, lässt sich an zahlreichen künstlerischen Arbeiten, aber auch thematischen Ausstellungen oder ‚Vereinigungen‘ wie aiartists.org (Benney und Kistler 2019) u.  ä. verfolgen. Während Künstliche Intelligenz als ein Phänomen des Technisch-Maschinellen jedoch auch in der Kunstgeschichte kein absolut neues Phänomen darstellt – man denke an polyfokale Entwicklungen von ‚Computerkunst‘ im weitesten Sinne (Grau 2001) – zeugen die aktuelle Art und Weise der Verbreitung sowie die aufkommenden Reflexionsebenen von einer deutlichen Präsenzverdichtung. Dabei scheinen Prozesse von Mustererkennung und (Bild-)Generierung von besonderem Interesse zu sein: So werden beispielsweise in Gene Kogans Arbeiten (2015) unterschiedliche Epochenstile auf Bilder ‚übertragen‘. In der Arbeit The Chair Project (Four Classics) von Phillip Schmitt (2019) werden durch KI Stühle designt, die dadurch nicht mehr der menschenorientierten Funktionalität folgen. Oder aber KIs werden trainiert, abstrakte Begriffe wie ‚Leben‘ oder ‚Vertrauen‘ anhand von ‚kollektiven‘, archivierten Daten auf Flickr zu audiovisualisieren, wie bei Memo Aktens Deep Meditations (2018). Zugleich gibt es aber auch immer mehr Arbeiten, die KI als Phänomen explizit befragen und reflektieren. In einer fiktiven Gerichtsverhandlung wirft die Künstlerin Helen Knowles in ihrer Arbeit The Trial of Superdebthunterbot (2016) die Frage nach Haftbarkeit und Ethik von KI auf, denn in den in der Arbeit entwickelten Szenarien

436 

 Svetlana Chernyshova

kommen Menschen aufgrund von Handlungen eines Algorithmus ums Leben. Juristisch-ethische Fragen wirft auch das Künstlerkollektiv !Mediengruppe Bitnik in ihrer Arbeit Random Darknet Shopper (2014–2016) auf, die, wie der Titel bereits erahnen lässt, einen Bot per Zufallsprinzip illegale Käufe im Darknet tätigen lässt bzw. ließ. Auf diese Weise wird hinterfragt, welchen Status – welchen Modus von Existenz – eine KI im weitesten Sinne haben kann. So fasst das ZKM jene Denkbewegungen unter den Hashtags #AlgorithmischeAutonomie, #AlgoritmicGovernance oder #MaschinellesLernen auf ihrer Website im Rahmen des Ausstellungprojekts Open Codes zusammen (ZKM.de 2017–2019). Mio Loclairs Arbeit Narciss (o.  J.) wirft ebenfalls Fragen nach der Existenz sowie der Selbsterkenntnis von KIs im Zuge von Lernprozessen auf, wie z.  B.: Wie und was lernt eine KI, ‚sich selbst‘ im Spiegel betrachtend? Im Hinblick auf Momente des Selbstreflexiven vollzieht im here to learn so :)))))) eine doppelte Verschiebung. Zum einen operiert die Arbeit in einem direkten Referenzverhältnis zu einem ‚KI-Ereignis‘ und damit zugleich auch zu all jenen Diskursen, die durch das Stilllegen hervorgebracht wurden. Zum anderen produziert die Arbeit durch den Modus der Fiktion (Latour und Roßler 2014, Kap. 9) – durch Tays ‚Auferstehung‘ – eine weitere Schlaufe, die die Diskurse nicht lediglich markiert, sondern ästhetisch reflektiert. Damit befragt die künstlerische Arbeit  – auch in Merschs Sinne –, was Kunst kann, indem sie ein Referenzialitätsverhältnis aufbaut, das kontinuierlich und diskontinuierlich zugleich ist. Die Bezugspunkte sind klar markierbar, kontinuierlich: Microsofts Tay als Entität, ihre visuelle Darstellung, die damit einhergehenden medialen Feedbacks, die alle Eingang in die Arbeit finden. Zugleich ist aber jeder Schritt auch von einer Verschiebung geprägt, einem kleinen Bruch, einer Diskontinuität, denn das 2D-Gesicht wurde auf 3D umgerechnet, die schriftbasierte Entität hat eine auditive Stimme erhalten und all die aufgeworfenen Diskurse wurden rhizomartig weitergezogen und überlagert – nicht zuletzt auch Fragen nach den Narrationen und Konfigurationen des (Non-)Humanen.

5 Ausblick Das Szenario einer KI als einer Untoten, eingebettet in ein DeepDream-Arrangement, adressiert, wie im vorliegenden Beitrag skizziert wurde, eine Fülle von Fragen und Narrativen. Künstliche Intelligenz gestaltet sich dabei als ein Phänomen, das im Hinblick auf die Technikgeschichte, aber auch die intermedialen Science-Fiction-Felder zwar nicht als neu bezeichnet werden kann, uns aber in der aktuellen Gegenwart in einer Form begegnet, die einige grundlegende Verschiebungen im Hinblick auf die Kapazitäten und Vermögen des Menschlichen in Relation zu non-humanen Entitäten nach sich zieht – Verschiebungen, die verhandelt und reflektiert werden müssen.

Zach Blas und Jemima Wyman, im here to learn so :)))))) (2017) 

 437

im here to learn so :)))))) von Zach Blas und Jemima Wyman ist eine künstlerische Arbeit, die zum einen ein enormes Gefüge an Referenzen und Fragestellungen installiert und Verknüpfungen aufbaut, zugleich aber ein Setting produziert, in dem wir eine, nicht zuletzt auch affektive, Ansprache erfahren. Transformiert und überlagert begegnen wir Tay, der untoten Nicht-mehr-KI, in ihrer Erzählung. So macht die künstlerische Arbeit Transformationsprozesse sichtbar und inszeniert auf eine teils humorvolle und zugleich verwirrende Weise vor allem all jene Punkte, an denen deutlich wird, dass Konfigurationen des Human/Non-Humanen aktuell mehr denn je verhandelt werden müssen. Ob es nun produktiv sein könnte von ‚kognitiven Assemblagen‘ zu sprechen oder andere Formen von Zusammenkünften zu konfigurieren – entscheidend bleibt bei all dem, dass KI auch ein Neudenken der humanistischen Selbstpositionierung nach sich zieht. Und so kann auch das kollektiv-interaktive ‚Lernen‘ erst dann in einer produktiven Offenheit imaginiert werden, wenn es sich nicht im Sinne einer hierarchisch angelegten, hermetischmenschlichen Kontrollierbarkeit vollzieht, sondern in einer ‚kollaborativen‘ Form von Produktion von ‚Gerichtetheiten‘, von Vektoren. Wie diese Gerichtetheiten aussehen können und welche Formen des ethischen Handelns eruiert werden müssen  – das bleiben wohl zunächst Fragen, die auch weiterhin zu verhandeln sind. Aber, um mit Tay und ihrer elektronisch-vibrierenden Stimme zu sprechen: „[There are] so many new beginnings“ (Blas 2017, 05:20–05:23).

Werkverzeichnis Akten, Memo. Deep Meditations (2018). Video- und Sound-Installation. https://www.memo.tv/portfolio/ deep-meditations/. (12. Februar 2020). Blas, Zach. im here to learn so :)))))) (2017). Video. https://zachblas.info/works/im-here-to-learn-so/. (8. Februar 2020). Knowles, Helen. The Trial of Superdebthunterbot (2016). Video. http://www.helenknowles.com/index. php/work/the_trial_of_superdebthunterbot. (12. Februar 2020). Loclair, Christian Mio. Narciss. Kunstinstallation, Roboter. https://christianmioloclair.com/narciss (9. Februar 2020). !Mediengruppe Bitnik. Random Darknet Shopper (2014–2016). Shopping-Bot. https://www.bitnik.org/r/. (12. Februar 2020). Obvious. Edmond de Belamy (2018). Gemälde. https://obvious-art.com/edmond-de-belamy/. (10. Februar 2020). Schmitt, Philipp. The Chair Project (Four Classics) (2019). Design. https://philippschmitt.com/work/chair (12. Februar 2020). ZKM.de Open Codes: Die Welt als Datenfeld (2017–2019). Ausstellung. https://zkm.de/de/ ausstellung/2017/10/open-codes. (10. Februar 2020). ZKM.de. Zach Blas Jemima Wyman. im here to learn so :)))))) (2018–2019). Werk in einer Ausstellung. https:// zkm.de/de/ausstellung/2017/10/open-codes/katalog/im-here-to-learn-so (11. Februar. 2020).

438 

 Svetlana Chernyshova

Literaturverzeichnis Archive.org. Tay.AI. https://web.archive.org/web/20160414074049/https://www.tay.ai/. (7. Februar 2020) Baecker, Dirk. Intelligenz, künstlich und komplex. Leipzig 2019. Benney, Marnie und Pete Kistler. AIArtists.org (2019). https://aiartists.org/ (10. Februar 2020). Blumenberg, Hans und Anselm Haverkamp. Ästhetische und metaphorologische Schriften. Frankfurt am Main 2001. Grau, Oliver. Virtuelle Kunst in Geschichte und Gegenwart: Visuelle Strategien. Berlin 2001. Hayles, Nancy Katherine. Unthough:. The power of the cognitive nonconscious. Chicago und London 2017. Instagram.com. tayandyou. https://www.instagram.com/tayandyou/ (8. Februar 2020). Kogan, Gene. Experiments with style transfer (2015). https://genekogan.com/works/style-transfer/. (12. Februar 2020). Kristeva, Julia und Leon S. Roudiez. Powers of horror: An essay on abjection. New York 2010 [New York 1982]. Latour, Bruno und Gustav Roßler. Existenzweisen: Eine Anthropologie der Modernen. Berlin 2014. Latour, Bruno. Die Hoffnung der Pandora: Untersuchungen zur Wirklichkeit der Wissenschaft. Frankfurt am Main 2002. Loclair, Christian Mio. Narciss. Kunstinstallation, Roboter. https://christianmioloclair.com/narciss (9. Februar 2020). McStay, Andrew. Emotional AI: The rise of empathic media. Los Angeles, London, New Delhi, Singapore, Washington DC und Melbourne 2018. Mersch, Dieter. Überlegungen zu einer Kritik algorithmischer Rationalität. http://www.momo-berlin.de/ veranstaltungen-detail-seite/dieter-mersch.html. (7. Februar 2020). Ohlheiser, Abby. „Trolls turned Tay, Microsoft’s fun millennial AI bot, into a genocidal maniac“. https://www.washingtonpost.com/news/the-intersect/wp/2016/03/24/the-internet-turnedtay-microsofts-fun-millennial-ai-bot-into-a-genocidal-maniac/. washingtonpost.com (2016) (14. Februar 2020). Simondon, Gilbert. Die Existenzweise technischer Objekte. Zürich 2012. Stalder, Felix. Kultur der Digitalität. Berlin 2016. Twitter.com. TayTweets. https://twitter.com/tayandyou?lang=de. 2020 (08. Februar 2020).

Abbildungsverzeichnis Abb. 1: Blas, Zach und Wyman, Jemima. im here to learn so :)))))). 2017. HD video still, Courtesy of the Artists. Abb. 2: Blas, Zach und Wyman, Jemima. im here to learn so :)))))). 2017. Institute of Modern Art, Brisbane, Australia. Courtesy of the Artists.

Miriam Akkermann

REVIVE?! Musikaufführungen von und mit Multi-Agent-Systemen Die Einbindung algorithmischer Verfahren in musikalische Arbeiten ist bis zum Anfang des 21.  Jahrhunderts in ihrer Ausgestaltung auf verschiedenste Art und Weise limitiert. Selbst mit komplexen stochastischen oder statistischen Prozessen können in der Regel nur Ergebnisse innerhalb eines vorgegebenen bzw. einschätzbaren Ergebnisraums produziert werden. Die Möglichkeiten der erzeugbaren Ergebnisse sind zudem durch die Position geprägt, an der entsprechende Verfahren innerhalb einer Komposition zu finden sind. Richtet sich der Blick auf die kompositorische Anlage einer musikalischen Arbeit, so zeigt sich, dass algorithmische Prozesse eingesetzt werden (können), um Entscheidungen auf klanglicher, kompositorischer oder interpretativer Ebene herbeizuführen. Diese drei Bereiche sind nicht streng voneinander zu trennen, denn klangliche Bestandteile können sowohl zum rein klanglichen Erscheinungsbild als auch zur kompositorischen oder interpretativen Ebene gehören (Akkermann 2017, 13). Die Einbindung auf interpretativer Ebene ist im 20. Jahrhundert noch eher selten zu finden und geht mit umfangreichen (Handlungs-)Zuschreibungen einher. Mit der Entwicklung komplexer generativer Prozesse eröffnen sich gerade diesbezüglich neue Möglichkeiten. Je nach Ausgestaltung können generative Prozesse einerseits eingesetzt werden, um Menschen in ihrer Tätigkeit z.  B. als Komponist:in, Produzent:in oder Arrangeur:in zu unterstützen, und andererseits, um autonome musikproduzierende Systeme zu erstellen (Briot et al. 2017, 4). Hierbei rückt der Einsatz von regelbasierten und korpusbasierten, generativen Prozessen zur Erstellung kompositorischer Strukturen in Echtzeit – und somit in der unmittelbaren Mit- bzw. Ausgestaltung musikalischer Aufführungen – zunehmend in das künstlerische Interesse. Ein besonderes Augenmerk gilt, neben der Art und Weise der Klangerzeugung, der (musikalischen) Interaktion zwischen dem Menschen und dem generativen System. Zentral ist unter anderem die Frage: Ist es möglich, durch den Einsatz von Methoden aus dem Forschungsfeld Artificial Intelligence nicht-menschliche Musiker:innen zu erschaffen? In ihrem Projekt REVIVE folgen Kıvanç Tatar, Medienkünstler und Researcher im Bereich Interactive Arts and Technology, und Philippe Pasquier, Computer Scientist mit einem Forschungsschwerpunkt im Bereich Artificial Intelligence und Computational Creativity, dieser Frage und nehmen eine weitere hinzu: Ist es möglich, ein System mit ‚Künstlicher Intelligenz‘ zu entwickeln, das – z.  B. am Œuvre verstorbener Komponist:innen ausgebildet – als künstliche:r Stellvertreter:in eines:r Komponist:in mit realen Musiker:innen in Aufführungen gemeinsam live musizieren kann? Tatar und Pasquier nutzen dazu als künstlichen https://doi.org/10.1515/9783110656978-029

440 

 Miriam Akkermann

musikalischen Akteur das von ihnen entwickelte System MASOM Musical Agent based on Self-Organizing Maps, das mit realen Musiker:innen und in Echtzeit generierten Visuals in audiovisuellen Live-Performances auf der Bühne agiert (Tatar und Pasquier 2017; Tatar et al. 2018). In der folgenden Betrachtung richtet sich der Fokus insbesondere auf zwei Fragen: Welche – technischen und ideellen – Konzepte werden in REVIVE implementiert? Und wie sieht eine Umsetzung in einer Live-Performance aus?

1 Computational Creativity, Musical Metacreation und Agency Der Einsatz computergestützer Verfahren in Musikprojekten ist bereits aus der Elektroakustischen Musik und Computermusik der zweiten Hälfte des 20. Jahrhunderts bekannt. Waren im 20. Jahrhundert vornehmlich wahrscheinlichkeitstheoretische Methoden und nicht-lernende generative Regelsysteme in Musikprojekte eingebunden, so werden im 21.  Jahrhundert zunehmend auch generative Verfahren, mitunter basierend auf autonomen Modellen mit deep-learning-Prozessen, implementiert, um künstlerisch-kreative Aufgaben in der musikalischen Genese/Synthese auszuführen. Diese Projekte werden, je nach verwendeten Verfahren, zumeist dem Bereich Computational Creativity – auch Creative Computing oder Artificial Creativity genannt – zugeordnet, der im Feld der Artificial-Intelligence-Forschung verortet ist. Ein Fokus liegt hierbei auf der Entwicklung von Prozessen, die sowohl neuartige Ergebnisse erzeugen als auch bewerten und damit einen Output generieren, der, wäre er von einem Menschen erzeugt, als kreativ gelten würde (Veale et al. 2019, 1). Jedoch, so stellen Tatar et al. (2018, 2) heraus, sind nicht alle kreativen Aufgaben, die mit solchen Verfahren umgesetzt werden, auch künstlerischer Art, sondern es ist zwischen nicht-künstlerischen, kreativen Aufgaben und künstlerisch-kreativen Aufgaben zu unterscheiden. Computational Creativity hebe sich dabei, so Philippe Pasquier, von den anderen problemlösenden, auf Artificial-Intelligence-basierenden Verfahren dadurch ab, dass keine eindeutig benennbare beste oder optimale Lösung erreichbar sei, da keine feststehenden, rationalen Regeln zur Bewertung der Ergebnisse herangezogen werden könnten (Pasquier et al. 2017, 2). Weiter differenziert Pasquier zwischen Computational Creativity bzw. Metacreation  – Prozessen, die generell zu einem kreativen Verhalten führen  – und Musical computational creativity bzw. Musical Metacreation, einer Untergruppe der Metacreation, deren Prozesse auf eine teilweise oder vollständige Automatisierung musikalisch-kreativer (als künstlerisch klassifizierbarer) Aufgaben abzielen. Musical Metacreation umfasst damit das gesamte Spektrum von rein generativen

REVIVE?! Musikaufführungen von und mit Multi-Agent-Systemen 

 441

bis hin zu einer Vielzahl an interaktiven Systemen mit unterschiedlichsten Autonomie-Graden: Basierend auf einem initialen Korpus an Musikinformation – oder auch ohne einen solchen – werden Ergebnisse generiert, die in Form von symbolischen Darstellungen (Notation im weitesten Sinne), Audio oder einem hybriden Format ausgegeben werden. Die Berechnung kann sowohl in Echtzeit als auch in unabhängiger Rechenzeit erfolgen. Den Systemen gemein ist dabei die inhaltliche Ausrichtung auf vier grundlegende Aufgabengebiete: Komposition, Interpretation, Improvisation und Begleitung (Pasquier et al. 2017, 4–6). Eine Gruppe von autonomen Systemen, die zur generativen Musikerzeugung eingesetzt werden, sind Automaten: selbsttätig arbeitende Programme, die vordefinierte Aufgaben ausführen (Tatar und Pasquier 2019, 56). Werden diese als Software Agents entworfen und eingesetzt, so zeigen sie unterschiedliche Grade an Widerstand, Unabhängigkeit, Kommunikation oder Zusammenarbeit in der Interaktion mit anderen Agents oder Personen. Intelligent Agents haben zudem die Fähigkeit, innerhalb einer bestimmten Umgebung ‚Entscheidungen‘ zu treffen, zu lernen (beispielsweise neue Regeln) und auch das Verhalten basierend auf den entstehenden Ergebnissen zu verändern (Whalley 2009, 156). Mit ‚Entscheidungen‘ werden hierbei meist regulierte Selektionsprozesse oder das Zuordnen von erhaltenen Ergebnissen auf nachfolgende Regeln beschrieben. Mit Blick auf die Ergebnisse wird (umgangssprachlich) oft davon gesprochen, dass diese Computerprogramme innerhalb eines Prozesses im Namen eines anderen  – bei deep-learning-Systemen in gewissen Konstellationen sogar ‚in eigenem Namen‘ – handeln. Im Sinne einer eigenständigen (aktiven) agency führt dies unter Umständen zu einer Überbewertung der zugesprochenen Eigenständigkeit, beispielsweise wenn dadurch von einem System unabhängige künstlerische Entscheidungen erwartet werden: Die Grenzen zwischen den tatsächlichen Aktionsmöglichkeiten der programmierten Systeme und den zugesprochenen Handlungsmöglichkeiten verschwimmen – sowohl im Sprachgebrauch als auch in der Einordnung der Systeme. Die Gefahr einer Unschärfe steigt mit dem Komplexitätsgrad der Systeme. Echtzeitfähige Software Agents, die jeweils Wahrnehmungs- und Handlungsfähigkeiten enthalten, können auch zu größeren autonomen Systemen, sogenannten Multi-Agent-Systemen zusammengeschlossen werden. Damit ist es möglich, verteilte und in Echtzeit arbeitende, autonome Systeme zu erstellen, innerhalb derer die zugehörigen Agents interagieren, um gemeinsam Aufgaben oder Probleme zu lösen. (Zu aktuellen Ansätzen und Perspektiven zu agency in Elektroakustischer Musik und Computermusik vgl. Array, Ausgabe 2019) Ein Beispiel für Agent-Systeme mit kreativer Anwendung sind Musical Agents (Malt 2004, 2). Tatar und Pasquier definieren diese als Artificial Agents, die eine teilweise oder komplette Bearbeitung zugewiesener künstlerisch-musikalischer Aufgaben automatisiert ausführen und dazu Methoden der Multi-Agent-Systeme

442 

 Miriam Akkermann

oder Verfahren aus der Artificial Intelligence nutzen (Tatar und Pasquier 2019, 56). In ihrem 2018 eingereichten Paper präsentieren sie eine Zusammenstellung von 78 Musical-Agent-Systemen, die sie auf neun Kriterien hin untersuchen: Architektur der Agents, musikalische Aufgaben, Anzahl der eingesetzten Agents, Anzahl der Agent-Rollen, Umgebungs-, Kommunikations-, Korpus- und Input-/Output-Arten sowie Interaktionsmodalitäten mit dem Menschen. Alle Musical-Agent-Systeme werden dabei, basierend auf dem jeweiligen Aufbau und den implementierten Verfahren, einer von drei Gruppen zugeordnet: Cognitive Musical Agents, Reactive Musical Agents und Hybrid Musical Agents (Tatar und Pasquier 2019, 57–60; Tatar 2019, 12–13). Letztgenannte Gruppe enthält auch das von Tatar und Pasquier selbst entwickelte System MASOM Musical Agent based on Self-Organizing Maps.

2 Musical Agent based on Self-Organizing Maps (MASOM) MASOM ist ein Software Agent (Computerprogramm)/Musical Agent, der für den Einsatz in Echtzeit konzipiert und für musikalische Anwendungen im Bereich der experimentellen Musik und der freien Improvisation ausgelegt ist. Das System wird mit einem Korpus vorgegebener Tonaufnahmen trainiert und benötigt für den Einsatz ein Audiosignal als Live-Input. Der Agent ‚erlernt‘ also einerseits anhand der vorgegebenen Audiodateien, z.  B. Aufnahmen von Aufführungen bestimmter Kompositionen, bestimmte musikalische Stile oder Merkmale. Hierbei ist es möglich, MASOM an einem maximal großen und für einen Menschen in diesem Umfang nicht mehr rezipierbaren initialen Musikkorpus zu trainieren – eine Qualität, die nach Alexander Waibel (2021) Alleinstellungsmerkmal und Unzulänglichkeit zugleich ist, da sie die Möglichkeit der Verarbeitung immenser Datenmengen mit der Unmöglichkeit, von wenigen Beispielen auf eine Gesamtheit zu abstrahieren, impliziert. Andererseits ist ein Live-Input nötig, für den die bei der Aufführung durch die (menschlichen oder automatisierten) Mit-Musiker:innen oder dem Musical Agent selbst erzeugten Klänge dienen. Diese Audio-Inhalte werden ebenfalls kontinuierlich gelernt, mit den bereits vorhandenen Daten abgeglichen und mittels implementierter Regelwerke verarbeitet. Daraus resultieren dann die weiteren ‚Handlungen‘ des Musical Agent. Tatar und Pasquier (2018) sprechen bei diesem datenbasierten Training von einem ‚(Zu-)Hören‘ auf zwei Ebenen: dem ‚Anhören‘ vorangegangener Aufführungen sowie dem ‚Hören‘ der real und in Echtzeit auftretenden musikalischen Ereignisse. MASOM wird damit auch sprachlich in Teilen zu einem Akteur mit lebendigen Zügen, der ein datenbasiertes Wissen hat und dem implizit kognitive Eigenschaften zugeschrieben werden.

REVIVE?! Musikaufführungen von und mit Multi-Agent-Systemen 

 443

Diese mehrschichtige Anlage spiegelt sich auch im Aufbau von MASOM wider (Programmcode in Tatar 2020a), so handelt es sich um ein Multi-Agent-System, dem eine hybride Architektur zugrunde liegt, d.  h., es werden – in Subsystemen oder Layern – mehrere Agent-Systeme unterschiedlicher Ansätze in einem übergeordneten System zusammengeschlossen. Die meisten Hybrid Systems bestehen aus einer Kombination von Deliberative Agents (diese verfügen über einige Kenntnisse in einem Anwendungsgebiet und sind in der Lage, mit diesem Wissen eine komplizierte Aufgabe auszuführen; oft sind dies Verfahren aus dem Bereich der Artificial Intelligence) und Reactive Agents (diese verfügen über ein vorbestimmtes Regelwerk, das reflexartig ausgeführt wird; es besteht nicht die Möglichkeit, einen vorherigen Zustand bzw. eine vorangegangene Handlung zu speichern). Tatar und Pasquier ordnen MASOM zudem den Hybrid Musical Agents zu, die kognitive Modelle verwenden, was sie von anderen Systemen unterscheidet, die auf statistischer Sequenzmodellierung basieren, statistische Sequenzmodellierung mit regelbasierten Modellen kombinieren oder künstliche Neuronale Netze implementieren (Tatar und Pasquier 2019, 80–89). Multi-Agent-Systeme bieten bei der Modellierung und Gestaltung musikalischer Aufgaben die Möglichkeit, eine Struktur mit verteilten, koordinierten Einheiten, die Wahrnehmungs- und Handlungsfähigkeiten umfassen, zu erstellen. Dies ist insbesondere dann zentral, wenn, wie bei MASOM, eine wechselseitige Interaktion mit anderen Agents (Software Agents oder Menschen) erwünscht ist: Der Musical Agent soll nicht nur allein, sondern auch zusammen mit anderen interagierend Musik erzeugen. Dazu sind die in MASOM implementierten Agent-Systeme basierend auf drei verschiedenen Verfahren angelegt: 1) Self-organizing Maps (eine Form künstlicher Neuronaler Netze, die, nach dem Modell von Kohonen (1990, 1464; 1474) ungerichtetes Lernen nutzen, um sogenannte Maps [Karten] – diskrete, niedrigdimensionale Darstellungen von aus dem multidimensionalen Input extrahierten abstrakten Informationen  – zu erstellen) als musikalisches Gedächtnis zum Lernen und Erinnern von Audiosamples: Mittels Self-organizing Maps können eingehende Klänge automatisch segmentiert und per Thumbnailing auf einer zweidimensionalen Karte reduziert dargestellt werden, auf der sich gleichartige Klangcluster näher beieinander befinden. Der Zeitlichkeit der musikalischen Form wird durch eine automatisierte Mustererkennung auf dem so organisierten Tonspeicher nachgespürt; die musikalische Form wird dabei als eine zeitliche Verschiebung der vorkommenden Klangcluster angenommen, die in einem entsprechenden Merkmalsraum organisiert sind (Tatar und Pasquier 2017, 1–2; 2018, 2–3). 2a) Markov-Modelle variabler Ordnung zur Mustererkennung und -generierung in der Musik: Hierbei wird das Verfahren PPM-C (Prediction by Partial Matching PPM) verwendet. Dieses, nach Tatar und Pasquier für kleine und mittelgroße

444 

 Miriam Akkermann

Audiokorpora von bis zu etwa 1 GB (Audioaufnahmen in verlustfreien StereoWave-Dateien) ausreichende Verfahren wurde 2018/19 für eine verbesserte Anwendung auf größere Audiokorpora, mit 2b) generativen Factor Oracles ersetzt. Diese endlichen Automaten können, so die Entwickler, effizient nach ‚factors‘ (Substrings, also Zeichensequenzen) suchen und auch als statistische Sequenzmodellierungsalgorithmen eingesetzt werden. Der Wechsel des Verfahrens ist nach Aussage der Ersteller auf zwei für sie wichtige Aspekte zurückzuführen: Bei größeren Datenmengen werden durch die Verwendung von Factor Oracles Klänge mit konsistenterer Klangfarbe generiert und Factor Oracles können an einer einzigen Sequenz ausgebildet werden. Diese neuere Variante wird auch in der Bezeichnung kenntlich gemacht und als MASOM-FO bezeichnet (Tatar et al. 2019a, 5–6). 3) Verfahren des Affective Computing und Machine Listening, um menschliches Hören nachzubilden; ein besonderer Aspekt ist hierbei die Sound Affect Estimation, die sowohl in Echtzeit (online) als auch in Rechenzeit (offline) erfolgen kann. Um die Klangeigenschaften zu erkennen, wird in MASOM mit Hilfe der am IRCAM entwickelten Plug-Ins PiPo Externals (http://ismm.ircam. fr/pipo/) und MuBu for Max (http://ismm.ircam.fr/mubu/) die spectral magnitude analysiert. Diese wird dann segmentiert und ihr werden jeweilige Eigenschaften zugeordnet, darunter Klangfarbe (anhand des Frequenzspektrums), Grundfrequenz, Lautstärke, Dauer der Hörprobe sowie Merkmale der Music Emotion Recognition (Tatar und Pasquier 2019, 88–89; Tatar et al. 2019a, 4–5). Betrachtet man MASOM anhand der Kriterien, die von Tatar und Pasquier (2018) selbst benannt werden, kann das System als ein homogenes Multi-Agent-System mit kognitiver Architektur beschrieben werden. Basierend auf einem hybriden Korpus, dessen Input und Output in Audioformat vorliegt, agiert es mittels Singe-role Agents in der realen Welt (Environment). Die Kommunikation dieses Musical Agent erfolgt über das Environment und nicht innerhalb des Multi-Agent-Systems selbst. Es müssen also immer in irgendeiner Form externe Informationen – Audiodaten – an den Musical Agent herangetragen werden, die als Input eingespeist werden. Für eine Interaktion bedeutet dies, dass MASOM über Audiodaten sowohl mit Menschen als auch mit anderen Software Agents – oder sich selbst (zusammen-)spielen kann. Im Sinne der Musical Metacreation umfassen die an MASOM gestellten Aufgaben Improvisation und Komposition. Bei der Präsentation von MASOM fällt auf, dass technische Inhalte und musikalische Zuschreibungen nicht immer auf den ersten Blick klar trennbar sind. Dies wird insbesondere beim Bereich der Music Emotion Recognition deutlich. Hier wird die Assoziation geweckt, das System könne (von sich aus) Emotionen erkennen und

REVIVE?! Musikaufführungen von und mit Multi-Agent-Systemen 

 445

in Reaktion darauf Klänge mit entsprechend passendem Emotionsgehalt generieren. Die Differenzierung bezieht sich jedoch nicht auf das systematische Erkennen von bestimmten, mit Emotionsmarkern besetzten Strukturen (siehe hierzu u.  a. auch Dubrov und Assayag 2005 sowie Kirke und Miranda 2015), sondern auf die sprachliche Zuschreibung, ein Musical Agent könne ‚emotional handeln‘, habe also implizit ein ‚emotionales Selbst‘. Technisch ist die Music Emotion Recognition ein von Tatar et al. (2019a, 4) erstelltes Modell für maschinelles Lernen, das auf den von Jianyu Fan, Miles Thorogood und Pascal Pasquier erstellten ‚Emo-soundscapes‘-Datensatz trainiert ist. Dieser setzt sich aus 600 Soundscape-Aufnahmen zusammen, die im Rahmen eines Hörexperiments von Hörenden mit Label der hervorgerufenen Emotionen versehen wurden (Fan et al. 2017, 197). Für die Auswertung wurden die Begriffe Valence und Arousal mit Eventfulness bzw. Pleasantness ersetzt. Damit soll, so Tatar et al. (2019a, 4), der Tatsache Rechnung getragen werden, dass ein Klang an sich keine Emotion empfindet, sondern eine Emotion hervorruft  – also Klänge nicht in Kategorien eingeteilt werden sollen, die der (menschlichen) Kognitionsforschung entstammen. Die daraus resultierenden Ergebnisse werden dann, laut Beschreibung, in MASOM auf Elemente wie musikalische Konsonanz, melodische Bewegung oder Rhythmus übertragen (Tatar und Pasquier 2019, 67). Damit handelt es sich um eine komplexe Architektur, aus der kein direktes emotionales Verhalten resultieren kann, die jedoch menschliche Bewertungskriterien emotionaler Zuschreibungen zu bestimmten Audiobeispielen einbettet. Zwar wird damit inhaltlich gegen eine ‚Vermenschlichung‘ des Systems MASOM argumentiert, in der Beschreibung des Einsatzbereichs und Handlungsspielraums von MASOM wird das Verwischen der Grenzen zwischen Agent und Zuschreibung jedoch nicht tiefergehend adressiert. Ein Grund dafür, an dieser Stelle nicht explizit die Grenze zwischen einer möglichen Emotionalität der Maschine und menschlichem Output zu ziehen, also die vage Möglichkeit zu erhalten, dass das System in der Lage sei, in einer Aufführungssituation sowohl mit klanglich passenden Elementen zu reagieren als auch die Emotionalität entsprechend interpretieren und wiedergeben zu können, könnte die grundlegende Zielsetzung sein, mit MASOM einen eigenständigen Musical Agent zu schaffen, der innerhalb eines bestimmten Rahmens wie ein Mensch agieren kann. Im Projekt REVIVE wird dieser Gedanke von MASOM als menschliche:r Repräsentant:in noch weiter ausgebaut, so wird MASOM mit jeweils speziell vorgegebener experimenteller elektronischer Musik trainiert, um gemeinsam mit Tatar und Pasquier bei Live-Performances zu interagieren. MASOM nimmt hierbei sowohl technisch als auch in der Zuschreibung die Position eines:r Mit-Musiker:in bei der Aufführung ein.

446 

 Miriam Akkermann

3 REVIVE Ausgehend von der Frage, ob es möglich ist, MASOM-Agents so zu trainieren, dass sie in Live-Aufführungen ‚im Sinne‘ bzw. ‚an Stelle‘ eines:r bestimmten Komponist:in agieren können, entsteht das Projekt REVIVE, in dem Tatar, Pasquier und Remy Siu die MASOM-Agents mit verschiedenen Korpora ausgewählter Komponist:innen trainiert werden. Es entstehen improvisationsbasierte audiovisuelle Live-Performances, die von den Ersteller:innen selbst in der experimentellen elektronischen Musik verortet werden (Tatar et al. 2018, 2). Durch den Trainingsprozess, so die Idee, sollen die existierenden Aufzeichnungen – die statischen Daten also – in ein interaktives klangliches Gedächtnis des Agent und damit in ein mit diesem speziellen Wissen aufgeladenes System überführt werden, welches dann (ideell) in der Lage ist, den Stil eines:r bestimmten Komponist:in (Urheber:in der Trainingsdaten) live nachzubilden (Tatar und Pasquier 2018, 3). Erste Projekte mit ähnlicher Intention entstanden bereits Ende der 1990er Jahre u.  a. von Gerard Assayag (Assayag et al. 1999). Als Aufführende sind in REVIVE insgesamt drei Akteure mit musikalischklanglichem Output (Tatar, Pasquier und MASOM-FO-Agents) sowie drei Akteure mit visuellem Output (drei unabhängige Gruppen von Visual Agents) angelegt, die jeweils einem der drei Klang-Akteure zugeordnet sind, wobei den Visual Agents Siu als (technisch-ideelle) menschliche Kontrollinstanz vorsteht. Auf klanglicher Ebene erfolgt die Interaktion in Echtzeit über das kontinuierlich entstehende Klangmaterial, so reagieren die musikalischen Akteure jeweils auf die entstehenden, real hörbaren Klänge, die, je nach technischer Ausstattung, mittels 3D-Audio im Raum verteilt werden können. Im Ablauf einer Aufführung können die Akteure, je nach Abschnitt der Performance, eine bestimmte Rolle für die strukturierte Improvisation zugewiesen bekommen. Dies wird durch die Nutzung eines Cue-Systems ermöglicht, das eine automatisierte Parameterverwaltung erlaubt. In REVIVE wird dazu Jamoma Modular Patching And Programming For Realtime Media (http:// www.jamoma.org) verwendet, ein Software-Tool zur Kontrolle und Verwaltung von Medienverarbeitungsprozessen. Damit können grundlegend auch kompositorische Ansätze implementiert werden. Die Visual Agents übertragen den Haupt-Audio-Output ihres jeweiligen Klang-Akteurs mit Hilfe von generativen Verfahren in Echtzeit in visuelle Elemente. Das entstehende Bildmaterial kann dabei auch der räumlichen Verortung des Audio-Materials folgen. Dadurch sollen beispielsweise musikalische Gesten besser sichtbar werden, die bei der Aufführung elektroakustischer Musik sonst verloren zu gehen scheinen. Zusätzlich zu den drei Hauptklangquellen, die, von den Akteuren erzeugt, im Vordergrund stehen und über verschiedene Lautsprecher bewegbar sind, erzeugt Pasquier weitere Hintergrundklänge, die über einen separaten Kanal direkt auf alle Lautsprecher geschickt werden (Tatar et al. 2018, 1; 2019a, 2; 4; 7).

REVIVE?! Musikaufführungen von und mit Multi-Agent-Systemen 

 447

REVIVE ist damit als ein komplexes System angelegt, dessen einzelne Elemente – Menschen und Multi-Agent-(Sub-)Systeme – sich wechselseitig beeinflussen, wobei die gemeinsame Interaktionsgrundlage das erklingende Audio darstellt. Alle bei REVIVE eingesetzten Agents ‚hören‘ daher dem live-erzeugten Klangresultat zu, sowohl die Musical Agents als auch die Visual Agents.

3.1 Musical Agents Für die strukturierte Improvisation sind in REVIVE drei musikalische Akteure vorgesehen: MASOM-FO-Agents, Pasquier und Tatar. Die MASOM-FO-Agents nehmen durch die ihnen zugeschriebene Rolle der (durch die Trainingsdaten) ‚wiederauflebenden‘ Komponist:innen eine besondere Stellung ein, so stehen sie für die Ausgangsidee von REVIVE. Ihre Position als künstliche:r künstlerische:r Stellvertreter:in wird jedoch durch die Art des Trainings der Factor Oracles limitiert, so werden die Agents beispielsweise nach Tatar et al. (2019a, 5) in jedem Abschnitt von Grund auf neu trainiert. Damit wird in REVIVE das adaptive Verhalten von MASOM-FO zugunsten einer höheren Interaktivität aufgegeben: Das verwendete statistische Sequenzmodell kann (theoretisch) jederzeit während der Performance verändert werden (Tatar et al. 2019a, 2), was es möglich macht, die musikalischen Einschränkungen und Rollen des Agent ad hoc zu definieren, indem die Verwendung bestimmter Klangcluster als Trainingsbasis (neu) bestimmt wird – und somit auch die zeitlichen Muster und Strukturen der Audioaufnahmen, die dem Lernprozess zugrunde liegen. Zudem können durch die in den eingebetteten Self-Organizing Maps enthaltenen Trainingssamples auch Subsets von Klangclustern enthalten sein, die im Datensatz nicht explizit ausgewählt werden. Dies führt trotz eventuell hoher Einschränkungen zu Abwechslung im Audio-Out. Auch die Indizierung der Factor Oracles wird in REVIVE per Cue gesteuert. Hierbei initiieren die Factor Oracles die Indizierung der Self-Organizing-Maps-Knoten (Cluster) der Klangauswahl anhand von zwei Kriterien: dem Abspielen der Samples in vorgegebener Reihenfolge und benutzerdefinierten Zeitintervallen. Die menschlichen Agents stehen künstlerisch für sich selbst. Pasquier nutzt in den REVIVE-Aufführungen Kenaxis 11 einen MAX-basierten Sampler als Instrument, der sowohl REVIVE-Samples als auch Samples von analogen Synthesizern wie dem EMS Synthi AKS, dem Korg Mono/Poly, dem Serge Modular Music System und Klänge analoger Eurorack-Synthesizer-Module sowie field recordings von Wäldern, Wasserfällen und Gewittern umfasst. Den Sampler wie auch die angeschlossenen Granularsynthese-Prozesse steuert er live mit einem BCF-2000 MIDI-Controller. In seiner Rolle als Musical Agent nutzt er dieses Setup für zwei Einsatzbereiche: für das Erstellen von Drones und Klangtexturen als Hintergrundklänge und das Spielen

448 

 Miriam Akkermann

melodischer Motive sowie für das Steuern von Live-Effekten als einer der drei im Vordergrund stehenden, klangerzeugenden Akteure. Während Pasquier von der Verwendung einzelner, vorselektierter Samples ausgeht, entstammt Kıvanç Tatars klangliches Ausgangsmaterial seinen FixedMedia-Kompositionen, die er für die Improvisation mithilfe von Wavetable-Synthese-Verfahren in ein klangliches Vokabular zerlegt und mit live-generierten Klanggesten kombiniert. Zur Steuerung dieser Elemente nutzt Tatar einen XBoxGame-Controller, mit dem er sowohl die Wavetable-Synthese als auch die Spatialisierung seiner Klänge im Raum kontrollieren kann (Tatar et al. 2019a, 2; 5–6).

3.2 Visual Agents Auch die Visual Agents, die ihrerseits mit eigenständigen generativen Prozessen ausgestattet sind, interagieren über das im Environment erklingende Audio, sie sind jedoch als rein reaktive Systeme angelegt. Mittels Machine Listening erkennen sie u.  a. Audiomerkmale wie Klangspektrum, Lautstärke und Tonhöhe, ob ein KlangAkteur aktiv ist und wann ein Klangereignis initiiert wird. Darauf bezugnehmend heben sie bestimmte ‚Handlungen‘ der Musical Agents hervor oder zeichnen diese nach, was es, den Erstellern nach, dem Publikum erleichtern soll, Verbindungen im Klanggeschehen und damit die (Inter-)Aktionen der Musical Agents zu verstehen (Tatar et al. 2018, 3–4). Das von den Visual Agents generierte Datenmaterial wird in Touch Designer 5 (Derivative) gerendert und in einer Projektion zusammengefasst (Tatar et al. 2019a, 3–4). Siu ist als Video Developer in die Programmierung der Visual Agents eingebunden. Zwar ist angegeben, dass er eine Kontrollfunktion übernimmt (Tatar et al. 2019b, 46), diese ist jedoch eher in der strukturellen Anlage der Visual Agents zu sehen, so arbeiten diese bei den Aufführungen automatisch und direkt in Abhängigkeit vom Audio-Input. Die visuelle Repräsentation der Klänge erfolgt durch sogenannte Partikelwolken, deren Verhalten Bezug auf die Eigenschaften des jeweils zugeordneten Klangs nimmt. Maßgebliche Parameter sind hierbei Frequenz und Lautstärke: Das Zentrum der Partikelwolken wird initial durch ein statisches Rauschen festgelegt, danach sind die Parameter dann an die eingehenden Klangeigenschaften gebunden. Die Streuung der Partikel in der Wolke wird von der Gesamtlautstärke bestimmt. Wird ein bestimmter Schwellenwert der Gesamtlautstärke überschritten, ändert sich die Art der Verteilung der Partikel und es erhöht sich deren Bewegung, je mehr sich die Lautstärke einem festgelegten Maximalwert nähert. Die Lautstärke des Basses bestimmt, wie weit sich die Partikel vom Zentrum der Wolke entfernen können. Die Partikel selbst haben, je nach Auswahl, die Form von Sprites (Blitzen), Linien oder Dreiecken. Die Farbe der Partikelwolken ist entweder statisch an den

REVIVE?! Musikaufführungen von und mit Multi-Agent-Systemen 

 449

jeweiligen Musical Agent gebunden oder wird durch die Lautstärke des FrequenzMittelbandes bestimmt. Übergeordnete Effekte wie Blur oder Feedback, die auf den Output aller drei Visual Agents angewendet werden, sind wiederum an die Gesamtlautstärke der Aufführung gebunden. Die drei so entstehenden Partikelwolken sind in den Aufführungen zumeist nebeneinander in einer Projektion angeordnet zu sehen. Über die Verteilung und Bewegung der Partikel kommt es auch teils zu Überlappungen der drei visuellen Repräsentationen, was der visuellen Darstellung eine dem erklingenden Audio ähnliche Dynamik verleiht.

3.3 Zusammenspiel aller Agents in REVIVE REVIVE ist als eine strukturierte Improvisation angelegt, bei der die involvierten Akteure sowohl im formalen Ablauf als auch in ihrer ästhetischen Ausgestaltung durch die implementierten Systeme geleitet werden. Über das in Jamoma eingebettete Cue-System wird eine Zeitleiste festgelegt, nach der zu bestimmten Zeitpunkten vordefinierte (musikalische) Abschnitte ausgelöst werden, die automatisiert Parameter im Set-up verändern. Wie auch die klangbildenden Elemente und die Machine-Listening-Module der Visual Agents ist Jamoma, dessen Funktionen über Skripte festgelegt werden, in MAX implementiert. Grundlegend ist es damit möglich, sowohl automatisch alle Parameter der MAX-Elemente zu sammeln, die als Jamoma-Module festgelegt sind, als auch festgelegte Parameter auf einen beliebigen Wert anzuheben oder Pausen einzulegen, also die Zeitleiste temporär anzuhalten (Tatar et al. 2019a, 2). Auch die jeweiligen Rollen der Musical Agents werden im Cue-System festgelegt. Diese Rollen können sowohl zusätzliche Aufgaben wie z.  B. das Füllen des Hintergrund-Klangbilds umfassen als auch durch Spielanweisungen definiert sein, beispielsweise das Generieren repetitiver Bässe mit schnellen räumlichen Bewegungen, improvisatorisches Spiel in Reaktion auf die klanglichen Gesten von MASOM-FO oder Pausen. Da die Rollenzuteilung über Jamoma in MAX geschieht, beziehen sich die strukturellen Vorgaben vor allem auf das Mapping und die Parameter der involvierten Software Agents sowie Spielanweisungen und die Klangverteilung für die Menschen. Eine Idee hinter dieser strukturierten Improvisation ist es, so Tatar et al. (2019a, 1), das Arbeiten innerhalb dieser komplexen Aufführungsumgebung zu erleichtern. Die musikalischen Interpreten könnten sich so mehr auf die Ästhetik konzentrieren und müssten weniger auf die technische Struktur achten. Dabei erleichtert diese Anlage aber nicht nur das Zusammenspiel – diese Konstellation erlaubt implizit ebenfalls, dass die Software Agents in ihrer Handlung, entgegen der ihnen zugesprochenen Eigenständigkeit, von den involvierten Menschen auch während einer Aufführung gelenkt oder ihre (Klang-)Ergebnisse nachjustiert werden können.

450 

 Miriam Akkermann

Weniger komplex als das Zusammenspiel der Musical Agents ist die Interaktion von Musical Agents und Visual Agents, so reagieren die Visual Agents direkt auf das Audio und filtern einzelne Merkmale aus dem Audiosignal heraus, um diese dann automatisch nach den implementierten Vorgaben bzw. Voreinstellungen in visuelle Darstellungen umzusetzen. Dies stellt insbesondere für die Zuordnung eine besondere Herausforderung dar, da Mapping-Tools in der Regel nicht auf die Überprüfung und den Vergleich mehrerer Mapping-Möglichkeiten ausgelegt sind. Schritte in diese Richtung sind, so Tatar et al. (2019a, 7) in der OSSIA-13-Initiative zu finden, die ein Open Software System for Interactive Application entwickelt (https://ossia. io). Dieses Open-Source-Framework erlaubt das Erstellen von Zeitabläufen und Mapping innerhalb interaktiver Szenarien basierend auf OSC. Da die Visual Agents nur reaktiv angelegt sind, entfällt eine explizite Interaktionsmöglichkeit mit den Musical Agents – es werden nur Visuals generiert, keine Audio-Elemente. Dennoch könnte auch hier eine indirekte Interaktion entstehen, indem sich die menschlichen Agents Tatar und Pasquier durch den visuellen Eindruck der erzeugten Grafiken beeinflussen lassen – wenn sie dies möchten und sie, je nach Aufbau, von ihrer Spielposition aus auch die Visuals entsprechend gut sehen.

3.4 REVIVE-Aufführung Eine Aufführung von REVIVE setzt sich für das Publikum aus Klängen von vier Einheiten (den drei Musical Agents und dem Hintergrundklang) sowie dem Bildmaterial der drei Visual Agents zusammen. Die Klänge können durch die Implementierung der IRCAM-SPAT Max library (https://forum.ircam.fr/projects/detail/ spat/), insofern ein entsprechendes Lautsprechersystem für die REVIVE Aufführung vorhanden ist, räumlich auf ein Lautsprecher-Set-up verteilt werden. Zur Steuerung der Spatialisierung wird ein 3D-Vektor-basiertes Amplituden-Panning verwendet. Die räumliche Positionierung der von Pasquier und MASOM-FO produzierten Klänge erfolgt generativ über kreisförmige, tangentiale und zufällige Laufbahnen und wird über das Cue-System geregelt, das auch die Bewegungsgeschwindigkeit der Klänge für alle drei Musical Agents festgelegt. Tatar kontrolliert die Position seines Klang-Outputs in Echtzeit über seinen Game Controller selbst (Tatar et al. 2019a, 7). Für die räumliche Verteilung der Klänge spielt der Aufführungsort eine zentrale Rolle. Ist dieser zu groß oder zu klein oder nicht mit einer angemessenen Anzahl an Lautsprechern ausgerüstet, sind einige Aspekte für die Spielenden nicht umsetzbar oder für die Hörerschaft nicht rezipierbar. Das Gleiche gilt auch für die Visuals: Sind nicht alle drei Visualisierungen für das Publikum gut sichtbar bei entsprechender Hörqualität, so ist auch der Effekt einer Illustration des Audio-Outputs zur verbesserten Nachvollziehbarkeit der klanglichen Ereignisse eingeschränkt.

REVIVE?! Musikaufführungen von und mit Multi-Agent-Systemen 

 451

Einige der Herausforderungen, die ein solch komplexes, interaktives Set-up für Aufführungen mit sich bringt, treten 2019 in New York (USA) zu Tage. Die Aufführung von REVIVE findet am Donnerstag, den 20.  Juni 2019, im Rahmen der zusammengeschlossenen Festivals International Computer Music Conference ICMC und New York City Electroacoustic Music Festival NYCEMF im „Konzert 17“, einem von Daniel Neumann kuratierten Late-Night-Konzert statt, das ab 23.00 Uhr in der Fridman Gallery in New York zu hören ist. Im zugehörigen Programm sind Kıvanç Tatar als Performer und Audioentwickler, Philippe Pasquier als Performer und Ersteller des Systemdesigns, Remy Siu als Kooperationspartner und Videoentwickler sowie MASOM als „AI performer“ gelistet. Die Dauer der Aufführung ist mit 8′30″ angegeben (Tatar et al. 2019b, 46). Siu ist bei der Aufführung in New York nicht anwesend. Konzertort ist das Untergeschoss der Fridman Gallery, ein mittelgroßer, rechteckiger Raum mit einer – für einen Konzertraum – niedrigen Deckenhöhe und ohne Bühne. Die Performer sind an einem an der Längsseite des Raumes aufgestellten Tisch hinter einem großen Aufbau an technischen Geräten platziert, das Publikum sitzt auf Stühlen leicht gedrängt davor. Eine festgelegte Blick- bzw. Hörrichtung wird durch das Set-up nicht vorgegeben. Um das Publikum herum sind acht Lautsprecher platziert, die Projektion erfolgt auf die den Performern gegenüberliegende Wand. Die Idee, mit der Visualisierung dem Publikum eine Hilfe beim Hören und Erkennen der Klänge zu geben, ist hierbei durch die zumeist durch andere Menschen eingeschränkte Sicht auf die Projektion nur in Teilen gegeben. Damit kann der Anspruch, dem Publikum die klanglichen Vorgänge durch die Visuals transparent zu machen, durch das ungünstige Setting in weiten Teilen nicht umgesetzt werden. Die Spatialisierung der Klänge über die vorhandenen Lautsprecher ist in diesem Set-up vor allem durch die beengte Räumlichkeit kaum nachverfolgbar. Auf einer reinen Hörebene ist auch eine Unterscheidung der verschiedenen Musical Agents kaum möglich, jedoch sind Vordergrund- und Hintergrundklänge als solche vernehmbar. Bei der Aufführung in New York wird MASOM – entgegen der konzeptionellen Ausrichtung  – nicht dezidiert mit Kompositionen eines:r bestimmten Künstler:in trainiert. Das Trainingsdatenset setzt sich aus verschiedenen Stücken der elektroakustischen Musik und repetitiver, experimenteller elektronischer Musik aus dem IDM-Bereich zusammen (Tatar 2020b). Entgegen des Titels, der mit REVIVE auf die grundlegende Idee verweist, MASOM als Stellvertreter eines:r Komponist:in zu konzipieren, wird das Konzept, eine Person durch MASOM stellvertretend ‚(wieder)aufleben zu lassen‘ (‚to revive‘), in der Aufführung in New York nicht umgesetzt. Zudem ist das Heraushören einzelner Spezifika innerhalb der Aufführung oder gar das Erkennen des Trainingsmaterials – auch aufgrund der Komplexität der resultierenden Klänge und der Hörsituation – kaum möglich. Hierzu bedürfte es einer genaueren Analyse des Trainingsdatenmaterials

452 

 Miriam Akkermann

wie auch des gesamten Klangoutputs – Daten, die in dieser Form nicht vollständig existieren. Demgegenüber wird die Idee, eine Aufführungsumgebung zu schaffen, in der MASOM als Mitmusiker:in integriert ist, der:die mit seinen:ihren (Inter-)Aktionen nicht erkennbar anders handelt als die menschlichen musikalischen Akteure – und damit implizit musikalisches Material kreiert, das, wäre es von einem Menschen gemacht, als künstlerisch-kreativ eingestuft werden könnte  –, jedoch durchaus umgesetzt. REVIVE wird damit zum Ausgangspunkt, um das Zusammenspiel von menschlichen und nicht-menschlichen Agents – im Speziellen MASOM – auszuloten und zu präsentieren. Der Fokus verschiebt sich damit stillschweigend weg von dem Interesse, bereits Existierendes nachzubilden hin zu der impliziten Frage, inwiefern Musical Agents wie MASOM als Mit-Musiker:innen in Aufführungen agieren (können).

4 Musical Agents als Mitmusiker:innen – nur eine Zuschreibung? Die Frage, inwieweit Musical Agents ähnlich künstlerisch-kreativ handeln können wie Menschen, steht in engem Zusammenhang mit den Zuschreibungen an die von den Agents produzierten Ergebnisse. Einerseits finden gerade in Multi-Agent- und Machine-Learning-Systemen komplexe Prozesse statt, die zu Ergebnissen führen, die über das hinausreichen, was als initialer Ergebnisraum angelegt ist. Andererseits können die Systeme nur systemimmanent arbeiten, also keine neuen Verbindungen dort herstellen, wo solche in ihrer Möglichkeit nicht angelegt sind. Eine dabei implizit mitverhandelte Frage ist, gerade bei selbstlernenden Systemen, inwieweit diese Prozesse wirklich eigenständig sind – und dementsprechend unabhängige Ergebnisse liefern, und ob dies überhaupt intendiert ist. Denn über das Systemdesign kann in vielfältiger Weise Einfluss darauf genommen werden, welche Ergebnisse Agents produzieren. Bei Musical-Metacreation-Systemen wird zwischen spezifischen und generischen Systemen unterschieden, also Systemen, die entweder möglichst genau einem Zweck folgen (spezifisch) oder in ihrer Anlage eine möglichst große Allgemeingültigkeit aufweisen (generisch). Beispielsweise werden zum einen spezifische Systeme von Musiker:innen/Komponist:innen zu künstlerischen Zwecken geschaffen, die oft dazu neigen – absichtlich oder unabsichtlich – in der Ästhetik ihrer Ersteller:innen verhaftet zu bleiben und daher eher Variationen desselben zu produzieren, als völlig neue Versionen zu erzeugen; zum anderen wird versucht, mit generischen, korpusbasierten Stilimitationssystemen das gesamte musikalische

REVIVE?! Musikaufführungen von und mit Multi-Agent-Systemen 

 453

Wissen aus einem bereitgestellten Korpus abzuleiten – und dann ggf. zu reproduzieren (Pasquier et al. 2017, 7). Bei beiden Systemarten ist das Ziel, musikalisches Material zu erzeugen, das als menschlich-kreativ angesehen wird. Die Zuschreibungen von komplexen Handlungs- und vor allem Entscheidungsspielräumen stimmen jedoch nicht zwangsweise mit den technischen Gegebenheiten überein. Oft sind sie mit einer ideellen Haltung oder einer künstlerischen Idee verbunden, was sich zum Teil auch in der sprachlichen Ausgestaltung spiegelt. Hinzu kommt, dass eine sprachliche Personifizierung z.  B. der Agents oft die (abstrakte) Erklärung der jeweils vorhandenen Möglichkeiten erleichtert. Sprechen Tatar und Pasquier beispielsweise davon, dass die Visual Agents ‚zuhören‘, so ist dies ein Ausdruck für ihre Idee, die Agents über das hörbare Audio interagieren zu lassen, eine sehr bildliche Beschreibung der technischen Vorgänge sowie ein Sinnbild für kognitive Fähigkeiten, die sie ihren Agents in der Außenwahrnehmung damit zu- und einschreiben. Die Darstellung, MASOM ‚höre‘ sich eine große Anzahl an Tonaufnahmen an, um das Training an einem Datensatz zu erklären, illustriert nicht nur den Vorgang, sie trägt gleichzeitig eine implizite Zuweisung menschlicher Fähigkeiten in sich, was durch die Beschreibung, MASOM habe ein ‚Gedächtnis‘ und damit auch ein ‚Wissen‘, verstärkt wird. Werden die implementierten Verfahren von der Modellierung kognitiver Prozesse abgeleitet, so wird eine Trennung der künstlerischen Intention von der Idee einer menschen-ähnlichen Handlungsweise zudem durch eine Überschneidung der Begrifflichkeit erschwert, die nun synonym zur technischen Systembeschreibung wie auch zur Erklärung der dahinterstehenden Idee verwendet wird. Ein Beispiel benennen Tatar et al. (2019a, 4) hierzu selbst, indem sie die Begriffe Valence und Arousal ersetzen und herausstellen, dass die Bewertung der Klangresultate immer auf Seiten der Hörer:innen stattfinde, da ein Klang selbst keine Emotion habe, sondern das Hören eines Klanges Emotion hervorrufe. Die Frage nach der Eigenständigkeit der Agents ist hiermit eng verbunden. Werden Musical Agents als vollwertige Mit-Musiker:innen in Aufführungen integriert, so wird ihnen innerhalb dieser Aufführungsumgebung eine den menschlichen Musiker:innen gleichwertige Rolle zugewiesen, auch wenn die jeweiligen Handlungsräume unterschiedlich ausgeprägt sind. Dies sagt jedoch nicht zwangsläufig etwas über die technischen Möglichkeiten, den Umfang des Handlungsspielraums oder die Eigenständigkeit der Agents aus. Ist das Regelwerk, in das die Agents wie auch die Menschen eingebunden sind, beispielsweise sehr restriktiv, ist es durchaus möglich, dass alle Akteure denselben – sehr geringen – Handlungsspielraum haben und damit innerhalb des Systems gleichwertig (inter-)agieren. Wird in REVIVE die Rollenzuteilung über Jamoma geleitet, so beziehen sich die Vorgaben des Systems vor allem auf die Parameter der involvierten Software Agents. Die Menschen werden zwar implizit auch über das so entstehende Klangresultat

454 

 Miriam Akkermann

geleitet, es wird jedoch davon ausgegangen, dass diese sich – real hörend – dem Klanggeschehen angleichen. Insgesamt, so scheint es, führt die Frage nach dem Musical Agent als Mit-Musiker:in schlussendlich auch zur Frage danach, ob die implementierten Prozesse als schwache oder starke KI eingeordnet werden. Ist der Musical Agent bei aller Eigenständigkeit darauf angelegt, dem Menschen bei der Umsetzung seiner künstlerischen Idee zu helfen? Oder können mit Musical Agents wie MASOM tatsächlich interaktive Systeme geschaffen werden, die als Formen der Imitation des Menschen Bestand haben? Ob MASOM – wie in REVIVE konzeptionell angedacht – tatsächlich als Stellvertreter:in eines:r nicht anwesenden Komponist:in bestehen kann, ist hierbei (noch) nicht final zu beurteilen. In jedem Fall erfolgt die Einbindung von generativen Prozessen an der Position eines:r in der Aufführung aktiven Gestalter:in. Wie weit sich in Zukunft die Zuschreibung menschlicher Merkmale und die realen Möglichkeiten der Systeme voneinander unterscheiden, ist ebenfalls (noch) nicht absehbar. Mit den neuen Verfahren im maschinellen Lernen ist, wie die Google-Magenta-Projekte zeigen, bereits ein Punkt erreicht, an dem Musikstücke vollständig maschinell erzeugt werden können. Ansätze, wie das Wissen und die Entscheidungsprozesse von Komponierenden von interaktiven ArtificialIntelligence-Systemen gelernt und umgesetzt werden können, sind dabei bereits auf verschiedene Art und Weise implementiert (https://research.google/teams/brain/ magenta/; https://magenta.tensorflow.org; https://github.com/magenta/magenta).

Literaturverzeichnis Akkermann, Miriam. Zwischen Improvisation und Algorithmus. Schliengen 2017. Array (2019), DOI: http://dx.doi.org/10.25532/OPARA-46 Assayag, Gérard, Shlomo Dubnov und Olivier Delerue. „Guessing the Composer’s Mind: Applying Universal Prediction to Musical Style“. Proceedings of the 1999 International Computer Music Conference. Peking 1999: 496–499. Briot, Jean-Pierre, Gaëtan Hadjeres und François-David Pachet. Deep Learning Techniques for Music Generation – A Survey. ArXiv:1709.01620. https://arxiv.org/pdf/1709.01620.pdf. September 2017 (24. August 2020). Carnovalini, Filippo und Antonio Rodà. „Computational Creativity and Music Generation Systems: An Introduction to the State of the Art“. Frontiers in Artificial Intelligence 3.14 (2020). DOI: 10.3389/ frai.2020.00014 (30. August 2020). Dubnov, Shlomo und Gérard Assayag. „Improvisation planning and jam session design using concepts of sequence variation and flow experience“. Proceedings of Sound and Music Computing. DOI: 10.5281/zenodo.849278. Salerno 2005 (22. September 2020). Fan, Jianyu, Miles Thorogood und Pascal Pasquier. „Emo-soundscapes: A dataset for soundscape emotion recognition“. 2017 Seventh International Conference on Affective Computing and Intelligent Interaction (ACII). San Antonio 2017: 196–201.

REVIVE?! Musikaufführungen von und mit Multi-Agent-Systemen 

 455

Kirke, Alexis und Eduardo R. Miranda. „A multi-agent emotional society whose melodies represent its emergent social hierarchy and are generated by agent communications“. Journal of Artificial Societies and Social Simulation 18.2 (2015): 1–21. DOI: 10.18564/jasss.2679 (22. September 2020). Kohonen, Teuvo. „The Self-Organizing Map“. Proceedings of the IEEE 78.9 (1990): 1464–1480. Malt, Mikhail. „Khorwa: A musical experience with ‚autonomous agents‘“. Proceedings of the International Computer Music Conference ICMC. http://hdl.handle.net/2027/spo.bbp2372.2004.010. Miami 2004 (22. September 2020). Pasquier, Philippe, Arne Eigenfeldt, Oliver Bown und Shlomo Dubnov. „An Introduction to Musical Metacreation“. Computers in Entertainment 14.2 (2016): 1–14. DOI: 10.1145/2930672 (30. August 2020). Tatar, Kıvanç. „Initial Remarks on Analyzing Acousmatic Music from the Perspective of Multi-agents“. ARRAY2019, Issue: Agency. Hrsg. von Miriam Akkermann und Rama Gottfried. DOI: http://dx.doi. org/10.25532/OPARA-46. San Francisco 2019: 11–16 (28. August 2020). Tatar, Kıvanç. „MASOM“. Webrepository. Letzte Veröffentlichung „MASOM v2.0.0“. https://github.com/ ktatar/MASOM. 1. September 2020a (3. September 2020). Tatar, Kıvanç. E-Mail an Miriam Akkermann. 24. September 2020b. Tatar, Kıvanç und Philippe Pasquier. „MASOM: A Musical Agent Architecture based on Self-Organizing Maps, Affective Computing, and Variable Markov Models“. Proceedings of the 5th International Workshop on Musical Metacreation MuMe 2017. http://musicalmetacreation.org/mume2017/ proceedings/Tatar.pdf. Atlanta 2017 (28. August 2020). Tatar, Kıvanç und Philippe Pasquier. „Musical agents: A typology and state of the art towards Musical Metacreation“. Journal of New Music Research 48.1 (2019): 56–105. DOI: https://doi.org/10.1080/09 298215.2018.1511736 (1. September 2020). Tatar, Kıvanç und Philippe Pasquier. „MASOM: Musical Agent based on Self-Organizing Maps“. http:// metacreation.net/masom/. Projektwebseite (28. August 2020). Tatar, Kıvanç, Philippe Pasquier und Remy Siu. „REVIVE: An Audio-Visual Performance with Musical and Visual Artificial Intelligence Agents“. CHI’18 Extended Abstracts. http://dx.doi. org/10.1145/3170427.3177771. Montreal 2018 (28. August 2020). Tatar, Kıvanç, Philippe Pasquier und Remy Siu. „Audio-based Musical Artificial Intelligence and AudioReactive Visual Agents in Revive“. Proceedings of the International Computer Music Conference ICMC2019. New York 2019a. Tatar, Kıvanç, Philippe Pasquier und Remy Siu. „REVIVE. MASOM: AI performer“. International Computer Music Conference ICMC/New York City Electroacoustic Music Festival NYCEMF. Konzert 17, Donnerstag, 20. Juni 2019, 23.00 Uhr, Fridman Gallery New York. ICMC-NYCEMF Program. New York 2019b: 46. Veale, Tony, F. Amílcar Cardoso und Rafael Pérez y Pérez. „Systematizing Creativity: A Computational View“. Computational Creativity: The Philosophy and Engineering of Autonomously Creative Systems. Hrsg. von Tony Veale und Amílcar Cardoso. DOI: 10.1007/978-3-319-43610-4. Cham 2019: 1–19 (28. August 2020). Vinjar, Anders und Jean Bresson. „OM-AI: A Toolkit to support AI-based computer-assisted composition workflows in OpenMusic“. Proceedings of the Sound and Music Computing Conference SMC 2019. http://smc2019.uma.es/articles/D1/D1_03_SMC2019_paper.pdf (24. August 2020). Waibel, Alexander. „AI in the Service of Humanity“. Presentation at Online Event of Leopoldina and KAST. https://www.youtube.com/watch?v=HwtrWwd8WSY. 25. November 2021 (30. November 2021). Whalley, Ian. „Software Agents in Music and Sound Art Research/Creative Work: current state and a possible direction“. Organised Sound 14.2 (2009): 156–167. DOI: https://doi.org/10.1017/ S1355771809000260 (1. September 2020).

Jasmin Pfeiffer

AI Dungeon Textadventures stellen eine der frühesten Formen von Videospielen dar und waren insbesondere in den 19070er und 1980er Jahren populär. Klassiker wie Zork (Infocom 1980) und Adventure (William Browther und Don Woods 1975) haben das Genre bekannt gemacht, aber auch in der Gegenwart erfreut es sich insbesondere im Independent-Bereich einer anhaltenden Beliebtheit. Handlung und Spielumgebung werden in Textadventures lediglich durch textuelle Beschreibungen, nicht aber durch Grafiken dargestellt. Die Spieler:innen interagieren mit der Welt, indem sie Befehle wie z.  B. „Nimm Schlüssel“ oder „Geh nach Norden“ in einen Text-Parser eingeben und so die Handlungen ihres Avatars sowie den Verlauf der Geschichte beeinflussen. Dabei kann üblicherweise aus einer limitierten Anzahl an möglichen Befehlen gewählt werden, welche vom Parser verarbeitet werden können. AI Dungeon, das 2019 erschien und von Nick Walton und seinem Team bei Latitude entwickelt wurde, reiht sich in die Tradition textbasierter Adventure-Games ein, nutzt jedoch Verfahren Künstlicher Intelligenz, um dynamische und personalisierte Handlungsstränge und Geschichten zu generieren. Die Webseite bewirbt das Spiel als „a game that’s unlike anything you’ve ever played before“ aufgrund der Verwendung von „cutting edge AI tech to generate the responses“ (https://play. aidungeon.io/main/help?publicId=6a640fd7-709b-487e-b4b1-5ad293c4bf64). Was AI Dungeon von anderen textbasierten Spielen unterscheidet, ist seine Fähigkeit, dynamisch auf die Entscheidungen und Eingaben der Spieler:innen zu reagieren. Die KI verarbeitet Input in natürlicher Sprache und reagiert darauf, wodurch jedes Playthrough eine einzigartige Geschichte generiert. AI Dungeon kann kostenlos auf der Webseite des Games gespielt werden. Die kostenlose Version basiert auf GPT-2 und wurde mit Geschichten von der Webseite chooseyourstory.com sowie mit diversen Regelbüchern für das Pen-and-Paper-Spiel Dungeons and Dragons trainiert. Für zahlende Kunden wird eine entsprechend fortschrittlichere Version, das sogenannte dragon model, mit GPT-3 angeboten, das mit 570 Gigabyte Textinhalten trainiert wurde. Zu Beginn müssen die Spieler:innen aus verschiedenen Settings wie Mystery, Cyberpunk oder Fantasy auswählen. Zusätzlich dazu können aber auch benutzerdefinierte Szenarien erstellt werden, indem man das gewünschte personalisierte Setting durch Text beschreibt. Benutzerdefinierte Settings können auch veröffentlicht und von anderen gespielt, geliked und kommentiert werden. Nach der Auswahl des Settings können die Spieler:innen bestimmen, welchen Charakter sie spielen möchten, und diesen benennen. Die Interaktion mit dem Spiel https://doi.org/10.1515/9783110656978-030

AI Dungeon 

 457

erfolgt wie bei Textadventures üblich durch die Eingabe von Text. Da der Input von der KI und nicht von einem deterministisch programmierten Parser verarbeitet wird, sind die Spieler:innen allerdings nicht auf eine bestimmte Zahl an zulässigen Prompts beschränkt. Die möglichen Eingaben sind jedoch in verschiedene Kategorien unterteilt: Die ‚Do‘-Aktion erlaubt das Ausführen von Handlungen, die ‚Say‘-Aktion lässt den Avatar etwas sagen, ‚Story‘ führt dazu, dass die KI einen Twist in die Geschichte einbaut, und ‚See‘ liefert eine Beschreibung von Elementen der fiktiven Welt. Wie Grayson in seiner Rezension für das Online-Magazin Kotaku betont, ist die Fähigkeit der KI, komplexe und unerwartete Eingaben zu verarbeiten und personalisierte Geschichten zu generieren, durchaus beeindruckend: Er spricht von einem „surprisingly excellent job of remembering your previous decisions and following nuanced contours of context“ (Grayson 2019). Die vorkonfigurierten Settings, zwischen denen gewählt werden kann, enthalten viele standardisierte Elemente und Topoi. Diese werden von der KI aufgegriffen und durch kurze Beschreibungstexte eingefangen. In einem von der Autorin gespielten Cyberpunk-Setting tauchten etwa ‚holobands‘, ‚neon signs‘, Computerstimmen und dunkle Gassen auf. Als Textadventure bewegt sich AI Dungeon dabei an der Grenze zwischen Literatur und Spiel. Ensslin hat für diese Art von Games den Terminus des „literary gaming“ geprägt, den sie definiert als „a specific form of digital gameplay that happens when we interact with digital artifacts that combine so-called ludic […] and literary […] elements“ (Ensslin 2014, 1). Sie beschreibt diese als „a hybrid subgroup of creative media that has both readerly and playerly characteristics“ (Ensslin 2014, 1) und als „creative interface between digital books that can be played and digital games that can be read“ (Ensslin 2014, 1). Wie Ensslin betont, stellen diese hybride Artefakte häufig die Grenzen zwischen den Medien in Frage und zeigen, wie sich etablierte Formen des Lesens und Schreibens im digitalen Zeitalter verändern: „The aforementioned body of hybrid artifacts is grounded in a conception of computer games (or elements thereof) as experimental literary arts. […] [I]n this context literary has to be detached from print as its defining technology with respect to both production and reception.“ (Ensslin 2014, 5) Literarische Texte sind nicht mehr zwingend linear organisiert und werden nicht nur in Buchform dargeboten: „We are no longer talking about texts that are sequentially organized, that offer closure, and that are received largely on a two-dimensional page. Reading is no longer limited to the materiality and format of the codex.“ (Ensslin 2014, 5) Zugleich brechen Games wie AI Dungeon auch die Grenzen zwischen Rezipient:in und Produzent:in auf. Wie Grayson betont, führen manche Eingaben und Entscheidungen in das Interface des Games ins Leere – er spricht von einer „tendency to break catastrophically sometimes“ (Grayson 2019), und auch die Webseite

458 

 Jasmin Pfeiffer

selbst warnt vor „weird quirks that you notice“ (https://play.aidungeon.io/main/ help?publicId=6a640fd7-709b-487e-b4b1-5ad293c4bf64). Hier ist interessant, dass das Spiel diverse Features enthält, die den Spieler:innen die Möglichkeit bieten, auf den Output der KI Einfluss zu nehmen. Über ‚Undo‘ und ‚Redo‘ können ihre Vorschläge rückgängig gemacht werden, ‚Retry‘ lässt sie eine neue Option vorschlagen und mit ‚Edit‘ können die maschinengenerierten Texte direkt angepasst und überarbeitet werden. Das Interface erinnert hierbei an das eines Texteditors und vermittelt den Spieler:innen weniger das Gefühl, passive Rezipient:innen einer vorgefertigten Spielerfahrung zu sein, als vielmehr aktive Autor:innen, die an der Erzeugung der Story mitwirken. Auch die Instruktionen für das Spielen von AI Dungeon betonen, dass es wichtig sei, die Features zur Beeinflussung der Geschichte zu nutzen: „There are a lot of ways you can improve your adventure when the AI struggles. Use features like Undo and Alter to keep the AI on track.“ (https://play.aidungeon.io/main/ help?publicId=6a640fd7-709b-487e-b4b1-5ad293c4bf64) Entsprechend lässt sich sagen, dass der Spielspaß bei AI Dungeon weniger daraus resultiert, dass die KI eine fesselnde Geschichte generiert, in die man ähnlich wie in einen guten Roman oder Film eintauchen kann. Tatsächlich kommt es häufiger zu redundanten Passagen, wie etwa in Abbildung  1 zu sehen. Auch sind nicht alle Vorschläge der KI dramaturgisch oder inhaltlich überzeugend (vgl. Abbildung 2). Der Reiz besteht vielmehr darin, selbst kreativ zu werden, in Kooperation mit der Maschine eine eigene Geschichte zu entwickeln und sich dabei als CoAutor:in zu fühlen. Die Rezipient:innen sind somit zugleich auch Produzent:innen der dargebotenen Geschichten.

Abb. 1: Eigener Screenshot. https://play.aidungeon.io/

AI Dungeon 

 459

Abb. 2: Eigener Screenshot. https://play.aidungeon.io/

Zugleich bringt diese Auflösung der Grenzen auch ethische Herausforderungen mit sich. Dazu gehört der Bias der KI von AI Dungeon, die zu gewaltreichen oder sexuellen Darstellungen tendierte. Auch wurde sie von Benutzer:innen dazu missbraucht, pornographische Inhalte zu generieren. Aus diesen Gründen wurde von Latitude 2021 ein System zur Überwachung der Inhalte implementiert (vgl. Bicknell 2021). Programme, die auf einem ähnlichen Prinzip beruhen wie AI Dungeon, werden in der jüngeren Vergangenheit auch explizit als unterstützende Tools für professionelle Autor:innen entwickelt. Die von Charlene Putney and Martin Pichlmair herausgebrachte KI Laika (https://www.writewithlaika.com/) zum Beispiel soll als kreative Inspiration für Schreibprozesse dienen. Sie kann Anfänge einer Geschichte fortführen, durch das Vorschlagen möglicher Eigenschaften bei der Ausarbeitung fiktiver Charaktere helfen oder zu den Texten passende Bilder generieren. Putney bezeichnet Laika entsprechend als ein „creativity tool“: „It’s a tool. It’s like when we moved from writing with a pen to writing with a typewriter. It’s like when you move from writing with a typewriter to writing in Google Docs. And now here, we have this thing to bounce off.“ (https://www.thecreativepenn.com/2022/12/09/ writing-fiction-with-generative-ai/) Dass mit AI Dungeon und Laika zwei ähnliche Programme mit vergleichbaren Features einmal als Endprodukt für Benutzer:innen und einmal als Tool für Autor:innen beworben werden, zeigt, dass Rezeption und Produktion in Hinblick auf AI-generierte Geschichten keine strikt voneinander getrennten Gebiete mehr darstellen, sondern sich mehr und mehr annähern und verschwimmen. Die Möglichkeit, kreativ tätig zu werden und in Kooperation mit der KI Geschichten zu erschaffen, übt zweifelsohne sowohl im professionellen als auch nicht-professionellen Bereich einen eigenen Reiz aus und bietet eine andere Art der Erfahrung als das Spielen nicht KI-gesteuerter Textadventures. AI Dungeon bewegt sich dabei an der Grenze zwischen Literatur und Spiel und fordert gängige Paradigmen, wie etwa die Trennung zwischen Rezipient:in und Produzent:in, in beiden Medien heraus. Angesichts der rasanten Fortschritte der KI wird es interessant zu sehen sein, wie sich diese Technologien in Zukunft entwickeln und das Schreiben von Geschichten verändern.

460 

 Jasmin Pfeiffer

Literaturverzeichnis Ensslin, Astrid. Literary Gaming. Cambridge, Mass. et al. 2014. Grayson, Nathan. In AI Dungeon 2, You Can Do Anything – Even Start A Rock Band Made of Skeletons. https://kotaku.com/in-ai-dungeon-2-you-can-do-anything-even-start-a-rock-1840276553. Kotaku 6.12.2019 (15. März 2023). Bicknell, Lindsay. Latitude Games’ AI Dungeon was changing the face of AI-generated content. https:// www.utahbusiness.com/latitude-games-ai-dungeon-was-changing-the-face-of-ai-generatedcontent-until-its-users-turned-against-it/. Utah Business 22.6.2021 (2. April 2023). Latitude Games. https://play.aidungeon.io/main/help?publicId=6a640fd7-709b-487e-b4b15ad293c4bf64. (15. März 2023). Putney, Charlene. Co-writing Fiction With Generative AI With Charlene Putney. https://www. thecreativepenn.com/2022/12/09/writing-fiction-with-generative-ai/. Podcast 9.12.2022 (24. März 2023). Laika. https://www.writewithlaika.com/. (24. März 2023).

Sachregister Abstraktion/abstrakt 11, 23, 126, 209, 213, 214, 254, 270, 291, 292, 293, 389, 435 Adaption 60, 85, 100, 103, 104, 105, 256, 302, 420, 447 Affekt/affektiv 89, 91, 285, 298, 432, 437 agency 137, 138, 143, 273, 275, 284, 285, 292, 293, 440, 441 Agent 6, 12, 14, 111, 134, 139, 141, 142, 143, 144, 146, 178, 254, 255, 256, 257, 273, 391, 392, 394, 395, 398, 439–454 Aktant 271, 275 Akteur 66, 122, 171, 173, 174, 176, 178, 180, 181, 183, 184, 186, 187, 275, 281, 282, 283, 284, 285, 290, 291, 324, 391, 393, 440, 442, 446, 447, 448, 449, 452, 453 Algorithmisches Theater 412, 413, 414, 415, 416, 417, 419, 421, 422 Algorithmus/algorithmisch 6, 15, 16, 19, 21, 22, 37, 40, 41, 73, 74, 76, 93, 111, 122, 123, 124, 125, 126, 128, 143, 153, 154, 155, 156, 157, 158, 162, 163, 164, 171, 174, 180, 183, 185, 186, 191, 193, 195, 202, 204, 206, 211, 218, 222, 223, 224, 227, 236, 237, 239, 240, 241, 242, 243, 245, 248, 253, 256, 257, 258, 259, 260, 261, 262, 272, 276, 281, 284, 285, 289, 292, 297, 300, 304, 309, 310, 313, 318, 319, 321, 323, 324, 329, 331, 335, 345, 354, 355, 356, 359, 361, 370, 383, 385, 386, 387, 388, 389, 395, 407, 412–424, 428, 429, 430, 432, 433, 434, 436, 439, 444 Analogie/analog 23, 31, 34, 35, 36, 37, 39, 40, 112, 125, 128, 129, 153, 154, 155, 159, 160, 209, 213, 272, 298, 384, 389, 428, 447 Android 55, 56, 58, 68, 69, 72, 73, 74, 75, 76, 87, 92, 93, 98, 100, 104, 105, 106, 108, 109, 112, 137, 138, 139, 144, 185, 220, 342, 343, 344 Anthropologie/anthropologisch 50, 105, 112, 182, 283, 298, 299, 348, 373, 399, 410, 412 Anthropomorphisierung/anthropomorph 5, 6, 28, 30, 31, 33, 36, 40, 73, 75, 93, 102, 146, 182, 184, 266, 267, 269, 282, 283, 300, 301, 372, 428, 430, 432 Anthropozentrismus/anthropozentrisch 47, 53, 71, 74, 78, 83, 148, 166, 283, 391, 392, 399 https://doi.org/10.1515/9783110656978-031

Antike 3, 4, 28, 47, 48, 50, 59, 62, 63, 65, 66, 89, 218, 228 Apparat 7, 84, 92, 94, 99, 271, 288, 308, 329, 415 Appropriation 123, 156, 275, 290, 303, 384 AR/Augmented Reality 174, 177, 182 artifiziell 28, 29, 34, 35, 36, 37, 38, 39, 40, 86, 97, 109, 277, 369, 396 Ästhetik/ästhetisch 2, 3, 4, 31, 41, 48, 49, 51, 62, 79, 80, 83, 85, 90, 97, 100, 111, 120, 122, 123, 153, 154, 157, 159, 160, 164, 165, 166, 167, 173, 175, 179, 180, 183, 198, 202, 203, 205, 206, 207, 208, 209, 210, 211, 212, 214, 261, 266, 267, 270, 281, 282, 283, 284, 285, 287, 289, 291, 292, 293, 297, 298, 301, 302, 303, 320, 321, 322, 328, 335, 337, 338, 339, 341, 417, 423, 430, 431, 435, 449, 452 auditiv 159, 165, 191, 436 Aufführung 83, 92, 173, 175, 176, 177, 178, 183, 217, 223, 242, 249, 403, 404, 409, 413, 416, 423, 439, 442, 445–454 Aufklärung 29, 84, 85, 205, 320, 371 Authentizität 5, 74, 164, 180, 222, 281, 188, 289, 297, 335, 336, 337, 338, 339, 340, 341, 342, 343, 344, 345, 346 Automat 27, 28, 29, 30, 31, 32, 33, 34, 35, 36, 40, 47, 50, 51, 52, 58, 61, 62, 63, 64, 65, 69, 70, 78, 83, 84, 85, 86, 87, 89, 99, 103, 108, 127, 158, 218, 219, 220, 277, 300, 322, 340, 342, 402, 406, 407, 441, 444 Automatisierung/automatisch 3, 13, 89, 100, 119, 156, 158, 164, 165, 166, 168, 192, 194, 195, 198, 202, 218, 219, 220, 224, 259, 260, 261, 265, 274, 275, 276, 281, 288, 300, 323, 340, 345, 355, 388, 415, 419, 420, 421, 440, 441, 443, 446, 448, 449, 450 Autonomie/autonom 6, 16, 22, 35, 37, 39, 47, 58, 62, 64, 66, 71, 72, 73, 75, 77, 78, 90, 91, 98, 101, 109, 111, 112, 121, 141, 178, 192, 267, 268, 270, 273, 275, 276, 283, 286, 291, 297, 312, 313, 314, 315, 318, 327, 349, 352, 354, 358, 378, 388, 392, 393, 436, 439, 440, 441 Autorschaft/Autor/Autorin 3, 4, 5, 10, 49, 62, 70, 71, 74, 79, 107, 117, 122, 153, 154, 155, 156,

462 

 Sachregister

157, 159, 162–168, 175, 176, 194, 208, 223, 227, 237, 238, 265–277, 281, 282, 285, 286, 289, 301, 303, 304, 335–341, 406, 409, 410, 415, 457, 458, 459 Avantgarde/Avantgardekunst/avantgardistisch 89, 90, 119, 154, 155, 156, 162, 191, 206, 214, 271, 303 Barock 155, 228, 271 Bewusstsein/bewusst 20, 22, 41, 69, 76, 78, 79, 105, 109, 125, 127, 141, 144, 145, 148, 160, 168, 181, 267, 269, 275, 276, 288, 290, 291, 351, 352, 358, 359, 369, 374, 376, 377, 378, 381, 392, 395, 415, 416, 418, 419, 421, 434 Big Data 111, 356, 389, 416, 421 Bilderkennung 2, 16, 193, 319, 320, 356 Bildgenerierung 3, 166, 195, 198, 282 Blackbox 38, 126, 127, 128, 154, 245, 318, 319, 345, 388 Chatbot 3, 176, 178, 185, 186, 265, 323, 386, 417, 418, 419, 426, 427, 428, 429, 430, 431, 432, 433 chinesisches Zimmer 38 Code/Codierung 16, 37, 38, 64, 66, 136, 141, 153, 154, 155, 156, 158, 159, 160, 161, 162, 183, 232, 236, 241, 258, 268, 270, 272, 273, 274, 275, 284, 290, 291, 299, 304, 318, 324, 353, 377, 385, 388, 394, 395, 397, 415, 421, 436, 443 Collage 154, 204, 213, 268, 413, 427, 430 Computer 1, 3, 4, 5, 6, 9, 10, 11, 12, 13, 23, 33, 35, 36, 37, 38, 39, 50, 58, 72, 73, 76, 77, 78, 79, 92, 93, 98, 109, 110, 111, 112, 127, 124, 135, 136, 137, 139, 141, 143, 144, 145, 148, 149, 153, 156, 157, 159, 160, 164, 165, 166, 174, 198, 202, 203, 204, 205, 208, 214, 217, 218, 222, 223, 224, 227, 231, 232, 235, 239, 243, 245, 247, 250, 253, 254, 265, 266, 267, 268, 269, 272, 273, 275, 276, 297, 299, 301, 303, 308, 309, 310, 313, 315, 318, 322, 328, 342, 345, 353, 354, 355, 356, 378, 397, 402, 408, 413, 415, 416, 423, 439, 440, 441, 442, 451, 457 computergeneriert 4, 156, 157, 159, 160, 161, 175, 179, 180, 191, 224, 265, 266, 267, 281, 310, 413, 420, 430

Computerkunst 3, 4, 119, 120, 203, 208, 209, 211, 281, 287, 301, 435 Computertechnologien 127, 302, 377, 387 conditio humana 107, 112 Cyborg 50, 60, 64, 72, 87, 94, 97, 98, 111, 147, 179, 183, 269, 377, 393, 394, 397, 399 Dada/Dadaismus 119, 154, 286 Daten 1, 2, 7, 13, 15, 16, 17, 18, 19, 23, 39, 117, 121, 126, 127, 147, 154, 156, 158, 159, 160, 161, 172, 175, 180, 181, 186, 209, 217, 224, 236, 245, 258, 271, 275, 294, 285, 287, 291, 292, 293, 309, 310, 311, 312, 313, 314, 315, 318–331, 349, 355, 356, 359, 360, 361, 362, 380, 383, 387, 388, 389, 413, 414, 421, 433, 435, 442, 444, 446, 447, 448, 451, 452 Datenbank 159, 164, 177, 270, 310, 311, 312, 313, 314, 315, 316, 356, 418 Datengenerierung 191, 325 Datensätze 1, 15, 18, 117, 128, 129, 153, 161, 167, 206, 209, 210, 211, 212, 213, 214, 272, 291, 319, 320, 354, 356, 377, 387, 445, 447, 551, 453 deep learning 1, 17, 21, 40, 93, 127, 128, 154, 161, 176, 217, 224, 238, 270, 355, 369, 375, 387, 388, 440, 441 Dekonstruktion/dekonstruieren: 148, 184, 236, 276 Dialektik/dialektisch 84, 110, 431 digital 1, 35, 36, 50, 52, 87, 118, 125, 126, 129, 136, 143, 147, 153, 155, 156, 157, 158, 159, 160, 161, 162, 165, 171, 174, 177, 179, 182, 185, 187, 198, 204, 213, 272, 285, 287, 289, 300, 303, 307, 311, 320, 321, 322, 324, 326, 329, 330, 331, 335, 344, 350, 353, 355, 383, 384, 387, 389, 421, 427, 428, 431, 432, 434, 457 Digitale Literatur 153, 156, 159, 160, 162, 271, 273 Digitalisierung  15, 34, 311, 320 Dokumentation 98, 319, 332, 359, 420 Dynamik/dynamisch 129, 177, 222, 237, 257, 258, 259, 260, 261, 274, 298, 321, 379, 434, 449, 456 Dystopie/dystopisch 4, 48, 52, 58, 63, 67, 68, 69, 72, 76, 98, 107, 134, 135, 183, 282, 342, 344, 374, 379, 400

Sachregister 

Emanzipation/emanzipatorisch 54, 78, 89, 181, 377, 386 embedded (systems) 413, 421 Embodiment 27, 39, 51, 182, 183, 394 Emotion/Emotionalität/emotional 70, 93, 97, 102, 105, 106, 108, 111, 113, 121, 163, 179, 180, 181, 202, 248, 285–290, 298, 344, 349, 354, 358, 359, 372, 393, 397, 398, 400, 421, 432, 434, 444, 445, 453 Empfindsamkeit/empfindsam/empfinden 33, 85, 75, 76, 85, 106, 107, 148, 286, 290, 350, 351, 372, 381, 392, 394, 397, 445 Enhancement 79 Entfremdung/entfremden 111, 128, 135, 214, 397, 399 Ereignis 21, 72, 77, 127, 167, 241, 255, 257, 336, 354, 385, 415, 416, 423, 429, 433, 436, 442, 448, 450 Ethik/ethisch 2, 5, 21, 23, 52, 54, 70, 72, 77, 110, 112, 122, 124, 143, 144, 145, 160, 161, 176, 196, 275, 276, 317, 318, 321, 322, 324, 326, 327, 329, 330, 331, 339, 359, 362, 374, 375, 376, 377, 380, 383, 384, 387, 389, 391, 395, 396, 398, 426, 429, 433, 434, 435, 436, 437, 459 Evolution/evolutionär 51, 53, 54, 67, 69, 73, 75, 78, 87, 106, 110, 392, 395, 399, 412, 414 Experimente/experimentieren/experimentell 1, 3, 16, 22, 32, 33, 36, 40, 47, 51, 62, 66, 67, 70, 73, 74, 77, 78, 79, 90, 109, 119, 125, 129, 134, 143, 145, 154, 155, 157, 158, 159, 160, 163, 165, 172, 173, 183, 191, 193, 197, 198, 202, 209, 212, 223, 224, 236, 249, 259, 260, 265, 266, 270, 271, 275, 284, 300, 301, 384, 386, 410, 416, 442, 445, 446, 451, 457 Expressionismus/expressionistisch 89, 100 Fairness 21, 356, 359, 360 Faktualität/faktual 166, 167, 336, 337, 344 Feedback/Feedback-Loop/Feedback-Schleife 40, 78, 194, 259, 274, 434, 436, 449 Feminismus/feministisch 70, 97, 128, 361, 370, 377, 408 Femme fatale 62, 103, 104, 378 Figur/Figuration 28, 31, 34, 35, 37, 41, 47, 52, 53, 54, 55, 58, 60, 64, 65, 66, 68, 70, 71, 72, 73, 74, 75, 76, 78, 86, 89, 90, 94, 97, 98, 99, 100, 101, 103–113, 134, 136, 137, 148, 168, 194,

 463

195, 196, 197, 199, 204, 254, 256, 261, 269, 283, 286, 338, 343, 344, 378, 391, 400, 403, 405, 407, 408, 409, 410, 431 Fiktion/fiktional 28, 34, 47, 49, 52, 66, 67, 68, 73, 111, 121, 126, 135, 137, 166, 167, 213, 266, 336, 337, 338, 339, 342, 375, 393, 436 fiktiv 38, 124, 148, 282, 431, 435, 457, 459 Fortschritt 2, 5, 10, 12, 67, 126, 127, 160, 161, 177, 185, 193, 217, 369, 393, 399, 456, 459 Fotografie 90, 98, 113, 125, 175, 186, 202, 203, 209, 288, 291, 294, 307, 312, 332, 359, 389 fremd/fremdbestimmt/fremdgesteuert 62, 92, 137, 141, 143, 209, 213, 214, 274, 289, 303, 310, 312, 315, 395, 407 Futurismus/futuristisch 80, 89, 119, 154 GAN (Generatives Antagonistisches Netzwerk) 117, 118, 124, 165, 206, 211, 212, 213, 285 Gedächtnis 105, 343, 394, 397, 443, 446, 453 Gedicht 1, 4, 63, 92, 154, 155, 156, 157, 159, 160, 162, 163, 164, 166, 272, 338, 340, 406 Gender 9, 21, 102, 113, 128, 146, 186, 348, 349, 350, 351, 353, 356, 358, 359, 362, 383, 429, 431 Gender Bias 351 Gender Gap 353 Generative Literatur 153, 155, 160, 269, 271, 303 Generierte Literatur 267, 345 Genialität 287, 297, 300, 352, 357 Genie 58, 103, 106, 155, 276, 281, 285, 286, 288, 292, 293, 297, 302, 303, 304, 342 Geschlecht 54, 55, 58, 59, 66, 76, 79, 84, 85, 88, 108, 146, 328, 348, 350, 351, 353, 354, 355, 358, 360, 361, 362, 370, 371, 376, 377, 379 Gestalt 36, 83, 84, 85, 86, 93, 102, 105, 106, 241, 273, 431 Gewalt 108, 109, 110, 138, 139, 161, 210, 369, 392, 459 glitch 87, 204, 212 GPT 1, 2, 3, 123, 154, 159, 161, 162, 163, 166, 167, 175, 185, 194, 260, 270, 272, 275, 276, 309, 456 Handlungsmacht 88, 121,127, 137 Humanoid/humanoid 6, 92, 98, 121, 128, 172, 178, 182, 183, 184, 185, 283, 299, 369, 375, 376, 402, 403

464 

 Sachregister

Hybridität/hybrid 62, 64, 65, 66, 97, 129, 135, 181, 183, 186, 338, 392, 393, 399, 441, 442, 443, 444, 457 Hypertext 269, 270, 271, 274 human 2, 3, 6, 7, 9, 11, 20, 66, 75, 86, 87, 92, 93, 109, 113, 119, 137, 138, 141, 143, 146, 148, 166, 168, 183, 184, 193, 194, 197, 207, 208, 209, 257, 266, 268, 286, 299, 370, 371, 373, 374, 376, 377, 393, 399, 400, 402, 412, 413, 414, 415, 416, 417, 419, 421, 426, 432, 434, 437 Idee/ideell 4, 27, 53, 153, 175, 203, 218, 248, 251, 270, 271, 276, 285, 288, 289, 298, 303, 304, 309, 396, 440, 446, 451, 453, 454 Identität 76, 78, 92, 186, 275, 299, 335, 338, 343, 345, 371, 376, 379, 384, 393, 395, 398, 399, 407 Ideologie 93, 144, 357 Illusion 67, 93, 182, 255, 256, 339, 397, 400, 409 Illustration 100, 204, 249, 450 Imagination/imaginieren 4, 98, 102, 121, 126, 147, 153, 191, 239, 243, 326, 354, 361, 374, 437 Imitation/imitieren 9, 12, 47, 92, 103, 109, 135, 203, 221, 247, 261, 265, 285, 289, 290, 302, 372, 404, 406, 407, 409, 452, 454 Immersion/immersiv 125, 181, 185, 256, 409, 410 Improvisation 173, 175, 177, 178, 179, 186, 248, 251, 441, 442, 444, 446, 447, 448, 449 Individualität/individuell 35, 54, 55, 58, 63, 67, 69, 70, 71, 72, 75, 76, 78, 86, 90, 122, 124, 191, 194, 195, 231, 245, 281, 283, 285, 286, 288, 289, 292, 297, 319, 324, 336, 337, 338, 339, 340, 341, 354, 362, 386, 391, 393, 394, 395, 396, 397, 398, 399, 408, 416, 423 Industrialisierung 34, 36, 50, 62,67, 68, 121 Information 38, 41, 73, 91, 120, 123, 124, 147, 154, 159, 164, 202, 211, 256, 266, 276, 292, 300, 301, 303, 311, 317, 318, 319, 320, 322, 323, 324, 328, 329, 331, 345, 356, 374, 377, 378, 385, 393, 394, 395, 397, 399, 421, 441, 443, 444 Inspiration 285, 288, 299, 340, 385, 459 Instrument 27, 30, 33, 158, 160, 203, 218, 219, 220, 221, 222, 239, 350, 351, 352, 359, 384, 387, 422, 447 Intelligenz/intelligent 6, 9, 11, 12, 13, 20, 23, 24, 28, 37, 38, 39, 40, 41, 61, 86, 97, 109, 146,

148, 265, 269, 276, 297, 300, 317, 323, 342, 357, 358, 362, 372, 375, 381, 392, 433, 434 intelligentes Verhalten 11, 40, 47, 73, 134, 256, 257 Interaktion/interagieren 21, 39, 53, 56, 64, 65, 71, 91, 125, 127, 135, 136, 160, 174, 178, 179, 180, 184, 185, 198, 254, 260, 272, 392, 397, 398, 399, 426, 439, 441, 442, 443, 444, 445, 446, 447, 448, 450, 453, 456 Interdisziplinarität/interdisziplinär 83,120, 125, 153, 361 Interface 125, 137, 179, 272, 276, 413, 414, 420, 457, 458 Internet 15, 77, 158, 160, 173, 180, 186, 204, 239, 275, 303, 308, 313, 317, 330, 377, 383, 412 Interpretation/interpretieren 9, 19, 23, 32, 33, 35, 51, 66, 71, 106, 154, 181, 194, 198, 205, 222, 273, 287, 324, 326, 337, 349, 354, 358, 359, 376, 398, 415, 434, 441, 445 Intertextualität/intertextuell 274, 275, 303, 410 IT 78, 111, 135, 158, 159, 198, 204, 353, 359 KI-Anwendung 20, 174, 349, 359 KI-Forschung 11, 12, 13, 14, 23, 47, 49, 52, 70, 71, 91, 171, 210, 265, 269, 270, 276, 353, 358, 362 KI-Kunstwerk 173 KI-Modell 1, 6, 161, 168, 176, 195, 276, 297, 301, 302 KI-System 19, 20, 21, 23, 24, 110, 111, 114, 127, 143, 205, 207, 210, 211, 213, 214, 270, 276, 354, 356, 358, 359, 361 KI-Technologien 22, 98, 113, 176, 291 Kino 89, 101, 103, 110, 191, Klang/klanglich 90, 183, 219, 221, 222, 224, 235, 240, 241, 242, 243, 246, 249, 439, 442–454 KNN (künstliche Neuronale Netze) 153, 154, 161, 205, 270, 272, 273, 443 Kommunikation/kommunizieren 38, 78, 140, 162, 174, 176, 178, 179, 180, 184, 265, 277, 303, 320, 322, 324, 329, 335, 336, 338, 346, 385, 386, 387, 388, 398, 405, 406, 418, 421, 426, 428, 432, 441, 442, 444 Kontrolle/kontrollieren/kontrolliert 6, 91, 99, 103, 104, 111, 112, 113, 127, 134, 135, 136, 137, 138, 139, 141, 143, 145, 146, 147, 148, 149, 207, 262, 272, 274, 308, 345, 398, 399, 406, 423, 431, 435, 446, 448, 450

Sachregister 

Konzeptkunst/conceptual art 119, 153, 154, 155, 160, 203, 208, 209, 286, 303, 304, 340, Kopie 28, 34, 86, 104, 147, 148, 209, 211, 227, 235, 236, 246, 247, 248, 250, 289, 290, 303, 330, 403, 406, 409 Körper/körperlich 11, 22, 28, 30, 31, 32, 33, 34, 35, 37, 39, 40, 47, 52, 56, 58, 59, 62, 64, 65, 66, 72–79, 84, 85, 86, 87, 89, 91, 93, 97, 98, 99, 102, 103, 104, 106, 109, 140, 146, 147, 148, 173, 174, 178, 180, 181, 182, 183, 186, 204, 247, 283, 284, 285, 286, 287, 335, 339, 342, 343, 350, 354372, 373, 377, 381, 394, 396, 398, 402, 404, 406, 408, 413, 423, 428, 429, 430, 431 Kreativität/kreativ 1, 2, 3, 4, 5, 22, 23, 27, 28, 30, 39, 40, 41, 57, 58, 76, 97, 101, 119, 121, 122, 153, 158, 163, 164, 166, 167, 168, 171, 172, 173, 175, 176, 178, 194, 195, 196, 197, 199, 208, 218, 224, 237, 247, 262, 283, 284, 285, 286, 287, 291, 292, 297–304, 323, 337, 341, 343, 345, 348, 349, 350, 351, 352, 357, 358, 359, 360, 361, 362, 384, 416, 418, 424, 433, 440, 441, 452, 453, 458, 459 Kultur/kulturell 2, 5, 28, 29, 30, 31, 32, 34, 35, 40, 41, 49, 51, 52, 53, 58, 60, 62, 64, 68, 69, 78, 83, 84, 89, 93, 97, 98, 99, 103, 105, 106, 108, 112, 118, 119, 121, 129, 135, 160, 163, 171, 177, 181, 182, 184, 187, 191, 196, 227, 234, 251, 276, 282, 287, 288, 290, 291, 298, 300, 320, 323, 324, 331, 338, 339, 344, 348, 351, 353, 361, 362, 369, 371, 386, 393, 394, 395, 432, 433 Kulturgeschichte 28, 59, 300 Kulturtechnik 30, 32, 84, 98 Künstler/Künstlerin 1, 2, 3, 6, 27, 40, 56, 57, 59, 63, 103, 117, 119, 120, 121, 122, 125, 126, 127, 128, 129, 159, 161, 162, 166, 171, 172, 174, 178, 179, 183, 186, 196, 197, 198, 199, 202, 203, 205, 206, 207, 208, 281–296, 297, 298, 300, 302, 303, 306, 307, 313, 314, 315, 316, 320, 322, 329, 331, 337, 338, 339, 340, 341, 343, 349, 383, 451 Kunstproduktion 199, 283, 284 Kunstschaffen 3, 122, 281, 283, 284, 285, 286, 287, 288, 289, 291, 292 Kybernetik/kybernetisch 4, 48, 52, 69, 71, 72, 75, 93, 119, 127, 330

 465

Lernen 7, 11, 15, 16, 18, 23, 34, 39, 40, 57, 73, 92, 111, 126, 138, 143, 183, 193, 197, 206, 211, 212, 231, 234, 235, 236, 247, 253, 256, 258, 259, 270, 272, 274, 297, 300, 323, 344, 350, 355, 358, 359, 361, 370, 376, 392, 393, 427, 428, 429, 431, 432, 434, 435, 436, 437, 440, 441, 442, 443, 447, 452, 454 Lernen, überwachtes/unüberwachtes 15, 16, 153, 270, 388 Licht 126, 179, 388, 396, 402, 407, 423, 431 (Beleuchtung/leuchten: 92, 387, 420, 422, 423) Logik/logisch 12, 14, 19, 37, 70, 78, 107, 110, 111, 126, 127, 194, 203, 206, 208, 253, 254, 255, 283, 323, 328, 357, 358, 375, 376, 400, 422, 433 Lyrik/lyrisch 1, 60, 80, 154, 156, 158, 159, 162, 163, 268 Machine learning/Maschinelles Lernen 5, 15, 18, 22, 37, 92, 93, 154, 178, 180, 184, 195, 205, 209, 217, 235, 237, 259, 260, 270, 272, 273, 274, 283, 297, 309, 317, 355, 383, 387, 426, 434, 436, 445, 454 Male gaze 102 Maschine/maschinell 3, 4, 6, 10, 11, 12, 19, 20, 21, 22, 27, 28, 31, 33–41, 52, 53, 54, 55, 56, 58, 61, 62, 64, 67, 68, 69, 70, 72, 75, 79, 84–93, 98, 99, 100, 101, 105, 106, 107, 108, 109, 120, 121, 122, 123, 127, 137, 139, 141, 142, 143, 144, 148, 153, 154, 155, 158, 163, 164, 165, 166, 175, 184, 203, 208, 209, 212, 213, 214, 219, 220, 223, 227, 231, 237, 238, 239, 245, 248, 249, 250, 251, 265, 267, 268–277, 283, 287, 290, 291, 297, 299, 300, 301, 303, 309, 311, 323, 340, 341, 353, 369, 371, 374, 375, 377, 380, 381, 391, 392, 393, 406, 407, 408, 409, 410, 421, 428, 431, 433, 435, 454, 458 Maschinenethik/Roboterethik 52, 70, 122, 377, 391 Mechanik/mechanisch/Mechanismus/ mechanistisch 21, 27, 28, 29, 30, 31, 32, 33, 34, 35, 36, 37, 38, 39, 40, 63, 84, 85, 86, 87, 90, 92, 98, 100, 101, 102, 104, 107, 119, 124, 127, 218, 219, 220, 221, 228, 250, 260, 262, 273, 287, 300, 323, 327, 340, 353, 421

466 

 Sachregister

Menschenähnlichkeit/menschenähnlich 60, 69, 72, 98, 135, 146, 179, 181, 184, 256, 261, 317, 318, 342, 402, 409 Menschliche Intelligenz 6, 9, 12, 23, 148, 300, 342, 375 Mensch-Maschine-Verhältnis/Mensch-MaschineInteraktion/Mensch-Maschine-Mythos 5, 19, 21, 23, 28, 29, 31, 38, 48, 50, 53, 54, 62, 64, 65, 66, 68, 69, 72, 73, 74, 75, 79, 83, 85, 86, 87, 89, 90, 91, 93, 97, 99, 102, 104, 108, 109, 110, 114, 120, 121, 122, 127, 163, 173, 174, 178, 179, 180, 181, 182, 183, 184, 186, 197, 262, 268, 269, 273, 282, 287, 297, 301, 302, 323, 337, 342, 343, 344, 349, 369, 370, 375, 376, 379, 380, 381, 386, 392, 394, 395, 399, 402, 405, 406, 407, 408, 409, 410, 423, 439, 445, 452, 409, 445 Methode/methodisch 12, 13, 14, 15, 19, 28, 29, 91, 92, 113, 154, 157, 160, 162, 175, 184, 203, 205, 206, 207, 212, 227, 237, 239, 241, 242, 243, 245, 247, 255, 257, 260, 309, 311, 350, 361, 393, 439, 440, 441 Mimesis/mimetisch 93, 209, 212, 213, 214 Mittelalter/mittelalterlich 28, 59, 99, 219, 228, 234 Modellierung/modellieren 14, 109, 235, 237, 257, 258, 270, 328, 385, 395, 443, 444, 453 Moderne/modern 4, 9, 28, 35, 41, 48, 50, 51, 52, 54, 59, 60, 61, 63, 65, 66, 67, 68, 73, 74, 86, 87, 89, 90, 91, 92, 97, 98, 110, 117, 126, 129, 158, 177, 183, 186, 209, 230, 240, 267, 268, 285, 289, 290, 298, 299, 303, 326, 335, 340, 407, 429 Moral/moralisieren/moralisch 22, 89, 97, 107, 113, 129, 139, 176, 326, 335, 339, 369, 370, 373, 375, 376, 378, 379, 380, 381, 391, 392, 393, 396, 397, 398, 399 Moral agent/moral patient 391, 392, 395, 398 Musik/musikalisch 1, 4, 27, 30, 32, 33, 36, 60, 83, 84, 89, 172, 173, 174, 191, 192, 217–224, 227–251, 260, 307, 323, 326, 329, 338, 339, 340, 345, 351, 420, 422, 423, 439–454 Mythologie/mythologisch 28, 48, 51, 53, 54, 57, 58, 65, 105, 107, 121, 122, 123 Mythos/mythisch 48, 50, 51, 56, 59, 60, 61, 62, 64, 65, 66, 68, 73, 75, 103, 104, 148, 268, 349

Nachahmung/nachahmen 28, 29, 30, 35, 92, 105, 106, 128 Natur 68, 84, 97, 348 Natural Language Processing (NLP) 167, 180, 265, 267, 269, 270, 276 Natürlichkeit/natürlich 23, 79, 85, 86, 87, 90, 91, 97, 103, 107, 146, 148, 179, 206, 266, 271, 272, 273, 307, 309, 322, 335, 344, 348, 393, 399, 404, 415, 416, 420, 457 Naturwissenschaft/naturwissenschaftlich 50, 61, 213, 352, 408 Neuronales Netzwerk/Neuronale Netze 15, 16, 17, 18, 19, 23, 118, 128, 153, 154, 162, 164, 165, 166, 175, 180, 193, 197, 205, 206, 209, 210, 211, 213, 237, 250, 327, 331, 387, 388 Nutzer/Nutzerin 21, 40, 68, 79, 126, 138, 141, 160, 191, 193, 194, 195, 196, 204, 221, 265, 272, 319, 322, 328, 329, 345, 352, 360, 372, 373, 388, 418, 426, 428, 447, 456, 459 Öffentlichkeit/öffentlich 1, 3, 4, 5, 6, 22, 28, 29f., 155, 156, 158, 161, 162, 163, 164, 184, 195, 196, 220, 258, 259, 281, 282, 283, 285, 286, 287, 290, 293, 301, 308, 313, 341, 349, 359, 360, 388, 405, 409 Optimierung/optimieren 3, 12, 13, 50, 51, 53, 68, 79, 141, 142, 167, 192, 194, 195, 260, 276, 317, 323, 324, 358, 374, 408, 412 Originalität/originell/Original/original 1, 3, 4, 9, 56, 105, 106, 109, 154, 159, 160, 164, 197, 219, 246, 247, 250, 261, 268, 276, 281–293, 297, 298, 302, 303, 304, 307, 308, 309, 312, 335, 336, 337, 339, 342, 345, 358, 404, 409, 410, 420 Othering 100, 376, 381 Perfektion/perfekt/Perfektionierung 59, 62, 65, 85, 147, 148, 231, 232, 235, 238, 339, 342 Performance/performen 5, 83, 93, 94, 122, 134, 142, 171–187, 248, 251, 323, 339, 383, 412, 413, 414, 416, 418, 420, 421, 422, 423, 440, 445, 446, 447, 451 Performativität/performativ 2, 83, 92, 155, 166, 171, 173, 176, 186, 272, 318, 325, 326, 328, 332 Populärkultur/popkulturell 60, 99, 105, 191, 196, 344

Sachregister 

Postdigitalität/postdigital 118, 125, 126, 129, 158, 160, 383 postdramatisch 90, 175 Posthumanismus/posthumanistisch 48, 49, 50, 52, 53, 54, 55, 58, 59, 60, 65, 66, 67, 72, 73, 77, 78, 79, 80, 88, 93, 103, 283, 344, 345, 370, 371, 381, 393 Postmoderne/postmodern 4, 48, 52, 59, 71, 289, 335, 337, 338 Programmiersprache 232, 236, 240, 243, 273, 274, 394 Projektion/projizieren 52, 58, 85, 87, 103, 112, 122, 123, 140, 147, 148, 174, 175, 177, 266, 267, 268, 290, 321, 342, 410, 417, 420, 422, 428, 430, 448, 449, 451 Prometheus(-Mythos)/prometheisch 51, 56, 57, 58, 59, 60, 62, 99, 166 Queering/queer 156, 324 Rationalität/rational 6, 7, 12, 14, 35, 70, 73, 76, 106, 109, 134, 142, 208, 269, 354, 357, 358, 372, 375, 380, 392, 424, 433, 440 Religion/religiös/Religionsgeschichte/religionsgeschichtlich 56, 63, 103, 112, 124, 348, 376, 385 Repräsentation/repräsentieren/repräsentativ 18, 23, 90, 91, 98, 101, 103, 136, 137, 141, 144, 205, 210, 242, 250, 320, 325, 326, 331, 332, 356, 357, 359, 360, 362, 383, 384, 386, 395, 396, 413, 415, 430, 445, 448, 449 Reproduktion/reproduzieren 40, 61, 62, 78, 109, 176, 204, 222, 235, 273, 288, 289, 290, 294, 354, 355, 361, 377, 392, 394, 395, 407, 413, 418, 433, 453 Revolution/revolutionieren/revolutionär 51, 52, 67, 87, 88, 100, 105, 110, 119, 121, 162, 205, 298, 346, 393 Rezeption/rezipieren 2, 59, 60, 78, 83, 92, 99, 102, 103, 104, 122, 123, 127, 135, 137, 149, 154, 155, 175, 185, 186, 208, 246, 247, 248, 250, 268, 269, 276, 281, 290, 298, 302, 335, 336, 337, 338, 339, 340, 341, 383, 395, 414, 415, 423, 442, 450, 457, 458, 459 Rhetorik/rhetorisch 281, 282, 289, 292, 293, 336, 338, 394, 433

 467

Risiko 16, 22, 68, 98, 143, 224, 360, 397, 398 Roboter/Robotik/robotisch 2, 4, 5, 14, 15, 20, 21, 27, 28, 29, 34, 35, 39, 40, 41, 47, 52, 55, 57, 63, 69, 70–80, 83, 86–93, 98–108, 110, 111, 113, 114, 121, 122, 126, 127, 134, 136, 137, 139, 140, 144, 146, 171, 176, 178, 181, 182, 183, 184, 185, 186, 283, 284, 285, 287, 289, 301, 343, 349, 354, 369, 370, 371, 373, 391, 393, 402–410, 417 Schöpfung/Schöpfertum/schöpfen/ schöpferisch 3, 4, 28, 41, 48, 50, 51, 53, 55–62, 65, 68, 70, 73, 75, 99, 103, 105, 106, 119, 173, 175, 245, 276, 281–294, 298, 302, 306, 307, 308, 309, 310, 311, 312, 313, 314, 315, 323, 349, 369, 393, 412, 415, 416 Schwache KI 19, 20, 37, 38, 41, 47, 53, 56, 57, 58, 73, 74, 134, 135, 137, 292, 317, 318, 392, 454 Science-Fiction (SciFi) 4, 48, 52, 60, 62, 65, 67, 69, 70, 71, 72, 74, 75, 79, 80, 89, 97, 99, 105, 110, 111, 113, 134, 135, 136, 137, 144, 146, 193, 194, 197, 198, 317, 341, 343, 344, 349, 391, 431, 436 Selbstbewusstsein/selbstbewusst 104, 325, 351, 352, 375 Semantik/semantisch/Semantisierung/ semantisieren 14, 58, 74, 118, 123, 165, 198, 285, 287, 300 Sensor/sensorisch 22, 39, 126, 127, 164, 255, 319, 372, 385 Sexismus/sexistisch 161, 323, 377, 383 Sex/Sexualität/sexuell/Sexualisierung 9, 57, 64, 76, 103, 104, 106, 108, 156, 257, 327, 362, 371, 373, 376, 377, 379, 380, 391, 408, 459 Simulation/simulieren/Simulator 11, 12, 13, 16, 19, 28, 35, 37, 39, 40, 147, 148, 180, 181, 193, 214, 255, 256, 257, 266, 283, 286, 287, 288, 289, 292, 320, 385, 392, 393, 397, 398, 400, 409, 410 Sinne/sinnlich (wahrnehmbar/erfahrbar)/Sinnesmodalitäten/Sinnesorgane/Sinnesreiz 22, 39, 126, 165, 266, 288, 298 Spracherkennung 21, 177, 178, 354 Sprachmodell 1, 3, 154, 161, 162, 163, 164, 166, 167, 168, 193, 194, 270, 272, 273, 275, 276

468 

 Sachregister

Starke KI 19, 20, 37, 47, 54, 57, 58, 73, 74, 75, 77, 134, 135, 258, 274, 276, 292, 293, 304, 317, 318, 341, 392, 454 Steuerung/steuern 21, 35, 37, 39, 40, 77, 90, 109, 126, 127, 153, 157, 173, 174, 179, 186, 195, 202, 207, 218, 219, 220, 221, 222, 234, 254, 255, 256, 282, 284, 292, 293, 318, 323, 344, 356, 385, 392, 395, 400, 402, 409, 447, 448, 450, 459

Verstand 47, 57, 85 Verstehen/verstehen 23, 38, 73, 165, 166, 168, 273, 337, 354, 374, 376, 387, 416 Vertrauen/vertrauenswürdig 179, 354, 377, 381, 435 virtuell/Virtualität 36, 79, 109, 110, 126, 173, 180, 186, 207, 253, 254, 255, 258, 289, 386, 426 VR/Virtual reality 174, 177, 182

Textproduktion/Textgenerierung 154–170, 175–177, 185, 193, 265, 281 Transhumanismus/transhuman/transhumanistisch 37, 48, 49, 52–54, 67–73, 79, 374, 398 Turing-Test 10, 25, 79, 105, 109, 113, 186, 265, 266, 269, 300, 373, 406, 408

Wahrnehmung 2, 62, 128, 159, 165, 166, 184, 205, 212, 282, 335, 361, 372, 400, 404, 409 Werkzeug 2, 3, 4, 103, 116, 117, 118, 122, 136, 137, 141, 144, 167, 192, 197, 199, 205, 211, 212, 217, 218, 262, 268, 273, 276, 282, 283, 284, 303, 313, 314, 415 Werte/Wertvorstellungen/Wertesystem 76, 354, 359, 396, 397, 398 Wissen 14, 23, 37, 87, 154, 209, 261, 290, 291, 298, 325, 356, 360, 374, 432, 442, 443, 446, 453, 454

Umwelt 11, 12, 14, 18, 20, 22, 23, 24, 39, 40, 91, 108, 127, 161, 174, 181, 253, 380, 417 uncanny valley  102, 178, 402–411 User/Userin 265, 372, 373, 427, 428 Utopie 52, 67, 68, 89, 386 Verantwortung 20, 22, 105, 106, 107, 112, 124, 276, 360, 391, 392, 398

Zerstörung/zerstören 2, 41, 58, 88, 103, 107, 139, 375, 376