319 11 3MB
German Pages 382 Year 2015
Florian Hartling Der digitale Autor
2009-03-20 12-09-29 --- Projekt: transcript.titeleien / Dokument: FAX ID 02de205449565624|(S.
1
) T00_01 schmutztitel - 1090.p 205449565632
Florian Hartling (Dr. phil.) lehrt Medienwissenschaft an der MartinLuther-Universität Halle-Wittenberg. Seine Forschungsschwerpunkte sind Internettheorie und -praxis, Autorschaft und Netzliteratur.
2009-03-20 12-09-29 --- Projekt: transcript.titeleien / Dokument: FAX ID 02de205449565624|(S.
2
) T00_02 seite 2 - 1090.p 205449565648
Florian Hartling Der digitale Autor. Autorschaft im Zeitalter des Internets
2009-03-20 12-09-29 --- Projekt: transcript.titeleien / Dokument: FAX ID 02de205449565624|(S.
3
) T00_03 titel - 1090.p 205449565720
Überarbeitete und aktualisierte Fassung der Dissertation »Der digitale Autor? Zur Autorschaft unter den Bedingungen des Dispositivs Internet«, vorgelegt der Philosophischen Fakultät II der Martin-Luther-Universität Halle-Wittenberg im Jahr 2007
Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.
© 2009 transcript Verlag, Bielefeld Die Verwertung der Texte und Bilder ist ohne Zustimmung des Verlages urheberrechtswidrig und strafbar. Das gilt auch für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und für die Verarbeitung mit elektronischen Systemen. Umschlaggestaltung: Kordula Röckenhaus, Bielefeld Umschlagabbildung: Florian Hartling Lektorat & Satz: Florian Hartling Druck: Majuskel Medienproduktion GmbH, Wetzlar ISBN 978-3-8376-1090-1 Gedruckt auf alterungsbeständigem Papier mit chlorfrei gebleichtem Zellstoff. Besuchen Sie uns im Internet: http://www.transcript-verlag.de Bitte fordern Sie unser Gesamtverzeichnis und andere Broschüren an unter: [email protected]
2009-03-20 12-09-29 --- Projekt: transcript.titeleien / Dokument: FAX ID 02de205449565624|(S.
4
) T00_04 impressum - 1090.p 205449565736
INHALT 09 09
1 Einleitung 1.1 Bedeutung des Themas und Forschungsbedarf 1.2 Diskussion der Forschungsliteratur zu den Phänomenen Netzliteratur und Autorschaft im Internet 1.2.1 Forschungsstand zur Netzliteratur bis 2001, deutschsprachiger Diskurs 1.2.2 Jüngerer Forschungsstand zur Netzliteratur seit 2002, deutschsprachiger Diskurs 1.2.3 Wichtigste Arbeiten aus dem internationalen Diskurs um Netzliteratur 1.2.4 Forschungsliteratur zur Autorschaft im Internet 1.3 Zielstellung und Forschungsfragen 1.4 Theoretischer Rahmen und Methodik 1.5 Vorgehensweise 1.6 Hinweise zur formalen Gestaltung 1.7 Danksagung
20 22 26 27 29 32 33
2 Definitionen und Begriffe 2.1 Literatur und Autorschaft 2.1.1 Literaturbegriff 2.1.2 Autor 2.1.3 Kollaborative Autorschaft 2.1.4 Kanon und Kanonisierung 2.2 Diskurs, Dispositiv, Macht 2.2.1 Diskurs 2.2.2 Dispositiv 2.2.3 Macht 2.3 Medium Internet und Netzliteratur 2.3.1 Medium Internet/Netzmedium 2.3.2 Netzliteratur 2.3.3 Exkurs: Netzliteratur und »YouTube« 2.3.4 Weitere Begriffe
35 35 35 36 37 38 39 39 40 41 41 41 43 47 49
12 12 15
TEIL A. AUTORSCHAFT 3 Autorschaft und Literatur: Autorschafts-Modelle in der literaturtheoretischen Debatte 3.1 Autorschaft als Gegenstand der Literaturtheorie 3.1.1 Einleitung: Thematisierung von Autor und Autorschaft 3.1.2 Charakterisierung der Forschungsliteratur 3.1.3 Strukturierung des Autorschaftsdiskurses 3.2 Nützliche vs. marginalisierte Autorschaft
55 55 55 57 62 63
3.2.1 Der ›nützliche‹ Autor: Positive Bedeutung des Autorbegriffs 3.2.2 Der ›marginalisierte‹ Autor: Kritiken am Autorbegriff 3.3 Autorschaft als Ausdruck von Genie vs. Autorschaft als Handwerk: Historische Autorbegriffe 3.4 Abwesende vs. öffentliche Autorschaft 3.5 Zwischendiskussion 4 Autorschafts-Typologie 4.1 Modell der Autorschafts-Typologie 4.2 Modell ›Autor‹ 4.2.1 Überblick über Autorbegriffe und -definitionen 4.2.2 Autor und Intention 4.2.3 Autoren und Neue Medien 4.3 Modell ›Schreiber‹ 4.3.1 Exkurs: Ausgangspunkt im Poststrukturalismus 4.3.2 Schreiber im ›starken Sinn‹ 4.3.3 Schreiber im ›schwachen Sinn‹ 4.3.4 Rückkehr veralteter Autorbegriffe 4.3.5 Karikatur des Autorbegriffes 4.3.6 Neubestimmung des Autors als bidirektionale Schnittstelle 4.3.7 Kritik am Schreiber-Modell 4.4 Modell ›Autorfunktion‹ 4.4.1 Dispositiv Autor 4.4.2 Exkurs: Michel Foucault und Samuel Beckett 4.4.3 Kritik und Anwendung: Funktionen der Autorfunktion in historischen Interpretationen 4.4.4 Poststrukturalistische Autorschafts-Analyse 4.4.5 Nutzen der poststrukturalistischen Kritik 4.5 Zusammenfassung: Mit dem Autor macht man es sich einfach
64 71 76 84 85 89 90 93 93 94 95 97 97 100 102 103 104 106 108 110 110 116 124 130 136 137
TEIL B. DISPOSITIV INTERNET 5 Handlungsrollenmodell 5.1 Grundzüge der Empirischen Literaturwissenschaft 5.2 Handlungsrollenmodell: Der Literatur›betrieb‹ im Netz 5.2.1 Grundlagen 5.2.2 Aktanten im traditionellen Literatursystem 5.2.3 Erweiterung und Kritik des Konzeptes 5.3 Aktanten im (Netz-)Literatursystem 5.3.1 Netzliteraturproduktion 5.3.2 Netzliteraturdistribution 5.3.3 Netzliteraturrezeption 5.3.4 Netzliteraturverarbeitung 5.3.5 Zusammenfassung
143 143 144 144 145 147 148 148 149 150 151 154
6 Dispositiv-Konzept 6.1 Einleitung: Notwendigkeit des Dispositiv-Konzeptes 6.2 Ursprünge und Übernahmen des Dispositiv-Konzeptes
155 155 157
6.2.1 Ursprung des Dispositiv-Konzeptes bei Foucault 6.2.2 Übernahme des Konzeptes in die Medientheorie 6.3 Dispositiv als medienwissenschaftliches Modell 6.3.1 Vereinigung heterogener Faktoren 6.3.2 Steuerung der Wahrnehmung 6.3.3 Machtverhältnis und Gesellschaftlichkeit 6.3.4 Offener, dynamischer Begriff 6.4 Internet als mediales Dispositiv: diachrones Entwicklungsmodell 6.4.1 Formierung des Dispositivs Internet 6.4.2 Strategische Wiederauffüllung: Konzeption des World Wide Web 6.5 Internet als mediales Dispositiv: synchrones Strukturmodell 6.5.1 Strukturmodell nach Foucault 6.5.2 Strukturmodell nach Hickethier 6.5.3 Synthese der Strukturmodelle
157 160 161 163 164 166 167 168 168 173 180 180 183 189
TEIL C. STRUKTURIERUNG DER AUTORSCHAFT DURCH DAS DISPOSITIV INTERNET 7 Rahmenbedingungen der Autorschaft im Netz 7.1 Philosophische Bedingungen der Autorschaft 7.1.1 Netizen 7.1.2 Open Source/Freie Software 7.2 Technische Bedingungen der Autorschaft 7.2.1 Server-Client-Prinzip 7.2.2 Wikis 7.2.3 Weblogs und Blogosphäre 7.3 Ökonomische Bedingungen der Autorschaft 7.3.1 Produktion 7.3.2 Distribution 7.3.3 Rezeption 7.4 Rechtliche Bedingungen der Autorschaft 7.4.1 Namens- und Markenrecht, Fallbeispiel »toywar« (1999) 7.4.2 Medienrecht, Fallbeispiel »FreedomFone« (2001)
195 196 196 201 208 208 211 219 231 232 245 247 249 250 255
8 Der Autor in der Netzliteratur. Online-Autorschaft zwischen Personenkult und Dissoziierung 8.1 Genialistische Autorschaft 8.2 Kollaborative Autorschaft 8.3 Marginalisierte Autorschaft 8.4 Dissoziierende Autorschaft, Fallbeispiel: »Search Lutz!« (2006) 8.4.1 »Search Lutz!«: Genese 8.4.2 Ablauf 8.4.3 Charakteristika
263 263 266 280 288 292 294 296
TEIL D. RESÜMEE UND AUSBLICK: SINGULÄRE UND KOLLEKTIVE AUTORSCHAFT IM DISPOSITIV INTERNET 9 Zukunft der Autorschaft, Zukunft der Netzliteratur 9.1 Ist die Netzliteratur tot? 9.2 »YouTube« und Co.: Neue literarische Gattungen? 9.3 Evolution von Autorschaft? 9.4 Zukünftiger Forschungsbedarf
317 317 319 321 323
Anhang Glossar Literaturverzeichnis Bildnachweis
327 327 331 376
1 EINLEITUNG 1.1 Bedeutung des Themas und Forschungsbedarf Der Autor und der literarische Text stellten schon immer ein spannungsvolles, scheinbar gegensätzliches Paar in der literaturtheoretischen Analyse dar. Spätestens seit dem in den 1960er Jahren verkündeten poststrukturalistischen Diktum vom »Tod des Autors« war die theoretische Debatte autorkritisch überformt (vgl. Barthes 2000 [1968]1; Foucault 2001 [1969]2). Der Autor, so waren sich eine ganze Reihe von Literaturtheoretikern einig, sei für die Interpretation eines Textes selbst völlig unwichtig und unnötig. Auch in der empirischen Version der Literaturwissenschaft wird die Frage nach dem Zusammenhang zwischen Autorintention und Textbedeutung marginalisiert (vgl. zusammenfassend Schmidt 2000b). Seit den 1990er Jahren war im theoretischen Diskurs allerdings die machtvolle »Rückkehr des Autors« (vgl. Jannidis et al. 1999b; Detering 2002a; Bein et al. 2004) festzustellen. Damit verbunden war aber stets die Frage, ob die vorgebliche ›Rückkehr‹ nicht vielmehr eine ›Wiederkehr‹ oder ›Wiederentdeckung‹ darstelle, weil das Autorkonzept niemals wirklich zu den Akten gelegt worden war (vgl. Wetzel 2002). Ironischerweise aber scheint das verabschiedete Diktum vom Verschwinden des Autors weiterhin Gültigkeit im jüngsten literarischen Medium zu besitzen. Das Internet, so die euphorischen Hypertexttheoretiker, würde den Autor endgültig verabschieden. In der Gattung der Netzliteratur würde damit der »schreibende Leser«, der so genannte ›Wreader‹3, hervorgebracht (vgl. Landow 1995: 14). Diese etwas naiven Vorstellungen sind in einer 1
2
3
Originaltext: Barthes, Roland, 1968: La mort de l’auteur. In: Manteia. Jg. 5 (1968). S. 12-17. Die Übersetzung von Matías Martínez in Jannidis et al. 2000b basiert auf: Barthes, Roland, 1994: La mort de l’auteur. In: Roland Barthes, 1994: Œuvres complètes. Bd. 2: 1966-1973. Hrsg. von Éric Marty. Paris: Editions du Seuil. S. 491-495. Originaltext: Foucault, Michel, 1969: Qu’est-ce qu’un auteur? In: Bulletin de la Société française de philosophie. Jg. 63 (1969). H. 3 (Juli-September). S. 73104. (Vortrag von Michel Foucault vor den Mitgliedern der Französischen Gesellschaft für Philosophie, Collège de France, 22. Februar 1969). Die jüngste Übersetzung basiert auf: Foucault, Michel, 1994: Qu’est-ce qu’un auteur? In: Michel Foucault, 1994: Dits et Écrits I, 1954-1969. Édition établie sous la direction de Daniel Defert et François Ewald avec la collaboration de Jacques Lagrange. Paris: Éditions Gallimard. S. 789-821. Landow hat 1995 den Terminus »Wreader« aus den beiden Begriffen »writing« (schreiben) und »reader« (Leser) gebildet, was die Übersetzung »schreibender Leser« legitimiert. Damit bezeichnet er den aufgewerteten Leser, der einen Großteil der auktorialen Verfügungsgewalt übernommen hat und Texte sowohl rezipiert als auch ›lesend‹ produziert.
10 | DER DIGITALE AUTOR
solch extremen Ausrichtung sicherlich nur der Frühzeit des Internets (Mitte bis Ende der 1990er Jahre) zuzuordnen. Neuere Positionen sind durchaus differenzierter und lassen auch im Internet den Autor (wieder) zu.4 Trotzdem wird – zum Teil auch in diesen jüngeren Arbeiten – weiterhin von einer grundsätzlichen Tendenz zur Marginalisierung des Autors in der Netzliteratur ausgegangen. Die These von der Marginalisierung aber ist – wie in der vorliegenden Arbeit ausführlicher gezeigt werden soll – eindeutig zu widerlegen. Erstens: Der Autor wird in den Neuen Medien wiedergeboren bzw. lebt in ihnen weiter fort. Dabei kann die Autorbedeutung sogar stärker und der ›Personenkult‹ größer sein als unter den Bedingungen der traditionellen Literatur. Zweitens: Im Gegensatz zur ausgedehnten ›autorlosen‹, kollektiven Textproduktion in onlinejournalistischen Zusammenhängen sind literarische, kollaborative Arbeiten derzeit kaum festzustellen. Erfolgreiche und ästhetisch ansprechende gemeinschaftliche Projekte scheinen notwendigerweise Herausgeber in Form von Initiatoren und Moderatoren vorauszusetzen. Damit bleiben aber auch hier Autorfunktionen erhalten. Drittens: Selbst bei kollektiven Projekten oder den scheinbar autorlosen ›Codeworks‹ ›stirbt‹ der Autor nicht, sondern seine Funktionen werden aufgespalten und auf verschiedene Personen verteilt. Dies kann – viertens – sogar zu einer maximal verteilten, zur ›dissoziierten‹ Autorschaft führen. An die Stelle des marginalisierten Autors tritt also auch im Internet ein recht lebendiger literarischer Autor, der ganz unterschiedliche Autormodelle realisieren kann, je nach künstlerischer Konzeption und Hyper-Poetik. Das bedeutet, dass sich im Internet als Kommunikations- und Handlungsraum Schriftsteller mit starkem Autorbegriff auch als starke Autoren inszenieren (z. B. durch gesteigerten Personenkult oder Individualisierung). Gleichzeitig ist ebenfalls das Umgekehrte zu beobachten. Kollektive Inhaltsproduktion, wie sie bisher vor allem im Onlinejournalismus und bei OnlineEnzyklopädien zu finden ist, scheinen zuzunehmen und auf literarische Autorschaftsmodelle auszustrahlen. Es scheint, als ob sich in der kollektiven literarischen Produktion das kommunikative Potential des Internets deutlich zeigt. Kollektive Autormodelle nehmen die Kulturen der »Open Source«-Bewegung auf und nutzen konsequent die Methoden und Technologien aus der Softwareproduktion nach deren Eigen-Logik; und diese war und ist notwendigerweise immer schon kollaborativ strukturiert. Im Internet haben sich in dieser Entwicklungslinie bereits etablierte Systeme und Plattformen für kollektive Literaturproduktion gebildet. Sie nutzen vor allem in journalistischen Zusammenhängen experimentell erprobte und verfeinerte Softwaretechnologien und Workflows für die künstlerische Produktion aus. Kollaborative Netzliteratur-Projekte bedienen sich Oberflächen, die für Kommunikations- oder Informationszwecke konzipiert wurden. In »Wikipedia« oder »Slashdot« werden Mechanismen zur Qualitätssicherung von kollaborativ und hierarchielos erarbei4
Im deutschsprachigen Diskurs vgl. dazu insbesondere die Arbeiten von Uwe Wirth (Wirth 1997; Wirth 1999; Wirth 2001) und Roberto Simanowski (Simanowski 2001; Simanowski 2002b; Simanowski 2004b; Simanowski 2004a). Für den englischsprachigen Diskurs vgl. Landow 2006: 125-143. Die – von den Anwürfen der poststrukturalistischen Kritik unberührte – Bedeutung des Autorkonzeptes vor allem in traditioneller Literatur, aber auch in Netzliteratur, diskutiert erschöpfend Livingston 2005.
EINLEITUNG | 11
teten Inhalten erprobt. Führen solche Praxen auch zu anspruchsvollen künstlerischen, kollaborativen literarischen Arbeiten? Hinzu tritt mit den ›Codeworks‹ ein literarisches Genre, das reflektiert und hervorhebt, dass digitale Literatur immer auf Software beruht. Codeworks rücken das konzeptionelle ›Dahinter‹ von digitaler Literatur in den Mittelpunkt der Aufmerksamkeit. Sie referieren explizit auf das Digitale und leiten Schlussfolgerungen für die Beziehung zwischen ›Code‹ und ›Interface‹ ab. Wenn aber bei diesem stark computerbasierten und -reflektierenden netzliterarischen Genre das Konzeptuelle so deutlich im Vordergrund steht, dann spielen traditionelle Autorkonzepte kaum mehr eine Rolle. Noch stärker dominiert bei der netzliterarischen Konzeptkunst das dem Kunstwerk zugrunde liegende Konzept über das fertige Projekt. Nicht die Ausführung von Kunst, nicht deren physische Beschaffenheit ist von Relevanz, sondern allein deren Idee. Damit wird das Werk5 selbst entmaterialisiert und der Rezipient in die Kunst hineingenommen. Im Internet und bedingt durch das Netz selbst wird gegenwärtig technisch und gesellschaftlich eine neue künstlerische Autorschaft möglich und auch realisiert. Das Netz erscheint aus dieser Sicht förmlich als Jungbrunnen literarischer Autorschaft. Wie aber werden diese phänomenologischen Befunde in der einschlägigen Literatur verhandelt? Das Phänomen der Autorschaft wird vor allem im literaturwissenschaftlichen, aber auch im filmwissenschaftlichen Diskurs recht intensiv untersucht, mit einem beachtlichen Output von einschlägigen Arbeiten. Allerdings wird die Frage des ›digitalen Autors‹ nur eingeschränkt und selten thematisiert, allenfalls als Ausblick oder beispielhafte Anwendung in Monographien, Sammelbänden, Zeitschriftenbeiträgen oder Konferenzen (vgl. etwa Winko 1999b; Wetzel 2002; Livingston 2005). In den entsprechenden Aufsätzen erfahren die medialen Besonderheiten des Netzes zudem fast gar keine Reflexion. Damit aber bleibt offen, wie die beobachteten Phänomene tatsächlich ursächlich aus der medialen Struktur zu erklären sind. Hier manifestiert sich also eine Forschungslücke auf Seiten der (klassischen) Literaturtheorie. Umgedreht wurden Fragen des digitalen Autors und von digitaler Autorschaft im theoretischen Diskurs um Netzliteratur von Anfang an stets mit betrachtet, was – wie bereits erwähnt – mit der Rekonstruktion von Hypertext als quasi ›poststrukturalistische‹ Textform zusammenzuhängen scheint. Im Diskurs rund um die Jahrtausendwende wurden diese Fragen noch untergeordnet mitgeführt, da die neue Literaturform zunächst erst analytisch erfasst werden musste. Nach der Veröffentlichung der ersten Grundlagenwerke und Überblickssammelbände hat sich der Diskurs seit etwa 2002 ausdifferenziert und widmet sich spezielleren Themen, eingeschränkt auch der Autorschaft. Dabei fällt allerdings auf, dass die theoretische Vorarbeit im literaturwissenschaftlichen Theoriediskurs bis auf wenige Ausnahmen größtenteils ausgeblendet wird6 und größere, systematische Untersuchungen fehlen. Diese 5
6
Der Begriff ›Werk‹ wird im Folgenden sowohl für eine einzelne literarische Arbeit als auch für das Lebenswerk eines Autors (Gesamtheit aller seiner Arbeiten) verwendet. Eine dieser Ausnahmen stellte das 1996 durchgeführte Online-Seminar »Kollaborative Autorschaft« von Porombka et al. dar, welches aber nur noch in einer archivierten Version zugänglich ist (Porombka et al. 1996). Als zweite kann – eingeschränkt – Anja Raus Dissertation »What you click is what you get?« (Rau 2001) aus dem Jahr 2000 (Publikation im Jahr 2001) genannt werden (vgl. ausführlicher Kapitel 1.2.4).
12 | DER DIGITALE AUTOR
Anschlusslosigkeit hatte schon die ältere Debatte um den ›Wreader‹ deutlich gemacht, die auf das literaturtheoretisch längst verabschiedete poststrukturalistische Diktum zurückging und Hypertext poststrukturalistisch fundierte. Auch aktuelle Forschungsergebnisse – wie etwa Autorschaftsanalysen basierend auf Foucaults Autorfunktionsanalyse – werden kaum reflektiert. Damit aber wird das Rad doppelt erfunden sowie – was noch problematischer ist – werden aus den phänomenologischen Netzliteraturuntersuchungen im induktiven Verfahren theoretische Schlussfolgerungen gezogen, die kaum haltbar sind. Diese Lücke im netzliterarischen Diskurs verweist auf ein größeres Forschungsdesiderat, dem sich die vorliegende Arbeit annehmen will: Es fehlt eine systematische Beschreibung und Analyse des ›digitalen Autors‹ sowie der Bedingungen von Autorschaft im Internet.
1.2 Diskussion der Forschungsliteratur zu den Phänomenen Netzliteratur und Autorschaft im Internet Wenn die systematische Aufarbeitung des Phänomens ›digitaler Autor‹ fehlt, was liegt in der (vor allem deutschsprachigen) Forschungsliteratur dann vor? Hier lässt sich sehr wohl ein reicher Ertrag zum allgemeinen Thema »Netzliteratur« feststellen. Der entsprechende Forschungsdiskurs kann wie erwähnt analytisch geordnet werden, in eine Phase der phänomenologischen Bestimmung der neuen Literaturgattung bis etwa 2001 und in die Phase des ausdifferenzierten Forschungsdiskurses seitdem. In diesem Diskurs wurde das Phänomen der digitalen Autorschaft allerdings eher nebenbei betrachtet, denn ausführlich elaboriert.
1.2.1 Forschungsstand zur Netzliteratur bis 2001, deutschsprachiger Diskurs Die Frühphase einer theoretischen Reflexion begann spätestens mit dem ersten Netzliteraturwettbewerb7 1996 im journalistischen Feuilleton und im Netzdiskurs, einige theoretische Vorarbeiten datieren auf das Jahr zuvor. Daran schloss sich allmählich eine eher essayistische Zeitschriftendiskussion an, erst ab etwa 1999 und damit mit drei Jahren Zeitverzug setzte der akademische ›Hardcover‹-Diskurs ein.8 Diese Phase war weitestgehend dadurch gekennzeichnet, dass vor allem Monographien auf Basis von Magisterarbeiten und Dissertationen veröffentlicht wurden, die vorwiegend an literaturwissenschaftlichen Lehrstühlen geschrieben worden waren. Sammelbände doku-
7 8
1. Internet Literaturpreis »Pegasus 1996«, veranstaltet von der »ZEIT« und IBM. Dieses Stufenmodell des netzliterarischen Diskurses folgt einem gängigen Modell der literarischen Kritik, vgl. dazu ausführlicher Hartling 2004: 24-27. Sowohl der akademische Diskurs als auch die literarische Kritik sind dem Handlungsbereich der Verarbeitung zuzuordnen, weswegen es zulässig ist, eine ähnliche Strukturierung der Diskurse anzunehmen.
EINLEITUNG | 13
mentierten die ersten maßgeblichen Ausstellungen und Symposien9 zur digitalen Literatur. Typisch für diese Phase war auch, dass sich die veröffentlichten Arbeiten vor allem mit grundlegenden Fragen der Netzliteratur beschäftigten und zudem oftmals in ein breites Spektrum von Aspekten einführten. Damit aber stellten diese Arbeiten vor allem Einführungen in die digitale Literatur dar, die sich an ein noch voraussetzungsloses Publikum richteten. So untersuchte Nina Hautzinger in ihrer Magisterarbeit 1999 die Frage »Vom Buch zum Internet?« und betrachtete dabei die Auswirkungen der Textsorte Hypertext auf den literarischen Schaffens- und Rezeptionsprozess (vgl. Hautzinger 199910). Beat Suters Einführung in die Frühphase der deutschen Hyperfiktion (1994-1998) leistete dokumentarische Arbeit und widmete sich ausführlich der Begriffsklärung (vgl. Suter 200011, Dissertation). Dagegen diskutierte Stephan Porombka (vgl. Porombka 200112, Dissertation) die komplette Geschichte des Hypertextes und schien sich in dem Mythos zu verlieren, den er zu kritisieren gedachte (vgl. Idensen 2000b). Christine Böhlers Dissertation schließlich bot eine kurze Darstellung der HypertextGeschichte verbunden mit einer Vorstellung von Literaturprojekten und neuen Vertriebsformen. In ihren Interviews mit Netzautoren perspektivierte sie dabei auf die literarische Produktion (vgl. Böhler 200113). Analytisch nicht allein auf Hypertext fokussiert entfaltete Christiane Heibach eine Synthese aus aktuellen Medientheorien und den technischen Spezifika von Computer und Internet, um daraus ein Untersuchungsprogramm für digitale Texte zu entwickeln. Dabei legte sie einen Schwerpunkt auf theoretische Anknüpfungspunkte etwa bei McLuhan oder Flusser sowie auf die Technikgeschichte der Netzliteratur (vgl. Heibach 2000b14, Dissertation). An Sabrina Ortmanns Buch (vgl. Ortmann 2001, Magisterarbeit) war dagegen heftige Kritik geübt worden.15 Ihr wurde vorgeworfen, dass sie relativ unreflektiert die Entwicklung vor allem der deutschsprachigen Netzliteratur dargestellt hätte, um daraus eine sehr angreifbare Klassifikation von Netzliteraturgenre zu entwickeln (vgl. Suter 2001). Die Dissertation von Anja Rau untersuchte die These, dass die herkömmliche Stellung von Autoren und Lesern in interaktiver digitaler Literatur beibehalten und sogar verstärkt würde, womit einer der Diskussionspunkte der vorliegenden Arbeit angesprochen ist. In Raus Arbeit wurde deutlich, dass die Konzentration auf einen eng umgrenzten Aspekt des weiten Felds mit
9
10 11 12 13 14 15
Wichtigste Ausstellungen und Symposien: 1995-1999 Netzliteraturfestival »Softmoderne« (im jährlichen Rhythmus veranstaltet), Berlin und Prag; 1999 Symposium »Digitaler Diskurs ›Internet und Literatur‹«, Romainmôtier, Schweiz (Dokumentation: Suter/Böhler 1999a, Auer et al. 2002 ff.); 2000 Ausstellung und Vortragsreihe »Liter@tur«, Karlsruhe (Dokumentation: Liesegang/ Schmidt-Bergmann 2000, Schmidt-Bergmann/Liesegang 2001); 2000 Symposium »p0es1s – Poetologie digitaler Texte I«, Kassel (Dokumentation: Auer et al. 2002 ff.; Dokumentation der begleitenden Ausstellung: Block 2000b); 2001 Symposium »p0es1s – Poetologie digitaler Texte II«, Erfurt (Dokumentation: Block et al. 2004b; Auer et al. 2002 ff.). Vgl. auch die Rezension des Buches: Rau 1999b. Vgl. auch die Rezensionen des Buches: Heibach 2001a; Winko 2001. Vgl. auch die Rezension des Buches: Scholler 2003. Vgl. auch die Rezension des Buches: Jatzek 2001. Vgl. auch die Rezension des Buches: Idensen 2002. Zu einer weiteren, positiveren Rezension vgl. auch Klarmann 2001.
14 | DER DIGITALE AUTOR
Verzicht auf eine Technikgeschichte zu durchaus gelungenen Arbeiten führt (vgl. Rau 2001). Thomas Kamphusmann schließlich ging einen interessanten Weg, als er sich ausschließlich auf computerbasierte und algorithmisch generierte Texte konzentrierte und eine vergleichsweise neue Methodik entwickelte. Anstelle von literaturwissenschaftlichen Kriterien verwendete er in seiner Dissertation informatorische Grundbegriffe als Analysekategorien, nämlich »Speichern«, »Übertragen« und »Berechnen« (vgl. Kamphusmann 2002). Neben diesen einführenden Monographien wurden Sammelbände veröffentlicht, in die sich mehr und mehr der Diskurs der Netztheoretiker zu verlagern schien. Bereits im Jahr 1996 gaben Dirk Matejovski und Friedrich Kittler den ersten Sammelband zur »Literatur im Informationszeitalter« heraus (vgl. Matejovski/Kittler 199616), wobei allerdings noch nicht die etwa zeitgleich einsetzende deutschsprachige Netzliteratur reflektiert werden konnte. Stattdessen wurde mit programmatischen Beiträgen etwa zu Hypertexten oder zur veränderten Medienlandschaft der theoretische Boden erstmals abgesteckt. Hervorzuheben ist hier der in späteren Jahren oftmals zitierte Aufsatz »Die Poesie soll von allen gemacht werden!« von Heiko Idensen (vgl. Idensen 1996). Im Jahr 1996 fand zudem nicht nur der erste »Pegasus«Literaturwettbewerb statt, sondern auch die aus dem Wettbewerb hervorgehende Mailingliste »Netzliteratur« nahm ihre Arbeit auf. Diese bildete zwischen 1996 und 1999 den Kristallisationspunkt des theoretischen Diskurses um die neue Literaturgattung, die maßgeblich die Entwicklung der deutschsprachigen Netzliteratur institutionell beförderte. Der Diskurs wurde in der Anfangszeit vorwiegend im Netz geführt, weil die gedruckten Zeitschriften und Bücher kaum mit den rasanten Entwicklungen Schritt halten konnten und weil die traditionellen Kanäle dem neuen Kunstphänomen anfangs noch eher skeptisch gegenüberstanden. Höhe- und Endpunkt der für den allgemeinen Diskurs einflußreichen Diskussionen auf der Mailingliste war das Symposium »Digitaler Diskurs«, das 1999 in Romainmôtier, Schweiz, unter Beteiligung aller im deutschsprachigen Raum relevanten Künstler und Theoretiker stattfand (vgl. Hartling 2007b).17 Mit der Dokumentation des Symposiums unter dem Titel »Hyperfiction« (vgl. Suter/Böhler 1999b18) war gleichzeitig die Wandlung vom netzdominierten hin zum akademischen Diskurs in den traditionellen Veranstaltungsformen und Printmedien eingeleitet. Die Debatte im Netz blieb aber auch danach stets ein wichtiger Bestandteil dieses Diskurses, zusätzlich bestärkt durch die Gründung des einflussreichen E-Zines »dichtung-digital«19 (vgl. Simanowski 1999 ff.) im selben Jahr. Allerdings markierte gerade die akademische Ausrichtung dieses E-Zines sowie die Simulierung eines PrintJournals im Internet die seitdem höhere Bedeutung des Offline-Diskurses. Der Sammelband »Hyperfiction« bot dabei nicht nur eine herkömmliche Auswahl von theoretischen Texten, sondern wurde von seinen Herausgebern als »hyperliterarisches Lesebuch« konzipiert, das die Texte auf einer beigefügten CD-ROM auch elektronisch bereitstellte. Zudem enthielt der Daten16 Vgl. auch die Rezension des Buches: o. N. 1996. 17 Die Mailingliste ist auch heute noch aktiv, wobei ihre Relevanz für den Diskurs deutlich abgenommen hat. 18 Vgl. auch die Rezensionen des Buches: Rau 1999a; Winko 2001. 19 Zu dem E-Zine vgl. ausführlicher auch Suter 1999.
EINLEITUNG | 15
träger eine ausgewählte Sammlung von einschlägigen netzliterarischen Arbeiten, die zu dem Zeitpunkt bereits als kanonisiert gelten konnten, so etwa Arbeiten von Johannes Auer, Susanne Berkenheger, Oliver Gassner und Claudia Klinger. Ergänzt wurde der Band von einer Webseite, auf der das im ›real life‹ stattfindende Symposium digital fortgeführt wurde. Als crossmediale Publikation bildete »Hyperfiction« damit eine damals noch experimentelle Publikationsform, die sich erst einige Jahre später in der Verlagslandschaft tatsächlich durchsetzen sollte. Zwei Jahre danach markierte eine komplette Ausgabe der renommierten germanistischen Zeitschrift »Text+Kritik« zur »Digitalen Literatur« die steigende Akzeptanz des jungen theoretischen Diskurses in der vergleichsweise printgeprägten Debatte der Germanistik (vgl. Arnold 200120). Der Gastherausgeber Roberto Simanowski legte dabei den Schwerpunkt vor allem auf die akademische Strömung des Diskurses und versammelte Positionen der wichtigsten deutschsprachigen Wissenschaftler im Feld. Damit aber wurde Zeugnis abgelegt von einem bereits komplexen und differenzierten Forschungsfeld, an dem in der deutschen Literaturwissenschaft gearbeitet wurde. So wurden Fragen der Typologie von digitaler Literatur ebenso angesprochen wie deren historische Vorläufer. Auch sehr aktuelle Probleme wie die Frage der Autorschaft oder die Bedeutung des Codes für Netzliteratur wurden eingehender diskutiert. Mit einer detaillierten Auswahlbibliographie wurde das Heft zu einem »unerläßliche[n] Standar[d]werk« (Scholler 2003). Mit dem Band »Liter@tur« (vgl. Schmidt-Bergmann/Liesegang 200121) erschien im gleichen Jahr die Dokumentation einer Vortragsreihe, die 2000 am »Museum für Literatur am Oberrhein«, Karlsruhe durchgeführt wurde. Eingebettet war diese Reihe in eine der ersten umfangreichen Ausstellungen zur digitalen Literatur, die in einem renommierten Museum gezeigt wurde, und die gleichzeitig eine sehr umfangreiche Dokumentation zum Thema auf der begleitenden Webseite bereitstellte. Der Band selbst dokumentierte am Ende bedauerlicherweise nur vier der insgesamt sieben Vorträge, ergänzt aber um einen Text von Roberto Simanowski. So schlug sich der interessante Ansatz der Vortragsreihe, Positionen von Literaturwissenschaftlern mit denen von Verlegern und der eines Juristen zu vermischen, nicht im Endprodukt nieder. Der Band lieferte resultierend vor allem eine Zusammenstellung der bereits kanonisierten theoretischen Zugänge von Reinhard Döhl, Florian Cramer, Heiko Idensen und Roberto Simanowski.
1.2.2 Jüngerer Forschungsstand zur Netzliteratur seit 2002, deutschsprachiger Diskurs Die Jahre 2001/2002 markierten, wie bereits erwähnt, so etwas wie den Wendepunkt der Debatte um Netzliteratur. Zum einen hatte die theoretische Reflexion Einzug in die ›normale‹ feuilletonistische und akademische Diskussion gehalten und musste nicht mehr allein im Netz geführt werden. Flankiert wurde diese Entwicklung durch den 2001 gestarteten, öffentlichkeitswirksamen Wettbewerb »Literatur.digital«22 und die seit 2000 verstärkt agie20 Vgl. auch die Rezension des Buches: Scholler 2003. 21 Vgl. auch die Rezensionen des Buches: Bachmann 2002; Rothschild 2002. 22 Dieser Wettbewerb wurde von 2001 bis 2003 von dem renommierten Verlag dtv in Kooperation mit Deutschlands größtem Internet-Provider T-Online ver-
16 | DER DIGITALE AUTOR
rende Konferenz- und Ausstellungsreihe »p0es1s«23. Zum anderen hatte das Platzen der Dotcom-Blase (ab März 2000) den internetbasierten Unternehmen und Geschäftsmodellen einen erheblichen Dämpfer verpasst, sodass die enormen Hoffnungen auf die Online-Ökonomie und auch auf die Internetkunst zunächst gescheitert schienen. Diese Entwicklung hatte mit einer zeitlichen Verzögerung nun auch die Debatte um Netzliteratur erreicht, mit den weiter unten diskutierten ökonomischen Folgen für die Künstler (vgl. Kapitel 7.3). Aber auch die Kritiker und Wissenschaftler waren betroffen, als (bezahlte) Publikationsmöglichkeiten im Netz wegbrachen oder es zunehmend schwieriger wurde, durch internetbasierte Projektaufträge die theoretische Reflexion querzufinanzieren. Dies führte etwa zu dem von vielen Netizen beklagten »Niedergang« des E-Zines »Telepolis«24, aber auch zu einer drastischen Änderung der Publikationspraxis bei »dichtung-digital«. Mit Hinweis auf die ökonomischen Schwierigkeiten wurde vom Herausgeber Roberto Simanowski ein Großteil des vorher frei zugänglichen Archivs der Zeitschrift gesperrt und der Zugang zum Kauf angeboten. Dies aber wurde heftig von anderen Aktiven der Netzliteraturszene kritisiert, weil damit ein wichtiger Teil der Forschungsliteratur plötzlich ›abgeschnitten‹ und Linkbeziehungen gekappt wurden (vgl. Kapitel 7.3.1). Aus diesen Gründen verlagerte sich die ausdifferenzierte Forschungsdebatte ab 2002 stärker in wissenschaftliche Zeitschriften, Monographien und Sammelbände, also in einen akademischen Diskurs, dessen Gratifikationssysteme nicht über direkte finanzielle Einnahmen laufen. Stattdessen spielen für die akademischen Autoren Reputationssteigerungen oder Publikationsveranstaltet. Durch eine intensive publizistische Begleitung konnte sich die Veranstaltung einer besonders breiten Öffentlichkeit erfreuen. Allerdings erfüllte dieser Wettbewerb, ebenso wie seine gescheiterten Vorgänger, die in ihn gesetzten publikumswirksamen Erwartungen offensichtlich nicht. Deshalb wurde er nach drei Durchläufen relativ lautlos ›beerdigt‹. 23 »p0es1s« stellt ein lockeres Netzwerk von Wissenschaftlern und Künstlern dar, die sich der Erforschung und Propagierung von Netzliteratur und Netzkunst mit einer internationalen Perspektive verschrieben haben. Um den Hauptinitiator Friedrich W. Block gruppieren sich in wechselnden Konstellationen Netztheoretiker wie etwa André Vallias, Christiane Heibach und Karin Wenz. Dazu werden Online- und Offline-Ausstellungen durchgeführt, die die jeweilige Avantgarde der Netzkunst präsentieren, wobei »p0es1s« bei Projektstart im Jahr 1992 mit der ersten internationalen Ausstellung zur digitalen Poesie eine absolute Vorreiterrolle einnahm. Im Internet bekannt geworden ist eine OnlineAusstellung, die von 2000 bis 2001 auf der Projektwebseite veröffentlicht war und dort an weniger prominenter Stelle auch weiterhin noch zugänglich ist. Die öffentlichkeitswirksamste Offline-Ausstellung fand vom 13. Februar bis 4. April 2004 am Kulturforum Potsdamer Platz statt. Dazu erschien ein zweisprachiger Sammelband bei Hatje Kranz (Block et al. 2004b). 2007 folgte die (vorerst) letzte internationale Ausstellung in Rio de Janeiro. Zweites Standbein von »p0es1s« sind akademische Symposien, die unter Teilnahme renommierter Wissenschaftler und Künstler durchgeführt werden, wie etwa in den Jahren 2000 (Universität Kassel) und 2001 (Universität Erfurt). Zur Konzeption des Netzwerkes vgl. auch den älteren Text Block 2000a. 24 »Telepolis« selbst wurde nicht eingestellt, aber veränderte sich inhaltlich so stark, dass Beobachter von einer enormen Verschlechterung der Qualität sprachen, die die Bezeichnung »Niedergang« rechtfertigte. Vgl. dazu die Diskussion »Niedergang von Telepolis« in der Mailingliste »Rohrpost« von August bis September 2003, welche im Archiv der Liste dokumentiert ist.
EINLEITUNG | 17
pflichtungen im Sinne von »publish or perish« eine gewichtige Rolle. Kennzeichen dieser »Akademisierung« der ›erwachsenen‹ deutschsprachigen Debatte um Netzliteratur waren zudem die Publikationen von Monographien, die nicht direkt aus Abschlussarbeiten erwuchsen25, die Verlagerung in die eher angesehenen kulturwissenschaftlichen Verlage26, die Erforschung in extra dafür eingerichteten Forschungsprojekten27 sowie die Durchführung von einschlägigen Festivals, Symposien und Konferenzen28. Dass auch in dieser stark von der Buchkultur geprägten Debatte das Netz nach wie vor einen Platz als schnelles und flexibles Publikationsmedium einnahm, stellte das Projekt »netzliteratur.net« unter Beweis, das Anfang 2002 von Johannes Auer begründet wurde (vgl. Auer et al. 2002 ff.). Zusammen mit Christiane Heibach und Beat Suter wurde es zunächst als Gegenmodell zum zugangsbeschränkten E-Zine »dichtung-digital« aufgebaut. Auf der Plattform sollten sämtliche theoretischen Texte zur Netzliteratur und Netzkunst im weitesten Sinn veröffentlicht und zugangsfrei archiviert werden. Dabei verstand und versteht sich »netzliteratur.net« als Repository, auf dem Forscher ohne jegliche editorische Auswahlprozesse ihre Artikel veröffentlichen können. Dies wird auch als »Self-Archiving« bezeichnet und in der Bewegung des »Open Access« als »Green Road« näher spezifiziert (vgl. Herb 2006a). Zudem wird die Plattform sukzessive als Archiv von netzliterarischen Projekten selbst aufgebaut, was verhindern soll, dass netzliterarische Projekte – wie oft der Fall – nur temporär im Netz zugänglich sind. Allerdings muss einschränkend herausgestellt werden, dass »netzliteratur.net« durch seinen Archivcharakter kaum eine Konkurrenz zum traditionellen Printdiskurs bildet, sondern diesen im Gegenteil immer wieder neu bestätigt. Da editorische und selektive Eingriffe fehlen, ›zählen‹ Publikationen auf dieser Plattform (noch) nicht im Sinne der akademischen Publikationsverpflichtungen. Somit werden oftmals nur Texte zweitveröffentlicht, die vorher bereits gedruckt vorlagen, oder es werden ›graue‹ Papiere (Abschlussarbeiten, Diskussionspapiere, Statements) publiziert, bei denen die inhaltliche Qualität nicht immer überzeugt. Unter den in jüngerer Vergangenheit veröffentlichten Monographien stechen vor allem die Arbeiten von Roberto Simanowski und Christiane Heibach hervor, die im renommierten Suhrkamp-Verlag erschienen sind. Beide Autoren sind seit dem Beginn der akademischen Reflexion über Netzliteratur
25 Vgl. etwa Simanowski 2002b; Heibach 2003. 26 Wie etwa dtv, Suhrkamp oder Hatje Cranz. 27 Zum Beispiel das Projekt »Litnet. Literatur in Netzen/Netzliteratur«, welches seit 2002 im kulturwissenschaftlichen Forschungskolleg »Medienumbrüche« der Universität Siegen unter der Leitung von Peter Gendolla durchgeführt wird. Dort assoziiert ist seit 2006 das Projekt »digitalaesthetics.org«, eine Kooperation von Peter Gendolla mit Roberto Simanowski bzw. der Universität Siegen und der Brown University Providence, USA. 28 Wichtigste Ausstellungen und Symposien: 2004 Ausstellung »p0es1s. Digitale Poesie«, Berlin (begleitende Publikation: Block et al. 2004b); 2004 Konferenz »Netzliteratur: Umbrüche in der literarischen Kommunikation«, Siegen (Dokumentation: Gendolla/Schäfer 2005, Gendolla/Schäfer 2007); 2005 Netzliteraturfestival »Literatur und Strom. Code – Interface – Concept«, Stuttgart; 2007 Netzliteraturfestival »Literatur und Strom 2. Netzgeschichten«, Stuttgart; 2008 Konferenz »Beyond the Screen: Transformations of Literary Structures, Interfaces and Genres«, Siegen.
18 | DER DIGITALE AUTOR
im Feld tätig und somit nahezu intime Kenner der Materie. Es verwundert daher nicht, dass beide Bücher einschlägige Standardwerke der NetzliteraturTheorie darstellen, bilden sie doch das geronnene Ergebnis langjähriger Analyse- und Theoriearbeit. Roberto Simanowski legte 2002 mit »Interfictions« (vgl. Simanowski 2002b29) kein reines Theoriebuch vor, sondern eine Sammlung von theoretischen Betrachtungen und zahlreichen, beispielhaften Analysen. Er lieferte damit eine vorläufige Bestandsaufnahme des theoretischen Diskurses um Netzliteratur sowie durch seine Besprechungen und Analysen einen Korpus von Projekten, die auch dadurch zum Kanon der Netzliteratur gezählt werden können. Nachdem er einführend Fragen der Definition und Typologie von digitaler Literatur und deren Vorgeschichte überblicksweise diskutiert hat, analysiert er Merkmale von Netztexten nach drei großen Genres: kollaborativ produzierte Mitschreibprojekte, Hyperfiction als eher klassische HypertextLiteratur sowie multimediale Literatur. Damit aber bezieht sich Simanowski vor allem auf traditionelle Genres der Netzliteratur und fokussiert in seiner Theoretisierung stark auf deren Text- und Bildschirmästhetik. Völlig ausgeblendet sind Codeworks30 und Softwareart sowie konzeptuelle Genres und Netzkunst, also Projekte, die explizit das ›Dahinter‹ und das Prozessuale digitaler Kunst thematisieren. Christiane Heibach knüpfte in »Literatur im elektronischen Raum« (vgl. Heibach 200331) dagegen an den theoretischen Vorarbeiten ihrer drei Jahre zuvor erschienen Dissertation (vgl. Heibach 2000b) an und entwickelte eine detaillierte Theorie dieser Literaturform. Ihre Argumentation vollzieht sich dabei in drei großen Teilen. Neben der »Theorie der Literatur im elektronischen Raum« (in der sie intensiv auch auf die Begriffsdebatten eingeht) diskutiert sie eingehend die geschichtlichen Vorläufer dieser Literatur und entwickelt schließlich eine umfassende Typologie. Interessant bei Heibach sind vor allem die strukturierenden Elemente ihrer komplexen Typologie, die die vielfältige Praxis der netzliterarischen Arbeit adäquat zu erfassen vermag. Zudem bezieht sie auch die von Simanowski analytisch ausgeblendeten Formen in ihr Modell mit ein. Ergänzt werden diese beiden einschlägigen Arbeiten durch die 2003 erschienene Arbeit »Computerpoesie« von Saskia Reither (vgl. Reither 200332, Dissertation). In dieser analysiert sie den Dispositivwechsel vom Buch zum Bildschirm sowie die damit verbundenen Auswirkungen auf die poetische Produktion und die ästhetische Rezeption. Dabei ist allerdings – ähnlich wie bei Simanowski – zu bemängeln, dass eine solche Fokussierung auf die ›Oberfläche‹ und die Erscheinung der Kunst wichtige Aspekte digitaler Literatur unzulässig ausblendet. 29 Vgl. auch die Rezensionen des Buches: Kücklich 2002; Bauer 2003. 30 In der Vergangenheit sind als Alternativen zu ›Codeworks‹ auch die Begriffe ›Softwareart‹ oder ›Softwarekunst‹ benutzt worden, bei einer durchaus synonymen Verwendung, vgl. etwa die Beiträge in Gohlke 2003. Allerdings waren bei der Verwendung von ›Softwareart‹ vor allem lauffähige Programme gemeint. Diese Fokussierung aber schließt nicht-lauffähige Formen wie ›broken codes‹ oder ASCII-Kunst unzulässig aus, weswegen im Rahmen dieser Arbeit der weitere Begriff der ›Codeworks‹ verwendet wird. Dieser hat sich aufgrund seiner umfassenderen Bedeutung im Forschungsdiskurs auch durchgesetzt. 31 Vgl. auch die Rezension des Buches: Schäfer 2005. 32 Vgl. auch die Rezension des Buches: Nieberle 2005.
EINLEITUNG | 19
Festivals, Tagungen und Konferenzen zu Themen im weiten Umfeld der Netzliteratur sind in der Phase des ausdifferenzierten Forschungsdiskurses Legion, auch die Zahl entsprechender Sammelbände ist hoch. Konzentriert man sich allerdings auf die tatsächlich einschlägigen Veröffentlichungen mit ausschließlichem Fokus auf Netzliteratur, geraten vor allem fünf Bücher ins Blickfeld, die aus ganz unterschiedlichen Diskurszusammenhängen stammen. Der von Roberto Simanowski herausgegebene Band »Literatur.digital« (vgl. Simanowski 2002c33) erschien begleitend zum gleichnamigen Netzliteraturwettbewerb, der zwischen 2001 und 2003 als Kooperation des Verlages dtv mit dem Internetprovider T-Online durchgeführt wurde. Der Band dokumentierte den ersten Wettbewerb, indem die besten 20 Beiträge auf einer beigelegten CD-ROM veröffentlicht und im Buch selbst einführende Artikel sowie Interviews mit Theoretikern abgedruckt wurden. Damit war der Band aus theoretischer Perspektive eher mäßig interessant, konnte aber eindrucksvoll vermitteln, wie digitale Literatur archiviert und für ein breites Publikum präsentiert werden kann. Es war allerdings auch auffällig, dass offensichtlich nur Beiträge eingereicht wurden bzw. die Jury nur Arbeiten in die nähere Betrachtung einbezogen hatten, die tatsächlich offline von einer CD-ROM aus rezipiert werden konnten. Damit aber trat ein nur eingeschränktes Verständnis davon zum Vorschein, was die Spezifik von Netzliteratur ausmacht. Theoretisch interessanter war der Band »$wurm = ($apfel>0) ? 1 : 0. Experimentelle Literatur und Internet« (vgl. Auer 2004b), der 2004 von Johannes Auer im Gedenken an den im gleichen Jahr verstorbenen Reinhard Döhl herausgegeben wurde.34 Reinhard Döhl war als Mitglied der »Stuttgarter Schule« bereits seit den 1960er Jahren an literarischen Experimenten auch mit Computerunterstützung beteiligt, ab 1996 arbeitete er sowohl praktisch als auch theoretisch an der Entwicklung der deutschsprachigen Netzliteratur mit. An diese doppelte Rolle anknüpfend, vereinigte das Memoscript sowohl wissenschaftliche Aufsätze der wichtigsten Theoretiker als auch experimentelle Texte von Netzliteraten. Auers Band knüpfte damit an die Tradition von »Hyperfiction« (vgl. Suter/Böhler 1999b) an, die den deutschsprachigen Diskurs um Netzliteratur aus der doppelten Sicht der daran beteiligten Forscher und Künstler reflektierte. In dieser Tradition stand auch das im gleichen Jahr von Friedrich W. Block, Christiane Heibach und Karin Wenz publizierte Buch »p0es1s. Ästhetik digitaler Poesie« (vgl. Block et al. 2004b35). Es erschien anlässlich einer prominent platzierten und groß angelegten Ausstellung im Kulturforum Potsdamer Platz, Berlin, die den vorläufigen Höhepunkt der bereits erwähnten Konferenz- und Ausstellungsreihe »p0es1s« bildete. In diesem Sammelband waren die Beiträge des 2. »p0es1s«-Symposiums veröffentlicht, das 2001 in Erfurt stattgefunden hatte. Auffallend war hier die internationale Ausprägung des Bandes, was sich nicht nur an den deutsch- und englischsprachigen Beiträgern ablesen ließ, sondern auch an der konsequenten Übersetzung aller Beiträge in die jeweils andere Sprache. Die vergleichsweise zahlreichen,
33 Vgl. auch die Rezension des Buches: Domsch 2002. 34 Vgl. auch die knappe Besprechung: Baumgärtel 2005. Mittlerweile ist der Band im Volltext auch auf Auers Plattform »netzliteratur.net« erhältlich, vgl. Auer et al. 2002 ff. 35 Vgl. auch die Rezension des Buches: Schäfer 2005.
20 | DER DIGITALE AUTOR
pointiert geschrieben Artikel boten ein breites und perspektivenreiches Bild des Diskurses um Netzliteratur. Die jüngsten Sammelbände referierten wiederum vor allem auf den akademischen Diskurs um Netzliteratur. Der 2005 von Harro Segeberg und Simone Winko herausgegebene Band »Digitalität und Literalität« (vgl. Segeberg/Winko 2005a) dokumentierte die Vorträge einer Ringvorlesung, die im Wintersemester 2002/2003 an der Universität Hamburg durchgeführt wurde. Dieses Buch war zeitgleich in einer wortidentischen Internetfassung erschienen (vgl. Segeberg/Winko 2005b), was ungewöhnlich anmutete, gerade für einen eher traditionellen Verlag wie »Wilhelm Fink«. Die Beiträge des Sammelbandes blickten von der traditionellen Literatur aus auf die digitalen Formen und erforschten damit das Fortleben der Literatur in Koexistenz mit der Netzliteratur. Diesen Ansatz erfasste Harro Segeberg mit dem Begriff »Parallelpoesien«. Um den Kern von einschlägigen Netzliteratur-Forschern (Christine Böhler, Roberto Simanowski, Beat Suter, Christiane Heibach, Stephan Porombka) gruppierten sich Autoren aus dem weiteren literaturwissenschaftlichen Feld. Dadurch wurden aber einige für den netzliterarischen Diskurs eher ungewöhnliche Blickwinkel eingenommen. War das Buch von Segeberg und Winko ausschließlich auf den deutschsprachigen Diskurs ausgerichtet, nahm der jüngste Sammelband zur digitalen Literatur explizit einen internationalen Standpunkt ein. Das englischsprachige Buch »The Aesthetics of Net Literature« (vgl. Gendolla/Schäfer 200736) wurde herausgegeben von Peter Gendolla und Jörgen Schäfer. Es versammelte die Beiträge einer internationalen Konferenz, die im November 2004 an der Universität Siegen stattgefunden hatte. Organisiert wurde die Veranstaltung im Rahmen des DFG-Projekts »Literatur in Netzen/Netzliteratur«, das seit 2002 im kulturwissenschaftlichen Forschungskolleg »Medienumbrüche« angesiedelt ist. Eine erste, teilweise deutschsprachige, Publikation der Beiträge war bereits 2005 im E-Zine »dichtung-digital« erfolgt (vgl. Gendolla/ Schäfer 2005). Im Band waren sowohl Beiträge einschlägiger deutschsprachiger Experten enthalten (Roberto Simanowski, Friedrich W. Block, Thomas Kamphusmann), vertreten waren aber auch einige der oft zitierten internationalen Experten (Philippe Bootz, Markku Eskelinen, Marie-Laure Ryan). Zu kritisieren ist an dem Band, dass er sehr stark auf die traditionellen Genres digitaler Literatur und damit auf eine ›oberflächliche‹ Ästhetik fokussiert. Dies mag auch mit einem implizit vertretenen, evolutionären Ansatz37 zusammenhängen, nach dem Computerspiele, bei denen auch die oberflächliche Erscheinung sehr bedeutsam ist, die digitale Literatur förmlich ›beerben‹ würden.
1.2.3 Wichtigste Arbeiten aus dem internationalen Diskurs um Netzliteratur Es ist auffallend, dass der internationale, zumeist englischsprachige Diskurs intensiv vom deutschsprachigen rezipiert und verarbeitet wird, auch wenn der umgekehrte Weg vor allem wegen der fehlenden Übersetzung deutschsprachiger Bücher kaum beschritten wird. Zudem wurden und werden englisch36 Vgl. auch die Rezensionen des Buches: Krug 2008; Heibach 2007. 37 Diese These aber muss durchaus kritisch gesehen werden, vgl. dazu weiter unten das Kapitel 9.3.
EINLEITUNG | 21
sprachige Autoren mittlerweile regelmäßig zu Beiträgen in Sammelbänden (vgl. Block et al. 2004b; Gendolla/Schäfer 2007) oder anderen Publikationen aufgefordert (vgl. etwa das E-Zine »dichtung-digital«). Damit aber muss dieser Diskurs nicht notwendigerweise komplett ausgewertet werden, um den aktuellen Forschungsstand zum Thema zu ermitteln. Einige Fingerzeige auf die relevantesten Publikationen sollen daher an dieser Stelle genügen. Espen J. Aarseth’ Dissertation »Cybertext. Perspectives on Ergodic Literature« (vgl. Aarseth 1997) führte die Überlegungen der frühen Hypertexttheoretiker Bolter (vgl. Bolter 1991) und Landow (vgl. Landow 1992) fort und entwickelte gegen den bereits eingeführten Begriff des »Hypertext« eine Alternativbestimmung von digitaler Literatur als »Cybertext«. Cybertext stellte für Aarseth danach eine so genannte »ergodische« Literaturform dar, die nur unter besonderen Anstrengungen zu lesen sei: »In ergodic literature, nontrivial effort is required to allow the reader to traverse the text« (Aarseth 1997: 1). Diese Begriffsbestimmung konnte sich aber nicht im Diskurs durchsetzen. Ein Standardwerk der Hypertext-Forschung hatte Jay David Bolter bereits 1991 mit seinem hochgelobten Buch »Writing Space. The Computer, Hypertext, and the History of Writing« (vgl. Bolter 1991) veröffentlicht. Zehn Jahre danach legte er eine vollständig überarbeitete zweite Auflage vor, in der er die Bedeutung des »World Wide Webs« (WWW) und dessen neuer Technologien für die zukünftigen Schreibformen diskutierte (vgl. Bolter 2001). Marie-Laure Ryan interessierte sich stattdessen in ihren letzten beiden Büchern »Narrative as virtual Reality« (vgl. Ryan 2001) und »Avatars of Story« (vgl. Ryan 2006) vor allem für narratologische Aspekte von Hypertext und darüber hinausgehend anderer elektronischer Medien. In ersterem Buch untersuchte sie dabei vor allem, wie in digitaler Literatur die Leser dazu gebracht werden, sich im Text zu verlieren (Immersion), wie sie an dem Text interaktiv teilhaben können (Interaktivität) und wie beides miteinander verbunden wird. In letzterem Buch diskutierte sie das Fortwirken von narratologischen Elementen des ›Storytellings‹ (Erzählens) in den neuen Medien. Der momentan renommierteste Forscher im Diskurs um »Hypertext« ist aber zweifellos George P. Landow. Dieser hat seine viel beachtete »Hypertext«-Studie (vgl. Landow 1992; Landow 1997) mittlerweile in der dritten, vollständig überarbeiteten Auflage vorgelegt (vgl. Landow 2006). In seinem Standardwerk greift er wiederum die neuesten hypertextuellen Phänomene des WWWs auf und setzt sich so auch eingehender mit Weblogs auseinander. Zudem liefert er eine umfassende Einführung in Hypertext und diskutiert eine ganze Reihe von resultierenden Veränderungen, die Text, Autor, Schreibprozesse und Erzählungen erfahren. Außerdem beschreibt er, wie Hypertext bestimmte Lernprozesse verbessern kann und welche ethischen sowie politischen Fragen rund um die Textsorte kreisen. Bei all der Brillanz der Darstellung und Diskussionen bleibt es aber fraglich, ob das analytische Konzept des Hypertextes im Diskurs nicht bereits längst veraltet ist. Dieses Veralten scheint nicht zuletzt dadurch deutlich zu werden, dass eine ganze Reihe der früheren Forscher aus dem Feld Hypertext bzw. digitale Literatur ihre Interessen mittlerweile stärker den jungen »Game Studies« zugewandt haben und sich damit der Erforschung von Computerspielen widmen. Dies betrifft etwa den bereits diskutierten Espen J. Aarseth (vgl. Aarseth 2001) oder Marie-Laure Ryan (vgl. Ryan 2006), aber auch Wissen-
22 | DER DIGITALE AUTOR
schaftler wie Markku Eskelinen38. Auch der deutschsprachige Diskurs wandelt sich entsprechend, so richtete das E-Zine »dichtung-digital« in seinen letzten Ausgaben bereits deutlich seinen Fokus auf den neuen Diskurs der »Game Studies« aus. Kulturwissenschaftler wie Julian Kücklich stehen für eine junge Generation von Forschern, die sich seit Beginn ihrer Karriere ganz ›natürlich‹ der Erforschung von Computerspielen mit Mitteln der Literaturtheorie widmen (vgl. Kücklich 2001). Hier wird also von einem bedeutenden Teil des internationalen Diskurses die Zukunft des Erzählens durchaus nicht in der (digitalen) Literatur, sondern im Computerspiel gesehen (vgl. dazu näher auch Kücklich 2004 [2007]).
1.2.4 Forschungsliteratur zur Autorschaft im Internet Wie bereits erwähnt, liegt eine umfangreiche, systematische Diskussion der Autorschaft im Internet im deutschsprachigen Diskurs noch nicht oder nur in Ansätzen vor. Zudem sind die Verbindungen zwischen dem theoretischen Diskurs um Autorschaft und den Phänomenen digitaler Autorschaft im Internet oft nur rudimentär ausgebildet. Wie ein solches Forschungsprogramm aussehen könnte, hatten Stephan Porombka, Ernst-Peter Schneck und Thomas Wegmann bereits 1996 in einem internetbasierten Seminar zur »Kollaborativen Autorschaft. Utopien der Buchkultur / Utopien der Netzkultur« an der FU Berlin (vgl. Porombka et al. 1996) skizziert. In ihrem Ansatz diskutierten sie zunächst intensiv den Stand der damaligen Debatte um Autorschaft in den Literaturwissenschaften, analysierten verschiedene Autormodelle sowie Selbstbilder von Autoren und skizzierten kollaborative Schreibmodelle in der traditionellen Literatur vor dem Internet. Damit erarbeiteten sie eine solide theoretische Basis, mit deren Hilfe sie die kollaborative Autorschaft im Internet kompetent analysieren konnten. Sie widmeten sich dabei nicht nur der historischen Entwicklung in den Datennetzen, sondern lieferten auch eine der ersten Definitionen von Autorschaft im Internet. Abgerundet wurde ihr Lehrprogramm durch eine Analyse von frühen Schreibprojekten im Netz. Die sehr starke Konzentration auf kollektive Autorschaftsmodelle hing dabei vermutlich mit der damaligen euphorischen Aufnahme des Netzes als wahrhaft kollektives Schreibmedium zusammen. Aus heutiger Sicht erscheint dies sicherlich kritikwürdig; wie in der vorliegenden Arbeit gezeigt wird, muss eine Analyse von kollektiven Strukturen im Netz notwendigerweise unter Berücksichtung der gleichzeitig vorhandenen singulären Tendenzen erfolgen. Zudem mussten die Ausführungen von Porombka et al. mit Hinblick auf den Charakter ihres Projektes notwendigerweise verknappt und pointiert ausfallen. Schließlich bestand ihr Ziel nicht in einer detaillierten, ergebnisbezogenen Diskussion des Gegenstandes, sondern in einem Themenaufriss, der in eine (virtuelle) Seminardiskussion münden sollte. 38 Eskelinen gab zwischen 2000 und 2003 das »Cybertext Yearbook« heraus, in dem der Wandel von Cybertext zu den »Game Studies« theoretisch vorbereitet wurde, vgl. Eskelinen/Koskimaa 2001; Eskelinen/Koskimaa 2002; Eskelinen/ Koskimaa 2003. Als Gastherausgeber fungierte er bei der Ausgabe 4/2003 von »dichtung-digital«, welche sich bereits intensiver mit Computerspielen beschäftigte. Schließlich arbeitet er seit 2001 an dem internationalen Journal »Game studies« mit, vgl. Aarseth 2001 ff.
EINLEITUNG | 23
Trotz aller Lücken hatten Porombka et al. hier bereits frühzeitig eine solide und innovative Forschungsskizze vorlegt, mit der sie der damaligen Diskussion um Netzliteratur voraus waren. Es ist bedauerlich, dass in der Debatte – soweit das überblickt werden kann – nicht systematisch daran angeknüpft wurde. Dieses Forschungsdesiderat könnte nicht zuletzt damit zusammenhängen, dass das virtuelle Seminar nach seinem Abschluss nicht dauerhaft auf dem Webserver der FU Berlin archiviert wurde. Damit aber war dieser Forschungszusammenhang, der im Diskurs um Netzliteratur ja durchaus wahrgenommen wurde, für einige Jahre abgerissen.39 Den neben Porombka et al. einzigen weiteren Ansatz einer ausführlicheren Diskussion von digitalen Autorschaftsphänomen hatte, wie bereits erwähnt, Anja Rau mit ihrer 2000 verteidigten Dissertation »What you click is what you get? Die Stellung von Autoren und Lesern in interaktiver digitaler Literatur« vorgelegt. Rau untersuchte darin einen Korpus von Hypertexten, Hyperfiction und Computerspielen auf deren Autor- und Leserfunktionen. Diese Analyse basierte auf einer Auswertung der einschlägigen Autortheorien von postmodernen Literaturwissenschaftlern bzw. die an diese anschließenden Autortheorien der frühen Hypertextforscher. Dabei konzentrierte sie sich allerdings etwas zu sehr darauf, die These von der ›Verkörperung‹ der poststrukturalistischen Theorien im Hypertext zu widerlegen und stattdessen die Wiedererstarkung von traditionellen Autor- und Leserrollen zu beweisen: »Ich untersuche in dieser Arbeit die Position des Autors und die des Lesers in digitaler Literatur und komme dabei zu dem Schluss, dass das digitale Medium qua Medium und in seiner derzeitigen Handhabung die Autorfunktion keineswegs überflüssig macht und den Autor eher noch in seiner Autoritätsstellung bestärkt.« (Rau 2001: 34)
Kritisch war Rau bereits im Jahr 2000 vorzuwerfen, dass sie die Spezifika des Netzes, die eben doch auch eine Marginalisierung der Autorbedeutung gestatten und die damals bereits sichtbar waren, nicht in genügendem Maß würdigte. So ließen sich erste Vorläufer von autor-marginalisierenden Codeworks damals ebenso finden wie konzeptuelle Arbeiten. Auch der gerade Ende der 1990er Jahre zu beobachtende Boom der Mitschreibprojekte hätte bereits konsequent unter dem Aspekt der Gleichzeitigkeit verschiedener Autormodelle betrachtet werden müssen. Zum Teil durften diese Fehleinschätzungen mit einer gewissen Ausblendung des deutschsprachigen Diskurses um Netzliteratur und der deutschsprachigen Praxis zusammengehangen haben, in der sehr wohl Beweise für ein ambivalenteres Verhältnis zwischen Marginalisierung und Personenkult zu finden waren. Diese Vernachlässigung ist auch von Rezensenten ihrer Arbeit bemängelt worden (vgl. Mathez 2002a). Die Fehleinschätzungen resultierten zusätzlich aus einem falsch gewählten Untersuchungsfeld, das Netzliteratur mehr oder weniger komplett ausblendete und den analytischen Schwerpunkt stark auf Hypertext bzw. Hyperfiction sowie Computerspiele vorwiegend US-amerikanischen Ursprunges legte. Die Argumente, mit denen Rau diese Schwerpunktsetzung begründe-
39 Es existiert nur noch eine gecachte, nicht ganz vollständige Version des Projektes auf dem Server des »Internet Archives«.
24 | DER DIGITALE AUTOR
te40, waren nicht völlig nachvollziehbar, insbesondere weil sie damit zu verzerrten Schlussfolgerungen kam. Im deutschsprachigen Forschungsdiskurs spielte die starke Fokussierung auf Hypertext und Hyperfiction á la Landow und andere mit guten Gründen bereits keine Rolle mehr. Stattdessen wurde in dieser Zeit schon ein brauchbarer Begriff von Netzliteratur entwickelt. Auch wurden Computerspiele durchaus nicht als Form von Literatur angesehen. Es musste schon damals verwundern, dass der durchaus fruchtbare deutschsprachige Diskurs so unreflektiert blieb. Mehrere Jahre nach der Fertigstellung von Raus Dissertationsschrift stellt sich die Situation selbstverständlich noch anders dar, denn Hypertext und Hyperfiction bilden nur noch marginalisierte Subgenres einer allgemein anerkannten Gattung ›Netzliteratur‹. Computerspiele werden zwar von einigen wenigen Theoretikern als Zukunft der Netzliteratur angesehen (vgl. etwa Werber 2003a), diese nehmen mit ihrer Ansicht aber nach wie vor nur vereinzelte Positionen im Diskurs ein. Von den »Game studies« werden Computerspiele stattdessen durchaus nicht als Literaturgenre angesehen und literarische Methoden spielen nur eingeschränkt eine Rolle bei ihrer Analyse. Die vorliegende Studie schließt somit auch an den Mainstream der derzeitigen Debatte an, wenn sie Computerspiele nicht in die Untersuchung einbezieht. Der Vorwurf der mangelnden Wertschätzung eines relevanten Diskurses musste Rau, ebenfalls bereits 2000, auch aus einer anderen Richtung gemacht werden. So vernachlässigte sie den damals aktuellen Stand der Debatte um Autorschaft in den Literaturwissenschaften; stattdessen bezog sie sich auf eher veraltete Autormarginalisierungsthesen von Roland Barthes, Umberto Eco, Michel Foucault und Wolfgang Iser. Vor diesen Positionen mussten sich ihre Schlussfolgerungen von der Wiederkehr des Autors im Internet recht positiv und fortschrittlich ausnehmen, allerdings waren sie nur scheinbar innovativ. Tatsächlich hatte sich die literaturtheoretische Debatte längst über diese plumpe Autormarginalisierung hinaus weiterentwickelt, was in dem bereits 1999 erschienenen einschlägigen Band »Rückkehr des Autors« (vgl. Jannidis et al. 1999b) sehr nachdrücklich dokumentiert wurde. Auch der zeitlich vorangegangene US-amerikanische Diskurs um die ›Wiederentdeckung‹ des Autors schlägt sich bei Rau nicht nieder. Vermutlich liegt dieses Versäumnis auch darin begründet, dass die von Rau intensiv referierten USamerikanischen Hypertexttheoretiker dem tatsächlichen Fortschritt in der Literaturtheorie nicht genügend Beachtung geschenkt hatten und somit zu verfälschten Schlussfolgerungen kommen mussten. Raus Analyse stützte sich auf einen Korpus von Projekten und Computerspielen, die mittlerweile schon weitestgehend historisch sind und nicht mehr relevant für den aktuellen künstlerischen Diskurs. Zudem wird ihre Schwerpunktsetzung auf den ›Leser‹ von digitaler Literatur im Folgenden nicht aufgegriffen; stattdessen fokussiert die Analyse auf die Autoren bzw. den Handlungsbereich der Produktion. Aus diesen genannten Gründen kann Raus Arbeit für die vorliegende Untersuchung als wenig brauchbar eingeschätzt werden; stattdessen wird aus der Kritik an dem Buch ein modifiziertes Vorgehen entwickelt. Systematische und aktuelle Ausarbeitungen des Phänomens der OnlineAutorschaft sind – wie gezeigt – bei Porombka et al. und Rau nur ansatzwei40 Vgl. dazu ihr Kapitel »1.2 Hypertext-Theorie: der Stand der Forschung«: Rau 2001: 17-32.
EINLEITUNG | 25
se vorhanden, sie fehlen ganz, wenn man die gesamte jüngere Literatur betrachtet. Trotz dieser fehlenden systematischen Ausarbeitung ist das Phänomen im Diskurs durchaus stets mitgeführt worden. Dabei muss allerdings zumeist kritisch bemerkt werden, dass diese Diskussionen kaum theoriegeleitet waren, sondern sich vor allem an den Phänomenologien der besprochenen Projekte orientierten und schließlich oft recht knapp ausgeführt waren. Für den englischsprachigen Diskurs sind wiederum vor allem die Arbeiten von Jay David Bolter (vgl. Bolter 2001) und George P. Landow (vgl. Landow 1992; Landow 1997; Landow 2006) zu nennen. Insbesondere Landows dritte ›Version‹ seiner »Hypertext«-Studie bietet einige interessante neue Perspektiven, wie etwa zur Autorschaft in Weblogs (vgl. Kapitel 8.2). Im deutschsprachigen Diskurs war es vor allem Heiko Idensen, der sich spätestens seit 1995 intensiv mit Fragen der kollaborativen Autorschaft beschäftigte, die durch das Netz hervorgerufen und unterstützt wird (vgl. Idensen 1996; Idensen 1999; Idensen 2001). Seine Analysen gingen dabei Hand in Hand mit einer eigenen künstlerischen, auch kollaborativen Produktion, etwa auf seiner Plattform »Hyperdis« (vgl. Idensen 2000 ff.). Uwe Wirth hat sich näher mit der Beziehung zwischen den poststrukturalistischen, autorkritischen Theorien und den Hypertexttheorien der 1990er Jahre auseinandergesetzt. Dabei legte er eine wesentlich differenziertere Einschätzung von der Veränderung der Kräfteverhältnisse zwischen Autor und Leser vor. An Barthes und Foucault anknüpfend formulierte er die These, dass die Verabschiedung des Autors gerade nicht mit der »Geburt des Lesers« einherginge, sondern stattdessen den Editor hervorbringe (vgl. Wirth 1997; Wirth 1999; Wirth 2001).41 Auch Roberto Simanowski diskutierte in seinen eher überblicksweisen Analysen zur digitalen Literatur immer wieder die Rolle des Autors (vgl. Simanowski 2001; Simanowski 2002b; Simanowski 2004b; Simanowski 2004a). Er nahm dabei eine (etwas polemisch formulierte) Gegenposition zum postrukturalistischen Diskurs ein, indem er formulierte: »Tod des Autors? Tod des Lesers!« (Simanowski 2004b). Damit verwies er auf eine Besonderheit kollaborativen Schreibens, die darin liegt, dass nicht das tatsächlich rezipierbare Endprodukt ›Text‹ wichtig sei, sondern vor allem der Prozess des Entstehens und damit der Prozess des Mitschreibens. Soweit das überblickt werden kann, bezog sich Christiane Heibach in einem Vortrag im Jahr 2000 als erste deutschsprachige Forscherin aus dem Diskurs um Netzliteratur explizit auf die damalige literaturtheoretische Diskussion (vgl. Heibach 2000a). In ihrer knappen Skizze konnte sie bereits eindrücklich nachweisen, wie fruchtbar ein entsprechender Bezug für die Analyse von Autorschaftsphänomenen im Internet ist. In ihrem bereits erwähnten Buch »Literatur im elektronischen Raum« (vgl. Heibach 2003) schließlich entwickelte sie eine anschlussfähige Typologie u. a. von kollaborativer Netzliteratur, auf die weiter unten näher eingegangen wird. Judith Mathez widmete sich dagegen den kollaborativen Projekten unter dem Blickwinkel der Kinder- und Jugendmedienpädagogik (vgl. Mathez 2002b). Mit dem Begriff der »Konkreativität« erfasste sie dabei Netzprojekte, die eine Mitarbeit der Leser am künstlerischen Gesamtprodukt nicht nur ermöglichen, sondern diese auch 41 Die Bedeutung des Herausgebers als editorals Dispositiv sowie die Maskierung der Autorschaft durch einen erfundenen Editor in der Literatur um 1800 diskutiert Wirth in seiner 2008 erschienenen Habilitationsschrift, vgl. Wirth 2008.
26 | DER DIGITALE AUTOR
auf kreative Art einfordern und damit fördern. Dieses konkreative Produzieren sah aber Mathez nicht als internetspezifisch an, sondern leitete es als Kontinuität aus den medialen Vorläufern des Netzes ab. In jüngerer Zeit hat Jeanine Tuschling in ihrer Magisterarbeit »Autorschaft in der digitalen Literatur« eine systematischere Analyse vorgeschlagen, die erste relevante Fragen andiskutiert (vgl. Tuschling 2006). Schließlich ist der 2007 erschienene Sammelband »Autorinszenierungen. Autorschaft und literarisches Werk im Kontext der Medien« zu nennen (vgl. Künzel/ Schönert 200742). Er versammelte verschiedene Analysen zur Inszenierung von Autorschaft und der Selbstinszenierung von Autoren in der diversifizierten Medienwelt seit Anfang des 20. Jahrhunderts und fokussierte dabei auch auf die Phänomene von Internet-Autoren und digitaler Autorschaft.43 Interessant ist hier die Anerkennung neuer Autorschaftsphänomene im Internet; allerdings bleiben die im Band versammelten Beiträge dabei etwas zu sehr auf einzelne Autoren konzentriert und sind im Umfang insgesamt nur recht knapp gehalten.
1.3 Zielstellung und Forschungsfragen Ziele der vorliegenden Arbeit sind die systematische Beschreibung und Analyse des ›digitalen Autors‹ sowie der Bedingungen von literarischer Autorschaft im Internet. Dazu wird das Konzept des Dispositivs als ein geeignetes Analysemodell verwendet, wobei an Michel Foucault und Knut Hickethier angeknüpft wird. Es soll gezeigt werden, dass im Dispositiv Internet und bedingt durch das Dispositiv selbst gegenwärtig technisch sowie gesellschaftlich eine spezifisch neue Form von literarischer Autorschaft möglich ist und auch realisiert wird. Diese Autorschaft ist nicht auf den einfachen Nenner »Tod des Autors« zu bringen, sondern setzt in ganz signifikanter Weise einerseits eine progressive Entwicklung innerhalb der Kultur des 20. Jahrhunderts fort, muss andererseits aber auch als evolutionärer Sprung angesehen werden, als genuin neues kulturelles Phänomen. Die Entwicklung dieser neuen Autorschaftsmodelle ist parallel zum dispositivitären Charakter des Internets als strategische Wiederauffüllung zu fassen, als Reaktion auf Veränderungen, die vom Dispositiv selbst erzeugt wurden. Das Dispositiv erscheint aus dieser Sicht als Jungbrunnen literarischer Autorschaft. Inhaltlich soll mit der Arbeit die Diskussion um Autorschaft, die derzeit vornehmlich in der (germanistischen) Literaturwissenschaft geführt wird, mit der Debatte um Netzliteratur zusammengeführt und für die Medienwissenschaften nutzbar gemacht werden. Strukturell wird mit dem Dispositiv ein Konzept für die Analyse von Netzphänomenen verwendet, das ursprünglich für andere, audiovisuelle Phänomene entwickelt wurde. Damit aber wird der entsprechende Forschungsdiskurs (vgl. insbesondere Hickethier 2003: 186201) um eine systematische Anwendung bereichert. Gegenstand der Untersuchung stellen künstlerische Autorschaftsphänomene in der Netzliteratur dar, wobei aus pragmatischen Gründen vorwiegend auf den deutschsprachigen Raum Bezug genommen wird. Am Rande mit be42 Vgl. auch die Rezension des Buches: Braun 2009. 43 Vgl. dazu die Beiträge Fischer 2007; Paulsen 2007; Porombka 2007; Segeberg 2007.
EINLEITUNG | 27
trachtet werden Autorschaftsphänomene in der vorwiegend textbasierten, nichtliterarischen Produktion (z. B. Onlinejournalismus, »Wikipedia«, Weblogs). Hierbei werden allerdings nur Aspekte diskutiert, die von der Netzliteratur jetzt schon künstlerisch verarbeitet werden oder von denen zukünftige Einflüsse auf die literarische Produktion zu erwarten sind. Darüber hinaus wird das nichtliterarische ›Schreiben‹ im Netz ausgeblendet. Die Fokussierung auf literarische, künstlerische Autorschaftsphänomene entspricht einer ähnlichen Eingrenzung im literaturwissenschaftlichen Diskurs um Autorschaft. Damit wird der Erkenntnis Rechnung getragen, dass die Künste zwar online konvergieren und beliebig kombiniert werden können, allerdings weiterhin (noch) die Traditionen und die unterschiedlichen Autorschaftskonzepte aus der Offline-Kunstwelt fortgeführt werden. Nicht zuletzt stellt diese Eingrenzung eine pragmatische Entscheidung dar, um das kulturell überformende und hochkomplexe Prinzip der Autorschaft überhaupt handhabbar und analysierbar zu machen. Jede umfangreichere Konzeption würde den verfügbaren Rahmen der vorliegenden Arbeit bei weitem sprengen. Systematisch ausgeblendet bleiben daher auch andere Kunstformen wie Netzkunst, Netzmusik, Netzvideos, Animationen und Computerspiele. Vernachlässigt werden schließlich auch andere nicht-künstlerische OnlinePhänomene, die ebenfalls unter dem Aspekt der Autorschaft betrachtet werden könnten: Animationen im Werbezusammenhang, eLearning, Webdesign, Corporate Design usw. Die Untersuchung wird dabei von folgenden Hauptfragen geleitet: 1. Wie wurden und werden diese neuen literarischen Autorschaftsformen durch das Dispositiv Internet bedingt, strukturiert und beeinflusst? Welchen Einfluss hat die mediale Struktur des Internets auf diese Verwerfungen der Autorschaft? 2. Wie sind Online-Autorschaftskonzepte in Fortführung, Veränderung und Abgrenzung zu traditionellen Autorschaftskonzepten strukturiert? (Vielmehr: Inwieweit spielt die postulierte Dichotomie zwischen dem traditionellen und dem ›digitalen‹ Autor überhaupt eine Rolle?) 3. Wie beziehen sich Autoren bei ihrer Produktion auf das Dispositiv Internet? Wie bilden sich die Spezifika des Netzes in Struktur und Gestaltung der Arbeiten ab? Welche Vorstelllungen der eigenen Autorschaft setzen sie um? 4. Welche Formen von kollektiven, kollaborativen oder dissoziierten Autorschaften erlauben dem Rezipienten, in das Werk selbst einzugreifen? Indem der Fokus vor allem auf die deutschsprachige Netzliteraturszene gelegt wird, wird dabei ›nebenbei‹ eine Bestandsaufnahme der jüngeren deutschen Netzliteratur erarbeitet, die sich mit Fragen der Autorschaft künstlerisch auseinandersetzen.
1.4 Theoretischer Rahmen und Methodik Grundlage der vorliegenden Untersuchung bildet, wie erwähnt, der literaturtheoretische Diskurs um Autorschaft, wie er vordringlich in der germanistischen Literaturwissenschaft geführt wird (vgl. insbesondere Jannidis et al. 1999b; Jannidis et al. 2000b; Detering 2002a; Bein et al. 2004). Dazu tritt der netzliterarische Diskurs in der entsprechenden deutschsprachigen Netzlitera-
28 | DER DIGITALE AUTOR
turszene (vgl. insbesondere Simanowski 1999 ff.; Auer et al. 2002 ff.; Auer 2004b; Block et al. 2004b; Segeberg/Winko 2005a) sowie – etwas allgemeiner – der jüngere Diskurs um Netzkultur, der etwa aus dem E-Zine »Telepolis« rekonstruiert werden kann. Theoretisch basiert die vorliegende Untersuchung auf einem empirischen Literaturbegriff, der im Zusammenhang mit der »Empirischen Theorie der Literatur« (ETL) entwickelt wurde, sowie einer Konzeption von Handlungsbereichen im System der Netzliteratur. Dabei wird vor allem auf den Handlungsbereich der Produktion fokussiert, in dem die Autoren agieren. Mit dieser expliziten Konzentration auf textexterne Autorschaftsphänomene geht die Ausblendung von textinternen Faktoren einher, wie dies etwa im literaturtheoretischen Gebiet der Narratologie intensiv betrieben wird. Weder werden Strategien der Erzählung oder narrative Elemente untersucht, noch berücksichtigt die Analyse textinterne Autor-Erscheinungen, wie Erzählerfiguren oder implizite Autoren. Zur analytischen Vorstrukturierung des Internets dient das DispositivKonzept, wobei an Michel Foucault (vgl. insbesondere Foucault 1978) und Knut Hickethier (vgl. insbesondere Hickethier 2003: 186-201) angeknüpft wird. Das Netz wird als mediales Dispositiv begriffen, das sich durch eine spezifische Anordnung von untereinander vernetzten, heterogenen Elementen auszeichnet. In diesen Vernetzungen aber, so das Modell, sind Machtstrategien eingegossen, die auf alle Aspekte des Dispositivs ausstrahlen. Dieses Erklärungsmodell ist für das Internet noch wenig ausgearbeitet und – soweit das überblickt werden kann – bisher nicht für die Analyse von netzliterarischen Phänomenen verwendet worden. Methodisch ist die vorliegende Untersuchung als Mischung verschiedener qualitativer, kulturwissenschaftlicher Verfahren konzipiert, da es hier um eine erste Systematisierung des zu erforschenden Phänomens geht. Dies resultiert in einem Vorgehen, das vor allem das bereits vorliegende Material in den verschiedenen Forschungsdiskursen aufarbeitet und strukturiert auf den Untersuchungsgegenstand hin diskutiert. Dazu wird zum einen der jüngere literaturwissenschaftliche Forschungsstand zum Phänomen Autorschaft aufgearbeitet und eine Typologie von Autorschaftsmodellen erstellt, die sich auf eine entsprechende Skizze von Heinrich Detering bezieht (vgl. Detering 2002b). Zum zweiten wird entsprechend die verfügbare Literatur zur Netzliteratur ausgewertet, wobei nicht nur der deutschsprachige, sondern auch eingeschränkt der einschlägige internationale Diskurs Berücksichtigung findet. Das vergleichsweise junge Alter des entsprechenden Diskurses machte es notwendig, flankierende Interviews mit Künstlern und Experten zu führen, um Einschätzungen und Informationen zu erhalten, die noch nicht publiziert worden sind. Vor allem im Jahr 2004 wurden daher Interviews mit je einem Künstler oder einer Künstlerin sowie einem Experten oder einer Expertin aus der Netzliteratur sowie den (angrenzenden) Feldern Netzmusik und Webanimationen geführt. Diese waren als Leitfadeninterviews angelegt und fanden zum größten Teil im Rahmen einer DVD-Produktion zum Thema »Netzkunst« statt (vgl. Fröde et al. 2005; Hartling 2005b).44 Die Zielstellung der 44 Die DVD hat der Autor als Projektleiter zusammen mit Nele Fröde, Henry Gerlach und Daniela Vetter-Zewdie konzipiert und betreut. Zitiert werden zumeist Passagen aus den Interviews, die auch auf der DVD dokumentiert sind. Dabei
EINLEITUNG | 29
Arbeit, eine erste systematische Beschreibung und Analyse des ›digitalen Autors‹ sowie der Bedingungen von literarischer Autorschaft im Internet zu liefern, brachte es dabei mit sich, dass die Interviews (noch) nicht als empirische Untersuchung angelegt waren. Eine umfangreiche empirische Erhebung wäre der zweite Analyseschritt nach der hier vorgelegten theoretischen und analytischen Vorstrukturierung, der an die zusammengestellten Modelle und Thesen andocken müsste. Drittes Methodenelement ist die Erarbeitung eines Analysemodells in Form des Dispositivs Internet. Dazu wird die medienwissenschaftliche Debatte um das Dispositiv-Konzept insbesondere mit Hinblick auf die audiovisuellen Medien intensiv aufgearbeitet, wobei deutlich wird, dass es notwendigerweise auf das originale Modell des Dispositivs bei Michel Foucault rückbezogen und mit diesem verbunden werden muss. Dieses Dispositivmodell besteht aus zwei Teilen, wobei das diachrone Entwicklungsmodell die Bildung und Veränderung von Dispositiven beschreibt und das synchrone Strukturmodell die Dispositive in seinen Bestandteilen analysierbar macht. Aufgrund des relativ jungen Phänomens Netzliteratur wird das diachrone Entwicklungsmodell nur beispielhaft für das Dispositiv Internet entwickelt, nicht aber auf das Phänomen der Autorschaft angewandt. Die ›digitale Autorschaft‹ besitzt als Phänomen zwar Vorläufer in den traditionellen Medien, die es an dieser Stelle aber nicht auszuarbeiten gilt; sie selbst besitzt noch keine ›Geschichte‹. Stattdessen wird das synchrone Strukturmodell des Dispositiv Internet nach einer knappen theoretischen Entwicklung ausführlich mit Bezug auf die digitale Autorschaft diskutiert, wobei die Darstellung aus Platzgründen auf zentrale Charakteristika des Dispositivs fokussieren muss. Dadurch kann dargestellt werden, wie das Dispositiv Internet auf Autoren und deren netzliterarische Produktion einwirkt, was schlussendlich in eine umfangreiche Diskussion von Autorschaftskonzepten in der jüngeren Netzliteratur mündet. Diese Diskussion beruht viertens auf einer Analyse von jüngeren, einschlägigen netzliterarischen Projekten, die zumeist als bereits kanonisiert angesehen werden können, weil sie prämiert oder in der Fachliteratur intensiver besprochen wurden. Damit aber ist gewährleistet, dass aus diesen exemplarischen Analysen zulässig auf die größeren und im Diskurs gängigen Trends und Poetiken in der Netzliteratur geschlossen werden kann. Diese Analyse geschieht unter dem Fokus des jeweils in den Projekten vertretenen Autorschaftskonzeptes und der Wirkung des Dispositivs auf Autorphänomene. Sie ist damit allgemein beschreibend und eher interpretativ angelegt.
1.5 Vorgehensweise Eine Studie wie die vorliegende, die unterschiedliche Diskurse mit differenten Fachbegriffen und ungleichen Verwendungsweisen derselben Terminologien verbindet, muss zunächst notwendigerweise seine Begriffsverwendungen klären. Deshalb sind der eigentlichen Untersuchung zunächst umfangreichere Erörterungen der zentralen Definitionen und Arbeitsbegriffe vorangewurden die Aussagen durch entsprechende Kürzungen behutsam bearbeitet. Die Kürzungen sind als solche markiert, auf weitergehende sprachliche Eingriffe wurde verzichtet.
30 | DER DIGITALE AUTOR
stellt. Diese werden sortiert nach den Begriffsfeldern »Literatur und Autorschaft«, »Dispositiv, Diskurs, Macht« und »Medium Internet und Netzliteratur« (Kapitel 2). Jene Begriffsfelder stimmen mit den drei zentralen Diskursen überein, die sich auch in der grundsätzlichen Struktur der Untersuchung niederschlagen. Die vorliegende Arbeit ist daraus resultierend in drei Abschnitte geteilt, wobei sie den Dreischritt »Autorschaft« – »Dispositiv« – »Internet« vollzieht. Ihre Synthese erfahren diese Teile im abschließenden vierten Abschnitt »Singuläre und kollektive Autorschaft im Dispositiv Internet«. Dieser inhaltliche Aufbau bildet strukturell die formale Anordnung »Theorie« – »Analysemodell« – »Anwendung« und »Resümee« nach. Im Teil A wird zunächst die theoretische Grundlage von literarischer Autorschaft erarbeitet, was als Rückbezug auf den bereits vorhandenen Diskurs in den Literaturwissenschaften und angrenzenden Feldern angelegt ist. Der interdisziplinäre Diskurs um den Autor sowie die Frage der Autorschaft ist in besonderem Maße komplex, teilweise aber auch undurchsichtig, da eine ganze Reihe von methodischen und methodologischen Zugängen existiert. Deshalb wird vor allem auf die jüngere Debatte in der engeren Literaturtheorie Bezug genommen (Kapitel 3.1). In dieser Debatte werden, wie Heinrich Detering herausgestellt hat, insbesondere vier Unterscheidungen von unterschiedlichen Autorkonzepten vertreten, an die in der Studie teilweise angeknüpft wird. Eher von untergeordneter Relevanz sind dabei analytische Modelle, die Autorschaft als »Ausdruck von Genie« oder entgegengesetzt als »Ausdruck von Handwerk« erfassen. Vernachlässigt werden hier zudem Konzeptionen von »abwesender« bzw. dem gegenübergestellt »öffentlicher Autorschaft«. Sehr viel relevanter für das Phänomen der Online-Autorschaft ist aber die dritte Unterscheidung nach dem »nützlichen« oder dem »marginalisierten« Autor. Damit angesprochen ist die literaturtheoretische Auseinandersetzung um die Frage, ob die Bedeutung eines literarischen Werkes notwendigerweise nur von der Autorintention her abzuleiten ist oder ob der Autor für die Interpretation sogar vollständig überflüssig ist und unbedingt vernachlässigt werden muss (Kapitel 3.2-3.5). Von zentraler Bedeutung ist zudem die Differenz »singuläre vs. kollektive Autorschaft«, die ausführlich diskutiert wird. Singuläre, genialistische Autorschaft ist durch die umfassende Kontrolle von Inhalt und Gestaltung eines Werkes gekennzeichnet. Dagegen kann bei kollektiven und anonymen Autorschaftsmodellen kein einzelnes Individuum das Endprodukt vollständig steuern. Die analytischen Unterscheidungen zwischen »nützlich«/»marginalisiert« sowie »singulär«/»kollektiv« münden in eine Autorschafts-Typologie, die an den Vorschlag von Detering anknüpft und für die Seite der literarischen Produktion sehr umfangreich diskutiert wird (Kapitel 4). Danach werden in der Literatur vor allem die drei zentralen Autormodelle ›Autor‹, ›Schreiber‹ und ›Autorfunktion‹ realisiert. An diese Modelle aber knüpfen die netzliterarischen Arbeiten an. ›Klassische‹ Netzliteraturprojekte realisieren vor allem das Paradigma Autor im Sinne des Autor›genies‹, wobei das Schreibermodell sich in den theoretischen Konzeptionen von kollaborativen Mitschreibprojekten niederschlägt. Das Modell der Autorfunktionen schließlich wird vor allem von den Codeworks ausgefüllt. Hinzu tritt die Unterscheidung zwischen starker und schwacher Autorschaft in der Netzliteratur, dies bildet die Differenz »nützlich«/»marginalisiert« ab. Im Teil B wird an diese theoretische Fundierung anschließend das analytische Modell des Dispositivs Internet erarbeitet. Das Modell knüpft an einen
EINLEITUNG | 31
empirischen Literaturbegriff und die Konzeption eines Handlungssystems Literatur an. Beides wurde mit der »Empirischen Theorie der Literatur« (ETL) für die traditionelle (Print-)Literatur erarbeitet und wird im Rahmen dieser Untersuchung auf den Gegenstand Netzliteratur übertragen. Mit der Konzentration auf Autorschaftsphänomene fokussiert die Untersuchung vor allem auf den Handlungsbereich »Produktion« (Kapitel 5). Da das Dispositiv-Konzept als Modell der medienwissenschaftlichen Analyse noch vergleichsweise jung ist, müssen seine zentralen Charakteristika und Aussagen zunächst vergleichsweise umfangreich entwickelt werden. Dies ist notwendig, weil die vorliegende Untersuchung ein Modell für die Analyse eines Internetphänomens verwendet, das vor allem für audiovisuelle Medien entwickelt worden ist. In dieser Elaboration wird vorgeschlagen, wieder auf die ursprünglichen Merkmale des Dispositivs bei Michel Foucault zurückzugreifen und sie in das Analysemodell zu re-integrieren. Mit Bezug auf Foucault werden zwei Teilmodelle des Dispositivs Internet erarbeitet, wobei das synchrone Strukturmodell zur Analyse des Phänomens Autorschaft in der Netzliteratur verwendet wird (Kapitel 6). Im Teil C wird das so entwickelte Modell eines Dispositivs Internet auf die konkrete Analyse der Beziehung zwischen Autor und Dispositiv Internet angewendet. Es wird umfangreich rekonstruiert, welchen Bedingungen der Schaffensprozess von literarischen Autoren im Netz unterliegt. Welche Faktoren des Dispositivs Internet ›fesseln‹ den Online-Autor, welche Bedingungen formen so seine literarische Produktion schon vor? Diese Einflüsse des Dispositivs werden festgemacht an der tatsächlichen literarischen Produktion, also den typischen Produkten, die aufgrund dieser Randbedingungen entstehen können. Im Teil A wurden bereits die Bedingungen literarischer Autorschaft anhand des traditionellen Autors diskutiert, die selbstverständlich auch für die Struktur des Online-Autors gelten. Der Teil C liefert darauf aufbauend die aktuellen Tendenzen literarischer Autorschaft insbesondere für das Netzdispositiv. Dazu wird ein vierteiliges Kategoriensystem vorgeschlagen, das zum einen das Dispositiv möglichst umfassend beschreibt, zum anderen aber auf die für den Autor maßgeblichen Phänomene fokussiert. Diese Strategie folgt der Intention, keine enzyklopädische Diskussion des Dispositivs in allen seinen heterogenen Faktoren zu liefern, sondern die Anwendung auf den hier konkret spezifizierten Fall zu diskutieren. Damit aber liefert die vorliegende Untersuchung einen Diskussionsvorschlag, wie eine weiter gefasste Dispositiv-Analyse auch anderer kultureller Internetphänomene aussehen könnte (Kapitel 7). Im Kapitel 8 schließlich wird die Autorschaft im Internet als Changieren zwischen ›Personenkult‹ und ›Marginalisierung‹ an ausgewählten Beispielen aus dem Gegenwarts-Kanon der deutschsprachigen Netzliteratur diskutiert. Diese Diskussion wird an vier verschiedenen Genres von Netzliteratur entlang geführt, die strukturell der Autorschafts-Typologie von »Autor« – »Schreiber« – »Autorfunktion« entsprechen und durch einen vierten Typ der »dissoziierten« Autorschaft ergänzt werden: (1) ›Klassische‹ Netzliteraturprojekte mit einem starken Autorbegriff, der an die Konzeption des ›Autors als Genie‹ anknüpft. (2) Kollaborative Projekte, in denen ein kollektives Autorschaftsmodell verwirklich wird und deren Texte durch die Zusammenarbeit mehrerer bis vieler Schreiber entstehen. (3) Codeworks, bei denen der traditionelle Autorschaftsbegriff völlig marginalisiert zu sein scheint, weil sich nur Autorfunktionen im Werk nachvollziehen lassen, die von verschie-
32 | DER DIGITALE AUTOR
denen Aktanten ausgefüllt werden. (4) Netzliterarische Konzeptkunst, bei der zum Text zusätzlich noch performative Elemente treten und bei der die Autorschaft förmlich ›dissoziiert‹. Damit aber wird versucht, aus den Rahmenbedingungen des Netzdispositivs regelrecht auszubrechen und eine tatsächliche Befreiung des Autors zu realisieren. Im abschließen Teil D werden die Ergebnisse sowohl der Auswertung des aktuellen Forschungsstandes als auch der Autorschafts-Analyse zusammengefasst. Dabei werden die gewonnenen Erkenntnisse auf die Zukunft von Netzliteratur und von Autorschaft in der Netzliteratur perspektiviert (Kapitel 9). Schließlich gilt es dort auch, Anstöße für weitere Forschungen in der Medienwissenschaft zu geben, die dieses weitgehend unbestellte Feld noch zu bearbeiten hat.
1.6 Hinweise zur formalen Gestaltung Der Gegenstand der vorliegenden Arbeit bringt es mit sich, dass ein ganz heterogener ›Pool‹ von Quellen, print- und onlinebasierter Literatur berücksichtigt werden musste und damit ganz unterschiedlichen textlichen Charakteristiken Rechnung zu tragen war. Der Forschungsstand zum Thema »Autorschaft im Dispositiv Internet« ist nicht so umfangreich, dass auf online publizierte, eher essayistische oder populärwissenschaftliche Texte verzichtet werden könnte. Dies hängt auch damit zusammen, dass die jüngsten Entwicklungen stets zuerst im Netzdiskurs verhandelt werden, bevor die Diskussionen in den traditionellen Diskurs übernommen werden. Resultierend werden im ersten Teil des Literaturverzeichnisses die elektronischen Primär›texte‹ aufgelistet, sortiert nach den Titeln der Projekte. Die wissenschaftliche Literatur, auf die sich die Untersuchung stützt, wird im zweiten Teil nachgewiesen, hier jedoch geordnet nach den Autornamen. Dies umfasst vor allem Monographien, Sammelbände und Aufsätze, aber auch online publizierte, akademische Aufsätze. Schließlich wird im dritten Teil alle sonstige Online-Sekundärliteratur versammelt, wie z. B. persönliche Webseiten, Literaturwettbewerbe oder Pressemitteilungen. Letztere werden wiederum nach den Autoren sortiert aufgeführt. Eine Einschränkung bilden Webseiten von Wettbewerben, Institutionen u. ä., die per Definition keinen singulären Autor aufweisen und anhand ihres Titels nachgewiesen werden. Alle angegebenen Adressen wurden Ende November 2008 letztmalig überprüft. Belegt wird die benutzte Literatur in Form von Kurznachweisen im laufenden Text; im Fußnotenapparat wird daher nur weiterführende Literatur angegeben und werden Anmerkungen aufgeführt, die nicht unmittelbar relevant für die Argumentation im Haupttext sind. Sammelzitate folgen jeweils auf das letzte zu belegende Zitat. Veränderungen in direkten Zitaten wie Flexionsänderungen, Auslassungen oder Ergänzungen werden durch eckige Klammern im Zitat markiert. Größere Ergänzungen und Veränderungen werden darüber hinaus durch die Initialen »F. H.« hervorgehoben.45 Doppelte Anund Abführungen kennzeichnen alle direkten Zitate, die mit Quelle nachge45 Kleinere Veränderungen wie etwa Auslassungen (markiert durch […]) oder behutsame sprachliche Anpassungen von Zitaten (Flexionsänderungen) werden der besseren Lesbarkeit halber nicht mit den Initialen des Autors markiert. Mit »[sic!]« werden Fehler bezeichnet, die in der Form in den Zitaten vorkommen.
EINLEITUNG | 33
wiesen werden. Einfache An- und Abführungen markieren eine uneigentliche Sprachverwendung, die der präziseren Benennung von Zusammenhängen dient, ohne der gehobenen Sprachebene einer wissenschaftlichen Arbeit angemessen zu sein. Sie verdeutlichen zudem zu definierende Fachbegriffe. In dieser Arbeit werden ausschließlich männliche Formen verwendet, wenn es um allgemeine Bezeichnungen geht, die auf beide Geschlechter zutreffen und auch solchermaßen geschlechterübergreifend verwendet werden. Dies soll keinesfalls als ein Statement zur Geschlechterfrage verstanden werden, sondern geschieht allein aus Gründen der besseren Lesbarkeit. Dass AutorINNEN immer mitgedacht werden, wenn von AutorEN die Rede ist, erscheint ebenso evident wie die Tatsache, dass es nicht um ›Labels‹ geht, sondern um wissenschaftliche Inhalte. Selbstverständlich werden geschlechterspezifische Bezeichnungen verwendet, wenn von einzelnen Individuen die Rede ist. Im Text verwendete Abkürzungen und Fachtermini aus dem Feld von Computer- bzw. Internettechnologien sowie der Netzkunst werden im Glossar näher erläutert.
1.7 Danksagung Auch wenn die vorliegende Dissertation vollständig das Produkt einer singulären Autorschaft darstellt, ist deren Inhalt – um im Bild zu bleiben – nicht allein auf das ›Genie‹ des Autors zurückzuführen. Sie bildet den Ertrag einer mehr als achtjährigen Beschäftigung mit dem Thema »Netzliteratur« und einer intensiven Teilhabe am Geschehen in der deutschen Netzliteraturszene. In der Vorbereitung und in der Durchführung habe ich die tatkräftige Unterstützung und die geistige Bereicherung durch eine ganze Reihe von Personen erfahren dürfen, denen ich an dieser Stelle Dank sagen möchte. An erster Stelle danke ich Prof. Dr. Reinhold Viehoff für die langjährige wissenschaftliche Betreuung dieses und vorheriger akademischer Projekte, für die Sicherung des wirtschaftlichen Rahmens dieses Unternehmens und für die reiche persönliche Unterstützung. Mein zuvorderster Dank gilt zudem Prof. Dr. Manfred Kammer, der im letzten Jahr der Niederschrift mit Aufmunterung, Kritik und Hinweisen das Gelingen dieser Arbeit maßgeblich befördert hat. Besonders dankbar bin ich Claudia Dittmar und Petra Blättermann für ihre geduldigen und detaillierten Hinweise zum Manuskript sowie Johannes Auer für dessen stets bereitwilligen Auskünfte zur deutschsprachigen Netzliteraturszene. Alle drei haben mit klugen Gedanken und moralischer Unterstützung gerade im letzten Jahr nachdrücklich dafür gesorgt, dass die Arbeit auch tatsächlich abgeschlossen wurde. Ich danke sehr herzlich den Künstlern Susanne Berkenheger, Michael Iber und Peter Auge Lorenz, die für Interviews bereitstanden und dafür so manche Unannehmlichkeit in Kauf nahmen. Insbesondere danke ich Golo Föllmer und Karin Wehn, die sich nicht nur im Interview bereitwillig der forschenden Neugier öffneten, sondern auch darüber hinaus im persönlichen Austausch stets wertvolle Anregungen boten. Meinen Eltern und Schwiegereltern danke ich von Herzen für die reich gewährte Unterstützung in allen Aspekten dieses Unternehmens. Mein herzlichster Dank aber gilt meiner Frau und meinen beiden Kindern für die große Rücksicht und die warme Unterstützung sowie für die wertvollen Erkenntnisse, die in ihrem Kreis gereift sind.
2 DEFINITIONEN
UND
BEGRIFFE
Zunächst gilt es, die zentralen Begrifflichkeiten zu definieren, auf die sich die weiteren Argumentationen beziehen. Es ist explizit nicht die Absicht dieser Arbeit, die gegenwärtigen Forschungsdiskurse zu teilweise recht umstrittenen Begriffen zu rekonstruieren und zu bewerten. Stattdessen werden pragmatische Definitionen vorgestellt, die geeignet sind, die theoretischen Diskussionen und praktischen Analysen der vorliegenden Untersuchung abzugrenzen und einzuordnen. Hinweise auf den aktuellen Forschungszusammenhang werden in den Anmerkungen gegeben. Begriffe, die an anderer Stelle der Dissertation noch näher erläutert werden, aber bereits vorher geklärt werden müssen, werden hier knapp erläutert mit einem Verweis auf die ausführlichere Diskussion. Abkürzungen und technische Fachbegriffe (Computer- oder Internettechnologien) sind im Glossar im Anhang nachgewiesen. Der Übersichtlichkeit halber sind die Begriffe jeweils geordnet nach dem Forschungszusammenhang, dem sie entstammen. Literaturwissenschaftliche Begrifflichkeiten finden sich unter »Literatur und Autorschaft« (Kapitel 2.1), während Begriffe aus der Dispositiv- und Diskursanalyse im Abschnitt »Dispositiv, Diskurs, Macht« (Kapitel 2.2) erläutert werden. Die zentralen medienwissenschaftlichen Definitionen sind unter »Medium Internet und Netzliteratur« (Kapitel 2.3) zusammengestellt.
2.1 Literatur und Autorschaft 2.1.1 Literaturbegriff Als ›Literatur‹, als ›literarischer Text‹ soll gelten, was von den Aktanten (Handelnde im literarischen System) des Literatursystems als solche(r) eingeschätzt wird.1 Damit wird Bezug genommen auf einen empirischen, handlungstheoretischen Literaturbegriff, der auf den Überlegungen S. J. Schmidts basiert (vgl. dazu näher Schmidt 1991 [1980], v. a. 103-145, Hauptmeier/ Schmidt 1985, v. a. 16-19 sowie Kapitel 5). Mit der ›Ästhetik-Konvention‹ und der ›Polyvalenz-Konvention‹ sind zwei Bedingungen zu erfüllen, damit 1
Diese empirisch-literarische Begriffsbestimmung und Theoriebezugnahme geschieht unter der Kenntnis zahlreicher anderer Paradigmen etwa in der Germanistik. Es soll hier nicht näher in die komplizierte und vielstimmige Debatte eingestiegen werden, die dort zu einer weiten Aufsplitterung der Positionen geführt hat. Heydebrand/Winko 1996 bieten überzeugende, präzise Diskussionen und Definitionen der Begriffe »Literatur«, »Sozialsystem Literatur« und »literarisch«, wie sie m. E. als mustergültig für die traditionelle Literaturwissenschaft, aber auch nur dafür, anzusehen sind. In der jüngeren Debatte führt Worthmann 2004 diese Überlegungen von Heydebrand/Winko fort und setzt die Konzepte Handeln und Handlungsrollen dabei produktiv ein.
36 | DER DIGITALE AUTOR
Texte als literarisch gelten. Die erste besagt, dass die Handelnden einen Text nicht danach beurteilen, ob er auf die Wirklichkeit zu beziehen ist, sondern ob er als poetisch wichtig eingeschätzt wird. Schmidt konstatiert: »Nicht die auf das gesellschaftlich gültige Wirklichkeitsmodell bezogene ›Wahrheit‹ macht einen Text für einen Aktanten zu einem literarischen Text, sondern seine als poetisch wichtig festgestellten und bewerteten Qualitäten.« (Hauptmeier/Schmidt 1985: 17, Hervorhebung im Original; vgl. genauer auch Schmidt 1991 [1980]: 381)
Die zweite macht deutlich, dass Aktanten einem bestimmten Text ganz unterschiedliche Bedeutungen und Bewertungen zuordnen können und diese Freiheit auch anderen Aktanten einräumen. Sie haben mit Schmidt »im Literatursystem [...] die Freiheit, als literarisch eingeschätzte Texte so zu behandeln, wie es für ihre Bedürfnisse, Fähigkeiten, Intentionen und Motivationen optimal ist.« (Hauptmeier/Schmidt 1985: 18; vgl. genauer auch Schmidt 1991 [1980]: 382) Der Begriff ›Text‹ trifft im Rahmen der vorliegenden Arbeit und der hier untersuchten Literatur wörtlich nur eingeschränkt auf den Gegenstand zu, zeichnet sich digitale Literatur doch gerade durch die über den Text hinausgehenden multimedialen und hypertextuellen Elemente aus. Trotzdem gilt die Begriffsbestimmung in übertragener Weise auch für die hier verhandelte Literatur, wird der Textbegriff im einschlägigen Forschungsdiskurs doch auch als »digitaler Text« oder »digitale Textlichkeit« (vgl. etwa Ryan 2007) verwendet. Das Untersuchungsfeld bildet damit eine solchermaßen definierte künstlerische Literatur im Internet, die weiter unten als »Netzliteratur« näher spezifiziert wird. Diese ist abgegrenzt von nicht-künstlerischen Texten, Webseiten oder Plattformen, die im Folgenden als ›pragmatische Texte‹ oder ›pragmatische Projekte‹ bezeichnet werden.
2.1.2 Autor Der Begriff ›Autor‹ bezeichnet grundsätzlich den »[g]eistige[n] Urheber von (vorzugsweise literarischen) Texten, dann aber auch von Werken der bildenden Kunst und der Musik« (Kleinschmidt 1997: 176).2 Bezogen auf das Internet wird der Terminus stärker die Künste übergreifend verwendet. Literarische Autoren im Internet ›schreiben‹ keine reinen Texte, sondern kombinieren für ihre künstlerische Tätigkeit auch andere digitale und digitalisierte Medieninhalte, wie Audio, Video und Animationen. Dazu treten programmierte Bestandteile der Projekte sowie die notwendigen Codierungen der Dokumentauszeichnungssprachen. Eine weiterführende, präzisere Definition hat Paisley Livingston in jüngerer Vergangenheit vorgeschlagen (vgl. dazu Livingston 2005: 63-75). Danach werden, kurz gesagt, vom Autor als Handelndem intentionale Äußerungen erzeugt, die auf künstlerischen Selbstausdruck oder (Anschluss-)Kommunikation abzielen: »author = (def.) an agent who intentionally makes an utterance, where the making of an utterance is an 2
Zur aktuellen literaturwissenschaftlichen Debatte um den Begriff »Autor« und dem damit verbundenen Begriff »Autorschaft« vgl. insbesondere Jannidis et al. 1999a; Jannidis et al. 2000a; Wetzel 2000; Nünning 2004a. Zum etwas abweichenden Diskurs in der Editionsphilologien vgl. Bein 2004; Martens 2004; Scheibe 2004.
DEFINITIONEN UND BEGRIFFE | 37
action, an intended function of which is expression or communication.« (Ebd.: 69) Diese Definition scheint dem komplexen Kulturphänomen Autor gerechter zu werden als es andere Definitionen bislang vermochten. Bezogen auf das Netz ergibt sich eine der Netzliteratur strukturell ähnliche Präzisierung, denn Autoren im Internet reflektieren in ihrer Arbeit vor allem auch die spezifischen Eigenschaften des Mediums. Der Fokus auf Netzliteratur bringt es mit sich, dass die Diskussion des Autors im Rahmen dieser Arbeit auf künstlerische, literarische Produktion referiert. Dabei wird zwar auch die pragmatische Produktion von textbasierten Inhalten stets im Blickfeld gehalten, wie beispielsweise im Onlinejournalismus. Allerdings werden hier nur Phänomene aufgenommen, die potentiell auch für eine künstlerische Produktion maßgeblich sein könnten. Auch Autoren von Netzmusik, Netzkunst, Netzvideos, Animationen oder Computerspielen werden strukturell ausgeblendet, da hier zum Teil ganz andere Einschätzungen gelten. Das Phänomen Autor wird mit Michel Foucault (»Was ist ein Autor«, vgl. Foucault 2001 [1969]) strukturell als Funktion Autor erfasst. Wie Heinrich Detering bemerkt hat, modelliert Foucault die Funktion Autor ebenfalls als Dispositiv, auch wenn Foucault selbst den Begriff in Zusammenhang mit dem Autor nicht verwendet hat (vgl. Polaschegg 2002).
2.1.3 Kollaborative Autorschaft Als ›kollaborative Autorschaft‹ wird das gemeinschaftliche Schreiben bzw. Produzieren verschiedener Autoren an einem gemeinsamen Text oder Projekt bezeichnet, wobei zumeist netzbasierte Arbeiten gemeint sind. Der Begriff stellt eine Übernahme des englischen »collaborative authorship« in den deutschen Diskurs dar, wobei keinesfalls die negative Konnotation aus dem militärischen Sprachgebrauch3 gemeint ist. Synonym wird auch der Begriff ›kollektive Autorschaft‹ benutzt, ohne auf die feinen semantischen Unterschiede Rücksicht zu nehmen, die im Forschungsdiskurs teilweise auch diskutiert werden.4 Diese Verwendung entspricht der gängigen Praxis in der jüngeren Forschungsliteratur, in der sich ›kollaborative‹ oder ›kollektive‹ Autorschaft als Fachbegriffe durchgesetzt haben.5 Andere Begriffsbestimmungen wie beispielsweise »Konkreativität« (Mathez 2002b) oder »Partizipation« (Heibach 2003: 161-172) werden hier vernachlässigt, weil sie sich nicht durchgesetzt haben oder nur Subgenres kollektiven Schreibens bezeichnen. Zur Begriffsbestimmung der »kollaborativen Autorschaft« wird Bezug genommen auf Paisley Livingstons Definition des gemeinschaftlichen Schreibens, die er als »joint authorship« bezeichnet. Danach müssen folgende Bedingungen erfüllt sein:
3
4 5
Im Gegensatz zur englischen Sprache, in der »collaboration« vor allem die Zusammenarbeit betont, führt der deutsche Begriff »Kollaboration« die stigmatisierte Bedeutung der negativ konnotierten Zusammenarbeit mit dem Feind recht stark mit sich. Diese Bedeutung klingt in der englischen Sprache zwar auch an, nur eben deutlich untergeordneter. Vgl. etwa die Diskussion entsprechender Begriffe in Mathez 2002b. Vgl. dazu Ortmann 2001: 57-58; Simanowski 2001; Simanowski 2002b: 27-62; Heibach 2003; Landow 2006: 125-143.
38 | DER DIGITALE AUTOR »First of all, if two or more persons jointly author an utterance or work, they must intentionally generate or select the text, artefact, performance, or structure that is its publicly observable component; in so doing, they act on meshing sub-plans and exercise shared control and decision-making authority over the results; furthermore, in making the work or utterance, they together take credit for it as a whole, a condition that can be satisfied even in cases where parts of the work can be attributed to one of the individual contributors.« (Livingston 2005: 83)
Livingston hat diese Definition vor allem für die Analyse von traditioneller Kunst entwickelt, diese formal umfangreich ausgearbeitet und an zahlreichen Beispielen aus Literatur, Film und bildender Kunst diskutiert (vgl. ebd.: 8389).6 Seine Abgrenzung kann aber zulässig auf das Konzept der »kollaborativen Autorschaft« in der Netzkunst übertragen werden, auch weil eine solche formale Definition im Diskurs bisher fehlt. Mit Livingston ist »kollaborative Autorschaft« also definiert als eine Zusammenarbeit von mehr als einer Person, bei der das Ziel die gemeinsame Herstellung einer Äußerung oder eines Werkes bildet. Von gemeinsamer Produktion kann aber nur gesprochen werden, wenn die Beteiligten absichtlich Materialien erzeugen oder auswählen, die später die öffentlich wahrnehmbaren Teile des Werkes bilden. Die Beteiligten handeln aufgrund eigener Pläne, die mit denen der anderen Mitarbeiter abgestimmt sind, womit die Teilpläne ineinander greifen. Zudem wird die Autorisierungskompetenz geteilt, womit alle Mitarbeiter gleichermaßen Kontrolle über und Entscheidung auf das Resultat ausüben. Schließlich führt der Prozess der gemeinschaftlichen Produktion dazu, dass die kollaborativen Schreiber auch zusammen als Autoren des Gesamtwerkes anerkannt werden. Diese Bedingung kann nach Livingston sogar in Fällen erfüllt werden, in denen Teile des Werkes deutlich einzelnen Mitwirkenden zugeschrieben werden können.
2.1.4 Kanon und Kanonisierung Die Bildung von Kanones zählt »zu den stärksten kulturellen Stabilisierungsund Selektionsmechanismen« (Günther 1987: 138), die in jeder Gesellschaft wirksam werden.7 Kanones selbst stellen Regulierungssysteme dar, die sowohl »Dämme gegen den alles verändernden Strom der Zeit bilden« (ebd.) (stabilisierende Funktion) als auch »Traditionsströme auswählen, lenken und kanalisieren« (ebd.) (selektierende Funktion). Sie gelten als Korpora von mündlichen und schriftlichen Überlieferungen, die »eine Gemeinschaft als besonders wertvoll und deshalb tradierenswert anerkennt und um [deren] Tradierung sie sich kümmert« (Heydebrand/Winko 1994: 131). Siegfried J. Schmidt und Peter Vorderer haben Mitte der 1990er Jahre einen anschlussfähigen Versuch unternommen, den vielstimmigen Diskurs um 6
7
Livingston diskutiert an dieser Stelle auch intensiv ethische Probleme von nicht offen gelegter oder erzwungener gemeinschaftlicher Autorschaft, die für die hier erörterten Themen nicht relevant sind. Zu ethischen Probleme bei akademischer, kollaborativer Autorschaft vgl. auch Fröhlich 2006. Die Beziehung zwischen Autorschaft und Kanon kann in der vorliegenden Studie nicht in aller Ausführlichkeit elaboriert werden. Hier werden einige Grundgedanken zum Problem von Kanon und Kanonisierung zusammengefasst, die an anderer Stelle ausführlicher entwickelt worden sind, vgl. Hartling 2004; Hartling 2005a.
DEFINITIONEN UND BEGRIFFE | 39
das Phänomen Kanonisierung zu strukturieren (vgl. Schmidt/Vorderer 1995). Dabei gehen sie von drei zentralen Hypothesen aus. Kanonisierung sei zum Ersten als literarische Operation im Bereich der »Verarbeitung« oder »Literaturkritik« einzuordnen, die auf bestimmte Vorstellungen über »Kultur«, »Gesellschaft« und »Literatur« aufsetzt. Kanonisierung führe zweitens dazu, dass ein literarischer Text einen zeitlich begrenzten Platz in einem Wertsystem einnimmt, das neben ästhetischen auch andere, z. B. soziale, politische und religiöse Werte enthält. Damit verbinde Kanonisierung das Literatursystem mit anderen Sozialsystemen und sei nicht mehr nur als innerliterarisches Phänomen anzusehen. Kanonisierung erzeuge, verändere und bewerte drittens die Differenzen zwischen literarischen Texten, Autoren und Gattungen. In diesem Unterscheidungsprozess bedeute die Hervorhebung der einen Seite notwendigerweise auch die Unterdrückung der anderen Seite. Zensur und Vergessen sei in der Struktur der Kanonisierung also stets mit angelegt (vgl. ebd.: 144). Gegenüber den Handelnden im Literatursystem übernähmen Kanones ein komplexes Set von Funktionen. Für Literatur-Produzenten böten Kanones Orientierung sowohl während der Ausbildung als auch in der literarischen Produktion. Kanongegenstände dienten dabei zum einen als Vorbilder für Problemlösungen, zum anderen als Position, von der sie sich absetzen könnten. Im Rahmen von wirtschaftlichen Überlegungen würden Kanones dagegen (in sehr mannigfaltiger Hinsicht) für Literatur-Vermittler bedeutsam. Der Kanonwert eines Autors habe dabei direkte Auswirkungen auf die materiellen, personellen und zeitlichen Ressourcen, mit denen seine neuen Arbeiten vom Verlag ausgestattet, platziert und beworben werden. Den Literatur-Rezipienten böten Kanones Orientierung über den unüberschaubaren nationalen und internationalen Büchermarkt. In diesen Funktionen lieferten Kanones Informationen über die Ergebnisse von selektierenden Prozessen. Im Bereich der Literatur-Verarbeitung schließlich würden Kanones in Form von kollektiv geteilten Erwartungserwartungen wirksam. Die literarische Kommunikation von Kritikern und Literaturwissenschaftlern würde durch dieses gemeinsame Wissen enorm vereinfacht (vgl. ebd., S. 152-155). Diese Funktionen von Kanones aber könnten selbstreferentielle Elemente aufweisen, wenn Aktanten im die ihnen zur Verfügung stehenden Mittel sehr bewusst einsetzten. Auf der einen Seite würden literarische Produzenten bestimmte Referenzen auf kanonisierte Autoren benutzen, um sich und ihre Texte zu verkaufen. Auf der anderen Seite reichten Rezipienten bereits der (kommunizierte) Besitz von kanonisierter (»wertvoller«) Literatur aus, um kognitive Dissonanzen abzubauen (vgl. ebd.).
2.2 Diskurs, Dispositiv, Macht 2.2.1 Diskurs Der Begriff Diskurs wird im allgemeinen Sprachgebrauch etwas inflationär verwendet8, bildet aber auch einen Fachterminus in verschiedenen Diszipli8
Auch in der vorliegenden Studie wird der Begriff häufig ohne den Bezug auf Foucault benutzt, hier im Sinne eines fest umrissenen Diskussionszusammenhangs.
40 | DER DIGITALE AUTOR
nen. Daher kann es nicht verwundern, wenn seine Definition relativ unscharf ist. Im allgemeinen Sprachgebrauch erfasst er so nur die ›Rede über etwas‹. Auch Foucault hat den Begriff mit sich verändernden Konzepten gefüllt, sodass die Schwierigkeiten einer Definition bereits von vornherein untrennbar mit ihm verbunden waren. Eine gute allgemeine Fassung des Konzeptes nach Foucault bietet Burtscher-Bechter, auf die im Folgenden hauptsächlich Bezug genommen wird (vgl. Burtscher-Bechter 2004: 260-264). Danach steht der Diskurs in der Verwendung Foucaults9 zum einen für eine Menge von Aussagen, also für das, was zu einem definierten Zeitpunkt und Ort gesagt wurde sowie gesagt werden konnte. Der Diskurs umfasst aber auch die Regeln und Bedingungen, unter denen Aussagen getroffen werden können und konnten. Diese Ordnungsprinzipien verändern sich mit der Zeit und sind dem Diskurs inhärent, die Aussagen und die Regeln ihrer Aussagbarkeit sind also untrennbar miteinander verknüpft. Damit müssen notwendigerweise die Bedingungen des Diskurses akzeptiert werden, wenn man sich im Diskurs äußern will, ein Aufbrechen der Ordnungsprinzipien ist innerhalb des Diskurses unmöglich. Die Einhaltung der Diskursregeln wird durch negative Sanktionierungen sichergestellt, durch »Prozeduren der Ausschließung« (Foucault 2001 [1972]: 11). Darüber hinaus bilden Diskurse auch diskursive Praktiken und bringen »systematisch« die Gegenstände hervor, »von denen sie sprechen« (Foucault 1981 [1969]: 74). Damit sind Diskurse produktive Phänomene, die Wirkungen zeigen. Siegfried Jäger hat herausgestellt: »Diskurse enthalten Wissen, Wissen aber bildet auch Grundlage für Handeln und damit auch für die Gestaltung von Wirklichkeit« (Jäger 2001b: 72, Hervorhebung im Original). Damit ist angesprochen, dass Diskurse neben diskursiven auch nichtdiskursive Praktiken (z. B. Arbeit) hervorbringen. Mit der fortwährenden Überformung des Diskurses durch die Ordnungsprinzipien und die ständige Regulierung des Sagbaren und Nicht-Sagbaren begründet sich eine große Macht der Diskurse. Damit aber wird Wirklichkeit diskursiv und selektiv in Diskursen konstruiert, wobei stets Machtmechanismen einwirken (vgl. Jäger 2001b: 73-74). Die enorme Bedeutung der Machtmechanismen für die Diskurse hat schließlich dazu geführt, dass Foucault seine Diskursanalyse vor allem als Analyse der Machtverhältnisse konzipierte. »[E]inzelne Ereignisse«, so Burtscher-Bechter, waren für ihn »nicht das Ergebnis von Entscheidungen, sondern das Resultat von Machtverhältnissen« (Burtscher-Bechter 2004: 263). Damit bestand das Ziel der Diskursanalyse für Foucault auch darin, »die Regeln und die Marktmechanismen aufzudecken, die […] für das Erscheinen und Verschwinden diskursiv erschaffener Realitäten verantwortlich sind« (ebd.: 264).
2.2.2 Dispositiv Die wohl knappste Definition des Dispositivs gab Foucault selbst in einem Interview. Es sei ein Ensemble aus sehr heterogenen Elementen, wie: »Diskurse, Institutionen, architekturale Einrichtungen, reglementierende Entschei9
Zum Diskurs-Begriff bei Foucault vgl. ausführlicher Schrage 1999; Geisenhanslüke 2001; Jäger 2001b; Burtscher-Bechter 2004. Zur Diskursanalyse vgl. weiterführend Bublitz et al. 1999; Jäger 2001a; Jäger 2004.
DEFINITIONEN UND BEGRIFFE | 41
dungen, Gesetze, administrative Maßnahmen, wissenschaftliche Aussagen, philosophische, moralische oder philanthropische Lehrsätze.« (Foucault 1978: 119-120)10 Diese Elemente könnten danach sowohl diskursiver als auch nichtdiskursiver Natur sein. »Das Dispositiv selbst ist das Netz, das zwischen diesen Elementen geknüpft werden kann« (ebd.: 120). Zudem stelle, so Foucault, das Dispositiv eine Formation dar, »deren Hauptfunktion zu einem gegebenen historischen Zeitpunkt darin bestanden hat, auf einen Notstand (urgence) zu antworten« (ebd.). In seiner Dispositiv-Analyse wollte Foucault die »Natur der Verbindung deutlich machen, die zwischen diesen heterogenen Elementen sich herstellen kann« (ebd.), ohne dezidiert zu klären, wie diese Verbindungen aussehen. Foucault untersuchte damit also die machtvollen Verknüpfungen zwischen den Elementen.
2.2.3 Macht Für Foucault stellte damit jedes Dispositiv gleichzeitig ein Dispositiv der Macht dar.11 Es sei die »Manifestation von Macht überhaupt« (Hubig 2000: 38). Das Dispositiv wirke durch seine machtvollen Strukturen auf die Gesellschaft in einem Wechselverhältnis. So wie es Effekte auf gesellschaftliche Prozesse habe, wirke der ausgelöste gesellschaftliche Prozess selbst auf das Dispositiv zurück und verändere dieses. Foucault stellte aber auch heraus, dass Macht nicht nur repressiv als »neinsagende Gewalt« (Foucault 1978: 35) verstanden werden dürfe. Sie wirke im positiven Sinne produktiv. Foucault analysierte Macht im Fokus der Gesellschaft, um eben gesellschaftliche Prozesse deutlich machen zu können. Für ihn bedeutete Macht eine »Vielfältigkeit von Kräfteverhältnissen«. Macht sei gleichzeitig die Instanz, die diese Verhältnisse verwandelt. Macht bilde schließlich auch »die Stützen, die diese Kräfteverhältnisse aneinander finden« (Foucault 1999 [1976]: 113). Diesen Verhältnissen wohne ein strategisches Moment inne, denn sie seien nicht nur bestrebt sich zu erhalten, sondern sie würden auch danach suchen, sich zu akzentuieren und sich zu stabilisieren (vgl. Foucault 1978: 138).
2.3 Medium Internet und Netzliteratur 2.3.1 Medium Internet/Netzmedium Bekanntlich ist auch der Begriff »Medien« als eine der zentralen Termini in den Medien(kultur)wissenschaften sowie den Kommunikationswissenschaften immer noch einigermaßen umstritten.12 Die Debatte wird dabei in jünge10 Deutsche Übersetzung, Erstveröffentlichung in französischer Sprache als: Foucault 1977. Zu Michel Foucaults Konzeption des Dispositiv-Konzeptes vergleiche ausführlicher: Deleuze 1992a; Deleuze 1992b; Jäger 2001b. 11 Zu Foucaults Machtbegriff vgl. ausführlicher Foucault 1999 [1976]: 113-114; Seier 2001. 12 Vgl. dazu die Darstellungen in den einschlägigen Facheinführungen, vgl. Schmidt/Zurstiege 2000: 170-173; Faulstich 2002: 19-26; Hickethier 2003: 1815, und Fachlexika, vgl. etwa Schanze 2002. In der jüngeren Vergangenheit ist vor allem Hartmut Winkler mit dem Vorschlag einer kumulativen Definition hervorgetreten, vgl. Winkler 2004.
42 | DER DIGITALE AUTOR
rer Zeit nicht nur im Fach geführt13, sondern auch innerhalb des Netzdiskurses, der sich üblicherweise relativ stark vom akademischen distanziert.14 Einen Überblick und eine detaillierte Diskussion des Fachdiskurses zum Begriff bietet Mock 2006. Eine im Fachdiskurs einigermaßen anerkannte Definition stammt von S. J. Schmidt15, auf die im Folgenden Bezug genommen wird. Nach Schmidt vereinigen Medien integrativ ganz unterschiedliche konstitutive Komponenten. Danach stellen Medien zum einen »Kommunikationsinstrumente« (Schmidt 2003: 354) dar und beinhalten »materielle Zeichen, die zur Kommunikation benutzt werden« (Schmidt/Zurstiege 2000: 170). Zum zweiten können Medien als Medientechnologien verstanden werden, die Medienangebote produzieren, distribuieren oder über die Angebote rezipiert werden können (vgl. Schmidt 2003: 354-355). Drittens bilden Medien institutionelle Einrichtungen und Organisationen, die »Medientechniken […] verwalten, […] finanzieren, politisch und juristisch […] vertreten« (Schmidt/Zurstiege 2000: 170). Schließlich gehören viertens auch die Medienangebote selbst dazu, die »aus dem Zusammenwirken aller genannten Faktoren hervorgehen« (Schmidt/Zurstiege 2000: 170). Medien können als wechselwirksamer Zusammenhang dieser Bestandteile erfasst werden, wobei die Verknüpfungen über Aktanten gesteuert werden. In der medienwissenschaftlichen Debatte noch etwas umstritten ist der Mediencharakter des Computers sowie des Internets. Hierbei geht es etwa um Fragen wie, ob der unvernetzte Computer streng genommen überhaupt als ein Medium angesehen werden kann (zu dieser und weiteren Fragen vgl. Winkler 2003) oder ob das Internet nicht vielmehr eine Vielzahl von Medien transportiert (Faulstich 2002: 25), selbst aber keines ist. Diskutiert wird auch die Position, dass beide zusammen ein »Hybridmedium« bilden (vgl. Hickethier 2003: 315-318). Ohne auf diese und weitere Diskussionen an dieser Stelle näher eingehen zu können, scheint es aber so, als ob Probleme bei der Klassifizierung der beiden Phänomene direkt mit dem jeweiligen Medienbegriff zusammenhängen. Der allgemeine gegenwärtige Stand der Forschung deutet jedenfalls auf eine allgemeine Akzeptanz des Mediencharakters16 sowohl des Computers17 als auch des Internets (vgl. insbesondere Neverla 1998) hin, und 13 Vgl. etwa die interdisziplinäre Tagung »Was ist ein Medium«, Kolleg Friedrich Nietzsche, Weimar, 16.12.2005-18.12.2005, vgl. Roesler/Münker 2005, sowie die Vortragsreihe »Was waren Medien?«, die im Wintersemester 2006/2007 am Institut für Philosophie der Universität Wien veranstaltet wurde, vgl. Pias 2006. 14 Vgl. eine Diskussion um den Begriff »Medium«, die zwischen dem 1. und 15. März 2006 auf der Mailingliste »Rohrpost« geführt wurde. Ausgangspunkt war die Veröffentlichung der umfangreichen Dokumentation zur Weimarer Tagung »Was ist ein Medium«, vgl. das Onlinearchiv der Liste. 15 Dieses Modell hatte S. J. Schmidt bereits 2000 zusammen mit Guido Zurstiege publiziert, vgl. Schmidt/Zurstiege 2000: 170. Vgl. auch die Ausführungen zu Schmidts Medienbegriff in Schmidt 2002: 55-59. 16 Vgl. etwa die Darstellungen in den Einführungsbüchern von Knut Hickethier, vgl. Hickethier 2003: 309-329, und Werner Faulstich, vgl. Faulstich 2002: 25 und Faulstich 2004: 157-181, 433-453, in denen beide als Medien geführt werden, nur je unterschiedlich kategorisiert im Vergleich zu anderen Medien. 17 Bereits seit 1991 existiert die Fachgruppe »Computer als Medium« im Fachbereich »Informatik und Gesellschaft« der »Gesellschaft für Informatik e.V.«, welche mit ihrer jährlichen Tagung »Hyperkult« gleichsam den Diskurs organisiert. Ausgewählte Beiträge wurden in zwei Sammelbänden (Warnke et al.
DEFINITIONEN UND BEGRIFFE | 43
es existieren bereits erste brauchbare Definitionsvorschläge (zum »Medium Computer« vgl. etwa Winkler 2003). Mit Bezug auf Winkler 2003 und Hickethier 2003: 186-201 wird das Medium Internet oder Netzmedium als Gesamtheit von Internet-Infrastruktur und den angeschlossenen Computern begriffen. Dieses Medium kann unter Rückgriff auf S. J. Schmidts Mediensystematik als »sich selbst organisierende[s] systemische[s] Zusammenwirken« (Schmidt 2003: 355) von vier Bestandteilen erfasst werden. Es setzt erstens auf Kommunikationsinstrumente wie Zeichen, Protokolle oder (Computer-)Sprachen auf, mit denen Informationen übermittelt werden. Bei der Kommunikation zwischen Computern sorgen die dabei beteiligten Protokolle dafür, dass diese regelrecht miteinander kommunizieren. Zweitens bilden Computer Medientechnologien, mit denen Angebote produziert werden können, distribuiert werden diese Daten über komplexe Netzwerktechnologien. Die Rezeption erfolgt zumeist ebenfalls an Computern bzw. Empfangsgeräten mit Computertechnologie (etwa Mobiltelefone oder WebTV). Eine ganze Reihe von Institutionen und Organisationen haben sich drittens herausgebildet, um alle Aspekte der technischen Infrastruktur zu entwickeln, zu verwalten und zu kontrollieren. Diese agieren auf internationaler, nationaler und regionaler Ebene, bilden somit die Befugnisse bei traditionellen oder elektronischen Medien nach. Viertens gehen aus dem Zusammenspiel dieser drei Komponenten die medialen Angebote hervor, die für das Internet produziert, durch dieses distribuiert, an diesem rezipiert und verarbeitet werden. Beispiele stellen etwa Webseiten, Musikstücke, Videoclips, Animationen oder interaktive Elemente dar. Durch diese Handlungsbereiche aber wird das Medium selbst verändert. Diese medialen Eigenschaften des Internets werden im Abschnitt »Dispositiv« ausführlicher diskutiert, sie verweisen darauf, dass das Netzmedium als Verbindung zwischen Computer und Internet legitim als Medium erfasst werden kann. Im Rahmen der vorliegenden Arbeit wird das Internet analytisch als vor allem gesellschaftlich wirksames Dispositiv erfasst. Mit dem hier vorgeschlagenen, erweiterten Dispositiv-Begriff und der Modellierung eines gesellschaftlichen Dispositivs Internet wird aber die Diskussion um den medialen Charakter des Internets für die folgenden Überlegungen teilweise ausgeblendet. Das Internet muss nicht notwendigerweise ein Medium sein, um als Dispositiv modelliert zu werden (vgl. dazu auch ausführlicher die Diskussion in Hartling/Wilke 2003 [2005]).
2.3.2 Netzliteratur Wenn man seinen Blick auf das Feld der digitalen Literatur richtet, stößt man auf eine gewisse Frustration und auf das Problem, was um alles in der Welt eigentlich digitale Literatur ist? Diese Frage lehnt sich an Roberto Simanowski an, einer von Deutschlands avanciertesten Forschern im Feld, der sich 1997; Warnke et al. 2005) publiziert. Erste umfangreichere Analysen des »Computers als Medium« erschienen 1994 im gleichnamigen Sammelband (Bolz et al. 1999 [1994]). Hartmut Winklers umfangreiche Studie »Docuverse« (Winkler 1997b, publiziert 1997) hat endgültig und detailliert den Mediencharakter des Computers konstatiert und analysiert, vgl. dazu auch Lovink/ Winkler 1996. Schließlich hat 1995/1996 Sybille Krämer eine Vorlesungsreihe zum Thema »Medien, Computer, Realität« durchgeführt, die in verschriftlichter Form ebenfalls einflussreich für den Diskurs geworden ist, vgl. Krämer 2000.
44 | DER DIGITALE AUTOR
immerhin des Titels »Netz-Literaturpapst« (Petersen/Saltzwedel 2002) erfreuen kann. Konsequenterweise lehrt Simanowski mittlerweile auch an der Brown University in Providence, USA, von wo aus seinerzeit Hyperfiction seinen Siegeszug angetreten hat. Er umreißt die Problematik des Themas in etwas polemischer, aber durchaus zutreffender Form: »[Sind es, F. H.] Geschichten und Gedichte, die am COMPUTER geschrieben wurden? HYPERTEXTE? MULTIMEDIA? MITSCHREIBPROJEKTE? Aber warum heißt es eigentlich nicht NETZLITERATUR? Und inwiefern handelt es sich überhaupt noch um Literatur, wenn das Wort immer mehr dem BILD weicht! Warum nicht einfach NETZKUNST? Oder INTERFICTIONS? Vor diesen und ähnlichen Fragen stand bisher jeder WETTBEWERB. Nicht immer hat die AUSSCHREIBUNG den nötigen Aufschluss gegeben. Aber selbst wenn der eigentliche Gegenstand geklärt ist: Es bleibt die Frage, woran man die SIEGER erkennt. Nach welchen KRITERIEN soll hier die Kritik erfolgen? Was sagen die PROFESSOREN dazu?« (Simanowski 2002a: 11)
Deutlich wird hier, dass das Begriffsproblem auf ein noch viel größeres verweist. Denn Fragen nach der Charakterisierung von literarischen Arbeiten im Netz stellen auch immer Fragen nach Kriterien dar, die Projekte auszeichnen und hervortreten lassen. Angesprochen sind damit die Probleme der künstlerischen Qualität von digitaler Literatur. Wenn Sabrina Ortmann relativ nüchtern konstatiert: »Bis heute liegt keine wissenschaftlich gültige Definition des Terminus Netzliteratur vor« (Ortmann 2001: 41), verweist sie ebenfalls auf ein dringendes und grundsätzliches Problem des Diskurses um Netzliteratur. Es existieren scheinbar ebenso viele Definitions- und Abgrenzungsversuche wie Teilnehmer an dieser Debatte. Mithin herrschen ein wahrhaft babylonisches Sprachgewirr und eine erstaunliche Uneinigkeit über Kriterien, die diese neuen Formen von Literatur beurteilen und einordnen. Dieser Missstand führte in den 1990er Jahren (der Frühzeit von Netzliteratur) nicht zuletzt dazu, dass die einschlägigen Literaturwettbewerbe18 in Enttäuschung und Ärger endeten. Dieses Problem scheint bei den letzten großen Netzliteraturwettbewerben gelöst worden zu sein (»Literatur.digital« 2001-2003, »1. Junggesellenpreis für Netzliteratur« 2005), im Forschungsdiskurs existiert die Unsicherheit um die Begriffe nach wie vor. Roberto Simanowski beschäftigt sich sehr intensiv mit der Definition von digitaler Literatur und zeichnet recht drastisch die Schwierigkeiten bei der Begriffsfindung nach: »Bei dieser Ausgangslage verwundert es nicht, dass der Gegenstand eine ganze Reihe terminologischer und typologischer Unsicherheiten mit sich bringt« (Simanowski 2002b: 14). Er stellt eine allgemeine Definition vor: »Digitale Literatur ist eine künstlerische Ausdrucksform, die der digitalen Medien als Existenzgrundlage bedarf« (ebd.: 20) und bezeichnet diese Literatur als »Interfictions« (ebd.: 22). Christiane Heibach dagegen spricht von »Literatur im elektronischen Raum« (Heibach 2003); sie setzte 18 Die wichtigsten waren dabei der Internet Literaturpreis »Pegasus« (1996-1998), veranstaltet von der »ZEIT« und IBM sowie der 1. Ettlinger InternetLiteraturwettbewerb »Zeiten(w)ende« im Rahmen der Literaturtage BadenWürttemberg (1999), veranstaltet vom Oliver Gassner und dem Kulturamt Ettlingen. Eine ausführliche Dokumentation dieser Wettbewerbe findet sich bei Sabine Ortmann (Ortmann 2001: 24-38).
DEFINITIONEN UND BEGRIFFE | 45
sich damit explizit und in sehr kritischer Form mit der literaturwissenschaftlichen Terminologie auseinander. Die Diskussionen um den Begriff von digitaler Literatur werden aber nicht nur im deutschsprachigen Diskurs, sondern gerade auch in der englischsprachigen Debatte geführt. Bereits 1989 diskutierte Richard Ziegfeld in einem einflussreichen Aufsatz eine mögliche Definition von »Interactive fiction« (vgl. Ziegfeld 1989). Espen J. Aarseth führte einige Jahre später den Begriff »Cybertext« ein (vgl. Aarseth 1997), konnte sich aber mit diesem nicht gegenüber »Hypertext« durchsetzen (vgl. Aarseth 1999). Eine der jüngeren Arbeiten zum Thema stammt von Marie-Laure Ryan, die an den etablierten Begriff Hypertext anschließt und die Verbindung von »Nonlinearität« (immersion) und »erzählerische Gestaltung« (interactivity) im Hypertext untersucht (vgl. Ryan 2001). Andere Begriffe wie »New Media Writing« der Gruppe trAce (vgl. Simanowski 2002b: 21-22), Beat Suters »Cyberfiction« (vgl. Suter 2001 ff.) oder Friedrich W. Blocks »p0es1s« (vgl. Block et al. 2004a) stehen stellvertretend für eine Legion weiterer, alternativer Entwürfe sowohl im englisch- als auch im deutschsprachigen Diskurs. In den jüngeren Monographien von Roberto Simanowski und Christiane Heibach werden diese alternativen Begriffsbestimmungen noch ausführlicher diskutiert und damit ein Ausgangspunkt für weitere Recherchen geboten (vgl. dazu näher Simanowski 2002b: 14-23; Heibach 2003: 15-19). Im Rahmen der vorliegenden Untersuchung wird stattdessen der Begriff ›Netzliteratur‹ als übergreifender Begriff netz-typischer Literatur verwendet. Diese Definition schließt an den weiter oben entwickelten grundlegenden empirischen Literaturbegriff an und bezeichnet genauer Literatur, die die »spezifische[n] Eigenschaften des Internets strukturell reflektiert« (Föllmer 2005: 1). Die Nutzung des Dispositivs Internet ist bei Netzliteratur also selbstreferentiell zu sehen. Das Netz wird nicht nur zur Produktion, Verbreitung und Rezeption von Literatur benutzt, sondern es geht in die Literatur ein und prägt sie. Oder um es noch einmal mit Roberto Simanowski zu sagen: »Netzliteratur ist demnach das, was sich der spezifischen Eigenschaften des Internet – also der Konnektivität – in ästhetischer Absicht bedient« (Simanowski 2002b: 17). Der unspezifischere Terminus ›Netz‹ wird bevorzugt verwendet gegenüber konkreteren Begriffen wie ›Internet‹ oder ›World Wide Web‹ (›WWW‹). So sind sowohl nichtöffentliche, lokale und temporäre Netzwerke im Begriff erfasst als auch die vielfältigen Kommunikationstechnologien abseits vom WWW (vgl. Föllmer 2005: 1). Vom Begriff »Netzliteratur« abgegrenzt ist »Literatur im Netz«, die sich allein auf die Charakteristika von Printmedien bezieht und diese simuliert. Entsprechende Projekte wurden meist ursprünglich für Print geschrieben und erst nachträglich in das Netz transferiert. In den Fällen, in denen die Arbeiten bereits originär im Netz veröffentlicht wurden, bilden diese das Erscheinungsbild des Printdispositivs vollständig nach, manifestieren sich also als ›gedruckter Text‹ auf dem Bildschirm. Sie setzen keine Techniken und Gestaltungsmuster des Netzdispositivs ein. Entscheidendes Merkmal ist bei »Literatur im Netz« also, dass es bei der Übertragung zwischen online und offline nicht zu einem Medienbruch kommt. Abgesetzt ist der Begriff Netzliteratur auch von den anderen ›Künsten‹ im Netz, also Netzkunst19, Netzmusik, 19 Der Begriff »Netzkunst« wird im Diskurs mit zwei Bedeutungen gebraucht. In der engen Bedeutung, die hier angesprochen ist, bezeichnet der Begriff die Fort-
46 | DER DIGITALE AUTOR
Animationen, audiovisuelle Inhalte, interaktive Elemente, Netzinstallationen usw. Im Gegensatz zur Literatur im Netz macht Netzliteratur Gebrauch von den kommunikativen, sozialen und technischen Möglichkeiten des Internets. Software und Hardware des Computers sowie netzspezifische Techniken und Kommunikationsmuster des Internets werden dabei als Mittel zur Textproduktion eingesetzt, um z. B. Animationen, Sound, Interaktivität, Kollaboration mit der Literatur zu verbinden. Die Bezeichnung Netzliteratur für die Gesamtheit aller literarischen Texte, die für digitale Medien konzipiert wurden, ist m. E. aus verschiedenen Gründen zulässig. Zum ersten stellt das Netz für gewöhnlich den Publikationsort dar, für den die Texte aufbereitet wurden und an dem sie auch rezipiert werden. Dass das Internet dabei nicht unbedingt Distributionsmedium sein muss, sondern Projekte auch offline über CDROM oder Diskette verbreitet werden können, spielt keine Rolle. Die Arbeiten werden in diesem Fall ebenfalls an einem Computerbildschirm gelesen, und sie werden als Texte, die im Netz publiziert sein könnten, rezipiert.20 Zum zweiten fasst diese Bezeichnung die Bedeutung des Netzes bei der Herausbildung dieser literarischen Gattungen. Grundlegende Charakteristiken dieser Literatur stellen eben die Abkehr vom seriellen Text und die Zuwendung zu verknüpften Texteinheiten dar. Es sind all die technischen Spezifika, Protokolle und Plugins, die seit 194521 für Konzepte wie Memex, ARPANET, Storyspace und WWW entwickelt wurden, die die neuen Literaturformen bilden, bestimmen und ausformen. Nicht zuletzt ist es die Notwendigkeit einer dreifachen Kompetenz (literarisch-ästhetisch, programmier-technisch und kommunikativ), die den Netzschreiber im Unterschied zum traditionellen Autor ausmacht. Damit also werden das Netz und seine Bedeutung ästhetisch in den Projekten reflektiert. Schließlich beschreibt der Begriff, dass der Autor selbst in diesem Netzliteraturgeschehen eine ganz andere Rolle einnimmt. Er ist zwar nicht notwendigerweise ein toter Autor, noch muss er seine physische Präsenz an eine virtuelle Funktion abgegeben haben, aber er versteht sich doch in den seltensten Fällen als traditionelles Genie. Die meisten Netzliteraten haben eher eine wissenschaftliche oder design-praktische Profession. Sie sind Literaturwissenschaftler, Webdesigner und Werbetexter. Selten entsteht Netzliteratur aus nur einer Hand, kennzeichnend sind stattdessen Gemeinschaftsprojekte, bei führung der bildenden Kunst im Internet und steht gleichrangig mit den anderen Kunstgattungen Netzliteratur, Netzmusik usw. In einer weiten Bedeutung wird der Terminus als Sammelbegriff sämtlicher künstlerischer Aktivitäten im Netz gebraucht. Mit dieser weiten Bedeutung wird der Begriff »Netzkunst« auch in der vorliegenden Untersuchung verwendet. 20 Wenn Autoren Netzliteratur, die das Internet zwingend zur Distribution voraussetzen, von ›Computerliteratur‹ abgrenzen, die eben auch über CD-ROM oder Floppy Disc verbreitet werden können, beweisen sie ein kurzsichtiges Verständnis. Schließlich ist die Unterscheidung online/offline eine rein technische Kategorie, die keinerlei Einfluss auf die ästhetische Ausformung der Literatur hat. Kollaborative Schreibprojekte könnten technisch auch über den postalischen Versand von Disketten organisiert werden. Webserverfunktionen können lokal auch auf Rechnern ohne Netzanschluss realisiert werden. Betriebssystem, Anwendungs- und Internetsoftware gehen längst nahezu nahtlos ineinander über. 21 Erscheinungsjahr von Vannevar Bushs bahnbrechendem Aufsatz »As we may think«. Vgl. dazu Kapitel 6.4.2.
DEFINITIONEN UND BEGRIFFE | 47
denen Techniker schreiben, Schriftsteller designen und Hochschullehrer den Programmcode beisteuern. Der Begriff Netzliteratur steht auch für das seltsame Phänomen, dass sich die traditionellen Funktionen im Literatursystem im Grunde genommen relativ diffus über alle Teilnehmer des Netzdiskurses verteilen. Der Tod des Autors geht einher mit der Entmachtung von Verleger und Lektor. Der Leser selbst ist nicht mehr auf die passive Rezipientenrolle zurückgeworfen, sondern dazu angehalten, sich kritisierend und schreibend in den Diskurs einzumischen. Mit Hinblick auf die Strukturierung der Autorschaft lassen sich die verschiedenen Genres von ›Netzliteratur‹ in vier Gruppen teilen22, die weiter unten sehr viel ausführlicher diskutiert werden (vgl. Kapitel 8).23 1. ›Klassische‹ Netzliteratur umfasst Texte, die die Experimente der modernen Print-Literatur fortführen und dabei vor allem computerspezifische Stilmittel benutzen, nämlich Interaktivität, Intermedialität und Inszenierung (vgl. Simanowski 2002b: 14-23). Diese kann in vier Genres unterteilt werden: ›Hypertext‹, ›Hyperfiction‹, ›Multimediale Literatur‹ und ›computergenerierte Literatur‹ (vgl. Hartling 2004: 11-14). 2. ›Kollaborative‹ Netzliteratur sind Projekte, die sich vor allem netztypischer Strukturen bedienen und aus gemeinschaftlicher Arbeit erwachsen. Diese bilden drei Genres: ›Partizipative Projekte‹, ›Kollaborative Projekte‹ und ›Dialogische Projekte‹ (vgl. Heibach 2003: 172-197). 3. ›Codeworks‹ bilden literarische Projekte, die reflektieren und darstellen, dass digitale Literatur immer auf Software beruht. Auch wenn diese Kunstformen noch recht ›jung‹ sind, haben sich bereits drei Typen herauskristallisiert. Während ›ASCII-Art‹ und die ›broken codes‹ noch starke Autorschafts-Konzeptionen mitführen, sind ›Algorithmen‹ bzw. ablaufende Programme deutlich von einer marginalisierten Autorschaft gekennzeichnet. 4. Bei netzliterarischer Konzeptkunst werden performative Elemente in die Projekte eingefügt. Ebenso wie in der Offline-Konzeptkunst, lassen sich online die beiden Typen ›Aktion‹ und ›Performance‹ unterscheiden. ›Aktions‹-Projekte können etwa ›social hacks‹ auf Internet-Kanäle umfassen oder als Netz- bzw. Netzkunstaktivismus angelegt sein. ›Performance‹Projekte beinhalten stets auch Algorithmen und Handlungsanweisungen, sie gerinnen aus der produktiven Verbindung dieser drei Elemente.
2.3.3 Exkurs: Netzliteratur und »YouTube« Im hier vertretenen Begriff von »Netzliteratur« und auch in der netzliterarischen Praxis der Gegenwart spielt – bei aller Multi- oder Intermedialität – der Text noch eine maßgebliche Rolle in der künstlerischen Produktion. Deshalb werden andere Kunstformen, in denen etwa Sound oder Bewegtbild dominiert, nicht in die vorliegende Untersuchung einbezogen. Die literarische Gat22 Diese Systematik entwickelt eine frühere Kategorisierung weiter, die der Autor mit Bezug auf Ortmann 2001 ausgearbeitet und dort sehr ausführlich diskutiert hatte, vgl. dazu näher Hartling 2004. 23 Diese Differenzierung nach Genres entspricht nur zum Teil den gängigen Klassifikationen, weil sie nach dem Kriterium der Autorschaft gewonnen ist. Die Einteilung lehnt sich an die Strukturierung des Netzliteraturfestivals »Literatur und Strom. Code – Interface – Concept« (2005) an, welches von Johannes Auer kuratiert wurde.
48 | DER DIGITALE AUTOR
tung der Netzliteratur war, ist und bleibt aber fluide, es deuten sich bereits Veränderungen in der digitalen Literatur an, die es in zukünftigen Untersuchungen womöglich zu berücksichtigen gilt. Eine dieser Erweiterungen ist das Computerspiel, was in dem mittlerweile aus der Netzliteratur-Debatte ausgelagerten Diskurs der »Game Studies« reflektiert und diskutiert wird. Einen anderen, möglicherweise sogar viel einflussreicheren Impuls stellt der Boom von Videoportalen wie »YouTube.com«24 dar, auf denen Videokünstler Gelegenheit zur künstlerischen Selbstäußerung haben und ein potentiell globales Publikum erreichen können. Dabei verarbeiten Videokünstler genauso wie kommerzielle Anbieter Themen, die bislang vor allem das Refugium der Netzliteratur zu sein schienen. Videos auf »YouTube« thematisieren virtuelle Identitäten, Identitätswechsel und Identitäts-›Fakes‹. Die Strukturen von virtuellen Gemeinschaften werden genauso hinterfragt wie deren gruppendynamische Prozesse. Schließlich geht es auch bei »YouTube« um das Erzählen von fiktionalen Geschichten. Eine heiße Debatte entbrannte etwa um den »YouTube«-Star »lonelygirl15«, als im Jahr 2006 deren fiktiver Charakter entlarvt wurde und sich ihr angebliches Videotagebuch als geschickte Inszenierung einer kleinen Filmproduktionsfirma entpuppte, die souverän mit den Erwartungen der »YouTube«-Community spielte (vgl. dazu Patalong 2006b; Patalong 2006c). »lonelygirl15« war damit vor allem als fiktionale Erzählung zu begreifen und es konnte kaum überraschen, dass sie in der Mailingliste »Netzliteratur« unter dem Stichwort »Netzliteratur goes youtube« verhandelt wurde (vgl. Charlier 2006 und die darauf folgenden Postings). Interessant ist an Videohostern wie »YouTube.com«, dass künstlerische Formen tatsächlich einen bemerkenswert hohen Anteil am Gesamtangebot einnehmen, das sich ansonsten vor allem aus Fernseh- oder Kinomitschnitten sowie eher einfachen Videotagebüchern zusammensetzt. Der »YouTube. com« Slogan »Broadcast Yourself« bezieht sich also nicht nur auf die reine Zurschaustellung der eigenen Person, wie es in der 1990er Jahren die eigene Homepage erlaubte und nun in den »Social Software«-Diensten des »Web 2.0« fortgeführt wird (Myspace.com, Flickr usw.). Stattdessen geht es vielen Autoren um eine tatsächliche künstlerische Selbst-Entäußerung, was durch zahlreiche semiprofessionelle Animationsfilme oder videokünstlerische Arbeiten nachdrücklich dokumentiert wird. Bei diesen Formen sind keine klassischen Schreibfähigkeiten mehr nötig, da die künstlerische Botschaft allein über den audiovisuellen Kanal vermittelt werden kann. Diese audiovisuelle Produktion wird systematisch dadurch unterstützt, dass das dazu notwendige Handwerkszeug längst in gängigen und erschwinglichen privaten Heimcomputern Einzug gehalten hat. Allerdings spiegeln die meisten wirklich künstlerischen Arbeiten auf den Videoplattformen vor allem das Dispositiv Video im Internet wieder, das Netz wird nur zur reinen Distribution verwendet und nicht künstlerisch verarbeitet. Aus diesem Grund werden diese Phänomene im Rahmen der vorliegenden Arbeit ausgeblendet. Erst allmählich setzen künstlerische Produktionen ein, die tatsächlich die Strukturen und Bedingungen des Internets reflektieren und in die Konzeption der Projekte mit einbeziehen, wofür »lonelygirl15« exemplarisch steht. 24 Zu den Online-Videohostern vgl. auch die ausführliche Diskussion in Gugel/ Wehn 2006.
DEFINITIONEN UND BEGRIFFE | 49
2.3.4 Weitere Begriffe Im Zusammenhang mit Netzliteratur werden noch drei weitere Begriffe genannt, die im Forschungsdiskurs vergleichsweise eindeutig definiert sind, nämlich »Hypertext«, »Multimedia« und »Interaktivität«. Der Begriff »Hypertext« wurde 1965 durch Ted Nelson geprägt und auch erstmalig ausführlicher elaboriert. Seitdem ist der Terminus nahezu untrennbar mit Nelson verbunden, auch wenn sich seitdem eine ganze Forschergeneration der genauen Begriffsbestimmung gewidmet hat. »Hypertext« wird gemeinhin als spezifische Textsorte angesehen bzw. als spezielle Form der Textorganisation. Thomas Eibl hat in seiner Studie (vgl. Eibl 2004) zur Geschichte und Formen von Hypertext insgesamt fünf zentrale Charakteristika der Textsorte benannt (vgl. ebd.: 20), die er aus dem Forschungsdiskurs herausdestilliert hat. Danach zeichnet sich Hypertext dadurch aus, dass der Text in einzelne, klar voneinander getrennte Informationseinheiten aufgeteilt ist, die durch Hyperlinks miteinander verbunden werden. Durch die Verlinkung müssen die Informationen nicht mehr sequentiell aufgereiht werden, stattdessen werden nichtlineare Anordnungen möglich und auch befördert. Von Hypertext-Forschern wurde und wird zudem hervorgehoben, dass Hypertext einen »interaktiv dialogischen Charakter« (Kuhlen 1991: IX) aufweisen und damit eine besondere Freiheit des Nutzers einhergehen würde. Diese Einschätzung darf in ihrer euphorischen Ausprägung allerdings nicht unwidersprochen bleiben, kann der Leser doch nur den Links folgen, die der Autor des Hypertextes auch gelegt hat. Zudem kann in Zeiten von interaktiven Flash-Anwendungen oder komplexen Datenbank-Systemen der interaktive Gehalt von Hypertext nur als eingeschränkt bezeichnet werden. Mit dem Hypertext-Begriff ist das Konzept von »Hypermedia« verbunden. Dieses beschreibt Anwendungen, die neben Texteinheiten auch andere mediale Formen (Audio, Video und Animationen) in einer Hypertextstruktur einbinden. Als in den jungen Jahren der digitalen Literatur das HypertextParadigma noch ein Zentrum der netzliterarischen Poesie25 darstellte, bildete die Erforschung von Hypertext einen Schwerpunkt der entsprechenden Forschung.26 In jüngerer Vergangenheit hat sich mit der Auffächerung der netzliterarischen Praxis auch der Forschungsschwerpunkt verlagert. Hypertext ist damit zwar nicht aus dem Fokus der Debatte verschwunden, spielt aber nur noch eine deutlich untergeordnete Rolle.27
25 Vgl. dazu überblickend die theoretischen Beiträge in Suter/Böhler 1999b sowie die archivierten Projekte auf der beigelegten CD-ROM. 26 Für den deutschsprachigen Diskurs vgl. etwa Kuhlen 1991; Idensen 1996; Nielsen 1996; Schulmeister 1996; Hautzinger 1999; Idensen 2000a; Porombka 2001; Simanowski 2002b: 63-96. Für den englischsprachigen Diskurs vgl. insbesondere die Arbeiten von Ted Nelson (Nelson 1987 [1981]), George P. Landow (Landow 1992; Landow 1995; Landow 1997; Landow 2006) und Jay David Bolter (Bolter 2001). 27 Thomas Eibls Buch steht für die Fortführung des Hypertext-Paradigmas in einem deutlich eingeschränkteren Rahmen, hier beim Einsatz als Lern- oder Lehrmedium, vgl. Eibl 2004. George P. Landow hat im Jahr 2006 die mittlerweile dritte ›Version‹ seiner umfangreichen Hypertext-Studie vorgelegt und ist damit international der anerkannteste Vertreter des Paradigmas, vgl. Landow 2006. Dass Hypertext ein universelles Prinzip darstellt und Probleme in einer
50 | DER DIGITALE AUTOR
Der Begriff »Multimedia« dagegen bildet seit Mitte der 1990er Jahre28 durchgehend eines der zentralen Paradigmen der Internetforschung und der Merkmale von digitalen Inhalten.29 Er umfasst die Kombination verschiedener Medien mit Hilfe digitaler Technik, wobei die ganze denkbare und digitalisierbare Bandbreite der Medien angesprochen ist, wie Text, Foto, Grafik, Audio, Video und Animationen.30 Multimedia-Anwendungen kombinieren und verschmelzen die Darstellungsmodi der integrierten Medien; sie lassen solcherart die Grenzen zwischen den Mediengattungen verschwinden. Dazu tritt das Merkmal der Interaktivität, der Nutzer kann auf das Angebot also individuell variabel und selbstbestimmt zugreifen sowie die Rezeptionsgeschwindigkeit steuern (vgl. Werner/Becker 1997: 87-90). Da der Begriff im Diskurs etwas unpräzise ist, vermeiden ihn Netzliteratur-Theoretiker wie Roberto Simanowski in der netzliterarischen Analyse. Simanowski benutzt stattdessen den Terminus ›Intermedialität‹ als »Verbindung zwischen den traditionellen Ausdrucksmedien« (Simanowski 2002b: 8). Zusammen mit Interaktivität und Inszenierung entstünde eine neue Form von Gesamtkunstwerk, die sich von den traditionellen Melangen Text-Grafik (Print) oder Bild-Ton (Audiovision) absetzt. Mit dem Konzept von »Multimedia« verbunden ist der Begriff »Interaktivität«. Claus Leggewie und Christoph Bieber haben auf seinen »transdisziplinären Charakter« (Bieber/Leggewie 2004a: 13) hingewiesen, und somit auf seine Relevanz für ganz unterschiedliche geistes- und naturwissenschaftliche Disziplinen. Gleichzeitig bildet der Begriff ebenso wie der Terminus Multimedia ein zentrales Paradigma der Internetforschung. Allerdings geht mit seiner Transdisziplinarität auch eine gewisse Uneindeutigkeit der Definition und der Abgrenzung gegenüber anderen medialen Phänomenen einher. In ihrem Sammelband (vgl. Bieber/Leggewie 2004b) stellen Bieber und Leggewie eine ganze Reihe von unterschiedlichen fachlichen Definitionsvorschlägen und begrifflichen Anwendungen zusammen. In ihrer Einleitung diskutieren sie knapp, aber aufschlussreich die Probleme des Diskurses um »Interaktivität« und kamen zu folgender Begriffsbestimmung als kleinstem Nenner all dieser Definitionen. Danach konnte »Interaktivität« technisch gefasst werden als »Rückkanalfähigkeit« und damit als Möglichkeit, dass Informationssender und -empfänger innerhalb des Kommunikationsaktes einfach und kontinuierlich die Rollen tauschen könnten (vgl. Bieber/Leggewie 2004a: 7). Das Phänomen Interaktivität ist dabei zum ersten von der normalen KommuVielzahl von philologischen Fächern zu lösen imstande ist, bewiesen die Beiträge in López/Cabrerizo 2007. 28 Vgl. etwa Nielsen 1996; Ludes 1997. Beleg für die damalige Dominanz des Begriffes war 1995 seine Kürung zum »Wort des Jahres«. 29 Vgl. etwa das Kapitel »Multimedia« in Simanowski 2002b: 97-139. Die Grundlagen von Multimedia-Anwendungen erläutert umfassend Steinmetz 2000, den Einsatz dieser Anwendungen in der schulischen und hochschulischen Lehre sowie in der Weiterbildung erläutert Thissen 2003. Im Journalismus beschreibt das Konzept des »Multimedia-Journalismus’« bzw. des »multimedialen Erzählens«, dass »Geschichten« im Internet anders erzählt und Informationen anders aufbereitet werden können als in anderen Medien, vgl. Heijnk 2002. 30 Dabei wird von Multimedia nur gesprochen, wenn eine Kombination von mindestens einem digitalen, kontinuierlichen Medium (Audio oder Video) mit einem diskreten Medium (Text, Foto, Grafik) vorliegt. Eine Kombination nur von diskreten Medien würde unter Hypermedia fallen.
DEFINITIONEN UND BEGRIFFE | 51
nikation als soziale Interaktion zwischen Menschen getrennt. Zum zweiten werden interaktive Medien explizit von Massenmedien unterschieden, interaktive Kommunikation also als ein qualitativ anderes Phänomen im Vergleich zur Massenkommunikation herausgestellt. Schließlich wird drittens zwischen technisierter menschlicher Kommunikation mit Hilfe des Computers und der interaktiven Kommunikation von Mensch und Maschine differenziert (vgl. dazu ausführlicher ebd.: 8-12). Damit bildet Interaktivität das wichtigste Kriterium, das zwischen klassischen Medien (die auch mehrere Medienformen verbinden können) und echten Multimedia- sowie darüber hinaus netzspezifischen Anwendungen unterscheidet (vgl. Werner/Becker 1997: 90). Oder um es mit den Worten von Bieber/Leggewie zu sagen: »Interaktivität ist das Schlüsselwort der neuen Informations- und Kommunikationstechnologien, das ihre spezifische Differenz und den Vorsprung gegenüber den »alten« Print-, Ton [sic!] und Bildmedien markieren soll« (Bieber/Leggewie 2004a: 7). Sowohl Bieber/Leggewie als auch Werner/Becker haben überdies darauf hingewiesen, dass es unterschiedliche Vorstellungen davon gibt, welches Ausmaß von Eingriffsmöglichkeiten durch den Nutzer notwendig ist, um tatsächlich von Interaktivität sprechen zu können. So konstatieren Werner/Becker mit Rückbezug auf Michael Höing (Höing 1994), dass etwa von Seiten der Fernsehveranstalter bereits der reine Programmwechsel als Interaktivität bezeichnet würde. Das Angebot von mehrperspektivigem Fernsehen oder die Ausstrahlung von Zusatzinformationen würden als jeweils gesteigerte interaktive Formen angesehen. Dies könne allerdings keineswegs als wirkliche Interaktion eingestuft werden (vgl. Werner/Becker 1997: 90). ›Echte‹ Interaktion würde nach Auffassung von Bieber/Leggewie notwendigerweise den »Einfluss auf Inhalt und Form, auf Ablauf und Dauer einer Kommunikation« (Bieber/Leggewie 2004a: 9) voraussetzen. Dies bedeute aber, dass der Nutzer das (Fernseh-) ›Programm‹ aktiv verändern oder die Struktur des Netzwerkes offen und autonom mitgestalten können müsste (vgl. ebd.). Mit Bezug auf Netzliteratur bezeichnet ›Interaktivität‹ mit Roberto Simanowski die »Teilhabe des Rezipienten an der Konstruktion des Werkes« (Simanowski 2002b: 18). Dieser interaktive Zugriff müsste dabei – entsprechend dem Modell von Werner/Becker – über eine reine Lektüreentscheidung hinaus einen selbstbestimmten Eingriff in das vorhandene Werk ermöglichen. Schließlich gilt es noch weitere strukturelle Begriffe zu klären. In der Film- und Fernsehforschung hat sich der Terminus »audiovisuelle Medien« als Gattungsbegriff durchgesetzt. In diesem Sinne wird der Begriff »Neue Medien« (konsequent groß geschrieben) verwendet, wenn von den digitalen Medien die Rede ist. Dies folgt einer allgemeinen Verwendungsweise in der einschlägigen Literatur. Ebenso werden die Begriffe »Internet« und »Netz« synonym für die Beschreibung aller global miteinander verbundenen Computernetzwerke benutzt. »Neue« oder »digitale« Medien werden mit Werner Faulstich als »quartäre Medien« (vgl. Faulstich 2002: 25) bezeichnet und stehen den Print- und elektronischen Medien gegenüber. Beide Medienbegriffe werden im Folgenden als pragmatische Systematisierungen verwendet, die keinesfalls als klare Definitionen zu verstehen sind. Mit ›Printmedien‹ werden die Schreib- und Druckmedien bezeichnet, die in der Mediensystematik von Faulstich als Sekundärmedien eingestuft werden (vgl. ebd.). Als ›elektronische Medien‹ werden die jüngeren Rundfunkmedien Hörfunk und Fern-
52 | DER DIGITALE AUTOR
sehen sowie Film und Video verstanden. In Faulstichs Systematik stellen diese die tertiären Medien dar (vgl. ebd.).
T EIL A. A UTORSCHAFT
3 AUTORSCHAFT UND LITERATUR: A U T O R S C H A F T S -M O D E L L E IN DER LITERATURTHEORETISCHEN
DEBATTE
3.1 Autorschaft als Gegenstand der Literaturtheorie Auf die zentralen Begriffe und Definitionen wurde bereits in der Einleitung sehr ausführlich eingegangen (vgl. insbesondere Kapitel 2.1). Das dort skizzierte Begriffsfeld wird im Folgenden sukzessive um untergeordnete Definitionen erweitert, strukturiert jeweils nach den entsprechenden Autormodellen. Weiterführend soll zunächst die Struktur des Diskurses um Autor und Autorschaft selbst diskutiert werden (Kapitel 3.1.1). Dies führt notwendigerweise auch zu einer begründeten Auswahl der bereits unüberschaubaren Forschungsliteratur zum Thema und damit zur Charakterisierung des darunter liegenden wissenschaftlichen Kanons (Kapitel 3.1.2). Aus der Erörterung wird der hier verwendete Korpus (oder Kanon) der Autorschaftstheorie abgeleitet, der die Basis für die detaillierte Auseinandersetzung mit dem Forschungsstand in den darauf folgenden Kapiteln bildet.
3.1.1 Einleitung: Thematisierung von Autor und Autorschaft Es ist gleichzeitig ein überraschender wie ein völlig einleuchtender Befund, dass die Diskussion über Autorschaft und Autorschaftsmodelle derzeit am intensivsten in der Literaturwissenschaft geführt wird, wie Matías Martínez1 herausgestellt hat (vgl. Martinez 1999b: 433). Überraschend ist die Feststellung, weil der Autorbegriff nicht nur in der Literatur, sondern auch in allen anderen Künsten (Musik, Film, Neue Medien, usw.) eine wichtige Rolle spielt. Zudem widmen sich die Medien- und Kommunikationswissenschaften seit jeher den Autoren intensiv, sei es unter dem Gesichtspunkt der literarischen Produktion, sei es im Hinblick auf die Beziehung von Schriftstellern zu verschiedenen Medien. Schließlich hat sich die Literaturwissenschaft scheinbar besonders eifrig der These vom »Tod des Autors« verschrieben und den Autorbezug aus literarischen Interpretationen ›verbannt‹. 1
Die Schreibung des Namens von Matías Martínez wird in der Literatur uneinheitlich gehandhabt. In älteren Veröffentlichungen wird der Akut auf dem Buchstaben »i« weggelassen und der Name dadurch zu »Matias Martinez« verändert. Richtig und von Herr Martínez auch auf seiner Webseite so gehandhabt, ist jedoch die Verwendung des Akuts, vgl. Martínez o. J. Im Folgenden wird der auf »i« veränderte Name nur an den Stellen benutzt, wo es in der Literatur typografisch so gefordert wird, ansonsten wird der Akut verwendet.
56 | DER DIGITALE AUTOR
Auf der anderen Seite ist diese Feststellung aber auch nicht verwunderlich. In der praktischen Arbeit gehen Literaturwissenschaftler seit jeher völlig pragmatisch mit Autorschaftskonzepten um, auch wenn in der Theorie zuweilen gegenläufige Tendenzen festzustellen sind. Im Umgang mit literarischen Texten wird diesen auch immer ein Autor unterstellt, Interpretationen beziehen sich selbstverständlich auf biographische Details des Schriftstellers, Kanonisierungsprozesse laufen über und werden analysiert anhand von Literaten, usw. Seit der »Rückkehr des Autors«2 (vgl. Jannidis et al. 1999b) werden Probleme und Phänomene von Autorschaft in den letzten Jahren auch auf theoretischer Ebene wieder sehr intensiv diskutiert. Einige groß angelegte, wissenschaftliche Konferenzen mit daran anschließenden umfangreichen Sammelbänden zeugen davon. Dabei hat es die Diskussion auch auf die höchste und ›vornehmste‹ Ebene (der germanistischen Literaturwissenschaft) geschafft (vgl. Detering 2002a3). Im interdisziplinären und internationalen Feld der Editionswissenschaften wird diese neu entflammte Debatte widergespiegelt und bereichert durch die Analyse der Beziehung zwischen Autor und editorischem Arbeiten. Die zentralen Begriffe lauten hier »Autor – Autorisation – Authentizität«4 (vgl. Bein et al. 2004). Neben rein wissenschaftlichen Konferenzen sind auch solche festzustellen, in denen Wissenschaftler mit Künstlern in einen Dialog traten (vgl. Ingold/Wunderlich 1992; Ingold/Wunderlich 19955). Zeugnis von einer (wieder) stärkeren Auseinandersetzung mit dem Phänomen »Autorschaft« und »Autor« legen aber nicht nur die großen Tagungen und Kongresse ab, sondern auch Editionen klassischer Texte zur »Autorschaft« (vgl. Jannidis et al. 2000b6) und neuerer Monographien. Letztere beschäftigen sich mit dem Phänomen aber vor allem unter dem Gesichtspunkt der Analyse von Kreativität, weswegen sie in der folgenden Diskussion nicht berücksichtigt werden (vgl. Ingold 1992; Kleinschmidt 1998; Ingold 2004). Im Gegensatz dazu beschäftigt sich die Forschung in den Medien- und Kommunikationswissenschaften sowie der Literatursoziologie zwar intensiv mit Autoren, geht dabei aber vor allem auf die Rahmenbedingungen der literarischen Produktion ein, wie etwa juristische, ökonomische oder lebensweltliche Einflüsse. Hinzu treten Handbücher und Nachschlagewerke, die sich von Autoren verfasst auch an Autoren richten, im Sinne des Mottos: »Was man wissen muss, wenn man vom Schreiben leben will« (Bittner 2002). 2 3
4
5
6
So der Titel einer Konferenz und deren Dokumentation, die vom 7. bis 10. Oktober 1997 im Kloster Irsee veranstaltet wurde. Der Band dokumentiert die Ergebnisse des 24. Germanistischen Symposiums der Deutschen Forschungsgemeinschaft, welches vom 23. bis 28. September 2001 in Salzau bei Kiel stattfand. So der Titel der IX. Internationalen Fachtagung der Arbeitsgemeinschaft für Germanistische Edition und deren Dokumentation, die vom 20. bis 23. Februar 2002 an der RWTH Aachen durchgeführt wurde. Die Bände dokumentieren zwei »internationale und interdisziplinäre« (Ingold/ Wunderlich 1995) Symposien zum Thema »Autorschaft und Autorität«, welche an der Universität (vormals Hochschule) St. Gallen durchgeführt wurden und explizit Künstler mit Wissenschaftlern in ein »Forschungsgespräch« (ebd.) zu bringen suchten: »Fragen nach dem Autor« (3. März bis 5. März 1991) sowie »Der Autor im Dialog« (12. Oktober bis 13. Oktober 1993). In diesem Band wurde zum ersten Mal der oft zitierte Text Roland Barthes’ in einer deutschen Übersetzung vorgelegt und damit einer breiteren, deutschen Öffentlichkeit zugänglich gemacht, vgl. Barthes 2000 [1968].
AUTORSCHAFT UND LITERATUR | 57
Es ist also offensichtlich, dass die Debatte um theoretische Konzepte hier zunächst im Rückgriff auf den literaturwissenschaftlichen Diskurs zu rekonstruieren und zusammenzufassen ist. Dies erfolgt mit dem Ziel, tragfähige Modellierungen von Autorschaftskonzepten zu erarbeiten, die auf die Analyse der vergleichsweise jungen digitalen Literatur angewandt werden können. Dabei wird von der Hypothese ausgegangen, dass der bisherige Diskussionsstand in der Literaturwissenschaft bereits genügend anschlussfähige Anknüpfungspunkte für Autorschaftsuntersuchungen im digitalen Medium bereitstellt. Bereits die Analyse von Autorschaft in der so genannten »traditionellen« Literatur hat hinreichend komplexe Modelle hervorgebracht, die neben genialistischen Konzepten eben konsequent auch kollaborative und kollektive berücksichtigen und auf die nur scheinbar ›neuen‹ Konzepte im digitalen Medium anwendbar sind. Es wird konstatiert, dass der Gegensatz zwischen ›alter‹ und ›neuer‹ Literatur samt ›alten‹ und ›neuen‹ Autoren immer schon ein oberflächliches Postulat darstellte, das einer intensiveren Untersuchung nie standhalten konnte. Diese holzschnittartigen Zuordnungen haben den analytischen Blick getrübt und waren kaum von Nutzen. Hier wird stattdessen davon ausgegangen, dass genialistische und kollektive Autorschaftsmodelle nicht eindeutig an bestimmte Medien gebunden werden können. Losgelöst von strengen Unterscheidungen müssen die feinen, graduellen Unterschiede zwischen den verschiedenen Typen von Autorschaft freigelegt werden. So war es im Buchmedium schon immer möglich, kollektive Autorschaftskonzeptionen umzusetzen. Entsprechende ästhetische Konzeptionen lassen sich für die Frühzeit von Literatur ebenso nachweisen wie für die Zeit der Genieästhetik oder der Gegenwart. Im digitalen Medium sind solche Modelle in einer neuen Qualität möglich, lassen sich aber immer nur anhand des Vorläufers erklären und verstehen. Dadurch wird es möglich, ihre Besonderheiten herauszuheben. Umgekehrt lässt sich auch im digitalen Medium ein besonders hohes Maß an traditionellen, genialistischen Autorinszenierungen und -zuschreibungen nachweisen. Urheberrecht, ökonomische, künstlerische und soziale Gratifikationssysteme sowie Lektüreerwartungen der Rezipienten wurden online nach Mustern der Offline-Literatur erst einmal stringent fortgeschrieben. Auch neue, netzadäquate Versionen der traditionellen Kategorien können kaum die über Jahrhunderte gewachsenen Begriffe ignorieren, schon gar nicht ersetzen.
3.1.2 Charakterisierung der Forschungsliteratur Die Rekonstruktion eines fachfremden Diskurses7 bringt einige Schwierigkeiten mit sich, die mit ihren Lösungen transparent gemacht werden müssen, um die Ergebnisse validierbar zu machen. Im speziellen Fall der Rekonstruktion des Autorschaftsdiskurses in der Literaturwissenschaft führt das zur 7
An dieser Stelle soll nicht auf die Diskussion eingegangen werden, inwieweit die Medienwissenschaften den Literaturwissenschaften wirklich so ›fremd‹ gegenüberstehen, hatten sich erstere doch aus letzteren entwickelt, vgl. Viehoff 2002. Allerdings ist zu konstatieren, dass gerade die Konzepte Literatur, literarische Produktion und Autor mittlerweile so unterschiedlich theoretisch und methodologisch gehandhabt werden, dass sich die Disziplinen in diesem Fall tatsächlich stärker unterscheiden.
58 | DER DIGITALE AUTOR
Ausblendung spezifischer Positionen sowie zur Konzentration auf einen Kanon der Forschungsliteratur. Dies ist näher zu begründen. Grundsätzlich muss der Stand der Forschung rund um Autorschaftskonzepte in der Literaturwissenschaft als für die vorliegende Untersuchung in großen Teilen irrelevant eingestuft werden. Zum ersten wird der Diskurs vor allem unter dem Gesichtspunkt der »Erforschung der Kreativität« und dem Aufspüren handwerklicher Exzellenz von Autoren geführt. Zum zweiten werden systematische und theoretische Gesichtspunkte von Autorschaft in Sammelbänden, Zeitschriftenbeiträgen, Tagungen nur in eingeschränkter Art und Weise diskutiert. Wenn der Schwerpunkt der literaturwissenschaftlichen Diskussion um Autorschaft vor allem auf der »Kreativität« und der handwerklichen Exzellenz von Autoren liegt, geschieht dies ganz im Gestus des Modells des literarischen Genies. Dies wird besonders deutlich anhand der einschlägigen Monographien (vgl. etwa Ingold 1992; Kleinschmidt 1998; Ingold 2004). So kennzeichnet Felix Philipp Ingold das Ziel seiner 1992er Studie »Der Autor am Werk« im Untertitel explizit als »Versuche über literarische Kreativität« und führt aus: »Die im vorliegenden Band zusammengefaßten Versuche über literarische Kreativität sind – bei aller Unterschiedlichkeit ihrer thematischen Ausrichtung und formalen Gestaltung – aufeinander ein- und abgestimmt durch die leitmotivisch anklingende, unter wechselnden Gesichtspunkten immer wieder neu gestellte Frage nach dem Autor – die Frage nach dem, der spricht, nach dem, der das Sagen und damit die Autorität hat. Es handelt sich dabei um eine Fragestellung, die keineswegs nur auf das Verhältnis zwischen Autorschaft und Autorität gerichtet ist, sondern auch auf die interaktiven Wechselbeziehungen zwischen Autor und Sprache, Sprache und Werk, Werk und Leser.« (Ingold 1992, Klappentext, Hervorhebung im Original)
Hier klingt bereits in der Vorbemerkung an, dass Ingold weniger auf eine systematische Analyse von Autorschaftsphänomen auf einer Ebene abzielte, wie sie in der vorliegenden Untersuchung modelliert wird. Die Zusammenstellung und der Inhalt der versammelten Beiträge belegt darüber hinaus, dass es Ingold vor allem um Einzelfallanalysen ging, lose angebunden an bestimmte Einzelprobleme aus dem Themenfeld »Autorschaft und Autorität«.8 Auch Ingolds zwölf Jahre später, mitten in die Zeit der Diskussion um die »Rückkehr des Autors« hinein publizierter Band »Im Namen des Autors« verengte den Blick auf Einzelfälle. Er blieb bei Analysen der Werkentstehung, der Autorintention und Kreativität stehen, wenn er fragte: »Was gibt der Dichter, der Künstler mit und in seinem Werk zu verstehen, und was kann, was soll der Leser oder Betrachter damit anfangen?« (Ingold 2004: 78). Zu seiner Absicht führt er weiter aus: »Der vorliegende Band versammelt rund ein Dutzend Arbeiten […] zur literarischen und künstlerischen Kultur zwischen klassischer Moderne und Postmodernismus, Texte, die im wesentlichen auf zwei Grundfragen ausgerichtet sind, einerseits auf die Frage nach dem Verhältnis von Autorschaft und Werkautonomie, andererseits 8
Einige Beispiele der Beiträge: »Der Autor im Flug. Daedalus und Ikarus; Könnerschaft und Inspiration«, »Der Autor in Stücken. Wladimir Majakowskij«, »Der Autor als Despot. Vladimir Nabokov«.
AUTORSCHAFT UND LITERATUR | 59 auf die Frage nach der Entstehung und dem Verstehen beziehungsweise nach Bedeutung und Sinn des Kunstwerks.« (Ebd.)
Schließlich existiert mit Erich Kleinschmidts Arbeit »Autorschaft. Konzepte einer Theorie« auch ein Entwurf, der zu einer übergreifenden Theorie von Autorschaft führen soll. Dabei verstand er seine Studie als sehr gedrängtes Diskussionsangebot, als erste Skizze für eine noch auszuarbeitende Theorie der Autorschaft: »So werden hier einige vergrößernde Ausschnitte auf der großen Karte Autorschaft angeboten, die dazu ermutigen sollen, weitere, wissensmehrende Vorstöße zu unternehmen. Der Anspruch geht jedoch dahin, grundsätzliche Prinzipien einer auktorialen Kartographie verdeutlichen und markieren zu können. Die hier zusammengefaßten Beiträge dienen dazu, Konzeptfelder der Auktoralität abzuschreiten. Es geht darum, Fragen zu stellen und Versuche ihrer Beantwortung im Sinne funktionaler Vorschläge zu unternehmen. […] Das hier Angebotene ist denn auch kein Forschungsbericht, sondern der Versuch, sinnvolle und zentrale Dispositive von Autorschaft zu diskutieren, mit denen sich verstehen und arbeiten läßt. […] Für eine Theorie der Autorschaft mußten aber erst einmal Vorschläge gemacht werden.« (Kleinschmidt 1998: 7-8)
Damit entwarf Kleinschmidt ein noch unvollständiges Theorieangebot, das von dem hier angestrebten systematischen Überblick deutlich weg führt. Die derzeitige Debatte hat – wie es scheint – von Kleinschmidts Ansatz nur wenig Kenntnis genommen. Daher wird die Skizze an dieser Stelle auch nicht weiter diskutiert oder fortgeschrieben. Diese ausführlicheren Erläuterungen zu den aktuelleren Monographien um das Thema »Autorschaft« zeigen, dass sie für das Ziel einer systematisch orientierten Analyse von Autorschaftsmodellen im Internet sowie einer Anwendung von aktuellen (wiederum systematisch orientierten) Autorschaftsmodellen wenig dienlich sind. Sie stehen damit auch für einen großen Teil der aktuellen Diskussionen in der germanistischen Fachliteratur, die vor allem auf den Einzelfall fokussieren und die Bedingungen der Werkgenese vor allem unter dem Stichwort »Kreativität« rekonstruieren. Wenn systematische und theoretische Gesichtspunkte von Autorschaft in Sammelbänden, Zeitschriftenbeiträgen, Tagungen diskutiert werden, geschieht dies oft nur in eingeschränkter Art und Weise. Eher selten findet sich die Diskussion eines bestimmten systematischen oder theoretischen Aspektes unter Einbezug von (historischen) Beispielen. Stattdessen lassen sich vor allem traditionelle produktionsästhetische und hermeneutische Lesarten von Einzelaspekten feststellen, die zumeist anhand einzelner Autoren nur beiläufig einen systematischen Gesichtspunkt diskutieren. Solche eher hermeneutischen, interpretierenden Zugänge sind dokumentiert in den Sammelbänden zu den von Felix Philipp Ingold initiierten Tagungen, bei denen Wissenschaftler mit Künstlern in Dialog traten (vgl. Ingold/Wunderlich 1992; Ingold/Wunderlich 1995)9. Dieser Befund gilt – eingeschränkt – auch für einige Beiträge in dem ansonsten einschlägigen Band Detering 2002a10. Damit werden gleich mehrere Probleme im literaturwissenschaftlichen Diskurs evident: 9 Vgl. etwa Dotzler 1992; Rath 1992; Robinson 1995. 10 Vgl. etwa Blasberg 2002; Lohmeier 2002; Thums 2002.
60 | DER DIGITALE AUTOR
1. Die Befunde von Einzelfallanalysen lassen sich nur schwer verallgemeinern und auf Autoren in synchroner oder diachroner Perspektive ›hochrechnen‹. 2. Oft wird die Sicht auf den Autor allein auf seine Position als Genie sowie auf seine Kreativität verengt. Dies ist im Zusammenhang mit der vorliegenden Untersuchung aber ebenso wenig von Interesse wie die handwerkliche Güte eines Textes oder des gesamten Werkes. 3. Die Fokussierung auf die klassische literaturwissenschaftliche Triade von Autor-Werk-Leser impliziert ein überholtes Kommunikations- und Wirkungsmodell, das eher der veralteten Container-Metapher (vgl. Schmidt/ Zurstiege 2000: 51-66 sowie Rusch 2002b) oder dem Stimulus-Response-Modell genügt (vgl. Merten 1994). Es scheint allein danach zu fragen, ob der Leser auch den Autorsinn zu erschließen imstande ist und führt vom Erkenntnisinteresse dieser Arbeit weg. 4. Das Werk wird ganz im Sinne der Hermeneutik und zum Zweck der Interpretation zu sehr in den Vordergrund gerückt. Damit ist ein großer Teil des literaturwissenschaftlichen Diskurses als wenig ergiebig für die vorliegende Arbeit einzustufen. Deshalb wird die aktuelle Diskussion um Autorschaft in der (germanistischen) Literaturwissenschaft, so sie relevant für die vorliegende Untersuchung ist, anhand der umfangreichen Dokumentationen der jüngsten großen Tagungen (Jannidis et al. 1999b; Detering 2002a; Bein et al. 2004) rekonstruiert. Ergänzt wird die Diskussion durch ausgewählte, relevante, jüngste Veröffentlichungen in Sammelbänden und Zeitschriften (vgl. etwa Jannidis et al. 2000a). Vervollständigt wird die Darstellung zudem durch einschlägige Beiträge aus der amerikanischen Debatte, in der Fragen der Autorschaft schon seit längerer Zeit (und auch unter anderen Schwerpunktsetzungen wie z. B. dem Urheberrecht oder der Intention) diskutiert werden (vgl. etwa Woodmansee/Jaszi 1999; Woodmansee 2000 sowie Livingston 2005). Die hervorgehobene Auswertung der jüngeren Tagungen entspricht zudem einigen grundsätzlichen Überlegungen. Auch wenn man nur die jüngsten Beiträge des aktuellen Diskurses um Autorschaft berücksichtigt, handelt es sich dabei bereits um eine enorme, schwer zu überschauende Anzahl von Beiträgen, die – wie gezeigt – zudem zum Großteil wenig relevant für die vorliegende Arbeit sind. An dieser Stelle kann und soll aber keine komplette Sekundäranalyse von Struktur und Dynamik des aktuellen literaturwissenschaftlichen Diskurses geleistet werden. Stattdessen ist es notwendig, den Stand der Forschung im Modus des gesicherten Kanon-Wissens zu rekonstruieren. Solch ein Kanon-Wissen lässt sich aber am besten durch wissenschaftliche Tagungen zum Thema ermitteln bzw. anhand ihrer Dokumentationen. Zum einen treffen sich bei solchen Gelegenheiten naturgemäß die ausgewiesenen Experten eines spezifischen Diskussionszusammenhangs.11 Zum 11 Dies wurde im Fall des DFG-Symposiums sogar explizit herausgestellt, auch wenn einschränkend bemerkt werden muss, dass diese Ausführungen deutlich von einer gewissen ›Ankündigungsrhetorik‹ geprägt sind. So stellte der Initiator Detering fest: »Die Auseinandersetzung um den ›Tod des Autors‹, seine Umwertung oder Rückkehr ist in den vergangenen Jahren zunehmend lebhaft und ertragreich geführt worden. Erfreulicherweise haben viele der daran in Deutschland federführend Beteiligten an dem Salzauer Symposion teilgenommen, unter ihnen auch die Herausgeber der kommentierten Anthologie Texte zur Theorie
AUTORSCHAFT UND LITERATUR | 61
anderen ist die Auswahl von Beiträgen zu solchen Tagungen im Normalfall bereits selektiv, im speziellen Fall des DFG-Symposiums kann aufgrund der Menge der Einsendungen sogar von einer sehr rigiden Auswahl gesprochen werden.12 Kriterium der Selektion, dieser Kanonisierung des präsentierten Forschungsstandes sind dabei vor allem die Relevanz der Beiträge für die Tagung, deren Innovativität, Nützlichkeit und Güte.13 Dies aber sind Selektionskriterien, die zu einem Kanon von Positionen führen, auf die man sich zulässigerweise stützen kann. Eine andere Debatte in der Literaturwissenschaft, die in der vorliegenden Arbeit nicht weiter verfolgt wird, bezieht sich auf die Autoren selbst, also auf die Ebene der handelnden Aktanten bzw. Produzenten, die man ›unter‹ dem theoretischen Diskurs um Autorschaft ansiedeln kann. Selbstverständlich wird gerade in der Literaturwissenschaft und trotz des weiterhin vertretenen Diktums, der Autor selbst habe in der Interpretation nichts zu suchen, der einzelne Autor eines literarischen Werkes sehr wohl untersucht. Dies gilt z. B. für die gender studies, die cultural studies oder die Literatursoziologie. Außerdem werden die sozialen, gesellschaftlichen, politischen und rechtlichen Arbeitsbedingungen von Schriftstellern gerade in historisierender Perspektive analysiert (vgl. dazu überblicksweise Jäger 1992). Allerdings sind die theoretischen und methodologischen Voraussetzungen kaum anschließbar an das Theorie- und Begriffsreservoir der Medien- und Kommunikationswissenschaften sowie die in dieser Arbeit verwandte Konzeption eines handlungstheoretisch ausgelegten Produktionsbegriffes. Zudem wird in der vorliegenden Arbeit gerade nicht auf die historische Entwicklung von Autormodellen abgehoben. Weitgehend ausgeblendet wird auch der Diskurs um den Autor in den Medien- und Kommunikationswissenschaften, der sich ebenfalls ›unter‹ der theoretischen Debatte befindet. Dieser geht vor allem auf die Bedingungen literarischer Produzenten ein und damit auf die juristischen, ökonomischen, lebensweltlichen Rahmenbedingungen, unter denen (zumeist traditionelle) Autoren arbeiten. Stellvertretend dafür stehen die (älteren) Analysen von Fohrbeck/Wiesand 1972; Knilli et al. 1976; Schwenger 1979; Kreuzer 1981; Schneider 1981 sowie neuere Beiträge von Keuchel/Wiesand 2001; Hucklenbroich/Viehoff 2002; Janssen 2002; Binas 2003. Von den Autoren selbst wird eine umfangreiche Debatte geführt, in der es vor allem um die Vermittlung von Handbuch-Wissen über das Handwerk und Fertigkeiten geht. Dabei handelt es sich zumeist um Veröffentlichungen von schriftstellerischen Fachverbänden, Autorenvertretungen oder Forschungsinstitutionen (vgl. etwa Mider Autorschaft, die im Jahr 2000 erschienen ist« (Detering 2002b: IX, Hervorhebung im Original). Detering bezieht sich auf Fotis Jannidis, Gerhard Lauer, Matías Martínez und Simone Winko, die neben der Anthologie (Jannidis et al. 2000b) auch den Tagungsband »Rückkehr des Autors« (Jannidis et al. 1999b) herausgegeben haben. 12 So führte Detering aus, dass allein bis zum Einsendeschluss schon mehr als hundert Vortragskonzepte vorlagen, aus denen schließlich 29 Beiträge ausgewählt wurden, vgl. Detering 2002b: XIV. 13 Die Bedingungen für die Einladung zum Symposium schilderte Detering folgendermaßen: »Zu den Auswahlkriterien gehörten außer der intrinsischen Qualität eines Papiers auch die Anschlussfähigkeit an ein Sektionsthema, das Dialogpotential von Thema und Thesen, die Vermeidung von Doppelungen« (Detering 2002b: XIV).
62 | DER DIGITALE AUTOR
nisterium für Schule und Weiterbildung 1998; Török 2001; Bittner 2002), um umfangreiche Adresssammlungen mit zusätzlichen redaktionellen Beiträgen (vgl. etwa Uschtrin/Küspert 2001) oder um Berichte zum Berufsstart von (erfolgreichen) Schriftstellern (vgl. etwa Mohl 2006). Vernachlässigt wird diese Diskussion aus zwei Gründen. Zum einen blendet diese Debatte in den Medien- und Kommunikationswissenschaften die theoretischen Aspekte von Autorschaft fast völlig aus bzw. werden die Ergebnisse aus der Literaturtheorie nicht nutzbar gemacht. Zum zweiten rekurriert die Debatte vor allem auf den literarischen Autor in der Printliteratur oder in den elektronischen Medien. Studien, die sich explizit dem OnlineAutor widmen, stehen aber noch aus bzw. sind erst in Ansätzen skizziert. Es wäre zudem noch zu überprüfen, inwieweit sich die Ergebnisse der medienwissenschaftlichen Autoranalysen auf die neuen Autortypen übertragen lassen. Dieses Forschungsdesiderat kann aus Platzgründen in der vorliegenden Arbeit nicht aufgelöst werden, es stellt eines der dringendsten Aufgaben für zukünftige Untersuchungen dar.
3.1.3 Strukturierung des Autorschaftsdiskurses Die Strukturierung des Autorschaftsdiskurses orientiert sich an einem Vorschlag von Heinrich Detering (vgl. Detering 2002b14). Er sortierte das theoretische Feld anhand von vier zentralen Unterscheidungen: 1. »Der Regeltreue und das Genie« bzw. »Der autonome und der heteronome Autor« 2. »Der Eine und das Kollektiv« 3. »Der erzählte und der fingierte Autor« bzw. »Der erforschte und der fingierte Autor« 4. »Der abwesende und der öffentliche Autor« Zu beachten ist dabei, dass diese Unterscheidungen kaum trennscharf voneinander abzugrenzen sind, sondern einander zum Teil überlappen, wie in Heinrich Deterings Erläuterungen der Themen bereits deutlich wird (vgl. ebd.). So weist etwa die singuläre Autorschaft eine Reihe von Merkmalen der autonomen Autorschaft auf und korreliert zudem mit der Vorstellung des öffentlichen Autors. Kollektive und damit marginalisierte Autorschaft geht sehr oft mit einer inszenierten Abwesenheit von Autorschaft im Text einher. Dies stellt keinen Makel der vorgeschlagenen Systematik dar, sondern resultiert zwingend aus der hohen Komplexität des Phänomens Autorschaft, das keineswegs auf einfache Gegenüberstellungen und Strukturen reduziert werden kann. Das Raster ist trotzdem von hohem Nutzen, weil es den Blick auf besonders hervorstechende Charakteristika des Autorschaftsdiskurses schärft. Die Nutzung dieses Modells resultiert zudem aus einer pragmatischen Überlegung, denn Ziel der vorliegenden Arbeit soll nicht die Erarbeitung eines adäquaten Modells des Autorschaftsdiskurses sein. Stattdessen geht es vor allem um die Beziehung zwischen singulären bzw. genialistischen Autorkon-
14 Diese Systematisierung erarbeitete Detering anlässlich des »24. Germanistischen Symposiums der Deutschen Forschungsgemeinschaft« zum Thema »Autorschaft: Positionen und Revisionen«, welches vom 23. bis 28. September 2001 in Salzau bei Kiel stattfand.
AUTORSCHAFT UND LITERATUR | 63
zepten und kollektiven Vorstellungen, um die Differenz nützlicher und marginalisierter Autoren sowie deren Erscheinungen im Internet. Für die Ziele der vorliegenden Untersuchung ist es notwendig, diese Übersicht anzupassen und die Schwerpunkte etwas zu verlagern. Das Phänomen Autorschaft wird danach zunächst überblicksweise unter drei Gesichtspunkten untersucht: 1. »Nützliche vs. marginalisierte Autorschaft« (Kapitel 3.2, entspricht Deterings Punkt 3) 2. »Autorschaft als Ausdruck von Genie vs. Autorschaft als Handwerk« (Kapitel 3.3, entspricht Deterings Punkt 1) 3. »Abwesende vs. öffentliche Autorschaft« (Kapitel 3.4, entspricht Deterings Punkt 4) Dabei ist einschränkend zu bemerken, dass im dritten Punkt »Abwesende vs. öffentliche Autorschaft« bereits Teile der Erörterungen zu den vorherigen Gesichtspunkten enthalten sind, und nicht mehr ausführlicher diskutiert werden. Besonders intensiv diskutiert wird die vierte Unterscheidung, da sie auf das zentrale Thema der vorliegenden Arbeit zielt: 4. »Singuläre vs. Kollektive Autorschaft« (Kapitel 4, entspricht Deterings Punkt 2)
3.2 Nützliche vs. marginalisierte Autorschaft Heinrich Detering unterscheidet in seinem Systematisierungsvorschlag zwischen dem realen Autor, der erzählt wird bzw. erforscht werden kann, und dem fingierten Autor (vgl. Detering 2002b). Im literarischen Diskurs wird zum einen sehr natürlich von einem realen Autor ausgegangen, dessen Rolle und Bedeutung es für das Werk zu erforschen gilt. Dazu treten die Selbstinszenierung und -stilisierung von Autoren, was nicht zuletzt zu dem Phänomen der ›Stars‹ auch unter Autoren geführt hat. Zum anderen wird der Autor für »tot« erklärt, er trete völlig hinter sein Werk zurück und übernehme nur noch Restfunktionen einer literarischen Autorschaft. Auch dieser Prozess lebt von der Erforschung des ›schwindenden‹ Autors einerseits und der Eigenmarginalisierung andererseits. Es kann aber auch noch eine zweite Perspektive eröffnet werden, denn fiktionale Texte spielen des Öfteren mit fiktiven Autor-Identitäten. Zum einen werden Autoren oder Herausgeber fingiert, die wichtige Funktionen für die Erzählung übernehmen (zum fiktiven Herausgeber in Briefromanen vgl. etwa Mattenklott 1992). Diese Fingierung kann als künstlerische Methode zumeist als moralisch unproblematisch angesehen werden. Moralisch bedenklicher sind allerdings die Fälschungen von Identitäten, die allein der Vermarktung von Literatur dienen. Bekannt geworden sind etwa die fiktiven Elemente in der Biographie von Karl May, die sein Werk scheinbar autobiographisch begründeten und legitimierten.15 Äußerst problematisch sind ge15 Aus der Gegenwart heraus gesehen wird die Selbstinszenierung von Karl May kaum als Problem angesehen, zumal der heutige Leser an fiktive biographische Elemente gewöhnt ist. In der damaligen Perspektive spielte die Authentizität seiner angeblichen Erlebnisse (als Old Shatterhand oder Kara Ben Nemsi) aber für die Rezipienten tatsächlich eine besondere Rolle und konnte als Kaufargu-
64 | DER DIGITALE AUTOR
fälschte Identitäten allerdings bei Werken, bei denen das autobiographische Element Grundlage der scheinbar dokumentarischen oder fiktionalen Erzählung ist, wie etwa Schicksalsberichte, Emigrantenliteratur oder Literatur von Marginalisierten (vgl. Schaff 2002). Die zweite Perspektive wird für die vorliegende Untersuchung ausgeblendet, da es sich dabei um eine narrative Strategie handelt, Erzählmuster aber nicht dezidiert untersucht werden. In diesem Rahmen interessanter sind die Ergebnisse der literaturtheoretischen Forschung mit Bezug auf den Autorbegriff. Damit aber wird die analytisch hier nicht relevante Gegenüberstellung vom realen und fingierten Autor aufgelöst hin zu dem sehr viel aufschlussreicheren Vergleich zwischen ›nützlichem‹ Autorkonzept (vgl. dazu auch Jannidis 1999) und der Marginalisierung des Autorbegriffes.
3.2.1 Der ›nützliche‹ Autor: Positive Bedeutung des Autorbegriffs Eine erste Strukturierung des Autorschaftsdiskurses wird durch die Frage nach dem »nützlichen Autor« möglich. In der literarischen und interpretatorischen Praxis spielt er trotz aller theoretischen Angriffe nach wie vor eine zentrale Rolle. Es kann allerdings gezeigt werden, dass auch in den verschiedenen Feldern der theoretischen Reflexion über Literatur ein gewissermaßen ›intuitiver‹ Rückgriff auf einen starken Autorbegriff vorherrscht. Damit wird deutlich, dass verschiedene literaturwissenschaftliche Theorien und Modelle zwar auf den Begriff des Autors verzichten können, nicht aber auf dessen Funktionen für die Argumentation. Der Autor changiert zwischen ›Dominanz‹ und ›Tod‹. In jüngerer Vergangenheit wurde seine ›Rückkehr‹ lautstark verkündet, er sei mit größerem ›Selbstbewusstsein‹ am Werk als jemals zuvor. Damit mutet die Frage nach dem Verschwinden fast schon naiv an. Diese paradoxe Rolle des ›nützlichen Autors‹ kann exemplarisch nachvollzogen werden anhand von Literaturtheorie, Interpretation, Textkritik, Textkommentierung, Formaler Textanalyse, Literaturgeschichtsschreibung und Literatursoziologie. In der aktuellen deutschen Debatte um Autorschaft ragen vor allem die Beiträge von Fotis Jannidis, Gerhard Lauer, Matías Martínez und Simone Winko heraus. Das Forscherteam hat 1999 nicht nur die einflussreiche Tagung »Rückkehr des Autors?« durchgeführt und dokumentiert (vgl. Jannidis et al. 1999b), sondern mit dem Reader »Texte zur Theorie der Autorschaft« einige der einflussreichsten historischen Texte zum ersten Mal in deutscher Übersetzung vorgelegt (vgl. Jannidis et al. 2000b sowie auch den Einführungsartikel Jannidis et al. 2000a). Ihre kanonische Bedeutung in der Debatte wurde bereits im 2001er DFG-Symposium herausgehoben. Daran anschließend hat das Forscherteam Monographien und Sammelbände zu expliziten Anwendungen von Autorschaftsmodellen publiziert (vgl. Martínez 2001; Jannidis et al. 2003; Segeberg/Winko 2005a). Mit ihrem einführenden Beitrag zur Konferenz »Rückkehr des Autors?« (vgl. Jannidis et al. 1999a) und der Einleitung zum Band »Texte zur Theorie der Autorschaft« (vgl. Jannidis ment für das erzählerische Werk herhalten. Insoweit war Mays Selbstdarstellung als Abenteurer tatsächlich als moralisch problematisch anzusehen; konsequenterweise wurde der Schriftsteller von Zeitgenossen auch heftig kritisiert, als seine wahren Lebensumstände offen gelegt wurden.
AUTORSCHAFT UND LITERATUR | 65
et al. 2000a) haben sie eine grundlegende Kritik an der literaturwissenschaftlichen, theoretischen Diskussion um Autorschaft vorgelegt. Diese wurde sehr intensiv rezipiert und hat maßgeblich zu einem Umschwung in der literaturwissenschaftlichen Debatte beigetragen. Ihre Thesen werden im Folgenden zusammengefasst. Sie konstatieren ein Auseinanderklaffen der Literaturtheorie, die den Autor weitgehend ›verabschiedet‹ hat, und der literarischen und interpretatorischen Praxis, die weiter am Autorbegriff festhält. Die theoretische Debatte liefere »in den gängigen Interpretationstheorien wenig methodischen Rückhalt« (Jannidis et al. 1999a: 3) für den Bezug auf den Autor, ja: »Wer sich hier auf den Autor beruft, setzt sich dem Verdacht der theoretischen Naivität aus« (Jannidis et al. 2000a: 8). Dies resultiere aus einer Position, die in den letzten Jahrzehnten in ganz unterschiedlichen Theorien vertreten wurde. Danach sei der Autor unnötig für die Erklärung und Interpretation seiner Texte, er stelle stattdessen ein überlebtes Konzept dar; Fragen nach der Autorintention seien zu vernachlässigen. In der literarischen und interpretatorischen Praxis würde dagegen ganz selbstverständlich schon immer und weiterhin von einem starken Autorkonzept ausgegangen, denn »[d]er Autor ist im Alltag unserer Kultur die wichtigste Größe, um literarische Äußerungen so in Kontexte einzubetten, dass sie verstehbar sind und handlungsrelevant werden können.« (Ebd.: 7) Der Autorname sei untrennbar mit seinem Werk verbunden, er identifiziere es, stelle Such- und Orientierungskriterium dar und authentifiziere den Text. Dies gelte nicht nur für den Alltag, sondern auch für die professionelle Beschäftigung mit Literatur. Beleg dafür sei etwa die Benutzung des Autornamens als Ordnungskriterium in Bibliotheken sowie als Bezeichnung von Institutionen. Zeugnis sei außerdem die Herausgabe von autorbezogener Literatur (Werkausgaben, Briefeditionen usw.) sowie die als legitim und notwendig eingestufte Verwendung des Autornamens in der literarischen Interpretation (vgl. Jannidis et al. 1999a: 4 sowie Winko 2002). Aus diesen Beweisen leiten Jannidis et al. folgende berechtigte Schlussfolgerung ab: »Ganz offensichtlich gibt es auch in der Literaturwissenschaft ein ausgebildetes, praktisches Wissen darüber, wie mit dem Autor umzugehen ist« (Jannidis et al. 2000a: 8). Oder, um es anders herum zu wenden, es existieren in der literaturwissenschaftlichen Debatte »einige typisch[e] Verwendungsweisen des Autorkonzepts […]. Sie zeigen, daß die Literaturwissenschaft zwar auf den Begriff ›Autor‹ verzichten kann, kaum aber auf die Funktion, die er in ihren Argumentationen innehat.« (Ebd.: 18) Dabei ließe sich gerade bei autorkritischen Interpretationstexten eine enorme Differenz zwischen dem theoretischen Anspruch und der tatsächlich durchgeführten Analyse feststellen. Trotz der theoretischen Marginalisierung kämen auch diese Texte nicht ohne ein Autorkonzept aus, wie Lauer und Winko ausführlich diskutiert haben (vgl. dazu Lauer 1999b; Winko 2002). Jannidis et al. stellen systematisiert nach Anwendungsbereichen eine Vielzahl von Belegen für diese These zusammen, die im Folgenden in einer Auswahl wiedergegeben werden (vgl. dazu Jannidis et al. 2000a: 18-35).
Literaturtheorie Literaturtheoretische Positionen untersuchen, wie und ob Autorinstanzen für die Ermittlung von Textbedeutungen im Rahmen von Interpretationen wichtig sind. Die theoretischen Auffassungen darüber, wie wichtig ein Autor für
66 | DER DIGITALE AUTOR
die Textbedeutung ist, gehen dabei weit auseinander. Nach Jannidis et al. könne der Autor überhaupt nicht von Wichtigkeit sein, er könne nur minimale Funktionen übernehmen oder er könne sogar eine zentrale Position besetzen. An dieser Stelle soll keine umfassende Diskussion der Autorbedeutung in verschiedenen literaturwissenschaftlichen Theorien erfolgen, denn auch bei Jannidis et al. wird dies nur sehr komprimiert durchgeführt. Sie benennen sechs Funktionen des Bezugs auf den Autor, die je nach Theorie in unterschiedlichem Ausmaß eine Rolle spielen (vgl. Jannidis et al. 1999a: 18-22). Keine Funktion: In konstruktivistischen und dekonstruktivistischen Theorien würde die Bedeutung des Autors für die Interpretation vollständig negiert, da erst der Leser im Verlauf seiner Lektüre dem Kommunikat Text Bedeutung verleihe (zur konstruktivistischen Modellierung vgl. den Abschnitt über die Empirische Literaturwissenschaft weiter unten). 1. Raumzeitliche Fixierung (Minimalfunktion): In strukturalistischen oder rezeptionsästhetischen Modellen würde der Autor in seiner Bedeutung ebenfalls weitestgehend vernachlässigt, weil Textbedeutung durch überindividuelle Instanzen erklärt werden. Allerdings würde der Autor eingesetzt, um die »Konstitution von Bedeutung raum-zeitlich zu fixieren« (ebd.: 20). Dies stelle die Minimalfunktion des Autorbegriffes dar. 2. Konstruktion einer Bedeutungsvariante: Rezeptionsgeschichtliche Modelle vereinten alle Zeugnisse von Rezeption, um zur Textbedeutung zu gelangen. Damit sei die Konstruktion von Textbedeutung durch den Autor den anderen Konstruktionen gleichgestellt, »seine Funktion ist […], Bestandteil einer offenen Reihe von Bedeutungszuschreibungen zu sein« (ebd.). Diese Funktion ginge über die minimale Variante der raumzeitlichen Fixierung hinaus, sei aber noch deutlich reduziert, da der Autor nur ein Leser seines Textes unter vielen sei und keine herausgehobene Position einnähme. 3. Festlegung der Textbedeutung: Bei autorintentionalistischen Modellen würde die Textbedeutung vom empirischen Autor festgelegt. Er gieße seine Intention in den Text ein, der Text könne vom Leser damit nur mit Rückgriff auf den Autor verstanden werden. Die Lektüre könne auch ›falsch‹ sein, wenn es dem Leser nicht gelänge, die Intention des Autors zu entschlüsseln. In literaturpsychologischen Modellen übernehme der empirische Autor eine ähnlich zentrale Rolle, allerdings seien die Zusammenhänge anders: »ein Text [bedeute das, F. H.], was er ›hinter dem Rücken‹ seines Autors ausdrücke« (ebd.). Bei literaturtheoretischen Interpretationskonzepten sind nach Jannidis et al. ebenfalls drei Funktionen des Bezugs auf den Autor festzustellen. Diese ergäben sich aus den Regeln der Interpretation, die zur Erklärung von Texten auf Informationen zum Autor oder der Entstehungszeit ebenso zurückgreife wie auf andere Texte des Autors. 4. Selektion von Kontexten: Der Bezug auf den Autor diene der Auswahl geeigneter Kontextinformationen (obligatorische Funktion). Damit würden die Kontexte festgelegt, auf die die Interpretation einzugehen habe. 5. Legitimierung der Selektion: Diese Auswahl könne durch den Autorbezug legitimiert werden (fakultative Funktion). Begründet würden diese Kontexte aber durch Rekonstruktion oder Zuweisung eines ›Autorwissens‹. So könnten Kontexte einbezogen werden, die dem Autor bekannt
AUTORSCHAFT UND LITERATUR | 67
waren, es könnten aber auch allgemeinere Kontexte (Alltagskontexte u. ä.) berücksichtigt werden (vgl. Winko 2002: 346). 6. Validierung der Bedeutungszuschreibung: Der Autorbezug könne zudem dazu dienen, Interpretationshypothesen zu plausibilisieren oder Zuschreibungen von Bedeutungen zu überprüfen (argumentative Funktion). So könnten Interpretations- oder Bedeutungshypothesen gebildet und legitimiert werden. Anders erarbeitete Hypothesen könnten nachträglich gerechtfertigt werden (vgl. ebd.: 346-347). Ähnliche Funktionen übernähme der Autor in historisierenden Literaturtheorien, was Jannidis unter produktiver Fortführung des poststrukturalistischen, autorkritischen Konzeptes von Michel Foucault gezeigt hat (vgl. Jannidis 1999). Diese könnten knapp zusammengefasst werden als: 1. Selektionsfunktion: Zuschreibung der Auswahl der Textelemente 2. Gestaltungsfunktion: Zuschreibung der Gestaltung des Textes 3. Bedeutungsfunktion: Zuschreibung der Textbedeutung 4. Erkenntnisfunktion: Zuschreibung der in einem Text formulierten Erkenntnis 5. Innovationsfunktion: Zuschreibung der innovatorischen Leistung eines Textes Dazu treten zwei weitere Funktionen, die Jannidis in einer späteren Systematisierung herausstellte (vgl. Jannidis 2004): 6. Positionierungsfunktion: Raumzeitliche Fixierung des Textes 7. Kontextfunktion: Zuschreibung der Selektion von Kontexten
Interpretation Die zentrale Stellung des Autors in der literaturwissenschaftlichen Interpretationspraxis liegt klar auf der Hand. Jannidis et al. weisen diese Einschätzung anhand ganz verschiedener Typen und theoretischer Fundierungen von Interpretationen nach und konstatieren: »Interpreten literarischer Texte beziehen sich auf den Autor, um die oder eine Textbedeutung zu ermitteln und/oder Texte gesellschaftlich, geistesgeschichtlich, medial etc. zu kontextualisieren. Dabei kann der Autorbegriff die empirische Person bezeichnen, eine intentionsfähige und intentionale Instanz oder die Funktion eines Sprechers, einer ›Ich-Origo‹ im Text. Die Bezugnahme auf die Äußerungen des empirischen Autors […] dient dann dazu, Interpretationshypothesen zu belegen beziehungsweise zu plausibilisieren und die Vielzahl potentiell einbeziehbarer Kontexte zu begrenzen.« (Jannidis et al. 1999a: 25)
In einer jüngeren Untersuchung von Simone Winko wurden zeitgenössische, literarische Interpretationen auf deren Verwendungen von Autorkonzepten untersucht, wobei versucht wurde, mit empirischen Methoden vorzugehen (Winko 2002). Sieht man von dem als problematisch einzustufenden Untersuchungsdesign ab16, weist sie mehrere interessante Aspekte der Rolle von Autoren in Interpretationstexten nach, nämlich ›Operationen‹ mit einem Autorbezug, Autor-›Funktionen‹ und die Bedeutung des Autorbezugs auch für autorkritische Theoriehintergründe. 16 Zur Kritik des Vorgehens vgl. Nieberle 2002.
68 | DER DIGITALE AUTOR
Zum ersten belegt sie empirisch, dass praktische Interpretationen auch die Funktionen erfüllen, die ihnen von den Literaturtheorien zugeschrieben werden und unterstützt damit frühere Befunde (vgl. Jannidis et al. 1999a: 2225). Im von ihr untersuchten Sample unterscheidet sie wenigstens sechs Bezugnahmen von Interpreten auf Autoren, die sie als ›Operationen‹ kennzeichnet (vgl. Winko 2002: 343-347). Diese können knapp zusammengefasst werden als: 1. Raumzeitliche Fixierung 2. Bildung von Differenzen 3. Sicherung der Einheitlichkeit des Werks 4. Sicherung von Bezugstexten 5. Sicherung von Kontexten 6. Bildung und/oder Rechtfertigung interpretativer Thesen Zweitens stellt Winko heraus, dass praktische Interpretationen ebenso wie theoretische Modellierungen auf bestimmten Annahmen über den Autor und seine Funktion für den Text beruhen. Winko hat vier zentrale Funktionen nachgewiesen, die konsequenterweise mit den Funktionen im Rahmen von (historisierenden) Literaturtheorien übereinstimmen. Diese Funktionen können knapp zusammengefasst werden als: 1. Urheberschaft (Minimalfunktion) 2. Selektionsfunktion 3. Gestaltungsfunktion 4. Bedeutungsfunktion Am interessantesten und aufschlussreichsten ist – drittens – aber Winkos Nachweis, dass sich nicht nur Interpreten mit einem herkömmlich, starken Autorbegriff bei der Interpretation ganz selbstverständlich auf den Autor und seine Intention beziehen. Auch autorkritische Interpreten beziehen sich implizit auf traditionelle Autorkonzepte. Damit gehen aber paradoxe Argumentationen einher: »In solchen Beiträgen, deren Verfasser offenbar nicht hinter den ›autorkritischen Standard‹ zurückfallen wollen, zugleich aber nicht auf den Autorbegriff in einem Sinne verzichten wollen, der über die Minimalfunktion hinausgeht, treten Inkonsistenzen auf.« (Winko 2002: 351) Hier wird also ein Befund mit empirienahen Daten untermauert, der schon weiter oben ausgeführt wurde. Interpretierende Literaturwissenschaftler können danach zwar auf den Autorbegriff verzichten, nicht aber auf die Funktionen, die er übernimmt.
Textkritik Auch die Editionsphilologie bedient sich nach Jannidis et al. zumeist ganz selbstverständlich einer klaren Vorstellung vom Autor. Grund dafür sei, dass sie die Erstellung eines authentischen Textes zum Ziel habe, der der ›wahren‹ Intention des Autors am nächsten käme. Dieses Unternehmen geschähe mittels einer ganz natürlichen Bezugnahme auf eine Autorenpersönlichkeit und seine Autorintention, dessen Name am Ende auch auf das Buch gedruckt würde. Damit sei für die Textkritik zumeist nicht die Orientierung an der Autorintention problematisch, sondern die Frage, wie dieser ›wahre‹ Text zu rekonstruieren sei und wie sich der Textherausgeber zum Textautor zu positionieren habe. Außerdem spiele die Autorintention eine Rolle bei der Diskussion um die Differenz »zwischen dem Text als Kommunikationshandlung
AUTORSCHAFT UND LITERATUR | 69
meist eines Autors und dem veröffentlichten Text samt seiner Wirkungsgeschichte als soziales Faktum« (Jannidis et al. 1999a: 27). Für den Editionsphilologen Gunter Martens ist damit auch völlig klar, dass seine Zunft von einem Autorkonzept ausgehen muss. Es kann daher auch nicht verwundern, dass die Debatte um Autorschaft in der jüngeren Vergangenheit recht intensiv gerade in der Editionsphilologie und angrenzenden Disziplinen wie der Mediävistik geführt wurde.17 Allerdings bedeutet dies nicht, dass dieses Autorkonzept ein simples darstellt: »Der Autor ist für uns Editoren ein literaturwissenschaftliches Konstrukt, das herzlich wenig mit der psycho-physischen Person des Verfassers zu tun hat, er ist – zumindest im Regelfall – tatsächlich tot. […] Das Bild, das wir uns von ihm machen, ist Ergebnis eines komplexen Deutungsprozesses.« (Martens 2004) In diesem Autorkonzept fließen also die pragmatische Voraussetzung eines Texturhebers und belegte Informationen zu seiner Person mit re-konstruierten und interpretierten Annahmen zusammen. Diese Melange ist aber die Grundlage der editorischen Arbeit, weswegen Editionsphilologen umschalten von Fragen nach dem Autor auf Fragen der Autorisation und Authentizität bzw. die komplexe Ermittlung dieser (vgl. zusätzlich auch Scheibe 2004).
Literaturgeschichtsschreibung In der Literaturgeschichtsschreibung sei der Autorbegriff die neben dem Epochenbegriff zentrale Ordnungskategorie. Zudem würde in der Darstellung zumeist eine ein-eindeutige Beziehung zwischen Autor und Werk hergestellt; alle Versuche, den Autornamen aus der Geschichtsschreibung zu verbannen seien nahezu erfolglos geblieben. Für Jannidis et al. liegt diese »Resistenz gegen Abschaffungen« (Jannidis et al. 1999a: 31) des Autorbegriffes in dessen »Multifunktionalität« (ebd.) begründet: 1. Der Autorbegriff stelle eine Verbindung zwischen der kanonisierten Literatur sowie der einstmaligen Lektüreerfolge her und vereinige damit die beiden Formen von Literatur, die in Geschichtsschreibungen vordringlich verhandelt würden. 2. Literaturgeschichtliche Kanonisierung verliefe aber vor allem über den Autornamen, dieser stelle ein zentrales Selektions- und Relevanzkriterium dar, mit dem der Output des literarischen Systems sortiert würde. Literaturkritiker und -wissenschaftler bezögen sich in ihren Verarbeitungstexten zumeist auf die Person des Autors und verglichen dessen Arbeiten sehr oft mit denen anderer Autoren. Die Häufigkeit aber, mit der ein bestimmter Autor als Bezugspunkt in Rezensionen erscheint, wäre als Maß für dessen Erfolg zu interpretieren (vgl. dazu Hartling 2004: 21-29; Heydebrand 1998: 615 sowie Rosengren 1968; Rosengren 1983).18 3. Der Autorbegriff stelle zudem ein besonders effektives Werkzeug zur Komplexitätsreduktion dar. Aus dem unüberschaubaren Textkorpus, mit dem Literaturgeschichtsschreibungen umgehen müssten, könne anhand 17 Vgl. dazu vor allem Bein et al. 2004. Zur Debatte in der Mediävistik vgl. Bein 2004 und – noch jünger – Klein 2006. Es liegt auf der Hand, dass die Mediävistik ähnlich stark an Fragen des Autors interessiert ist wie die Editionsphilologie, da sie auch mit editionsphilologischen Methoden arbeitet. 18 Die Beziehung zwischen Autorschaft und Kanon kann in der vorliegenden Arbeit nicht in aller Ausführlichkeit elaboriert werden. Zum Problem von Kanon und Kanonisierung vgl. näher Hartling 2004; Hartling 2005a.
70 | DER DIGITALE AUTOR
von Autoren mit einem repräsentativen Leben oder Werk eine zulässige Auswahl von relevanten Informationen getroffen werden. (Vgl. auch die entsprechenden Funktionen in den Feldern Literaturtheorie und Interpretation.) 4. Schließlich verdichte der Autorbegriff auch Informationen ›in sich‹. Komplexe Merkmale des Autors und seiner Texte würden zu einer prägnanten Charakteristik verknappt, damit würde wiederum ein effektiveres Arbeiten möglich.
Literatursoziologie Schließlich ließe sich auch in der Literatursoziologie ein »unproblematisches Verhältnis zum ›Autor‹« nachweisen (vgl. Jannidis et al. 1999a: 33). Dies liegt für Jannidis et al. in der Konzeption eines von der Gesellschaft abhängigen empirischen Autors begründet, die »damit die Kritik herausfordernde Überlastung des Begriffes« (ebd.) vermeiden würde. Daher ließe sich der Autorbegriff zum großen Teil ohne Schwierigkeiten verwenden, etwa wenn Autoren unter ihren sozialen, ökonomischen, rechtlichen oder politischen Rahmenbedingungen untersucht würden. Als umstritten und problematisch kennzeichnen Jannidis et al. dagegen die Beziehung zwischen Literatur und Gesellschaft und die Frage, welche Rolle der Autor dabei spiele (vgl. ebd.). Jannidis et al. beziehen sich in ihrem knappen Überblick explizit auf Pierre Bourdieu und Niklas Luhmann, zwei zentrale Theoretiker auch in der medien- bzw. kommunikationswissenschaftlichen Forschung. Und so kann es nicht verwundern, dass diese pragmatische Position der Literatursoziologie sowie deren Autorkonzept eine äußerst produktive und auch selbstverständliche Weiterführung in den Medien- und Kommunikationswissenschaften erfahren hat.19 Zum einen sind Bourdieus ›Habitus‹-Theorie sowie seine ›Theorie‹ des literarischen oder journalistischen Feldes zu einem reich rezipierten und benutzten Theoriegebäude geworden.20 Zum anderen haben sich aus Niklas Luhmanns Systemtheorie ganze Forschungsfelder in der medien- und kommunikationswissenschaftlichen Forschung herausgebildet.21 Linda Simonis hat darauf hingewiesen, dass die Medien- und Kommunikationswissenschaften umgekehrt neue Erkenntnisse bereithalten, an die die Literatursoziologie produktiv anschließen könnte.22 Auch die in der vorliegenden Studie 19 Selbstverständlich können die Medien- und Kommunikationswissenschaften in ihrer Genese in gewisser Weise auch als Verlängerung literatursoziologischer Richtungen in der Literaturwissenschaft begriffen werden. Zudem haben die Medien- und Kommunikationswissenschaften noch viel stärker und konsequenter theoretische und methodologische Positionen etwa aus der Soziologie importiert, vgl. dazu ausführlicher Hartling/Trültzsch 2004 [2007]. 20 Vgl. dazu etwa Fahlenbrach 2002 oder Hörmann 2004. 21 Eng an Luhmann entlang geführt wurde die medienwissenschaftliche Systemtheorie und die medienwissenschaftliche Variante des radikalen Konstruktivismus, vgl. dazu insbesondere die Arbeiten von Siegfried J. Schmidt, die auch im Literaturverzeichnis nachgewiesen sind; vgl. überblicksweise auch Barsch et al. 2000. Systemtheoretisch arbeitet ein bedeutender Teil der jüngeren Journalismus-Forschung, vgl. exemplarisch etwa Löffelholz 2000. 22 Sie konstatiert: »Die L[iteratursoziologie, F. H.] könnte hier auf ein Angebot von seiten [sic!] der neueren Kommunikations- und Systemtheorie zurückgreifen, insofern letztere Kunst bzw. Lit[eratur] entschieden als Kommunikation begreift, sie also einerseits in (nicht außerhalb) der Gesellschaft lokalisiert, sie
AUTORSCHAFT UND LITERATUR | 71
vertretene empirisch-literaturwissenschaftliche Theoriebasis arbeitet mit einer Autorkonzeption, die der Literatursoziologie ähnelt.
Literarisches Verstehen Ergänzend zur Darstellung von Jannidis et al. kann die Bedeutung des Autors für das Verstehen von Texten herausgestellt werden. Leser verstehen Texte nur, wenn sie davon ausgehen können, dass sie von einem Autor mit einer bestimmten Intention verfasst wurden. Der Rückbezug auf den Autor stellt also grundsätzlich die Verstehbarkeit sicher und aus dem Wissen oder den Vorstellungen über den Autor werden Bedeutungen rekonstruiert (vgl. Eibl 1999; Weimar 1999). Es ist darauf hingewiesen worden, dass auch fiktive Autorinstanzen diesem Anspruch genügen.23 Umgekehrt führt es bei autobiographischen oder ethnischen Literaturgattungen zu größten Verunsicherungen und Verstimmungen beim Leser, wenn sich der autorisierende Autor als gefälscht herausstellt (vgl. Schaff 2002). In der hier vertretenen empirischen Konzeption von Literaturtheorie vollzieht sich das literarische Verstehen weitgehend ohne Autorbezug. Dies resultiert zwingend aus dem Modell der literarischen Kommunikation, wie weiter unten ausführlich dargelegt wird. Trotzdem kann auch in der Konzeption der ETL das literarische Verstehen nicht völlig vom Autor getrennt werden; allerdings ist ein sehr viel komplexerer Zusammenhang anzunehmen (vgl. Kapitel 4.4.3). Autoren und Leser sind danach kognitiv autonom operierende Akteure, die in internen Prozessen Informationen erzeugen, welche über einen komplexen, indirekten, äußeren Prozess abgeglichen werden. Leser bilden sich danach bereits über schon vorhandene interne und externe Kontexte bestimmte Annahmen über Autoren. Diese setzen sie in Bezug mit Aussagen und Selbstaussagen der Autoren. Umgekehrt konstruieren die Autoren auch in einem ähnlich strukturierten Prozess ein Bild von den Rezipienten und von sich selbst. Damit kommt es aber zu einer doppelten Konstruktion des ›Vernunftwesens‹ Autor. Zum einen stelle es eine Konstruktion durch den Leser dar, zum anderen wäre es das Resultat einer Selbstinszenierung der Autoren, die über den Konstruktionsprozess der Leser ja nicht zuletzt in ihrer Rolle als Leser selbst sehr wohl Bescheid wissen (vgl. Jannidis 1999; Rusch 2002b).
3.2.2 Der ›marginalisierte‹ Autor: Kritiken am Autorbegriff Bis hierher wurden zahlreiche systematische Belege zusammengestellt für die These, dass das Autorkonzept nicht nur als interpretatorische Verstehenskategorie bedeutsam ist, sondern darüber hinaus als zentrale Kategorie der Textproduktion. Diese Einschätzung gilt trotz der dargestellten Ambivalenzen und trotz des heterogenen Diskurses. Im literaturpraktischen Umgang mit Texten wird weiterhin ganz natürlich von einem Autor als Urheberinstanz ausgegangen. Umso bemerkenswerter ist das in der Literaturtheorie vertretene »Misstrauen gegenüber dem Autor als Interpretationskategorie« (Jannidis et al. 1999a: 11) und der populäre Abgesang im poststrukturalistischen »Tod des Autors«. Bemerkenswert ist diese negative Einschätzung offenbar auch, jedoch andererseits als sich selbst organisierenden und selbst selegierenden Zusammenhang begreift« (Simonis 2004: 402). 23 Ein Beispiel dafür ist die fiktive Autorpersönlichkeit Homer, vgl. Osinski 2002.
72 | DER DIGITALE AUTOR
weil die Anzahl der kritischen Positionen recht gering ist. Mit Jannidis et al. können insgesamt fünf zentrale Angriffe in der Diskussion seit 1945 rekonstruiert werden. Vier davon stellen Jannidis et al. explizit heraus, die fünfte (konstruktivistische Ansätze, hier vor allem in der Anwendung der Empirischen Literaturwissenschaft) wird von ihnen nur als untergeordnet eingestuft und beiläufig erwähnt. Hier wird allerdings die Auffassung vertreten, dass sie in ihrer Wichtigkeit den anderen gleichrangig beigestellt werden muss. Diese Angriffe entstammen aus ganz verschiedenen theoretischen Richtungen und sind zeitlich sowie gesellschaftlich je anders verortet. Deswegen mutet es unangemessen an, all diese heterogenen Positionen unter das poststrukturalistische Label »Tod des Autors« zu pressen (vgl. ebd.: 16 sowie Antor 2004). Zusätzlich, so scheint es, kommen auch diese Gegenpositionen nicht ganz ohne ein Autorkonzept aus, denn es verbirgt sich hinter anderen Namen oder ist implizit enthalten. Zur Verdeutlichung dieser Thesen werden die Kritiken im Folgenden zusammengefasst (vgl. Jannidis et al. 1999a: 11-17).
Wimsatt/Beardsley (1946): »Der intentionale Fehlschluss« Nach der Position von William K. Wimsatt und Monroe C. Beardsley ist die Textbedeutung bei der lyrischen Interpretation völlig unabhängig von der Autorintention zu sehen und zu ermitteln. Indem der Dichter erfolgreich seine Konzeption in ein literarisches Werk umsetzt, sei diese Konzeption (Intention) auch aus dem Werk selbst erkennbar. Damit sei nur der Text der legitime Gegenstand der Interpretation und seine Bedeutung ist vom Urheber unabhängig. Da das Gedicht nach seiner Veröffentlichung dem Zugriff des Autors entzogen sei, gehöre es sogar ausschließlich der Öffentlichkeit, keineswegs jedoch dem Autor. Deshalb solle und dürfe die Interpretation nur textinterne Belege verwenden und müsse text-externe, autorindividualistische Beweise ignorieren (vgl. Wimsatt/Beardsley 2000 [1946]24; zur Diskussion des Textes vgl. auch Lauer 1999b: 212-214).
Kayser (1957): »Wer erzählt den Roman?« Wolfgang Kayser untersuchte den neuzeitlichen Roman und unterschied dabei systematisch zwischen dem Autor als Urheber des Textes und dem Erzähler des fiktionalen Werkes. Der Autor als Bezug der Interpretation wurde dabei zwar nur zum Teil negiert, seine Relevanz aber deutlich eingeschränkt. Bei der Interpretation literarischer Texte müsse berücksichtigt werden, dass ein vom Autor geschaffener Erzähler ›spricht‹. Somit könnten dessen Äußerungen im Text nicht mehr als Wiedergabe der direkten Autormeinung gewertet werden (vgl. Kayser 2000 [1957]25).
24 Originaltext: William K. Wimsatt/Monroe C. Beardsley, 1946: The Intentional Fallacy. In: The Sewanee Review. Jg. 54 (1946). S. 468-488. Die gekürzte Übersetzung in Jannidis et al. 2000b basiert auf der überarbeiteten Fassung: William K. Wimsatt, 1954: The Verbal Icon. Studies in the Meaning of Poetry. Lexington: University Press of Kentucky. S. 3-18. 25 Originaltext: Wolfgang Kayser, 1957: Wer erzählt den Roman? In: Neue Rundschau. Jg. 68 (1957). S. 444-459. Der gekürzte Abdruck in Jannidis et al. 2000b basiert auf: Kayser, Wolfgang, 1958: Wer erzählt den Roman? In: Wolfgang Kayser, 1958: Die Vortragsreise. Studien zur Literatur. Bern: Francke. S. 82101.
AUTORSCHAFT UND LITERATUR | 73
Booth (1961): Impliziter Autor Wayne C. Booth fügte sein Konzept des ›impliziten Autors‹ (›implied author‹) zwischen dem Autor als realem Urheber des Textes und dem Erzähler als dessen fiktive Sprecherinstanz ein. Als impliziter Autor sei der Autor selbst zu fassen, wenn er sich als Implikat selbst im Text ausdrücke und inwieweit er das tue. Damit aber stelle der implizite Auto« sowohl den Sinngehalt als auch den moralischen und emotionalen Gehalt des Werkes dar (vgl. Booth 2000 [1961]26).
Barthes (1968), Foucault (1969): »Tod des Autors« Am nachhaltigsten ist der Autor als Gegenstand der Interpretation von der poststrukturalistischen Kritik erschüttert worden. Das Diktum vom »Tod des Autors« wurde – mehr oder weniger aus dem Zusammenhang gerissen – zum populären, kritischen ›Slogan‹ in der Literaturtheorie. Roland Barthes27 konzipierte in seinem Text »Tod des Autors« (vgl. Barthes 2000 [1968]28) einen Autor, der intertextuell verortet ist, nur noch fremde Rede wiedergibt und neu verknüpft. Der Autor›gott‹ (›Auteur-Dieu‹29) werde abgelöst vom Schreiber (›écrivain‹ oder ›scripteur‹) genauso wie der ›aktive‹ Text anstelle des ›passiven‹ Autors tritt. »Nicht der Autor produziere den Text, sondern der Text selbst bringe sich selbst hervor – als Wiederholung anderer Texte« (Jannidis et al. 1999a: 14). Als Reaktion auf Barthes’ Text, aber ohne diesen explizit zu erwähnen, skizziert Michel Foucault30 ein Jahr später in »Was ist ein Autor?« (vgl. Foucault 2003 [1969]31) das Forschungsprogramm einer historischen Analyse des Autorbegriffes. Foucault stellt den Begriff als überholte Kategorie in der Moderne heraus. Stattdessen sei er »eine Funktion, mit dessen Hilfe bestimmte Texte als ›Werke‹ klassifiziert und mit besonderen Eigenschaften versehen werden können. Er reguliert und diszipliniert den Umgang mit Literatur.« (Jannidis et al. 1999a: 14) Diese beiden kritischen Positionen werden 26 Originaltext: Wayne C. Booth, 1961: The Rhetoric of Fiction. Chicago: University of Chicago Press. Der Abdruck der Ausschnitte aus dem dritten und dem sechsten Kapitel in Jannidis et al. 2000b mit einer Überschrift von den Herausgebern basiert auf: Booth, Wayne C., 1974: Die Rhetorik der Erzählkunst. Bd. 1. Übers. von Alexander Polzin. Heidelberg: Quelle & Meyer. S. 77-84, 162-163. 27 Zum Werk Roland Barthes’ vgl. einführend auch Röttger-Denker 1997. 28 Originaltext: Barthes, Roland, 1968: La mort de l’auteur. In: Manteia. Jg. 5 (1968). S. 12-17. Die Übersetzung von Matías Martínez in Jannidis et al. 2000b basiert auf: Barthes, Roland, 1994: La mort de l’auteur. In: Roland Barthes, 1994: Œuvres complètes. Bd. 2: 1966-1973. Hrsg. von Éric Marty. Paris: Editions du Seuil. S. 491-495. 29 In Barthes’ Text erfolgt die Verwenung der Groß- und Kleinschriebung beim Begriff »Auteur« nicht immer einheitlich, vgl. dazu näher Barthes 2000 [1968]: 185, Fussnote 1. 30 Zum Werk Michel Foucaults vgl. einführend auch Fink-Eitel 1997. 31 Originaltext: Foucault, Michel, 1969: Qu’est-ce qu’un auteur? In: Bulletin de la Société française de philosophie. Jg. 63 (1969). H. 3 (Juli-September). S. 73104. (Vortrag von Michel Foucault vor den Mitgliedern der Französischen Gesellschaft für Philosophie, Collège de France, 22. Februar 1969). Die jüngste Übersetzung basiert auf: Foucault, Michel, 1994: Qu’est-ce qu’un auteur? In: Michel Foucault, 1994: Dits et Écrits, 1954-1988. I, 1954-1969. Édition établie sous la direction de Daniel Defert et François Ewald avec la collaboration de Jacques Lagrange. Paris: Éditions Gallimard. S. 789-821.
74 | DER DIGITALE AUTOR
genauso wie das poststrukturalistische Theoriegebäude weiter unten sehr viel ausführlicher diskutiert (vgl. Kapitel 4.3 und 4.4).
Schmidt (1980): Handlungsbereich literarische Produktion Die Kritik der Empirischen Literaturwissenschaft am Autor als Interpretationskategorie ist von Jannidis et al. nur ergänzend erwähnt worden, was mit der (traditionell) literaturwissenschaftlichen Fokussierung des Artikels zusammenhängen mag. In der vorliegenden Arbeit wird eine handlungstheoretische Konzeption vertreten, die sich explizit an der Empirischen Literaturwissenschaft orientiert. Daher wird auf diese Kritik näher eingegangen. In dem Bestreben, empirische sozialwissenschaftliche und psychologische Methoden für die Literaturwissenschaft nutzbar zu machen, orientiert sich die Empirische Literaturwissenschaft (ELW) am Diskurs um den (Radikalen) Konstruktivismus (vgl. Schmidt 2000a) und bezieht dessen Ergebnisse auf Literatur und literarische Kommunikation (vgl. dazu überblickend Schmidt 2000b). Damit verabschiedet die Empirische Literaturwissenschaft aber die Interpretation grundsätzlich als wissenschaftliche Operation. Die Ermittlung der Textbedeutung an sich wird völlig anders strukturiert, weil die Frage nach dem Zusammenhang zwischen Autorintention und Textbedeutung als grundsätzlich irrelevant verworfen wird. Siegfried J. Schmidt hat 1980 in seinem »Grundriss der empirischen Literaturwissenschaft« diese Position erstmalig systematisch dargelegt und sie seitdem zusammen mit der NIKOL32-Gruppe ausgearbeitet (vgl. Schmidt 1980; Schmidt 1982b sowie aktueller Schmidt 2000b, zur konstruktivistischen Position innerhalb der Literaturtheorie vgl. auch Rusch 2000a: 393-396). Ihre Grundannahmen – wie sie in diesem Zusammenhang wichtig sind – können wie folgt zusammengefasst werden: (a) Literarische Kommunikation stelle keinen Austausch von Informationen dar, daher hätten literarische Texte als Medien dieser Kommunikation auch keine Bedeutung ›an sich‹, die es nur zu entschlüsseln gelte. Stattdessen könne Kommunikation »als parallele Konstruktion von Informationen im kognitiven Bereich von Individuen angesehen werden […], die durch strukturelle Kopplung bereits einen konsensuellen Bereich ausgebildet haben.« (Schmidt 2000b: 64) Das bedeute aber, dass literarischen Kommunikationsmitteln (Texten) Bedeutungen erst im Prozess der Kommunikation zugeordnet würden. Diese Zuordnung geschehe im kognitiven Bereich der Kommunikationsteilnehmer (hier: Autor und Leser), die Bedeutungskonstruktion sei also in höchstem Maße subjektabhängig. Keinesfalls könne aber der Autor bestimmte Bedeutungen in seinen Text einschreiben oder seine Intention verarbeiten (vgl. ebd.: 64-65). (b) In der Empirischen Literaturwissenschaft wird von der Analyse der Texte sowie der Textintentionen umgeschaltet auf die Analyse von TextHandlungen, vielmehr auf Handlungen, »die solche Phänomene (meist Texte) fokussieren, die der Handelnde für literarisch hält« (ebd.: 66), nämlich Produktion, Vermittlung, Rezeption und Verarbeitung. (Nur) Diese Untersuchungen könnten empirisiert werden, sie richteten sich auf die Bedingungen, Folgen und Konsequenzen von literarischen Handlungen. In dieser Betrach32 NIKOL (»Nicht Konventionelle Literaturwissenschaft«): Gruppe um S. J. Schmidt, die seit 1977 die Empirische Literaturwissenschaft konzipierte und ausarbeitete, vgl. dazu näher Barsch 2000; Viehoff 2000.
AUTORSCHAFT UND LITERATUR | 75
tungsweise ist aber der ›Aktant‹ literarischer Produzent (Autor) beim Umgang mit dem Kommunikat ›Text‹ den anderen ›Aktanten‹ (Distributoren, Kritiker und Leser) gleichgestellt. Damit wird zudem deutlich, dass Autoren in dieser Modellierung keine privilegierte Stellung innehaben (ebd.: 66-68). (c) Resultierend aber ergäben sich ›vernichtende‹ Schlussfolgerungen für das »Zentralthema der Literaturwissenschaft« (ebd.: 67), nämlich die Werkinterpretation: »Sowohl die Unterscheidung zwischen Text und Kommunikat als auch die Annahme einer strikten Subjektdependenz von Bedeutungen macht eine Vorstellung von Interpretation als Ermittlung der ›richtigen‹ Bedeutung eines literarischen Textes oder als Ermittlung der Autorintention unsinnig: ›Richtige‹ Bedeutungen könnte man nur ermitteln, wenn es einen objektiven Maßstab gäbe, der außerhalb subjektiver Kognitionsbereiche läge; und Autorintentionen sind unzugänglich, da Autorkommunikat und Autortext nicht einfach identifiziert werden können.« (Ebd.: 6768)
Während die Interpretation aus dem ›Aufgabenkatalog‹ der Empirischen Literaturwissenschaft ausscheide, blieben andere traditionellen Felder erhalten. Bestehen bliebe z. B. die Textanalyse, die um sozialwissenschaftliche Methoden ausgeweitet wurde. Außerdem öffne sich die Empirische Literaturwissenschaft für neue Fragen und Probleme: »nach literarischem Verstehen und seinen Bedingungen; nach Persönlichkeitsprofilen verschiedener Typen von Literaturproduzenten; nach dem Literaturbegriff in Deutschland (Ost und West), seiner Entstehung und Tradierung; nach Voraussetzungssystemen exemplarisch ausgewählter Autoren usw.« (Ebd.: 68) Damit wird deutlich, dass sich die Empirische Literaturwissenschaft trotz ihrer Kritik an der Autorintention keineswegs gegen den Autor per se wendet. Stattdessen interessiert sie sich gerade für die kognitiven und sozialen Bedingungen, unter denen Literaturproduzenten arbeiten (vgl. Jannidis et al. 1999a, Anm. 41). Das so strukturierte Problemfeld des Literaturproduzenten bildet die Basis für die weiter unten dokumentierte Diskussion um den Handlungsbereich der literarischen Produktion (Kapitel 5).
Zusammenfassung Zusammenfassend lässt sich feststellen, dass die Kritik der Empirischen Literaturwissenschaft (ELW) am Autor als Interpretationskategorie vergleichsweise wenig in den literaturwissenschaftlichen Diskurs eingegangen ist. Das mag mit der Entstehungsgeschichte der ELW zusammenhängen, die ja bekanntermaßen von der Ausgründung einer empirisch orientierten Literaturwissenschaft hin zu einer über den literarischen Text hinausgehenden Medienwissenschaft geführt hat (vgl. Schmidt 2001; Viehoff 2002). Allerdings, so stellen Jannidis et al. heraus, gilt die Einschätzung der geringen Wirkung auch für die anderen kritischen Positionen, nämlich Wimsatts und Beardsleys »intentionalen Fehlschluss«, Kaysers »Erzähler« sowie Booth’ »impliziten Autor«: »Dennoch haben solche und vergleichbare Einwände gegen den Autor einen ungleich geringeren Einfluß auf die literaturwissenschaftliche Arbeit als die Polemik von Barthes und Foucault.« (Jannidis et al. 1999a: 15) Prominent geworden ist also vor allem die vergleichsweise knapp skizzierte poststrukturalistische Kritik, die zudem in verzerrter Form Einzug in die moderne literaturwissenschaftliche Diskussion gehalten hat. Das populäre Dik-
76 | DER DIGITALE AUTOR
tum »Tod des Autors« fasst die Kritik ja gerade nicht adäquat zusammen, wie Fotis Jannidis aufgezeigt hat. Danach hätte Michel Foucault in seinem Vortrag »Was ist ein Autor« gerade nicht gegen die Verwendung des Autorbegriffes argumentiert, ebenso wenig wie er für ihn argumentierte. Foucault wäre es stattdessen um eine historische Analyse gegangen, als deren Ausgangspunkt er den bereits vollzogenen Wechsel vom Autor hin zur Autorfunktion setzte. In einem utopischen Entwurf hätte er eine Zukunft modelliert, die ohne Autorfunktionen auskomme (vgl. Jannidis 1999: 353-354). Die plakative Formel vom »Tod des Autors« fasst die poststrukturalistische Autorkritik also in unangemessener Weise zusammen. Darüber hinaus steht sie allgemein für die autorkritischen Konzepte und scheint damit »theoretische Positionen zu vereinen, die inhaltlich nichts miteinander zu tun haben« (Jannidis et al. 1999a: 16). Grund dafür, so vermuten Jannidis et al., ist der Versuch der Literaturwissenschaft, die eigene Praxis der Interpretation von einer ›naiven‹, autorzentrierten abzusetzen und damit dem eigenen Geltungsschwund entgegenzuwirken.33 Damit wurde aber die eingangs skizzierte paradoxe Situation begründet, dass »die Theoriedebatte um den Autor und die literaturwissenschaftliche Praxis nebeneinander herlaufen« (ebd.: 17).
3.3 Autorschaft als Ausdruck von Genie vs. Autorschaft als Handwerk: Historische Autorbegriffe Fokussiert die Unterscheidung zwischen dem ›nützlichen‹ und dem ›marginalisierten‹ Autor eher auf die Ebene der Literaturtheorie, gibt es auch auf der poetologischen Ebene eine zentrale Unterscheidung. So kann zwischen dem autonomen und dem heteronomen Autor unterschieden werden, oder anders formuliert, dem Autor, der sich selbst als Genie versteht, und dem Autoren, der eine handwerkliche Poetologie vertritt. Diese Autorkonzepte lassen sich in verschiedenen, historischen Autorschaftsmodellen nachvollziehen, womit sich eine diachrone Rekonstruktion historischer sowie noch gegenwärtiger Autorschaftsmodelle ergibt. Dabei ist es wichtig zu bemerken, dass die Ausprägung einer genialistischen oder handwerklichen Poetik durchaus nicht an ein bestimmtes Dispositiv gebunden ist und nur eingeschränkt als Modephänomen angesehen werden kann, das die Poetologie des einzelnen Autors überformt. Stattdessen stellt die Wahl eines entsprechenden Autorschaftsmodells durchaus eine persönliche Setzung eines jeden einzelnen Autors dar, mit historisch zu unterscheidenden Freiheitsgraden in der Wahlmöglichkeit. In der Geniepoetik wurde der Autor als Genie verstanden, das gegen Regeln der Poetik verstoßen muss und dessen Können sich daran misst, wie individuell und autonom er arbeitet. Im bereits in der Antike formulierten Inspirationsmodell wird der inspirierte Dichter (›poeta vates‹) nur als Niederschreiber von Gedanken einer göttlichen Instanz angesehen. Der Dichter wurde somit allein als Medium angesehen, als reiner Schreiber, durch den die göttliche Inspiration auf das Papier floss. Auch die Berücksichtigung der Individualität des Autors wurde bereits in der Antike als Untersuchungskategorie eingeführt. Aus der Person des Autors leiteten sich der Geltungsan33 Dies kann an dieser Stelle nicht ausführlicher entwickelt werden, vgl. dazu Jannidis et al. 1999a: 15-17.
AUTORSCHAFT UND LITERATUR | 77
spruch und die Eigenschaften der Texte ab. Im 18. Jahrhundert wurde das Konzept vom individuellen, autonomen Autor während der Entwicklung der Genieästhetik zum vorherrschenden Modell. Schließlich wurde während der Renaissance die Individualität eines Autors um die Berücksichtigung seines eigenen, unverwechselbaren Stils erweitert. Zum einen wich der Autor bewusst von der Tradition ab, wenn er seine Texte mit seiner eigenen Handschrift versah. Zum anderen spiegelte sich durch die Verbindung von Werk und Biographie seine persönliche, schriftstellerische Entwicklung wider. Dieses Modell kann damit aber zulässig als ein starkes Autorschaftskonzept angesehen werden. Die Regelpoetik erfasst den Autor – im Gegensatz zum Geniemodell – als poetischen Handwerker, dessen Können sich am regelgerechten Einsatz der poeisis misst. Auch dieses Modell hat eine weite historische Vorgeschichte, wobei es mit der dominanten Genieästhetik seit dem 18. Jahrhundert im generellen Diskurs an Bedeutung verloren hat. Im Kompetenzmodell wurde der Autor als kompetenter Handwerker (›poeta faber‹) konzipiert. Er zeichnete sich durch eine umfassende Kenntnis des poetischen Fachwissens aus und hatte die poetischen Regeln korrekt zu gebrauchen. Im Mittelalter entwickelte sich ein darauf aufsetzendes Modell der Autorität. Autoren mussten sich auf einen allgemein verbindlichen, fest definierten Kanon von bedeutenden schriftstellerischen Vorgängern beziehen. Die Autorität der kanonisierten Schriftsteller wurde somit auf die neu niedergeschriebenen Texte ausgeweitet. Autoren hatten die klassischen Texte nachzuahmen, deren Gültigkeit wurden im Modus der Nachahmung (›imitatio veteris‹) bewertet. Damit wird das Handwerker-Modell als ein schwaches Autorschaftskonzept rekonstruierbar. Die Unterscheidung zwischen Geniepoetik und Regelpoetik stellt eine sehr viel stärker diachron wirksame Analysemethode dar, dient also vor allem der Erforschung einer Geschichte von Autorschaftskonzepten. Ebenso sollen an dieser Stelle nicht die gegensätzlichen Konzepte und deren Charakteristika diskutiert werden. Stattdessen gilt es, die historische Entwicklung beider Strömungen und deren wechselvolles Nebeneinander darzustellen. In der einschlägigen Forschungsliteratur wird immer wieder eine teleologische, holzschnittartige Rekonstruktion der Geschichte von Autorschaftsmodellen beklagt.34 Diese würde sich an folgenden Eckpunkten orientieren: (1) In der althochdeutschen Literatur herrschte die mündliche Literatur vor, die im Modus von kollektiver, anonymer Autorschaft weitergegeben wurde. Hier stand der Stoff im Vordergrund, der zumeist dem kulturellen Gedächtnis entstammte, der Vermittler trat demgegenüber zurück. Auch aufgezeichnete Literatur blieb in ihrer Kollektivität anonym, der Schreiber erwarb daran keine Autorschaft. (2) Daran anschließend verdichteten sich in der mittelhochdeutschen Literatur die Strukturen der mündlichen und nun zunehmend schriftlichen Weitergabe hin zu einer Regelpoetik, in der die korrekte und kompetente Verwendung von Regeln bei der Niederschrift von Texten im Vordergrund stand. Schreiber sahen sich als Handwerker, die bereits vorhandene Stoffe bearbeiteten, und erwarben keine Rechte am Inhalt. (3) Im »Sturm und Drang« wurde die Regelpoetik zugunsten der Genieästhetik aufgelöst. Die kollektive Autorschaft wich einem starken Modell 34 So der Grundtenor in Detering 2002a, vgl. etwa Herrmann 2002; Lauer 2002.
78 | DER DIGITALE AUTOR
vom Autor als Genie, der sein Werk individuell schöpfte, und aus dessen alleiniger Intention der Text verstanden werden konnte. Aus diesem Geist wurde um 1800 das moderne Urheberrecht geboren, das die Rechte der Autoren an ihren Werken endgültig fixierte und eine eindeutige Beziehung zwischen Autor und Text herstellte. (4) Mit dem (post-)strukturalistischen Abgesang auf den Autor setzte allmählich eine kritische Sicht des Autors für die Bedeutung und Interpretation von Texten sowie eine Aufwertung des Lesers ein. In der digitalen Literatur werden nun die Hoffnungen auf den emanzipierten, schreibenden Leser, den »Wreader« endlich eingelöst. Die kollektive Autorschaft wird – neu und besser – wiedergeboren. Wie zu zeigen sein wird, kann eine solche Rekonstruktion zu recht in das Reich der Mythen verbannt werden.35 Stattdessen ist festzustellen, dass »Autorschaft schon für die Zeit um 1800 als heterogene Kategorie zu verstehen sei, die seither stets neu formuliert werden müsse« (Waldow 2002: 582). Diese Einschätzung gilt aber – in etwas eingeschränktem Maß – bereits für das Mittelalter (vgl. Bein 1999). Es wird also deutlich, dass monolithische Fokussierungen auf Autorkonzepte, die in einer logischen Abfolge stehen, verabschiedet werden müssen. Stattdessen ist ein »Nebeneinander vielfältiger, auch rivalisierender Autorschaftsmodelle« (Waldow 2002: 582) anzunehmen, die notwendigerweise durch historische Analysen unter systematischen Gesichtspunkten (ebd.: 584) und mit Bezug auf das jeweilige Untersuchungsmaterial konkretisiert werden müssen. Gründe für diese holzschnittartige, teleologische Rekonstruktion der Entwicklung von Autorschaftskonzepten können offenbar nicht in der literarwissenschaftlichen Praxis gesucht werden. Stattdessen spiegeln diese Darstellungen anscheinend die literaturtheoretischen Paradigmenwechsel wider, wie anhand der Begriffsgeschichte in Überblicksdarstellungen deutlich wird. Ausnahmsweise sollen zwei Beispiele ausführlicher zitiert werden, um die teleologische Argumentation hervorzuheben: »Die weitestgehende Position bezeichnet man als ›Biographismus‹. Seine Vertreter gehen davon aus, dass zwischen Leben und Werk eines Autors ein so enges Bedingungsverhältnis bestehe, dass eine Analyse der biographischen Fakten Aufschluss über die Bedeutung des literarischen Textes gebe. Diese Auffassung findet man besonders deutlich ausgeprägt in den populären Dichterbiographien des 19. Jahrhunderts. [...] Das gilt auch für hermeneutische Positionen, die zwischen Leben und Werk eine vermittelnde Instanz annehmen. Einflussreich war hier zum einen Wilhelm Diltheys Begriff vom ›Erlebnis‹ des Autors, das dessen spezifisches Verhältnis zur Wirklichkeit prägt und sich im Werk niederschlägt (Das Erlebnis und die Dichtung, 1906). Zum anderen ist es das Konzept der ›Autorintention‹, das für die hermeneutische Tradition, die sich auf Friedrich Schleiermacher beruft, von zentraler Bedeutung ist.« (Jannidis et al. 2000a: 11-12) 35 Zudem ist umgekehrt zu fragen, ob eine solche teleologische Rekonstruktion wirklich innerhalb der Forschung noch vertreten wird oder nur als ›Zerrbild‹ beibehalten wird, vor dem sich die jüngeren Forschungsergebnisse als besonders progressiv abheben. Es fällt auf, dass Jannidis et al. bereits in ihrem Forschungsüberblick von 1999 selbstverständlich von der »Gleichzeitigkeit konkurrierender Modelle« (Jannidis et al. 1999a: 9) sprechen. Dieser Befund wird im selben Band von Thomas Bein anhand des Autors im mittelalterlichen Literaturbetrieb exemplifiziert, vgl. Bein 1999.
AUTORSCHAFT UND LITERATUR | 79 »In der Mitte des 20.Jh.s bestimmten werkimmanente Methoden […] den Rekurs auf die Intention des A[utor]s als methodischen Fehler […], und bis heute gilt dieser ›Fehlschluß‹ als naiv. Ende der 1960er Jahre setzte sich […] das auf R. Barthes zurückgehende und vom Poststrukturalismus popularisierte Schlagwort vom Tod des Autors, J. Kristevas Verabschiedung des A[utor]s zugunsten einer universalen Intertextualität und M. Foucaults historische Relativierung des A[utor]s als eine auf die Moderne begrenzte diskursive Funktion durch. […] [Anschließend, F. H.] spielte das Konzept des A[utor]s in der Lit[eratur]theorie lange Zeit eine untergeordnete Rolle, bis es seit den späten 1970er Jahren durch neuere Entwicklungen […] in einigen Ansätzen zumindest implizit eine Aufwertung erfuhr. […] [Die] Diskrepanz zwischen der reduktiven theoretischen Reflexion über den A[utor] und der lit[eratur]wissenschaftlichen Praxis ist erst durch die Wideraufnahme der Debatte um den A[utor] in den 1990er Jahren […] aufgedeckt worden.« (Nünning 2004a: 36)
Damit ist aber das Forschungsprogramm rund um den Autorbegriff und seine historische Konkretisierung angesprochen. Erschwert wird es dadurch, dass »[e]ine umfassende Darstellung der Geschichte des europäischen Autorbegriffs« (Jannidis et al. 1999a: 4) momentan noch nicht existiert. Nach Jannidis et al. lassen sich insgesamt neun maßgebliche Autorschafts-Modelle seit der Antike feststellen, die nach der Rolle der Autorindividualität differenziert werden können. Auf der einen Seite stehen Modelle, in denen der einzelne Autor in seiner Individualität zurücktritt. An seine Stelle werden überindividuelle Instanzen gesetzt. Dazu zählen Modelle, die auf die Inspiration, die Kompetenz, die Autorität und Kollektivität fokussieren. Auf der anderen Seite stehen Modelle, in denen die biographische sowie historisch je zu spezifizierende Individualität von Autoren im Zentrum der Betrachtungen steht. In diesen Modellen werden Individualität, Stil, Intention, Copyright und Gender in den Vordergrund der Betrachtungen gerückt. Die Modelle werden im Folgenden kurz zusammengefasst (vgl. ebd.: 4-11 sowie Martinez 2004: 40): (1) Inspirationsmodell: Dieses antike Modell wurde im »Ion« von Platon (um 428 bis ca. 347 v. Chr.) formuliert, der vom inspirierten Dichter (›poeta vates‹) ausging. Der Autor produzierte zwar materiell den Text, allerdings stellte er nur ein Medium dar, das Gedanken einer göttlichen Instanz hervorbrachte. Seine individuelle Intention war für das richtige Verständnis des Textes bedeutungslos. (2) Kompetenzmodell: In Aristoteles’ (384-322 v. Chr.) Poetik wurde der Autor als kompetenter Handwerker (›poeta faber‹) charakterisiert, der sich durch die Kenntnis des Fachwissens und den korrekten Gebrauch der poetischen Regeln auszeichnete. (3) Autoritätsmodell: In der mittelalterlichen Poetik mussten sich Autoren zwingend auf einen definierten Kanon bedeutender Vorgänger und damit auf deren Autorität beziehen. Aus dem Kanon wurde zudem die Geltung ihrer Texte im Modus einer Nachahmung der klassischen Autoren (›imitatio veteris‹) abgeleitet. (4) Individualitätsmodell: Die Individualität eines Autors wurde bereits in der griechischen Antike, speziell von den Schülern Aristoteles’, als Untersuchungskategorie eingeführt. Wichtig war dabei die individuelle Person des Autors, die den Geltungsanspruch seiner Texte legitimierte und die Texteigenschaften erklärte. Auch in der Folgezeit wurde dieses Modell (sporadisch) aufgegriffen. Mit der Auflösung der Regelpoetik im 18. Jahrhundert und der
80 | DER DIGITALE AUTOR
damit verbundenen Entwicklung einer Genieästhetik hielt der individuelle Autor Einzug als zentrale Bezugskategorie. (5) Stilmodell: In der Renaissance wurde die Kategorie der Individualität auf den Stil des Autors erweitert. Indem ein Autor Texte mit seinem unverwechselbaren Stil versah, wich er bewusst von der Tradition ab. Indem Werk und Biographie gekoppelt werden, spiegelte das Gesamtwerk nicht nur die Persönlichkeit, sondern auch seine persönliche Entwicklung wider. (6) Intentionsmodell: Ebenfalls mit der Individualität war die Kategorie der Autorintention verknüpft, die in diesem Modell als zentrale Verstehensnorm von Texten und als Grundlage für Interpretationen eingeführt wurde. Als zentrale Kategorie wurde die Intention offenbar ebenfalls im 18. Jahrhundert eingeführt. (7) Copyrightmodell: Gleichfalls im 18. Jahrhundert, also zusammen mit den Kategorien Individualität und Intention, wurde die Vorstellung von einem geistigen Eigentumsrecht am Werk formuliert und damit das juristische Autorschaftsmodell begründet. Damit, so Jannidis et al. ist »erst im 18. Jahrhundert […] das moderne Konzept von Autorschaft ausgebildet. Juristische, ökonomische und produktionsästhetische Vorstellungen sind hier zusammengeführt« (Jannidis et al. 1999a: 7).36 (8) Kollektivitätsmodell: Dass kollektive Autorschaftsmodelle in der modernen, digitalen Dichtung des ausgehenden 20. Jahrhunderts nichts genuin Neues für die Literatur darstellen, kann nicht nachdrücklich genug herausgestellt werden. Wie bereits weiter oben diskutiert, lassen sich schon frühzeitig Formen literarischer Autorschaft nachweisen, in der der individuelle Autor gegenüber einem Kollektiv zurücktritt. Prominente Beispiele sind die Bibel oder Teile der Textproduktion im Mittelalter (vgl. Bein 1999). Auch in neuzeitlichen Literaturepochen wie dem Sturm und Drang, der Romantik und der Moderne lassen sich kollaborative Autorschaftskonzepte feststellen (vgl. Martinez 2004: 40). (9) Gendermodell: Wie Matías Martínez herausstellte, sind Autorschaftskonzepte zudem auch von geschlechtsspezifischen Vorstellungen geprägt: »So werden im 18./19. Jh. die prestigereichen Formen literar[ischer] A[utorschaft] als ›männlich‹ definiert und fast ausschließlich von Männern ausgeübt« (ebd.). Dieser Befund ist parallel mit den Zusammenhängen zwischen (männlich dominierten) Modellen von Kanonisierung und (unterdrückten) weiblichen Autorinnen (vgl. Heydebrand/Winko 1994) zu sehen. In der feministischen Literaturwissenschaft spielt die Debatte um Autorschaft unter Berücksichtigung von Genderfragen damit eine zentrale Rolle (vgl. dazu Miller 2000 [1986]). Mit Jannidis et al. muss allerdings konstatiert werden, dass diese Modelle in der historischen und auch länderübergreifenden Perspektive nur idealtypische Rekonstruktionen darstellen. Sie wenden sich mit dieser Einschätzung auch gegen eine Theoriedebatte, die von linearen Entwicklungen von Autorschaftsmodellen ausgeht, von klar dominierenden Kategorien und eindeutigen Modellen. Stattdessen stellen sie heraus, dass Autorschaftskonzepte in ihrer jeweils geschichtlich konkreten Ausprägung vielfältiger sind und konstatieren die Gleichzeitigkeit konkurrierender Modelle. Außerdem verweisen sie darauf, dass Autorschaftsmodelle in ihrer Entstehung widersprüchlicher und nicht-linearer sind, als allgemein in der Debatte angenommen. Dies be36 Vgl. dazu näher auch das Standardwerk Bosse 1981.
AUTORSCHAFT UND LITERATUR | 81
weisen sie am Beispiel des Copyrightmodells. So belegen Jannidis et al., dass das juristische Autorschaftsmodell keineswegs eine Erfindung des liberalen Bürgertums war, sondern zunächst Interessen der Zensur entsprang (vgl. Jannidis et al. 1999a: 8). Unterstützt werden diese Einschätzungen durch eine jüngere Untersuchung von Britta Herrmann, die sich ebenfalls auf die Herausbildung des Urheberrechts im 18. Jahrhundert bezog. In ihrem Aufsatz stellte sie fest, dass das 18. Jahrhundert zwar tatsächlich ein Ende von einander ablösenden und ausdifferenzierenden Modellen von Autorschaften markierte. Mit dem Konzept einer individuellen Urheberschaft sei ein Modell entstanden, das durch das Recht abgesichert und stabilisiert wurde. Dieses Ende sei aber nur als vorläufig anzusehen, denn in der Folgezeit bis heute fanden und finden ältere Modelle immer wieder neu Verwendung. Hermann schlussfolgerte daraus: »Seit dem 18. Jahrhundert bestehen daher mehrere rivalisierende Autorschaftskonzepte parallel, die jeweils nach Maßgabe kulturhistorischer oder gesellschaftspolitischer Wandlungen unterschiedlich stark gewichtet werden. Die Etablierung einer rechtlich geschützten Form der Autorschaft führt zwar, diachron betrachtet, dazu, daß diese letztlich zum dominanten Modell avanciert scheint. Synchron gesehen, erweist sich Autorschaft jedoch als eine heterogene Kategorie, die stets neu zu fassen ist.« (Herrmann 2002: 480)
Martha Woodmansee und Peter Jaszi schlagen einen Bogen zwischen dem Urheberrecht sowie dem damit verbundenen individualistischen, starken Autorbegriff hin zum schwachen Autormodell der kollaborativen Produktion. Sie stellen heraus, dass die gegenwärtigen, kreativen Produktionsprozesse vor allem kollektive und kooperative Prozesse (im Sinne der ›schwachen‹ Autorschaft) darstellten, die beständig aus Traditionszusammenhängen schöpften. Die Vorstellung vom Autor als genialem, individualistischem Schöpfer würde nurmehr eine Fiktion darstellen. Allerdings, so konstatieren Woodmansee/ Jaszi, wäre die Fiktion immer noch so stark wirksam, dass sie die tatsächlichen Verhältnisse überlagert: »Trotzdem können wir uns offenbar nicht von der Vorstellung trennen, authentische Autorschaft als singulären und originären Schaffensprozeß zu denken.« (Woodmansee/Jaszi 1999: 391) Jannidis et al. konstatieren, dass der Autor im engsten, im biographischen Sinn nur sehr selten die dominierende Kategorie des Textverstehens darstelle. Daraus leiten sie die tiefe Ambivalenz zwischen autorkritischen und autorzentrierten Positionen in der fachwissenschaftlichen Diskussion ab. Zum einen wären bereits seit dem 18. Jahrhundert autorkritische Positionen festzustellen, die eine »gut etablierte Tradition der Autorkritik« (Jannidis et al. 1999a: 10) begründeten. Zum anderen ließen sich gerade auch in der neueren literaturtheoretischen Diskussion Positionen nachweisen, die sich sehr stark auf Wissen über den Autor beziehen. Diese ambivalente Beziehung gelte nicht nur für die verschiedenen Konzepte selbst, sondern auch für deren historische Entstehung: »Das alles spricht dafür, daß sich das Problem des Autors keineswegs so teleologisch einsinnig entwickelt hat, wie es etwa Foucaults Rede [In ›Was ist ein Autor‹, 1969, F. H.] behauptet hat. Die Geschichte des Autors ist nicht die von einer ungeregelten Autorschaft zu einer disziplinierten, von einer autorunabhängigen zu einer autorzentrierten Konzeption. Zutreffender dürfte eine Beschreibung erst dann sein,
82 | DER DIGITALE AUTOR wenn sie berücksichtigt, daß es ein Set von Möglichkeiten der Konzeptionierung des Autors gibt, aus denen unter verschiedenen Bedingungen einzelne prämiert werden, ohne daß damit konfligierende Konzepte immer ganz ausgeschlossen wären.« (Ebd.)
Zur Gegenüberstellung des Autors als autonom (Geniepoetik) entgegen dem Autor als heteronom (Regelpoetik) hat schließlich auch Anne Bohnenkamp eine interessante, vermittelnde Position vorgelegt (vgl. Bohnenkamp 2002). Der Befund von der ›Gleichzeitigkeit des Ungleichzeitigen‹ gilt aber nicht nur für die Entwicklung seit dem 18. Jahrhundert, sondern kann exemplarisch und eingeschränkt bereits anhand des »›Autors‹ im mittelalterlichen Literaturbetrieb[s]« (Bein 1999) nachvollzogen werden. Wie Thomas Bein in einem knappen Überblick zum mediävistischen Autorschafts-Diskurs gezeigt hat, existierten anonyme Texte trotz einer größeren Zäsur im 12. Jahrhundert neben selbst oder fremd autorisierten Arbeiten weiter fort (ebd.: 304). Dabei könnte zwar teilweise eine gattungsabhängige Zuordnung hergestellt werden, so wären die Nibelungen- und Dietrich-Epik ebenso wie die Mären anonym, während die höfische Literatur autorisiert wäre. Allerdings seien die Gattungen keineswegs klar voneinander getrennt: »Problematisierend ist aber herauszustellen: Der vor Autorschaft nur so strotzende Parzifal Wolframs von Eschenbach und das anonyme Nibelungenlied (als Beispiele für die Grundtypen verstanden) haben beide ein ›Leben‹ im selben sozialen Raum: an Adelshöfen.« (Ebd.: 306, Hervorhebung im Original) Ähnliches gilt für die Unterscheidung zwischen Genie- und Regelpoetik. Für Bein greift es viel zu kurz, pauschal herauszustellen, dass der mittelalterliche Autor nur ›Vermittler von bereits Gesagtem‹ sei. Stattdessen gäbe es genügend Belege für selbstbewusste Eigenzuschreibung von Autorschaft (durch Eigensignatur) oder für die externe Zuschreibung von Autorschaft (durch Fremdsignatur). Um das Autorkonzept zu bestimmen, schlägt Bein eine je fallabhängige Prüfung vor: »Pragmatischer scheint mir zu sein, darauf zu schauen, ob und wie sich in Texten ein schöpferisches (besser vielleicht: textschaffendes) Individuum selbst setzt. Und das geschieht in der mittelalterlichen Literatur häufig.« (Ebd.: 308) So stehen in der Epik seit dem späten 12. Jahrhundert vor allem Hartmann von Aue (»Der arme Heinrich«)37 und Wolfram von Eschenbach (»Parzival« und »Willehalm«)38 für eine selbstbewusste Eigenzuschreibung von
37 Hartmann von Aue (etwa 1165 bis um 1210). Zu Hartmann vgl. auch Cormeau/ Störmer 1993: 16-39. »Der arme Heinrich« (um 1190 bis 1195), Textausgabe: Hartmann von Aue 2001, zum Text vgl. auch Cormeau/Störmer 1993: 142-159. Die berühmte Stelle mit der Selbstzuschreibung befindet sich in den ersten knapp 30 Versen des Prologs: »Ein ritter sô gelêret was / daz er an den buochen las / swaz er dar an geschriben vant; / der was Hartman genant, / dienstman was er ze Ouwe.« (Vers 1-5). 38 Wolfram von Eschenbach (um 1170 bis um 1220, Lebensdaten sehr ungewiss). Zu Wolfram vgl. Bumke 1997: 1-26. »Parzival« (um 1200 bis 1210), Textausgabe: Wolfram von Eschenbach 1994, zum Text vgl. auch Bumke 1997: 32-189 und Hasty 1999. Die berühmte Stelle mit der Selbstinszenierung als Autor befindet sich in Buch 2, Vers 114, 5-115, 30: »ich bin Wolfram von Eschenbach, / unt kan ein teil mit sange« (Vers 114,12-114,13). »Willehalm« (um 1212/1217), Textausgabe: Eschenbach 2003, zum Text vgl. auch Greenfield/Miklautsch 1998. Die Referenz auf das frühere Werk sowie die Selbstinszenierung findet sich in Buch 1, Vers 4, 19-5, 30: »ich Wolfram von Eschenbach, / swaz ich von
AUTORSCHAFT UND LITERATUR | 83
Autorschaft. Letzterer bezieht sich im »Willehalm« sogar auf sein früheres Werk »Parzival«, ruft sich damit seinem Publikum in Erinnerung und stellt intertextuelle Bezüge her. In der Lyrik ist es vor allem Walter von der Vogelweide39, der sich als beinahe starker Autor selbst inszeniert. Bein stellt fest: »Walther sagt so oft und pointiert wie kaum ein anderer Dichter seiner Zeit ›Ich‹, es ist ein ›Ich‹, das zwischen ›Rollen-Ich‹ und ›historischem Ich‹ nicht immer klar abgrenzbar changiert, was insgesamt aber doch deutlich macht, daß Walther ein existentielles Verhältnis zu seiner Kunst hat und dies auch im Medium seiner Kunst zum Ausdruck bringt.« (Ebd.: 310)
Die Ursache für diese starke Selbstinszenierung sucht Bein in der im Forschungsdiskurs mittlerweile allgemein anerkannten Tatsache, dass mit Walther tatsächlich einer der ersten Berufsdichter in der Literatur auftrat. Aus dieser Profession hätte sich aber ein gesteigertes Bewusstsein für das eigene Werk und für die Wichtigkeit der Selbstinszenierung abgeleitet. Nicht nur für die Selbst-Zuschreibung von Autorschaft ließen sich im Mittelalter durchaus modern anmutende Konzepte nachweisen. Auch fremde Zuschreibungen von Autorschaft, die Bein als ›Fremdsignatur‹ bezeichnet, wären ein bedeutendes Phänomen gewesen. So ließe sich, ebenfalls seit dem späteren 12. Jahrhundert, feststellen, dass Dichter sich in ihren Werken auf andere Dichter bezogen, indem sie diese namentlich nannten und die fremden Arbeiten durchaus ästhetisch diskutierten. Bekanntestes Beispiel dafür war Gottfried von Straßburg, der sich im Literaturexkurs des »Tristan« explizit auf die anderen, bekannten Dichter bezog und sehr elegisch Hartmanns Dichtkunst lobte.40 Diese Tatsache aber stellt für Bein einen deutlichen Beweis dafür dar, »daß es [im Mittelalter, F. H.] ein Autorbewußtsein gibt (was für das Mittelalter ja häufig negiert worden ist)« (ebd.: 311). In den Sammelhandschriften wäre zudem eine eher ›technische‹, fremde Signatur der darin enthaltenen Texten erfolgt, die Ende des 13. Jahrhunderts und im 14. Jahrhundert zu einem regelrechten Prinzip wurde. Das Ziel dieser Signierung hätte vor allem in einer Ordnung literarischer Kultur sowie in der Herstellung literarischer Repräsentanz bestanden. Beides ist für Bein ein »Zeugnis einer namenorientierten schriftlichen Pri-
Parzivâl gesprach, / des sîn âventiur mich wîste, / etslîch man daz prîste« (Vers 4, 19-4, 22). 39 Walther von der Vogelweide (um 1170 bis 1230). Zu Walther und seine Dichtung vgl. insbesondere Brunner et al. 1996; Scholz 2005 sowie überblicksweise Lutz 1994: 31-40; Weddige 1997: 243-277. 40 Gottfried von Straßburg (Lebensdaten unbekannt, Zeitgenosse von Wolfram, Hartmann und Walther). »Tristan« (um 1205 bis 1210), Textausgabe: Gottfried von Straßburg 2004a; Gottfried von Straßburg 2004b, zum Text vgl. auch Huber 2001a; Huber/Millet 2002; Hasty 2003; Gottfried von Straßburg 2004b: VII-XLIV. Die Referenz auf Hartmann (und noch andere Dichter) findet sich im berühmten Literaturexkurs (ab Vers 4619): »Hartman der Ouwære, / ahî, wie der diu mære / beide ûzen unde innen / mit worten und mit sinnen / durchverwet und durchzieret! / wie er mit rede figieret / der âventiure meine! / wie lûter und wie reine / sîne kristallînen wortelîn / beidiu sint und iemer müezen sîn!« (Vers 4619-4628; in anderen »Tristan«-Ausgaben beginnt der Literaturexkurs mit dem Vers 4621).
84 | DER DIGITALE AUTOR
märrezeption, die zeigt, daß ein Namenprinzip integrativer Bestandteil der mittelalterlichen Literaturkultur ist« (ebd.: 315). Zudem ließe sich ein Auseinanderklaffen von grundsätzlichem Anspruch und der tatsächlichen Umsetzung des Namensprinzips nachweisen: »Wenn ich von ›Ordnung‹ spreche, dann meine ich damit eher den Willen zur Ordnung, denn die von Handschrift zu Handschrift wechselnde Signaturpraxis im Bereich der Lyrik schafft letzten Endes Unordnung.« (Ebd., Hervorhebung im Original) Dadurch aber lässt sich mit Rückgriff auf Thomas Bein herausstellen, dass bereits das Mittelalter Autorpraxen und Autorisierungsmodelle kannte, die scheinbar Erfindungen späterer Jahrhunderte waren. Implizit macht Bein vor allem die fehlerbehaftete Umsetzung der Ordnungsprinzipien mit dafür verantwortlich, dass das Vorhandensein irgendeiner Form von Autorbewusstsein für das Mittelalter zumeist abgelehnt wurde. Zusammenfassend sind Modellierungen einer klar voneinander zu unterscheidenden Evolution von Autormodellen41 also deutlich zurückzuweisen. Stattdessen ist von einer widersprüchlicheren und nicht-linearen Entwicklung auszugehen. Nicht eine Evolution von Konzepten ist anzunehmen, sondern die Gleichzeitigkeit konkurrierender Modelle, mit jeweils temporären und regionalen Moden. Die historische Entwicklung kann und wird zwar zeitlich linear dargestellt. Es muss allerdings davon ausgegangen werden, dass sich die Muster überzeitlich verändert oder fortgesetzt haben, und so sind scheinbar sehr veraltete Modelle zum Teil auch in der gegenwärtigen Diskussion noch wirksam.
3.4 Abwesende vs. öffentliche Autorschaft Zum dritten Aspekt, der Gegenüberstellung von abwesender und öffentlicher Autorschaft, ist bereits einiges dargelegt worden bzw. sie wird weiter unten ausführlicher diskutiert.42 Außerdem spielt die Frage nach einem öffentlich auftretenden oder sich absichtlich marginalisierenden Autor bei dem noch jungen Kunstphänomen Netzliteratur, das ja noch vergleichsweise wenig öffentliche Wirkung hat, kaum eine Rolle. In der vorliegenden Modellierung wird daher die öffentliche Autorschaft dem nützlichen bzw. singulären Autor strukturell zugeordnet. Das Phänomen einer abwesenden Autorschaft wird mit dem marginalisierten bzw. kollektiven Autor erfasst. Deshalb werden diese Punkte an dieser Stelle nur knapp perspektiviert. Das Paradoxon von der ›abwesenden Autorschaft‹ setzt gemeinhin auf die von Foucault proklamierte »Rolle des Toten im Schreib-Spiel« (Foucault 2003 [1969]: 239) oder auf Roland Barthes’ Konzept des ›Schreibers‹ auf. Zu vorschnell wird allerdings die Rede vom »Tod des Autors« mit der Verabschiedung jeglicher Autorbedeutung gleich gesetzt. Damit allerdings werden wichtige Autorfunktionen im Text analytisch unzulässig negiert. Auch poststrukturalistische Modelle können nicht auf Funktionen des Autornamens im Diskurs verzichten, nämlich Ordnung, Selektion und Systematisierung. Wie 41 Etwa: vom Inspirationsmodell über die Regelpoetik hin zur Genieästhetik, danach Auflösung hin zur postmodernen Autorkritik. 42 Die Frage der Inszenierung von Abwesenheit im Text stellt eine rein narratologische Frage dar und wird ausgeblendet, da sie nicht für den Untersuchungsfokus relevant ist.
AUTORSCHAFT UND LITERATUR | 85
Christine Lubkoll herausgestellt hat, kann mit Foucault auch keineswegs eine platte ›Toderklärung‹ des Autors begründet werden. Stattdessen sei damit die Frage nach der Inszenierung von Abwesenheit im Text angesprochen, die ein anderes Phänomen darstelle (vgl. Lubkoll 2002). Die gegensätzliche Frage nach dem öffentlichen Autor lenkt dagegen den Blick auf (moderne) Praktiken bei der Etablierung von Autor-Identitäten. Autoren inszenieren sich selbst, wobei sie auf einer breiten Klaviatur möglicher, marketingtauglicher Identitäten spielen, z. B. Autoren›stars‹, moralische Instanzen, hochgebildete Künstler sowie literarische ›Sherpas‹. Verfolgt man die personenfixierte Darstellungen in den Feuilletons oder die moderne und postmoderne Selbststilisierung von Schriftstellern, dann wird schnell klar: »Vom Tod des Autors im öffentlichen Diskurs kann keine Rede sein« (ebd.: 456). Gerade literarischer Erfolg im Mediensystem (vgl. Günther 2003) hängt unmittelbar davon ab, wie es den Autoren gelingt, sich als Star zu inszenieren bzw. umgekehrt, inwieweit die literarischen Institutionen Schriftsteller zu Stars ›machen‹. Cordula Günther hat herausgestellt, dass das »Star«-Konzept (vgl. Faulstich/Korte 1997), das üblicherweise vor allem für erfolgreiche Akteure in den Dispositiven Fernsehen und Kino benutzt wurde, auch für den literarischen Star nutzbar gemacht werden kann. Damit einher geht die (im Rahmen der vorliegenden Untersuchung hier nicht verhandelte) Frage nach den Kompetenzen und Qualitäten, die zu einer (literarischen) Starinszenierung notwendig sind. Schließlich werden auch die Autorschaft selbst und literarische Werke zunehmend als Medienereignisse inszeniert (vgl. Künzel/ Schönert 2007). Mit diesen medialen Inszenierungen ist die Tatsache verbunden, dass der Autor zunehmend als ›Label‹ für das literarische ›Produkt‹ fungiert. In einer kritischen Weiterentwicklung von Foucaults Konzept des Autornamens als klassifikatorischer Funktion (fonction classificatoire) hat Dirk Niefanger dessen Bestimmung als reinen Ordnungsmechanismus erweitert (vgl. Niefanger 200243). Er bezog sich dabei auf das Modell des literarischen Feldes im Sinne von Pierre Bourdieu.44 Mit Hilfe des Begriffes des »Labels« wies Niefanger nach, dass der Autorname über die Abgrenzung hinaus mindestens zwei weitere wichtige Leistungen erbringt. Zum ersten positioniere er den Autor im literarischen Feld und nähere sich zudem dem Markennamen an, indem er rechtliche und ökonomische Funktionen übernähme. Damit erfülle der Autorname Leistungen für das reale Autorindividuum. Auf den literarischen Text bezogen steuere der Autorname zum zweiten die Lektüre des Textes und gäbe zusätzliche Informationen. Er diene damit der ›Informationsvergabe‹ im Text. Mit Bourdieus Theorie des literarischen Feldes kann der Begriff des ›Labels‹ als ›Habitus‹ beschrieben werden.
3.5 Zwischendiskussion Die Ausführungen von Jannidis et al. und im Sammelband von Detering belegen, dass die Verwendung des Autorbegriffes nicht nur aus einer systematischen Perspektive legitimiert, sondern auch aus historischen Traditionen begründet werden kann. Damit aber wird deutlich, dass »die theoretische Refle43 Zu Niefangers Text vgl. auch Lubkoll 2002 und Waldow 2002. 44 Vgl. dazu Bourdieu 1999 sowie Schwingel 1998.
86 | DER DIGITALE AUTOR
xion über den Autor zentralen Formen des wissenschaftlichen Umgangs mit Literatur nicht gerecht wird« (Jannidis et al. 1999a: 4). Der offensichtliche Erfolg des Autorbegriffes nicht nur in der praktischen, sondern auch in der theoretischen literaturwissenschaftlichen Diskussion sowie die skizzierte offensichtliche Paradoxie in der Verwendung des Begriffes führt Jannidis et al. dazu, eine Neustrukturierung des Diskurses um Autorschaft zu fordern: »Wenn es einen Konsens der hier [im Sammelband ›Rückkehr des Autors‹, F. H.] versammelten Beiträge gibt, dann diesen, daß es im Gegensatz zur gegenwärtigen opinio communis ausgesprochen lohnenswert ist, die theoretischen Voraussetzungen des Autorproblems zu prüfen, seine Konzeptualisierungen durch die Literaturwissenschaft zu untersuchen und die offensichtlichen Diskrepanzen zwischen Theoriedebatte und Interpretationspraxis zu diskutieren.« (Ebd.: 17, Hervorhebung im Original)
Absicht und Leistung von Jannidis et al. ist es also, systematische und historische Begründungen für eine »Rückkehr des Autors« zusammenzustellen (vgl. ebd.: 4), was – mit Hinblick auf den Umschwung der Debatte – auch als geglückt bezeichnet werden kann. Platte Autorkritiken haben kaum einen Platz mehr in der Literaturtheorie, da sie so offensichtlich durch die literaturwissenschaftliche Interpretationspraxis konterkariert werden. An deren Stelle treten komplexe Untersuchungsprogramme, die sowohl das historisch Ungleichzeitige als auch das systematisch Uneindeutige berücksichtigen. Dass nicht mehr nur allein die »Rückkehr des Autors« (vgl. Jannidis et al. 1999b) gefeiert wird, sondern die Folgerungen aus diesem Richtungswechsel im Modus »Positionen und Revisionen« (vgl. Detering 2002a) auf der besonders prominenten Ebene eines DFG-Symposions verhandelt werden, ist ein weiterer Beleg für diesen Umschwung. Diese Wandlung begründet, wie Jannidis et al. herausstellen, vor allem einen umfangreichen Bedarf an Grundlagenforschung. Ihren Band verstehen sie als einen Anfang, dieses Forschungsprogramm anzugehen. Sie wenden sich gegen die in der traditionellen Literaturwissenschaft übliche unreflektierte Nutzung des Autorbegriffes. Sie kritisieren aber genauso pauschale Absagen, die »auf die erforderlichen Binnendifferenzierungen des Phänomens, das es zu erforschen gilt« (Jannidis et al. 1999a: 34) verzichten würden. Stattdessen plädieren sie für einen Anschluss an neuere Diskussionen in der USamerikanischen Forschung, die solche Differenzierungen bereits vorführen. Damit, so hoffen Jannidis et al., könne auch »die Blockade zwischen den beiden gegensätzlichen Positionen zwischen Praxis und Theorie aufgelöst werden« (ebd.). Jannidis et al. stehen mit ihrer Forderung nach einer differenzierten Diskussion aber nicht allein, sondern beispielhaft für den jüngeren Diskurs. Dies verdeutlicht eine zugespitzte Einschätzung der Debatte, die der Literaturwissenschaftler Willie van Peer vorgelegt hat: »Die eine Generation beschäftigt sich intensiv mit Autoren, ihren Biographien und dem Verhältnis zu ihren Texten, die nächste erklärt dies alles zu einem intentionalen Fehlschluß. Ich meine, wir sollten uns davor hüten, ein vergleichbar unreflektiertes (Des)Interesse am Autor zu propagieren.« (van Peer 1999: 108) Ein differenziertes, unvoreingenommenes Forschungsprogramm macht es aber auch zwingend notwendig, die Grenzen der traditionellen Literatur aufzubrechen und sich ebenfalls anderen Medien zuzuwenden. Gerade im Film und im Fernsehen,
AUTORSCHAFT UND LITERATUR | 87
aber auch in den Neuen Medien spielt der Autorbegriff eine mindestens ebenso zentrale, wenn auch völlig anders strukturierte, Rolle wie in traditioneller Literatur. Dies folgern auch Jannidis et al.: »Die Bestimmungen und Funktionen von Autorkonzepten in diesen Wissenschaften können die Folie bilden, um die Besonderheiten, aber auch die verallgemeinerbaren Eigenschaften des Begriffs erkennen zu können. Dies gilt aufgrund der Entwicklung elektronischer Hypertexte auch für die Textwissenschaften selbst, da durch das neue Medium bislang für selbstverständlich gehaltene Randbedingungen der Textproduktion, -distribution und -rezeption verändert und dadurch sichtbar wurden.« (Jannidis et al. 1999a: 35)
Mit der »Rückkehr des Autor« bzw. der Rückkehr des Autorbegriffes und den Unklarheiten rund um dessen Verwendung wird es laut Jannidis et al. notwendig, ein Forschungsprogramm anzugehen, vielmehr wieder anzugehen, »das schon abgeschlossen schien« (ebd.). Heinrich Detering knüpft (drei Jahre später) an diese Vorarbeiten von Jannidis et al. an und führt sie in dem größer und systematischer angelegten Rahmen des DFG-Symposions weiter. Auch er konstatiert eine »fortdauernde Aktualität des Themas« (Detering 2002b: IX), stellt aber stärker als Jannidis et al. heraus, dass die jüngere Debatte vor allem als eine Kontinuität vergangener, literaturtheoretischer Diskussionen anzusehen ist: »Die in der Überschrift genannten ›Revisionen‹ der literaturwissenschaftlichen AutorschaftsModelle sind beinahe so alt wie die ›Positionen‹ selbst. Denn angefochten war »Autorschaft« mit jeder neuen emphatischen Proklamation« (ebd.). Trotzdem begreift Detering ebenso wie Jannidis et al. die autorkritische Provokation von Roland Barthes als eine wirkungsmächtige Position in der historischen Debatte. Barthes hätte das Selbstverständnis der Literaturwissenschaft sehr nachhaltig erschüttert, damit aber hätte »der alte Streitfall neue Dimensionen gewonnen« (ebd.: X). Ausgehend von den autorkritischen Positionen des Poststrukturalismus und den darin enthaltenen Widersprüchen konstatiert er: »Zu fragen ist deshalb weniger nach dem ›Verschwinden‹ als vielmehr nach veränderten Formen der Thematisierung, Inszenierung und Instrumentalisierung von Autorschaft in Moderne und Postmoderne, und zwar in literarhistorischen, literatursoziologischen, poetologischen und kultursemiotischen Perspektiven.« (Ebd.: XI) Erste Früchte der so skizzierten Forschungsprogramme legen sowohl Jannidis et al. (vgl. 1999b) als auch Detering (vgl. 2002a) vor. Diese Erträge werden in den folgenden Abschnitten zusammengestellt.
4 A U T O R S C H A F T S -T Y P O L O G I E Die beiden im Rahmen der vorliegenden Untersuchung zentralen Unterscheidungen sind die zwischen singulärer und kollektiver sowie zwischen nützlicher und marginalisierter Autorschaft. Deshalb dienen diese Differenzierungen auch als Grundlage für eine umfassende Autorschafts-Typologie. Damit wird die bisherige, überblicksweise Darstellung des Problemfeldes durch eine Systematisierung der aktuellen Debatte um »Autorschaft« vervollständigt. Die Gegensätze zwischen dem »Einen« und dem »Kollektiv«, »nützlich« und »marginalisiert« sowie »Genie« und »Handwerker« werden somit auch auf den Unterschied zwischen ›starken‹ und ›schwachen‹ Autorschaftskonzepten übertragen.1 Der einzelne Autor kann den Inhalt und die Gestaltung seines Werkes umfassend steuern. Er allein autorisiert den letztendlich gültigen Text, die Authentizität des Textes misst sich am Namen und damit an der Person des einzelnen Autors. Bei kollektiven und anonymen Autorschaftsmodellen kann niemand das Endprodukt vollständig kontrollieren. Auch hier bietet sich eine doppelte Perspektive auf Autorschaft. Einerseits können singuläre und kollektive Autorschaftsmodelle in historischer Perspektive nachverfolgt werden. Andererseits bieten sie Ausblicke auf zukünftige Formen und Funktionen von genialistischen und multiplen/anonymen Autorschaftskonzeptionen, nämlich Autoren mit einem extremer ausgeprägten Personenkult als unter traditionellen Bedingungen (Winko 2002) und einer Autoridentität als Kollektividentität. Die Vorstellung einer singulären Autorschaft ist mit der Konstruktion des Autors als Genie eng verbunden, aus dessen Person sich Geltungsanspruch und Eigenschaften seiner Texte ableiten. Dadurch ist diese Autorschaft zutiefst individualistisch geprägt und kann historisch – erstens – im Individualitätsmodell nachvollzogen werden. Eng damit verknüpft ist – zweitens – die Kategorie der Autorintention, die im Zuge der Genieästhetik eingeführt wurde. Danach bildete die Intention bei der Niederschrift sogar die zentrale Verstehensnorm bei der Lektüre von Texten und war ebenso bei der Interpretation maßgebend. Das dritte Charakteristikum des individuellen Autors stellte seit dem 18. Jahrhundert das Copyrightmodell dar. Somit wurde die Vorstellung von einem geistigen Eigentumsrecht am Werk formuliert und auch das juristische Autorschaftsmodell begründet, was den Autorschaftsdiskurs bis heute maßgeblich geprägt hat. Wie bereits erwähnt, lassen sich die entgegengesetzten Konzeptionen einer kollektiven Autorschaft historisch genauso weit zurückverfolgen wie die singulären Modelle. Auffällige Beispiele dafür finden sich in der Antike, im 1
Die Unterscheidung zwischen »starker« und »schwacher« Autorschaft wird von Britta Herrmann übernommen, vgl. Herrmann 2002. Damit wird eine Differenzierung aufgegriffen, die sich im jüngeren Autorschafts-Diskurs als sehr nützlich herausgestellt hat, vgl. dazu die Einführungen und Diskussionsberichte in Detering 2002a.
90 | DER DIGITALE AUTOR
Mittelalter und in neuzeitlichen Literaturepochen. In der modernen, digitalen Dichtung des ausgehenden 20. Jahrhunderts erlebt die kollaborative Textproduktion eine bemerkenswerte Blüte.
4.1 Modell der Autorschafts-Typologie Die bereits konstatierte Vielzahl von parallel existierenden und konkurrierenden Autorschaftsmodellen korreliert mit einer großen Menge von Begriffen und Konzepten rund um den Autor. Auch wenn noch keine differenzierten und allgemein anerkannten Autorschafts-Systematiken existieren, lassen sich in der jüngeren Debatte aber Typologien feststellen, die diese eingeführten Begriffe und Konzepte ordnen. Der m. E. fruchtbarste Entwurf stammt von Heinrich Detering. Im Rahmen des 2002 veranstalteten DFG-Symposiums unternahm er »den Versuch, das bislang in den Beiträgen und Diskussionen dieses Symposiums verwendete Begriffsinventar deskriptiv und systematisierend zusammenzufassen, um damit einer Autorschaft-Typologie den terminologischen Weg zu bereiten« (Polaschegg 2002: 322). Diese Systematik stellt eine differenzierte Darstellung von verschiedenen Autorschaftsdefinitionen dar, die auch graduelle Abweichungen einbezieht. In seinem Modell entwickelte Detering einen Vorschlag, wie insbesondere die Unterscheidung zwischen singulärer und kollektiver Autorschaft aber auch von Genie und Handwerker mit der Differenz von nützlichen und marginalisierten Autorkonzepten verbunden werden kann; dies wird hier u. a. gefasst als Abstufung von »starker« und »schwacher« Autorschaft. Diese Verbindung stellt eine besondere Leistung von Deterings Modell dar. Die von ihm vorgestellten, teilweise recht knappen, Definitionen stellen die Grundlage für die in der vorliegenden Untersuchung entwickelte, umfangreichere Diskussion dar. Heinrich Detering definiert fünf Felder von Autor-Begriffen: Abbildung 1: Typologie verschiedener Modelle von Autorschaft nach Heinrich Detering Autorschafts-Typologie 1. Modell ›Autor‹ (auch ›Verfasser‹ oder ›auctor‹) 2. Modell ›Schreiber‹ (auch ›Scripteur‹ oder ›Ècrivain‹) 3. Modelle ›Empirischer Autor‹ und ›Impliziter Autor‹ 4. Modelle ›Erzähler‹ und ›lyrisches Ich‹ 5. Modell ›Autorfunktion‹ Quelle: Polaschegg 2002: 322-3232 Visualisiert man die Begriffe, wird deutlich, dass sie sich vor allem durch ihre Nähe bzw. Ferne zum Text unterscheiden. Autor und Schreiber stehen völlig außerhalb des Textes, während sich der empirische Autor bereits (nur) 2
Im Folgenden ist zu beachten, dass die von Heinrich Detering auf dem DFGSymposion 2002 vorgestellte Typologie in einem Diskussionsbericht von Andrea Polaschegg dokumentiert ist. Deshalb werden direkte und indirekte Zitate dieser Typologie unter dem Namen »Polaschegg« geführt, obwohl sie selbstverständlich Heinrich Detering zuzuordnen sind.
AUTORSCHAFTS-TYPOLOGIE | 91
aufgrund von Textinhalten rekonstruieren lässt. Impliziter Autor sowie die epische oder lyrische Sprecherinstanz sind völlig auf der Ebene des Textes verortet und weisen die größte Distanz zum realen Autor auf. Die Autorfunktion verteilt sich diffus auf der textexternen Ebene. Modellhaft lässt sich das Verhältnis der Begriffe untereinander folgendermaßen darstellen: Abbildung 2: Anordnung der Autorschaftsmodelle nach Heinrich Detering Autor
Text
Autor
Schreiber
Empirischer Autor
Impliziter Autor
Erzähler / lyrisches Ich
Autorfunktion Größte Autornähe / größte Textferne
Größte Textnähe / größte Autorferne
Quelle: Polaschegg 2002: 322-323, graphische Darstellung vom Autor Diese Darstellung stimmt in Grobzügen mit dem von Manfred Pfister vorgeschlagenen Kommunikationsmodell narrativer Texte überein. Darin werden die Sender und Empfänger-Positionen des literarischen Kommunikationsvorganges sortiert: Abbildung 3: Kommunikationsmodell narrativer Texte von Manfred Pfister
S4
S3
S2
S/E1
N1
S/E1
E2
E3
E4
N2 N3 N4
Quelle: Pfister 2001: 20-21 Die Abkürzungen der einzelnen Positionen sind dabei folgendermaßen aufzulösen: »Auf der Seite des Senders: S 4: Empirischer Autor als Werkproduzent, S 3: Impliziter Autor als Subjekt des Werkganzen, S 2: Fiktiver Erzähler als vermittelnde Erzählfunktion. Dazwischen: S / E 1: Fiktive Figuren, die dialogisch miteinander kommunizieren.
92 | DER DIGITALE AUTOR Auf der Seite des Empfängers: E 2: Fiktiver Hörer als Adressat des fiktiven Erzählers; E 3: Impliziter Leser als Rezipient des Werkganzen; E 4: Empirischer Leser.« (Pfister 2001: 21)
Pfister bezieht sich dabei auf ein bereits ausgearbeitetes Modell von Rolf Fieguth3 aus dem Jahr 1973 und vernachlässigt die bei Fieguth vorhandenen Positionen S 5 »Autor« und E 5 »Rezipient« als reale Personen mit auch außerliterarischen Bezügen (vgl. Pfister 2001, Fußnote 14 auf S. 386). Über Pfister hinausgehend und damit vermutlich eher an die Intentionen Fieguths anschließend, wurde im hier vertretenen Modell der Autor wieder eingefügt. Das in Abbildung 2 dargestellte Modell fokussiert auf die Produktionsseite der literarischen Kommunikation und damit auf Positionen S 5-S 2, was aus der Betrachtung von Autorschaftsphänomenen zwingend folgt. Die Rezeptionsseite ist hier ausgeblendet, könnte aber ähnlich differenziert modelliert werden, und würde dann rechts neben dem (fiktiven) Erzähler bzw. dem lyrischen Ich anschließen. Ein entsprechendes Schema könnte an Überlegungen von Werner Wolf anknüpfen, die aber in der Differenziertheit noch deutlich gesteigert werden müssten: »Als gedachtes Agens einer Erzählsituation wird der fiktive E[rzähler] im Rahmen des z. T. inzwischen ebenfalls umstrittenen […] liter[arischen] Kommunikationsmodells traditionell von folgenden Instanzen abgegrenzt: auf der ›Sender‹-Seite vom textexternen historischen Autor und vom textinternen ›impliziten Autor‹ bzw. den Implikaten des Gesamttextes, auf der ›Empfänger‹-Seite vom textinternen ›fiktiven Leser‹, der mitunter einem expliziten Erzähler bzw. ›overt narrator‹ als ›narratee‹ gegenübersteht, vom ebenfalls textinternen impliziten Leser sowie dem textexternen realen Leser.« (Wolf 2004: 156, Hervorhebung im Original)
Pfisters will mit seinem Modell insbesondere die jeweils vorhandenen Kommunikationssysteme (N 1-N 4) analysieren, die durch die Einkastelungen markiert sind. Dies führt für die vorliegende Arbeit allerdings nicht weiter. Pfisters Systematisierung legitimiert trotz der Modifikationen das hier nach Detering entwickelte Modell. Anhand der folgenden, teilweise recht detaillierten Begriffsdefinitionen rund um den Autor wird deutlich, dass die Diskussion von Autorschaftsphänomenen bereits auf der Beziehungsebene Autor-Text außerordentlich komplex ist. Damit ist aber auch die Frage nach der Autorschaft je zu differenzieren nach dem Begriff von Autor, der dem jeweiligen Untersuchungsdesign zugrunde liegt. Ausführlich diskutiert werden die für die vorliegende Untersuchung relevanten Modelle »Autor« (Kapitel 4.2), »Schreiber« (Kapitel 4.3) und »Autorfunktion« (Kapitel 4.4). Die von Detering an dritter und vierter Stelle aufgeführten »empirischer und impliziter Autor« sowie »Erzähler und lyrisches Ich« werden als textnahe Phänomene im Rahmen der Analyse vernachlässigt und daher auch nicht weiter ausgeführt.
3
Pfister stützt sich in diesem Modell nach eigener Aussage auf einen Artikel von Rolf Fieguth. Er gibt als Quelle an: Fieguth, R[olf], 1973: Zur Rezeptionslenkung bei narrativen und dramatischen Werken. In: Sprache im technischen Zeitalter 43. S. 186-201. Dieser Text ist heute bedauerlicherweise nicht mehr greifbar, deshalb konnte die Quelle hier nicht verifiziert werden.
AUTORSCHAFTS-TYPOLOGIE | 93
4.2 Modell ›Autor‹ Der Begriff des ›Autors‹ wird gemeinhin synonym verwendet mit Begriffen wie »Verfasser«, »auteur« oder »geistiger Erzeuger«. Damit ist es auch nicht überraschend, dass die am meisten verbreitete Definition des Begriffes vor allem auf seine Rolle als »geistige[r] Urheber von Texten jeglicher Art« (Nünning 2004a: 36) fokussiert. Er wird als außerhalb des Textes stehend verortet, sowohl von innertextlichen (fiktiven) Sprecherinstanzen als auch vom (ebenfalls innertextlichen) impliziten Autor unterschieden. Ebenfalls Allgemeinplatz ist die Feststellung, dass »A[utor]begriffe und Modelle von Autorschaft […] historischem Wandel [unterliegen, F. H.]« (ebd.).
4.2.1 Überblick über Autorbegriffe und -definitionen Abweichungen in den Definitionen ergeben sich zumeist aus unterschiedlichen Vorstellungen darüber, wie Texte von den Autoren ›erzeugt‹ werden. Die theoretische Debatte wird dabei vor allem durch ein Gegensatzpaar beherrscht. Auf der einen Seite steht das poetische Genie, das von der Inspiration durchflossen wird und gleichsam in einem von der Kreativität überwältigten Zustand den Text hervorbringt. Auf der anderen Seite wird der dichtende Handwerker als methodisch agierender Ingenieur modelliert, der die Produktion seiner Texte bewusst steuert und beherrscht. Somit ist das Verhältnis zwischen genialistischer »Erzeugung« von Texten und planvoller »Herstellung« dieser angesprochen. Dadurch wird aber auch auf die Wechselwirkungen rekurriert zwischen dem für die Textgenese verantwortlichen Autor einerseits, der Editionspraxis andererseits (vgl. dazu Bohnenkamp 2002: 62). Ein weiteres Gegensatzpaar, das für die theoretische Diskussion maßgeblich geworden ist, stellen die Begriffe »schwache Autorschaft« und »starke Autorschaft« dar. Der Autor im »schwachen Sinn« umfasst die Minimalfunktion eines beliebig strukturierten Autorindividuums oder -kollektivs, einen Text auf irgendeine Art intentional hervorzubringen: »Konzept eines individuellen oder kollektiven, intentional handelnden Urhebers und Kommunikators von Texten, der in und aufgrund dieser Funktion an geltende diskursive und kommunikative Regeln gebunden ist« (Polaschegg 2002: 322-323). Im »starken Sinn« wird der (individualisierte) Autor in seiner gesamten Autorpersönlichkeit und mitsamt seinen Inszenierungsstrategien (›Star‹) erfasst: »Bezeichnung für einen ›Auteur-Dieu‹ als souveränen (oder sich so inszenierenden oder so rezipierten) Texturheber, der zugleich absolute Werkherrschaft ausübt« (ebd.: 323). Zwischen diese beiden Pole fügt Heinrich Detering in seiner Begriffssystematisierung den Begriff des »konzeptuellen Schöpfers« ein, der auf die ästhetische Gestaltung eines künstlerischen Textes und dessen ›Gemachtheit‹ rekurriert: »Bezeichnung für den konzeptuellen Schöpfer einer materiell im Text repräsentierten, immateriellen Konzeption – und damit eines Werks –, der jenes textliche Material in den ästhetischen Diskurs einfügt« (ebd.). Das dritte, zentrale Moment in der Diskussion um den Begriff des Autors stellt seine Rolle dar, zuallererst Urheber eines Textes zu sein (vgl. die knappe Definition in Nünning 2004a). Damit hängt eine unzulässige, historische Vereinfachung in der Debatte zusammen, die in jüngster Vergangenheit besonders scharf u. a. von Jannidis et al. oder Britta Herrmann, aber auch von der amerikanischen Literaturhistorikerin Martha Woodmansee kritisiert wur-
94 | DER DIGITALE AUTOR
de. Wie bereits ausgeführt, wird die Entwicklung eines Urheberrechts im Allgemeinen als das Ende von kollaborativen, anonymen Autorschaftskonzeptionen und als Beginn von individualistischen, genialistischen Autormodellen angesehen. Das damit angesprochene, unzulässig vereinfachende historische Phasenmodell ist aber zu kritisieren. Stattdessen ist von einem komplexeren Nebeneinanders verschiedener Modelle auszugehen sowie von einem historisch deutlich ambivalenteren Verhältnis zwischen einander entgegengesetzten Autor-Konzeptionen.
4.2.2 Autor und Intention Die Beziehung zwischen Autor und Intention als Voraussetzung von intentionalistischen Interpretationen wird in der vorliegenden Untersuchung nicht ausführlicher diskutiert.4 Interpretieren stellt eine Leistung der Handlungsrollen Rezeption oder Verarbeitung dar, auf die nicht fokussiert wird. Zudem wird die Interpretation als literarische Operation in der hier vertretenen empirischen Variante der Literaturwissenschaft ausgeblendet. Knapp zusammengefasst lässt sich die Beziehung folgendermaßen charakterisieren: Es steht außer Frage, dass Autoren intentional handeln, aufgrund von bei den Lesern antizipierten Lektürewünschen oder Autorbildern, was sich durch das hier vertretene literarische Modell von Kommunikation begründet. Rezipienten aber lesen literarische Texte erst als solche, wenn sie davon ausgehen können, dass sie prinzipiell verstehbar bzw. als literarische Texte rezipierbar sind, entsprechend der oben skizzierten Konzeption von Literatur. Diese prinzipielle Verstehbarkeit wird aber durch die reale oder als real inszenierte Autorinstanz gesichert und damit auch durch deren Autorintention. Das Verstehen literarischer Texte wird für die Leser erst möglich, wenn sie davon ausgehen können, dass sie als verstehbar intendiert waren. Dieser Zusammenhang kann mit Karl Eibl aus der biologischen Beschaffenheit von Autoren und Lesern erklärt werden. Danach stellt die Tendenz, (Schreib-)Handlungen oder (Text-)Artefakten einem Verursacher zuzuschreiben, ein sehr wahrscheinliches Zuschreibungsmuster dar (vgl. Eibl 1999, zu den biologischen Grundlagen vgl. auch Eibl 1993). Dieser Verhaltenstypus würde kognitionsbiologisch eine ›genetische Disposition‹ darstellen. Auch der Bezug auf die Intention des Verursachers stelle einen solchen biologisch grundlegenden Verhaltenstypus dar. Deshalb sei der Typus nicht nur bei dem simplen Lektürevorgang vorzufinden, sondern schlage sich als wahrscheinlicher Erklärungsansatz auch in komplizierteren kulturellen oder wissenschaftlichen Operationen nieder. Bekräftigt würde dieses Erklärungsmuster dadurch, dass der Bezug auf die Autorfunktion eine erfolgreiche Strategie im Umgang mit Literatur darstelle. Zum einen sei der Urheber einer Äußerung »unentbehrlich«, um eine »Differenz von Gesagtem und Gemeintem« (Eibl 1999: 54) in verschiedener Hinsicht herzustellen. Zum anderen stelle die »Autorfunktion […] primär eine Verschnürungsfunktion« (ebd.) dar und diene damit der Kohärenzbildung (vgl. auch Winko 1999a: 43). Gerhard Lauer unterstützt diese Thesen, wenn er darauf hinweist, dass »alle menschlichen Artefakte mit einem Autorindex versehen« sind und dies explizit auf Litera4
Vgl. dazu sehr viel ausführlicher die Beiträge des Abschnittes »I Autor und Intention« im Sammelband »Rückkehr des Autors«, vgl. Jannidis et al. 1999b: 39156.; vgl. auch Jannidis et al. 2000a.
AUTORSCHAFTS-TYPOLOGIE | 95
tur bezieht: »Wir können nicht anders, als uns zu einem Text auch einen Autor hinzuzudenken« (Lauer 1999a: 164). Der Autorbezug als erfolgreiche Strategie und die biologische Disposition sorgen zudem dafür, dass der Bezug auf den Autor und dessen Intention unter Rezipienten und Verarbeitern recht homogen erfolgt (vgl. dazu auch Winko 2002: 354). Wie Willie van Peer gezeigt hat, sind Autorintentionen nicht automatisch für die Interpretation wichtig, sondern je nach Kontext zu berücksichtigen oder zu vernachlässigen (vgl. van Peer 1999). Die Entscheidung, ob die Intention zu berücksichtigen ist oder nicht, hänge danach von der Konstellation ab, in der interpretiert wird. Er lehnt sowohl die absolute Konzentration auf den Autor wie auch die radikale Autorkritik ab. An zwei sehr unterschiedlichen Beispielen führt er zum einen vor, dass es Texte gibt, die notwendigerweise mit Bezug auf die Autorintention interpretiert werden müssen. Zum anderen zeigt er auf, dass andere Texte sehr wohl an den ursprünglichen Intentionen ›vorbei‹ rezipiert worden sind und werden können (vgl. auch Winko 1999a: 44). Dies führt van Peer aber zu der bereits erwähnten Forderung nach einer differenzierten Betrachtungsweise: »Ich meine, wir sollten uns davor hüten, ein […] unreflektiertes (Des)Interesse am Autor zu propagieren« (van Peer 1999: 108). Schließlich plädiert auch Paisley Livingston in seinem Werk »Art and Intention« sehr nachdrücklich für eine Berücksichtigung der Autorintentionen bei der literarischen Analyse und kritisiert dabei die autorverneinende Position Michel Foucaults (vgl. Livingston 2005).
4.2.3 Autoren und Neue Medien Mit dem Hinweis auf die kollaborative Produktion ist ein weiterer Schwerpunkt in der Diskussion um den Autor angesprochen. Gemeinhin gelten die Neuen Medien, namentlich das Internet, als praktischer Beweis des poststrukturalistischen Diktums vom »Tod des Autors«. Dass der Autor sehr wohl auch im Hypertext erscheint und zudem oft durch eine »starke« Autorschaft charakterisiert ist, diskutiert Simone Winko (vgl. Winko 1999b). Sie geht von einer Grundaussage im (nicht nur poststrukturalistischen) theoretischen Diskurs um die Neuen Medien aus, die sie als falsches »Dogma« charakterisiert: »der Autor im traditionellen Sinne sei eine anachronistische Institution und habe heute ausgedient« (ebd.: 512). Diese theoretisch orientierte These würde zumeist durch die Feststellung einer radikalen Änderung des Verhältnisses zwischen Autor, Text und Leser untermauert. Im praktischen Diskurs würde stattdessen auf eine »wenig veränderte Medienpraxis« hingewiesen und behauptet, dass sich dieses Verhältnis kaum verändert habe. Die von ihr angesprochene »Theorie-Praxis-Differenz« wurde oben bereits näher diskutiert. Bemerkenswert ist Winkos Feststellung, dass in Neuen Medien stärkere Autorschaftskonzeptionen möglich seien, als dies in den traditionellen denkbar wäre: »Theoretisch totgesagt, lebt ›der Autor‹ in verschiedenen Funktionen auch in den neuen Medien weiter, teilweise sogar, unter Ausnutzung der neuen technischen Möglichkeiten, mit extremer ausgeprägtem Personenkult als unter traditionellen Bedingungen linearer Texte« (ebd.). Dieses ›Unterlaufen‹ des poststrukturalistischen Diktums kann aber nicht nur auf Seiten der (sich inszenierenden) Autoren nachgewiesen werden, sondern als bemerkenswert wirksames Phänomen auch auf Seiten der Literaturinterpreten. Simone Winko hat dies bereits in einer Analyse von Interpretationstexten traditioneller Literatur nachgewiesen:
96 | DER DIGITALE AUTOR »Die Verfasser aller hier berücksichtigten Interpretationstexte beziehen sich mit denselben argumentativen Strategien auf den Autor und unter Voraussetzung derselben Funktionen dieser Instanz für die Gegebenheitsweise des Textes. Nicht qualitativ, sondern quantitativ unterscheiden sich die Funktionalisierungen des Autorbezugs.« (Winko 2002: 353)
Diese Schlussfolgerungen gelten aber auch für einen Großteil der Interpretationen von literarischen Texten im Internet. In einer älteren Studie hat der Autor Texte aus dem Zeitraum Januar 1999 bis April 2002 analysiert, die dem literarischen Handlungsbereich der »Verarbeitung« zuzuordnen sind, und sich speziell mit Netzliteratur auseinandersetzen (vgl. Hartling 2004). Literarische Verarbeitungstexte umfassen mehr als nur die reinen Interpretationen, deshalb schloss die Studie auch wissenschaftliche Aufsätze ein, die sich auf literarische Texte bezogen. In der Analyse wurde der Bezugsrahmen (›frame of reference‹, vgl. ebd.: 27-29) der Literatur-Verarbeiter auf dessen Struktur untersucht. Bei der Bewertung von literarischen Texten beziehen sich die Referenten zumeist auf einen Bezugsrahmen, der vor allem durch die Nutzung von Autorennamen aufgerufen wird. Verweise auf andere, meist kanonisierte Werke laufen zumeist konsequent über die Benennung des jeweiligen Autors, wie etwa: »Er schreibt wie N. N.«. Lässt sich ein solcher Bezug in den interpretierenden Texten nachweisen, kann aber auf ein besonders starkes Autorschaftsmodell geschlossen werden. In der Studie wurde deutlich, dass sich der Bezugsrahmen für Netzliteratur zwischen Januar 1999 bis April 2002 erst in der Entwicklung befand, was durch das sehr junge Alter der Kunstform erklärt werden konnte. (Im deutschsprachigen Raum traten erste netzliterarische Arbeiten um das Jahr 1995 auf.) In der Gruppe der Interpretationstexte ließ sich ein solcher Bezugsrahmen noch gar nicht feststellen. Die Texte stellten danach vor allem werkimmanente Interpretationen dar, die sich jeweils auf eine Autorintention bezogen. Dieses Ergebnis aber kann auch als Beleg für die Gültigkeit eines »starken« Autorkonzeptes interpretiert werden. In der Gruppe der wissenschaftlichen Aufsätze, die naturgemäß stark verweisende Texte darstellen, konnte dagegen bereits ein erster, stabiler Bezugsrahmen nachgewiesen werden. Dieser Rahmen lief schon im Untersuchungszeitraum deutlich über Autorennamen und bildete damit die Strukturen des Bezugsrahmens von Verarbeitern traditioneller Literatur nach. Der letzte Befund dürfte sich in den späteren Jahren eher verstärkt haben und lässt eine paradoxe Zuspitzung von Winkos Thesen zu. Interpreten von Netzliteratur sehen sich danach neuen Schwierigkeiten bei der Bewertung von digitalen Texten ausgesetzt, die durch die veränderten technischen Möglichkeiten des Mediums und die fehlenden Interpretationsmaßstäben entstehen. Geeignete ästhetische Kriterien und Modelle müssen im Rahmen der Netz(kunst)theorie erst entstehen. Bis dahin scheinen Interpreten von Netzliteratur eher von traditionellen Strukturen und Bewertungsschemata auszugehen. Dieses gewohnte, traditionelle Interpretationshandwerk wird auf Netzliteratur angewendet, um einen Ausgangspunkt für eine gültige Interpretation zu haben. (Dieses Moment wird noch dadurch verstärkt, dass Interpreten von Netztexten zumeist durch die klassische Literaturwissenschaft sozialisiert sind.) Netztypische Kategorien und Technologien werden ergänzend betrachtet. Damit werden auch (implizit oder explizit) traditionelle, genialistische Autorkonzepte wieder belebt. Wenn man es etwas überspitzt formuliert, ha-
AUTORSCHAFTS-TYPOLOGIE | 97
ben es Netzkritiker offenbar zu sehr mit ihnen ungewohnten neuen Phänomenen zu tun, als dass sie sich noch zusätzlich einer poststrukturalistischen Interpretationsmethodologie unterwerfen wollen oder können. Hier findet sich also wiederum die angesprochene Differenz zwischen Literaturtheorie und literaturkritischer Praxis.
4.3 Modell ›Schreiber‹ Der Begriff des ›Schreibers‹ (auch ›Scripteur‹ oder ›Ècrivain‹ [Schriftsteller]) ist eng verbunden mit dem französischen Literaturtheoretiker Roland Barthes und damit auch mit dessen radikalem Diktum vom »Tod des Autors« (»La Mort de l’auteur«; vgl. dazu seine gleichnamige Arbeit Barthes 2000 [1968]). Roland Barthes’ Essay stellt eine grundlegende Arbeit für den Poststrukturalismus dar, sein Diktum ist zu einem griffigen Schlagwort geworden, unter dem (unzulässigerweise) eine ganze Reihe unterschiedlicher, autorkritischer Positionen und Theorien zusammengefasst werden.5
4.3.1 Exkurs: Ausgangspunkt im Poststrukturalismus Auf die philosophische und literaturtheoretische Strömung des ›Poststrukturalismus‹ soll an dieser Stelle nur überblicksweise eingegangen werden, da er nicht das theoretische Fundament der vorliegenden Untersuchung bildet. Zudem stellt er keine »echte literaturwissenschaftliche Methode« (Jahraus 2004: 319) dar und versteht sich explizit auch nicht als einheitliches Theoriegebäude. Trotzdem kann er als ein Teil der theoretischen Fundierung aktuellerer Diskussionen zur Autorschaft angesehen werden. Dieser Bezug wird vor allem durch die Referenz auf die entsprechenden poststrukturalistischen Theoretiker (insbesondere Roland Barthes, Michel Foucault, Julia Kristeva) aufgerufen.6 Mit dem Begriff des ›Poststrukturalismus‹ bzw. von ›poststrukturalistischen Positionen‹ wird allgemein eine gewisse Denkrichtung erfasst, die sich auszeichnet durch: • die Erfassung der Welt als Text und damit genereller Intertextualität, • die prinzipielle Infragestellung tradierter literaturtheoretischer Konzepte, • die Absage an die Einheit des Autors und die Bedeutung des Autors für den Text und damit verbunden • die Absage an die Interpretierbarkeit von Texten. In der vorliegenden Untersuchung wird vor allem auf die Ausformung poststrukturalistischen Denkens bei Michel Foucault in Form des Dispositivs und der Diskursanalyse Bezug genommen. Trotzdem sollen an dieser Stelle eini5
6
Zu Barthes’ Text vgl. überblicksweise Jannidis et al. 2000b: 181-184. Für ausführlichere Diskussionen vgl. Nesbit 1987; Lamarque 1990; Burke 1992; Lauer 1999b; Martinez 1999a; Wirth 2001; Wolf 2002; Brune 2003; Gane/Gane 2003. Zum Poststrukturalismus vgl. überblicksweise Berressem 2004. Zur Einführung in den Poststrukturalismus als Literaturtheorie vgl. insbesondere die literaturwissenschaftlichen Einführungen Jahraus 2004 (S. 318-337) und Sexl 2004b. Pias 2003 bietet einen guten Überblick über poststrukturalistische Medientheorien. Eine stringente und aktuelle Einführung in das theoretische Feld haben Stefan Münker und Alexander Roesler in der »Sammlung Metzler« vorgelegt, vgl. Münker/Roesler 2000.
98 | DER DIGITALE AUTOR
ge Grundzüge des Poststrukturalismus diskutiert werden, nämlich Genese des Poststrukturalismus, Charakteristik des Diskurses, Gemeinsamkeiten und Uneinheitlichkeiten, Interpretationskritik und Subjektkritik. Entstanden ist die theoretische Strömung des Poststrukturalismus zum Großteil im Frankreich der späten 1960er Jahre als Antwort auf den Strukturalismus und als seine kritische Weiterentwicklung, was sich zum Teil in der personellen Kontinuität niederschlug. Seine Grundlagen wurden in »einem kleinen Zirkel von sich gegenseitig befruchtenden Denkern« (Berressem 2004: 544) in Paris entwickelt, wobei mit seinen Vertretern sehr verschiedene Disziplinen zusammenflossen, wie etwa Philosophie, Literaturkritik, Soziologie und Psychoanalyse. Bekannt geworden sind Michel Foucault und Roland Barthes, wobei bei beiden die genaue Zugehörigkeit durchaus umstritten ist, da sie sich vom Strukturalismus zum Poststrukturalismus hin bewegten und damit zu beiden Strömungen gezählt werden können (vgl. Münker/ Roesler 2000: 22-25; Sexl 2004b: 179). Als Höhepunkt der internationalen Rezeption des Theorieangebotes werden gemeinhin die 1980er Jahre angesehen (vgl. Berressem 2004: 544; Pias 2003: 278). In der jüngeren Forschung sind Muster und Methodologien des Poststrukturalismus in anderen Literaturtheorien aufgegangen. Seine »Provokationen« sind »vor allem aber in den Medienwissenschaften virulent« (Pias 2003: 278), was etwa am Erfolg der »gender studies« sowie der »cultural studies« deutlich wird. Am nachdrücklichsten materialisieren sich poststrukturalistische Positionen aber in dem daraus hervorgegangenen Konzept des Dispositivs sowie der Diskursanalyse nach Michel Foucault. Der Poststrukturalismus stellt keinesfalls eine einheitliche, strukturierte und in sich konsistente Theorie dar, weil seine Vertreter dies stets konsequent ablehnten und weiterhin verneinen. Er bildet eher eine Kritik der Theorie denn eine Theorie oder Methodologie. Stattdessen existiert ein breites Feld verschiedener Vorstellungen und Spielarten, die von einigen losen, gemeinsamen Grundüberzeugungen ausgehen. Claus Pias hat den Charakter des Postrukturalismus als nicht-einheitlichen Diskurs besonders drastisch beschrieben. Seiner Ansicht nach bildet er »alles andere als ein friedvolles und einheitsverdächtiges Terrain« (ebd.: 277). Mit dieser Auffassung wendet er sich gegen die im Forschungsdiskurs üblichen Versuche, den Diskurs ›einzufrieden‹ und zu ›kanonisieren‹. Dies geschähe laut Pias, indem in Einführungen oder Anthologien sehr unterschiedliche Positionen zu einem konsistenten und sich evolutionär entwickelnden Theoriegebäude zusammengeführt würden.7 Der Grund für die hohe Uneinheitlichkeit des Diskurses liege im Theorieangebot selbst begründet. Pias stellt heraus, dass sich der Poststrukturalismus explizit gegen »Formen der Kohärenzbegründung, des Strukturvertrauens und des Identitätsvorrangs« (ebd.) verwehrt. Stattdessen sei der Diskurs durch seine fundamentale Opposition zu traditionellen Theorien und Schulen gekennzeichnet: »›Poststrukturalismus‹ kann in diesem Sinne nicht die Geschichte einer methodischen Schule beschreiben, sondern nur die Praxis verschiedener Schreibweisen addieren, die das Schreiben solcher Geschichten gerade in Frage stellen.« (Ebd.) Poststrukturalistische Positionen zeichnen sich durch »ein gebrochenes Verhältnis zur Theorie« (ebd.) aus, sie haben nicht das Aufspüren von Mög7
Seine Kritik wendet sich so ausdrücklich gegen den Einführungsband von Münker/Roesler (2000), vgl. dazu Pias 2003: 277.
AUTORSCHAFTS-TYPOLOGIE | 99
lichkeiten und Begründungen im Visier, sondern untersuchen »Unmöglichkeiten«, »Auflösung« und »Verschwinden«. Der Poststrukturalismus bietet im ureigensten Sinn auch keine Medientheorie, sondern wie herausgestellt nur die Kritik der Theorie. Er wendet sich gegen die klassischen Methoden der Geistes- und Kulturwissenschaften und analysiert kritisch deren Voraussetzungssysteme, Axiome und Methodologien: »Poststrukturalismus bedeutet vielmehr eine Infragestellung der Möglichkeitsbedingungen tradierter geisteswissenschaftlicher Konzepte ›Geist‹, ›Geschichte‹ oder ›Mensch‹ selbst« (ebd.: 278). Dabei beabsichtigen poststrukturalistische Forscher eine Analyse und Kritik von traditionellen Verdrängungsmechanismen in Kultur, Gesellschaft und Wissenschaft. Sie gehen davon aus, dass sich die Gesamtheit von Kultur und damit auch die Gesamtheit von Bedeutung ausschließlich über »binäre Differenzierungsprozesse konstituieren« (Sexl 2004b: 182). Verbunden mit diesem Prozess der Konstituierung ist dabei stets ein immer ähnlich strukturierter Prozess der Verdrängung, der eine Seite der Unterscheidung konsequent marginalisiert, wie etwa Mann/Frau (verdrängt), Normalität/ Wahnsinn (verdrängt) usw. (vgl. ebd.). Allerdings stellt der Poststrukturalismus keine nihilistische Theorieströmung im Sinne einer »›anything goes‹-Attitüde« dar (Berressem 2004: 546). Stattdessen geht es ihm um eine produktive Analyse der Bereiche, den die kritisierten Konzepte ausfüllten oder beschrieben. Aus der grundlegenden Kritik an Theorie leitet er somit eine umfassendere Analyse der Theorie ab, da er sich außerhalb des untersuchten Phänomens situiert. Somit sieht er konsequenterweise auch sich selbst kritisch (vgl. Jahraus 2004: 319). Mit dem hier vertretenen Konzept des Dispositivs und der damit verbundenen Diskursanalyse muss einem solchen Standpunkt allerdings die Frage entgegen gehalten werden: Kann eine solche grundlegende Kritik praktisch tatsächlich umgesetzt werden oder bleibt sie nicht eine abstrakte Konstruktion? Faktisch vollzieht sich bekanntermaßen jede Kritik an wissenschaftlichen Theorien notwendigerweise in der Sprache und in den Regeln des wissenschaftlichen Betriebes und verhindert damit jedes Ausbrechen von selbst (vgl. Foucault 2001 [1972]). Kennzeichnend für den Poststrukturalismus ist also vor allem eine besondere Uneinheitlichkeit des Diskurses und daraus abgeleitet eine allgemeine Theoriekritik. Bei allen Divergenzen sind bei den verschiedenen Vertretern und Strömungen allerdings gewisse Gemeinsamkeiten festzustellen, die als Grundcharakteristika des Poststrukturalismus angesehen werden können. Martin Sexl hat insgesamt sechs dieser Charakteristika zusammengestellt, die so oder ähnlich auch von anderen Forschern konstatiert werden. Da er sie in seinem einführenden Text konzentriert und prägnant zusammengefasst hat, wird er in ausführlicher Form zitiert: »Charakteristisch für alle diese TheoretikerInnen sind (1) ein unverkennbarer und hermetisch wirkender Stil des Schreibens, der häufig in einem Zwischenraum zwischen Wissenschaft und Literatur angesiedelt ist, (2) der kritische Einspruch gegen systematisierende Tendenzen philosophischer Theorien, (3) eine kritische Selbstreflexion des eigenen Schaffens (4) eine radikale Kritik am Subjektbegriff und am Logozentrismus, d.h. an der Vormachtstellung des rationalen Sprechens und der Wissenschaft, (5) der Bezug auf dieselben philosophischen und linguistischen Vorläufer – auf Saussure und den Strukturalismus sowie auf Hegel, Nietzsche und Heidegger – sowie (6) eine an der Romantik erinnernde Hochschätzung des literarischen Diskur-
100 | DER DIGITALE AUTOR ses: Für StrukturalistInnen war Literatur ein Analysefeld unter anderen, für PoststrukturalistInnen wird sie zu einer Art Gegendiskurs, der die strenge Systematik der Wissenschaft zu durchbrechen vermag.« (Sexl 2004b: 182)
Gemeinsam ist den unterschiedlichen Strömungen des Poststrukturalismus allerdings auch, dass sie in ihrer grundlegenden Kritik zu einer fruchtbaren Bereicherung des allgemeinen kulturwissenschaftlichen Diskurses geworden sind: »Mit seiner Radikalisierung ist der Poststrukturalismus aber auch zu einer [sic!] der umfassendsten, wichtigsten und nicht zuletzt interessantesten, faszinierendsten wie auch umstrittensten Denkmodellen im 20. Jahrhundert weit über den Bereich der Literaturtheorie hinaus geworden.« (Jahraus 2004: 319) Es verwundert nicht, dass der Poststrukturalismus mit seiner Kritik an literaturtheoretischen Konzepten die Strömung darstellt, »die bislang am radikalsten alle Paradigmen literaturwissenschaftlicher Methodologie in Frage stell[t]« (ebd.: 318). Damit geht eine Kritik einher, die im Rahmen der vorliegenden Untersuchung wichtig ist. Der Poststrukturalismus verabschiedet danach nicht zuletzt auch den Autor als maßgebliche Ordnungsinstanz von Texten und Instanz ihrer Bedeutungsgenerierung. Mehr noch, das Konzept Text selbst wird in Frage gestellt. Dies bedeutet nicht zuletzt auch die völlige Negation der Interpretierbarkeit von Texten. Texte sind uninterpretierbar oder sogar ›unlesbar‹ (vgl. ebd.). Der Grund dafür liegt für poststrukturalistische Forscher darin, dass die Bedeutung von Texten weder vom Autor, vom Text oder vom Leser (allein) festgelegt werden können. Sie ist überhaupt nicht eindeutig fixierbar, sondern emergiert aus dem »unendliche[n] Spiel von Verweisen zwischen Vorwissen der LeserInnen, Texten und Diskursen« (Sexl 2004b: 180). Diese Verweise aber zielen von dem einzelnen Text oder Buch aus auf eine »komplexe Welt von Texten und Bezügen« (ebd.), die umfangreiche Zeiträume abdecken sowie auf die Gesamtheit der Kultur und Gesellschaft anspielen. Die Analyse von literarischen Texten schaltet damit um von der Analyse des einzelnen Werkes auf die Analyse der intertextuellen Beziehungen zu anderen Texten (vgl. Pflugmacher o. J.). Mit dieser allumfassenden Intertextualität geht einher, dass die Vorstellung eines autonomen, kontrollierenden Subjektes vom Poststrukturalismus abgelehnt wird. Stattdessen kann es seine Kritik stets nur in einem bestimmten Diskurs formulieren, dessen Regeln den Möglichkeiten von Kritik enge Grenzen setzen oder sie von vornherein unmöglich machen (Sexl 2004b: 184). Damit wird aber auch deutlich, dass der Autor jede Bedeutung verliert, weil sein schöpferischer Beitrag radikal negiert wird. Ebenso wie der Leser sei er von bereits existierenden Codes abhängig. Für den Poststrukturalismus »[gibt es, F. H.] somit kein ›Außerhalb‹ der Texte«; ebenso wie zwischen Literaturtheorie und Literatur als Gegenstand der Wissenschaft sind die Grenzen zwischen Textwelt und realer Welt aufgelöst. Damit wird die gesamte Welt als Text angesehen, der Poststrukturalismus selbst stellt keine einfache Literaturtheorie mehr dar, sondern eine umfassende Kulturtheorie (vgl. Pflugmacher o. J.).
4.3.2 Schreiber im ›starken Sinn‹ Das Modell des ›Schreibers‹ resultiert aus einer in der Theorie bislang am radikalsten formulierten Kritik am Autorkonzept. Nach Barthes kann der Autor
AUTORSCHAFTS-TYPOLOGIE | 101
nur als das Ergebnis einer (von ihm abgelehnten) kapitalistischen Ideologie angesehen werden, die mit ihm verbundene absolute Kontrolle des von ihm verfassten Textes wird als künstlich und kritikwürdig markiert. Dem setzt Barthes den Text selbst entgegen, der vielmehr »einen multidimensionalen textuellen Raum« darstellt, »ein Gewebe von Zeichen und Zitaten unterschiedlicher kultureller Provenienz«, das »nicht mehr eindeutig im Sinne des Autors entschlüsselbar ist« (Antor 2004: 662). Anstelle des Autors tritt der Text selbst und der zusammen mit ihm geborene »kompilatorisch[e] ›Schreiber‹ [scripteur] vorgegebenen Sprachmaterial[s]« (Jannidis et al. 2000b: 181, Hervorhebung im Original8). Mit dem »Tod des Autors« geht für Barthes die Geburt des Rezipienten einher, damit aber bringt er die Produktion und die Rezeption literarischer Texte in einen »engen Zusammenhang« (ebd.). Der intertextuelle Charakter literarischer Texte führt somit zu einer notwendigen neuen Art der Rezeption: »Texte sollen nicht hermeneutisch im Hinblick auf einen richtigen und endgültigen Sinn ›entziffert‹ werden; stattdessen sind ihre diffusen Sinngebungsstrategien zu ›entwirren‹.« (Ebd.: 182) Die einzelnen Bestandteile des Textes stehen in einem »dialogischen Verhältnis zueinander« und fließen »im realen historischen Leser« zusammen, »der als Träger der Bedeutungskonstitution an die Stelle des Autors rückt« (Antor 2004: 637). Jannidis et al. stellen zwei verschiedene Thesen in Barthes’ Essay heraus. Danach wäre der »Tod des Autors« zum einen ein systematisches Phänomen, zum anderen aber auch ein historisches. Grundsätzlich wären für Barthes »literarische Texte immer und notwendig autorlos«, markantes Kennzeichen literarischer Texte wäre gerade die »Loslösung von seinem Urheber« (Jannidis et al. 2000b: 182). Historisch gesehen würde die Gegenwart eine »Schwellenperiode« darstellen, sie würde die Neuzeit ablösen »als eine Epoche, in welcher der Autor zum unvermeidbaren Bezugspunkt im Umgang mit literarischen Texten wurde«. In ihr würde der »ältere, autorlose Text zurückkehr[en]« (ebd.). Beide Thesen würden allerdings auf das gleiche Ziel gerichtet sein: »Die Lektüre literarischer Texte ist heute von dem Autor als Bezugspunkt der Interpretation zu befreien, damit sie zur écriture [Schreibkunst, F. H.] werden kann.« (Ebd., Hervorhebung im Original) Das bedeutet knapp zusammengefasst, dass für Barthes nur Texte zu Schreibkunst werden, wenn und sobald sie von ihrem Autor bzw. ihren Autoren und dem Herstellungskontext entkleidet werden. Als performative Äußerung und als Schreibkunst erschafft sich der Text im Akt der Äußerung selbst. Jannidis et al. erkennen an dieser Stelle aber eine Inkonsistenz in Barthes’ Argumentation, wenn sie ausführen: »Barthes’ Verwendung dieses Begriffs [der performativen Äußerung, F. H.] ist allerdings irreführend. Während nämlich die écriture einen Text von seinem ursprünglichen Entstehungskontext mitsamt der Autorintention ablöst, ist der Erfolg einer performativen Äußerung gerade notwendig an ihre originale Äußerungssituation und an die Autorität des Sprechers gebunden.« (Ebd.: 181-183, Hervorhebung im Original)
8
Die zweite Einfügung »[scripteur]« ist mit den eckigen Klammern original im Text vorhanden, die erste und dritte Einfügung »[e]« bzw. »[s]« ist vom Verfasser, F. H.
102 | DER DIGITALE AUTOR
In Heinrich Deterings Unterscheidung zwischen »starken« und »schwachen« Autorschaftsphänomenen wird die von Roland Barthes vorgelegte Charakterisierung als Definition des ›Schreibers‹ im »starken Sinn« angesehen: »[Schreiber, F. H.] Im starken Sinne: Bezeichnung für den Schnittpunkt und schreibenden Aktant diskursiver, rhetorischer und intertextueller Stränge (bei Barthes).« (Polaschegg 2002: 323)
4.3.3 Schreiber im ›schwachen Sinn‹ Im »schwachen Sinne« stellt der Schreiber das »Konzept der schwächsten Form von Autorschaft« (ebd.) dar. Dieses Modell einer schwachen Autorschaft wird in einem Beitrag von Michael Wetzel in Detering 2002a erörtert (vgl. Wetzel 2002). Wetzel stellt heraus, dass durch die neuen, nicht-linearen und interaktiven Medien veränderte Konzepte von Autorschaft hervorgebracht würden. Dies diskutiert er unter der Spannung zwischen der für ihn nur scheinbaren Rückkehr des Autors in Gestalt des Programmierers und dessen völliger Entmündigung als einem der Hard- und Software ausgelieferten Benutzer/Handwerker/Schreiber. Der euphorisch gefeierten Rückkehr des Autors steht Wetzel eher skeptisch gegenüber. Anstelle der Wiederaufnahme bereits veralteter Autorbegriffe setzt er die Forderung nach neuen Konzepten. Sein Vorschlag ist das Konzept einer »bidirektionalen Schnittstelle« (ebd.: 290). Der Begriff des Autors würde dabei je operational eingesetzt für die Analyse der ›Hypertexter‹ in ihrer Rolle als Leser oder Schreiber. Damit solle die »Doppelfigur von Autor / Leser« (ebd.) in den Neuen Medien berücksichtigt werden. Wetzel liefert damit eine deutliche Gegenposition zum Mainstream der aktuellen Diskussion, kontrastiert das Modell Roland Barthes’ auf eine interessante Art und Weise und diskutiert Phänomene, die im Zentrum der vorliegenden Untersuchung stehen. Deshalb soll seine Position im Folgenden ausführlicher diskutiert werden. Michael Wetzel startet mit einer gewissen Verwunderung darüber, dass sich die »Diagnose vom ›Tod des Autors‹ […] nicht bestätigen zu wollen« (ebd.: 278) scheine und stattdessen eine gewisse »Rückkehr des Autors« stattfinden würde. Sein Erstaunen begründet er mit der Feststellung, dass diese »Rückkehr« inmitten einer Kommunikationsrevolution verlaufen würde, die nicht-lineare und interaktive Medien hervorbringt. Hier argumentiert Wetzel also von einem technik- und hypertexteuphorischen Standpunkt aus und impliziert, dass die erweiterten Produktionsmöglichkeiten in den Neuen Medien zwingend andere, als besser konnotierte Formen von (kollaborativer) Autorschaft nach sich ziehen müssten (ebd.). Die, wie Wenzel es ausdrückt, »Konjunktur des Autorbegriffs« (ebd.: 279), wäre zum einen durch die umfangreichen technologischen Möglichkeiten der Neuen Medien begründet. Der Autor als Programmierer könne die Rezeption seiner Arbeit durch das Setzen von Hyperlinks in höherem Maß steuern, als es im traditionellen Buchmedium möglich wäre. Auch die Rezipienten würden zu Autoren, indem sie den Verweisen folgten. Zum anderen würden die Prinzipien einer Autoren-Verantwortung auf juristischer Ebene auch in den Neuen Medien gelten. Diese »Konjunktur« des Begriffes oder vielmehr die neuerlich aufgeflammte Diskussion um den Autor an sich wird von Wetzel durchaus nicht kritisiert. Problematisch ist für ihn, dass in der Debatte damit verbunden, automatisch und unreflektiert von ihm als veraltet markierte Autorschaftskonzepte wieder aufgerufen würden: »Muß aber die
AUTORSCHAFTS-TYPOLOGIE | 103
Konjunktur des Autorbegriffs auch heißen, daß tatsächlich das einer bestimmten ästhetischen Tradition entstammende Konzept von Autorschaft – gewissermaßen im Sinne einer Falsifikation der strukturalistisch-poststrukturalistischen Todesthese – wieder Geltung erlangt?« (Ebd.) Er konstatiert eine gewisse ›Entleerung‹ des Autorbegriffes in dieser Form der Verwendung. Nahezu aller Bedeutungsdimensionen beraubt, würde der Autorbegriff nur noch eine Spur der juristischen Vorstellung von Verantwortung enthalten und eben nicht mehr für das genialistische, individualistische Modell stehen. Stattdessen befürchtet er, dass daraus resultierend das Konzept des ›genialen‹ Autors mit ihm »diametral entgegengesetzte[n]« Funktionen gefüllt werden und seinen Charakter ändern würde. Es würde sich schließlich zum »Handwerkliche[n], [zum] Schreiber- / Kopisten- / Transformationsmodell« wandeln (ebd.). Wetzel stellt hier einen interessanten Punkt heraus, denn die Debatte um Autorschaft in den Neuen Medien scheint tatsächlich noch zu stark mit traditionellen Begriffen zu arbeiten und zu wenig auf die medialen Besonderheiten einzugehen. Allerdings ist kritisch anzumerken, dass die Diskussion dabei durchaus souveräner mit den Modellen umgeht, als er es konstatiert. Hinzuweisen ist auf die immer wieder beschriebene Theorie-Praxis-Differenz in der Frage der Autorschaft sowie auf die Diskussion der Gleichzeitigkeit verschiedener Autorschaftsmodelle in synchroner und diachroner Perspektive. Michael Wetzel kritisiert zwei zentrale Verwendungsweisen des Begriffes Autor in der aktuellen Diskussion. Zum einen würde der Autor als Revenant erscheinen, als ›Gespenst‹ oder ›Geist‹, das bzw. der aus der Vergangenheit wiederkehrt. Zum anderen würde der Begriff in Form eines Oxymorons verwendet und damit zwei sich widersprechende Inhalte in einen Begriff pressen.
4.3.4 Rückkehr veralteter Autorbegriffe Wenn Wetzel auf die Rückkehr eines ›Gespenstes‹ aus der Vergangenheit anspielt, bezieht er sich auf die weiter oben referierte Erkenntnis, dass auf den Autor als Begriff zwar verzichtet werden kann, nicht aber auf die Funktionen, die das Konzept in der literaturtheoretischen Praxis einnimmt: »Das Gespenst hört nicht auf, die kulturwissenschaftliche Debatte heimzusuchen: das Gespenst des toten Autors. Es ist ein veritabler Geist, genauer ein Wiedergänger, ein Revenant, denn alle Versuche, ihm ein Ende zu bereiten, mit ihm fertig oder quitt zu werden, führten nur zur Wiederkehr der ganzen Problematik. Auch für Begriffe scheint zu gelten, daß Tote länger leben.« (Ebd.)
Wetzel bedauert ganz offensichtlich, dass der Rolle des (Autor-)Subjektes im künstlerischen Prozess nach wie vor eine hohe Bedeutung beigemessen wird, auch wenn die Entwicklung der Künste im 20. Jahrhundert unter der Bedingung ihrer technischen Reproduzierbarkeit das Gegenteil bewiesen hätte. So führt er die Fotografie und den Film als Beweise dafür auf, dass der »medientechnische Aspekt des kinematographischen [bzw. fotografischen, F. H.] Apparates oder Dispositivs« (ebd.: 281) die künstlerische Kreativität depotenziere. Die Werkherrschaft des einzelnen Autors würde schwinden, da die neuen technischen Mittel ein hohes Maß an Spezialisierung und Differenzierung in einer komplexen Medienproduktion verlangten. Der Autor in der
104 | DER DIGITALE AUTOR
Filmproduktion sei nur mehr Produzent (vgl. Benjamin 1991 [1935]) und habe weniger Einfluss auf das fertige Ergebnis als der Regisseur. Der traditionelle Glauben an die »Autorität der Autorschaft« (Wetzel 2002: 282) würde somit nachhaltig erschüttert. Von der »traditionell generativen Genialität des Autors« bliebe in diesem Prozess, so Wenzel, wenig: »Während in der literarischen oder malerischen Werkgenese die Signatur einen Abschluß des individuellen Schöpfungsprozesses darstellt, wird sie hier zum supplementären, wenn nicht gar parasitären Akt der Aneignung, der Aufpfropfung eines heterogenen Anspruchs auf Werkherrschaft.« (Ebd.: 281) Wenn aber bereits die Rolle des Autors in der Fotografie und (noch stärker) im Film einen solchen Bedeutungsverlust erfährt, dann verwundert es nicht, wenn Wetzel für die Neuen Medien eine auf Minimalfunktionen reduzierte Bedeutung des Autors reklamiert: »Und was ist dann mit dem Schreiben in elektronischen Medien wie dem Computer, bei denen zur Manipulation der Maschine als hard ware [sic!] noch die artifizielle Automatenintelligenz einer digitalen datenverarbeitenden soft ware [sic!] hinzukommt? Wer schreibt den Computertext – noch ein Autor oder schon der Text selbst im Sinne eines Wucherns seines Gewebes?« (Ebd.: 283; Hervorhebung im Original)
In einem knappen Exkurs zu den oft zitierten autorkritischen Texten von Roland Barthes und Michel Foucault kritisiert er die Debatte unter dem Stichwort »Rückkehr des Autors« als zu pauschal, weil niemand »jemals […] den Tod des Autors wirklich behauptet« (ebd.: 284) hätte: »Von einer Wiederoder Rückkehr des einstmals entthronten Autors kann also kaum die Rede sein, es sei denn, man wolle ihn unhistorisch gewissermaßen als Ding an sich des ›universe of discourse‹ hypostatisieren.« (Ebd.: 285) Am pauschalen Befund der »Rückkehr« übt Wetzel also konsequent Kritik. Stattdessen stellt er fest, dass es in der Autor-Figur zu einer Verschiebung gekommen sei, zu einer »Übertragung auf andere, supplementäre Bestimmung von Autorschaft am Werk« (ebd.: 286). Da aber die von Wetzel konstatierte Transformation so substantiell sei, wendet er sich gegen eine Fortführung des traditionellen Begriffes und fordert auch terminologisch eine Veränderung: »Sind also all die projektiven Identifikationen des Autors – z. B. als Produzent, als Monteur, als Performer, als Leser (›reader‹), als Editor etc. – überhaupt noch Bestimmungen von Autorschaft oder bezeichnen sie nicht vielmehr ein nichtauktoriales Schreiben / Kreiren [sic!], dem nur aufgrund der noch geltenden Trägheit einer hermeneutischen Perspektive Autornamen subsumiert werden.« (Ebd.)
Anstelle der für Wetzel untauglichen Synonyme für »Autor« setzt er den Begriff des »Conditors« und benennt damit allein die Funktion der Verfasserschaft (vgl. ebd.: 286). Diese Bestimmung des Autors in seiner schwächsten Funktion muss aber deutlich kritisch gesehen werden, wie weiter unten ausgeführt wird (vgl. Kapitel 4.3.7).
4.3.5 Karikatur des Autorbegriffes Wetzels Charakterisierung des Autorbegriffes als Oxymoron verweist auf seine Erkenntnis, dass gleichzeitig mit der Diskussion um die Rückkehr des Autors – Wetzel bezeichnet dies als »Wiederbeschwören« (ebd.: 289) – der
AUTORSCHAFTS-TYPOLOGIE | 105
Autor in seiner Rolle förmlich karikiert wird. In seiner Darstellung geht er von einem geschlossenen Autorschaftskonzept aus, das sich mit dem Medium Buch und dessen Ausdifferenzierungen nach Erfindung des Buchdruckes entwickelte. Autorschaft umfasst danach drei wesentliche Komponenten, nämlich die stilistische Individualität, die Intentionalität oder Authentizität sowie den Eigentumsanspruch (Copyright). Das Werk sei geschlossen und rückgebunden an die als transzendental charakterisierte Instanz des Autors (ebd.: 287). Wetzel konstatiert: »Mit der Digitalisierung der Schrift wird diese Geschlossenheit der auktorialen Ordnung gesprengt« (ebd.) und diskutiert die Folgen dieses Aufbrechens, wie sie in der einschlägigen Literatur dargestellt werden. Diese oszillieren zwischen dem Verlust jeglichen »Machtanspruch[s] der alten Subjekte in den kybernetischen Bildschirmwelten« und der Etablierung einer »demokratische[n] Verteilung der Autorfunktion« (ebd.). Bei Webtexten sind für ihn zwei Merkmale wesentlich, nämlich die Nicht-Linearität der Hypertexte sowie die Verzweigung von Hypertexten im Internet. Dadurch, so Wetzel, würden sowohl bei der Produktion als auch bei der Rezeption neue Kompetenzen notwendig. Klassische Gestaltungsmuster wie »Arrangement, Montage, Programmieren, Design etc.« (ebd.: 288) würden in Webtexten »explizit« und sprengten »die ideologischen Fesseln des artem celare« (ebd.). Damit würde wiederum das veränderte Künstlerbild des Ingenieurs (oder Conditors) deutlich, der nur noch Strukturen herstellt und Materialien ordnet. Doch stellt das Internet wirklich eine Welt dar, in der ein »unendlich freie[r] Umgan[g] mit Autor-, Urheber-, Schöpferfunktionen« möglich ist, »die beliebig von jederman [sic!] übernommen werden können« (ebd.)? Für Wetzel ist dies nicht der Fall, denn die Autorfunktionen würden in anachronistischer und die technischen Möglichkeiten negierender Form erscheinen. Anstelle der Freiheit der Leser träten Beschränkungen durch die Vorprogrammiertheit der Verknüpfungen, sodass die Lektüre oftmals stärker festgelegt sei als im traditionellen Buchmedium. Ob die von Wetzel diskutierten (älteren) textbasierten Internetspiele (MUDs) oder aktuellere (mehr audiovisuelle) Inkarnationen9 als Literatur anzusehen sind und damit deren Mitspieler als Mit-Autoren, scheint eine einigermaßen überflüssige Diskussion zu sein. MUDs wurden von der frühen Internetforschung als textbasiertes Phänomen sicherlich überstark herausgestellt (vgl. etwa Turkle 1999: 285-339) und sind immer noch (eingeschränkter) mit Fragen der virtuellen Identität und von virtuellen Gemeinschaften verbunden (vgl. Götzenbrucker 2001; Döring 2003: 98-109). Als tatsächlich genutzter Internetdienst haben die MUDs allerdings völlig an Bedeutung verloren. Aktuelle Internetspiele verschmelzen mit den herkömmlichen Computerspielen, hier liegt kaum literarische Kunst vor, als sie eine anerkanntermaßen sehr eigene Kunstform mit besonderen Spezifika darstellen, die analytisch nicht mit traditioneller oder Netzliteratur in einen Topf geworfen werden darf (vgl. Baumgärtel 2003; Baumgärtel/Albrecht 2003).
9
Beispiele wären etwa die grafische Online-Community »Second Life« oder die »Massively Multiple Online Role Playing Games« (MMORPG), also die internetbasierten Rollenspiele, an denen gleichzeitig mehrere zehn- oder hunderttausend Teilnehmer mitspielen.
106 | DER DIGITALE AUTOR
Wenn sich Michael Wetzel auf Sherry Turkles Analyse bezieht, dass MUD-Spieler immer auch MUD-Autoren darstellen (Turkle 1999: 13), sind seine Schlussfolgerungen trotzdem bemerkenswert: »Auf eigenwillige Weise verschmilzt hier das Wiederbeschwören des Autors mit einer Karikatur des Autors, der als genau das beschrieben wird, was traditionellerweise Autoren gerade nicht waren, und man versteht einen polemischen Vergleich wie den, daß das häufige Verkosten von Wein noch nicht zum Winzer macht.« (Wetzel 2002: 289)
Wetzel räumt zwar ein, dass in den Neuen Medien die subjektive Kreativität befördert werden kann, weil sie die Herstellung von virtuellen Welten ermöglichen; allerdings hält er es für sehr fraglich, ob sich Kreativität über das Spiel hinaus wirklich zu anspruchsvoller Kunst verdichtet und sich tatsächlich Autoren herausbilden: »Hier also vollzieht sich die Wiederkehr des Autors nur als sein Tod und seine Dissemination: als untoter Wiedergänger, ein Monster oder, wie man heute sagen müßte, als hybrider Cyborg-Autor.« (Ebd.) Dieser Punkt ist hochinteressant, markiert er doch exakt das Problemfeld der kollaborativen Literatur. Ist sie reines Spiel, künstlerisch anspruchslos und steht mehr in der Nachfolge des kreativen Schreibens? Oder sind im Moment nur unbefriedigende, erste Experimente festzustellen, die mittelfristig zu einer zukünftigen, anspruchsvollen, kollaborativen Literatur im Netz führen und tatsächlich so im Print-Medium nicht zu realisieren wären?
4.3.6 Neubestimmung des Autors als bidirektionale Schnittstelle Wenn Autorbegriffe aber zum einen nur als Wiederkehr veralteter Konzepte diskutiert werden, zum anderen scheinbar blanke Karikaturen darstellen, dann, so Wetzel, hat sich der Begriff selbst gleichsam ›entleert‹. Von seiner inhaltlichen Fülle wäre allein eine Spur der juristischen Vorstellung von Verantwortung zurückgeblieben. Stattdessen stelle der Autor nur noch eine Struktureinheit dar, einen »shifter […] der bestimmte Transformationen der medialen Prozesse betrifft« (ebd., Hervorhebung im Original). Diese Struktureinheit nehme eine »bedeutende Rolle« (ebd.) ein, weswegen Wetzel den Autor auch nicht völlig verabschiedet. In seinem Vorschlag einer »bidirektionalen Schnittstelle« (ebd.: 290) entfernt er sich von festen Autorschaftskonzepten, da sich diese in den Neuen Medien und den Technologien des digitalen Zeitalters ohnehin erledigt hätten. Stattdessen schaltet er auf operationale Verwendungsweisen und Zuschreibungen um. Der Begriff des Autors wird dabei je nach (Analyse-) Situation für die Untersuchung der ›Hypertexter‹ in ihrer Rolle als Leser oder Schreiber eingesetzt. Damit würde nicht zuletzt die »Doppelfigur von Autor / Leser« (ebd.) in den Neuen Medien berücksichtigt werden. Auch in der ›Zusammenarbeit‹ zwischen Mensch und Computer würden eindeutige Zuschreibungen von Autorschaft an das (schöpferische) menschliche Subjekt zugunsten der Modellierung von Transferprozessen zwischen beiden verabschiedet. Funktional träte die Transfer-Modellierung an die Stelle der von Wetzel als ›direktiv‹ und falsch gekennzeichneten Vorstellung einer Werkherrschaft des Menschen oder Autors (vgl. ebd.).
AUTORSCHAFTS-TYPOLOGIE | 107
Seine Thesen einschränkend stellt Wetzel heraus, dass sich sein Abgesang auf den Autorbegriff und seine Konzeption einer »bidirektionalen Schnittstelle« ausdrücklich nur auf die technischen Aspekte von (digitaler) Literatur bezögen. Die Konzeption eines Schreibers im schwächsten Sinne kollidiere somit nicht mit den in kulturellen, ökonomischen und juristischen Diskursen durchaus populären Vorstellungen von traditionellen, ›starken‹ Autoren. Hier verweist er darauf, dass notwendigerweise eine Kontroll- oder Machtinstanz ›Autorschaft‹ angenommen werden muss, die sich zwischen Autor, Leser und Werk befindet und je auf ihre Verortung zu analysieren ist (vgl. ebd.). Diese Einschränkung erscheint nicht ohne Grund als widersprüchlich. Wetzel kann zwar überzeugend darlegen, dass die Neuen Medien ungewohnte Formen von Autorschaft in einer funktional differenzierten Medienlandschaft oder -industrie hervorbringen, die an entsprechende Entwicklungen in Fernsehen und Film anschließen (und selbstverständlich auch für das ›traditionelle‹ Buchmedium gelten). Sehr zu begrüßen ist auch seine differenzierte Kritik an der automatischen Reaktivierung alter Autorschaftsmodelle unter dem Label »Rückkehr des Autors«. An ihre Stelle setzt er eine interessante, alternative Konzeption eines zwischen Autor und Leser ›changierenden‹ Modells, was präzise auf die Möglichkeiten und Folgen der Neuen Medien reagiert. Insoweit gehen seine Überlegungen in die richtige Richtung und sind anschlussfähig für weitere Diskussionen von Autorschaftsmodellen in den Neuen Medien. Allerdings irrt Wetzel in seinen Folgerungen für die literaturtheoretische Diskussion allgemein bzw. kann sich einer gewissen Radikalität eben doch nicht entziehen. Er vernachlässigt, dass in der Debatte durchaus keine simple Dichotomie zwischen »Tod des Autors« und »Rückkehr des Autors« herrscht. Stattdessen kann mittlerweile – wie dargestellt – ein souveräner Umgang mit verschiedenen Modellen von Autorschaft sowohl in synchroner als auch in diachroner Perspektive festgestellt werden. Auch den Auswirkungen neuerer, funktional differenzierter Medien auf die Rolle des Autors verschließt sich die Debatte explizit nicht (vgl. Kapitel 3.1). Viel zu radikal und damit zu kritisieren sind seine Folgerungen einer ›Entleerung‹ des Autorbegriffes, des Autors als ›parasitärer Aneignung‹ oder Auswuchs einer begrifflichen ›Trägheit‹. Wenn Wetzel nur auf die technischen Bedingungen der Produktion abhebt und den gesellschaftlichen Diskurs argumentativ einfach ausblendet, wird ein enormer Widerspruch deutlich. Von den technischen Möglichkeiten und Produktionsbedingungen direkt auf (neue) Formen von Autorschaften zu schließen, stellt eine vereinfachende und verfälschende Herangehensweise dar. Wie bereits gezeigt, umfasst Autorschaft notwendigerweise immer auch gesellschaftliche Zuschreibungen von Autorschaft, ganz unabhängig von den technischen Bedingungen. Der Schluss vom scheinbar post-modernen Medium (Internet) auf »postmodern[e], hybrid[e] Autorschaft« (ebd.) ist zu technikfixiert und technikeuphorisch, damit aber in seiner Radikalität zu kritisieren. Stattdessen verdeutlicht Wetzel anhand seines Bezuges auf den kulturellen Diskurs, in dem »Autorschaft ›fröhliche Urstände‹ feiert« (ebd.) gerade die Notwendigkeit einer fortgesetzten, differenzierteren Analyse, wie er sie vorschlägt. Zum ›Changieren‹ zwischen Autor und Leser sowie zwischen Mensch und Maschine muss sich notwendigerweise auch das ›Changieren‹ zwischen alten und neuen Autormodellen gesellen. Der Grund dafür ist evident: Auch in den Neuen
108 | DER DIGITALE AUTOR
Medien brechen sich scheinbar veraltete, traditionelle Formen von Autorschaft eben doch wieder Bahn. Wetzels Forderung, die Einflüsse des Dispositivs auf das Werk und auf den Autor viel stärker zu berücksichtigen, ist absolut zu unterstützen; stellt dies eben das Ziel der vorliegenden Untersuchung dar. Damit sind auch die Veränderungen des Autors in einer Form zu diskutieren, die über die bloße »Rückkehr« hinausgeht. Zu bekräftigen ist zudem seine Schlussfolgerung, die Neuen Medien auch unter dem Aspekt der mangelnden Freiheit der Leser zu untersuchen und damit das unzulässig vereinfachende Diktum vom »Tod des Autors« als der »Geburt des Lesers« zu verabschieden. Nicht nachvollziehbar ist jedoch seine Schlussfolgerung, den Autor nur noch und in jeder Hinsicht als ›bidirektionale Schnittstelle‹ anzusehen. Stattdessen ist stets davon auszugehen, dass der Autor selbst und damit auch die Trennung zwischen Autor und Leser auf gesellschaftlicher und künstlerischer Ebene enorm wirkungsmächtig werden.
4.3.7 Kritik am Schreiber-Modell Die Bedeutung der gesellschaftlichen und künstlerischen Dimension für Autorschaft und damit das Fortdauern von relativ starken Autorvorstellungen auch in scheinbar autorlosen Werken wird exemplarisch von Matías Martínez diskutiert. Er bezieht eine dezidiert Roland Barthes entgegenstehende Position, kritisiert also die Konzeption des Schreibers im »starken Sinn«. Allerdings kann seine Kritik ebenfalls auf die »schwache« Variante übertragen werden und damit auch auf Michael Wetzels Position. Martínez beklagt, dass das Diktum vom »Tod des Autors« stets kausal aus der Theorie der Intertextualität abgeleitet wurde und wird: »Kristeva und Barthes scheinen vielmehr, unter Berufung auf die unhintergehbare Intertextualität von Texten, bestreiten zu wollen, daß der Autor für die Erfassung der Bedeutung (›meaning‹) seines Textes relevant sei.« (Martinez 1999a: 466, Hervorhebung im Original) Seiner Ansicht nach steht Intertextualität der Autorschaft aber keineswegs entgegen, sondern er zeigt auf, »daß Intertextualität, selbst in extremen Fällen, Autorschaft nicht nur nicht ausschließt, sondern notwendig voraussetzt. Kristevas und Barthes’ poststrukturalistische Intertextualitätstheorie stellt keine zwingenden Argumente bereit, um den Tod des Autors auszurufen.« (Ebd.: 478) Martínez beweist seine These anhand der Analyse von Arbeiten aus verschiedenen Künsten, die unter dem Label ›ready mades‹ subsumiert werden können.10 Gemeinsam ist diesen Arbeiten, dass sie die Wirklichkeit hochgradig imitieren. Damit aber würde nach allgemeinem Verständnis ein Autor samt Intention für die Bedeutungserfassung des Kunstwerkes irrelevant sein. Martínez allerdings weist schlüssig nach, dass ohne Autorbezug bereits die Unterscheidung zwischen Gebrauchsgegenstand aus dem Alltag und (materiell identischem) Kunstwerk schlechterdings unmöglich ist. Der Autorbezug sei also äußerst notwendig für die Identifikation der Kunst (vgl. ebd.: 472). 10 ›Ready mades‹ bilden ein Untergenre von (traditioneller) Konzeptkunst, die als Vorläufer aktueller netzliterarischer Konzeptarbeiten angesehen werden kann, wie sie weiter unten sehr viel ausführlicher diskutiert werden (vgl. Kapitel 8.4). Das hier von Martínez erarbeitete Autorschaftskonzept kann damit m. E. auch zulässig auf Netz-Konzeptkunst übertragen werden.
AUTORSCHAFTS-TYPOLOGIE | 109
Somit entsteht aber ein logisches Problem, weil ›ready mades‹ offensichtlich in ihrer wirklichkeitsimitierenden Form kaum vergleichbar mit anderen, traditionellen Kunstformen sind. Die Rolle des Autors und seiner Autorschaft wird damit auch Änderungen unterworfen. Martínez löst dieses Problem, indem er konsequent zwischen dem Autor als »Urheber des Textes« und dem Autor als »konzeptuellen Schöpfer des Werkes« trennt (vgl. ebd.: 474, Hervorhebung im Original). Während in traditionellen Kunstformen beide Funktionen in einer Person zusammenfielen, verteilten sie sich bei den ›ready mades‹ auf verschiedene Erschaffer. Der Künstler hinter einem solchen Werk wäre nur noch der konzeptuelle Schöpfer, während er aber nicht der Urheber sei.11 Trotzdem wäre die Funktion des Schöpfers wichtig, da sie für Martínez »einem gegebenen Objekt eine neue, ästhetische Identität verleiht« (ebd.: 475). Insoweit kann für Martínez zwar der Autor als Urheber vernachlässigt werden, nicht jedoch der Autor als konzeptueller Schöpfer. Ein ähnliches Auseinandertreten von grundlegenden Autorfunktionen kann auch bei kollaborativer Netzliteratur festgestellt werden, strukturell identische Phänomene realisieren sich in der netzliterarischen Konzeptkunst. Ein Initiator oder Moderator erarbeitet die grundlegende Konzeption und legt die Regeln der Projekte fest, die anschließend von den Mitschreibern ausgeführt werden. Die Mitschreiber sind aber keinesfalls als gleichberechtigte CoAutoren aufzufassen (vgl. dazu auch Livingston 2005: 83). Damit wird für Martínez deutlich, dass die extreme poststrukturalistische Autorkritik unhaltbar ist: »Auf der Grundlage intertextualitätstheoretischer Argumente läßt sich der Autor aus der Textinterpretation nicht verabschieden.« (Ebd.: 466, Hervorhebung im Original) Er plädiert stattdessen dafür, den Autor systematisch als »notwendige[n] (wenngleich nicht hinreichenden) Bezugspunkt der Interpretation beizubehalten« (ebd.). Ohne Autorbezug, so Martínez, könne der ästhetische Sinngehalt des Textes kaum erfasst werden, die »Verabschiedung des Autors« würde »die Literatur selbst zum Verschwinden bringen« (ebd.: 475). Es kann allerdings kaum verwundern, dass diese Hervorhebung der Autorbedeutung von der Forschung als ›überraschend affirmativ‹ aufgenommen und in ihrer Begründung angezweifelt wurde. Martínez’ Analyse und seine Schlussfolgerungen sind in einem Aufsatz von Norbert Christian Wolf kritisiert worden, wobei er die Fokussierung auf die Autorintention allein ablehnte (vgl. Wolf 2002: 400-405). Diese Kritik resultiert aus einer Analyse Wolfs anhand von Pierre Bourdieus Feldtheorie. Martínez’ Einschätzung, dass der Autor aus der Textinterpretation nicht entfernt werden kann, auch und gerade nicht aufgrund intertextualitätstheoretischer Argumente, bleibt davon unberührt. Dies gilt offensichtlich insbesondere für die noch radikalere Kritik im Gewande der ›Entleerung‹ des Autorbegriffes.
11 Dabei ist zu beachten, dass die Bezeichnung ›Urheber‹ an dieser Stelle nicht mit dem juristischen Konzept von Urheberschaft gleichzusetzen ist. Die juristische Urheberschaft verbleibt beim Autor des Werkes und wird als traditionelles Konzept von den Feinheiten einer postmodernen Ästhetik nicht tangiert. Dieses im Detail zu diskutieren, würde allerdings an dieser Stelle zu weit führen.
110 | DER DIGITALE AUTOR
4.4 Modell ›Autorfunktion‹ Die dritte, zentrale Definition von Autorschaft ist das Konzept der Autorfunktion, das im Wesentlichen von Michel Foucault in seinem Vortrag »Was ist ein Autor?« (Foucault 2003 [1969]) formuliert und in der Literatur auch immer wieder auf ihn zurückgeführt wird. Die ›Autorfunktion‹ bzw. ›Autorfunktionen‹ nach Michel Foucault stellen danach »wesentlich[e] Kennzeichen von Diskursen« (Jannidis 2004: 38) dar, die allerdings nicht notwendigerweise auf einen realen, historischen Autor bezogen sein müssen. Es ist darauf hingewiesen worden, dass in eingeschränktem Maß bestimmte ›Autorfunktionen‹ auch anderen Instanzen wie etwa dem Diskurs oder der Intertextualität zugeordnet werden können (vgl. ebd.). Wie Heinrich Detering in seiner Autorschaft-Typologie zeigt, lassen sich in der Diskussion zwei Verwendungsweisen des Begriffes feststellen. Bei Michel Foucault stellt die Autorfunktion ein Dispositiv dar, das durch folgende Merkmale charakterisiert ist: »Historisch kontingen[t], diskursi[v] und institutionell gebunden [so]wie produzier[t]« (Polaschegg 2002: 323). Als Dispositiv steuert die Autorfunktion sowohl die Text-Klassifikation als auch deren Rezeption. Damit schließt Foucaults Konzeption der Autorfunktion an seine wegweisenden Re-Modellierungen und Analysen gesellschaftlicher Diskurse und Dispositive an. Foucault führt ferner auch Roland Barthes poststrukturalistische Konzeption des Schreibers als Reaktion auf den von Barthes postulierten »Tod des Autors« fort. Die zweite, jüngere Verwendungsweise des Konzeptes Autorfunktion ist eher pragmatischer Natur und wurde von Simone Winko im Kontext von Interpretationstexten formuliert. Winko benutzt den Plural-Begriff »Autorfunktionen« als Gesamtheit von »Funktionen, die die Bezugnahme auf den Autor, verstanden als empirischer Verfasser eines Textes oder als konstruierte Größe, in einem Interpretationstext leistet« (Winko 2002: 339). Damit verengt sie den Begriff Foucaults sehr stark und fokussiert nur auf »seinen argumentativen Einsatz in einem institutionell bestimmten Diskurs« (ebd.), nämlich Interpretationstexte, die autorkritisch oder autorzentriert daherkommen. Da die Bedeutung des Konzeptes Autorfunktion und die Bedeutung Foucaults selbst für die gesamte Autorschaftsdebatte kaum überschätzt werden können, werden beide Verwendungsweisen des Begriffes im Folgenden ausführlicher diskutiert.
4.4.1 Dispositiv Autor Wie Heinrich Detering bemerkt hat, modelliert Foucault die Funktion Autor ebenfalls als Dispositiv, auch wenn Foucault selbst den Begriff im Zusammenhang mit dem Autor – soweit das überblickt werden kann – nicht verwendet hat (vgl. Polaschegg 2002). Für diese Zuordnung scheint allerdings einiges zu sprechen. Auch wenn Foucault in seinem Text immer nur von »Diskursen« spricht, stellt die von ihm beschriebene Autorfunktion nämlich ebenso eine dispositive Anordnung dar, wie er sie für gesellschaftliche Phänomene wie Macht oder Sexualität beschrieben und analysiert hat. Diese Modellierung würde sich gut in die grundlegende Konzeption des Internets als mediales Dispositiv einfügen, wie es in der vorliegenden Untersuchung vorgeschlagen und ausgearbeitet wird. Sowohl Autoren als auch das Internet könnten damit als gesellschaftlich wirksame Dispositive erfasst wer-
AUTORSCHAFTS-TYPOLOGIE | 111
den. Sie würden ähnliche Strukturen aufweisen, entsprechenden Modifikationen unterworfen sein und vergleichbare gesellschaftliche Veränderungen hervorrufen. Dabei wären die beiden Dispositive allerdings nicht als gleichrangig zu bewerten. Das Internet müsste vielmehr als höherstufiges Dispositiv erfasst werden, das Autorschaft als niederstufige dispositive Anordnung umgreift (vgl. Hubig 2000: 41). Autoren agieren also im Dispositiv Internet. Wenn Autoren, wenn Konzepte von Autorschaft durch die dispositive Struktur des Internets beeinflusst und modifiziert werden, gelten diese Prozesse auch umgekehrt und das mediale Dispositiv wird durch Autoren und durch Autorschaft verändert. Die Feststellung, dass das Dispositiv die von ihm verursachten Veränderungen selbst wieder erfährt, gilt sicher auch für die Beziehung der Dispositive untereinander. Nicht nur die Autorfunktion scheint aber Züge eines Dispositivs zu tragen, auch die Analyse der Funktion könnte entsprechend einer DispositivAnalyse modelliert werden, wie weiter unten gezeigt wird. Es wird vorgeschlagen, das Dispositiv-Konzept im Sinne eines »Dispositivs Autor« auch für die folgenden Überlegungen nutzbar zu machen. Damit verweist Foucaults Text auf einen weit größeren Sinnzusammenhang, er legitimiert den Ansatz der vorliegenden Untersuchung, die Bedingungen neuer Autorschaft im Internet unter dispositivitären Gesichtspunkten zu analysieren. Foucaults Vortrag »Was ist ein Autor?« (»Qu’est-ce qu’un auteur?«, vgl. Foucault 2003 [1969]12) hinterfragt kritisch die ein Jahr zuvor veröffentlichten Überlegungen Roland Barthes’, ohne diesen jedoch explizit zu benennen. In ihrer Wirkung sind sich beide Texte ebenbürtig, auch Foucaults Vortrag wird heute noch breit rezipiert, diskutiert und »unendlich zitier[t]« (Erhart 2002).13 Foucault stellt die Abwesenheit des Schriftstellers als dessen wichtigstes Charakteristikum heraus, der Dichter müsse »die Rolle des Toten im Schreib-Spiel übernehmen« (Foucault 2003 [1969]: 239). Damit plädiert er für eine Loslösung vom Autorkonzept und reiht sich selbst in eine – für ihn – allgemein anerkannte Diskussion ein, denn »schon seit geraumer Zeit haben Kritik und Philosophie von diesem Verschwinden oder diesem Tod des Autors Kenntnis genommen« (ebd.). Hier wird der Bezug auf Barthes’ Diktum wortwörtlich deutlich, auch seine Kritik führt Foucault eng an Barthes’ Schlussfolgerungen entlang. Für Foucault steht nämlich fest, dass die an Stelle des Autors gesetzten Konzepte wie ›Werk‹ oder ›Schreiber‹ die in sie gesetzten Erwartungen nicht erfüllen können. Im Gegensatz zu Barthes hält Foucault diese Begriffe nur für synonyme Autorbegriffe, da sie noch zahlreiche Merkmale des Autors aufwiesen. Damit aber würden sie das Verschwinden des Autors »blockieren« und »umgehen« (ebd.: 240), sie würden »auf subtile Weise […] die Existenz des Autors« (ebd.: 241) bewahren (vgl. Jannidis et al. 2000b: 194). Für Foucault wird also deutlich, dass der Autor, vielmehr die Autorfunktion, nach wie vor vorhanden und für Diskurse weiterhin notwendig ist. Autorlose Diskurse modelliert er als Utopie, deren Einschränkungen er gleichzeitig herausstellt (Foucault 2003 [1969]: 259-260).
12 Zu Foucaults Text vgl. überblicksweise Jannidis et al. 2000b: 194-197. Für ausführlichere Diskussionen vgl. Burke 1992; Jannidis 1999; Lauer 1999b; Scholz 1999; Niefanger 2002; Thums 2002. 13 Vgl. etwa die zahlreichen Abdrucke in Sammelbänden und Readern der letzten Jahre, vgl. Foucault 1996 [1969]; Foucault 1999 [1969]; Foucault 2000 [1969]; Foucault 2001 [1969]; Foucault 2003 [1969].
112 | DER DIGITALE AUTOR
Seine Präferenz für autorlose Diskurse, vielmehr seine deutlich zugespitzte Kritik am herkömmlichen Autorkonzept, entsprang seinem diskursanalytischen Untersuchungsverfahren. Ihm ging es nicht um eine literaturwissenschaftliche Interpretation eines einzelnen Textes, eine Ermittlung von Textbedeutung oder der Autorabsicht. Stattdessen analysierte er die Behandlung von Themen sowie die Ausschließungen von Themen oder Behandlungsweisen. Elemente seiner Untersuchungsmethodik waren damit die über einzelne Werke und Autoren hinausgehenden Themen, die in Diskurse münden. Der einzelne Text bzw. der einzelne Autor würden damit unwichtig und müssten konsequenterweise auch ausgeblendet werden. Damit wird aber Foucaults Provokation gegenüber traditionellen literaturwissenschaftlichen Verfahren deutlich (vgl. Jannidis et al. 2000b: 194). Es ist interessant, unter dieser Perspektive das elf Jahre später in »Le Monde« publizierte Interview »Der maskierte Philosoph«14 zu lesen. In diesem berühmt gewordenen Gespräch mit Christian Delacampagne versuchte Foucault, sich hinter der Maske der Anonymität zu verstecken. Er hoffte so, vorschnellen Urteilen aufgrund seines Namens zu entgehen und sich gleichsam direkt Gehör zu verschaffen. Hier wurde der Versuch deutlich, seine utopische Vorstellung eines autorlosen Diskurses im Kleinen zu exemplifizieren. Gleichzeitig wird auch das Scheitern dieses Vorhabens offensichtlich, denn der Text wurde bereits kurz nach seiner Publizierung dem Autornamen Foucault zugeordnet (vgl. die deutsche Erstveröffentlichung in Foucault 1984, die hier benutzte Ausgabe ist Foucault 1999 [1980]). »Mit dem Autorennamen macht man es sich einfach« (Foucault 1999 [1980]: 14). Mit dieser Bemerkung warnte Foucault die Vertreter von Literaturwissenschaft und Literaturkritik, die vor ihm und Barthes sowie auch danach zu einfache Modelle von Autorschaft annahmen und diskutierten. Als »maskierter Philosoph« schlug er vor, für die Dauer eines Jahres Bücher nur ohne Autornamen zu veröffentlichen und die Kritiker somit mit einer rein anonymen Produktion herauszufordern. Seine implizite Hoffnung, die Dominanz des Autorbegriffes wenigstens einmal punktuell aufzulösen, enttäuschte er gleich selbst. Vermutlich würde dieses Unterfangen scheitern, weil »alle Autoren […] das nächste Jahr abwarten [würden, F. H.], um ihre Bücher zu publizieren« (ebd.). Damit wird Foucaults Position in der Frage der Autorschaft deutlich. Trotz seiner utopischen Modellierung autorloser Diskurse geht er pragmatisch vom Vorhandensein relativ starker Autorfunktionen aus. In seiner 1969er Analyse von Autorfunktionen bezog er sich auf fiktionale Texte und untersuchte die Funktionen des Autornamens in (literarischen) Diskursen: »Es genügt freilich nicht, als leere Aussage zu wiederholen, dass der Autor verschwunden ist. […] Was man tun müsste, wäre, das Augenmerk auf den durch das Verschwinden des Autors leer gelassenen Raum zu richten, der Verteilung der Lücken und Bruchstellen nachzugehen und die durch dieses Verschwinden frei gewordenen Stellen und Funktionen auszuloten.« (Foucault 2003 [1969]: 242)
In seiner Analyse differenziert er dabei nach drei Dimensionen des Autornamens. Zum ersten stelle der Autorname eine besondere Variante des Eigen14 Originaltext: »Le philosophe masqué«, Interview mit Christian Delacampagne, in: Le Monde, 6 April 1980, pp. I en XVII.
AUTORSCHAFTS-TYPOLOGIE | 113
namens dar und liege ebenso wie dieser im Spannungsfeld zwischen Bezeichnung und Beschreibung eines Individuums. Die besonderen Schwierigkeiten des Autornamens resultieren für Foucault aus dem Fakt, dass »die Verknüpfung des Eigennamens mit dem benannten Individuum und die des Autornamens mit dem, was er benennt, […] nicht isomorph [sind] und […] nicht auf dieselbe Weise [funktionieren, F. H.]« (ebd.: 243). Zum zweiten stehe der Autorname für die klassifikatorische Funktion, die er in bestimmten Diskursen übernimmt.15 Damit würde er zur Autorfunktion, die »eine gewisse Zahl von Texten zusammenfassen, sie abgrenzen und anderen gegenüberstellen« (ebd.: 244) könne. Die Autorfunktion charakterisiere dabei eine »bestimmte Erscheinungsweise des Diskurses« (ebd.). Foucault trennt künstlerische bzw. künstlerisch rezipierbare Diskurse mit Autornamen von autorlosen, »unmittelbar konsumierbare[n]« Diskursen, die durch »alltägliches, gleichgültiges Reden« gekennzeichnet wären (ebd.: 245). Zum dritten identifiziert Foucault im Autornamen den Begründer von Diskursen selbst: »Er kennzeichnet eine bestimmte Gesamtheit von Diskursen, und er bezieht sich auf den Status dieses Diskurses innerhalb einer Gesellschaft und innerhalb einer Kultur.« (Ebd.) Foucault spricht davon, dass der Autorname weder mit einem Menschen noch mit einem wie auch immer gearteten Werk zusammenhänge. Stattdessen markiere er einen »Bruch«, der bestimmte Diskurse und deren »Erscheinungsweise[n]« (ebd.) hervorbrächte. Mit dieser Argumentation begründet er auch, dass sich in der Kultur sowohl Diskurse mit Autorfunktion als auch autorlose Diskurse feststellen ließen. Damit wäre die Autorfunktion »charakteristisch für Existenz-, Zirkulations- und Funktionsweise bestimmter Diskurse innerhalb einer Gesellschaft« (ebd.). Die Autorfunktion stelle für Michel Foucault somit auch ein »wesentliches Kennzeichen von Diskursen« (Jannidis 2004: 38) dar. Sein Hauptinteresse ist die Untersuchung der Merkmale von autortragenden in Abgrenzung zu autorlosen Diskursen. Diese Charakterisierung der Autorfunktion hat in der Forschung den größten Einfluss erlangt und ist am meisten rezipiert worden. Mit Foucault können insgesamt vier Merkmale der Funktion ›Autor‹ erfasst werden (vgl. Foucault 2003 [1969]: 245-251, vgl. auch Jannidis et al. 2000b: 194-196). (1) Die Autorfunktion kennzeichnet Foucault als »Gegen[stand] der Aneignung« (Foucault 2003 [1969]: 245). Seit der juristischen Kodifizierung des Urheberrechts Ende des 18./Anfang des 19. Jahrhunderts bestünde zwischen Autoren und Texten ein festgeschriebenes Eigentumsverhältnis, das aber faktisch schon früher eingesetzt hätte. Damit wäre der Autor in das »Eigentumssystem« der Gesellschaft aufgenommen worden. (2) Wie bereits bemerkt, würde die Autorfunktion keinen universellen Charakter aufweisen, denn »[a]ndererseits wird die Autor-Funktion nicht bei allen Diskursen auf eine universelle und konstante Weise ausgeübt« (ebd.: 246). Als Beleg dafür führt Foucault ins Feld, dass literarische Texte vor dem 17. Jahrhundert autorlos gewesen wären, während wissenschaftliche Texte nur durch den Autorbezug legitimiert worden wären. Im 17. oder 18. Jahrhundert sei es zu einer Umkehrung der Verhältnisse gekommen, seitdem 15 In einer kritischen Weiterentwicklung von Foucaults Konzept des Autornamens als klassifikatorische Funktion (fonction classificatoire) erweiterte Dirk Niefanger dessen Bestimmung als reinen Ordnungsmechanismus. Vgl. dazu das Kapitel 3.4.
114 | DER DIGITALE AUTOR
wären wissenschaftliche Texte nicht durch den Autorbezug legitimiert, sondern etwa durch ihre Wahrhaftigkeit. Literarische Texte könnten dagegen nur rezipiert werden, wenn ihnen Autorfunktionen zugeordnet sind, die die Texte intentional einbetten. (3) Die Autorfunktion würde sich nicht spontan bilden, sondern aus der komplizierten Konstruktion bzw. Erschaffung eines Vernunftwesens Autor resultieren. Der so konstruierte Autor besitze nur vordergründig einen realistischen Status. Stattdessen wäre er »nur die mehr bis minder psychologisierende Projektion der Behandlung, die man Texten angedeihen lässt« (ebd.: 248). Aber nach welchen Regeln werden Autoren konstruiert? Foucault beschreibt vier Operationen, die trotz aller Unterschiede der historischen Diskurse eine gewisse Unveränderlichkeit aufwiesen und an die christliche Exegese anschlössen. Erstens könne der Autor als ein »bestimmtes konstantes Wertniveau« (ebd.: 249) erfasst werden, das qualitativ schlechte Texte aus dem Werk ausschließe. Zweitens markiere der Autor »ein bestimmtes Feld begrifflicher oder theoretischer Kohärenz« (ebd.), womit dem Gesamtwerk widersprechende Texte entfernt werden würden. Sei der Autor, drittens, als »stilistische Einheit« (ebd.) definiert, würden Texte ausgeschlossen, die einen vom Werk abweichenden Stil aufwiesen. Schließlich stünde der Autor, viertens, für einen »bestimmte[n] historische[n] Augenblick und ein[en] Schnittpunkt von Ereignissen« (ebd.). Dies schließe Texte aus, die sich auf Ereignisse nach dem Tod des Autors beziehen. (4) Alle Diskurse mit der Funktion ›Autor‹ seien durch eine »Pluralität des Ego« (ebd.: 250) gekennzeichnet. Dies resultiert für Foucault aus der Tatsache, dass Autorfunktionen nicht nur aus dem Text ›aus zweiter Hand‹ rekonstruiert werden würden. Stattdessen liefere der Text anhand von grammatischen Formen selbst Hinweise auf den Autor, etwa durch Personalpronomen oder Adverbien der Zeit und des Ortes. In Diskursen ohne Autorfunktion seien diese Formen problemlos als Hinweise auf den realen Sprecher zu deuten. Dagegen kommt es in autorbezogenen Diskursen zu einer »Aufspaltung« (ebd.: 251) des Sprecher-Ichs. Es beziehe sich weder direkt auf den realen Schriftsteller oder auf die Schreibgeste, sondern verweise auf ein »alter ego, dessen Distanz zum Schriftsteller mehr oder minder groß sein kann und im selben Werk auch variieren kann« (ebd.: 250, Hervorhebung im Original). Die Autorfunktion materialisiere sich gerade in diesem Bruch, dieser Zersplitterung. Neben diesen vier Merkmalen der Autorfunktion, die sich vor allem auf das einzelne Werk beziehen, stellt Foucault aber auch einen diskursübergreifenden Charakter der Autorfunktion heraus. Als »Diskursivitätsbegründer« (ebd.: 252) bezeichnet er Autoren, die über einzelne Bücher hinaus für die Hervorbringung von Theorien, Traditionen oder Fächer verantwortlich sind. Autoren in diesem Sinne würden aber nicht mehr nur Werke im klassischen Verständnis schaffen, sondern Möglichkeiten und Regeln für weitere Texte formen; Foucault bezeichnet diese Regeln auch als »Formationsregeln« (ebd.). Charakteristisch für »Diskursivitätsbegründer« wie Karl Marx oder Siegmund Freud ist für Foucault, dass diese nicht einfach nur analoge Nachahmungen ermöglichten, wie das jeder Romanautor könnte. Stattdessen gestatteten sie eine vollständige »Reihe von Unterschieden. Sie haben den Raum für etwas anderes als sich selbst geöffnet, das jedoch zu dem gehört, was sie begründet haben« (ebd.: 253). Diskursivitätsbegründung besitze da-
AUTORSCHAFTS-TYPOLOGIE | 115
bei eine andere Qualität als Wissenschaftsbegründung, wie Foucault ausführlich erörtert hat (vgl. ebd.: 253-257). In der jüngeren Diskussion um Foucaults Modell ist darauf hingewiesen worden, dass Autorfunktionen für Foucault auch auseinander treten und sich auf verschiedene Instanzen verteilen können. Klaus Weimar hat die grundlegende Möglichkeit des Auseinandertretens hervorgehoben, die sich ergibt, weil Autorschaft notwendigerweise immer »doppelte Autorschaft« darstelle. Er fordert, zwischen dem Autor als Produzent der Schrift und dem Autor als Produzent von Sprache oder »Textwelt« zu unterscheiden (vgl. Weimar 1999). Matias Martínez trennte den Autor ebenfalls, er differenzierte konsequent zwischen dem Autor als »Urheber des Textes« und dem Autor als »konzeptuellen Schöpfer des Werkes« (vgl. Martinez 1999a: 474). Dass der Autor im Netz sogar eine Verdreifachung erfahre, weil zudem die Grenze zum Herausgeber aufgehoben würde, hat Uwe Wirth herausgestellt (vgl. Wirth 2001). Dem Dispositiv Internet und der digitalen Literatur ist das Auseinandertreten von Autorfunktionen dabei besonders gemein. Aus der Charakterisierung der Autorfunktion entwickelte Foucault schließlich ein erstes Modell der historischen Analyse von autorgeprägten Diskursen: »Vielleicht ist es an der Zeit, Diskurse nicht mehr nach ihrem Ausdruckswert oder nach formalen Transformationen zu untersuchen, sondern in ihren Existenzmodalitäten: in der Art und Weise ihrer Zirkulation, ihrer Bewertung, ihrer Zuschreibung, ihrer Aneignung variieren die Diskurse mit jeder Kultur und verändern sich in jeder Kultur; die Art, in der sie sich über die sozialen Verhältnisse äußern, lässt sich meiner Meinung nach direkter im Spiel der Autor-Funktion und in ihren Veränderungen entziffern als in den Themen und Begriffen, die sie ins Werk setzen.« (Foucault 2003 [1969]: 258)
Aus dieser Konzeption einer historischen Analyse leitete er eine Utopie von autorlosen Diskursen ab. Die Funktion Autor, so vermutete er, stelle nur eine »mögliche Spezifikation« (ebd.: 259) der Subjekt-Funktion dar. Die Funktion ›Subjekt‹ wäre aber ähnlich in den Diskurs eingebunden und auch analog der Autorfunktion zu analysieren. Aus der historischen Analyse der Funktion ›Subjekt‹, so hofft Foucault, müsse sich schließlich auch ableiten lassen, dass die Autorfunktion keine notwendige Spezifikation der Subjektfunktion darstelle: »Man kann sich eine Kultur vorstellen, in der Diskurse zirkulierten und rezipiert würden, ohne dass es die Autor-Funktion gäbe« (ebd.). Damit setzte er aber an die Stelle von Barthes Einschätzung vom »Tod des Autors« sein eigenes Diktum, das ein Zitat von Samuel Beckett darstellt: »Was liegt daran wer spricht, hat jemand gesagt was liegt daran wer spricht?« (Ebd.: 238). Dieses Diktum erfreut sich einer gewissen Prominenz im literaturtheoretischen Diskurs, allerdings in einer anderen (falschen) Übersetzung: »Wen kümmert’s, wer spricht, hat jemand gesagt, wen kümmert’s, wer spricht?« (Foucault 2000 [1969]: 202). Eine solche Differenz zwischen den Übersetzungen muss überraschen, da es sich doch dabei um ein Zitat eines anderen Textes handelt. Es erstaunt auch, dass seine eigentlichen Wurzeln recht diffus bleiben. Dieses Zitat aber spielt eine besonders zentrale Rolle im Autorbegriff Foucaults und darüber hinaus auch in dessen Rezeption. Daher wird es im nächsten Abschnitt in einem etwas neben der hauptsächlichen Argumenta-
116 | DER DIGITALE AUTOR
tionslinie stehenden Exkurs näher erläutert. Dabei wird zum einen evident, dass zwischen der Differenz der Übersetzungen und der Verneblung des Ursprunges ein gewisser Zusammenhang besteht. Zum anderen wird gezeigt, dass ein genaues Verständnis des Wurzeltextes auch zu einem besseren Verständnis von Foucault selbst führt. Anhand der etwas ausführlicheren Diskussion von Foucaults Text sollte deutlich geworden sein, dass es ihm nicht um die Verabschiedung des Autors ging, sondern um den Entwurf einer differenzierten historischen Analyse der Autorfunktion. Diese Autorfunktion trägt aber – wie erwähnt – alle Züge eines Dispositivs; auch die Analyse der Funktion weist nicht zu übersehende Parallelen zur Dispositiv-Analyse auf, wie weiter unten gezeigt werden wird. Es ist daher nicht verwunderlich, wenn in der aktuelleren Forschung beklagt wird, dass Foucaults Text in der Vergangenheit gemeinhin nur im (falschen) Zusammenhang mit Barthes’ Diktum vom »Tod des Autors« rezipiert wurde: »Die breite Rezeption von Foucaults Text hat sich weniger auf seine historische Analyse bezogen, sondern ihn vor allem als Begründung für den endgültigen Abschied von Autor genommen.« (Jannidis et al. 2000b: 196)
4.4.2 Exkurs: Michel Foucault und Samuel Beckett Die Forschung stimmt darin überein, dass das berühmte Foucaultsche Diktum »Wen kümmert’s, wer spricht, hat jemand gesagt, wen kümmert’s, wer spricht?«16 gleichsam die Essenz seines Vortrages »Was ist ein Autor?« darstellt. Mit der verkürzten Version »Wen kümmert’s, wer spricht?« wird sein Vortrag bereits eingeleitet (in dessen Ankündigung, Foucault 2000 [1969]: 198) und eben diese Kurzfassung beschließt ihn auch (ebd.: 227). An zentraler Stelle deutet Foucault kurz seine Quelle an und ordnet das ausführliche Zitat für sich selbst programmatisch ein: »Die Formulierung des Themas, von dem ich ausgehen möchte, übernehme ich von Beckett: ›Wen kümmert’s, wer spricht, hat jemand gesagt, wen kümmert’s, wer spricht.‹ In dieser Gleichgültigkeit muß man wohl eines der ethischen Grundprinzipien heutigen Schreibens erkennen.« (Ebd.: 202)17 Dass es sich dabei um eine falsche Übersetzung eines Beckett-Zitats aus dessen »Texts for Nothing« handelt (vgl. Beckett 1974 [1954]), ist mitsamt den Folgen scheinbar nicht besonders intensiv reflektiert worden. Im Folgenden soll zuerst die etwas komplizierte Rezeptionsgeschichte des Textes nachvollzogen werden, anschließend ist der Ursprungstext bei Beckett zu diskutieren. Die zunächst zitierte, falsche Übersetzung entstammt der 1974 in deutscher Erstausgabe im Nymphenburger Verlag erschienenen Textsammlung »Michel Foucault: Schriften zur Literatur«, die 1988 im Fischer Taschenbuch Verlag in einer Lizenzausgabe nachgedruckt wurde. Dabei war die Übersetzung aus dem Französischen von Karin von Hofer und Anneliese Botond besorgt worden (vgl. Foucault 1988 [1974], »Was ist ein Autor?«: 7-31). Die 16 Das französische Originalzitat lautet: »Qu’importe qui parle, quelqu’un a dit qu’importe qui parle.« (Foucault 1994: 792). 17 Das französische Originalzitat lautet: »Le thème dont je voudrais partir, j’en emprunte la formulation à Beckett: ›Qu’importe qui parle, quelqu’un a dit qu’importe qui parle.‹ Dans cette indifférence, je crois qu’il faut reconnaître un des principes éthiques fondamentaux de l’écriture contemporaine« (Foucault 1994: 792).
AUTORSCHAFTS-TYPOLOGIE | 117
meisten der in jüngerer Vergangenheit publizierten und damit greifbaren Textsammlungen, die den Text »Was ist ein Autor?« beinhalten, druckten die Übersetzung von Hofer/Botond mitsamt den problematischen Stellen nach (vgl. etwa Foucault 1996 [1969]; Foucault 1999 [1969]; Foucault 2000 [1969]). Es erscheint als ein besonders unglücklicher Umstand, dass ausgerechnet die sehr gelungene und preiswerte Textsammlung »Texte zur Theorie der Autorschaft« (vgl. Jannidis et al. 2000b) gerade ein Jahr zu früh erschienen ist, um die jüngste Übersetzung von Foucault aufnehmen zu können. Daher verwundert es auch nicht, dass ein überwältigender Großteil der Aufsätze und Analysen zu Foucaults Text aus diesen veralteten Nachdrucken zitieren. Dies gilt auch für die in der vorliegenden Untersuchung berücksichtigten Artikel (vgl. etwa die Beiträge in Detering 2002a oder Jannidis et al. 1999b). Erst zwischen 2001 und 2005 erschien die vollständige deutsche Ausgabe der gesammelten »Schriften« Foucaults, herausgegeben von Daniel Defert und Francois Ewald, in einer neuen Übersetzung von Michael Bischoff, Hans-Dieter Gondek und Hermann Kocyba.18 Im 2001 herausgebrachten ersten Band ist der Text »Was ist ein Autor?« in der neuen und erweiterten Übersetzung veröffentlicht (vgl. Foucault 2001: 1003-1041). Eine von Martin Stingelin besorgte Auswahl der literaturtheoretischen Arbeiten Foucaults wurde auf Basis der neuen Übersetzung zwei Jahre später als Taschenbuch im Suhrkamp-Verlag aufgelegt, ebenfalls unter dem Titel »Michel Foucault: Schriften zur Literatur«19 (vgl. Foucault 2003, »Was ist ein Autor?«: 234270). In der neuen Übersetzung lautet die oben zitierte Passage: »Die Formulierung des Themas, von dem ich ausgehen möchte, übernehme ich von Beckett: ›Was liegt daran wer spricht, hat jemand gesagt was liegt daran wer spricht?‹ In dieser Gleichgültigkeit muss man wohl eines der grundlegenden ethischen Prinzipien zeitgenössischen Schreibens erkennen.« (Foucault 2003 [1969]: 238)
Auffallend ist, dass das Beckett-Zitat in beiden Übersetzungen sehr unterschiedlich ist. Woran liegt das? Das originale Zitat von Samuel Beckett (1906-1989) findet sich im dritten Text der Textsammlung »Textes pour rien« (1954), englische Ausgabe: »Texts for Nothing« (1974). Im deutschsprachigen Raum ist der Text 1962 in dem etwas erweiterten Band »Erzählungen und Texte um Nichts« (vgl. Beckett 1977 [1954]20) erschienen. Die
18 Foucault, Michel, 2001-2005: Schriften in vier Bänden. Dits et Ecrits. Herausgegeben von Daniel Defert und François Ewald unter Mitarbeit von Jacques Lagrange. Aus dem Französischen übersetzt von Reiner Ansén, Michael Bischoff, Hans-Dieter Gondek, Hermann Kocyba und Jürgen Schröder. Bd. 1: 1954-1969, 2001. Bd. 2: 1970-1975, 2002. Bd. 3: 1976-1979, 2003. Bd. 4: 1980-1988, 2005. Frankfurt am Main: Suhrkamp. Französische Vorlage: Michel Foucault, 1994: Dits et Écrits. Édition établie sous la direction de Daniel Defert et François Ewald avec la collaboration de Jacques Lagrange. 4 Bände. Paris: Éditions Gallimard. 19 In der vorliegenden Untersuchung wird der Text »Was ist ein Autor« nach der Taschenbuchausgabe von 2003 zitiert. 20 Die verwendete, 1977 erschienene Ausgabe ist gekennzeichnet als »23. - 24. Tsd.«. Es kann davon ausgegangen werden, dass sie identisch ist mit der 1962 veröffentlichten Ausgabe (bezeichnet als »1. - 5. Tsd.«).
118 | DER DIGITALE AUTOR
englisch- sowie deutschsprachigen Ausgaben werden im Folgenden näher diskutiert. Im Englischen lautet das prominente Zitat von Beckett korrekt »What matter who’s speaking, someone said what matter who’s speaking« (Beckett 1974 [1954]: 16). Foucaults Verwendung lautet – je nach Übersetzung – »What difference does it make who is speaking« (vgl. etwa Foucault 1979 [1969]: 141) oder »›What does it matter who is speaking‹, someone said, ›what does it matter who is speaking‹« (vgl. etwa Foucault 1984 [1969]: 101). Bereits hier wird deutlich, dass die ältere deutsche Übersetzung von Foucaults Version stärker vom Ursprung abweicht: »Wen kümmert’s, wer spricht, hat jemand gesagt, wen kümmert’s, wer spricht« (Foucault 2000 [1969]: 202). Stattdessen heißt es bei Beckett und in der neueren FoucaultÜbersetzung: »Was liegt daran wer spricht, hat jemand gesagt was liegt daran wer spricht« (Foucault 2003 [1969]: 238). Das verzerrte Beckett-Zitat ist, soweit das überblickt werden kann, erst in der ab 2001 erschienenen deutschen Gesamtausgabe von Foucaults »Schriften« behoben worden. Dieser Ausgabe legt eine völlige Neuübersetzung vor, in der auch die Beckett-Übersetzung korrigiert wurde. Bei der älteren Übersetzung (»Wen kümmert’s wer spricht«) war einfach nur das von Foucault wiedergegebene Zitat übersetzt worden, wobei die originale Passage von Samuel Beckett überarbeitet und verändert wurde. Vorzug der jüngeren Übersetzung (»Was liegt daran wer spricht«) ist eine genaue Übernahme der deutschen Übersetzung von Beckett und damit die Einsparung eines (verfälschenden) Bearbeitungsschrittes. Für beide Übersetzungen gilt allerdings, dass der genaue Ursprung bei Beckett nicht – auch nicht in den Erläuterungen – nachgewiesen wird.21 Die Verwirrung um die originale Autorschaft wurde bereits von Foucault selbst erzeugt. Er wies die Quelle seines Zitates an dieser Stelle nur nachlässig nach, was von den späteren Herausgebern des Textes nicht durch eine exakte Literaturangabe korrigiert wurde. Dies ist insoweit überraschend, weil Foucaults Bezugnahmen auf andere Autoren, wie etwa auf Karl Marx, von späteren Herausgebern sehr wohl belegt wurden (vgl. etwa Foucault 1994; Foucault 2001 [1969]). Zudem ist es offensichtlich bei der Übertragung aus dem Französischen zu Fehlern gekommen. Beide Texte sind im Original zuerst in französischer Sprache erschienen. Da Becketts Text erst 1974 in einer englischen Fassung publiziert wurde, hat sich Foucault offenbar auf eine französische Version bezogen. Bei der Übersetzung von Foucaults Text in das Deutsche schlichen sich allerdings – wie oben bereits diskutiert – Unterschiede ein. Viele Autoren haben im Zuge der recht begeisterten Foucault-Rezeption diese fehlerhaften und unvollständigen Angaben einfach übernommen. Damit ist die erzeugte Verwirrung vom fachwissenschaftlichen Diskurs hundertfach reproduziert worden. Die originale Quelle bei Beckett wird im deutschen Diskurs – soweit das überblickt werden kann – an keiner Stelle explizit be21 In der folgenden Argumentation wird der jüngeren Foucault-Übersetzung den Vorzug geben, weil sie mit der Beckett-Übersetzung übereinstimmt. Die verfälschte, ältere Übersetzung wird nur im Zusammenhang mit der FoucaultRezeption in der Forschungsliteratur verwendet. Es würde hier zu weit führen, diese Unterschiede detailliert linguistisch oder semantisch zu analysieren. Allerdings sollte deutlich werden, dass diese Übersetzungsprobleme die Suche nach der bereits vagen Quelle eher erschweren.
AUTORSCHAFTS-TYPOLOGIE | 119
nannt. Im angloamerikanischen Diskurs lassen sich dagegen verstreut einige Hinweise finden, was mit der Bedeutung des englischsprachigen Dichters Beckett zusammenhängen mag (vgl. insbesondere Sheehan 2000). Aber auch hier gehen Referenzen zumeist nicht über »Foucault quoting Beckett« hinaus, die originale Quelle wird nur sehr selten vermerkt. Möglich, dass dies gerade der autorkritischen Fundierung geschuldet ist und damit eine eindeutige Autorschaft gar nicht eingeklagt werden kann. Allerdings geht mit dieser Verwischung auch der theoretische ›Mehrwert‹ des ursprünglichen Sinnzusammenhangs verloren. Die Formulierung »Was liegt daran wer spricht« weist eine merkwürdige Paradoxie auf und prägt sich erst damit besonders ein. Verblüffend ist die dadurch aufgerufene, scheinbare Parallele zwischen dem absurden Dramatiker Beckett und dem postrukturalistischen Philosophen Michel Foucault. Es kann daher kaum verwundern, dass dieser Ausspruch sozusagen als ›Slogan‹ für Foucaults gesamte theoretische Position verwandt wird. Dabei verwischt die ursprüngliche Autorschaft des Zitates, die bereits Foucault nur lückenhaft belegt, immer mehr. Foucault selbst scheint zum Urheber des Gedankens zu werden, obwohl er sich explizit auf einen fremden Sinnzusammenhang bezieht. In der Forschungsliteratur erfreut sich das (falsche) Zitat einer besonderen Beliebtheit. Zum einen wird es schlagwortartig benutzt, um eine unmittelbare Referenz zum Autorschaftskonzept Foucaults herzustellen. Zum anderen wird es – weiter gefasst – im Zusammenhang mit autorkritischen Positionen überhaupt verwendet. Verlinkungen zu Foucault via Beckett werden aber nicht nur innerhalb der Argumentationen hergestellt, sondern bereits auch durch Zitate in Buch- und Aufsatztiteln. Wie Heiko Idensen treffend herausgestellt hat, ist dies als Beleg für die Wirkungsmächtigkeit des ›Slogans‹ zu werten: »›Wen kümmert’s wer spricht, hat jemand gesagt, wen kümmert’s wer spricht.‹ Dieser Beckett-Intertext wird in der ›Sekundärliteratur‹ immer wieder gern als Titel benutzt – möglicherweise wegen seines breiten Assoziationsraumes, der sich darin auftut und wegen der vermeintlichen Radikalität.« (Idensen o. J.)
Es ist kein Wunder, dass im angloamerikanischen Diskurs zahlreichere Belege für diese Einschätzung zu finden sind, wird die Debatte um ›authorship‹ – wie weiter oben ausgeführt – dort intensiver geführt als im deutschsprachigen Raum. Aufsätze wie »What Difference Does it Make Who is Speaking? Audience, ownership and authority in learning disability research« (Mcclimens 2004) oder »›What Matter Who’s Speaking?‹ Authenticity and Identity in Discourses of Aboriginality in Australia« (vgl. D’Cruz 2001) stehen beispielhaft für eine breite Nutzung des Konzeptes. Dass im deutschsprachigen Diskurs bei der Referenz stärker auf die Literatur fokussiert wird, bekundet der Sammelband »Wen kümmert’s, wer spricht. Zur Literatur und Kulturgeschichte von Frauen aus Ost und West« (vgl. Stephan et al. 1998). Die poststrukturalistische Autorkritik ist in jüngster Zeit, wie bereits erwähnt, auch auf die Neuen Medien bezogen worden. Bei der Analyse von neuen Autorschaftsphänomenen wird produktiv und fruchtbar auf die theoretischen Vorarbeiten zurückgegriffen, was zum Teil zu euphorischen und damit zu verzerrten Schlussfolgerungen führt. Markiert wird diese Verkopplung durch die zum Teil ironisch gewendete Nutzung des poststrukturalistischen ›Slogans‹. In der deutschsprachigen Debatte ist vor allem Uwe Wirth mit ei-
120 | DER DIGITALE AUTOR
nem konsequenten Bezug der poststrukturalistischen Autorkritik auf Hypertext und Internetliteratur hervorgetreten. Dies geschah dabei bereits zu einer Zeit, in der die Netzliteratur selbst und ihre theoretische Reflexion noch ›in den Kinderschuhen‹ steckte. Im Aufsatz »Wen kümmert’s wer liest? Literatur im Internet« (vgl. Wirth 1997) diskutierte er die Rolle des Lesers im Hypertext und entwarf das Konzept des »Hypertextlesers als abduzierender Detektiv«. Dabei griff er die Foucault/Beckett-Referenz aus dem Titel nicht explizit auf und verweigerte damit auch den Nachweis der Autorschaft. Diese Perspektive erweiterte Wirth im Nachfolgeaufsatz »Wen kümmert’s, wer spinnt?« (vgl. Wirth 1999) auf die Beziehung zwischen Autor und Leser im Hypertext. Er bezieht dabei die autorkritische Argumentation von Roland Barthes und Michel Foucault konsequent auf Netzliteratur und diskutiert diese Position durchaus kritisch. Allerdings entsteht hier fälschlicherweise der Eindruck, dass das Zitat von Roland Barthes stammen würde. Nach diesem Problemaufriss soll der Sinnzusammenhang im Folgenden nun tatsächlich rekonstruiert werden. Samuel Becketts 1954 erstmalig publizierte Textsammlung »Texts for Nothing« (Beckett 1974), deutsch: »Texte um Nichts« (Beckett 1977 [1954]), umfasst 13 fragmentarische Kurztexte, die zumeist nur drei bis vier Seiten lang und nicht näher bezeichnet sind. In der Forschung gelten die Textfragmente nur als Beiwerk oder Abfallprodukt einer höchst intensiven und produktiven Schaffensphase von 1947 bis 1953. In dieser schuf Beckett vier seiner wichtigsten Werke: Das Drama »En attendant Godot« (deutsch: »Warten auf Godot«, entstanden 1948, Uraufführung 1953) sowie seine berühmte Romantrilogie »Molloy« (deutsch: »Molloy«, 1951), »Malone meurt« (deutsch: »Malone stirbt«, 1951) und »L’Innommable« (deutsch: »Der Namenlose«, 1953). Die Textfragmente selbst bezeichnet Paul Sheehan als Becketts am meisten übersehene Arbeit, die sowohl von der Beckett-Forschung als auch vom Autor selbst abgelehnt wurde: »They are as difficult to place as they were, reputedly, difficult to produce, a modest coda to a compulsive writing frenzy. If nothing else, then, the Texts for Nothing appear to live up to their name: a hole in Beckett’s prose chronology. Their importance, I suggest, lies in their relative unimportance.« (Sheehan 2000)
Als ›nichtkanonische‹ Arbeiten wurden sie, so Sheehan, offenbar nur widerwillig publiziert, um die Zeit ohne Veröffentlichung nach dem Roman »Der Namenlose« zu füllen (vgl. dazu näher ebd.). Das angeführte Zitat befindet sich am Beginn des dritten Textes und steht bezeichnend für den gesamten Gestus der Textfragmente. Deshalb wird der Beginn ausführlicher zitiert: »Leave, I was going to say leave all that. What matter who’s speaking, someone said what matter who’s speaking. There’s going to be a departure, I’ll be there, I won’t miss it, it won’t be me, I’ll be here, I’ll say I’m far from here, it won’t be me, I won’t say anything, there’s going to be a story, someone’s going to try and tell a story. Yes, no more denials, all is false, there is no one, it’s understood, there is nothing, no more phrases, let us be dupes, dupes of every time and tense, until it’s done, all past and done, and the voices cease, it’s only voices, only lies.« (Beckett 1974 [1954]: 16)
AUTORSCHAFTS-TYPOLOGIE | 121
In der deutschen Übersetzung lautet die Passage: »Laß, ich hätte beinahe gesagt, laß das alles. Was liegt daran wer spricht, jemand hat gesagt, was liegt daran, wer spricht. Es wird einen Aufbruch geben, ich werde dabei sein, nicht ich werde es sein, ich werde hier sein, ich werde mir sagen, ich sei weit weg, nicht ich werde es sein, ich werde nichts sagen, es wird eine Geschichte geben, jemand wird versuchen, eine Geschichte zu erzählen. Ja, Schluß mit den Dementis, alles ist falsch, es ist niemand da, das ist klar, es ist nichts da, Schluß mit den Phrasen, wir wollen betrogen sein, von den Zeiten betrogen, von allen Zeiten, beim Warten, bis es vorüber geht, bis alles vorüber ist, bis die Stimmen verstummen, es sind nur Stimmen, nur Lügen.« (Beckett 1977 [1954]: 111)
Es ist interessant festzustellen, dass offenbar ein eher unscheinbarer Text einen nachdrücklichen Eindruck auf eine breit geführte Debatte hinterlassen hat, wie es die um Autorschaft darstellt. Offenbar bildet der Slogan nicht nur die (vorweggenommene) Essenz des einflussreichen Textes von Michel Foucault. Stattdessen ist er auch als die Essenz des Diskurses um Autorschaft anzusehen, den Samuel Beckett in seinem Werk ›poetologisch‹ geführt hat. In seiner Romantrilogie thematisierte Beckett meta-literarisch das ›Schreiben von Geschichten‹. Er verweigerte damit die von Romanen traditionell geforderte Entfaltung einer ›Story‹. Stattdessen ging es ihm darum, die konventionellen Regeln dieses Schreibens aufzudecken und er intendierte die experimentelle Entwicklung neuer Schreibregeln. Es handelte sich hierbei also grundsätzlich um ein ›Schreiben über Schreiben‹ (vgl. Imhof 1989). Wie Rüdiger Imhof herausstellt, ist dabei in der Trilogie eine Zunahme dieser meta-literarischen Haltung bzw. eine Abnahme des konventionellen Erzählens festzustellen. Im dritten Roman »Der Namenlose« (Beckett 1979 [1953])22 »dominiert das Schreiben über das Schreiben so sehr, daß nur noch ein minimaler Handlungsrest verbleibt. Eine Fabel ist nur noch als Name präsent« (Imhof 1989: 2025). Das Buch verhandelt das gesamte vorhergehende Werk Becketts; indem der Leser an bereits bekannte Storyelemente verstehend ›andocken‹ kann, wird die Lektüre zur eigenen ästhetischen Produktion. Dabei reflektiert der Roman »ständig über bereits Verfaßtes und diskutiert Fragen, die allem Schreiben vorausliegen müssen« (ebd.). Mit dieser Poetologie aber reihte sich Beckett in eine lange und produktive Reihe literarischer Experimente ein, die die traditionellen Regeln des Erzählens sowie die konventionellen Rollenverteilungen zwischen Autor und Leser aufzubrechen suchten. Diese Experimente lassen sich als Reaktion auf die Setzung einer starken Autorschaft im Zuge der Herausbildung der Genieästhetik verstehen. Bereits im 19. Jahrhundert wurden vergleichsweise avantgardistische Versuche publiziert, berühmt geworden ist etwa E. T. A. Hoffmanns (1776-1822) Roman »Lebens-Ansichten des Katers Murr, nebst einer fragmentarischen Biographie des Kapellmeisters Kreisler in zufälligen Makulaturblättern« (vgl. Hoffmann 1958 [1820-1822]) aus den Jahren 1820 bis 1822. Das 20. Jahrhundert markierte eine deutlich zunehmende autorkritische Poetologie und den Versuch, den Leser schöpferisch in die ästhetische Pro22 Interessante Stellen, die das ›Schreiben‹ bzw. ›Sprechen‹ thematisieren, finden sich in der deutschen Ausgabe Beckett 1979 [1953] auf folgenden Seiten, ohne den Anspruch auf Vollständigkeit erheben zu wollen: 20, 94, 113, 114, 136, 141, 145, 148, 160-162.
122 | DER DIGITALE AUTOR
duktion einzubeziehen. Dafür standen etwa die auf der Textebene sehr progressiven Romane von James Joyce (1882-1941), »Ulysses« (vgl. Joyce 1996 [1922]) von 1922 bzw. das beinahe unlesbare »Finnegans Wake« (vgl. Joyce 1989 [1939]) aus dem Jahr 1939. Der 1970 publizierte monumentale Roman »Zettels Traum« von Arno Schmidt (1941-1979) konnte bereits nicht mehr im traditionellen Dispositiv des Buchmediums erscheinen. Dreisträngig erzählt, mit vielerlei handschriftlichen Ergänzungen und Veränderungen sowie weiteren ›undruckbaren‹ Merkmalen sprengte das Werk jede Form. Damit konnte »Zettels Traum« nur noch als überdimensionales, extrem unhandliches Typoskript als Faksimile veröffentlicht werden, von dem mittlerweile eine deutlich eingeschränktere Fassung als Taschenbuch vorliegt (vgl. Schmidt 2002 [1970]). Die Parallelen des Werkes von Samuel Beckett und die poetologische Nähe gerade zu James Joyce kommen nicht von ungefähr. Als Schüler von Joyce war Beckett eindeutig von »Ulysses« beeindruckt und auch zeitweilig an der Arbeit zu »Finnegans Wake« beteiligt. Zudem ähneln sich beide Autoren in der besonderen Wirkung ihres Werkes auf andere: »Wie J. Joyces Ulysses hat Becketts Trilogie eine außerordentliche Wirkung auf das zeitgenössische Romanschaffen ausgeübt; insbesondere der sog. ›selbstreflexive‹ Roman der letzten drei Jahrzehnte hat von Becketts Trilogie entscheidende Impulse erhalten.« (Imhof 1989: 2025) Der monologische Gestus des »Namenlosen« findet sich in den »Texts for Nothing« wieder, insoweit sind Parallelen zwischen beiden Arbeiten nicht verwunderlich. Auch das poetologische Thema des ›Schreiben über Schreiben‹ taucht erneut auf, es kulminiert förmlich im dritten Text. Im Zitat »What matter who’s speaking, someone said what matter who’s speaking« gerinnt eine poetologische, autorkritische Position. Es wäre allerdings zu einfach, Becketts Textsammlung eine klare theoretische Aussage unterstellen zu wollen. Sie ist weit davon entfernt, ein eindeutig lesbares und interpretierbares Textgebilde zu entwickeln. Dies hängt zum ersten mit ihrem untergeordneten Rang zusammen, der sie als nicht zum Beckettschen Kanon gehörig markiert. Offenbar von Beckett selbst nicht zur Publikation gedacht, sind sie womöglich auch nicht für ein Publikum durchgearbeitet. Dies lässt Sheehan zu einer gewissen Vorsicht bei der analytischen Rezeption mahnen: »Of all Beckett’s works, this one appears to be the most unapproachable and the most critic-proof, resisting all attempts at methodical analysis. Barely more than a circuit of reflective misgiving, the Texts are almost entirely patternless, possessing neither the pitiless permutations of Watt nor the compulsive cycles of resignation and hysteria that propel The Unnamable. Such an irregular, unplaceable work demands critical caution.« (Sheehan 2000)
Dieses Einschätzung Sheehans verweist zudem auf den zweiten Grund, warum die ›theoretische Aussage‹ mit einiger Vorsicht zu genießen ist. Als ›Beiwerk‹ der Hauptarbeiten stellten sie für Beckett offenbar vor allem Reflexionen über die eigene literarische Arbeit und die damit verbundenen Zweifel dar. Dies wird im Klappentext der 1974er Ausgabe eindringlich auf den Punkt gebracht:
AUTORSCHAFTS-TYPOLOGIE | 123 »The 13 Texts For Nothing were written between 1947 and 1952, the years that […] brought him instant recognition and international acclaim after the many pre-war years of discouragement and lack of literary success. They are outbursts of great power and lucidity, reflecting his own sense of failure and of being a prisoner of malign forces that can be viewed metaphorically or theologically, expressing anger at the human condition and helplessness at his own.« (Beckett 1974, Klappentext)
Dadurch bilden die textlichen Inhalte nicht nur poetologische sondern auch psychologisch zu bewertende Aussagen. Die gleichgültige Stellungnahme »What matter who’s speaking« ist also ebenso auf den Autor Beckett selbst bezogen wie auf die Autorfunktion überhaupt. In seiner Beckett-Lektüre hat Michel Foucault allerdings ganz offensichtlich die persönliche Ebene ausgeblendet und Becketts Position allein als grundsätzlich autorkritisch verstanden. Dass Foucault Beckett offenbar teilweise missverstanden hat und das Zitat aus einem wichtigen Zusammenhang riß, sollte anhand der ausführlichen Diskussion deutlich geworden sein. Es ist damit auch klar, dass alle Forscher, die sich via Foucault auf Beckett beziehen, gewissermaßen eine Fehlinterpretation fortschreiben. Dieser Befund wird vor allem durch eine weitergehende Lektüre der restlichen »Texts for Nothing« legitimiert. Wie Paul Sheehan gezeigt hat, ist die autorkritische Position durchaus fragwürdig zu sehen: »Yet in the Texts it does matter ›who’s speaking‹ – [sic!] at the very least to determine if it is someone, or no one« (Sheehan 2000, Abschnitt 11, Hervorhebung im Original). In seinem Aufsatz schlägt Sheehan vor, den Titel »Texts for Nothing« wörtlich zu nehmen und die Herkunft des Konzeptes »Nothing« sowie dessen Bedeutung für Beckett zu ermitteln. Ausgehend vom Begriff »Nothing« entwickelt er schließlich ein Interpretationsraster für die Textsammlung. Damit erkennt er aber das Zitat »What matter who’s speaking« nicht als autorkritische Position, sondern als biographisch, metaphorisch und theologisch zu deutenden Aspekt der grundlegenden Kategorie »Nothing«. Dies kann an dieser Stelle allerdings nicht weiter ausgeführt werden (vgl. dazu näher ebd.). Zusammenfassend lassen sich die gewonnenen Erkenntnisse folgendermaßen zuspitzen: Samuel Becketts Poetologie lässt sich durchaus in eine Bewegung experimenteller Literatur einordnen, die die traditionelle Rollenverteilung zwischen Autor und Leser aufzubrechen suchte. Damit thematisiert Becketts Werk poetologisch das Schreiben, es weist zudem auch autorkritische Züge auf. Allerdings würde es zu weit gehen, Becketts Werk als frühe postmoderne Theorie zu verstehen, die einen marginalisierten Autor propagiert; dazu sind die poetologischen Selbstbetrachtungen zu heterogen und uneindeutig. Im Besonderen hat die nähere Betrachtung der »Texts for Nothing« und des darin enthaltenen Textes Nummer 3 mit dem berühmten Zitat gezeigt, dass Beckett durchaus missverstanden wurde, indem das Zitat aus dem Zusammenhang gerissen wurde. »What matter who’s speaking« stellt vielmehr einen ›Slogan‹ Foucaults dar und kann kaum als literaturtheoretisches Bindeglied zwischen Beckett und Foucault angesehen werden. Tatsächlich erscheint es nur konsequent, dass Foucault Beckett so nachlässig nachgewiesen hat, wenn er ihn offensichtlich eher falsch zitiert. Verwunderlich erscheint die vielfache Kopie dieses falschen Zusammenhangs im Zuge der begeisterten Foucault-Rezeption. Wie gezeigt wurde, sind die Intentionen und Verhältnisse in Becketts Werk sehr viel komplexer und widersprüchlicher, als es die über Foucault vermittelte Rezeption zunächst erwar-
124 | DER DIGITALE AUTOR
ten lässt. Diese Schlussfolgerungen können m. E. auch und gerade als Beleg dafür herhalten, dass die Debatte um Autorschaft ganz grundsätzlich kaum auf den einfachen Gegensatz vom Tod oder der Rückkehr des Autors reduziert werden kann. Stattdessen sind sehr viel komplexere, gegensätzlichere und spannungsvollere Bewegungen im Diskurs anzunehmen.
4.4.3 Kritik und Anwendung: Funktionen der Autorfunktion in historischen Interpretationen So grundsätzlich, wie die Kritik Foucaults an den autorkritischen Positionen war, so grundsätzlich kann wiederum an Foucaults Konzept Kritik geübt werden. Wie bereits gezeigt wurde, kann die Gesellschaft ganz offensichtlich kaum ohne die kulturell lang etablierte Autorfunktion auskommen. Gerade das Phänomen der crossmedial vermarkteten Autorenstars und deren Selbstinszenierung, also explizit starke Autorschaftsphänomene, scheinen in der Zeit nach Foucaults Kritik sogar noch zugenommen zu haben. Kanonisierungen ohne Autoren – oder allgemeiner – Diskurse ohne Autoren, scheinen kaum möglich. In der jüngeren Debatte um den Autor hat Foucaults Konzept allerdings weiterhin eine enorme Bedeutung. Aus der kritischen Lektüre bzw. Rekonstruktion des poststrukturalistischen Modells werden fruchtbare, für die Literaturwissenschaft neue Analysekonzepte gewonnen. Beispielhaft dafür sollen drei jüngere Arbeiten angeführt werden, die sich einer solchen produktiven Kritik Foucaults verschrieben haben. So hat Fotis Jannidis (vgl. Jannidis 1999) aufgezeigt, dass das Konzept der Autorfunktionen nutzbringend für historisierende Literaturtheorien ist. Eine poststrukturalistische Autorschaftsanalyse, wie sie Foucault selbst skizziert hat, stellte Simone Winko vor, auch wenn deren Grenzen schnell offensichtlich wurden (vgl. Winko 2002). Schließlich hat Norbert Christian Wolf herausgestellt, dass die poststrukturalistische Autorkritik zu einer Verstärkung des theoretischen Autorschaftsdiskurses und zu einer Präzisierung seiner Terminologie und Methodik geführt hat (vgl. Wolf 2002). Zunächst ist Jannidis’ Position etwas ausführlicher zu diskutieren, da sein Modell der Autorfunktionen von historisierenden Literaturtheorien die weiter oben entwickelten Merkmale des traditionellen Autorkonzeptes aufgreift und gewissermaßen ›poststrukturalistisch bestätigt‹. Der Titel seines Aufsatzes »Der nützliche Autor. Möglichkeiten eines Begriffs zwischen Text und historischem Kontext« verweist dabei auf einen starken Autorbegriff, somit also auf eine Kritik an der poststrukturalistischen Autorkritik. Diese Programmatik wird als Fazit des Textes am Ende pointiert formuliert: »Tot ist er [der Autor, F. H.] jedenfalls nicht, und nützlich ist er auch« (Jannidis 1999: 389). Jannidis entwickelt damit aus einer produktiv gewendeten Kritik an Foucaults Text ein Analysemodell, das auf die Bestätigung eines relativ starken Autorbegriffes zielt. Fotis Jannidis trennt Michel Foucaults Überlegungen auf und scheidet die Methode von den Schlussfolgerungen. Damit gelingt ihm ein geschickter Kunstgriff. Die Schlussfolgerungen Foucaults, Diskurse könnten auch ohne Autorfunktion existieren und die Autorfunktion sei nur eine Projektion, lehnt er als völlig unzutreffend und von den Entwicklungen nach der Veröffentli-
AUTORSCHAFTS-TYPOLOGIE | 125
chung von Foucaults Vortrag falsifiziert ab. Foucaults Utopie bezeichnet er gar als unwahrscheinlich und nicht wünschenswert. Jannidis stellt deutlich heraus, dass die gemeinhin angenommene Bedeutung des Vortrages, Verabschiedung des Autors zu sein, gerade nicht von Foucault erfüllt wird. (Diese Einschätzung wird von anderen Forschern geteilt und scheint sich im literaturtheoretischen Diskurs inzwischen durchgesetzt zu haben.) Das mehr oder weniger zugeschriebene Ergebnis des Vortrages sei also kaum interessant. Innovativ und viel versprechend sei stattdessen Foucaults historische Analyse in ihrer methodischen und inhaltlichen Konzeption (vgl. ebd.: 353). Jannidis hebt also Foucaults analytische Methode als produktiv hervor, gleichzeitig ist es sicher auch Foucaults komplexe Rekonstruktion des Dispositivs Autor, die für Jannidis anschlussfähig ist. Diese Rückbesinnung auf Foucaults Methode, ohne dabei notwendigerweise dessen Schlussfolgerungen zu teilen, kann mit Blick auf die Parallelen in der Medienwissenschaft kaum überraschen. Nachdem dort das ursprünglich von Foucault entwickelte Konzept des Dispositivs mehrfach gebrochen in der deutschen Diskussion Einzug gehalten hatte, wurde eine spezielle Variante ausgearbeitet, die konsequent auf den Foucault-Bezug verzichtete. Erst in der jüngeren Vergangenheit wurde wieder die Verbindung zu den Wurzeln bei Foucault gesucht, was bereits zu produktiven Ergebnissen geführt hat (vgl. dazu Hartling/Wilke 2003 [2005]; Barth 2005). Es versteht sich dabei von selbst, dass Anschlüsse an Foucault nur mit Modifikationen seiner Methoden möglich sind; auch dieses Vorgehen wählt Jannidis. Wozu verwendet Jannidis die Methode Foucaults? Jannidis untersucht keine historischen Autorkonzepte, wie Foucault es exemplarisch vorführte. Stattdessen analysiert er den Diskurs von historisierenden literaturwissenschaftlichen Arbeiten, womit er also auf Literaturtheorien und Interpretationskonzepte fokussiert, die das Geschichtliche von Literatur betonen. Er untersucht Texte, die einen historischen Diskurs rekonstruieren müssen, um je Aussagen über das historisch gesellschaftliche und kulturelle Umfeld von Literatur treffen zu können. Somit will er herausfinden, wie das Autorkonzept in dieser spezifischen Textgattung verwendet wird und welche Autorfunktionen dabei auch in sehr unterschiedlichen theoretischen Programmatiken übergreifend gültig sind (vgl. Jannidis 1999: 354). Damit legt Jannidis ein Modell vor, wie die Verwendung von Autorkonzepten in anderen literaturwissenschaftlichen Textgattungen rekonstruiert werden könnte. Mit seinem starken Autorbegriff wendet sich Jannidis gegen platte Absagen an den Autor und geht von einer als pragmatisch zu bezeichnenden Vorstellung über Autoren sowie deren Beziehung zum Text aus. Diese hätte sich durch die literarische Praxis bestätigt und könne durch die Theorie kaum verneint werden. Resultat seiner vermittelnden Methodik ist allerdings, dass dieser starke Begriff nicht mit einer naiven Vorstellung über die Fremd- und Selbstinszenierung von Autoren einhergeht. Stattdessen stimmt er Foucaults These zu, dass der Autor »ein konstruiertes Vernunftwesen« (ebd.: 356) darstelle. Jannidis begründet dies mit dem Kommunikationsprozess zwischen Lesern und Autoren, der nicht trivial sei. Damit bezieht er sich etwas verkürzt auf eine Vorstellung von Kommunikation, die basal für die empirische Literaturwissenschaft und damit für eine der theoretischen Grundlagen der vorliegenden Arbeit ist. Die Konstruktion des Autors verläuft danach in einem Kommunikationsprozess zwischen Autor und Leser, der bekanntermaßen nicht auf eine simple
126 | DER DIGITALE AUTOR
Übermittlung von Botschaften im Modus des ›Kanonenschusses‹ oder des ›Containers‹ reduziert werden kann. Stattdessen gehen etwa konstruktivistische Kommunikationsmodelle von einer subjektiven Informationskonstruktion aus. Autoren und Leser sind danach kognitiv autonom operierende Akteure, die in internen Prozessen Informationen erzeugen, welche über einen komplexen, nicht direkten, äußeren Prozess abgeglichen werden (vgl. dazu einführend Rusch 2002b).23 Leser bilden in diesem Modell über bereits vorhandene interne Kontexte (wie Wissen oder Einstellungen) sowie über externe Kontexte (wie gesellschaftliche Werte, Umwelt, Situation) bestimmte Annahmen über Autoren.24 Diese existierenden Kontexte setzen sie mit Aussagen und Selbstaussagen der Autoren in Bezug. Umgekehrt erzeugen die Autoren in einem ähnlich strukturierten Prozess ebenfalls ein Bild von den Rezipienten und von sich selbst. Damit kommt es für Jannidis aber zu einer doppelten Konstruktion des ›Vernunftwesens‹ Autor. Zum einen stelle es eine Konstruktion durch die Leser dar, zum anderen wäre es das Resultat einer Selbstinszenierung der Autoren, die über den Konstruktionsprozess der Leser nicht zuletzt in ihrer eigenen Leserrolle sehr wohl Bescheid wissen: »Sie verwenden die Zeichen auf solche Weise, daß das Bild, das sich die Rezipienten von ihren Intentionen konstruieren, ihren Absichten entspricht« (Jannidis 1999: 357). Soweit stimmen die Überlegungen von Jannidis mit denen Foucaults überein. Auseinander treten allerdings die daran anschließenden Schlussfolgerungen. Foucault kennzeichnet Diskurse mit Autorfunktion als vorübergehendes und auch nicht wünschenswertes Phänomen und setzt an deren Stelle eine Utopie von autorlosen Diskursen. Zudem stellen laut Foucault die Konstruktionen von Autoren nur reine Projektionen dar, denen kein reales Gegenbild entspräche bzw. die die Autorfunktion nicht adäquat erfassten. Die Rezipienten würden sich so ein Bild der Beliebigkeit erschaffen; Foucault selbst spricht von einer »ideologischen Figur« (Foucault 2003 [1969]: 260, Fußnote 15). Ausgehend von seinem – wie bereits gezeigt – starken Autorbegriff, kennzeichnet Jannidis beide Schlüsse als unzutreffend; die Autorfunktion stelle sogar einen unverzichtbaren und notwendigen Bestandteil der Kultur dar. Sie sei für bestimmte gesellschaftliche Diskurse sowohl »wahrscheinlich« als auch in ihrer Verwendung »stabil« (Jannidis 1999: 357). Als Indizien für diese autorunterstützende Schlussfolgerung führt Jannidis die ›Unauslöschbarkeit‹ der Vorstellung von Autoren auf, die sich in bestimmten Ersatzbegriffen niederschlüge. Ein Indiz wäre auch die bereits erwähnte Zunahme von starken Autor-Inszenierungen in der Zeit nach Foucaults Thesen. Auch die Folgerung vom Projektionscharakter weist Jannidis zurück. Obwohl die Rezipienten sich unabhängig von den Autoren ein Bild über den Autor 23 Auf das komplexe Feld des Kommunikationsbegriffes, der aktuellen Modelle zum Kommunikationsprozess und damit auch die Frage der Medienwirkungen kann an dieser Stelle nicht näher eingegangen werden. Zur konstruktivistischen Perspektive der Medienwissenschaft und zum konstruktivistischen Kommunikationsbegriff vgl. einführend den Sammelband Merten et al. 1994, darin insbesondere die Beiträge Schmidt 1994a; Merten 1994, vgl. auch Schmidt 1994d. 24 Jannidis markiert diese konstruierten Autorvorstellungen und deren besonderen Status durch die konsequente Verwendung von einfachen Gänsefüßchen (›Autoren‹) sowie die Benutzung des Begriffes »Zeichenverwender«, vgl. Jannidis 1999: 356.
AUTORSCHAFTS-TYPOLOGIE | 127
konstruierten, geschähe diese Konstruktion stets aufgrund eines gemeinsam geteilten Weltwissens und unter einem ständigen, wechselseitigen Abgleich mit den Wirklichkeitskonstruktionen der Autoren. Dieses kollektive Wissen, das in kognitiven und kommunikativen Prozessen über die Medien erzeugt wird, bezeichnen Konstruktivisten wie S. J. Schmidt als »Kultur« (vgl. insbesondere Schmidt 1994d: 25-39, vgl. ausführlicher Schmidt 1994c). An Foucaults Arbeit, so die Einschätzung von Fotis Jannidis, ist zwar hervorzuheben, dass sie die Bedeutung und die Rolle der Autorfunktion untersucht und ins Zentrum der Aufmerksamkeit gestellt habe. Allerdings sei der Schluss der Abschaffung falsch, »da sich dadurch die Regeln der Diskurse ändern müßten« (Jannidis 1999: 357). Foucaults zentrale Schlussfolgerungen charakterisiert Jannidis dementsprechend als unzutreffend, gleichwohl hebt er die Methode der Untersuchung als »wichtigen Ertrag« hervor. Jannidis bezeichnet die »Funktionsanalyse des Begriffs ›auteur/Autor‹« (ebd.: 358) als nützlich, unter der Bedingung, dass mit der Methode adäquatere Ziele verfolgt werden. Diese Einschränkung steht ganz im Sinne der Forderung von Validität (Gültigkeit) einer wissenschaftlichen Methode, die sicherstellt, dass die Methode auch misst, was sie zu messen vorgibt. Dazu, so Jannidis, seien Modifikationen des Ansatzes von Foucault nötig, die an dieser Stelle nicht näher diskutiert werden können (vgl. dazu ebd.: 358-359). Jannidis untersucht den Diskurs von historisierenden literaturwissenschaftlichen Arbeiten mit Hilfe dieser knapp skizzierten Funktionsanalyse an ausgewählten Beispielen. Drei historisierende Literaturtheorien werden analysiert, wobei das jeweils vertretene Modell der literarischen Kommunikationen und die jeweiligen Funktionen des Autorbegriffs im Zentrum der Analyse stehen. Jannidis stellt fest, dass sich das modifizierte Foucaultsche Analysekonzept außerordentlich gut für diesen Gegenstand zu eignen scheint: »Trotz der sehr unterschiedlichen Modelle literarischer Kommunikation […], läßt sich die Konstanz einiger Autorfunktionen zeigen. Dieser Befund läßt die Vermutung zu, daß eben diese Autorfunktionen für eine historische Kontextualisierung […] sehr nützlich sind.« (Ebd.: 360) Dabei wird der nützliche Charakter des Autorkonzeptes für den literarischen Diskurs ganz allgemein deutlich: »Die Funktionen des Autorbegriffs erweisen sich, soviel sei schon vorweggenommen, als Problemlösungsmechanismen innerhalb der Aufgabenstellung des Diskurses.« (Ebd.: 359) Und: »In ganz verschiedenen theoretischen Kontexten wurde der Begriff ›Autor‹ immer wieder zu sehr ähnlichen geistigen Operationen verwendet – ein Umstand, der bereits für die Brauchbarkeit, eventuell sogar die Unhintergehbarkeit des Konzepts innerhalb bestimmter Fragestellungen und kultureller Rahmenbedingungen spricht.« (Ebd.: 378)
Damit wird noch einmal nachdrücklich Jannidis’ vermittelnde Position deutlich: Aus dem poststrukturalistischen, eigentlich autorkritischen Konzept leitet er ein Untersuchungsmodell des ›nützlichen‹ Autors ab. Im von ihm untersuchten Sample kann Jannidis insgesamt fünf relativ konstante Funktionen des Autors ermitteln, die er in einem jüngeren Beitrag zum Thema (vgl. Jannidis 2004) um zwei weitere ergänzt. Diese ähneln den Funktionen, die dem Konzept Autor in der Literaturtheorie allgemein zugeschrieben werden. Sie
128 | DER DIGITALE AUTOR
können wie folgt charakterisiert werden (vgl. Jannidis 1999: 378-389 und Jannidis 2004): 1. Die grundlegende Funktion des Autorbegriffs stellt für Jannidis die raumzeitliche Fixierung des Textes dar. Diese Positionierungsfunktion wird eingesetzt, um die Konstitution von Selektion, Gestaltung und Bedeutung sowohl örtlich als auch zeitlich zu bestimmen (vgl. Jannidis 2004). Während in autorkritischen, literaturtheoretischen Positionen diese Funktion nur noch eine Minimalaufgabe ausübt, kann bei historisierenden Interpretationstheorien davon ausgegangen werden, dass sie die Basis für weiterführende Autorfunktionen darstellt. 2. Die Selektionsfunktion umfasst laut Jannidis die Zuschreibung der Auswahl der Textelemente. Aus einer äußerst großen Menge von möglichen Textmerkmalen, die prinzipiell in einem konkreten Text realisiert werden können, wird nur eine Untermenge tatsächlich verarbeitet; Selektionsinstanz ist hierbei der Autor. In der historisierenden Textinterpretation wird die Obermenge durch den historischen Kontext des Textes begrenzt. Somit wird die im konkreten Text realisierte Menge von Textmerkmalen nur mit einem historisch jeweils möglichen Vorrat von Textmerkmalen verglichen. Deshalb, so Jannidis, muss die Wahl des historischen Kontextes innerhalb dieses Interpretationstypus besonders begründet werden. Der Begriff ›Selektion‹ verweist aber darauf, dass die Auswahl zunächst durchaus keinen »›bewußten‹ Vorgang« (Jannidis 1999: 379) darstellt. 3. Jannidis stellt heraus, dass mit Hilfe der Gestaltungsfunktion die ästhetische Ausarbeitung eines Textes, also die Anordnung der Textmerkmale, einer Instanz zugeordnet wird. Diese Anordnung entspricht einem einzigartigen Ordnungsmodell, das aus einer großen Anzahl von prinzipiell möglichen Ordnungsmodellen realisiert werden kann. Auch hier ist es der Autor, dem diese Wahl zugeschrieben werden kann (vgl. den ähnlichen Mechanismus bei der Selektion). Mit ihm wird der Text historisch verortet, und er vermittelt zwischen Text und Kontext, »da er sowohl selektions- und intentionsfähig […] als auch rezeptions- und erlebensfähig ist« (ebd.: 381). Die historische Interpretation hat laut Jannidis in diesem Zusammenhang zwei zentrale Aufgaben zu erfüllen. Sie muss zum ersten »historisch wahrscheinliche« Ordnungsmodelle rekonstruieren und »Anachronismen« (ebd.: 380) vermeiden. Zum zweiten hat sie historisch gesellschaftliche und kulturelle Rahmenbedingungen zu rekonstruieren, die je örtlich oder zeitlich bestimmte Ordnungsmodelle wahrscheinlich machen oder eben unwahrscheinlich. 4. Für Jannidis bildet die Bedeutungsfunktion eine weitere zentrale Autorfunktion, die die Textbedeutung einer bestimmten Instanz zuschreibt. Er stellt heraus, dass die Bedeutungsfunktion notwendigerweise mit Selektions- sowie Gestaltungsfunktion zusammen zu sehen ist und argumentiert mit den mehrfachen Dimensionen von Zeichen und Sprache: »Auswahl und Ordnung des Zeichenmaterials [machen, F. H.] es als Zeichen kenntlich […] und [bedingen, F. H.] seine Bedeutung wesentlich« (ebd.: 381). Mit der Textbedeutung würden die Absichten des Autors ermittelt, mit denen Kontexte selektiert und Textelemente gestaltet werden. Dabei gelte es, zusätzlich die gesellschaftlichen und kulturellen Kontextbedingungen zu ergründen, die sowohl konstituierend als auch limitierend wirken könnten. Für Jannidis ist aber wichtig, dass die ermittelte Textbedeutung historisch konkret der zeitlich vergangenen Autorinstanz zugeschrieben
AUTORSCHAFTS-TYPOLOGIE | 129
wird und nicht der gegenwärtigen Beobachterinstanz. Die historisch korrekte Textbedeutung unterliege anderen Regeln, wie Bedeutung konstruiert würde. Die Bedeutung wäre damit »Teil einer historisch konkreten Kommunikationssituation« (ebd.). In einem jüngeren Beitrag hat Jannidis explizit darauf hingewiesen, dass bei der Bedeutungsfunktion zwei verschiedene Autorinstanzen rekonstruiert werden können. Der Autor kann danach zum einen als die zentrale Instanz der Bedeutungskonstruktion angesehen werden, er kann aber zum anderen auch nur eine Instanz unter vielen darstellen (vgl. Jannidis 2004: 38). 5. Ebenfalls in seiner jüngeren Diskussion der Funktionen führt Jannidis zusätzlich zur Selektionsfunktion noch eine Kontextfunktion auf. Danach kann der Autorinstanz auch die Selektion von historisch gesellschaftlichen oder kulturellen Kontexten zugeschrieben werden, die bei der Interpretation zu berücksichtigen sind (vgl. ebd.). Diese Funktion wird von Jannidis allerdings nicht ausführlicher diskutiert. Es kann aber davon ausgegangen werden, dass sie ähnlich strukturiert ist wie die Selektions-, Gestaltungs- und Bedeutungsfunktionen, da sie eng mit diesen zusammenhängt. Diverse Einwände im Forschungsdiskurs gegen die Inbezugsetzung von Autor und Autorintention mit der Textbedeutung weist Jannidis mit umfangreichen und detaillierten Argumenten zurück und fasst zusammen: »Einen Text historisch zu kontextualisieren bedeutet zunächst nichts weiter, als die für ihn adäquate Enzyklopädie zu rekonstruieren. Wie aber kann aus den zahlreichen Varianten der Enzyklopädie die adäquate gewählt werden, wenn nicht mittels der Informationen, die man über den Autor hat.« (Jannidis 1999: 386) Damit aber schlägt er wieder den Bogen von der eigentlich autorkritisch entwickelten Methode der Analyse von Autorfunktionen hin zu seinem theoretischen Standpunkt des ›nützlichen‹ Autors. Während die bisher diskutierten Autorfunktionen eine für den Text adäquate ›Enzyklopädie‹ rekonstruieren, verorten laut Jannidis Erkenntnis- und Innovationsfunktion den jeweils zu interpretierenden Text »in einem umfassenden historischen Modell« (ebd.). 6. Nach Jannidis dient die Erkenntnisfunktion der Zuschreibung einer im Text formulierten Erkenntnis. Sie wird als die ermittelte Bedeutung eines Textes beschrieben und weist damit Parallelen zur Bedeutungsfunktion auf. Die Erkenntnisfunktion geht aber weiter, weil sie das Wissen des jeweils untersuchenden Rezipienten oder Interpreten genauso einbezieht wie das Wissen anderer Beobachter. Das bedeutet auch, dass der Text vom Interpreten durch die rekonstruierte Erkenntnis in ein umfassendes historisches Modell eingebunden werden kann. Dadurch beschreibt die Erkenntnisfunktion nicht nur die Beziehung zwischen Autorinstanz und Text, sondern bezieht auf beide auch den Beobachter. Der Grund dafür liegt laut Jannidis im besonderen Charakter der Erkenntnisfunktion: »Stets wird die Erkenntnis, diese besondere Form der Bedeutung, einem Erkennenden als Leistung zugeschrieben« (ebd.: 387). 7. Die Innovationsfunktion schließlich schreibt für Jannidis die innovatorische Leistung des Textes einer Autorfunktion zu. Dabei bezieht diese Funktion ebenso wie bei der Erkenntnisfunktion den Wissensstand eines Interpreten auf den Text, ›neue‹ Textmerkmale können von bereits bekannten ›alten‹ abgesetzt werden. Interessant ist für Jannidis hier vor al-
130 | DER DIGITALE AUTOR
lem die Beziehung zwischen Autorinstanz und innovatorischer Leistung. Er stellt heraus, dass die Innovativität eines Textes zwar nicht allein aus der Autorintention abzuleiten ist, allerdings könne die Innovationsleistung kaum einer vom Autor differierenden Instanz zugeschrieben werden. Für historisierende Literaturtheorien sind dabei weniger die Innovationen an sich interessant, maßgeblich sind die erfolgreichen Neuerungen und damit die Entstehung von Konventionen. Wie bereits anhand der Zusammenfassungen deutlich geworden ist, können die Autorfunktionen kaum trennscharf voneinander unterschieden werden; sie bilden eine Anordnung, die Fotis Jannidis als »Autorfiguration« (ebd.: 388) bezeichnet hat. Am Beispiel der historischen Interpretationen zeigt er auf, dass eine simple Verabschiedung des Autorkonzeptes im Grunde genommen ein unmögliches Unterfangen darstelle, weil die Funktionen des Autors davon unberührt blieben. Ganz im Sinne der Analyse Foucaults könnten also allenfalls Ersatzbegriffe gefunden werden, die den Autor zwar anders benennen, aber denselben meinen. Resultierend formuliert Jannidis eine Schlussfolgerung, die sich ähnlich formuliert durch die gesamte jüngere Debatte um die ›Rückkehr des Autors‹ zieht: »Der Begriff ›Autor‹ nimmt in wissenschaftlichen Darstellungen seinen Platz ein, weil es mit ihm möglich war und trotz der poststrukturalistischen Kritik immer noch ist, zahlreiche Probleme der Analyse und Darstellung in plausibler Weise zu lösen.« (Ebd.: 389) Konkret auf historische Interpretationen bezogen, plädiert er für eine »angemessene Verwendung« des Autorkonzeptes, die an die Stelle von simpler Autorfixierung oder strikter Verabschiedung treten muss. Damit seien »differenzierte Erklärungen« möglich. Der Diskurs um den Autor ist für Jannidis genauso wie die Definition des Autors selbst dadurch nicht leichter geworden. Er kann aber seine Ausgangsthese überzeugend bestätigen, dass Foucaults Analyse von Autorfunktionen in modifizierter Form zu brauchbaren Erkenntnissen führt. Allerdings falsifizieren diese Ergebnisse auch einen Teil der Schlussfolgerungen von Foucault. Sie belegen deutlich die Notwendigkeit des Autorkonzeptes für Diskurse und bestätigen damit einen relativ starken Autorbegriff.
4.4.4 Poststrukturalistische Autorschafts-Analyse Wie eine von Foucault vorgeschlagene Autorschafts-Analyse praktisch erfolgen kann, zeigt exemplarisch Simone Winko (vgl. Winko 2002). Sie empfiehlt pragmatisch, das Konzept der Autorfunktion im Rahmen von Interpretationsanalysen zu verwenden. Mit dem Begriff Autorfunktionen bezeichnet sie »Funktionen, die die Bezugnahme auf den Autor, verstanden als empirischer Verfasser eines Textes oder als konstruierte Größe, in einem Interpretationstext leistet« (ebd.: 339). Damit verengt sie den Begriff Foucaults in gewisser Weise und benutzt ihn, um Interpretationstexte auf autorkritische oder autorzentrische Intentionen hin zu analysieren. Wie Winko aufzeigt, kommen selbst Interpretationen mit autorkritischer Grundlage nicht ohne den Bezug auf Aspekte von Autoren aus. Dies ist wiederum als Beleg für die bereits erwähnte These zu sehen, »daß die Literaturwissenschaft zwar auf den Begriff ›Autor‹ verzichten kann, kaum aber auf die Funktion, die er in ihren Argumentationen innehat« (Jannidis et al. 2000a: 18). Mit der Verabschiedung des
AUTORSCHAFTS-TYPOLOGIE | 131
Autors aus dem literaturtheoretischen Diskurs hat man es sich, wie neben Winko auch Walter Erhart herausgestellt hat, zu einfach gemacht (vgl. Erhart 2002: 327). Simone Winko führt ähnlich wie Fotis Jannidis eine Analyse der Verwendung von Autorfunktionen durch. Sie untersucht dafür allerdings zeitgenössische Interpretationstexte und konzentriert sich vor allem auf die darin verwendeten Autorkonzepte. Somit kann ihre Untersuchungsmethode als poststrukturalistische Autorschafts-Analyse bezeichnet werden. Obwohl sie anders vorgeht als Jannidis, kommt sie zu einem ähnlich strukturierten Ergebnis, nämlich einer systematischen Aufschlüsselung der Autorfunktion in ihre einzelnen Bestandteile. Diese sind bei der untersuchten Textsorte etwas anders gelagert als bei den historisierenden Literaturtheorien, die Jannidis untersuchte, weisen aber durchaus deutliche Parallelen auf. Damit zeigt Winko anhand einer anderen Textsorte und mit Hilfe einer unterschiedlichen Methodik die Nützlichkeit des Analysekonzeptes von Foucault auf und bestätigt ebenso wie Jannidis die gemeinsam mit Lauer und Martínez drei Jahre vorher heuristisch ermittelte Systematisierung der Autorfunktion (vgl. dazu Jannidis et al. 1999a). Wie geht Winko vor? Mit Hinblick auf die im jüngeren Diskurs verschiedentlich festgestellte und beklagte Theorie-Praxis-Differenz will sie einen »Überblick« erarbeiten, wie Autorkonzepte in der aktuellen literaturwissenschaftlichen und interpretatorischen Praxis verwendet werden. Ihr zentrales Anliegen ist die Klärung der Frage: »Welchen argumentativen Stellenwert hat der Bezug auf ›den Autor‹ in zeitgenössischen Interpretationstexten?« (Winko 2002: 334) Diese Frage will sie mit einer empirischen Untersuchung beantworten, da diese exaktere Antworten verspräche als rein theoretische oder intuitive Erwägungen. Grundlage ihrer Analyse ist eine argumentationsanalytische Herangehensweise, auf die an dieser Stelle nicht ausführlich eingegangen wird. Knapp skizziert, erarbeitet Winko ein Modell der Argumentation in Interpretationstexten, das valide Aussagen über die Argumentationsstrategie und die dahinterliegende Autorschaftskonzeption erlaubt (vgl. dazu näher ebd.: 335-339). Weitaus interessanter ist – wie bereits erwähnt – die von ihr entwickelte Begrifflichkeit. Wenn sie Foucaults Begriff von Autorfunktionen verengt auf »Funktionen, die die Bezugnahme auf den Autor, verstanden als empirischer Verfasser eines Textes oder als konstruierte Größe, in einem Interpretationstext leistet« (ebd.: 339), geht es ihr um analytische Schärfe. Foucaults Konstrukt ermöglicht eine umfassende Analyse eines weiträumigen historischen, kulturellen und erkenntnistheoretischen Diskurses. Für Winko kann diese weit ausholende Modellierung nur überkomplex sein, da sie den Einsatz der Begrifflichkeit in der Argumentation eines eng umgrenzten Diskurses benötigt. Als Bezugsrahmen der Autorfunktion fasst sie daher die »argumentativen Leistungen, die der Bezug auf den empirischen oder konstruierten Autor in Interpretationstexten hat« (ebd., Hervorhebung im Original). Untersuchungsobjekt ist »die Funktion, die dem empirischen oder konstruierten Autor für die Genese, Gestalt oder Tradierung des Textes zugewiesen wird« (ebd., Hervorhebung im Original). Winko stellt ihre Untersuchung als empirisch angelegte Analyse heraus, wobei sie selbst bereits Beschränkungen einräumt, die den strengen Kriterien an empirische Untersuchungen nicht genügen. So verweist sie auf ein gewisses Maß an eigener Interpretationsarbeit und leitet daraus die Unangemessen-
132 | DER DIGITALE AUTOR
heit einer statistischen Auswertung ab (vgl. ebd.: 342). Tatsächlich können die Anlage ihrer Untersuchung, die Auswahl des Samples sowie die Codierung nach Kategorien kaum den Ansprüchen einer methodisch sauberen Inhaltsanalyse entsprechen (vgl. dazu Merten 1995; Früh 2001). Stattdessen legt sie ein eher hermeneutisches Verfahren vor. Auf eine genaue Kritik ihres Ansatzes soll an dieser Stelle aber verzichtet werden (vgl. dazu die heftige Kritik in Nieberle 2002: 444-446), da es hier um die grundsätzlichen, vorstrukturierenden Erkenntnisse über den Diskurs in der literaturwissenschaftlichen Interpretationspraxis geht. Trotz methodischer Schwächen kann Winko in der Tat schlüssigere und validere Ergebnisse vorweisen, als es traditionelle literaturwissenschaftliche Methoden können, die sich eher an intuitiven oder theoretischen Erkenntnisprozessen orientieren. Als Untersuchungskorpus wählt Winko fünf der wichtigsten literaturwissenschaftlichen Fachzeitschriften und bezieht die vollständigen Ausgaben der dem Aufsatz vorangegangenen fünf Jahre ein. Aus dem Korpus selektiert sie Interpretationstexte, die sie nach einem schlüssigen Kriterienkatalog ermittelt. Auch wenn sie sich damit auf einen ›elitären‹ Korpus bezieht, kann davon ausgegangen werden, dass sie die gängige literaturwissenschaftliche Interpretationspraxis zulässig erfasst. Winko analysiert resultierend einen Kanon literaturwissenschaftlicher Reflexion und somit die allgemeine Auffassung über die zulässige Praxis, die als Orientierung für den fachwissenschaftlichen Diskurs dient. Dass auch anders gelagerte Praxen in theoretisch und methodologisch anders verorteten Zeitschriften existieren, ist deshalb einigermaßen zulässig ausgeblendet. Letztere stellen nämlich Sub-Kanones dar, die noch keine allgemeine fachwissenschaftliche Akzeptanz gefunden haben. Die so ermittelten Interpretationstexte teilt Winko für die Analyse und die spätere Untersuchung in zwei Samples, eine Gruppe von Texten mit traditioneller, problemloser Bezugnahme auf den Autor sowie eine Gruppe poststrukturalistischer Texte, die das Autorkonzept problematisieren. Als besonders interessant ist dabei hervorzuheben, wie sie die autorpositiven Positionen von den autorkritischen Ansichten unterscheidet und dabei ganz pragmatisch den Autorfunktionsbegriff von Foucault verwendet (vgl. Winko 2002: 341-342). Mit ihrer Untersuchung weist Winko mehrere interessante Aspekte der Rolle von Autoren in Interpretationstexten nach, nämlich ›Operationen‹ mit Bezug auf den Autor, Autor-›Funktionen‹ und die Bedeutung des Autorbezugs auch für autorkritische Theoriehintergründe. Zum ersten belegt sie empirisch, dass praktische Interpretationen auch die Funktionen erfüllen, die ihnen von den Literaturtheorien zugeschrieben werden und unterstützt damit frühere Befunde (vgl. Jannidis et al. 1999a: 2225). In allen untersuchten Interpretationstexten unterscheidet sie wenigstens sechs Bezugnahmen von Interpreten auf Autoren, die Winko als ›Operationen‹ kennzeichnet (vgl. im Folgenden Winko 2002: 343-347). 1. Der Autorbezug diene der raumzeitlichen Fixierung eines Textes, ordne ihn also zumeist in die konkrete historische Zeit ein, seltener auch in regionale Zusammenhänge. 2. Mit der Nutzung des Autors würde eine Bildung von Differenzen möglich, und damit könnten Mengen von Texten geordnet werden. Indem Texte bestimmten Autoren zugeordnet würden, könnten Unterscheidungen getroffen und Gruppen gebildet werden. Dies würde aber eine Analyse ansonsten gleichartiger literarischer Phänomene erlauben.
AUTORSCHAFTS-TYPOLOGIE | 133
3. Die Sicherung der Einheitlichkeit des Werks stelle eine Leistung des Autorbezugs dar, auf die bereits Foucault hingewiesen hat. Damit könnten Texte unter einem Autornamen vereinheitlicht und zu einem abgeschlossenen Werk formiert werden. Zusätzlich würde eine Einheit des Werks konstruiert, also eine Einheitlichkeit oder Gleichartigkeit der literarischen und ästhetischen Charakteristika, die faktisch nicht gegeben sind. 4. Sehr häufig würde der Autor zur Sicherung von Bezugstexten eingesetzt, um diese Bezugnahmen für die Interpretation nutzbar zu machen. Bezugstexte könnten eigene Texte des Autors sein oder Texte, auf die er sich bezogen oder die er interpretiert habe. Damit würden Rekonstruktionen oder Zuweisungen von Bedeutungen plausibilisiert, indem auf Wiederholungen von Bedeutungen etwa im Werk desselben Autors referiert wird. 5. Die Sicherung von Kontexten wäre eine etwas seltenere Funktion des Autor-Rekurses. Damit würden die Kontexte festgelegt, auf die die Interpretation einzugehen habe. Begründet würden diese Kontexte aber durch Rekonstruktion oder Zuweisung eines ›Autorwissens‹. So könnten Kontexte einbezogen werden, die dem Autor bekannt waren, es könnten auch allgemeinere Kontexte (Alltagskontexte u. ä.) berücksichtigt werden. 6. Schließlich diene der Autorbezug auch der Bildung und/oder Rechtfertigung interpretativer Thesen. So könnten Interpretationshypothesen gebildet und legitimiert werden; anders erarbeitete Hypothesen könnten nachträglich gerechtfertigt werden. Am problematischsten, aber für autorpositive Interpretationen am ergiebigsten, wären an dieser Stelle Hypothesen über die Intention des Autors. Kritisch merkt Winko bei diesem Vorgehen an, dass die schwierigen Voraussetzungen dieser Strategie kaum oder nie thematisiert und hinterfragt werden. Damit würde aber die Frage, wie denn die wahre Intention eines Autors wirklich zulässig zu ermitteln ist, konsequent ausgeblendet. Zweitens stellt Winko heraus, dass praktische Interpretationen ebenso wie theoretische Modellierungen auf bestimmten Annahmen über den Autor und seine Funktion für den Text beruhen. Winko hat wiederum in allen untersuchten Interpretationstexten vier zentrale Funktionen nachgewiesen, die konsequenterweise mit den Funktionen im Rahmen von (historisierenden) Literaturtheorien25 übereinstimmen (vgl. ebd.: 348-349): 1. Als Minimalfunktion habe der Autor die Urheberschaft des produzierten Textes inne. 2. In der Rolle der zentralen Selektionsinstanz entscheide der Autor, was letztendlich im Text niedergeschrieben sei oder nicht. Damit würde er vor allem als die Instanz beschrieben, die Muster aus der literarischen Tradition auswählt und neu kombiniert. 3. Der Autor gestalte den Text formal und sprachlich, übe damit seine Gestaltungsmacht aus. Diese Zuschreibung erfolge auch dann, wenn in der literarischen Interpretation vor allem auf die Erzählinstanz Bezug genommen wird. 4. Als zentrale Instanz der Bedeutungsgenerierung lege er eine weite Bandbreite von Bedeutungsmöglichkeiten und -dimensionen fest. 25 Vgl. die Ausführungen zu Fotis Jannidis’ Analyse von Autorfunktionen in historisierenden Literaturtheorien im vorangegangenen Abschnitt.
134 | DER DIGITALE AUTOR
Die bis hierher dargestellten Ergebnisse bezogen sich auf alle untersuchten Interpretationstexte. Am interessantesten und aufschlussreichsten ist aber – drittens – Winkos Vergleich beider Samples. Damit weist sie nach, dass sich nicht nur Interpreten mit einem herkömmlichen, starken Autorbegriff bei der Interpretation ganz selbstverständlich auf den Autor und seine Intention beziehen. Auch Interpreten, die dezidiert auf einen poststrukturalistischen, damit subjektkritischen Theoriehintergrund referieren und die Bedeutung des Autors für die Interpretation explizit verneinen, benutzen implizit traditionelle Autorkonzepte. Damit kommt es für Winko aber zu paradoxen Argumentationen: »In solchen Beiträgen, deren Verfasser offenbar nicht hinter den ›autorkritischen Standard‹ zurückfallen wollen, zugleich aber nicht auf den Autorbegriff in einem Sinne verzichten wollen, der über die Minimalfunktion hinausgeht, treten Inkonsistenzen auf.« (Ebd.: 351) Diese Schlussfolgerung ist aber nicht neu, sondern wurde von Jannidis et al. bereits mehrfach herausgestellt. Winko stellt darüber hinaus eine für sie überraschende Homogenität in den untersuchten Texten fest: »Die Verfasser aller hier berücksichtigten Interpretationstexte beziehen sich mit denselben argumentativen Strategien auf den Autor und unter Voraussetzung derselben Funktionen dieser Instanz für die Gegebenheitsweise des Textes.« (Ebd.: 353) Betrachtet man die überaus unterschiedlichen literaturtheoretischen Positionen der Rezensenten, kann dieser Befund nur überraschen. Sowohl Texte, die von einem starken Autorkonzept ausgehen, als auch Texte, die den Autor marginalisieren bzw. völlig ablehnen, setzen den Autorbezug grundsätzlich in der selben Art und Weise argumentativ ein. Unterschiede ergäben sich laut Winko allenfalls im Ausmaß des Bezuges, nicht aber in dessen Qualität. Damit ›unterläuft‹ die praktische Interpretationstätigkeit das eigentlich zugrunde liegende theoretische, poststrukturalistische Modell. Winko bietet vier – in ihren Worten »rudimentäre« (ebd.: 354) – Erklärungsversuche für diesen eher erstaunlichen Befund. Danach könnte, erstens, die traditionelle fachliche Sozialisation die Abfassung von eher traditionellen Analysetexten begünstigen oder hervorrufen. Zweitens würde möglicherweise auch der starke Einsatz von literarischen Beispielen in der literaturwissenschaftlichen Argumentation und damit wiederum der Rückgriff auf den Autor als Stifter von Einheitlichkeit oder Selektionsinstanz für Bezugtexte ›unterlaufend‹ wirken. Zum dritten könnte die biologische Disposition und damit die Alltagserfahrung der Verfasser eher dazu führen, Handlungen und Artefakte einem realen Verursacher in Form des Autors zuzuschreiben. Schließlich würde, so Winko, viertens auch der normale Selektionsprozess bei der Entscheidung über die Akzeptanz eines Textes für eine Zeitschriftenpublikation möglicherweise ›andere‹ und traditionskritische Texte verhindern (vgl. ebd.: 353-354). Gerhard Lauer ist drei Jahre vor Simone Winko anhand von Analysen ausgewählter Kafka-Interpretationstexte zu einem prinzipiell gleichen Ergebnis gekommen (vgl. Lauer 1999b). Dabei greift er nicht nur die poststrukturalistische Kritik an, sondern wendet sich auch gegen die Kritik aus der Richtung Wimsatts und Beardsleys. Ziel seiner Analyse war es, die Gründe für den enormen Widerspruch zwischen einer autorkritischen Theoriebasis und der praktischen Verwendung von Autorkonzepten herauszufinden. Diesen Widerspruch kennzeichnet Lauer als besonders aufschlussreich, da sich aus dessen Analyse ein wichtiger Mechanismus ableiten ließe. Warum, so auch die zentrale Frage bei Lauer, ist beim Umgang mit Text das Autorkonzept so
AUTORSCHAFTS-TYPOLOGIE | 135
wichtig, dass selbst autorkritische Verarbeitungstexte nicht ohne ihn auskommen können? Den hauptsächlichen Grund stellt für Lauer die automatische Neigung dar, »menschliche Artefakte mit einem Autorindex [zu] versehen« (Lauer 1999a: 164). Dies geschieht, um mit Karl Eibl zu sprechen, zwingend aufgrund der biologischen Disposition von Autoren, Lesern und Kritikern (vgl. Eibl 1999). »Wir können nicht anders«, so Lauer, »als uns zu einem Text auch einen Autor hinzuzudenken« (Lauer 1999a: 164). Für Lauer steuert in erster Linie der Autor den Textzugang und unterdrückt dabei alle anderen möglichen Instanzen. Damit bildet das Autorkonzept für Lauer ein »Funktionsäquivalent« (ebd.: 224) von alltagskommunikativem Hintergrundwissen. In Bezug zur Alltagskommunikation formuliert er seine Schlussfolgerung, dass der Autorbegriff unmittelbar und unauflöslich durch den Textbegriff bedingt ist und von diesem hervorgebracht wird. Mit Lauer gelte dies auch für anonyme oder ohne Autornennung überlieferte Texte (vgl. ebd.: 228). Eine zweite wichtige Leistung des Bezugs auf den Autor sei die Unterscheidung zwischen fiktionalen und nichtfiktionalen Texten. Auch hier gibt es verschiedene ›Regeln‹ der Zuordnung, wie Lauer es bezeichnet hat. Die – wiederum – maßgebliche bilde der Autor mit einer spezifischen Autorintention (vgl. ebd.: 230). Die dritte wichtige Leistung des Autorbegriffes stellt für Lauer eine gewisse Steuerungsfunktion dar. Danach fokussiert der Autor das Leserinteresse in eine von ihm beabsichtigte Richtung und dies bereits auf der sprachlichen, ›untersten‹ Ebene. Damit verbunden ist erneut eine Autorintention, die vom Leser auch erwartet wird (vgl. ebd.). Anhand dieser drei zentralen Autorleistungen und -funktionen sowie durch weitere, zum Teil historische, Ausführungen begründet Lauer nachvollziehbar seine positive Einschätzung des Autorkonzeptes. Seine zentrale Schlussfolgerung gerinnt damit beinahe zur Essenz der Kritik an der Autorkritik: »Offensichtlich funktioniert der Autor so gut, daß er als Problem gar nicht hervortritt, selbst denen nicht, die seine Funktionen kritisieren« (ebd.: 228). Diese Erklärungsansätze von Simone Winko und Gerhard Lauer erscheinen plausibel. Es kann kaum unterschätzt werden, wie stark ein kultureller Kanon (hier: das Autormodell) auch in der Wissenschaft wirksam ist – und wie sehr sich ein Kanon theoretischer und methodologischer Positionen in den wissenschaftlichen Diskurs eingeschrieben hat. Dabei darf nicht vergessen werden, dass die poststrukturalistische Autorkritik zum Zeitpunkt von Winkos Untersuchung kaum älter als 30 Jahre war und die Germanistik schwerlich als eine Wissenschaft anzusehen ist, die ihr methodologisches Repertoire dynamisch und rasch ändert. Schließlich ist in der vorliegenden Untersuchung immer wieder darauf hingewiesen worden, wie nützlich und wirkmächtig das Autorkonzept in unserer Kultur ist; damit auch, wie schwer und vermutlich wie wenig wünschenswert es ist, dieses Konzept zu verabschieden. Insoweit ist es nachvollziehbar, dass die tatsächliche interpretatorische Praxis von dem theoretischen Konzept teilweise oder gar deutlich abweicht. Trotz all dieser Erklärungsversuche ist Simone Winko vollends zuzustimmen, wenn sie die Inkonsistenzen, die sich aus der Abweichung der tatsächlichen Praxis von der literarischen Theorie ergeben, scharf kritisiert. Diese Inkonsistenzen können mit Winko als Verstoß gegen ein grundlegendes Charakteristikum wissenschaftlicher Texte und Argumentationen angesehen werden, die Widerspruchsfreiheit in der Darstellung und der Begründung fordert. Über Winko hinausgehend muss das Phänomen doch sehr verwun-
136 | DER DIGITALE AUTOR
dern, dass eine poststrukturalistische Autorkritik theoretisch vertreten, unreflektiert tatsächlich aber ein traditionelles Autorkonzept benutzt wird. In der Rezeption von Winkos Text ist damit auch ihr Nachweis besonders hervorgehoben worden, dass die poststrukturalistische Kritik des angeblich ›naiven‹ Festhaltens am Autor nicht nur ins Leere läuft, sondern umgedreht den autorkritischen Theoretikern selbst vorgeworfen werden muss (vgl. Nieberle 2002: 445-446). Damit hat Winko – ähnlich wie Jannidis – durch die Nutzung und Untersuchung einer poststrukturalistischen Analysemethode gleichsam Argumente für eine vermittelnde Position geliefert. Obwohl ihre Untersuchung methodisch nicht ganz ›sauber‹ ist und damit ihre Ergebnisse nicht völlig widerspruchsfrei hinzunehmen sind, liefert Winko doch einen überzeugenden praktischen Beleg für die Bedeutung des Autorbegriffes. Sie kann zeigen, wie die Autorfunktion – eingeschränkt und pragmatisch – in der Analyse verwendet werden kann.
4.4.5 Nutzen der poststrukturalistischen Kritik Die ausführliche Diskussion der poststrukturalistischen Analysemodelle von Jannidis, Winko und Lauer haben deutlich werden lassen, dass aus der produktiven Auseinandersetzung mit der poststrukturalistischen Kritik nützliche Modelle für die Autorschaftsanalyse gewonnen werden können. Dies soll abschließend anhand eines Textes von Norbert Christian Wolf noch einmal verdichtet werden (vgl. Wolf 2002). Wolf beschäftigt sich mit der bereits mehrfach konstatierten und von den Arbeiten der Autorengruppe Jannidis et al. auch belegten »Wiederkehr des empirischen Autor- und des Werkbegriffs in der neuen Literaturtheorie« (vgl. ebd.). Er zeichnet die poststrukturalistische Autorkritik vor allem anhand der Arbeiten von Roland Barthes und Julia Kristeva nach und diskutiert deren Positionen recht kritisch. Seine Schlussfolgerungen beziehen sich am Ende aber ausschließlich auf Foucault, weswegen der Text an dieser Stelle ausführlicher diskutiert wird. Neu an seinem Ansatz ist, dass er explizit auf Pierre Bourdieus Feldtheorie26 verweist und dessen Analyse des literarischen Feldes für eine fruchtbare Kritik an der Autorkritik nutzt. Zu welchen produktiven Ergebnissen diese feldtheoretische Analysemethode führen kann, zeigt Wolf anhand der Diskussion von Matías Martínez’ Artikel zu »Autorschaft und Intertextualität« (vgl. Martinez 1999a) auf (vgl. Kapitel 4.3.7). Wolf fasst die zentralen Erkenntnisse von Martínez zusammen und bewertet dessen Argumentationsweise durchaus skeptisch. Aus einer sehr ausführlichen Diskussion von Bourdieus Forschungsmethodik und -ergebnissen (vgl. Wolf 2002: 395-400) leitet Wolf Argumente für seine Überzeugung ab, dass zum Verständnis der von Martínez’ diskutierten ›ready mades‹ mehr als nur die Autorintention notwendig sei. Da das Beispiel von Martínez’ aber einen extremen Beleg für den Bezug auf die Autorintention darstellt, kann Wolfs Position zulässig auch auf andere literarische Werke übertragen werden. Der Autor wird von Wolf als unabdingbar für das 26 Wolf bezieht sich vor allem auf Bourdieus Standardwerk »Les règles de l’art. Genèse et structure du champ littéraire«, vgl. Bourdieu 1999. Bourdieus Analyse des literarischen Feldes wird nur im Bezug auf Wolfs Argumentation rekapituliert. Für die vorliegende Untersuchung selbst wird diese Methodologie ausgeblendet, da sie inkompatibel zur Gesamtmethodologie ist. Zum Werk Pierre Bourdieus vgl. einführend auch Schwingel 1998.
AUTORSCHAFTS-TYPOLOGIE | 137
Entstehen des Werkes eingeschätzt, er allein leiste aber noch nicht die Sinnoder Wertzuschreibung einer künstlerischen Arbeit. Diese Zuschreibung würde vom gesamten künstlerischen Feld und damit von einer ganzen Reihe sehr verschiedener Instanzen vorgenommen: »Das für eine erfolgreiche künstlerische Auratisierung beliebiger Gegenstände benötigte feldspezifische Kapital bemißt sich dabei u. a. am Ausmaß der in den konstitutiven Dispositionen des künstlerischen Habitus inkorporierten allgemeinen Geschichte des Feldes.« (Ebd.: 403) Als Schlussfolgerung seiner Kritik stellt Wolf heraus, dass Martínez Plädoyer für die systematische Beibehaltung des Autors in der Textinterpretation und damit die Fokussierung auf die Autorintention allein zu kurz gegriffen ist. Wolf folgt Martínez zwar in der Kritik an der Autormarginalisierung, warnt aber vor einer neuerlichen, blinden und übermäßigen Verstärkung der Autorbedeutung. Bourdieus Feldtheorie erlaubt ihm eine – ähnlich wie bei Jannidis und Winko – zwischen den Polen vermittelnde Position. Er arbeitet damit heraus, dass die poststrukturalistische Autorkritik zu einer Verstärkung des theoretischen Autorschaftsdiskurses und zu einer Präzisierung seiner Terminologie und Methodik geführt hat. Dies belegt er anhand der produktiven Nutzbarmachung von Foucaults Modell und Methodologie. Indem Wolf den Autor als alleinigen Sinnstifter verabschiedet und die Bedeutung anderer Instanzen hervorhebt, bekräftigt er Foucaults Schlussfolgerung, dass die Autorfunktion geschichtlichen Veränderungen unterliege. Damit aber sei eine an Foucault anschließende historische Analyse der Inszenierungen von Autorschaft und des »steten Kampfs um die legitime Definition« (ebd.: 404) anzustreben. Wolf vertritt zudem die in dieser Untersuchung bereits mehrfach herausgehobene Überzeugung, dass historisch gleichzeitig konkurrierende Modelle von Autorschaft existierten und weiter existieren. Damit konstatiert er aber auch eine hohe Variabilität der verschiedenen Autormodelle: »bestimmte Aspekte bzw. ›Figurationen‹ der Autorfunktion [können, F. H.] durchaus verschwinden und wieder auftauchen« (ebd.: 405). Die poststrukturalistische Kritik ist für Wolf also produktiv, weil sie differenziertere Analysen ermöglicht, die auch Widersprüche zulassen und fruchtbar aufeinander beziehen. Er wendet sich aber deutlich gegen die unzulässigen, utopischen Schlussfolgerungen der poststrukturalistischen Theoretiker, die zudem in verfälschter Form Einzug in den populären Diskurs gehalten hätten: »Nicht bewahrheitet aber haben sich ihre prophetischen Aussagen, etwa Barthes’ finale These, daß die Geburt des Lesers mit dem Tod des Autors bezahlt werden müsse.« (Ebd.) Stattdessen stellt er heraus: »Beide sind als empirische Wesen auch in der Theorie noch recht lebendig, und das sogar in fröhlichem Konkubinat.« (Ebd.) Resultierend landet er bei dem derzeitigen, moderaten Diskurs um die nur scheinbare »Rückkehr« des nie verschwundenen Autors.
4.5 Zusammenfassung: Mit dem Autor macht man es sich einfach Damit ist der jüngere theoretische Diskurs um die literarische Autorschaft gekennzeichnet, so wie er für die vorliegende Untersuchung relevant ist. Dies resümierend werden die zentralen Befunde thesenartig noch einmal vorgestellt, um insbesondere die Diskussion im Teil C vorzubereiten.
138 | DER DIGITALE AUTOR
These 1: Nebeneinander von verschiedenen Autorschaftsmodellen Es ist deutlich geworden, dass es ebenso einfach war, den Autor zu verabschieden, wie jetzt enthusiastisch seine Rückkehr zu feiern. Stattdessen ist bereits in der ›traditionellen‹ Literatur ein »Nebeneinander vielfältiger, auch rivalisierender Autorschaftsmodelle« (Waldow 2002: 582) festzustellen, die je nach künstlerischem Programm aktiviert werden. Dabei lassen sich gewisse ›Moden‹ identifizieren, also die Bevorzugung von je stärker individualistischen oder von stärker kollaborativen Modellen.
These 2: Ambivalenz zwischen der praktischen Verwendung und dem theoretischen Diskurs Gleichzeitig kann eine enorme Differenz zwischen dem theoretischen Diskurs um Autorschaft und der praktischen Verwendung von Autorkonzepten etwa in Interpretationen ausgemacht werden. Selbst autorkritische Interpreten kommen kaum ohne ein Autorkonzept aus (vgl. dazu Lauer 1999b; Winko 2002). Aber auch in der theoretischen Reflexion findet der Autor zumeist selbstverständlich Verwendung, ebenfalls oft unter Vernachlässigung kritischerer und differenzierterer Befunde aus der Forschung. Damit wird deutlich, dass »man es sich mit dem Autorennamen offensichtlich längst wieder einfach gemacht hat« (Erhart 2002: 327).
These 3: Besondere Nützlichkeit des Autorkonzeptes Sowohl das Vorhandensein einer ganzen Reihe von Autormodellen, als auch die Ambivalenz zwischen theoretischer Debatte und praktischer Verwendung zeigen, dass das Autorkonzept nach wie vor eine ganze Reihe nützlicher Funktionen für den kulturellen Diskurs übernimmt. Dies wird, wie diskutiert wurde, durch eine Vielzahl von Verwendungsweisen in den unterschiedlichsten literaturwissenschaftlichen Unterdisziplinen markiert (vgl. dazu Jannidis et al. 2000a: 18-35). Aber auch darüber hinausgehend erweist sich das Autorkonzept interdisziplinär als ein Dispositiv, dass die menschliche Kultur strukturiert und in ihrer Komplexität reduziert. Dies ist aber kaum zulässig unter dem Schlagwort einer Rückkehr oder Wiederkehr des Autors zu fassen.
These 4: Konsistente Theoriedebatte vonnöten Bereits 1998 hat Kleinschmidt daher konstatiert, dass »eine konsistente Theoriedebatte um Autorkonzeptionen […] nach wie vor anzumahnen [ist, F. H.]« (Kleinschmidt 1998: 11). Auch Jannidis et al. (Jannidis et al. 1999b) sowie Detering (Detering 2002a) verstanden ihre (dokumentierten) Konferenzen explizit als erste Impulse für eine neuerliche Beschäftigung mit dem Thema: »[D]ie Diskussion um die Brauchbarkeit des Autorbegriffs [ist, F. H.] keineswegs beendet, sondern beginnt jetzt eigentlich erst mit dem Bemühen, die vielfältigen historischen und systematischen Formen und Funktionen des Autors angemessen zu erfassen.« (Jannidis et al. 2000a: 25) Diese Forderungen sind über zehn Jahre später trotz der bisher geleisteten Arbeiten nicht weniger angebracht. Nach der Wiederaufnahme des Diskurses und einer ersten Strukturierung des Feldes scheint es allerdings notwendig, die Schwerpunkte der Debatte zu verlagern. Zu klären ist etwa, wie sich Autorkonzepte am Eingang des 21. Jahrhunderts verändert haben, fern von den unzulässig vereinfachenden Einschätzungen von Tod, Rückkehr oder Wiederkehr:
AUTORSCHAFTS-TYPOLOGIE | 139 »Vielleicht aber […] kann man es sich auch mit der Rückkehr des Autors und des Autorennamens zu einfach machen, zumal keineswegs ausgemacht ist, wer eigentlich zurückgekehrt ist: der reale Autor, die Autorität des Autors, der Autor im Text, die ›Wertvorstellung‹ Autor oder der historische Autor als Urheber.« (Erhart 2002: 327-328)
Anzumahnen sind außerdem Untersuchungen, die über Konzepte einzelner Autoren hinausgehen, gleichzeitig aber nicht den Anspruch auf umfassende Theorieentwürfe zur Autorschaft anmelden. Damit sind exemplarische Analysen angesprochen, die entweder auf ausgewählte Medien oder bestimmter Teilaspekte des Phänomens Autorschaft eingehen. Mit der vorliegenden Untersuchung wird eine solchermaßen vermittelnde Position vertreten, indem sie auf ein spezifisches Medium (Internet, Kapitel 5 und 6) fokussiert, dort ein eingegrenztes Problem untersucht (Bedingungen der Autorschaft, Kapitel 7) und auf einen größeren Korpus von Autoren eingeht (deutschsprachige Netzliteraten, Kapitel 8). Dabei wird an die aus Detering heraus entwickelte Systematik angeknüpft, die von den drei zentralen Autormodellen in der Literatur ausgeht: ›Autor‹, ›Schreiber‹ und ›Autorfunktion‹. Diese Modelle führen die netzliterarischen Arbeiten fort. ›Klassische‹ Netzliteraturprojekte realisieren vor allem das Paradigma Autor im Sinne des Autor›genies‹, während sich das Schreibermodell in den theoretischen Konzeptionen von kollaborativen Mitschreibprojekten niederschlägt. Das Modell der Autorfunktionen wird vor allem von den Codeworks ausgefüllt. Hinzu tritt die Unterscheidung zwischen starker und schwacher Autorschaft in der Netzliteratur, dies bildet die Differenz »nützlich«/»marginalisiert« ab. Wie sich Netzliteraten in ihren Arbeiten konzeptuell aus ihrer Autorrolle zu befreien trachten und die Autorschaft förmlich ›dissoziiert‹, wird anhand der netzliterarischen Konzeptkunst besprochen.
T EIL B. D ISPOSITIV I NTERNET
5 HANDLUNGSROLLENMODELL Im Teil A wurden die literaturtheoretischen Grundlagen des Phänomens Autorschaft diskutiert, wobei sich die Darstellung vor allem auf Autormodelle in den Printmedien konzentrierte. Mit dem Wechsel der Forschungsperspektive auf eine medienwissenschaftliche Untersuchungsmethodik erfolgt im Folgenden die Fokussierung auf den eigentlichen medialen Zusammenhang der vorliegenden Studie, das Medium Internet. Als medientheoretische Grundlage wird die »Empirische Theorie der Literatur« (ETL) dargestellt und damit eine Konzeption von Handlungsbereichen im System der Netzliteratur. Dabei wird mit den Autoren vor allem der Handlungsbereich der Produktion angesprochen, in dem (netz-)literarische Inhalte erzeugt werden. Zur analytischen Vorstrukturierung des Internets dient darauf aufbauend das DispositivKonzept. Das Netz wird resultierend als mediales Dispositiv begriffen, das sich durch eine spezifische Anordnung von untereinander vernetzten, heterogenen Elementen auszeichnet (vgl. Kapitel 6). Beide theoretischen Konzepte sind über das Dispositiv Autor wechselseitig miteinander verbunden. Eine dispositivitäre Struktur weist bereits der Handlungsbereich der netzliterarischen Produktion auf, in dem Netzautoren agieren. Wenn sich Autoren oder das netzliterarische System ändern, ändern sich auch deren Handlungsrollen. Das Modell des Dispositivs selbst arbeitet zwar weitgehend über-subjektiv, es ist aber keineswegs als subjekt-frei einzuschätzen. Tatsächlich stellt es im Grunde genommen ein handlungstheoretisches Modell dar, weil das jeweilige mediale Dispositiv nur durch die Handlungen einzelner zustande kommt. In der Analyse muss deshalb ein Weg gefunden werden, die Autoren im Dispositiv als handelnde Personen zu erfassen. Daher ist das Dispositiv als Analyseinstrument für gesellschaftliche Phänomene mit der Untersuchung der handelnden Aktanten zu verbinden. Dieses Vorgehen schließt an Forderungen von Theoretikern wie Knut Hickethier (vgl. Hickethier 2002) oder Thomas Barth (vgl. Barth 2005) an. Das Subjekt, das bei der medienwissenschaftlichen Übernahme des Dispositivmodells zunächst aus dem Konzept herausgehalten wurde, sei, so die Forderung, wieder in dieses einzubauen.
5.1 Grundzüge der Empirischen Literaturwissenschaft Die »Empirische Theorie der Literatur« wurde von S. J. Schmidt mit dem »Grundriß der Empirischen Literaturwissenschaft« (Schmidt 1991 [1980]) ausführlich entwickelt. Gegenstand dieser Theorie sind Handlungen von Aktanten in Bezug auf Texte, denen diese die Eigenschaft »literarisch« zuweisen. Die Literarizität von Texten wird dabei nicht nach normativen Kriterien festgelegt, sondern resultiert funktional aus der Art und Weise des literarischen
144 | DER DIGITALE AUTOR
Handelns. Die ETL ist zusammen mit der »Empirischen Literaturwissenschaft« (ELW) ausgearbeitet worden und bildet den theoretischen Rahmen dieser empirischen Variante, mit Literatur umzugehen. In der ELW werden explizite wissenschaftstheoretische und methodologische Ziele verfolgt, nämlich Empirizität (die Theorie muss empirisch überprüfbar sein), Theoretizität (die Theoriestruktur muss explizit sein) und Applikabilität (die Theorie muss praktisch anwendbar sein und dadurch gesellschaftlich wirksam werden). Damit hebt die Analyse von literarischen Texten streng auf die Beachtung basaler wissenschaftlicher Standards ab, wie z. B. explizite Fachsprache und intersubjektive Überprüfbarkeit der Ergebnisse. Die Unterscheidung zwischen ETL und ELW ist in der (klassisch) literaturwissenschaftlichen Debatte nicht immer scharf. Die ETL stellt eine Rahmentheorie dar, die u. a. von Schmidt selbst ab Mitte der 1980er Jahre zum (Radikalen) Konstruktivismus und zur Systemtheorie weiterentwickelt wurde (vgl. Schmidt 2000a). Die ELW verstand sich dagegen als wissenschaftliche Disziplin und als Gegenentwurf zur klassisch hermeneutisch ausgerichteten Literaturwissenschaft. Als provokantes Paradigma (vgl. Schmidt 1982a) hat sie jedoch nur ansatzweise in der Literaturwissenschaft Fuß fassen können; sie wurde stattdessen zu einem der theoretischen Fundamente der sich aus der Literaturwissenschaft herausgegründeten Medienwissenschaft (vgl. Viehoff 2002). Eine ausführliche Darstellung der »Empirischen Theorie der Literatur« kann und soll an dieser Stelle nicht gegeben werden.1 Für die Arbeit ist vor allem das Element der Handlungsrollen relevant, sodass auf dieses näher eingegangen wird.
5.2 Handlungsrollenmodell: Der Literatur›betrieb‹ im Netz 5.2.1 Grundlagen Grundlage der folgenden Ausführungen sowie der gesamten Untersuchung ist eine empirische Konzeption von Literatur. Danach stellt literarische Kommunikation im Internet ein Teilsystem des Gesamtsystems Literatur dar, das dieses ergänzt und vervollständigt (vgl. Jonas 2000). Das System selbst besitzt sowohl eine innere Struktur als auch eine Außen-Innen-Differenzierung; es übernimmt innerhalb der Gesellschaft Funktionen, die von keinem anderen System geleistet werden können. Handlungen innerhalb des Systems sind nach Produktions-, Vermittlungs-, Rezeptions- und Verarbeitungshandlungen differenziert und beziehen sich auf ästhetische thematische Kommunikatbasen (vgl. Schmidt 1991 [1980]: 233). Als ›literarischer Text‹ gilt, was von den Aktanten (Handelnden) im Literatursystem als solcher eingeschätzt wird (vgl. Kapitel 2.1.1). Damit wird der Fokus vom ›Text‹ weg verlagert, dem in den traditionellen Literaturwissenschaften inhärente Bedeutungen zugeschrieben werden und die es vom Leser zu ermitteln gilt. Umgeschaltet wird stattdessen auf ›Handlungen‹; der Rezipient konstruiert die Bedeutung des ihm vorliegenden Textes aufgrund seiner 1
Zu ETL und ELW vgl. ausführlicher Schmidt 1982a; Hauptmeier/Schmidt 1985; Schmidt 1991 [1980]; Schmidt 2000b: 63-66; Jahraus 2004: 306-314 sowie überblicksweise Barsch 2000; Rusch 2000b; Viehoff 2000; Rusch 2004.
HANDLUNGSROLLENMODELL | 145
bisherigen Erfahrungen und Fähigkeiten. Allgemeiner formuliert, wird die Frage in das Zentrum der Beobachtungen gerückt, was Aktanten mit Texten tun, die sie für literarisch halten, anderen als literarisch präsentieren oder als literarisch bewerten (vgl. Hauptmeier/Schmidt 1985: 14-15). Unter Bezugnahme auf S. J. Schmidt kann das Modell folgendermaßen knapp charakterisiert werden: »Als kleinste Einheiten werden Handlungen (samt ihren Bedingungen, Folgen, Konsequenzen) angesetzt, die solche Phänomene (meist Texte) fokussieren, die der Handelnde für literarisch hält. Handlungen dieser Art nenne ich literarische Handlungen. Grundsätzlich geht die Empirische Theorie der Literatur aus von vier elementaren Handlungstypen: von der Produktion, Vermittlung, Rezeption und Verarbeitung literarischer Texte. Kopplungen literarischer Handlungen führen zu Literaturprozessen. Die Gesamtheit der Literaturprozesse in einer Gesellschaft bezeichne ich als Literatursystem.« (Schmidt 2000b: 66, Hervorhebungen im Original)
Obwohl die Schmidtsche Konzeption inzwischen hin und wieder als zu undifferenziert kritisiert wurde (so etwa bei Rusch 1991), hat sie m. E. seit ihrer ersten Ausarbeitung vor über 25 Jahren nichts an Nützlichkeit und Produktivität verloren. Die grobe Einteilung in nur vier Handlungsbereiche ist relativ einfach nachvollziehbar, reduziert dabei die Komplexität eines modernen Medienbetriebes auf anschauliche Art und Weise und trägt somit enorm zur Strukturierung von Medienanalysen bei. Die Übertragung auf andere mediale Zusammenhänge hat deutlich machen können, dass das Konzept über die Literatur hinaus wirksam werden kann.2 Es kann daher nicht verwundern, dass das Modell ein zentrales Paradigma der Medienwissenschaft geworden ist und viele verschiedene Untersuchungen theoretisch und methodologisch gestützt hat.3 Allerdings ist noch einmal zu bemerken, dass S. J. Schmidt und seine Mitarbeiter das Konzept selbst seit dem Paradigmenwechsel zum Konstruktivismus (vgl. Rusch 2000b) nicht mehr maßgeblich weiterentwickelt haben.4
5.2.2 Aktanten im traditionellen Literatursystem Aktanten handeln im Literatursystem und sie handeln in spezifischen Rollen. Basierend auf Schmidts Überlegungen werden vier Rollen unterschieden, die in zeitlichen und kausalen Beziehungen zueinander stehen, nämlich Litera2 3
4
Zu den Leistungen des Modells – hier bezogen auf das Fernsehsystem – vgl. auch Schmidt 1994b: 23-25. Vgl. exemplarisch das DFG-Forschungsprojekt »Das Kriminalsujet im ost-, west- und gesamtdeutschen Fernsehen. Die Programmgeschichte des deutschen Fernsehkrimis«, welches von 1995 bis 1999 unter der Leitung von Reinhold Viehoff am Institut für Medien- und Kommunikationswissenschaften, MartinLuther-Universität Halle-Wittenberg durchgeführt wurde. Die Ergebnisse wurden – mit dem theoretischen Unterbau des Handlungsrollenmodells – publiziert in drei Dissertationen (Guder 2002; Wehn 2002a; Brück 2004) und einer umfassenden Programmgeschichte des deutschsprachigen Fernsehkrimis (Brück et al. 2003). Eine der Ausnahmen bildet Sibylle Moser, welche allerdings vor allem auf die (anders strukturierte) Handlungstheorie in Verbindung mit Systemtheorie und Konstruktivismus abhebt, vgl. Moser 2001.
146 | DER DIGITALE AUTOR
turproduktion, Literaturvermittlung, Literaturrezeption sowie Literaturverarbeitung. Ihr Verhältnis zueinander lässt sich in einem Kreismodell darstellen: Abbildung 4: Verhältnis der Handlungsrollen zueinander Literaturvermittlung Literaturproduktion
Literaturrezeption Literaturverarbeitung
Quelle: Hauptmeier/Schmidt 1985: 15 Literaturproduktion ist Voraussetzung für die Vermittlung, die die Rezeption ermöglicht. Daran schließt sich die Verarbeitung an, deren Ergebnisse auf die Produktion zurückwirken. Dazu treten direkte Wechselwirkungen zwischen Produktion und Rezeption; Autoren schreiben beispielsweise für ein bestimmtes Publikum, während Leser bestimmte Autoren kaufen. Schließlich beeinflussen sich auch Vermittlung und Verarbeitung gegenseitig; Verlage versuchen etwa, auf Kritiker einzuwirken, indem sie Autoren besonders bewerben. Umgedreht bietet Literaturkritik eine Orientierung für Verlage, die ihre Verlagsprogramme planen. Diese (im jeweiligen historischen Kontext auch unterschiedlichen) Beziehungen zwischen den einzelnen Handlungsrollen konstituieren das jeweilige Literatursystem. Dass sie unterschiedliche Notwendigkeiten aufweisen, sei nur kurz angedeutet. Für die literarische Kommunikation sind Produzent und Rezipient unverzichtbar; Vermittler und Verarbeiter können weg- oder mit anderen Rollen zusammenfallen (vgl. Hauptmeier/Schmidt 1985: 15-16). Nach Schmidt sind die einzelnen Handlungsrollen formal folgendermaßen definiert: Danach ist ein Literaturproduzent (LP) »ein Produzent Literarischer Texte genau dann, wenn LP Kommunikationsteilnehmer [...] ist, der eine sprachliche Kommunikationsbasis SKB [...] erzeugt, die er für einen literarischen Text hält.« (Schmidt 1991 [1980]: 377) Der Literatur-Vermittler (LV) stellt dagegen »ein[en] Vermittler Literarischer Texte genau dann [dar, F. H.], wenn LV Kommunikationsteilnehmer [...] ist, der eine bereits vorliegende sprachliche Kommunikatbasis SKB in eine anders medialisierte sprachliche Kommunikatbasis überführt, um sie als Literarischen Text LT an andere Kommunikationsteilnehmer weiterzuleiten.« (Ebd.: 378)
Als Literatur-Rezipient (LR) wird »ein Rezipient Literarischer Texte genau dann [eingestuft, F. H.], wenn LR ein Kommunikationsteilnehmer [...] ist, der einer sprachlichen Kommunikatbasis SKB [...] ein Kommunikat zuordnet, das er für ein Literarisches Kommunikat [...] hält.« (Ebd.) Literatur-Verarbeiter (LVA) ist schließlich »ein Verarbeiter Literarischer Texte genau dann, wenn LVA ein Kommunikationsteilnehmer [...] ist, der dem für Literarisch gehaltenen Kommunikat LKK, das er ei-
HANDLUNGSROLLENMODELL | 147 ner thematisch sprachlichen Kommunikatbasis SKB zugeordnet hat, einen sprachlichen Text zuordnet, der zu SKB in Verarbeitungsrelation steht.« (Ebd.: 379)
Der Vorteil dieser eindeutigen Definitionen liegt in der leichten Zuordnung von Berufsgruppen, Organisation und Institutionen zu den einzelnen Handlungsbereichen sowie in der empirischen Überprüfbarkeit dieser Rollen. Über die Bestimmung von Aktanten oder Aktantengruppen hinaus lassen sich einzelne Rollen näher spezifizieren durch: • die handelnden Aktanten, • die vorgesehenen Einzelhandlungen und Handlungsmöglichkeiten, • die Professionalisierung des Rollenhandelns, • die Voraussetzungen der Aktanten (z. B. biographischer, historischer, soziokultureller, politischer Art), • die Einschätzung der Handlungsbedingungen, • die situative Einbettung der Handlung, • den Umgang der Aktanten miteinander, • die Handlungsstrategien sowie • den Handlungsverlauf, den Handlungsfolgen und -konsequenzen (vgl. Schmidt 1994b: 16). Aus diesen Spezifikationen können detaillierte Forschungsprogramme (Befragungen, teilnehmende Beobachtungen, Inhaltsanalysen etc.) entwickelt werden, die die Handlungsrollen detailliert analysieren.
5.2.3 Erweiterung und Kritik des Konzeptes Das Handlungsrollenmodell ist verschiedentlich kritisiert und erweitert worden.5 So vertritt Achim Barsch die Position einer notwendigen, zusätzlichen Differenzierung des Literatursystems durch die Einbeziehung von Handlungsebenen. Bildlich gesehen, ergänzt er das horizontal angelegte Beziehungsgefüge der Handlungsrollen um eine vertikale Ebenenkonfiguration. Barsch vermag damit zu erfassen, dass die Grenze zwischen literarischen und nicht-literarischen Texten auf ganz verschiedenen Handlungsebenen erzeugt, aufrechterhalten und reflektiert wird. Dabei werden diese Ebenen vom Literaturbegriff der Aktanten verbunden. Barschs Auffassung nach ist es dadurch möglich, die Wechselwirkungen zwischen den Handlungen auf den unterschiedlichen Ebenen zu untersuchen. Außerdem würde damit eine Analyse mehrerer Literaturbegriffe nach deren Gemeinsamkeiten oder Unterschieden möglich (vgl. Barsch 1993). Diese Konzeption verwendet Reinhold Viehoff in einer modifizierten Form, um die Beziehung zwischen ›Schriftsteller und Rundfunk‹ zu beschreiben. Dabei unterscheidet er zwischen Handlungen ersten (literarische Handlungen), zweiten (meta-literarische Handlungen) und dritten Grades (Handlungen außerhalb des Literatursystems, die für dieses aber konstitutiv sind). Resultierend kann Viehoff überzeugend die Notwendigkeit eines modifizierten Handlungsrollenmodells belegen (vgl. Viehoff 1998: 105-117). Gebhard Rusch plädiert – im Gegensatz zu Barsch – für eine Differenzierung der Handlungsrollen, die über den Grad hinausgeht, welchen Schmidt in 5
Diese Positionen der Erweiterung und der Kritik sind viel ausführlicher diskutiert in Hartling 2002: 30-33.
148 | DER DIGITALE AUTOR
seiner Konzeption erreicht hat. Diese Einschätzung begründet er mit der mangelnden Differenzierung von sehr verschiedenen Berufsfeldern, die in dem Handlungsbereich Vermittler zusammengefasst sind. Seiner Auffassung nach müssen gerade Untertypen von Handlungen ein- und derselben Handlungsrolle beschreibbar sein, sowie verschiedene Aspekte und Ausprägungen von Handlungsrollen vergleichbar werden (vgl. Rusch 1991). Alle Positionen wurden im Umfeld S. J. Schmidts formuliert und entstammten damit der unmittelbaren Diskussion um die Empirische Theorie der Literatur (ETL). Sie zeigen, dass das Handlungsrollenmodell ausbaubar ist und in einer veränderten Medienlandschaft nach Erweiterung und Differenzierung geradezu verlangt. Wenn im Folgenden die Handlungsrollen im Netzliteratursystem skizziert werden, orientiert sich die Argumentation zunächst noch an den vier traditionellen Handlungsrollen. Dies ist vor allem dem Ziel geschuldet, eine brauchbare Momentaufnahme eines noch sehr jungen Phänomens zu geben, das starken Veränderungen unterliegt und dabei bestimmte Tendenzen zu beschreiben. Eine hier nicht beabsichtigte eingehendere Analyse der Aktanten müsste sich einer der beschriebenen, differenzierten Varianten des Handlungsrollensystems bedienen oder eine eigene Version entwickeln.
5.3 Aktanten im (Netz-)Literatursystem 5.3.1 Netzliteraturproduktion Produzenten von Netzliteratur können entsprechend den oben skizzierten vier Schwerpunkten (vgl. Kapitel 2.3.2) in vier große Gruppen eingeteilt werden. (1) Bei den Projekten mit singulärer Autorschaft werden weiterhin klassische Merkmale der Literatur fortgeführt. So vertreten diese Arbeiten ein starkes Konzept von Autorschaft, das sich z. B. in der Inszenierung der Autoren niederschlägt. Auch kann der Leser bei aller Interaktivität nur die Wege einschlagen, die ihm der Autor vorgegeben hat. (2) Bei kollektiven (oder kollaborativen) Projekten wird die Funktion der Autorschaft nicht mehr nur von einem einzigen Autor übernommen. Kennzeichnend für diese Art von Literatur ist, dass sie konsequent die traditionelle Beziehung von Autor und Leser umzukehren, zu verwischen und am Ende sogar aufzulösen scheint. Dabei wird das Internet vor allem als Kommunikations- und Interaktionsmedium benutzt. (3) Autoren von Codeworks treten zumeist in den Hintergrund, indem sie die Textproduktion einem von ihnen geschriebenen, oft nicht einsehbaren Programmalgorithmus überlassen. Auf der Bildschirmoberfläche scheint sich der Computer ›auszutoben‹. Codeworks reflektieren somit, dass digitale Literatur immer auf Software beruht, und sie rücken das konzeptionelle ›Dahinter‹ von digitaler Literatur in den Mittelpunkt der Aufmerksamkeit. Eine Ausnahme sind Autoren von ›broken code‹ oder ›ASCII-Art‹, die sehr wohl einen starken, singulären Autorschaftsbegriff vertreten. (4) In Konzept- und Performanceprojekten können nur noch Autorfunktionen ausgemacht werden, die sich über ganz verschiedene Personen und technische Apparaturen verteilen, womit die Autorschaft förmlich ›dissoziiert‹. Dazu tritt eine besondere temporäre Verfasstheit der Autorfunktionen, die mit der Vergänglichkeit der Projekte einhergehen. Das Werk kristallisiert
HANDLUNGSROLLENMODELL | 149
am Zeitpunkt der Performance, existiert nur während seiner Aufführung und verschwindet danach unweigerlich wieder. Damit aber versuchen Konzeptautoren, aus den Bedingungen des Netzdispositivs regelrecht ›auszubrechen‹ und sich selbst zu befreien. Autoren und Schreiber rekrutieren sich gleichermaßen aus nichtprofessionellen und professionellen Autoren; (Geistes-)Wissenschaftler, Lehrer und Webdesigner sind ebenso vertreten wie Journalisten und Künstler (vgl. dazu etwa die Kurzbiographien bereits etablierter Autoren in Suter/Böhler 1999b: 224-232). Dass Netzliteratur vor allem in einem gebildeten Milieu produziert wird, stellt eine Einschätzung dar, die sich bei der Lektüre von Autorenbiographien aufdrängt. Dies müsste allerdings noch näher untersucht werden. Die Motivation der Produzenten stellt mit Jonas weniger das Verfassen von Botschaften und Belehrungen oder der Entwurf literarischer Modelle dar, sondern die Kommunikation mit dem Rezipienten. Seine These lautet: »Es scheint so, als ob eine bestimmte ästhetische Qualität nur deshalb angepeilt wird, um Feedback zu erreichen. Das Ästhetische ist Anlass und Gegenstand, Auslöser von Kommunikation; es wird quasi überlagert von diesen Absichten nach relativ unmittelbarer Kommunikation.« (Jonas 2000) Diese These gilt m. E. zwar unbestritten für kollaborative Schreibprojekte, die sich im Grunde genommen ja ursächlich auf kommunikative Prozesse gründen; sie kann aber für Arbeiten mit singulärer Autorschaft nur eingeschränkt gelten. In diesen Projekten geht es offensichtlich in der Hauptsache darum, die Möglichkeiten von Interaktivität, Intermedialität und Inszenierung zu erproben und sich künstlerisch Ausdruck zu verschaffen. Susanne Berkenheger etwa hat, so will es die Legende, ihren prämierten Hypertext »Zeit für die Bombe« nach einer frustrierenden Internet-Recherche geschrieben, um sich am missverstandenen Informationsmedium zu rächen (vgl. Suter/Böhler 1999b: 225).
5.3.2 Netzliteraturdistribution Die klassische Rolle des Netzliteraturvermittlers scheint durch die Möglichkeiten des Internets zunächst verschwunden zu sein. Funktionen, die im klassischen Literaturbetrieb von Verlagen und Lektoren erfüllt werden, übernimmt im Netz die Produktion selbst. In jedem Browserpaket ist ein (einfaches) Programm zur Erstellung von Webinhalten enthalten, und bereits Basiskenntnisse über Internettechnologien wie Flash oder JavaScript erlauben anspruchsvollere Projekte. Sind die Texte produziert, können sie kostengünstig im Netz publiziert werden, da die Preise für (eingeschränkten) Webspace recht niedrig sind.6 Unabhängig von inhaltlichen, terminlichen und finanziellen Zwängen eines Verlages können Projekte so zunächst mit nahezu unbegrenzter künstlerischer Freiheit verwirklicht werden. Natürlich birgt die Umgehung des klassischen Literaturbetriebes die Gefahr, dass der Publikationsvorteil durch den Verzicht auf literarische Qualität erkauft wird. Es wird deutlich, dass das Internet zwar jedem Autor die Möglichkeit bietet, seine Arbeiten prinzipiell einem globalen Publikum zugänglich zu machen. Allerdings werden die Projekte nur wahrgenommen, wenn 6
Bei größeren und erfolgreicheren Projekten nivelliert sich dieser ökonomische Vorteil des Netzes, da mit ansteigendem Traffic auch die Kosten stark ansteigen, vgl. dazu näher Kapitel 7.3.
150 | DER DIGITALE AUTOR
sie auch künstlerisch hochwertig genug sind, um von anderen Webseiten verlinkt oder in Besprechungen rezensiert zu werden. Controlling- und Selektionsfunktionen, die üblicherweise von Verlagen und Lektoren erfüllt werden, verlagern sich somit aus der Vermittlungs- in die Verarbeitungsrolle. In E-Zines, auf Literaturportalen oder in Newsgroups werden neue bzw. qualitativ hochwertige Arbeiten besprochen oder verlinkt. Dadurch werden die literarischen Texte aber erst an andere Kommunikationsteilnehmer weitergeleitet. Ambitionierte Netzautoren agieren nicht im »luftleeren Raum«, sondern sind in ein relativ starkes Gefüge eingebunden. Dabei handelt es sich aber nicht um die Abhängigkeit von einem Verlag, sondern um den kritischwohlwollenden Diskurs im Internet. Zunehmend werden auch klassische Auswahl-Mechanismen des Literatursystems im Netz (in modifizierter Form) wiederhergestellt und damit der Einfluss der Offline-Vermittler in das Internet hinein verlängert.
5.3.3 Netzliteraturrezeption Die Handlungsrolle Netzliteraturrezipient kann in zwei zentralen Punkten von der traditionellen Rezipientenrolle unterschieden werden. Zum ersten wird mit der (teilweisen) Auflösung von Autor- und Vermittlerfunktion auch die Bedeutung des Lesers enorm aufgewertet, er übernimmt die einheitsstiftende Rolle des Autors und transformiert sie dabei. Netzliteratur stellt kein vorgefertigtes Produkt mehr dar, das vom Rezipienten ›durchgelesen‹ werden kann. Stattdessen ist es als Rohmaterial anzusehen, das ihn dazu anhält, selbst aktiv zu werden. Aus den vorgegebenen Elementen muss er durch seine eigene Leseentscheidung eine Textfolge herstellen und die Fragmente dabei kohärent verbinden (vgl. Wirth 1999: 31-33) oder er beteiligt sich sogar selbst als Autor an einer kollaborativen Textproduktion (vgl. Idensen 1996). Der traditionelle Textstrang wird zweitens samt seines ›Zwanges zur Linearität‹ aufgegeben, an seine Stelle treten durch Hyperlinks netzartig verbundene Texteinheiten. Was in der experimentellen Literatur des 19. und 20. Jahrhunderts (z. B. bei Arno Schmidt) im schriftlichen Medium ausprobiert wurde, wird im digitalen Medium zum zentralen Prinzip erklärt. Damit wird das ›springende Lesen‹, das auch in linearen Texten stets möglich war, zur grundlegenden Lesehaltung. Springen stellt nun aber keine Möglichkeit, sondern eine absolute Notwendigkeit dar. Auch der Lesevorgang an sich hat sich verändert; die Rezipienten klicken, navigieren und surfen durch die Texteinheiten (vgl. Wirth 1999; Jonas 2000). Dabei kommt es natürlich auch zu Problemen. So stellt Linearität zum ersten das zentrale Merkmal nahezu aller Texte dar, die ein Mensch im Laufe seiner Sozialisation zu verstehen gelernt hat. Seine erlernten Rezeptionsstrategien sind bei Netzliteratur allerdings oft wenig hilfreich, weswegen zumeist mühsam neue Lektürestrategien entwickelt werden müssen. Dass Netzliteratur ›sperrig‹ sei und schwer zu verstehen, hängt bereits mit diesem grundlegenden Zugangsproblem zusammen. Zweitens hat der Leser meist keinen Überblick über Tiefe und Struktur des netzliterarischen Textes. Nur selten weisen Hypertexte auch ein Ende auf, die Lektüre kann im schlimmsten Fall in ein zielloses und frustrierendes Herumirren münden. Dazu tritt das Problem, dass sich der Sinn eines Links erst nach dessen Aktivierung und der Lektüre des nachgeschalteten Textfragmentes ergibt. Verknüpfungen zwischen den Textelementen können aber, drittens, nur da hergestellt werden, wo
HANDLUNGSROLLENMODELL | 151
der Autor auch Links gesetzt hat. Der Leser schreitet des Öfteren nur Pfade ab, die schon vorgegeben sind, womit die Qualität eines Textes sehr stark von der Dichte und der Plausibilität der Verknüpfungen abhängt (vgl. Liesegang/ Schmidt-Bergmann 2000). Viertens, auch Co-Autorschaften sind nur in jenen Freiheitsgrenzen möglich, die ein Hauptautor kontrolliert; von einem kompletten Auflösen des Autors kann deshalb nicht gesprochen werden. Diese Einschränkungen machen deutlich, dass Netzliteratur für traditionelle Erzählformen und lineare Geschichten denkbar ungeeignet ist. Stattdessen werden Erzählformen unterstützt, die auf Episoden und der hermetischen Dichte einzelner Fragmente basieren. Eine befriedigende Leseerfahrung stellt sich dabei für den Rezipienten nicht notwendigerweise ein, dagegen wird immer wieder das Gefühl des »Lost in Hypertext« beschrieben (vgl. ebd.). Welche Lektüremöglichkeiten sich dem »permanent abschweifenden, aufpfropfenden, entführenden, anekdotischen Leser« (Wirth 1999: 40) von Netzliteratur bietet, hat Uwe Wirth in seinem Artikel »Wen kümmert’s, wer spinnt?« zusammengestellt: »Eine dieser Möglichkeiten wäre die der fetischistischen Lektüre, die sich am zerschnitten Text und der Zerstückelung der Zitate freut [...]. Eine andere Möglichkeit, wäre die paranoiden [sic!] Lektüre, die verzwickte Hypertexte so interpretiert, als seien sie nach geheimen Spielregeln hervorgebrachte Konstruktionen. Die diffuseste dieser Möglichkeiten aber wäre die hysterische Lektüre, die sich blind in den Hypertext hineinwirft, ihn zu Ende lesen will und sich deshalb im Netz des Hypertextes verfängt.« (Ebd.)
Schließlich aber setzen sich die jüngeren netzliterarischen Experimente, die die Fragen von Autorschaft und Leserschaft intensiv reflektieren, überhaupt nicht den Anspruch, einfach lesbar oder verstehbar zu sein. In den Codeworks und der netzliterarischen Konzeptkunst geht es explizit um die geistige Aktivierung des Lesers, um dessen Auseinandersetzung mit den ›hinter‹ den Oberflächen befindlichen Codes oder Konzepten. Auch die kollaborative Textproduktion verfolgt nicht das Ziel einer künstlerisch hochwertigen Erzählung, sondern meint zumeist das literarische Experimentieren mit gemeinschaftlichen Schreibformen.
5.3.4 Netzliteraturverarbeitung Die Kritiker von Netzliteratur äußern sich über Kanäle, die durchaus den traditionellen Entsprechungen im ›real life‹ nachempfunden sind.7 Texte werden in E-Zines wie »dichtung-digital« (vgl. Simanowski 1999 ff.) rezensiert und Webseiten wie das »Literatur-Café« (vgl. Tischer 1996 ff.) simulieren literarische Salons. Dabei arbeiten diese Projekte größtenteils auf ehrenamtlicher Basis ohne die Möglichkeit einer Finanzierung durch Fördergelder oder Werbeeinnahmen. Die beiden großen, hoch öffentlichkeitswirksam angelegten Netzliteraturwettbewerbe sind nach dem Scheitern der damit verbundenen Hoffnungen von den Initiatoren recht sang- und klanglos eingestellt worden. Dies galt für den aufwendigen Pegasus-Wettbewerb (1996-1998), der von der 7
Welche Internet-Dienste speziell im Rahmen des Handlungsbereichs Netzliteraturverarbeitung wirksam werden, wird ausführlich diskutiert in Hartling 2002: 66-74.
152 | DER DIGITALE AUTOR
Wochenzeitschrift »DIE ZEIT« und IBM veranstaltet wurde. Auch der vom Verlag »dtv« zusammen mit dem Internet-Provider »T-Online« organisierte, indirekte Nachfolger »Literatur.digital« (2001-2003) konnte die in ihn gesetzten hohen Erwartungen nicht erfüllen. Besonders auffallend war bei diesen beiden Wettbewerben, dass sich die kritische Diskussion über netzliterarische Texte vor allem auf deren technische Machart und weniger auf ihren literarischen Gehalt konzentrierte. So stellte Uwe Wirth bereits 1997 fest: »Das Hauptaugenmerk der Macher und Kritiker von Online-Texten richtet sich weniger auf deren stilistische Qualitäten, als vielmehr darauf, wie die ›Hypertextmaschine‹ im Kontext der lesergesteuerten Aktivitäten des Hin- und Herschaltens zwischen verschiedenen Textebenen und Links funktioniert.« (Wirth 1997: 320)
Kritiker der großen Netzliteraturwettbewerbe, die vor allem aus dem traditionellen Literatursystem stammen, fragten offensichtlich weniger inhaltlich und technisch gelungene Projekte nach, sondern suchten vor allem interessante, originelle und witzige Hypermedia/Multimedia-Installationen. Diese Tatsache wurde bereits in der Erklärung zur Preisvergabe des Wettbewerbes »Pegasus 1997« mehr als deutlich herausgestellt. Unter den eingesandten Arbeiten war angesichts der schlechten Qualität kein erster Preis vergeben worden: »Die Jurorinnen und Juroren haben anerkannt, daß – zumal in den in die Endauswahl genommenen Beiträgen – mehrfach einzelne Aspekte einer denkbaren InternetLiteratur in wegweisender Form vorgezeichnet erscheinen: sensibel gestaltete Sprache, packende Stories, glänzendes Design, witzige Einfälle und durchdachte Interaktivität. Da jedoch selten mehrere dieser Elemente an einem Beitrag sichtbar wurden, sah die Jury die intendierte Verbindung von literarisch gestalteter Aussage und technischen Möglichkeiten des Internet hier noch nicht in preiswürdiger Form verwirklicht.« (Charlier 1997)
Mit Jonas lässt sich dieser Missstand vor allem dadurch erklären, dass sich die Kriterien einer traditionellen Literaturkritik nicht ohne weiteres auf Netzliteratur übertragen lassen. Ohne spezielle Kriterien für das digitale Medium aber bleibe die Kritik relativ zufällig und beliebig (vgl. Jonas 2000). Auch beim letzten großen Netzliteraturwettbewerb »Literatur.digital 2003« belohnte die Jury mit ihren Prämierungen vor allem die Erfüllung traditioneller literarischer Merkmale. In ihrer Laudatio zur erstplatzierten Arbeit »NORD« (Esther Hunziker nach Felix Zbinden) wurde ein Netzliteraturbegriff vertreten, der sich stark an der traditionellen Literatur orientierte und die Ausblendung mediumgerechter Ästhetiken explizit forderte: »Die Geschichte ist gut geschrieben, die digitalen Effekte sind sparsam und sinnvoll eingesetzt. Hunziker teilt den Bildschirm in vier Fenster, in denen paralell [sic!] und nacheinander die Handlung abläuft. Die Leser können das Dokument einerseits navigieren wie einen Hypertext, andererseits werden sie zuweilen durch vorprogrammierte Abläufe geführt. Die Entdeckungsreise vollzieht sich auch auf der obersten Textebene. Die Vier-Fenster-Technik ermöglicht außerdem ein ästhetisch attraktives Spiel mit Wiederholung und serieller Darstellung. Hunziker beweist, dass sie ihr Handwerk bestens versteht.« (o. N. 2003b)
HANDLUNGSROLLENMODELL | 153
Auffällig war am Projekt »NORD«, dass es sich dabei um die Online-Umsetzung eines traditionellen Prosatextes handelte und diese Umsetzung in Stil und Ästhetik der (veralteten) Hypertext/Hyperfiction-Literatur aus den späten 1990er Jahren entsprach. Hier wurde also deutlich, dass die einsendenden Autoren sich den traditionellen Bewertungsmassstäben der Jury durchaus angepasst hatten. Dies musste allerdings im Vergleich zur zeitgleichen, tatsächlichen netzliterarischen Produktion eher als Rückschritt anmuten, denn hier wurden Themen, Formen und Techniken von Netzliteratur weitestgehend ignoriert. Konsequent sind gerade die »Literatur.digital«-Wettbewerbe vom Netzliteratur-Diskurs sehr kritisch bewertet worden (vgl. Hartling 2007b). Im ausdifferenzierten, akademischen Diskurs um Netzliteratur existieren aber bereits seit längerem entsprechende Kriterien zur zulässigen Bewertung von Netzliteratur, die zudem auch zentrale, allgemein geteilte Grundcharakteristika umfassen. Hier wären etwa die Arbeiten von Landow (vgl. Landow 2006) und Ryan (vgl. Ryan 2001) zu nennen, wobei Landow mit seinem Aufsatz »Is this hypertext any good? Evaluating quality in hypermedia« (vgl. Landow 2004) beinahe einen programmatischen Text vorlegte. Im deutschsprachigen Diskurs stechen die Monographien von Christiane Heibach (vgl. Heibach 2003) und Roberto Simanowski (vgl. Simanowski 2002b) heraus, die ebenfalls detailliert die Kriterien von Netzliteratur diskutieren und damit als Anknüpfungspunkt für netzliterarische Verarbeitungshandlungen dienen können. Die großen deutschsprachigen Netzliteraturwettbewerbe waren somit (auch) an den Dissonanzen zwischen traditionellem Literaturbetrieb und netzliterarischer Ästhetik sowie den damit verbundenen Fragen der Kritik gescheitert. Wie es scheint, haben die traditionellen Medien danach vorerst alle Pläne aufgegeben, das Phänomen Netzliteratur öffentlichkeitswirksam für sich zu nutzen. Damit wird der verarbeitende Handlungsbereich (wiederum) vor allem von der Netzliteratur›szene‹ dominiert; dies schlug sich nicht zuletzt 2005 in einem Netzliteraturwettbewerb nieder, der sowohl das Phänomen adäquat erschloss als auch mit äußerst attraktiven teilnehmenden Arbeiten aufwarten konnte. Der von Johannes Auer organisierte »1. Junggesellenpreis für Netzliteratur« griff bereits in seiner Anlage konzeptuell eine der interessantesten Themen der Netzliteratur auf. Der Wettbewerb funktionierte schon allein mit seiner Ankündigung als ›social hack‹ auf die Mailinglisten »Rohrpost« und »Nettime«, stellte damit selbst (eingeschränkt) Konzeptkunst dar. Die eingesandten Beiträge spiegelten die damals aktuelle, künstlerische Auseinandersetzung um Netzliteratur wider und umfassten sowohl Codeworks als auch avancierte Konzeptkunst-Projekte. Damit war der »Junggesellenpreis« inhaltlich und künstlerisch viel interessanter als die vorherigen großen Netzliteraturwettbewerbe. Schließlich zeigten auch die Juryentscheidungen und -begründungen, dass sehr wohl so etwas wie Netzliteraturkritik und ein gemeinsames Verständnis von qualitativ guter Netzliteratur unter den Kritikern existiert. Allerdings, so wurde ebenfalls deutlich, kann sich Netzliteraturkritik offenbar nur in enger Nähe zum Produktions-Diskurs herstellen. Johannes Auer ist seit 1996 selbst als Netzliterat aktiv und als solcher auf das Engste mit der netzliterarischen Szene verbunden.
154 | DER DIGITALE AUTOR
5.3.5 Zusammenfassung Wie deutlich geworden ist, haben sich die vier Handlungsrollen im Netz relativ zügig herausgebildet. Dabei sind die Grenzen zwischen den einzelnen Bereichen noch schwieriger auszumachen, als dies im traditionellen Literatursystem der Fall ist. Bestimmte Funktionen, die im Literatursystem zu erbringen sind, scheinen sich nahezu diffus über die Aktanten zu verteilen. Es steht zu fragen, ob es noch sinnvoll ist, einen Bereich der Vermittlung analytisch abzutrennen, wenn sich dessen Aufgaben mehr oder weniger komplett in die Produktion verlagert haben. Dazu tritt das Problem, dass die Handlungsrollen im momentan sehr dynamischen Medium Internet weiterhin noch starken Veränderungen unterworfen sind. Eine genauere Analyse der Aktanten im Netzliteratursystem steht also noch aus und kann m. E. auch erst in mittelfristiger Zukunft längerfristig gültige Ergebnisse liefern. Dabei wird sie sich einer differenzierten Betrachtungsweise, wie sie oben diskutiert wurde, nicht entziehen können. Sowohl die Differenzierung nach Subhandlungsrollen (Gebhard Rusch) als auch die Untersuchung von verschiedenen Handlungsebenen (Achim Barsch) muten Erfolg versprechend an. In den weiteren Ausführungen wird auf den Handlungsbereich der Produktion fokussiert, wobei mit der Analyse der heterogenen Faktoren des Netzdispositivs auch der Handlungsbereich detailliert diskutiert werden wird. Die anderen Rollen werden in der Analyse weitgehend ausgeblendet, was der Zuspitzung auf Autorphänomene geschuldet ist.
6 D I S P O S I T I V -K O N Z E P T 6.1 Einleitung: Notwendigkeit des Dispositiv-Konzeptes Um den Medienverbund Computer/Internet zu charakterisieren, in dem Online-Autoren tätig sind, ist es höchst unproduktiv, die bisher ausgetretenen Wege erneut zu beschreiten. Die vorliegenden Arbeiten konzentrieren sich zumeist jeweils nur auf einen der folgenden Aspekte: • die Auflistung technischer Innovationen (vgl. etwa Gromov 2006), • die Sozial- oder Politikgeschichte (vgl. etwa Kleinwächter 2004), • die ökonomischen Seiten des Netzes (vgl. etwa Zerdick et al. 2001) oder • die sozialpsychologischen Bedingungen und Folgen der Internetkommunikation (vgl. etwa Döring 2003). Diese ganz verschiedenen Ansätze beschreiben (sehr divergente) Teilaspekte des Mediums, die tatsächlich nur analytisch so zu trennen sind, in der Medienrealität aber unbedingt zusammengehören. Um das Medium Internet wirklich umfassend zu beschreiben, ist es notwendig, ein übergreifendes Modell zu formen, das imstande ist, diese sehr verschiedenen Aspekte zu verbinden. Im diesem Kapitel soll deshalb eine Übertragung des Dispositivmodells auf das Internet vorgeschlagen und entwickelt werden. Dieses Konzept ist ursprünglich für das Kino aus einer ganz ähnlichen Problemlage heraus entwickelt worden und wurde mittlerweile erfolgreich auf das Fernsehen sowie andere Medien angewendet. Sowohl die hohe Flexibilität des Konzeptes als auch dessen große Erklärungskraft scheinen für eine solche Übertragung zu sprechen. Medien strukturieren Wahrnehmung auf ganz grundsätzliche Weise. Dass sie dies tun und wie sie dies tun, beschreibt der Ansatz des Dispositivs. Im Dispositiv als Modell der Medienkulturanalyse vereinigen sich wandelnde Wahrnehmungsstrukturen mit technisch-apparativen, institutionellen, sozialpolitischen und inhaltlich-ästhetischen Aspekten. Außerdem rückt es diesen Zusammenhang in das Zentrum der Analyse (vgl. Hickethier 1997: 67-69). Damit eignet sich der Dispositiv-Ansatz als holistisches Modell für die Analyse von Medien, deren machtvolle Verflechtungen mit gesellschaftlichen Bezugssystemen sowie deren historiographische Verortungen: »Seinen größten Nutzen entwickelt der Dispositiv-Ansatz in der Mediengeschichtsschreibung. Mit seiner Hilfe kann man (1) das Verhältnis von Technik- und Medienentwicklung, (2) das Konkurrenzverhältnis zwischen den Medien sowie (3) die Veränderungen innerhalb eines Mediums differenzierter beschreiben, als das bislang möglich war.« (Hans 2001: 26)
156 | DER DIGITALE AUTOR
Auch Knut Hickethier hat in jüngerer Vergangenheit noch einmal die besondere Eignung des Dispositivs als Modell der Mediengeschichtsschreibung eindringlich herausgestellt. Seiner Ansicht nach ist das Konzept als diachrones Entwicklungsmodell sehr geeignet, um der in der Medienwissenschaft formulierten Forderung nach einem übergreifenden Konzept der Mediengeschichtsschreibung als Geschichte des Medienverbundes nahe zu kommen (vgl. insbesondere Faulstich 2002: 197). Bezogen auf ein einzelnes Medium scheint es sich auf jeden Fall als ein Konzept einer solchen übergreifenden Geschichtsschreibung zu eignen. Als synchrones Strukturmodell ist das Dispositiv offenbar geeignet, sehr unterschiedliche Analysen von Medien zusammenzuführen und aufeinander zu beziehen (vgl. Hickethier 2003: 186201). Allerdings sind Dispositive in ihrem »allgemeinsten Sinne« zunächst nur als »eine Anordnungsstruktur […] zwischen […] Apparat und dem wahrnehmenden Subjekt« (Lenk 1996: 6) definiert, die als Formationen nicht allein auf mediale Zusammenhänge beschränkt sind. »Medien wären dieser Definition nach nur ein Sonderfall von Dispositiven, nämlich solche, die eine Botschaft, ein Programm, eine wie auch immer kodierte Zeichenmenge transportieren.« (Ebd.) Im Folgenden wird ein Modell des Dispositivs als übergreifendes Konzept der Mediengeschichtsschreibung vorgeschlagen, das auf Überlegungen von Michel Foucault aufsetzt und diesbezüglich weiterführende theoretische Ansätze der Medienwissenschaft einbezieht (Kapitel 6.2). Dieser Rückbezug auf Foucault ist folgendermaßen begründet: Foucaults Intention bestand darin, mit dem Dispositiv gesellschaftliche Prozesse erklärbar zu machen. Das gelang ihm, indem er sein ursprüngliches analytisches Vokabular ausweitete und nicht-diskursive Elemente integrierte. Die Medienwissenschaft nahm sich des Konzepts an und verengte es in der Fokussierung auf mediale Phänomene. Durch einen Rückgriff auf Foucault soll es möglich gemacht werden, die als Dispositiv zu konstruierenden Untersuchungsgegenstände nun nicht ausschließlich als mediale Dispositive zu erfassen. Ebenso soll die dispositive Struktur der Phänomene in ihrer gesellschaftlichen Ausrichtung Beachtung finden, ohne dass die untersuchten Gegenstände streng genommen Medien darstellen (wie das für das Internet der Fall ist, siehe weiter unten, Kapitel 6.3). Damit ermöglicht das Dispositiv-Konzept ganz verschiedene Ausgangslagen, Sichtweisen und Perspektiven; es dient der adäquaten Beschreibung von Medienkultur. Ziel ist es, einen theoretischen Unterbau zu skizzieren, der die Ausgangsbasis für eine umfassendere Analyse des Dispositivs Internet darstellt. Das hier mit Rückgriff auf Foucault vorgeschlagene Dispositivmodell besteht aus zwei Teilen. Das diachrone Entwicklungsmodell der Kristallisation und Veränderung eines Dispositivs legt die Mechanismen frei, die kontinuierlich auf ein Dispositiv einwirken und dieses verändern (Kapitel 6.4). Das synchrone Strukturmodell liefert dagegen ein Analyseraster, um die machtvollen Beziehungen zwischen den heterogenen Elementen eines Dispositivs untersuchen zu können (Kapitel 6.5). Diese beiden Teilmodelle werden im Rahmen der vorliegenden Arbeit getrennt diskutiert und nicht analytisch zusammengeführt. Dies liegt im Fokus der Arbeit begründet, der ja primär auf die Beschreibung der Struktur Autor im Dispositiv Internet abhebt (synchrone Komponente). Ziel ist hier dezidiert nicht die geschichtliche Rekonstruktion von Internet-Autorschaft mit Hinblick auf die dispositivitäre Konzeption (diachrone Komponente). Der Grund dafür besteht in der Tatsache,
DISPOSITIV-KONZEPT | 157
dass Autorschaft im Netz noch ein recht junges Phänomen darstellt, das kaum eine mediengeschichtliche Untersuchung rechtfertigen würde. Daher wird das diachrone Entwicklungsmodell nur exemplarisch anhand des Dispositivs Internet erläutert (Kapitel 6.4) und für die Beziehung zwischen Autor/Internet im Kapitel 8 nicht wieder aufgegriffen. Das synchrone Strukturmodell wird in Kapitel 6.5 für das Internet knapp skizziert und für die Analyse von Internet-Autorschaft im Kapitel 7 dann sehr detailliert erläutert und nutzbar gemacht.
6.2 Ursprünge und Übernahmen des Dispositiv-Konzeptes 6.2.1 Ursprung des Dispositiv-Konzeptes bei Foucault Wie bereits ausgeführt, wird in der vorliegenden Untersuchung der Dispositiv-Begriff von Michel Foucault verwendet. Danach stellt ein Dispositiv zum ersten ein Ensemble aus sehr heterogenen Elementen dar, die sowohl diskursiver als auch nichtdiskursiver Natur sein können. Zweitens kann das Dispositiv als die netzförmigen Verbindungen der heterogenen Elemente identifiziert werden und drittens bildet es eine Formation, die auf einen gesellschaftlichen Notstand reagiert. Die ersten beiden Punkte beschreiben das Dispositiv dabei als synchrones Modell, das imstande ist, die Struktur eines Dispositivs zu analysieren (vgl. Abbildung 5). Der dritte Punkt verweist darauf, dass das Konzept gleichzeitig imstande ist, eine diachrone Entwicklung darzustellen. Damit aber wird es möglich, die historische Bildung, Entwicklung und Veränderung eines Dispositivs zu untersuchen. Abbildung 5: Allgemeines Strukturmodell des Dispositivs als Netz heterogener Elemente nach Michel Foucault
Quelle: Foucault 1978: 119, graphische Darstellung vom Autor
158 | DER DIGITALE AUTOR
In der diachronen Perspektive wird ein gesellschaftlicher ›Notstand‹ (›urgence‹) konstatiert, der nicht ausschließlich negativ konnotiert und nur ex post formulierbar ist. Notstand steht hier für ein noch nicht artikuliertes bzw. artikulierbares Bedürfnis in der Gesellschaft. Er lässt sich zeitlich lediglich im Idealfall auf ein Ereignis festlegen. Mithin bezeichnet der Notstand einen nicht klar differenzierbaren Prozess, an dessen Ende das Dispositiv steht, ohne dass dadurch der Prozesscharakter des Dispositivs an sich aufgehoben wird. In den meisten Fällen weist ein auslösendes Ereignis auf einen davor stattgefundenen Prozess hin. Dieser lässt sich an technologischen, gesellschaftlichen oder kulturellen Entwicklungen festmachen. Das Zusammenspiel bestimmter Entwicklungen zieht wiederum weitere nach sich, wobei sich die Entwicklung umso dynamischer gestaltet, je intensiver das soziale Feedback ausfällt. Diejenige Entwicklung setzt sich gegenüber anderen durch, die in der Gesellschaft ›überzeugt‹ oder stärker ist. In der Durchsetzbarkeit verbirgt sich die strategische Funktion des ›pränatalen‹ Dispositivs. Besonders hervorzuheben ist, dass Foucault diese strategische Funktion weitestgehend subjektfrei sieht. Damit wird ein strategisches Moment unterstellt, das auf Machterhalt, Machtstützung und Machtverstärkung abzielt. Eine erfolgreiche Strategie wird erst im Nachhinein sicht- und als Ziel formulierbar. Dieses sich im Zusammenspiel heterogener Faktoren vollziehende »Durchsetzen« bezeichnet Foucault als eine »Prävalenz strategischer Zielsetzung« (Foucault 1978: 123), als dessen siegreiche Lösung sich in der Folge das Dispositiv konstituiert und ein Mechanismus manifestiert. Es bleibt Dispositiv in dem Maße, »in dem es Ort eines doppelten Prozesses ist: Prozess einerseits einer funktionellen Überdeterminierung […] [und] Prozess einer ständigen strategischen Wiederauffüllung« (ebd.: 121). Letzteres deutet darauf hin, dass dem Dispositiv eine Fähigkeit zur Veränderung innewohnt. Keinesfalls statisch fassbar, entwickelt es nach dem erfolgreichen Durchsetzen eine Kontinuität und behält gleichzeitig eine dynamische Veränderbarkeit. Kontinuität und Dynamik werden vom Dispositiv erfolgreich zusammengebracht, indem Einflüsse, die durch das Dispositiv in gesellschaftliche Prozesse greifen, wechselseitig wieder auf das Dispositiv rückwirken, ohne es aufzulösen. Weiterentwicklungen geben Impulse für das Dispositiv bzw. für einzelne Faktoren des Dispositivs, die, durch die eingetretenen machtvollen Verbindungen zu anderen Faktoren, auf das Dispositiv im Gesamten wirken. Das Dispositiv unterliegt Veränderungen, integriert sie und passt sich ihnen an. Denkbar ist die Integration des Dispositivs in ein höherwertiges Dispositiv bei parallelen Entwicklungen oder auch bei destruktiven Veränderungen einzelner Faktoren. Nach erfolgter und eventuell erfolgreicher »strategischer Wiederauffüllung« kann es (mit elaborierten Mechanismen) wieder auf die Gesellschaft wirken. Diese Wirkungen werden nach Foucault anhand einer »Institutionendynamik« deutlich:
DISPOSITIV-KONZEPT | 159
Abbildung 6: Allgemeines Entwicklungsmodell der Formierung und Veränderung von Dispositiven
Quelle: Foucault 1978: 120-123, graphische Darstellung vom Autor
160 | DER DIGITALE AUTOR
In der synchronen Perspektive stellte für Foucault – wie erwähnt – jedes Dispositiv gleichzeitig ein Dispositiv der Macht dar. »Bei der Macht handelt es sich in Wirklichkeit […] um ein mehr oder weniger […] koordiniertes Bündel von Beziehungen« (ebd.: 126). Für Hubig ist das Dispositiv die »Manifestation von Macht überhaupt« (Hubig 2000: 38). Das Dispositiv wirke durch seine machtvollen Strukturen auf die Gesellschaft in einem Wechselverhältnis. So wie es Wirkungen auf gesellschaftliche Prozesse habe, wirke der ausgelöste gesellschaftliche Prozess selbst auf das Dispositiv zurück und verändere dieses. Foucault erkannte aber auch, dass Macht nicht nur repressiv als »neinsagende Gewalt« (Foucault 1978: 35) verstanden werden dürfe. Sie wirke im positiven Sinne produktiv, indem sie »die Körper durchdringt, Dinge produziert, Lust verursacht, Wissen hervorbringt, Diskurse produziert« (ebd.). Foucault analysierte Macht im Fokus der Gesellschaft, um eben gesellschaftliche Prozesse deutlich machen zu können. Er sah Macht als eine »Vielfältigkeit von Kräfteverhältnissen«, als ein Spiel, das jene verwandelte, sowie »die Stützen, die diese Kräfteverhältnisse aneinander finden« (Foucault 1999 [1976]: 113). Diesen Kräfteverhältnissen wohne ein strategisches Moment inne, denn sie seien nicht nur bestrebt, sich zu erhalten, »sondern vielmehr sich [zu] akzentuieren, sich [zu] stabilisieren« (Foucault 1978: 138). Für Foucault war Macht »der Name, den man einer komplexen strategischen Situation in einer Gesellschaft gibt« (Foucault 1999 [1976]: 114). Machtvolle dispositive Anordnungen, die selbst subjektfrei sind, brächten wiederum Subjekte hervor. Die Übernahme dieses Analyseansatzes in ein medienwissenschaftliches Dispositiv-Konzept bedeutet aber ein logisch konsequentes Weiterdenken des Ansatzes.
6.2.2 Übernahme des Konzeptes in die Medientheorie Die Entwicklung des Dispositiv-Begriffes vor seiner Übernahme in den medientheoretischen Diskurs soll an dieser Stelle nur skizziert werden, was vor allem einen Fingerzeig auf die Wurzeln des Konzeptes darstellen und ein besseres Verständnis ermöglichen soll. Ausführlichere und detaillierte Erläuterungen des Modells und seiner Genese existieren bereits in hinreichender Zahl, sodass auf diese für weitergehende Recherchen verwiesen sei (vgl. Winkler 1990a; Paech 1991; Hick 1992; Hickethier 1995). Ursprünglich war der Dispositiv-Begriff von Michel Foucault (Foucault 1978; Foucault 1999 [1976]) für völlig andere gesellschaftliche Zusammenhänge entwickelt worden, nämlich Sexualität, Wahnsinn und Wissen in Opposition zur Macht. Von der französischen Kinotheorie ist das Konzept auf mediale Zusammenhänge angewandt worden. Zunächst wurde es in Form der so genannten ›Apparatustheorien‹1 für das Kino nutzbar gemacht, später erfolgte die Übertragung auf andere Medien (vgl. Hickethier 1996: 18-19). Diese Übertragung geschah zum einen aus der Einsicht, dass das Verhältnis zwischen dem Apparat Kino, dessen Anordnung und dem Zuschauer konstitutiv für die Kinowahrnehmung ist. Zum anderen war deutlich geworden, dass eben dieses Verhältnis mit den herkömmlichen Darstellungen methodisch unbewältigt blieb. Die Apparatustheorien stellten diese Beziehung un1
›Apparatustheorien‹: Nach dem englischen Begriff »apparatus« für ›Dispositiv‹, vgl. Hickethier 1996: 19.
DISPOSITIV-KONZEPT | 161
ter dem Begriff Dispositiv in das Zentrum ihres kinotheoretischen Interesses. Den Untersuchungsgegenstand bildete nicht mehr der einzelne Film, sondern das Kino als Gesamtensemble. Psychoanalytische Ansätze erlaubten es, das Subjekt selbst in die theoretische Diskussion einzubeziehen. Mithin stand die Faszination des Wahrnehmungsdispositivs Kino im analytischen Zentrum und die Frage, woher diese Faszination rührt (vgl. Hick 1992: 189-190). Dieser neue Ansatz verband sich mit den Namen Jean-Louis Baudry und Jean-Louis Comolli, deren Aufsätze seit Mitte der 1970er Jahre eine breite filmtheoretische Diskussion vor allem in den angelsächsischen Ländern ausgelöst haben (vgl. Baudry 1986 [1970]; Comolli 1986 [1971]; Baudry 1986 [1975])2. In Deutschland wurden die Apparatustheorien erst mit einiger Verzögerung in den medientheoretischen Diskurs aufgenommen. Im Grunde genommen hat Knut Hickethier die Arbeiten Baudrys erst Ende der 1980er Jahre entdeckt und den Begriff Dispositiv für die Medienwissenschaft nutzbar gemacht. Ulrike Hick hat sich 1992 sehr ausführlich und kritisch mit Baudrys Artikel »The Apparatus« von 1975 auseinandergesetzt (vgl. Hick 1992). Sie hebt Baudrys zentrale These heraus, »[i]t is the apparatus that creates the illusion, and not the degree of fidelity with the Real« (Baudry 1986 [1975]: 305), und schätzt seine Bedeutung für den medientheoretischen Diskurs als besonders hoch ein: »Daß Baudry auf den strukturellen Zusammenhang von technischem Apparat und wahrnehmendem Subjekt als einer Anordnung aufmerksam gemacht hat, [ist für] die Untersuchung [der] praekinematographischen Evolutionsprozesse von wesentlicher Bedeutung. Das Kino kann so als Medium gekennzeichnet werden, dessen Apparatur und Anordnung sich ein fortgeschrittener Stand der Technik einbeschrieben hat, den sich die menschliche Wahrnehmung anverwandeln musste.« (Hick 1992: 192)
Dieser Bewertung ist zuzustimmen, kann sie doch die überragende Wichtigkeit von Baudrys Aufsatz für die spätere kinotheoretische Diskussion verdeutlichen. Im Gegensatz zu den meisten anderen Arbeiten, die Baudrys Positionen relativ unreflektiert feiern, diskutiert Hick auch einige zentrale Fehler des französischen Theoretikers. So hebt sie beispielsweise dessen kulturpessimistische Sicht hervor, die beim Rezipienten ein dominantes Unterbewusstsein, damit eine Unfähigkeit zu bewusster Distanznahme und Selbstreflexion unterstellt. Ebenso beklagt sie die Konzentration auf Erzählmuster des klassischen, identifikatorischen Hollywoodkinos sowie die absolute Dominanz des Visuellen unter Vernachlässigung des Tons im Film (vgl. ebd.).
6.3 Dispositiv als medienwissenschaftliches Modell Aufbauend auf den Apparatustheorien ist der Dispositiv-Begriff im deutschen Diskurs zunächst nur für das Kino nutzbar gemacht worden (vgl. Paech 1989; Hick 1992; Zielinski 1994; Paech/Paech 2000), um im Anschluss daran auch auf das Fernsehen angewandt zu werden (vgl. Hickethier 1991a; Hickethier 2
Deutsche Übersetzungen: Baudry 1993 [1970]; Baudry 1994 [1975]; Comolli 2003 [1980].
162 | DER DIGITALE AUTOR
1991b; Hickethier 1995; Steinmaurer 2000). Dabei wurde das Dispositiv Fernsehen durchaus in Abgrenzung zum Kino entwickelt, eine sehr pragmatische Herangehensweise, die an dieser Stelle nicht im Detail nachvollzogen werden soll. Zu den zentralen Unterschieden beider Dispositive hat insbesondere Hickethier publiziert (vgl. etwa Hickethier 1995). Bei dem Vergleich zwischen beiden Dispositiven spielt das Modell seine volle Kraft aus, kann es doch die Unterschiede zwischen Kinofilm und Fernsehfilm (Angebot, Rezeptionssituation, ästhetische Wirkung, etc.) sehr plastisch erklären. Im Folgenden soll der Begriff Dispositiv für die Medienwissenschaft als allgemeines Konzept herausgearbeitet werden. Dabei wird die Differenz zwischen den beiden Dispositiven Kino und Fernsehen implizit mitgeführt. Beim Fernsehen wurde das Konzept vor allem im Rahmen der Fernsehgeschichtsschreibung verwendet (vgl. Elsner et al. 1993; Hickethier 1994; Hickethier 1998a; Hickethier 1998b) und bei der Analyse jüngerer Veränderungen in der Fernsehnutzung. Für zweiteres steht exemplarisch etwa das Phänomen des ›Switchings‹ bzw. ›Zappings‹, welches aus der Entwicklung der Fernbedienung sowie einem gleichzeitig stark zunehmenden Programmangebot resultierte (vgl. Winkler 1990b; Winkler 1991). Aus diesen Analysen wurde eine Eignung des Konzeptes im allgemeinen Rahmen der Mediengeschichtsschreibung abgeleitet (vgl. Hickethier 1992; Hickethier 2003: 186201). Schließlich wurde das Dispositiv-Konzept auf andere, auch nicht-audiovisuelle Medien angewandt, etwa »Bildapparate und Repräsentationen vor dem Kino« (Hick 1999), Radio (vgl. Lenk 1997) und Diskothek (vgl. Hartling/Wilke 2003 [2005]). Es erscheint nur konsequent, dass in jüngerer Vergangenheit auch die digitalen Dispositive entdeckt und aufgeschlossen werden, womit Computer (vgl. vor allem Winkler 1997a; Winkler 1997b) und Netzmedium (Hartling 2002: 39-54; Hickethier 2003: 186-201; Hartling/Wil ke 2003 [2005]: 20-32) in das Zentrum der Aufmerksamkeit geraten. Wie insbesondere die medialen Inhalte in den Neuen Medien untersucht werden können, indem man deren dispositivitäre Strukturen analysiert, hat Karin Wehn anhand von Computerspielen und Animationen zeigen können (vgl. etwa Wehn 2003 [2005]; Wehn 2004). Im deutschen Diskurs ist das Konzept des Dispositivs in gewisser Weise noch als ein junges anzusehen, das sich aber gerade in den vergangenen Jahren einer wachsenden Zustimmung und Beachtung erfreut.3 Trotzdem kann der Ansatz bereits als etabliert im disziplinären Theoriediskurs angesehen werden. So basieren zwei der großen Fernsehgeschichten zumindest teilweise auf dem Dispositiv-Konzept (vgl. Kreuzer/Thomson 1993/94; Hickethier 1998a) und machen es produktiv nutzbar. Allgemeine Einführungen in die Film- und Fernsehtheorie bzw. -analyse führen es als eines der StandardKonzepte auf (vgl. Hickethier 1996; Schumacher 2000). Mittlerweile hat das Dispositiv auch Einzug in allgemein anerkannte und von renommierten Verlagen veröffentlichte Lehrbücher der Medienwissenschaft gehalten (vgl. Hickethier 2003: 186-201: »Mediendispositiv«; Weber 2003: 277-293: »Poststrukturalistische Medientheorien«).
3
Vgl. vor allem die Diskussionen des Konzeptes im Umfeld des Lehrstuhls von Knut Hickethier in Hamburg, publiziert in diversen Ausgaben der Zeitschrift »tiefenschärfe«, vgl. insbesondere Hans 2001; Hickethier 2002; Leistert 2002; Neumann 2002a.
DISPOSITIV-KONZEPT | 163
Damit ist das Dispositiv als Ansatz gleichsam ›kanonisiert‹, wenn auch nicht unumstritten. Skeptisch bis ablehnend stehen z. B. Anhänger der Systemtheorie dem Modell gegenüber, weil diese angeblich viel komplexere und aussagekräftigere Lösungsmodelle bereitstelle. Bei solchen Kritiken wird m. E. aber dem Konzept ein Mangel attestiert, den dieses gar nicht zu beheben trachtet. Der Dispositiv-Ansatz wird explizit nicht als ›Programm‹ oder ›Methode‹ verstanden, sondern er kann und soll allein »die mediale Struktur […] ordnen und einen Rahmen für Fragestellungen und Untersuchungsansätze […] entwickeln« (Hickethier 2003: 186). Zudem kann das DispositivKonzept (noch) nicht als ein ausgearbeitetes theoretisches Konstrukt angesehen werden. Allgemeine Übereinstimmung scheint allenfalls in den grundlegenden Zügen des Modells zu bestehen, keinesfalls aber sollte eine allgemein akzeptierte und verbindliche Definition angenommen werden. Daraus resultiert eine gewisse Vielstimmigkeit im medientheoretischen Diskurs. (1) Knut Hickethier hebt vor allem auf die Leistung des Begriffes ab, sehr heterogene Faktoren zusammenführen zu können (vgl. Hickethier 1995: 70). (2) Für Joachim Paech erschöpft sich dagegen die Reichweite des Begriffes insbesondere in der Beziehung zwischen Apparat und Rezipient (vgl. Paech 1989: 70). Er stellt damit den Aspekt der Wahrnehmung heraus. (3) Weiterführend konstatiert Paech zudem knapp, dass »Dispositive des Sehens« gleichzeitig immer auch »Dispositive der Macht« (ebd.) bilden. Diesen Gesichtspunkt entwickelt insbesondere Knut Hickethier weiter; ihm zufolge bestimmt das Dispositiv nicht nur die gesellschaftliche Wahrnehmung (vgl. Hickethier 1993c: 25), sondern auch Kommunikationsprozesse (Hickethier 1993a: 172). (4) Eine vierte grundlegende Position, wie sie z. B. von Knut Hickethier vertreten wird, zielt darauf ab, in der Medienwissenschaft kein statisches Dispositiv-Konstrukt anzunehmen. Stattdessen wird von einem offenen und dynamischen Begriff ausgegangen, der seinen Sinn je nach historischer Situation neu zu füllen imstande ist (vgl. Hickethier 1995: 64). Es wird also ersichtlich, dass das Konzept Dispositiv mindestens vier zentrale Komponenten beinhaltet, die seit Anfang der 1990er Jahre in der medienwissenschaftlichen Diskussion verfolgt werden. Diese sollen im Folgenden näher diskutiert werden.
6.3.1 Vereinigung heterogener Faktoren Ebenso wie Michel Foucault hebt Knut Hickethier vor allem auf die Leistung des Konzeptes ab, sehr heterogene Faktoren zusammenführen zu können und dabei den »Produktionsprozess in seiner Gesamtheit« auszublenden. Bezugnehmend auf das Dispositiv Fernsehen führt er aus: »Die dispositivbezogene Betrachtung dieser gesellschaftlichen Rahmungen sucht nun gerade nach den Verflechtungen und Vernetzungen auf den verschiedenen materiellen Ebenen, sieht Gesetze und gebaute Architektur, Senderlogos und Programmrichtlinien, administrative Strukturen der Sender und Genrekategorien, Rezeptionssituationen und Technik, Zuschauererwartungen und medienindustrielles Kalkül zusammen.« (Ebd.: 70)
164 | DER DIGITALE AUTOR
Der Dispositiv-Ansatz ist damit in der Lage, traditionell getrennt betrachtete Aspekte sowie divergente Ansätze und Modelle zur Analyse von (audiovisuellen) Medien in ein umfassendes Modell zu integrieren. Dies beinhaltet – erstens – die Geschichte der Medien als Abfolge technischer Innovationen. Zweitens umfasst es die Medien als Institutionen, in denen sich soziale und politische Auseinandersetzungen widerspiegeln. Als dritter Aspekt kann der Marktcharakter der Medien angesehen werden, die selbst den Gesetzen und Bedingungen des Wirtschaftsystems unterliegen. Schließlich wird – viertens – die Auseinandersetzung mit den Medien als psychologischer oder psychoanalytisch beschreibbarer Wahrnehmungsvorgang gefasst (vgl. Hickethier 1993c: 24). Damit steht das Konzept aber auch für eine Abwendung von etablierten Herangehensweisen, für ein »Zusammendenken von Elementen, die die gängigen wissenschaftlichen Taxinomien kreuzen, überspringen, verbinden. Das Dispositiv ist der Versuch, eine Makroebene zu beschreiben und dabei gleichzeitig die Verbindung zur Mikroebene herzustellen.« (Hans 2001: 25) Mit Hilfe des Dispositiv-Ansatzes können Medien in ihren institutionellen, technischen und programmlichen Aspekten analysiert und diese im Zusammenhang mit Wahrnehmungsstrukturen beschrieben werden. Der Fokus liegt dabei nicht nur auf den Inhalten, die medial vermittelt werden, sondern auch auf der Form der Vermittlung und auf der Medienästhetik. Schließlich rückt auch die Beziehung zwischen »medialem« Apparat und »mentaler« Basis der Medienwahrnehmung in das Zentrum der Analyse (vgl. Hickethier 1997: 67-68).
6.3.2 Steuerung der Wahrnehmung Joachim Paech fokussiert dagegen die Reichweite des Begriffes vor allem auf die Beziehung zwischen Apparat und Rezipient. Er bezeichnet mit dem Begriff Dispositiv »eine derartige An – Ordnung des Sehens [...], in der Sehender und Sehraum ein System bilden, das beide in einem Konstrukt zusammenfaßt: Während sich das Subjekt als Konstrukteur im Mittelpunkt ›seiner‹ sichtbaren Welt wähnt, ist es doch zugleich im Fluchtpunkt eines Sehraums fixiert, dessen Konstrukt dem Subjekt einen Ort in der Welt des Sehens zuweist.« (Paech 1989: 70)
Damit wird für ihn deutlich: »Was wir sehen ist bestimmt durch die Art und Weise, wie wir es sehen; das Subjekt des Sehens ist immer zugleich das Objekt des Systems, in dem es gesehen wird.« (Ebd.: 69) Dass »Dispositive des Sehens« gleichzeitig immer auch »Dispositive der Macht« (ebd.: 70) sind, wie Paech nur kurz andeutet, wird von Thomas Steinmaurer näher ausgeführt: »Der Begriff des Dispositivs verweist dabei auf die in einem Medium eingeschriebenen Sedimente gesellschaftlicher (Macht)Verhältnisse, die sich auf Aspekte der Produktion, der Rezeption, der Technik und der Ästhetik beziehen [...]. Wobei in der Analyse insbesondere die Vernetzung und Verbindung dieser Elemente im Zentrum des Erkenntnisinteresses stehen.« (Steinmaurer 2000: 281)
DISPOSITIV-KONZEPT | 165
Die Beziehung zwischen Apparat und Subjekt umfasst dabei drei Aspekte: (1) Zur Wiedergabe gespeicherter oder übertragener Medienangebote bedarf es einer ganz bestimmten Anordnung des Apparates. Beim Fernsehdispositiv ist dies der Fernsehbildschirm samt seiner Wiedergabetechnologie oder zunehmend auch Videobeamer für den privaten Einsatz. Die Verbindung zwischen Zuschauer und Gerät wird dabei zumeist durch eine Fernbedienung hergestellt, die seit ihrer Erfindung ganz neue Nutzungsgewohnheiten hervorgebracht hat (›switchen‹ und ›zappen‹). Dazu kommt die Empfangstechnologie, also entweder ein Kabelanschluss oder Receiver für Satellitenfernsehen oder »Digital Video Broadcasting« (z. B. DVB-T). Für das Dispositiv Kino müssen dagegen zumeist eigene komplexe architekturale Einrichtungen gebaut werden, da es hohe Anforderungen sowohl an die visuelle (Leinwand) als auch an die auditive Wiedergabe (z. B Surround-Sound) stellt. Dazu tritt eine aufwendige Projektionstechnik. Gleichzeitig soll die Kinorezeption durch eine entsprechende Ausstattung der Kinosäle und durch die gastronomische Versorgung zu einem ›Erlebnis‹ werden. (2) Die Medienangebote sind jeweils auf einen speziellen Apparat bezogen und für diesen produziert. Bei Kinofilmen wird etwa der Soundkanal in ganz besonderem Maße für das Erreichen einer ästhetischen Wirkung eingesetzt. Dies kann zum einen aufwendigen Raumsound bedeuten, zum anderen aber auch totale Stille. In den meisten Genres des ›Nebenbeimediums‹ Fernsehen dient dieser Kanal dagegen momentan vor allem der Informationsübermittlung, teilweise treibt allein er die Handlung voran. Ein Beispiel dafür sind etwa ›Soap Operas‹, die stark von Dialogen geprägt sind (›sprechende Köpfe‹). Wie stark die Beziehung zwischen Medienangebot und Apparat ist, kann nachvollzogen werden, wenn Angebote aus dem einen Dispositiv in das andere ›wandern‹. Einen Großteil ihrer Einnahmen gewinnt die Filmindustrie aus Mehrfachverwertungen in Form von DVD-Video oder dem Verkauf von Fernsehrechten. Der Apparat des Fernsehdispositivs hat sich dieser Entwicklung angepasst und ist in der Lage, Eigenschaften des Kinodispositivs nachzubilden. Fernsehsender übertragen oft den Sound von Kinofilmen im »Dolby Digital«-Standard, DVD-Video bietet diese Tonqualität ebenfalls. Konsequenterweise stellt die Fähigkeit, diese Soundqualität auch abspielen zu können, ein wichtiges Entscheidungskriterium beim Kauf von Fernsehgeräten dar und wird nachdrücklich beworben. Dass inzwischen auch reine Fernsehserien, also ureigene Fernsehformate, in »Dolby Digital«-Qualität produziert werden, ist ein weiterer Beleg dafür, wie stark die gesellschaftliche strukturierende Wirkung von Dispositiven (hier: das Kinodispositiv) ist.4 Dispositive beeinflussen sich darüber hinaus auch gegenseitig. (3) Der Betrachter selbst muss sich in einer bestimmten Art und Weise zum Apparat positionieren, um das Medienangebot überhaupt wahrnehmen zu können. Dies bedeutet sowohl für das Fernseh- als auch für das Kinodispositiv, dass der Rezipient seinen Blick auf Bildschirm oder Leinwand richten muss und damit in gewisser Weise räumlich ›gefesselt‹ ist. Der auditive Kanal verlangt eine gewisse Nähe, um dem Medienangebot wenigstens zuhören zu können. Diese Zwänge der Anordnung sind allerdings bei beiden Dispositiven unterschiedlich stark ausgeprägt. Einerseits strukturiert der 4
Weitere Beispiele sind die Entwicklung des 16:9-Bildschirmformates, die Nachbildung einer »Hollywood-Ästhetik« in bestimmten Serienformaten usw.
166 | DER DIGITALE AUTOR
Fernsehapparat zwar zumeist die Einrichtung der Wohnung vor; so sind die Hauptsitzgruppen oft so ausgerichtet, dass von dort aus der Fernsehkonsum möglich ist. Allerdings haben sich die Produzenten andererseits darauf eingestellt, dass der Fernsehkonsum auch neben anderen Tätigkeiten stattfindet, wobei die rezeptive Zuwendung des Blickes oftmals temporär unterbrochen ist. Dies stellt den eigentlichen Grund dafür dar, dass fernsehspezifische Formate wie ›Soap operas‹ stark auf den auditiven Kanal abheben. Die apparative Anordnung im Kinodispositiv gestattet eine solche Nebenbeinutzung aber explizit nicht. Die opulente Gestaltung des visuellen Kanals, der einen Großteil der Filminformation transportiert, und damit einhergehend die vollständige Abdunklung des Kinosaals zwingen den Blick unweigerlich auf die Leinwand. Die Zuschauer sind zudem auf ihre Sitze beschränkt, die nicht verrückbar sind, ja die Rezipienten in ihrer Rezeption tatsächlich körperlich ›fesseln‹. Auch die Sozialität des Kinoerlebnisses sorgt für eine Beschränkung, denn die Anwesenheit zahlreicher anderer Zuschauer, die nicht gestört werden wollen, ächtet Erledigungen während der Filmprojektion geradezu als inakzeptable Unhöflichkeit. Das Medienangebot muss vom Rezipienten entschlüsselt werden, wobei er die dafür notwendige Rezeptionsweisen und die Kenntnis der medialen Codes in seiner medialen Sozialisation bereits erworben hat. Es ist Hickethier zuzustimmen, wenn er bezweifelt, dass diese Entschlüsselung vor allem eine verdrängte Technik des Unbewussten darstelle.5 Dieser Prozess ist – wie gezeigt – nicht einseitig zu sehen. Genauso wie der Rezipient durch den Apparat und all dessen Aspekte (Technik, Programm, Soziabilität) verändert wird, beeinflusst der Rezipient mit seinen persönlichen Ansprüchen den Apparat. Einerseits wirkt die Apparatstruktur auf die mentale Struktur des Zuschauers ein, ohne dass es notwendigerweise zu einer Übereinstimmung beider Strukturen kommen muss. Andererseits beeinflussen seine Programmpräferenzen sowie seine situativen Bedingungen die Programmproduktion des Apparates (vgl. Hickethier 1993c: 25). Solche zirkulären Prozesse sind, wie bereits diskutiert, grundsätzlich konstitutiv für dispositive Strukturen überhaupt.
6.3.3 Machtverhältnis und Gesellschaftlichkeit Sowohl beim Kinofilm als auch beim Fernsehen werden die Einflussmöglichkeiten des Einzelnen zugunsten der Macht einer ganzen Produktions- und Distributionsmaschinerie zurückgedrängt. Dieser wesentliche Aspekt von audiovisuellen Dispositiven lässt sich, wiederum mit Bezug auf Foucaults Überlegungen, aber auch auf andere mediale Dispositive übertragen. Die Medien werden somit als ein »Geflecht von Relationen, Bedingungen, Ansprüchen und Normen« gesehen, das nur im gesellschaftlichen Maßstab verändert werden kann (vgl. ebd.). Damit ist im Dispositiv ein Machtverhältnis verankert (vgl. Foucault 1978; Paech 1989), das »die Grundkonstellationen für die gesellschaftliche Wahrnehmung« (Hickethier 1991a: 429), sowie den »(in seiner gesellschaftlichen Organisationsform auch anders denkbaren) Kommunikationsproze[ss]« (Hickethier 1993a: 172) an sich bestimmt. 5
Diese Position wurde vom französischen Kinotheoretiker Baudry vertreten, auf den an dieser Stelle nicht weiter eingegangen wird, vgl. Hickethier 1991a: 430431.
DISPOSITIV-KONZEPT | 167
Mit dieser Betrachtungsweise wird deutlich, dass sich die Macht der Gesellschaft direkt in Organisation und Struktur, Angebot und Ästhetik der Medien widerspiegelt. Sie hat einen signifikanten, prägenden Einfluss auf das Wahrnehmungsgefüge des Rezipienten, denn auf langfristige Sicht werden seine »Nutzungsweisen und Wahrnehmungsformen habitualisiert und internalisiert« (ebd.). Kultur und Technik, Politik und Ökonomie fließen in dieser dispositivitären Sichtweise zu einer Einheit zusammen und bilden den Rahmen, in dem sich das mediale Geschehen vollzieht. Wiederum ist dieser Prozess nicht einseitig zu sehen. Ebenso, wie sich die Dispositive den wandelnden gesellschaftlichen Konstellationen und Interessen anpassen, beeinflussen und verändern sie diese – in ihrer Rolle als gesellschaftlich wirksame Konstruktionen (vgl. ebd.: 172-173). Die massenmedialen Apparate sind Hickethiers Ansicht nach komplexer und differenzierter als die traditionellen Medien, da sie sowohl die Produktion als auch die Distribution des Produzierten umfassen. Dazu tritt ein ganz besonderes Verständnis von Öffentlichkeit, vielmehr sogar ein publizistischer Anspruch: »Im Apparat der elektronischen Massenmedien ist deshalb immer auch bereits diese umfassende Gesellschaftlichkeit eingeschrieben, die dann den Zugriff politischer Ordnungsinstanzen auf deren Regelung (und Domestizierung) begründete.« (Hickethier 1991a: 429)
6.3.4 Offener, dynamischer Begriff Das Modell des Dispositivs kann keinesfalls als statisch angesehen werden. Durch langfristige kollektive Umschichtungen verändern sich seine Faktoren, was historisch sowohl einzugrenzen als auch beschreib- und analysierbar ist. Diese Veränderungen sind für Hickethier »Teil des Dispositivs, weil durch sie die Einpassung der Zuschauer in diese Anordnung ständig optimiert wird und sich darin die Verweigerungs- und Modifizierungsaktivitäten der Zuschauer ebenfalls ständig neu formulieren.« (Hickethier 1993a: 176-177) Hickethier plädiert für einen offenen und dynamischen Dispositiv-Begriff, der erst durch geschichtliche Beschreibung zu konkretisieren sei. Damit wird ein Bezug zu Foucaults Konzept von Kontinuität und Dynamik bzw. zur strategischen Wiederauffüllung hergestellt. Dispositive stellen in dieser Sichtweise gleichzeitig »idealtypische Modelle« und »historische Momentaufnahmen« dar, »die der fortlaufenden Re-Adjustierung bedürfen«, wodurch »die Modellvorstellung […] überleben [kann, F. H.]« (Hans 2001: 24). Nur in der Auseinandersetzung mit der Historie kann das Dispositiv an Substanz gewinnen, und anhand dieses Materials ist es ständig zu erproben und weiterzuentwickeln (vgl. Hickethier 1997: 68). Insbesondere das Fernsehen wird als sehr dynamische Anordnung verstanden, »die sich wandelnden gesellschaftlichen Interessenkonstellationen und Machtinteressen anpasst« und »als eine gesellschaftlich wirksame Konstruktion diese Konstellationen selbst wiederum mit beeinflusst und verändert« (Hickethier 1993a: 172-173).
168 | DER DIGITALE AUTOR
6.4 Internet als mediales Dispositiv: diachrones Entwicklungsmodell Nach der theoretischen Diskussion des allgemeinen Modells soll die Übertragung auf das Internet dargestellt werden. Dies geschieht mit der bereits diskutierten Einschränkung, dass der Mediencharakter des Internets noch nicht vollständig geklärt ist, diese Debatte aber für die vorliegende Studie ausgeblendet werden kann. Im Folgenden wird das Internet in seiner Entstehung, seiner Durchsetzung sowie seiner Veränderung entsprechend dem oben vorgeschlagenen Modell der Dispositiv-Formierung und strategischen Wiederauffüllung skizziert werden. Dabei stehen die jeweiligen Faktoren und gesellschaftlichen ›Notstandssituationen‹ im Vordergrund, die zur Herausbildung und zur grundlegenden Neustrukturierung des Internets führten. Welche strategischen Zielsetzungen formten und überformten das Dispositiv? Wie interagierten diese verschiedenen Zielsetzungen und mithin auch heterogenen Elemente des Dispositivs? Wie sind vor und nach der Durchsetzung die zirkulären Austauschprozesse zwischen Dispositiv und Gesellschaft zu beschreiben? Welche Veränderungskraft wohnt dem Dispositiv inne? Diese Skizze soll das aufgeworfene Modell in seiner Anwendbarkeit auf eine jüngere und in der Gesellschaft vermutlich eine der meistdiskutierten medialen Formationen verdeutlichen, aber auch testen. Bisher stellten Darstellungen zur ›Mediengeschichte‹ des Netzes – wie bereits erwähnt – sehr eingleisige Verkürzungen auf Teilaspekte dar, nämlich die Auflistung technischer Innovationen, Sozial- oder Politikgeschichte, ökonomische Seiten des Internets, sozialpsychologischen Bedingungen und Folgen der computervermittelten Kommunikation. Es wird vorgeschlagen, den übergreifenden DispositivAnsatz, der all diese Teilaspekte zusammenführt, auch für die Diskussion um das Internet nutzbar zu machen.
6.4.1 Formierung des Dispositivs Internet Als »Kristallisations-Zeitpunkt« (Hans 2001: 23) des Dispositivs Internet lässt sich das Jahr 1973 ausmachen, in dem die Spezifikation des TCP-Protokolls festgelegt wurde.6 Dieses Protokoll, fünf Jahre später in das doppelte TCP/IP-Protokoll überführt, regelt noch heute den Datenaustausch zwischen technisch unterschiedlichen Computernetzwerken. Die damals noch als ARPANET bezeichnete Struktur erlebte damit ihre eigentliche Geburtstunde als globales »Netz der Netze«; sein Verfasser Vint Cerf gilt gemeinhin als »Vater des Internets«. In diesem Jahr wurden auch die ersten europäischen Institutionen an das bis dahin allein amerikanische Netz angeschlossen: das University College of London, Großbritannien sowie das Royal Radar Establishment, Norwegen. Zwei Jahre zuvor wurde die Software für den Dienst 6
Obwohl eine umfassende Geschichte des Internets noch aussteht, liegen bereits eine ganze Reihe von historischen Untersuchungen zu Teilaspekten vor, weswegen an dieser Stelle nur einige Schlaglichter auf die Entwicklung des Dispositivs geworfen werden sollen. Zur Geschichte des Internets und des WWWs vgl. vor allem Hafner et al. 1997; Berners-Lee 1999; Musch 2000; Gromov 2006; zu chronologischen Übersichten vgl. Marsh 1997; Cailliau/Connolly 2000; Kaul 2003; Weller 2004-2007; Zakon 2006; The History Of Computing Foundation 2007. Diese Literatur bildet auch die Grundlage dieses Kapitels.
DISPOSITIV-KONZEPT | 169
»E-Mail« veröffentlicht, eine Anwendung, die ursprünglich nur ›nebenbei‹ entwickelt wurde und in ihrer Bedeutung schnell zu einer so genannten »Killeranwendung« im Internet wuchs (vgl. Siegert 2008). Um 1973 herum flossen so eine Vielzahl von Bedingungen und Prozessen zur ersten Formierung des Dispositivs zusammen, das schließlich zwei Jahrzehnte später einen regelrechten Boom auslöste, dann in Gestalt des neuen Dienstes World Wide Web. Welcher gesellschaftliche ›Notstand‹ führte zur Bildung des Dispositivs Internet? Welche Faktoren, welche strategischen Zielsetzungen lassen sich dabei ausmachen? Auf gesellschaftlicher Ebene lässt sich das Dispositiv Internet als direktes Resultat des Jahrtausende alten Bedürfnisses modellieren, Kommunikation über große territoriale Entfernungen zu ermöglichen. Für die jeweils herrschenden Eliten stand dabei die Verwaltung von räumlich weit gespannten Reichen im Vordergrund (etwa mittels Trommelketten oder Kurieren), für die Bevölkerung stellte beispielsweise der Nachrichtenaustausch mit entfernt lebenden Verwandten und Freunden (private Post) ein wichtiges Motiv dar. Die Entwicklung neuer Kommunikationsinstrumente und der Ausbau von Infrastrukturen und Kommunikationsnetzen können in diesem Zusammenhang als beständige und zentrale gesellschaftliche Notwendigkeiten angesehen werden (z. B. Telefon- und Telegraphennetz). In dieser Tradition steht das Internet, zumal seine Infrastruktur auch heute noch teilweise auf dem Telefonnetz aufsetzt, vor allem im privaten Bereich. Als einer der Meilensteine in der Vorgeschichte des Internets wird gemeinhin die erste ozeanische Kabelverbindung zwischen Europa und Amerika angesehen, die ab 1866 einen regelmäßigen Austausch von telegrafischen, später telefonischen Mitteilungen ermöglichte (vgl. Gromov 2006). Diese unterseeischen Kabel verbinden auch weiterhin die Kontinente und stellen immer noch einen bedeutenden Verkehrsweg des Netzes dar, der nur eingeschränkt durch Satellitenverbindungen ersetzt werden kann. Politisch motiviert wurde die Entwicklung des Internet-Vorläufers ARPANET durch den Start des Satelliten »Sputnik« im Jahre 1957 (der so genannte »Sputnikschock«). Es ist ein oft zitierter Allgemeinplatz, dass die ›Blechbüchse‹ der früheren Sowjetunion die ›selbstgefälligen‹ USA aus dem Schlaf gerüttelt hat und das Pentagon daraufhin die »Advanced Research Project Agency« (ARPA) gründete. Diese sollte auf die empfundene Bedrohung durch Sputnik reagieren, denn er bildete im eigentlichen Sinn ja den Beweis, dass die Sowjetunion über Langstreckenwaffen verfügte. Im Auftrag des USamerikanischen Verteidigungsministeriums initiierte die ARPA verschiedene Projekte an US-amerikanischen Universitäten. Das nach der Übertragung des Raumfahrtprogramms an die NASA bedeutendste Vorhaben stellte dabei die Entwicklung eines dezentralisierten und unzerstörbaren Kommunikationsnetzwerkes dar. Das ARPANET war somit zunächst nichts anderes als das Ergebnis einer militärisch finanzierten und zum Teil auch vom Militär kontrollierten Auftragsforschung. Damit sollten die bisher sternförmigen Kommunikationsnetze abgelöst werden, die bei einem befürchteten nuklearen Angriff auf ihr Zentrum als zu verwundbar angesehen wurden. In den meisten Darstellungen zur Internetgeschichte (vgl. etwa Wimmer 1997) wird diese Intention des Auftraggebers (Entwicklung eines unzerstörbaren Netzwerkes) zum alleingültigen Gründungsmythos des Internets erhoben und festgehalten, dass das Internet ein Kind des drohenden Atomkriegs gewesen sei.
170 | DER DIGITALE AUTOR
Diese Darstellung muss aber zum Teil in das Reich der Märchen verwiesen werden. Die Konstruktion der Zusammenarbeit zwischen dem Geldgeber ARPA und den Universitäten, die die finanzierten Projekte durchführten, schien stattdessen eine weitgehende Unabhängigkeit der Ausführenden zu erlauben. Die Universitätsinstitute konnten damit dezidiert eigene Schwerpunkte setzen, sollten Grundlagenforschung betreiben und konnten sogar Sonderprojekte durchführen. Auch bei der Forschungsarbeit selbst hatten die beteiligten Universitäten relativ freie Hand, solange sie militärische Nutzungsmöglichkeiten nachweisen und damit die Projekte gegenüber den Geldgebern im Verteidigungsministerium legitimieren konnten. ARPA verstand sich dezidiert als Initiator von Projekten, die die USA in der Forschung wieder an die erste Stelle in der Welt bringen sollten. Die Entwicklung einer robusten Netzwerktechnologie, die in höchstem Maße von akademischem (zivilem) Interesse war, aber auch militärische Anforderungen zu erfüllen schien, konnte dieser Notwendigkeit genügen. Das Kommunikationsnetz sollte insoweit ›unzerstörbar‹ sein, als dass es auf Staus oder Ausfälle flexibel reagieren konnte. Die angeschlossenen Computer mussten möglichst ständig erreichbar sein, auch wenn Wartungsarbeiten, Leitungsstaus und andere Probleme Teilabschnitte des Kommunikationsnetzes lahm legten. Damit wurde es also nicht vordringlich unter dem Aspekt der militärischen Verwendbarkeit konzipiert; stattdessen stand die Sicherstellung einer besonders zuverlässigen Kommunikation im Vordergrund. Diese Forderung sollte durch das Design des ARPANETs als verteiltes Netzwerk erfüllt werden. Unter Verzicht auf zentrale Vermittlungsstellen wurde dabei ein Netz aus zahlreichen Knoten konzipiert, bei dem jeder Knoten mehrfach mit seinen Nachbarknoten verbunden war. Die Informationen selbst wurden mittels der »Paket Switching«-Technik transferiert. Nachrichten werden dabei in einzelne Datenpakete aufgespalten und mit einer eindeutigen Kennzeichnung versehen. Beim Versenden über das dezentralisierte Netz können die einzelnen Pakete so über ganz unterschiedliche Strecken ›geschickt‹ werden, dass Staus und defekte Abschnitte ›umgangen‹ werden. Geht ein einzelnes Paket verloren, muss nur dieses singuläre beim Sender nachgefordert werden, die bereits übertragenen Informationen bleiben davon unangetastet. Beim Empfänger werden die Datenpakete anhand ihrer Kennzeichnung wieder zusammengesetzt. Die Entwicklung der ›Paket-Switching‹-Technologie sollte eine zuverlässige Datenübertragung sicherstellen. Gleichzeitig ermöglichte diese Technologie einen besonders ökonomischen und schnellen Datentransfer. Berechnungen hatten gezeigt, dass Paket-Switching nachweislich die effektivste Transfermethode darstellte, weil es die Infrastruktur des Netzes am besten auslastete. Damit war der ökonomische Aspekt der zweite Hauptgrund für die Konstruktion des dezentralen ARPANETs. Diese Technologie sollte in der Theorie – und in den Köpfen der militärischen Auftrageber – anfangs wie erwähnt auch einem nuklearen Angriff standhalten und massive Beschädigungen des Netzwerkes ›auffangen‹ können, indem die Datenpakete um die zerstörten Passagen herum geführt wurden. In der Realität konnte und sollte das Netz diese Leistung nie tatsächlich erbringen. Stattdessen wurde immer wieder die Verwundbarkeit des Netzes deutlich. In Simulationen wurde nachgewiesen, dass ein auf die Explosion einer Nuklearwaffe folgender elektromagnetischer Puls 90-95 Prozent sämtlicher elektronischer Geräte in den USA zerstören würde (vgl. Gromov 2006).
DISPOSITIV-KONZEPT | 171
Davon wäre auch die rechnergestützte Netzinfrastruktur betroffen und somit sämtliche Vorkehrungen zum alternativen Routing von Daten obsolet. Schließlich wären auch die meisten der an das Netz angeschlossen Computer selbst unbrauchbar und damit beinahe jede Voraussetzung zur rechnergestützten Kommunikation zerstört. Außerdem ist ein netzförmiges Kommunikationssystem grundsätzlich ebenfalls verwundbar, da es in der Praxis über viel weniger redundante Leitungen verfügt, als in der Theorie modelliert wird. Dass die Unverletzlichkeit des Dispositivs Internet in gewisser Weise einen Mythos darstellt, wurde durch spektakuläre, weiträumige Ausfälle des Netzverkehrs immer wieder deutlich.7 Es ist damit evident, dass die Konzeption des ARPANETS als besonders zuverlässiges Kommunikationsnetz völlig im Dienst einer nicht-militärischen Nutzergruppe stand. Der tatsächliche Grund für die Entwicklung eines dezentralisierten Netzwerkes ist stattdessen in der Motivation der akademischen Universitäten zu sehen, die das ARPANET im Auftrag der Regierung entwickelten, wie Vint Cerf in einem Interview erklärte: »ARPANET was mostly motivated by the desire to allow computing resources to be shared among a dispersed group of users – in the case of ARPANET specifically, these were computer science researchers at different institutions funded by ARPA. Of course, the idea could be translated into military command and control scenarios, and that was a principle conceptual motivation for doing the work on ARPANET in the first place.« (Wilson 1998)
Dieses Zitat verweist auf technische Prozesse, die zu einer Formierung des Dispositivs Internet führten, und bis zu dieser Kristallisation völlig unabhängig von der Entwicklung neuer Kommunikationsmedien und -infrastrukturen liefen. Seit Ende des zweiten Weltkrieges war es zu einer spürbaren Beschleunigung in der Entwicklung der Computertechnologie gekommen. Der Wandel vom Röhrencomputer zu Transistorrechnern und damit zu elektronischen Computern in den 1940er/1950er Jahren führte zu einer wachsenden Verbreitung immer leistungsfähigerer Großrechner in den Universitäten. Diese Rechner stellten zumeist Unikate dar, deren Hard- und Software völlig einzigartig blieben. Zudem waren sie äußerst kostspielig und für sehr spezifische Aufgaben konstruiert, zum Beispiel optimiert auf Computergraphik, akustische oder statistische Berechnungen. Der Boom der Computerwissenschaften und die damit verbundene Notwendigkeit, diese kostspieligen Ressourcen optimal zu nutzen, hatte bereits Anfang der 1960er Jahre zur Entwicklung von so genannten Time-Sharing-Betriebssystemen geführt. Mit ihrer Hilfe konnten mehrere Benutzer interaktiv und gleichzeitig auf einen zentralen Prozessor zugreifen, wobei sie sich die Rechenzeit teilten. Die Programmierung des zentralen Rechners sowie der Abruf der Daten wurden dabei über Terminals realisiert, die sich zunächst noch in unmittelbarer Nähe zum Großrechner be-
7
So führten in den 1990er Jahren verschiedene großflächige Stromausfälle in den USA zu einem beträchtlichen Versagen von Internetverbindungen. Ein jüngeres Beispiel war ein technischer Ausfall des ausgehenden Jahres 2006, bei dem mehrere Tiefseekabel durch ein Erdbeben vor Taiwan beschädigt wurden. Ausgehend davon waren weite Teile Ostasiens vom Internet entweder abgeschnitten oder hatten nur sehr langsame Verbindungen, was unmittelbare (negative) Auswirkungen auf den Wirtschaftsverkehr hatte, vgl. Patalong 2006a.
172 | DER DIGITALE AUTOR
fanden, mit diesem über Kabel verbunden und sternförmig um ihn herum angeordnet waren. Allerdings konnten interessierte Benutzer die Rechner nur vor Ort bedienen und hatten so zum Teil noch weite Anreisen in Kauf zu nehmen; zudem war die Netzwerkanordnung in höchstem Maße verletzlich. Um Kosten zu sparen und um die bereits vorhandene Technologie möglichst optimal und effizient auszulasten, sollten durch das ARPANET auch räumlich weit voneinander entfernte Großrechner auf zuverlässige Art und Weise verbunden sowie der entfernte Zugriff durch Terminals ermöglicht werden. Diese dezentrale Vernetzung von räumlich weit voneinander entfernten Rechnern eröffnete völlig neue Arbeitsbedingungen für die Wissenschaftler, die sich nun relativ problemlos auf anderen Rechnern einloggen und diese für Berechnungen nutzen konnten. Spezielle Minicomputer, die so genannten »interface message processor« (IMP), waren den technisch unterschiedlichen Großrechnern vorgeschaltet und regelten den Netzwerkverkehr. Mit deren Hilfe erreichte das ARPANET-Projekt seine Ziele, einen zuverlässigen Netzbetrieb auf der Basis der Paket-Switching-Technologie zu etablieren, die vorhandenen Hardware-Ressourcen verteilt zu nutzen und den Datenaustausch zwischen Rechnern mit ganz unterschiedlicher Hardware zu realisieren. Diese technische Lösung stellte sich als zuverlässig und erfolgreich heraus. 1969 umfasste das ARPANET noch vier Hosts, zwölf Jahre später waren es bereits 213; im Oktober 1989 – also kurz vor der Entwicklung des WWW – bestand das Internet aus 159.000 Hosts (vgl. Internet Systems Consortium 2008). Wie bereits herausgestellt, kann das Jahr 1973 als der eigentliche Kristallisationspunkt des Dispositivs Internet angesehen werden. Nach den ersten erfolgreichen Versuchen mit der Paket-Switching-Technologie auf Basis von Kabelverbindungen im ARPANET wurden andere Experimentalnetze auf der Basis von Radiowellen (Packet Radio Netzwerk) und Satellitenverbindungen (SATNET) hergestellt. Um eine Kommunikation zwischen diesen technisch unterschiedlichen Netzen zu ermöglichen, war nach der Vernetzung unterschiedlicher Hardware somit die Verbindung unterschiedlicher Typen von Netzwerken notwendig. Das von Vint Cerf entwickelte TCP-Protokoll (ab 1978 ergänzt durch IP) verband verschiedenartige Netze, solange jene einheitlich diesen neuen Standard verwendeten. Damit wurde das Dispositiv Internet als ›Netz der Netze‹ formiert. Wie erwähnt, verfügte dieses Netz bereits damals über seine erste ›Killeranwendung‹, die – im Sinne der strategischen Wiederauffüllung – von einem gesellschaftlichen Bedürfnis überformt wurde, das erst vom ARPANET erzeugt wurde. Weil das ARPANET zunächst allein zum Datenaustausch und zur Fernsteuerung anderer Rechner gedacht war, war auch keine besondere Softwareunterstützung zur Kommunikation zwischen den Benutzern vorgesehen. Dieses dennoch vorhandene Bedürfnis bediente sich des E-Mail-Dienstes, der ursprünglich allein zur Verwaltung des Netzes vorgesehen war. Der Dienst nahm bereits im Jahr seiner Spezifikation (1971) den größten Teil des übertragenen Datenvolumens ein und verhalf dem Kommunikationsmedium Internet zur Durchsetzung, das ja ursprünglich allein zur Vernetzung von Computern und nicht zur Verbindung von Anwendern gedacht war (vgl. Musch 2000: 21-22). Dass sich das Dispositiv Internet immer wieder durch neue Kommunikationsanwendungen ›strategisch wieder auffüllte‹, zeigte sich einige Jahre später in der Herausbildung des Usenets und komplexerer Mailinglisten-Dienste.
DISPOSITIV-KONZEPT | 173
Die Wiederauffüllung schlug sich aber insbesondere im World Wide Web (WWW) als dem gegenwärtig populärsten Dienst des Internets nieder.
6.4.2 Strategische Wiederauffüllung: Konzeption des World Wide Web Im Folgenden soll die Auffassung vertreten werden, dass die Konzeption des World Wide Web, dessen erster Server »info.cern.ch« am Weihnachtstag 1990 online ging, eine ›strategische Wiederauffüllung‹ und Neuformierung des Dispositivs Internet im Sinne des Modells von Foucault darstellte. Im Gegensatz zu den dynamischen Veränderungen des Dispositivs während der 1970er und 1980er Jahre, mit denen das Dispositiv sowohl auf seine größenmäßige Ausbreitung als auch auf die Veränderung der kommunikativen Bedürfnisse seiner Nutzer reagierte, ist diese Neuformierung als ein qualitativ höherwertiger Prozess anzusehen. In seiner Bedeutung muss er als der Kristallisation des Dispositivs im Jahr 1973 ebenbürtig angesehen werden. Zwar setzt einerseits das World Wide Web technisch auf TCP/IP auf und ist damit nominell als Teilmenge des Internets zu begreifen. Aber andererseits kann seine gesellschaftliche, politische und wirtschaftliche Bedeutung seit dem Boom des WWWs Mitte der 1990er Jahre kaum überschätzt werden. Dies wird an ausgewählten Beispielen besonders deutlich. (a) Neue ökonomische Distributions- und Verwertungsmodelle setzen genuin auf webbasierte Strukturen auf (z. B. »Amazon.com«, »Apple iTunes Store«, »Ebay«). Der Boom von Aktien webbasierter Unternehmen, das darauf folgende ›Platzen‹ der so genannten »Dotcom«-Blase (ab März 2000) sowie die vorsichtige Erholung dieses Marktes stehen für die große Hoffnungen, die mit webbasierten Geschäftsmodellen verbunden waren und sind. Die Auseinandersetzung um Peer-to-Peer-Tauschbörsen wie »Napster« oder »Kazaa« haben gezeigt, dass neue, internetbasierte Vertriebsstrukturen auch Gefahren für die traditionellen Rechteinhaber mit sich bringen. Die großen Medienkonzerne verlängern ihre Verwertungsketten aus diesem Grund mittlerweile konsequent in das Internet. (b) Die Gesetzgebung beschäftigt sich mit technischen Spezifika der Darstellung von webbasierten Inhalten auf regierungseigenen Plattformen (Deutschland: »Verordnung zur Schaffung barrierefreier Informationstechnik nach dem Behindertengleichstellungsgesetz« vom 17. Juli 2002) sowie der Kennzeichnungspflicht auf Webseiten (Deutschland: »Gesetz über die Nutzung von Telediensten«, zuletzt geändert am 14.12.2001). Gleichzeitig machen die zunehmenden gerichtlichen Verfahren um Webseiten, Teledienstleister oder digitale Ressourcen eine intensive Auseinandersetzung der Gerichte mit dem Internet vonnöten. (c) Neue Formen des kommerziellen und des alternativen Onlinejournalismus haben sich in recht kurzer Zeit entwickelt, womit ein gestiegenes Bewusstsein für medienethische Probleme einhergeht. Auch die Bildung zieht nach, so es existieren bereits einige etablierte Studiengänge zur Ausbildung von Onlinejournalisten an internationalen und deutschen Universitäten und Fachhochschulen (z. B. an der FH Darmstadt oder der Martin-Luther-Universität Halle-Wittenberg). (d) Das World Wide Web als populärster Internet-Dienst weist darüber hinaus eine umfassende gesellschaftliche Akzeptanz auf, wodurch netzspezifische Aktivitäten wie »browsen«, »chatten« oder Onlinespiele zu breit ge-
174 | DER DIGITALE AUTOR
teilten Hobbies werden. WWW-basierte virtuelle Gemeinschaften existieren für eine ganze Reihe von Bevölkerungsgruppen, sie umfassen leicht mehrere Millionen Benutzer. Wie etwa die jüngere Plattform »Second Life« zeigt, ist das Ziel dabei nicht nur die Unterhaltung, sondern tatsächlich die Nachbildung der Offline-Welt im Cyberspace. Das Schlagwort vom »Web 2.0« erhebt die Benutzer sowie die von ihnen generierten Inhalte in ihrer Summe zu einem zentralen Ausgangspunkt für zahlreiche Geschäftsmodelle. Damit geht einher, dass die medienspezifischen Fragen von Anonymität, Authentizität und Identität gleichsam gesamtgesellschaftlich virulent werden. (e) In der öffentlichen Diskussion scheint eine gewisse Gleichsetzung von Internet und WWW vorzuherrschen. Diese Verwechslung wird durch die graphische Einbeziehung anderer webbasierter Dienste (E-Mail, FTP, Gopher, Usenet) unter die Browseroberfläche begünstigt, ist aber auch als Beleg für die Bedeutung des WWW im Bewusstsein seiner Benutzer aufzufassen. Ebenso wie die ursprüngliche Formierung des Dispositivs lässt sich auch diese ›strategische Wiederauffüllung‹ als Reaktion auf eine veränderte gesellschaftliche Notwendigkeit modellieren, die eine Reihe verschiedener strategischer Zielsetzungen und damit Faktoren zusammenführte. Diese sollen im Folgenden knapp zusammengefasst werden. Eine oft kolportierte Einschätzung zur Konzeption des World Wide Web fasst dessen gesellschaftliche Motivation als Zusammenspiel von Synergie, Glück und Zufall: »Web was a side effect of the CERN’s scientific agenda« (Gregory Gromov in E-Mail an Ben Segal, Mai 1996, zit. n. Gromov 2006). In dieser Lesart verdichteten sich am europäischen Institut für Teilchenphysik (CERN) am Ende der 1980er Jahre typische Probleme von Wissenschaftlern im Zeitalter der ›Personal Computer‹ (PC). Das CERN erscheint damit stellvertretend für den Bedarf einer ganzen scientific community an einem universell einsetzbaren Dokumentationssystem, als das das Web ursprünglich modelliert war. Als Institution stellte und stellt CERN eine Kooperation einer ganzen Reihe von Nationen dar8, die die extrem teure Forschungseinrichtung finanzieren. CERN war damit stets Dreh- und Angelpunkt der wissenschaftlichen Arbeit von mehreren tausend Forschern, die zeitlich begrenzt vor Ort arbeiteten, die meiste Zeit aber von ihren Heimatinstitutionen aus über das Internet mit CERN sowie ihren Kollegen weltweit in Verbindung standen. Aufgrund dieser internationalen Gemeinschaft mit völlig unterschiedlichen technischen Standards und Voraussetzungen galt es, strukturell höchst divergente Computersysteme und Softwareanwendungen sowie Protokolle in Übereinstimmung zu bringen, um eine effektive Zusammenarbeit zu ermöglichen. Um das Jahr 1990 herum hatte sich zwar bereits der IBM-kompatible PC als QuasiStandard in der Computerwelt etabliert; allerdings war der Apple Macintosh mit seinem höchst innovativen und intuitiven Betriebssystem ebenfalls als Arbeitsplattform verbreitet. Auf der Hardware-Ebene hatte der heute vertraute Dualismus zwischen PC-Welt und Mac-Welt mit all seinen technischen Schwierigkeiten beim Datenaustausch folglich bereits begonnen. Auf Softwareebene waren es vor allem die unterschiedlichen Textverarbeitungsanwendungen mit ihren inkompatiblen Dateiformaten, die einer computerbasierten, effektiven Zusammenarbeit (wie etwa der Arbeit an gemeinsamen Vorträgen und Aufsätzen oder dem Austausch von Forschungsdaten) im We8
Im Jahr 2008 umfasste das CERN insgesamt 20 (europäische) Mitgliedsstaaten, vgl. CERN 2008.
DISPOSITIV-KONZEPT | 175
ge standen. Auf gesellschaftlicher Ebene formierte sich somit am CERN als einer besonders großen und dynamischen Institution der Bedarf nach einem einheitlichen Dokumentationssystems, das diese strukturellen Differenzen überbrücken konnte, als ein besonders dringliches Problem heraus. Zudem brachte das Web enorme Vorzüge mit sich, die die Art und Weise der wissenschaftlichen Diskussion qualitativ beeinflusste. Im Gegensatz zum traditionellen, printorientierten Produktions- und Distributionsbetrieb konnten Forschungsideen zeitnah im Internet veröffentlicht werden, auch die Reaktionen und Gegenreaktionen waren schneller verfügbar als in traditionellen gedruckten Publikationen. Verweise auf andere Dokumente im Netz konnten sofort geöffnet und ausgewertet werden, eine langwierige Recherche und Wartezeit auf die Lieferung von gedruckten Artikeln entfiel. Wissenschaftler entkamen nun den traditionellen, sequentiellen Organisationsformen von Zeitschriften und Büchern und konnten eigene Veröffentlichungsformen entwickeln. Schließlich starteten bald webspezifische Publikations- und Diskussionsplattformen, angefangen bei elektronischen Fachzeitschriften, die traditionelle Veröffentlichungen im Web nachahmten9, bis hin zu kollaborativen Publikationsplattformen für journalistische Inhalte.10 Gerade in internetaffinen Forschungsfeldern wurde das Netz schnell sehr intensiv bei der Vorbereitung, Durchführung und Nachbereitung von Konferenzen, wie etwa dem »Weltinformationsgipfel«11 genutzt. Bereits während der eigentlichen Konferenz wurden erste Zusammenfassungen und Einschätzungen von Vorträgen, Round tables und Panels veröffentlicht, sodass sich auch abwesende Wissenschaftler zeitnah über das Geschehen informieren konnten und die Möglichkeit zur unmittelbaren Reaktion hatten. So konnten sich Konferenzteilnehmer mit Argumentationsmaterial versehen, die sie von Kollegen über das Web erhielten. Entscheidungsfindungsprozesse wurden resultierend erheblich beschleunigt (vgl. etwa Kleinwächter 2004: 60-63). Das World Wide Web wurde in den Jahren 1990/91 aus diesen akademischen Notwendigkeiten heraus konzipiert und ist damit ganz ursächlich als ein System zu begreifen, das vor allem eine systemübergreifende akademische Kommunikation sicherzustellen hatte. Mit seiner Hilfe sollten Informationen einem potentiell weltweiten Publikum zugänglich gemacht werden, ohne dass sie einzeln verschickt werden mussten. Es setzte auf Hardwareund Protokollebene der bereits etablierten Systeme des Internets auf (Gateways und TCP/IP-Protokoll), die ja ebenfalls ganz ursächlich für die Vernetzung von technisch völlig unterschiedlichen Systemen konzipiert worden waren. Auf die gesellschaftliche Nachfrage nach einem einheitlichen Standard 9
Beispiele sind etwa »dichtung-digital«, ein angesehenes E-Zine zur digitalen Ästhetik, vgl. Simanowski 1999 ff., sowie die online erscheinende Fachzeitschrift »PhiN. Philologie im Netz«, vgl. Gévaudan et al. 1997 ff., welche auf die Gebiete Sprach-, Literatur- und Kulturwissenschaften abzielt. Beide Zeitschriften haben deutschsprachige Herausgeber und damit einen gewissen deutschsprachigen Schwerpunkt, sind aber international angelegt. 10 Ein Beispiel dafür ist das komplexe Weblog »Slashdot« (vgl. Kapitel 7.2.3). 11 World Summit on the Information Society (WSIS), UN-Weltgipfel zur Informationsgesellschaft. Der Gipfel wurde von der »International Telecommunication Union« (ITU) durchgeführt und bestand aus zwei Teilen. 1. Phase: 10.-12. Dezember 2003 in Genf. 2. Phase: 16. bis 18. November 2005 in Tunis. Weitere Informationen befinden sich auf der Website des Gipfels, vgl. auch Kleinwächter 2004.
176 | DER DIGITALE AUTOR
für den Austausch von Dokumenten antwortete die Weiterentwicklung des Internets mit dem bereits etablierten Konzept des Hypertextes. Diese Leistung verbindet sich ebenso wie die Formulierung des TCP-Protokolls vor allem mit einer einzelnen Person: »Tausende von Informatikern haben zwei Jahrzehnte lang auf dieselben zwei Dinge gestarrt – Hypertext und Computernetzwerke. Aber nur Tim Berners-Lee hatte die Idee, wie diese beiden Elemente zusammengefügt werden könnten, um das Web zu bilden.« (Michael L. Dertouzos, Vorwort zu Berners-Lee 1999: 8)
Der Einbezug des Hypertext-Konzeptes sowie die Programmierung von Server- und Client-Anwendungen, die die Publizierung und den Abruf von Informationen gestatteten, sind also als strategische Wiederauffüllung des Dispositivs zu fassen. Diese Wiederauffüllung antwortete auf den gesellschaftlichen Bedarf nach einem einfachen, intuitiven und plattform-übergreifenden Dokumentationssystem. Die Nachfrage, so wird weiter deutlich, war aber ursächlich vom Dispositiv selbst erzeugt. Erst aus der Kommunikation über das Internet heraus entstand das Bedürfnis nach einem neuen Kommunikationsmodus, nach der plattformunabhängigen Publikation von Inhalten für ein globales Publikum. Erst aus der Kenntnis der erfolgreichen technischen Lösungen der Internetkommunikation resultierten adäquate Softwareprotokolle für die Kommunikation mittels des World Wide Webs. Die weiteren Faktoren, die eine strategische Wiederauffüllung des Dispositivs bedingten, lassen sich wie folgt zusammenfassen: Auf technischer Ebene markierte das World Wide Web einen Wendepunkt in der Computerentwicklung. Die so genannten Personalcomputer waren seit Anfang der 1980er Jahre kleiner und erschwinglicher, aber auch deutlich bequemer zu handhaben und leistungsfähiger geworden. Eine ganze Reihe von so genannten ›Consumermodellen‹ wie dem »Commodore 64«, dem »Amiga 500« oder dem »Atari ST« hatten sowohl zu einer gesellschaftlichen Akzeptanz von Computern als auch zu einer großen Nachfrage geführt. Diese Modelle zielten zwar vordringlich auf Spielanwendungen, gestatteten aber auch ›seriöse‹ Anwendungen mittels graphischer Betriebssysteme. Damit markierten sie das Vordringen von Computern in den privaten Haushalt. Außerdem dürfte der sozialisierende Effekt von ›Spielecomputern‹ eine große Rolle für die Akzeptanz von Computern auch in den anderen Gesellschaftsbereichen wie Wirtschaft, Wissenschaft oder Ökonomie gespielt haben. Die Rechnermodelle rund um das Jahr 1990 (PCs mit Intel 286 oder 386-Prozessor, Apple Macintosh II) waren als Ergebnis der raschen, technischen Fortschritte sowohl leistungsfähig genug als auch hinreichend einfach zu bedienen, um ein grundlegendes Arbeitsinstrument der gesamten scientific community zu werden. Die Vernetzung der Computer mit dem Internet und damit die Nutzung von Computern zu Kommunikationszwecken stellte eine logische Erweiterung der Anwendungsmöglichkeiten von PCs dar. Damit wurde die Überformung der akademischen Kommunikation durch die technische Apparatur PC/Internet evident. Das World Wide Web stellte aber auch auf kultureller Ebene einen Wendepunkt dar, nicht zuletzt im Bereich der Literatur und damit der literarischen Autorschaft. Seit Mitte des 19. Jahrhunderts, deutlich zunehmend im 20. Jahrhundert, hatte es in der Literatur Bestrebungen gegeben, im traditionellen Medium neue Formen von Textorganisation zu etablieren. Die klassischen li-
DISPOSITIV-KONZEPT | 177
nearen Erzählformen sollten durchbrochen sowie die traditionelle Trennung zwischen Autor und Leser aufgehoben werden. Nonlineare Formen im traditionellen Medium Text/Buch hatte es in Form von Querverweisen (z. B. in der Bibel und in Enzyklopädien) oder als Fußnoten und Indices (z. B. in wissenschaftlichen Abhandlungen) ja stets gegeben, allerdings waren diese Formen immer an einen linearen Text gebunden. Nonlineares Erzählen sollte stattdessen den grundsätzlich linearen Modus von Text durchbrechen. An dessen Stelle sollten verknüpfte Texteinheiten gesetzt werden, die nicht mehr lesend rezipierbar waren, sondern zwischen denen navigiert werden musste. Je nach individueller Navigationsentscheidung des Lesers sollten sich andere Bedeutungen der Erzählung erschließen. Dies stellte ein Unterfangen dar, das relativ schwierig umzusetzen war und damit nur bedingt befriedigende Ergebnisse gestattete, solange es auf dem linearen Medium Schrift beruhte. (a) E. T. A. Hoffmanns bereits erwähnter Roman »Lebensansichten des Katers Murr« (vgl. Hoffmann 1958 [1820-1822]) baute beispielsweise auf der Fiktion auf, dass die Biographie eines Menschen mit den Erinnerungen eines Katers durcheinander geraten war und dem Leser sich so eine vermischte Lebensgeschichte präsentierte. (b) In James Joyce’ »Finnegans Wake« (vgl. Joyce 1989 [1939]), ebenfalls schon genannt, wurde dagegen der einzelne Satz und sogar das Wort als lineare Sinneinheit aufgebrochen, indem Wörter und Kunstwörter aus weit über hundert Sprachen verwendet wurden. Jedes einzelne Wort verwies (verlinkte) dabei auf mehrere mögliche Bedeutungen, die je nach Auslegung zu ganz verschiedenen Sinngebungen des jeweiligen Satzes, der jeweiligen Textpassage sowie des ganzen Textes führten. (c) Arno Schmidt (»Zettels Traum«, vgl. Schmidt 2002 [1970]) und Franz Mon (»herzzero«, vgl. Mon 1968) experimentierten mit mehreren Textsträngen, die gleichzeitig auf der Buchseite erschienen. Die Leser (vielmehr: die Navigierenden) waren dazu aufgefordert, sich lesend zwischen den Strängen hin- und herzubewegen und ihren jeweils eigenen Text herzustellen. Dabei ging Mon sogar so weit, den redigierenden Eingriff des Rezipienten nicht nur zu ermöglichen sondern programmatisch geradezu zu fordern: »der text erscheint in zwei fassungen, die durch die drucktype unterschieden sind. es ist also jeweils die linke beziehungsweise die rechte spalte im zusammenhang zu lesen. niemand ist es jedoch verwehrt, von der linken in die rechte oder von der rechten in die linke hinüberzulesen. es wird empfohlen, mit bleistift, kugelschreiber und filzstift zu lesen. mit dem bleistift streicht man die stellen an, die zusammengehören, auch wenn sie weit auseinander oder in verschiedenen spalten stehen. mit dem kugelschreiber korrigiert man, was korrekturbedürftig erscheint, ergänzt, was einem zur ergänzung einfällt […] der filzstift macht unleserlich, was überflüssig erscheint. Bedenken sie dabei, dass seine schwarzen würmer zum text gehören werden.« (Mon 1968: 5)
Diese Experimente, so wird deutlich, zielten ganz ursächlich auf die Zurückdrängung des Autors als alleinigen, dominierenden Textproduzenten und auf die Herausstellung des Lesers als aktiv an der Textgenese beteiligt Handelnden. Dieses aktive ›Mitschreiben‹ sollte über die eigene Stiftung von Sinn hinausgehen, die jeder Leser bei der Lektüre eines Textes vornimmt. Der Autor stellte in diesen Konzeptionen vielmehr den Lieferanten von Textbausteinen dar, die erst vom Leser ›zusammengesetzt‹ werden sollten.
178 | DER DIGITALE AUTOR
Beide Tendenzen, der Drang zur Neuorganisation von Texten und die Abkehr von linearen Organisationsformen hin zu rhizomartig verknüpften Texteinheiten, hatten sich im Konstrukt des Hypertextes niedergeschlagen, das spätestens seit Ende des zweiten Weltkrieges ausgearbeitet wurde. Hypertext war das Resultat von Bestrebungen, sehr umfangreiche sowie sehr heterogene Informationsbestände in einem Informationsraum abzulegen und durch Maschinen optimiert zugänglich zu machen. Vor dem World Wide Web hatte es bereits verschiedene Konzepte für die Implementierung von Hypertext gegeben, die allerdings nie erfolgreich umgesetzt wurden. Wiederum mit Rückgriff auf die dispositive Struktur des Internets können diese wenig erfolgreichen bis fehlgeschlagenen Experimente als nicht-siegreiche Versuche modelliert werden, auf einen gesellschaftlichen Notstand zu antworten, hier die Organisation von Wissen. Vannevar Bush, einer der Väter der amerikanischen Atombombe, hatte kurz nach dem zweiten Weltkrieg im Jahr 1945 eine mechanische Maschine namens »Memex« skizziert. Angesichts des stetig explosionsartig wachsenden Wissens war seiner Ansicht nach ein neues System der Wissensorganisation notwendig geworden. Das komplette, schriftlich überlieferte menschliche Wissen sollte mithilfe eines Mikrofiche-Systems zugänglich, verknüpfbar und erweiterbar sein. Gemeinhin gilt das Konzept auch heute noch als ein zentraler Ausgangspunkt für die Entwicklung von Computernetzwerken bis hin zum Internet bzw. den darin distribuierten Hypertexten.12 Ted Nelson verwandte 1965 das erste Mal den Begriff »Hypertext« für einen nicht aufeinander folgenden Text, bei dem der Leser keiner bestimmten Reihenfolge gehorchen musste, sondern beliebig Verknüpfungen folgen und von einem Zitat zum zugehörigen Originaldokument gelangen konnte. Der von ihm beschriebene Informationsraum »Xanadu« sollte enzyklopädisch das gesamte auf der Welt verfügbare Wissen enthalten. Es sollte streng zwischen einem geschützten Raum von Originaldokumenten und einem offenen Raum (namens »public domain«) unterschieden werden. Während der geschützte Raum eher traditionelles Schreiben mit singulären Autorkonzepten vorsah, sollten im offenen Bereich beliebige Änderungen möglich sein. Im gesamten Konstrukt war ein Paymentsystem eingebaut, sodass Originalautoren bei jeder Zitierung eine Entschädigung erhalten konnten.13 Zur gleichen Zeit demonstrierte Doug Engelbart mit »oNLine-System« (NLS, später umbenannt in »AUGMENT«) seine Vorstellung von einem virtuellen Arbeitsplatz, der Hypertext als Werkzeug für die Gruppenarbeit nutzbar machen sollte. Zur bequemen Anwahl von Hyperlinks auf dem Bild12 Vannevar Bushs Aufsatz »As we may think« gilt als bahnbrechend, da er sowohl Entwicklungen in der Hardware (Computer und Netzwerke) als auch in der Software (Hypertext) in verblüffenden Details voraussagt. Vgl. den englischen Volltext in Bush 1945, vgl. auch die gekürzte deutsche Übersetzung und Kommentierung in Bush 1997 [1945]. Zum Text selbst vgl. überblicksweise die Darstellung bei Kuhlen 1991: 66 sowie die jüngere, ausführliche Diskussion in Landow 2006: 9-13. Für ausführliche Informationen zu Vannevar Bush selbst vgl. Nyce/Kahn 1991; Griffin 2000. 13 Die Entwicklungen des Projektes »Xanadu« dokumentierte Nelson u. a. in den Büchern »Computer Lib / Dream Machines«, vgl. Nelson 1987 [1974], und »Literary machines«, vgl. Nelson 1987 [1981]. Eine sehr umfangreiche und kritische Einschätzung seiner Vision bietet Wolf 1995, vgl. überblicksweise zudem Kuhlen 1991: 69-71.
DISPOSITIV-KONZEPT | 179 14
schirm erfand er die erste Computermaus. Nach Einführung des PCs in den 1980er Jahren wurden die ersten (rein textbasierten) Hypertext-Programme für den PC entwickelt. Apple begann ab 1986, das Programm »Hypercard« zur Erstellung von Hypertexten serienmäßig vorinstalliert auszuliefern. Michael Joyce’ Hypertext-Arbeit »Afternoon, a story« (1987), die mit der Hypertext-Software »Storyspace« erstellt wurde, stellte einen der ersten seriösen literarischen Hypertexte dar.15 Auf kultureller Ebene kann das World Wide Web als die bis jetzt gelungenste Implementierung von Hypertext aufgefasst werden. Es setzt in der hardwarenahen Schicht auf bereits etablierte Techniken und Protokolle des Internets auf, in der softwarenahen Schicht orientiert es sich an dem ausgearbeiteten Konzept des Hypertexts. Schließlich war die gesellschaftliche Nachfrage nach einem einfachen und intuitiv zu bedienenden Dokumentationssystem ein wichtiger Faktor, der direkt in die Struktur und das Design des Webs einfloss. Ohne die eigenen Arbeitsmethoden komplett umzustellen, mussten Benutzer ganz verschiedener Hard- und Softwareplattformen in der Lage sein, ihre wissenschaftlichen Dokumente im Netz zu publizieren. Die Sprache musste also als ›kleinster gemeinsamer Nenner‹ unter allen denkbaren Bedingungen ihren Zweck erfüllen. Die Dokumentbeschreibungssprache »Hypertext Markup Language« (HTML) stellte aus dieser Forderung heraus eine stark vereinfachte Fassung der bereits existierenden Standardsprache »Standard Generalized Markup Language« (SGML) dar. Sie unterstützte anfangs nur die grundlegenden Elemente, die für wissenschaftliche Publikationen notwendig waren, wie etwa Überschriften, Absätze, Listen, später aber auch Bilder und Tabellen. Dabei war die Sprache auch in ihrer Syntax so einfach, dass sie in Codeform auch heute noch ›per Hand‹ geschrieben werden kann und wird. Umgekehrt sollte auch das Browser-Programm, das Webseiten aus dem Internet laden und darstellen kann, eine sehr einfache und intuitive Bedienung erlauben. Dies wurde noch in den ›Kindertagen‹ des Webs durch die Einbeziehung der Computermaus und damit durch die »Point-and-Click«Technologie realisiert. Mit Browsern, die die intuitive Navigation im Web durch anschauliche Leisten und Icons ermöglichten, begann schnell der Boom des World Wide Webs um die Mitte der 1990er Jahre. Es öffnete sich auch für nicht-akademische Nutzer und Anfänger, die nicht über jene ausgeprägte technische Affinität und Expertise verfügten, um die komplizierten Funktionen von Netzsoftware vor dem WWW bedienen zu können. Die kommerziellen Browser, vor allem der »Navigator« von Netscape und der »Internet Explorer« von Microsoft, wurden von vornherein konsequent auf eine einfache Bedienung hin programmiert. Damit und mit der ökonomischen Marktmacht der Herstellerfirmen ging eine schnelle Kontrolle des Browser14 Eine ausführliche und ansprechend aufbereitete Darstellung der Geschichte von Engelbarts »unsichtbaren Revolution« bieten Hegland/Klijnsma 2003 ff. Umfassend gewürdigt werden seine Arbeit und seine Erfindungen bei Jordan 2004. Vgl. überblicksweise auch Kuhlen 1991: 68-69, für ausführliche Informationen zu Douglas Engelbart selbst vgl. Engelbart/Engelbart 2003. Die Homepage seines »Bootstrap Institutes« bietet darüber hinaus ausführliche Erläuterungen zu seiner Person sowie seinen vergangenen und aktuellen Projekten. 15 Michael Joyce’ Arbeit wurde, wie die anderen »Storyspace«-Anwendungen auch, zunächst mittels Diskette distribuiert; mittlerweile erfolgt der Vertrieb auf CD-ROM.
180 | DER DIGITALE AUTOR
marktes und im Nachgang eine Überformung des Dispositivs selbst einher. »Navigator« und »Internet Explorer« veränderten es, indem sie als attraktiv geltende neue Darstellungselemente ermöglichten und propagierten, die im Standard überhaupt nicht vorgesehen waren. Beispielsweise mit Techniken wie Frames, DHTML, Animationen und Flash leiteten sie den Einzug von multimedialen Inhalten in das Web ein. Diese marktnahe Überformung des Dispositivs geschah aber gleichzeitig mit und war notwendig für seine breite gesellschaftliche Durchsetzung: »There are two ages of the Internet – before Mosaic [Vorläufer von ›Netscape Navigator‹, F. H.], and after. The combination of Tim Berners-Lee’s Web protocols, which provided connectivity, and Marc Andreesen’s browser, which provided a great interface, proved explosive. In twenty-four months, the Web has gone from being unknown to absolutely ubiquitous.« (Pesce 1995)
Browser sind auch heute noch rein darstellende Programme; die anfänglich von Berners-Lee vorgesehene Editor-Funktion wurde aus verschiedenen Gründen von den Programmierern nie entwickelt. Damit wird die Trennung zwischen Autor und Leser nicht durchlässiger, wie ursprünglich in verschiedenen Hypertext-Konzepten gefordert; stattdessen wird die Separierung strukturell immer wieder neu hergestellt. Projekte und Anwendungen, die eine kollaborative Arbeit über das World Wide Web realisieren wollen, mussten und müssen sich zum Teil recht aufwendiger Alternativlösungen bedienen. Allen optimistischen Einschätzungen der netzbasierten Kommunikation zum Trotz, weist die technische Strukturierung des Dispositivs hier einen ganz offensichtlichen Mangel auf. Diese Lücke zu erfassen und auch die Gründe dafür zu analysieren, stellt ein höchst interessantes Unterfangen dar. Es lässt sich so vermutlich nur unter den Bedingungen einer dispositivitären Betrachtung des WWWs realisieren, da an dieser Stelle Technik, Architektur, Institutionen, Personen und Protokolle zusammentreffen. Eine entsprechende Dispositiv-Analyse mit Rücksicht auf seine heterogenen Faktoren wird im nächsten Abschnitt erläutert.
6.5 Internet als mediales Dispositiv: synchrones Strukturmodell 6.5.1 Strukturmodell nach Foucault Im Forschungsdiskurs existiert keine allgemeingültige Vorstellung, über welche heterogenen Faktoren genau ein mediales Dispositiv verfügt – und über welche nicht. In seiner oft zitierten Definition listete Foucault eine Reihe von Faktoren auf (vgl. Foucault 1978: 119-120; vgl. auch Kapitel 2.2.2), allerdings erhoben solche Auflistungen für ihn nie den Anspruch auf Vollständigkeit oder Ausschließlichkeit. Nach Foucault umfasst ein Dispositiv dementsprechend (mindestens) neun Faktoren. Konkretisiert für das Dispositiv Internet lassen sie sich folgendermaßen beschreiben: (1) Diskurse: Einen inhärenten Bestandteil des Internets bildeten stets selbstreflexive Diskurse innerhalb des Netzes sowie Diskussionen außerhalb, die sich wiederum auf das Medium bezogen. Aufbau, Prozeduren und grund-
DISPOSITIV-KONZEPT | 181
sätzliche Kommunikationsregeln wurden durch die frühen Nutzer selbst in einem diskursiven Abstimmungsprozess erarbeitet und in den so genannten »Request for Comments« abgelegt. Spätestens seit dem Internet-Boom der 1990er Jahre wurde extensiv in den traditionellen Medien über das Internet berichtet. Der gesellschaftliche Diskurs übernahm Strukturen, Begriffe und Identifikationsmuster aus dem Internet-Diskurs, wodurch eine hohe Verflechtung des internen und externen Diskurses hergestellt wurde. (2) Institutionen: Regulierende, kontrollierende und strukturierende Institutionen bildeten zunächst die ursprünglichen Träger des ARPANETS, namentlich also militärische, regierungsnahe und akademische Instanzen. Solche externen Institutionen beeinflussen nach wie vor das Dispositiv über regulierende Eingriffe. Auch die Telekommunikationsunternehmen und weitere Firmen, die die Netzstruktur ausbauen, müssen an dieser Stelle genannt werden. Mit der Popularisierung des Internets und der Bildung des WWW haben sich zusätzlich netzinterne Organisationen gegründet, die zum Teil bereits über Jahrzehnte hinweg die Struktur des Netzes formen (z. B. »Internet Engineering Task Force« [IETF]16, seit 1986 oder »World Wide Web Consortium« [W3C], seit 1994). Die jüngere Debatte über die Rolle der »Internet Corporation for Assigned Names and Numbers« (ICANN) zeugt vom großen Einfluss dieser Institutionen auf das Netz und dem daraus resultierenden Kampf zwischen ihnen (vgl. dazu Kleinwächter 2004). (3) Architekturale Einrichtungen: Rechenzentren, Orte der Produktion von Inhalten oder die Plätze der Rezeption strukturieren und beeinflussen das Netzdispositiv als physische, architekturale Einrichtungen. Auch wenn die übertragenen und dargestellten Daten selbst nicht greifbar sind, existieren sie nur aufgrund der räumlichen Gegebenheiten in der materiellen Welt. So beeinflusst etwa die strukturelle und technische Gestaltung von Rechenzentren samt Kühltechnologie die Zuverlässigkeit und Geschwindigkeit, mit der Daten vorgehalten und übertragen werden. Durch hochauflösende Bild-, Tonund Videoübertragungen werden zudem die Orte von Sender und Empfänger in die übertragenen Botschaften mit hinein genommen. Typischerweise werden die ›Bühnen‹ oder ›Drehorte‹ von Videos für Videoplattformen mit einer besonderen Akribie gewählt, die sich der traditionellen (semiprofessionellen) Videoproduktion annähert. Schließlich beeinflusst die räumliche Anordnung des Netzbenutzers seine Wahrnehmung der Netzinhalte bzw. umgedreht die von ihm gesendeten Informationen. Zunehmend wird das Netz durch Suchmaschinen definiert und dominiert; der reine technische Indexierungs- und Suchvorgang hat durch seine Selektionsfunktion eine enorme ökonomische Bedeutung gewonnen. Davon ausgehend werden die Webinhalte für Suchmaschinen ›optimiert‹ und damit von der Technologie her gedacht, wobei die Machtpositionen der Suchmaschinenbetreiber kritisch gesehen werden (vgl. etwa Machill 2003; Machill/Beiler 2007). Diese und weitere medienethische Fragen werden von den jüngeren Netzkunstarbeiten intensiv reflektiert.17 (4) Reglementierende Entscheidungen: Die zunehmende Ausdehnung sowie teilweise Verlagerung der gesellschaftlichen, ökonomischen und medialen Systeme in das Internet haben von Anfang an reglementierende Entschei16 Die IETF ist eine Arbeitsgruppe, die sich mit der Entwicklung von zumeist technischen Internetstandards beschäftigt. 17 Ein gutes Beispiel dafür ist das in der vorliegenden Arbeit besprochene Projekt »Search Lutz« (2006) von Johannes Auer (vgl. Kapitel 8.4).
182 | DER DIGITALE AUTOR
dungen der Legislative und deren Durchsetzung mittels der Judikative erforderlich gemacht. Auf dieser formal hohen Ebene bedeutete dies vor allem die Anwendung bestehender bzw. die Schaffung neuer Gesetze (siehe nächster Punkt). Reglementierende Entscheidungen werden aber auch ständig auf der Verwaltungsebene ›darunter‹ getroffen. Beachtenswert ist dabei, dass diese Verfügungen nicht selten ebenso folgenschwer sind wie die formale Gesetzgebung, aber eben nicht durch demokratisch legitimierte oder durch formale Vorgaben vorstrukturierte Institutionen getroffen werden. Hierunter fallen zum Beispiel alle Verwaltungsentscheidungen der DENIC als freiwilliger Zusammenschluss von Internetdienstanbietern im Zusammenhang mit der Domainnamen-Vergabe. (5) Gesetze: Das Internet selbst stellte nie einen gesetzfreien Raum dar, und in diesem Sinne sind etwa Verstöße gegen das Urheberrecht oder Straftaten im Zusammenhang mit Pornographie bereits auf Grundlage der bestehenden Gesetzgebung sanktionierbar. Die neuen medialen Möglichkeiten machten allerdings zusätzliche Regulierungen nötig, die sich beispielsweise im Telekommunikationsgesetz (Auszeichnungspflichten auf Webseiten) niedergeschlagen haben. Diese Entscheidungen der Gesetzgebung aber wurden und werden stets flankiert von präzisierenden Urteilen der Gerichte. Letztere beschäftigen sich sowohl mit einfachen Strukturentscheidungen (wie etwa Domainnamenzuordnungen) als auch mit den Folgen komplexer technischer Neuerungen (z. B. P2P-Tauschbörsen wie »eDonkey« und die darüber begangenen Urheberrechtsverstöße). Anhand finanziell folgenschwerer Auseinandersetzungen um Domainnamen wird deutlich, dass die Strukturen des Dispositivs zum Teil heftig mit der traditionellen Rechtsprechung kollidieren und dementsprechende Anpassungsprozesse in den Gerichten erfordern (z. B. im Markenrecht). (6) Administrative Maßnahmen: Wiederum ›unterhalb‹ der Verwaltungsebene werden auf der Prozessebene von einzelnen Rechenzentren oder Providern technische Entscheidungen getroffen und umgesetzt. Diese haben normalerweise eine deutlich eingeschränktere Bedeutung für das Dispositiv ›an sich‹, weil sie sich konsequent nur an einen regional oder zahlenmäßig begrenzten Anteil des Internets richten. Zu nennen wären etwa die Vergabe von IP-Nummern oder Subdomainnamen in Subnetzen, Regularien für die Nutzung von Kommunikationsnetzen oder der Ausbau von Netzinfrastruktur. Deutlichen Einfluss üben diese administrativen Maßnahmen aus, wenn sie an zentralen Netzknotenpunkten eingreifen, etwa um den Netzverkehr zu zensieren. Ein besonders augenfälliges Beispiel für die Wirkungsmacht von technischen Maßnahmen (die aber auf reglementierender Ebene dekretiert wurden) ist die massive Zensur von Netzinhalten in autoritär strukturierten Gesellschaften wie etwa China. (7) Philosophische, moralische, philanthropische Lehrsätze: Das Internet entwickelte sich aus dem westlichen Kulturkreis heraus und war dabei stets stark von den USA beeinflusst. Daher sind dessen Werte und sein Selbstverständnis zum Großteil auch von der westlichen Welt geprägt. Zum einen spiegeln sich die Werte der traditionellen Medien im Netz wider, wie etwa Meinungsfreiheit, Pressefreiheit und Religionsfreiheit. Dazu treten netztypische Ideale, z. B. freie Zugänglichkeit von Informationen, Open Source und Freiheit der Informationsverlinkung. Da das Dispositiv sehr differente Weltanschauungen, Kulturkreise, Nationen und Interessen vereint, gelten diese Ideale nicht im gesamten Netz in der gleichen Ausprägung. Allerdings lässt
DISPOSITIV-KONZEPT | 183
sich aller Ökonomisierung des Netzes zum Trotz weiterhin eine gewisse globale Community der aktiven Netizens feststellen, die ihre Werte und Normen über die skizzierten Grenzen hinaus teilt und vertritt. (8) Wissenschaftliche Aussagen: Als Gegenstand vieler wissenschaftlicher Disziplinen steht das Netz im Fokus von Untersuchungen, Studien und Analysen, die umgedreht auch auf die Strukturen des Netzes Einfluss nehmen. Dies liegt auf der Hand, wenn bedacht wird, dass das Netz in der akademischen Welt entstanden ist und strukturell weiterhin stark von dieser getragen wird. Auch das Wissenschaftssystem selbst wird vom Internet beeinflusst. So bietet das Netz nicht nur einen quantitativ und qualitativ hochwertigen Publikationsort für wissenschaftliche Veröffentlichungen, die zumeist ihre Produktionskosten nicht selbst wieder einspielen. Die Debatte um Open Source hat eine ganze Reihe von neuen Lizenzmodellen nicht zuletzt für wissenschaftliche Arbeiten hervorgebracht, die einen freieren Zugang zu Informationen und zu deren Verwendung ermöglichen. Damit wird unter dem Schlagwort des ›Open Access‹ die Marktdominanz der traditionellen Medienhäuser angegriffen. (9) Nicht-Diskurse: Die Arbeit oder »menschlich-sinnlich[e] Tätigkeit« (Jäger 2001b: 77, Hervorhebung im Original) aller am Netzdispositiv beteiligter Menschen sind dem nicht-diskursiven Anteil zuzuordnen. Sie vermittelt »Subjekt und Objekt« sowie »die sozialen Welten und die gegenständlichen Wirklichkeiten miteinander« (ebd.). Damit verbindet aber die Arbeit letztendlich die heterogenen Elemente des Dispositivs Internet. Die Nicht-Diskurse wurden von Foucault nicht explizit in seiner vielzitierten Auflistung genannt, waren aber von ihm mit der Formulierung vom »Ungesagten« (Foucault 1978: 120) gemeint. Michel Foucault hob mit dieser Definition also auf schärfer umgrenzte konkrete Faktoren ab, die es in ihren Verbindungen zu analysieren galt. Wie es typisch für Foucault war, besass diese Liste aber keinen Anspruch auf Vollständigkeit. Die Summe der Elemente ergab also nicht das komplette Dispositiv. Stattdessen lieferte Foucault eine modellhafte Vorstrukturierung, an die es stets produktiv anzuschließen galt und weiter gilt.
6.5.2 Strukturmodell nach Hickethier In seiner Weiterverarbeitung stellte Knut Hickethier dagegen vier übergreifende Modellvorstellungen heraus, die vom Dispositiv-Konzept integrativ verbunden werden (Hickethier 1993c: 24-25). Hickethier bezieht sich zwar explizit auf Mediengeschichtsschreibung, also den diachronen Charakter des Dispositivs. Seine Strukturierung der Modellvorstellungen kann aber auch für die synchrone Analyse nutzbar gemacht werden. Diese Vorstellungen bündeln jeweils mehrere von Foucaults Elementen, bilden aber ebenfalls kein vollständiges Dispositiv ab. Zudem umfasst etwa sein Begriff des »Institutionscharakters« mehr als Foucaults Begriff der »Institutionen« und meint z. B. auch die Entscheidungen der Institutionen. Schließlich bringt Hickethier auch weiterführende Aspekte ein, etwa wenn er den Marktcharakter des Dispositivs aufführt. Nach Hickethier werden also folgende Modellvorstellungen über das Internet im Dispositiv vereinigt: Technischer Charakter, Institutionscharakter, Marktcharakter, Wahrnehmungscharakter und Rezeptionssituation. Er hebt dabei vor allem auf die Leistung des Konzeptes ab, im Forschungsdiskurs sonst gemeinhin isoliert betrachtete Phänomene vereinigen zu
184 | DER DIGITALE AUTOR
können. So wird eine holistische Betrachtung des Dispositivs möglich. Das Internet kann beispielsweise nicht allein als »neutrale« technische Apparatur angesehen werden, sondern ist immer ökonomischen oder gesellschaftlichen Interessen unterworfen, die es formen und prägen.18 Abbildung 7: Allgemeines Strukturmodell des Dispositivs nach Hickethier mit der Zuordnung ausgewählter heterogener Faktoren Foucaults
Quelle: Graphische Darstellung vom Autor19 (1) Technischer Charakter: Das Dispositiv Internet setzt in technischer Hinsicht auf Computern auf, die in Netzwerken zusammengeschlossen sind. Kleinere Intranets und ›Local Area Networks‹ (LAN) sind zu größeren Einheiten verbunden, die größte wird gemeinhin als »das Internet« bezeichnet. Zu dieser netztechnischen Definition treten mindestens zwei weitere, die im ›Request for Comments‹ (RFCs) 1462 zusammengestellt sind. Danach ist das Internet: »a network of networks based on the TCP/IP protocols, a community of people who use and develop those networks, a collection of resources that can be reached from those networks« (Krol 1993). Obwohl an dieser Stelle nicht näher auf die technischen Spezifika des Internets eingegangen werden kann20, soll diese Definition doch nicht unerwähnt bleiben. Zum Internet gehören damit also nicht nur technische Produktions- und Übertragungsschichten, sondern auch die transportierten medialen Inhalte sowie die Menschen, die sich zum Internet zugehörig fühlen. Der Ap18 Solche technikeuphorischen Positionen werden des Öfteren kritisiert, in jüngerer Vergangenheit etwa von Stefan Weber, vgl. Weber 2007: 151-156. Weber beschreibt meiner Ansicht nach zutreffend, dass das Internet nie eine neutrale »Technik-an-sich« (ebd.: 10) darstellt, sondern stets als Technik in Benutzung analysiert und in ihren Folgen reflektiert werden muss. Die negativen Schlussfolgerungen, die er aus dieser Analyse zieht, führen allerdings zu weit. 19 Zum Modell nach Hickethier vgl. Hickethier 1993c: 24-25. Zum Modell nach Foucault vgl. Abbildung 5. 20 Ausgezeichnete Einführungen gerade in die technischen Spezifika des Internets bieten Goldhammer/Zerdick 2001: 27-79; Döring 2003: 1-126; eine sehr ausführliche Diskussion findet sich bei Meinel/Sack 2004.
DISPOSITIV-KONZEPT | 185
parat Internet besteht aus drei technischen Bestandteilen, die sich jeweils aus Hardware- und Softwarekomponenten zusammensetzen. • Den Produktionskomplex bilden ›Personal Computer‹ samt ihrer Hardwareerweiterungen sowie spezielle Software zur Netzproduktion. Große Anbieter setzen ausgefeilte ›Content-Management-Systeme‹ (CMS) ein. • Als Übermittlungskanal dienen Netzwerke, die auf dem Protokoll TCP/IP basieren. Dazu treten die architekturalen Einrichtungen (z. B. Rechenzentren) und Datenverbindungen (z. B. Unterseekabel), die für die Weiterleitung der Daten notwendig sind. • Der Computerbildschirm ist im Moment noch das am meisten verbreitete Empfangsgerät. Zunehmend wird dieser durch den Fernsehbildschirm (z. B. Multimedia-Konsolen) sowie durch mobile Empfangsgeräte (z. B. UMTS) ergänzt. Wiedergegeben werden Netzinhalte von Browserprogrammen sowie speziellen Plugins, wie etwa für die Darstellung von Audio- und Videoinhalten. (2) Institutionscharakter: Ebenso wie bei den Print- und elektronischen Medien existieren eine ganze Reihe von Institutionen, die die Techniken des Netz-Dispositivs genauso wie die Produktion von Inhalten »verwalten, […] finanzieren, politisch und juristisch […] vertreten« (Schmidt/Zurstiege 2000: 170). Diese agieren auf mindestens drei Ebenen mit je unterschiedlich weit reichenden Befugnissen für das Dispositiv in toto, aber zumeist ähnlich hoher Bedeutung für den einzelnen Nutzer. Auf regionaler Ebene agieren vor allem Institutionen, die den technischen Netzzugang ermöglichen und regulieren. Institutionen wie Internet-Cafés oder Bibliotheken beschränken die Nutzung ihrer Infrastruktur zumeist auf bestimmte Zwecke und Dienste. Rechenzentren und Verteilerknoten der Zugangs-Provider stellen gegen Mietentgelt einen zumeist nicht regulierten Netzzugang bereit. Allerdings sind Fälle der Filterung von Internet-Inhalten bereits auf Ebene der Zugangsprovider nicht selten. Da diese Institutionen oftmals die einzige Verbindung in das Internet darstellen, kann ein Ausfall den Nutzer vom Internet abkoppeln. Auf dieser Ebene bestehen weitgehende Überlappungen mit Foucaults Element der »administrativen Maßnahmen«. Auf nationaler Ebene greifen die oben beschriebenen Gesetze und reglementierenden Entscheidungen zum einen von Seiten staatlicher Institutionen, zum anderen von nationalen nicht-staatlichen Organisationen. Typische Beispiele für letztere sind etwa die DENIC als zentrale Registrierungsstelle für die Toplevel-Domain ».de« oder das »Deutsche Forschungsnetz« (DFN), das deutsche Hochschulen und Forschungseinrichtungen miteinander und mit dem Internet verbindet. Auf staatlicher Ebene agieren zudem die großen Telekommunikationsunternehmen, die flächendeckende Netzinfrastrukturen bereitstellen. Auf internationaler Ebene arbeiten eine ganze Reihe von staatlichen (zumeist Vertreter der nationalen Regierungen) und nichtstaatlichen Organisationen (zum Teil aus der älteren Netzgeschichte gewachsen, zum Teil neu gegründet) an der Regulierung des Dispositivs. Überstaatlich interagierende akademische und staatliche Institutionen waren historisch sowohl für die Kristallisation des Dispositivs als auch für dessen strategische Wiederauffüllung maßgeblich verantwortlich. Seit dem Boom des Internets und der damit wachsenden Bedeutung als ökonomischer Faktor ist aber ein heftiger Streit um die Regulierungskompetenzen im Dispositiv entbrannt. Dabei prallen glo-
186 | DER DIGITALE AUTOR
bale Probleme mit nationalen Interessen und der nationalstaatlichen Kompetenz bei der Gesetzgebung zusammen. Dieser verbissene Kampf um Macht (und damit auch um Geld) im Cyberspace21 wird auf diplomatischer Ebene zwischen den Ländern der ersten und dritten Welt geführt. Gesellschaftlich prallen die staatlichen Sphären mit Organisationen der Zivilgesellschaft zusammen, die zunehmend nach Einfluss auf die zukünftige Regulierung drängen. In der jüngeren Vergangenheit stellte der von der UNO initiierte »Weltgipfel zur Informationsgesellschaft« (2003-2005) unter Beweis, wie abhängig die Struktur und die Regulierung des Netzes von dem Ringen um Einflussnahme zwischen staatlichen und nicht-staatlichen Institutionen ist. (3) Marktcharakter: Medien sind als selbst- oder fremdfinanzierte Einrichtungen selbst Wirtschaftsinstitutionen, das Medien- damit eng mit dem Wirtschaftssystem verbunden (vgl. weiterführend insbesondere Goldhammer/ Zerdick 2001; Zerdick et al. 2001; Altmeppen/Karmasin 2003-2006). So sind die engen Verflechtungen zwischen Ökonomie und Medienproduktion den medialen Dispositiven immer inhärent und müssen stets mit reflektiert werden. Ebenso wie bei den anderen Dispositiven lassen sich auch im Netzdispositiv sowohl ›ganzheitliche‹ Produktionsweisen im privaten/amateurhaften Umfeld als auch mehrschichtige Arbeitsprozesse großer Contentanbieter finden (vgl. Hickethier 2003: 164-165). Betrachtet man das Dispositiv als Ganzes, wird es vor allem durch die letzteren strukturiert. Autoren von Netzliteratur agieren allerdings auf der ersten, ›ganzheitlichen‹ Ebene. Die hoch arbeitsteilige Produktions- und Distributionsmaschinerien professioneller Webanbieter und Internetdienstleister lassen sich vom Umfang her nicht selten mit dem Film- oder dem Fernsehdispositiv vergleichen. Dies liegt auch daran, dass die elektronischen Medien mit ihren audiovisuellen Angeboten im Netz seit Jahren präsent sind und die Standards für Webproduktionen enorm beeinflusst haben. So wird beispielsweise unter dem Stichwort des »multimedialen Erzählens« (vgl. Heijnk 2002) erfasst, dass selbst der traditionelle Printjournalismus eine ganze Reihe multimedialer, hypertextueller und interaktiver Elemente einbeziehen muss, um online für die Leser attraktiv zu sein (vgl. auch Diemand et al. 2007). Traditionelle Medienhäuser verlängern ihre Produkte in das Internet, mit dem Ziel, das eigentliche Produkt jeweils zu stützen und die online generierbaren Erlöse für sich zu gewinnen. Dort treten sie in einen Wettstreit mit den Angeboten anderer Medien und reiner Internetanbieter. Um Werbeeinnahmen zu erwirtschaften, müssen Angebote für ein breites Zielpublikum interessant sein, was hohe Produktionskosten für audiovisuelle, animierte oder interaktive Inhalte nach sich zieht. Es kann daher kaum verwundern, dass sich die großen Medienhäuser und Internetserviceprovider intensiv Gedanken über im Netz erfolgreiche Geschäftsmodelle machen.22 21 »Macht und Geld im Cyberspace« ist der Titel des ausgezeichneten Überblickes zum »Weltgipfel zur Informationsgesellschaft« von Wolfgang Kleinwächter, in dem die Rolle der für das Netz maßgeblichen Institutionen sowie deren Intentionen ausgiebig diskutiert wird, vgl. Kleinwächter 2004. 22 Zu onlinebasierten Geschäftsmodellen, insbesondere im künstlerischen Bereich vgl. auch die Analysen von Karin Wehn zu Webanimationen (vgl. Wehn 2003), Machinima (vgl. Wehn 2003 [2005]) und »Youtube.com« (vgl. Gugel/Wehn 2006, Teil 3). Speziell zur Verbindung zwischen Ökonomie und Netzliteratur vgl. Werber 2003b. Zu aktuellen Diskussionen um die Beziehung zwischen Technik, ›Ideologie‹, Regulierung und Ökonomie des Dispositiv vgl. auch den
DISPOSITIV-KONZEPT | 187
(4) Wahrnehmungscharakter und Rezeptionssituation: In der Diskussion um das Dispositiv Kino wurde stets besonders hervorgehoben, dass seine gesamte Anordnung besonders gestaltet ist, um eine illusorische Wirkung beim Zuschauer zu erzielen. Einerseits wird im Kino ein Realitätseindruck erschaffen, andererseits wird die Künstlichkeit der so erzeugten Wirklichkeit versteckt. Diese Ambivalenz ist besonders prägend für das Dispositiv (vgl. etwa Hick 1992). Wie verhält sich dies im Internet, insbesondere bei der Netzkunst? Charakteristika der filmischen und fernsehtypischen Ästhetik werden nicht nur für Animationen im Netz, sondern auch für Aspekte der Netzliteratur zunehmend relevanter, je mehr die Projekte bestimmte Elemente des Audiovisuellen einbauen. Ein gutes Beispiel ist etwa das Projekt »Spätwinterhitze« von Frank Klötgen, das explizit als interaktiver Internetkrimi angelegt ist. Damit bezieht sich Netzliteratur nicht mehr nur auf die Tradition des geschriebenen Wortes, das von vornherein viel stärker auf die phantasievolle Eigenleistung des Rezipienten angelegt ist. Vergleicht man das Netzdispositiv mit dem Kinodispositiv im Hinblick auf Bewegtbilder, können daraus resultierend jedoch zwei gegenläufige Entwicklungen ausgemacht werden. Als Distributionsmedium über Breitbandverbindungen wird das Netzdispositiv zum Vertrieb hochauflösender Filme benutzt, die mehr und mehr der Qualität von DVDs oder sogar dem HDTVStandard genügen. Entsprechende Angebote werden gemeinhin unter dem Stichwort »Video on Demand« geführt und von den großen Telekommunikationsunternehmen bereitgestellt. Diese Anbieter verwenden das Netz damit als Konkurrenz zur klassischen Ausleihe von DVDs in der Videothek oder dem DVD-Leihservice von Versendern wie »amazon.com«. Mit Hinblick auf die in dieser Arbeit verwendete Abgrenzung von Netzliteratur kann adäquat formuliert werden: Hierbei wird das Netz nur zur Distribution und Ausstrahlung von Inhalten genutzt, die ursprünglich für ein ganz anderes Dispositiv produziert wurden. Damit ist diese Verwendung des Netzes nicht als dispositivaffin einzustufen. Stattdessen verschmelzen die Dispositive DVD-Video und Netz zu einer Version des Fernseh-Dispositivs, was hier nicht weiter diskutiert wird. Während über das Netz als breitbandiger Distributionskanal immer hochauflösendere Videodaten versendet werden können, lässt sich gleichzeitig auch der Gegentrend feststellen. Zunehmend werden kleine Empfangsgeräte wie Mobiltelefone oder Handheld-Spielkonsolen für den Abruf von Internetinhalten verwendet. Da diese aber nur über kleine Speicher und Displays verfügen sowie die Daten nach übertragener Menge abgerechnet werden, besteht weiterhin die Notwendigkeit für verkleinerte und komprimierte Videoformate. In typischen Büroumgebungen werden darüber hinaus ›Shorts‹, also Filme mit nur wenigen Minuten Länge, zur Unterhaltung rezipiert, die in kleinen umfassenden Sammelband Hofmann 2006. Zur grundsätzlichen Diskussion der Internet-Ökonomie vgl. schließlich Baumann/Schwender 2000; Rifkin 2000; Roesler 2002; Castells 2005. Ein gutes Beispiel für das Interesse traditioneller Medienhäuser und internetbasierter Inhaltsanbieter stellt die im Oktober 2003 erstmals publizierte Studie »Deutschland Online« dar, vgl. Wirtz 2008. Sie wird in enger Zusammenarbeit mit der Telekom AG, einem der größten europäischen Telekommunikationskonzerne, erarbeitet und auch von der Telekom herausgegeben. Damit kann die Untersuchung, die 2007/2008 zum fünften Mal durchgeführt wurde, aber nicht zweifelsfrei als unabhängig eingestuft werden.
188 | DER DIGITALE AUTOR
Fenstern auf dem Computerbildschirm laufen. Zudem bringen alle Empfangsgeräte auf Computerbasis gleichzeitig den Bedarf an interaktiven Elementen in Animationen mit sich. Gerade interaktive Animationen aber setzen Merkmale des Dispositivs ein und werden extra für dieses produziert. Sie sind damit typisch für das Netzdispositiv und werden im Folgenden vergleichend zum Kinodispositiv diskutiert. Kennzeichen des Dispositivs Internet sind, was die ›bewegten Bilder‹ betrifft, vor allem das andersartige Abspielgerät und die deutlich veränderte Rezeptionssituation. Die Wiedergabe erfolgt zumeist auf einem kleinen, deutlich umgrenzten Bildschirm oder sogar nur auf einem Bildschirmausschnitt. Der Bildschirm selbst strahlt und bietet somit eine andere Wahrnehmung als die Kinoleinwand, die das Bild reflektiert. Die Bildqualität ist oftmals besonders schlecht, weil die Videos und Animationen nur sehr gering aufgelöst, framereduziert und die Filme hoch komprimiert sind. Bei der Videokompression wird mit deutlich verlustbehafteten Verfahren komprimiert, die zu störenden Bildartefakten und Bildunschärfen führen. Auf typischen Bürocomputern oder mobilen Empfangsgeräten wird der (normalerweise ebenfalls komprimierte) Sound nur von qualitativ schlechten Lautsprechern wiedergegeben. Die Rezeptionssituation unterscheidet sich zudem völlig vom Kino. Zumeist ist der Raum, in dem rezipiert wird, nicht abgedunkelt, oder es wird sogar unter freiem Himmel geschaut. Webvideos oder -animationen werden oftmals alleine angesehen, keinesfalls aber in einer sozialen Situation wie bei einem Kinobesuch. Bei einem Computer erfolgt die Rezeption auf einem eher unbequemen Stuhl, in größter Nähe zum Bildschirm und zumeist in ›aktivierter‹ Arbeitssitzhaltung; im Freien muss sogar oft gestanden werden. Diese Bedingungen führen dazu, dass das Dispositiv Internet jegliche illusorische Wirkung bzw. die »faszinative Fesselung des Filmrezipienten« (Hick 1992: 190) von vornherein nahezu ausschließt. Bewegte Bilder haben sich im Internet stattdessen in der Form von Animationen durchgesetzt, die mit speziellen Netztechniken (am populärsten dem Flash-Format) arbeiten und damit besonders auf deutliche Datenreduktion setzen. Basierend auf Comics und Cartoons sind Netzanimationen vor allem gekennzeichnet durch: • Einsatz von Vektorgrafiken und vektorbasierten Animationsalgorithmen (was schnelle Rechner voraussetzt), • Reduktion der Farben und der zu animierenden Bildausschnitte, • Reduktion der ›Frames‹ (meist 10-15 Bilder pro Sekunde), • Beschränkung auf maximal fünf Minuten Laufzeit sowie • Beschränkung auf relativ kleine Bildformate. Dazu tritt das völlig neue Element der Interaktivität. Der Benutzer kann direkt in den Film eingreifen, den Fortgang der Handlung selbst bestimmen oder gar das Geschehen komplett nach seinen Wünschen gestalten. Grenzen zum Computerspiel werden dabei bewusst aufgelöst bzw. Elemente dessen direkt in die ›Shorts‹ integriert. Es wird deutlich, dass Internet-Animationen eine völlig neue Form der »bewegten Bilder« darstellen, sie haben sich längst zu einem vieldiskutierten Massenphänomen (vgl. dazu Wehn et al. 2000 ff.) entwickelt. Webtoons, die von Karin Wehn als »dirty, extreme, outrageous« (Wehn 2002b) eingeschätzt wurden und entsprechende Clips auf Videoplattformen, erfreuen sich gerade in typischen Büro-Umgebungen größerer Beliebtheit. Sie sind als die eigentliche Zukunft der ›bewegten Bilder‹ im Internet anzusehen, womit auch klar wird, dass das Kino keinesfalls durch das
DISPOSITIV-KONZEPT | 189
Netz ›angegriffen‹, sondern eher durch dieses bereichert wird. Internet-Animationen haben (im Rahmen von Animationsfestivals) mittlerweile auch den Weg auf die große Leinwand gefunden (zu den Perspektiven für Kinoveranstalter vgl. auch Wehn 2003). Adäquat werden Clips von Videoplattformen in speziellen Fernsehformaten gezeigt, wobei der Fokus wiederum auf besonders extremen, lustigen oder befremdlichen Inhalten liegt.
6.5.3 Synthese der Strukturmodelle Das Modell von Hickethier erinnert nicht von ungefähr an das von Siegfried J. Schmidt entwickelte Medienmodell (vgl. Kapitel 2.3.1). Wie in einer Gegenüberstellung der Begrifflichkeiten deutlich wird, stimmen die beiden Modelle in ihren Kategorisierungen teilweise sogar überein: Abbildung 8: Gegenüberstellung der zentralen Vorstellungen, die vom Dispositiv-Konzept nach Hickethier und dem Medienmodell nach Schmidt jeweils integrativ verbunden werden Dispositivmodell nach Hickethier
Medienmodell nach Schmidt
Technischer Charakter
Medientechnologien
Institutionscharakter
Medien-Organisationen
Marktcharakter
-
Wahrnehmungscharakter und Rezeptionssituation
Medienangebote
-
Kommunikationsinstrumente
Quelle: Hickethier 1993c: 24-25; Schmidt 2003: 354-355 Unterstützt wird diese Rekonstruktion schließlich auch von Werner Faulstich, der sogar zehn Modellvorstellungen nennt, die in der Mediengeschichtsschreibung verfolgt würden. Diese lauten: Annalistische Mediengeschichte23, Mediengeschichte als Technikgeschichte, Personen- und Theoriegeschichte, Institutionen- und Organisationsgeschichte, Sozialgeschichte, Kunst- und Ästhetikgeschichte, Wahrnehmungsgeschichte, Produkt-, Stil- und Genregeschichte, Rezeptionsgeschichte sowie Funktionsgeschichte (vgl. Faulstich 2002: 155-197). Anstelle dieser isolierten Betrachtungen schlägt er eine Mediengeschichte als umfassende historiografische Konstruktion vor. Damit schaltet er um von der Geschichte der Einzelmedien zur Geschichte der Mediensysteme bzw. des Medienverbundes24 (vgl. ebd.: 198-204). Faulstichs Beitrag ist in 23 Eine Rekonstruktion der mediengeschichtlichen Entwicklung anhand einer Zeittafel von gegenstands- oder themenrelevanten Daten, vgl. Faulstich 2002: 162. 24 Faulstich schreibt, die Geschichtsschreibung anhand von Einzelmedien kritisierend: »Was hier ausgeblendet bleibt, ist die Verflechtung […] mit anderen Medien der Zeit, also das Gefüge der gesamten Medienkultur. Erst in einer solchen holistischen Perspektive, die alle Medien zusammen und übergreifend als ein komplexes Vermittlungssystem begreift, können konkurrierende, verstärkende, komplementäre und sonstige Beziehungen der Medien untereinander angemessen gewichtet und auf ihre kulturell-soziale Funktionen hin interpretiert werden.« (Ebd.: 197) Dies kann durchaus als ein Plädoyer für das Dispositivmodell
190 | DER DIGITALE AUTOR
Zusammenhang mit einer jüngeren, grundsätzlichen Debatte um Mediengeschichtsschreibung zu sehen, in die sich auch die Konzeption des Dispositivs als Vorschlag einreiht. Ohne auf die genauen Details dieser Debatte oder Faulstichs Modell selbst intensiver eingehen zu können (vgl. dazu Hickethier 2003: 359-361), sei auf eine interessante Parallele verwiesen. Auch diese beiden Modelle stimmen in ihren Kategorisierungen teilweise überein; Faulstich führt aber noch einige zusätzliche Kategorien auf: Abbildung 9: Gegenüberstellung der zentralen Vorstellungen, die vom Dispositiv-Konzept nach Hickethier und dem Medienmodell nach Faulstich jeweils integrativ verbunden werden Dispositivmodell nach Hickethier
Modelle der Mediengeschichtsschreibung nach Faulstich
Technischer Charakter
Technikgeschichte
Institutionscharakter
Institutionen- und Organisationsgeschichte
Marktcharakter
Produkt-, Stil- und Genregeschichte
Wahrnehmungscharakter und Rezeptionssituation
Kunst- und Ästhetikgeschichte Wahrnehmungsgeschichte Rezeptionsgeschichte
-
Annalistische Mediengeschichte
-
Personen- und Theoriegeschichte
-
Sozialgeschichte
-
Funktionsgeschichte
Quelle: Hickethier 1993c: 24-25; Faulstich 2002: 198-204 Die Modellvergleiche sollen zwei Schlussfolgerungen unterstützen. Zum einen kann Hickethiers vereinfachte Modellierung als vom Forschungsdiskurs legitimiert angesehen werden. Das Dispositiv erscheint damit als Modell, das eine integrative Analyse ganz verschiedener Faktoren eines Mediums ermöglicht, wie es derzeit insbesondere von der Mediengeschichtsschreibung angestrebt wird. Zum anderen scheint es nahezu unmöglich, eine knappe, aber vollständige Kategorisierung nach allen maßgeblichen heterogenen Faktoren aufzustellen. Eine entsprechende Modellierung kann daraus resultierend nur selektiv erfolgen, wobei sich die Darstellung aus Anschlussgründen vor allem auf die Vorarbeiten im Zusammenhang mit dem Dispositivmodell stützt.
von einem Wissenschaftler verstanden werden, der das Modell ansonsten nicht vertritt. Die Analyse von Beziehungen zwischen verschiedenen Dispositiven ist dem Modell nämlich inhärent. Vgl. beispielhaft etwa die Arbeiten von Knut Hickethier zum Verhältnis zwischen den Dispositiven Fernsehen und Kino, vgl. Hickethier 1995; Hickethier 1997; Hickethier 2001 sowie überblickend Hickethier 2003: 186-201. Vgl. auch eine Analyse von Karin Wehn des Phänomens »Machinima« als Verbindung der Dispositive »Computer« und »Puppentheater«, vgl. Wehn 2003 [2005].
DISPOSITIV-KONZEPT | 191
Für die beabsichtigte Analyse der Beziehung zwischen Autor und Dispositiv Internet werden die Kategorisierungen von Michel Foucault und Knut Hickethier zusammengefasst und ergänzt. Für die vorliegende Untersuchung wird ein vierteiliges Kategoriensystem vorgeschlagen, das zum einen das Dispositiv möglichst umfassend beschreibt, zum anderen aber auf die für den Autor maßgeblichen Phänomene fokussiert ist. Ziel des Modells soll explizit keine enzyklopädische Diskussion des Dispositivs in allen seinen heterogenen Faktoren sein, sondern die Anwendung auf den konkret hier spezifizierten Fall der literarischen Autoren im Internet. Damit liefert die vorliegende Untersuchung einen Diskussionsvorschlag, wie eine weiter gefasste Dispositivanalyse aussehen könnte. Zu diesem Zweck scheint es sinnvoll, die von Foucault und Hickethier herausgestellten Elemente bzw. Modelle zunächst unter den drei Kategorien »philosophische Faktoren«, »(Software-)technische Faktoren« und »rechtliche Faktoren« zusammenzufassen. Der nur von Hickethier benannte Marktcharakter des Dispositivs wird im Folgenden als eigenständige Kategorie gefasst, da er ganz maßgeblich die Struktur desselben beeinflusst. Hickethiers analytische Kategorie »Wahrnehmungscharakter und Rezeptionssituation« wird dagegen im Rahmen dieser Arbeit nicht weiter diskutiert. Sie ist vornehmlich dem Handlungsbereich der Rezeption zuzuordnen, Gegenstand der Untersuchung ist aber explizit der Autor und damit der Handlungsbereich Produktion. Die Nicht-Diskurse sind als Arbeit der Autoren, der Distributoren, der Leser und Verarbeiter von Netzliteratur zu erfassen. Dabei verbindet die Arbeit – wie bereits ausgeführt – die heterogenen Elemente des Dispositivs und nimmt damit eine Sonderstellung ein. Die Nicht-Diskurse werden, insoweit sie als Autor-Tätigkeit und damit wiederum als literarische Produktion erfassbar sind, ausführlich im anschließenden Kapitel diskutiert. Abbildung 10: Gegenüberstellung des Kategoriensystems der vorliegenden Arbeit mit den Faktoren/Modellen nach Foucault und Hickethier Kategorien nach Hartling
Faktoren/Modelle nach Hickethier und Foucault
Philosophische Bedingungen
Diskurse Philosophische, moralische, philanthropische Lehrsätze Wissenschaftliche Aussagen
(Software-)Technische Bedingungen
Administrative Maßnahmen Architekturale Einrichtungen Technischer Charakter
Ökonomische Bedingungen
Marktcharakter
Rechtliche Bedingungen
Gesetze Institutionen Reglementierende Entscheidungen
-
Nicht-Diskurse (Arbeit)
-
Wahrnehmungscharakter und Rezeptionssituation
Quelle: Foucault 1978: 119; Hickethier 1993c: 24-25
T EIL C. S TRUKTURIERUNG DER A UTORSCHAFT DURCH DAS D ISPOSITIV I NTERNET
7 RAHMENBEDINGUNGEN IM NETZ
DER
AUTORSCHAFT
Im vorangegangenen Kapitel wurde das Dispositiv-Konzept für das Dispositiv Internet exemplifiziert, sowohl in der zeitlich veränderlichen (diachronen) Entwicklungsperspektive als auch in Form des synchronen Strukturmodells. Das Modell kann aber auch – eingeschränkt – mit dem Phänomen Autorschaft über das Dispositiv Autor verbunden werden. Dadurch sind das Dispositiv Internet und das Phänomen Autorschaft ähnlich dispositiv-förmig gekoppelt. Die dispositivitären Strukturen des Netzes beeinflussen in hohem Maße die Figurationen von Autorschaft im Internet. Umgekehrt wird das Netzdispositiv durch die Online-Autoren in eingeschränkter Weise rekonfiguriert. Im Folgenden werden die Strukturierungen der Online-Autorschaft durch das Dispositiv Internet detailliert und ausgiebig diskutiert. Es werden die Rahmenbedingungen der Online-Autorschaft dargestellt, indem analysiert wird, wie die zentralen Faktoren des Netzdispositivs die literarische Produktion beeinflussen. Damit werden die tatsächlichen Produktionsbedingungen von Autoren im Internet diskutiert. In der vorangegangenen knappen Darstellung des Dispositivs Internet als Strukturmodell wurde vor allem auf die mehrschichtige Produktionsweise der großen Contentanbieter verwiesen, da diese das Dispositiv am stärksten strukturieren. Bezogen auf den Autor in der Netzliteratur ist allerdings ein Wechsel des Blickwinkels notwendig, weg von dem hoch differenzierten Produktionskomplex und hin zur ›ganzheitlichen‹ Produktionsweise eines einzelnen Autors oder eines kleinen Teams. Dieser Blickwechsel bedeutet dabei zugleich eine Verlagerung des Fokus’ vom ›Mainstream‹ der Internetdienstleister hin zu den alternativen Medienöffentlichkeiten und der Netzkunst. Damit wird der Blick auf einen Teilbereich des Dispositivs gerichtet, der allerdings modellhaft für Analysen anderer Bereiche steht. Wie im vorherigen Kapitel erarbeitet, wird dabei im Folgenden auf vier zentrale Bedingungsbündel des Dispositivs Internet fokussiert: Philosophische Bedingungen1 (Kapitel 7.1), (software-)technische Bedingungen (Kapitel 7.2), ökonomische Bedingungen (Kapitel 7.3) und rechtliche Bedingungen (Kapitel 7.4).
1
Vorab eine Metabemerkung zur Begriffswahl der »philosophischen Bedingungen«. Damit ist nicht die (komplexe) medienphilosophische Forschung zum Internet etwa von Frank Hartmann oder Mike Sandbothe angesprochen. Referiert wird mit dieser Begriffswahl auf vortheoretische Normen und Werte, die von den meisten Netzliteraten geteilt werden und den Hintergrund ihrer künstlerischen Arbeit bilden. Zum Teil werden diese Werte von den Autoren sogar programmatisch so explizit vertreten und verteidigt, dass hier tatsächlich von einer ›Philosophie‹ gesprochen werden kann.
196 | DER DIGITALE AUTOR
7.1 Philosophische Bedingungen der Autorschaft Internet-Autoren haben ganz unterschiedliche poetologische Anknüpfungspunkte und programmatische Schwerpunkte. So knüpfte Reinhard Döhl mit seinen frühen Netzarbeiten an die Experimente der visuellen und konkreten Poesie an, während sich Johannes Auer auf das Kunstkonzept Marcel Duchamps bezog. In ihrer netzliterarischen Zusammenarbeit vereinigten sich so die Paradigmen Bild und Text. Der Netzmusiker Michael Iber referiert (neben Duchamp) vor allem auf den Komponisten John Cage. Susanne Berkenheger dagegen baut ihre Arbeiten zumeist auf Einfällen auf, die sich aus der Alltagswahrnehmung speisen. Ähnliches gilt für den wissenschaftlichen Diskurs, der sich um die Netzliteratur entsponnen hat. Wissenschaftler gehen je mit ihrem persönlichen Interesse und dem Interessensspektrum des eigenen Fachgebietes an die Materie heran. Die literarische Produktion ist damit in ihrer Komplexität vielfältiger und facettenreicher als es im Rahmen dieser Arbeit dem Gegenstand angemessen diskutiert werden kann. Es lassen sich jedoch zwei Bündel von Normen und Werten feststellen, die bei aller Differenziertheit von allen Literaten geteilt werden und in der wissenschaftlichen Analyse somit implizit immer mit beobachtet werden. Zum einen umfassen diese Normen und Werte die Selbstzuschreibung als so genannte ›Netizen‹ innerhalb einer Netzkultur. Zum zweiten ist damit ›Open Source‹ als eine der Haupt›ideologien‹ des Netzes angesprochen. Beide Bündel werden im Folgenden als zentrale Bestandteile der netzliterarischen Poetologie diskutiert.
7.1.1 Netizen Der Begriff Netizen ist etwas aus der Mode gekommen; im allgemeinen ›Netzsprachgebrauch‹ des World Wide Webs ist er nach dem Platzen der Dotcom-Blase (ab März 2000) selten geworden. Damit hängt zusammen, dass die von ihm umfassten Werte und Selbstverständnisse in der kommerzialisierten Version des Internets keinen Platz zu haben scheinen. Ironisch mutet allerdings an, dass gerade der Boom von Open Source sehr wohl positiv konnotiert ist. Dabei handelt es sich aber um ein Phänomen, das ureigen mit Prinzipien der Netizen zusammenhängt und ohne diese schlechterdings undenkbar wäre. Das Kunstwort vereinigt »net« für das Internet, womit also sowohl strukturell als auch historisch mehr als das WWW und das Usenet gemeint ist, und »citizen« für den politisch interessierten und engagierten Bürger. Der solchermaßen angesprochene Netzbürger rezipiert nicht einfach nur die Medienangebote des Internets, sondern bringt sich verändernd in das Dispositiv ein. Er entwickelt neue Software, setzt neue Unternetze auf (wie etwa Bürgernetze), er hilft Anfängern im Netz (den »Newbies«), publiziert sein Spezialwissen zu bestimmten Themen usw. Diese Rolle übernimmt und diese Aufgaben erfüllt er freiwillig und ehrenamtlich, da er das Netz und die Netzcommunity, also die Gesamtheit aller am Internet angeschlossenen Personen, insgesamt befördern will. Eine etwas präzisere, aber nun schon veraltete Definition des Netizens haben Michael und Ronda Hauben in ihrem bekannt gewordenen Buch »Ne-
RAHMENBEDINGUNGEN DER AUTORSCHAFT IM NETZ | 197
tizens. On the History and Impact of the Net« (Hauben/Hauben 1997)2 veröffentlicht: »This definition is used to describe people who care about Usenet and the bigger Net and work towards building the cooperative and collective nature which benefits the larger world. These are people who work towards developing the Net.« (Hauben/Hauben 1996, Preface) Eine Aktualisierung dieses Netizen-Begriffs schlägt Inke Arns in ihrem Buch über »Netzkulturen« vor, mit dem sie eigentlich vor allem auf die Praktiken des Netzgebrauches abzielen will. Allerdings personalisiert sie diese Analyse konsequent und hat damit vor allem auch eine Analyse der Netizen in den 1990er Jahren vorgelegt. Sie beschreibt die Netizen und ihre Praktiken als alternative Strömung gegenüber dem ›restlos durchkommerzialisierten Netz‹ (vgl. Arns 2002: 11) und definiert Netizen (indirekt) als: »Netzkulturen […], die sich vor allem mit den politischen, künstlerischen und sozialen Dimensionen des Internet auseinander setzen und in Opposition zu dessen Kommerzialisierung stehen.« (Ebd.) Diese drei Definitionen3 beschreiben also einen sehr idealistischen »Netzbürger«, der in seiner normativen Formulierung stark von der tatsächlichen Realität eines konsumierenden Netzusers abzuweichen scheint. Wie aber Hauben und Hauben bereits 1996 zeigten und Arns 2002 bestätigte, sind das Internet in seiner heutigen Gestalt und auch das World Wide Web kaum denkbar ohne ein Jahrzehnt der Dominanz von Netizen. Das Dispositiv wurde in den 1980er Jahren maßgeblich durch die Arbeit der Netizens geformt und befördert. Diese strukturierenden Aufgaben wurden mit dem WWW allmählich auf den kommerziellen Sektor übertragen, Netizen waren aber weiterhin tätig, allerdings mit immer eingeschränkteren Einflussmöglichkeiten. Diese kritische Sicht auf die Kommerzialisierung des Netzes ist theoretisch vor allem mit Lawrence Lessig (vgl. kürzlich Lessig 2006) und Volker Grassmuck (vgl. Grassmuck 2004) verbunden. Arns folgt in ihrer Argumentation vor allem Grassmuck. Für die beiden bildete der Übergang von den 1970er zu den 1980er Jahren gleichzeitig eine wichtige Wende im Dispositiv. Zum ersten übernahmen akademische Institutionen in stärkerem Maße den Ausbau des damaligen ARPANETs und lösten damit die militärischen Geldgeber ab. Mittelfristig ging diese Entwicklung mit der Abspaltung des militärischen MILNET im Jahr 1983 einher (vgl. Grassmuck 2004: 190). Zum zweiten wuchs das Netz sowohl national als auch international; mit Hilfe des TCP/IP-Protokolls war dabei die Integration bestehender Netzwerke möglich. Dieses Wachstum vornehmlich durch akademische Einrichtungen bot aber drittens für Studenten und Doktoranden an universitären Einrichtungen einen 2
3
Dieses Buch wurde und wird gemeinhin unter dem Kurztitel »Netizens Netbook« gefasst und stellt eine der ersten umfassenden Einführungen in die Entwicklung und Geschichte des Internets dar. Es perspektiviert vor allem auf die Sicht seiner aktiven Benutzer und das damals noch viel dominantere Usenet. Im Netz befindet sich eine dem Buch textidentische HTML-Fassung, aus der im Folgenden zitiert wird, vgl. Hauben/Hauben 1996. An dieser Stelle wäre auch eine vierte Publikation zu nennen. In »Dark Fiber« entwickelt der Netztheoretiker Geert Lovink in Fallstudien ebenfalls eine Geschichte der Netizen, die er mit der Analyse ausgewählter Aspekte der Netzkultur verbindet. Damit begründet er seine bereits ältere Analysemethode der »Netzkritik«, die von wissenschaftlich fundierten Netizens, den »virtuellen Intellektuellen«, umzusetzen sei, vgl. Lovink 2003.
198 | DER DIGITALE AUTOR
einfachen Zugang zu vernetzten Computern. Jene konnten in einer Atmosphäre der akademischen, selbstbestimmten Forschungsarbeit relativ problemlos eigene Netzanwendungen programmieren. Der damit verbundene Modus von experimenteller Erforschung der technischen Möglichkeiten wurde zudem viertens noch durch die allmählich anwachsende Verfügbarkeit von Computern für private Nutzer unterstützt. Die ersten IBM-PCs (1981) und Apples (1977) wurden produziert und waren vor allem für ›seriöse‹ Anwendungen gedacht. Ebenso wie diese konnten aber auch preislich darunter angesiedelte ›Spielcomputer‹ wie etwa der Commodore 64 (1982) oder der Atari 400 und 800 (1979) mit anderen Computern verbunden werden. Dies geschah über ein Telefonmodem oder dessen Vorgänger Akustikkoppler4. Mit diesen technischen Entwicklungen ging eine deutliche Verschiebung der Nutzerschicht einher, hin zu akademischen Nutzern und privaten Technikenthusiasten. Diese nutzten die noch unreglementierten Freiheiten zum Aufbau eigener Systeme. Mit dem Usenet und den Mailbox-Systemen standen zwei große Entwicklungen beispielhaft für viele andere. Beiden gemeinsam war, dass sie auf keinen dauerhaften Anschluss an das ARPANET angewiesen waren. Damit wurden auch keine Standleitungen zum Internet benötigt, was in den 1980er Jahren für den privaten Anwender schlechterdings außerhalb seiner Möglichkeiten lag. Stattdessen reichten temporäre Verbindungen über das Telefonnetz aus, um Usenet-Nachrichten, E-Mails oder Forenbeiträge abzurufen. Das Usenet wird zumeist als das »ARPANET des armen Mannes«5 (Hauben/Hauben 1996, Kapitel 2) oder als ein »Internet-weites schwarzes Brett« (Arns 2002: 17; vgl. dazu näher Patalong 2001) beschrieben, beides Analogien, die nur Teilaspekte ansprechen. Stattdessen war das Usenet bereits zu ARPANET-Zeiten, aber auch während des WWW-Booms, stets ein sehr beliebter Kommunikationsdienst; zudem ist es viel komplexer strukturiert als ein einfaches Schwarzes Brett. Es erlaubte von Anfang an eine gleichberechtigte, asynchrone Kommunikation und Diskussion zwischen seinen Teilnehmern, die dem klassischen Server-Client-Modell (oder ›Sender-Empfänger‹Modell) des späteren WWW überlegen war. Das Netzsystem war und ist in hohem Masse selbstorganisiert und -reguliert. Dies schlägt sich im Großen in der Einrichtung von Hierarchien, Kategorien und Diskussionsgruppen nieder. Im Kleinen wird die Selbstorganisation vor allem anhand der regelmäßig in den Gruppen gesendeten Kommunikationsregeln (›Netiquette‹) deutlich. Das hochkomplexe Ordnungssystem sortiert und organisiert eine enorme Vielzahl von Interessen und mehrere Millionen von Nutzern auf effizientere Art und Weise als das WWW es leistet.6 Von Vorteil ist zudem die dezentrale Struktur des Usenets; es ist sowohl gut skalierbar als auch schlecht zensier4
5
6
Ein Akustikkoppler wird allerdings nicht direkt an das Telefonnetz angeschlossen wie ein Modem, sondern indirekt über den Telefonhörer. Dazu dient ein Gegenstück, das über den Hörer gestülpt werden kann. Hauben/Hauben bieten zudem eine ausführliche Diskussion des Usenets, die zwar mittlerweile schon ›historisch‹ ist, aber weiterhin einen guten Überblick über die kommunikationsspezifischen Grundlagen liefert. So besuchen Fans des »Star Trek«-Franchises (die so genannten ›Trekkies‹) einfach die Gruppe »alt.tv.star-trek« und wählen eine der Untergruppen (sortiert anhand der fünf Serien), um Usenet-Benutzer zu erreichen, die ebenfalls »Star Trek«-Fans sind. Im World Wide Web wäre zunächst eine relativ aufwendige Suche nach der derzeit aktivsten Web-Community vonnöten.
RAHMENBEDINGUNGEN DER AUTORSCHAFT IM NETZ | 199
bar. Schließlich ist die Archivierungssituation eine sehr viel bessere als beim World Wide Web. Die Firma »Dejanews« hat 1995 damit begonnen, einen Großteil des Usenets zu archivieren und im WWW bereitzustellen. 2001 wurde dieses Archiv von Google aufgekauft und seitdem unter dem Markennamen »Google Groups« fortgeführt. Der Dienst erlaubt nicht nur die Anzeige von Usenet-Beiträgen im WWW, sondern auch das webbasierte Schreiben von Beiträgen, die in das Usenet übertragen werden; er finanziert sich durch themenrelevante Werbeeinblendungen. Damit stellt das Usenet aber nicht nur eine einfache Kommunikationsplattform dar, sondern bildet auch ein Nachschlagewerk bei manchmal sehr spezifischen Themenstellungen. Bei aller Kommerzialisierung der Verwertung ist es vor allem als ein Dienst zu erfassen, der von der ehrenamtlichen Arbeit engagierter Netizen zeugt. Neben der (Selbst-)Organisation des Kommunikationsgeschehens (vgl. oben) nehmen sich diese vor allem der inhaltlichen Diskussion an. So beantworten Netizen zeitnah Anfragen mit teilweise hoher Fachkenntnis. Für neue Besucher (›Newbies‹) verfassen und posten sie FAQ (»Frequently Asked Questions«), die des Öfteren auch den Weg in das WWW finden. Diese inhaltliche Arbeit hat dem Usenet einen vergleichsweise guten Ruf als Recherchewerkzeug eingebracht. Parallel zum »Usenet« boomten aber in den 1980er Jahren auch die Mailbox-Systeme und die Bürgernetze (vgl. Arns 2002: 18-19). Ebenso wie beim Usenet handelte es sich dabei zunächst um vom Internet unabhängige Kommunikationsstrukturen, die aber anders als das Usenet viel stärker privat betrieben wurden. Mailboxen liefen typischerweise auf privaten Computern und waren oft nur in den Nachtstunden erreichbar. Die Kontaktaufnahme erfolgte per Datenfernübertragung (DFÜ) über das Telefonnetz, auch die Mailboxen standen untereinander in Kontakt und konnten somit Nachrichten von Usern verschiedener Boxen übermitteln. Typischerweise enthielten Mailboxen öffentliche Diskussionsforen und Möglichkeiten zum Download von Programmen. Darüber hinaus wurden aber auch private E-Mails weitergeleitet. Bürgernetze entstanden schließlich durch den Zusammenschluss mehrerer Mailboxen und boten eine echte Alternative zum Internet. Erst Ende der 1980er Jahre wurden über Gateways allmählich Verbindungen zum Internet geschaffen. Wiederum war es das hohe, zumeist unentgeltliche Engagement von Netizens, die solche Netzstrukturen erst ermöglichten. Dies fing bei der Bereitstellung der eigenen Rechnerhardware und Telefonleitung an, ging über das Schreiben der dazu notwendigen Software und endete bei der inhaltlichen Betreuung der so entstandenen ›kleinen Medien‹ (vgl. ebd.: 8-10). Die Idee hinter diesem Engagement wird gemeinhin unter dem Stichwort »Geschenkökonomie« (ebd.: 24) gefasst. Nutzer stellen einander Infrastruktur und Inhalte frei und unentgeltlich zur Verfügung. Da dieses Prinzip allzeit auf Gegenseitigkeit beruht, hat jeder Nutzer zu allen Inhalten aller anderen Nutzer stets freien Zugang. Damit erhält der Einzelne mehr, als er jemals selbst produzieren könnte, sein ehrenamtliches Engagement zahlt sich immer aus (vgl. dazu auch ebd.: 24-29). Dass dieses Prinzip aber nur funktioniert, solange sich alle Beteiligten tatsächlich einbringen und die Offenheit von allen eingehalten wird, liegt auf der Hand. Inke Arns stellt in ihrem Buch vor allem den politischen, sozialen und kulturellen Aktivismus heraus, der von dieser Form von Bürgernetzen befördert wurde (vgl. dazu ebd.: 18-19) und fasst dies unter der Bezeichnung
200 | DER DIGITALE AUTOR
»Grassroot-Netzwerke«7. Damit spielt sie zu Recht auf die Tatsache an, dass engagierte Netizen nie nur ›neutrale‹ Technik einrichten und verwalten. Stattdessen verbinden sie ihr Engagement stets auch mit gemeinsam geteilten politischen und gesellschaftlichen Werten, die zumeist vom Mainstream der gesellschaftlichen Diskussion abweichen. Problematisch erscheint ein Zug in ihrer Darstellung, der »Netzkulturen« (ihr Begriff für die Praktiken der Netizen) vor allem auf die Extreme zu reduzieren scheint. Sie rekurriert des Öfteren auf politischen Aktivismus, auf öffentlichkeitswirksame Aktionen sowie auf gesellschaftskritische Projekte. Es scheint, als ob ein normales Engagement (aktuell etwa die Mitarbeit in der »Wikipedia«) sich mit diesem Anspruch selbst diskreditiert, weil es nicht ›revolutionär‹ genug ist. Oder umgekehrt gewendet, Netzengagement und Netizentum beginnt offenbar nicht erst mit einem ›virtuellen sit-in‹.8 Damit waren die 1980er Jahre stark geprägt vom Engagement der Netizen für das Internet, und viele der heutigen ›philosophischen‹ Werte entstammen dieser Zeit. Auseinandersetzungen etwa um die Frage des freien Zugangs zu Informationen sind nur durch den experimentellen, offenen Geist dieser Jahre zu verstehen. Mit dem World Wide Web hielten seit Mitte der 1990er Jahre die kommerziellen Anbieter Einzug in das Internet, auch der Ausbau der Netze ging von der akademischen Hand in die kommerzielle über. Dies war zunächst eine kaum negativ zu beurteilende Entwicklung, konnten die professionellen Telekommunikationsunternehmen doch viel effizienter und billiger das Problem des Zugangs für eine explosionsartig wachsende Nutzerschar lösen. Mit der zunehmenden gesellschaftlichen Bedeutung des Netzes drangen aber immer mehr ›Newbies‹ und Firmen in das Netz, womit sich die Nutzerschicht noch einmal nachhaltig änderte. Auch diese Neuankömmlinge waren ein Grund für den Bedeutungsverlust der Netizen. Schließlich übernahmen die kommerziellen Inhaltsanbieter mit dem Boom des World Wide Webs eine führende Rolle in der Gestaltung des Dispositivs. Insbesondere von den Netizen wurden und werden aber deren Bestrebungen, das Netz vornehmlich zu einem kostenpflichtigen Distributionskanal für Medienangebote umzubauen, oft kritisch gesehen. Dies schlägt sich nicht zuletzt in dem bissigen Titel der »Datenherren« nieder, mit dem Volker Grassmuck (vgl. Grassmuck 2004: 81) in Anlehnung an Helmut F. Spinner9 diese traditionellen Inhaltanbieter bezeichnet. Kritisiert wird an den Distributoren vor allem, dass sie die traditionelle Geschenkökonomie der Netizen torpedieren und als »Kostenlos-Kultur« diffamieren würden. Zu den Boomzeiten des World Wide Webs waren Netizen weiterhin präsent, nahmen aber immer weniger die Bereitstellung der normalen Infrastruktur war. Seitdem geht es ihnen vor allem um die Verbreitung freier Software (›Open Source‹, vgl. den folgenden Abschnitt), die Verbreitung frei zugänglichen Wissens (›Open Access‹, »Wikipedia«, vgl. den Abschnitt zu den technischen Bedingungen) sowie die Einflussnahme auf reglementierende Ent7
8 9
Unter »Grassroot«- oder Graswurzelbewegungen werden Initiativen politischer, kultureller oder gesellschaftlicher Art verstanden, die ›von unten‹ entstehen, also direkt aus dem Volk heraus. Zum Phänomen »Netzaktivismus« vgl. weiterführend auch Hillgärtner 2001; Arns 2004. Der Wissensphilosoph Helmut F. Spinner hatte den Begriff »Datenherren« in seinem 1998 erschienen Buch »Die Architektur der Informationsgesellschaft« geprägt, vgl. Spinner 1998.
RAHMENBEDINGUNGEN DER AUTORSCHAFT IM NETZ | 201
scheidungen rund um das Internet. Letztere Zielstellung stellt aber eine tatsächliche Parallele zu dem politischen Engagement des normativ verstandenen Bürgers in der Offline-Welt dar. Ein auch in der traditionellen Medienberichterstattung bekannt gewordenes Beispiel dafür ist der »Chaos Computer Club e.V.«. Dieser insbesondere von Hackern getragene Verein hat sich vor allem die Förderung der Informationsfreiheit und des »Menschenrechts auf Kommunikation« zum Ziel gesetzt. Deutlich weniger öffentliche Wahrnehmung erfährt die selbsternannte Online-Demonstrations-Plattform »ODEM«, die allgemein die Förderung der »Menschen- und Bürgerrechte im digitalen Zeitalter« beabsichtigt. Die Initiative engagierte sich so im Rahmen des »Weltgipfels zur Informationsgesellschaft« (2003-2005). Das von ODEM initiierte satirische Webprojekt »FreedomFone« führte zu einer heftigen gerichtlichen Auseinandersetzung, in der es um die im Netz hochbrisante Konfrontation von Zensur und Informationsfreiheit ging (vgl. dazu den Abschnitt zu den rechtlichen Faktoren). Mit ihrer Gegenüberstellung von ›Netzkulturen‹ und ›Durchkommerzialisierung‹ zeigt Arns aber auf, dass die Netizen in der Gegenwart zwar nicht verschwunden ist, aber eben nur noch eine Minderheit darstellt. Diese Minderheit kann das Dispositiv im Ganzen damit nicht mehr in dem Maße wie früher beeinflussen, hat trotzdem weiterhin eine gewichtige Bewegung im Netz inne (vgl. Arns 2002: 24-41). Netzliteraten verstehen sich selbst als engagierte Netizen und verteidigen deren Ideale heftig.10 Auch die Wikipedianer11 oder Open source-Aktivisten arbeiten – ehrenamtlich und unentgeltlich – an Alternativen zu den traditionellen, vornehmlich kommerziellen Wissensund Wirtschaftsmodellen. ›Pikant‹ ist dabei, dass die Ideale gerade der Open source-Bewegung zwar nicht den gesellschaftlichen Mainstream darstellen, deren Früchte in Form von freier Software aber sehr wohl. Davon wird im nächsten Abschnitt die Rede sein.
7.1.2 Open Source/Freie Software Der Begriff »Open Source« war ursprünglich genau wie das damit verbundene wirtschaftliche Modell nur für Software gedacht. Der (ältere) Konkurrenzbegriff »Freie Software« sowie die (jüngere) vermittelnde Alternativdefinition »Free/Libre Open Source Software« (FOSS) werden hier nicht verwandt, weil sie stärker auf Software fokussieren, als das im Rahmen dieser Untersuchung angebracht ist. Eine detailliertere Darstellung der Definitionsstreitigkeiten hat Volker Grassmuck vorgelegt (vgl. Grassmuck 2004: 230-232). Entwickelt wurde das Konzept einer freien Software in den 1980er und 1990er Jahren in Abgrenzung zur vorherrschenden ›Closed Source‹ oder proprietären12 Software. Mit dem Konzept sollten in der Softwareproduktion
10 Vgl. etwa die Bestrebungen der Netizen und Netzliteraten, alternative ökonomische Modelle gegenüber den traditionellen Wertschöpfungsketten der großen Internetdienstanbieter und Medienhäuser zu etablieren (Kapitel 7.3). 11 Als Wikipedianer bezeichnen sich die aktiven Autoren, die bei der freien Enzyklopädie »Wikipedia« mitarbeiten. 12 Das Adjektiv »proprietär« betont im juristischen Sinne den urheberrechtlichen Schutz von geistigem Eigentum. Von der Open Source-Bewegung und nahestehenden Organisationen wird es etwas entgegen der Ursprungsbedeutung benutzt, um das ›nicht Freie‹ von traditionellen Lizenzen herauszustellen. Damit
202 | DER DIGITALE AUTOR
bestimmte Freiheiten (wieder) etabliert werden, die von den großen Softwarefirmen wie Microsoft (auch heute noch ein großer Gegner der Bewegung) eingeschränkt wurden. Programmcode sollte frei eingesehen, verändert und verteilt werden können. Nach der Definition des »GNU Projects« umfasste dies folgende vier Freiheiten: »Die Freiheit, das Programm für jeden Zweck zu benutzen (Freiheit 0). Die Freiheit, zu verstehen, wie das Programm funktioniert und wie man es für seine Ansprüche anpassen kann (Freiheit 1). Der Zugang zum Quellcode13 ist dafür Voraussetzung. Die Freiheit, Kopien weiterzuverbreiten, so dass man seinem Nächsten weiterhelfen kann (Freiheit 2). Die Freiheit, das Programm zu verbessern und die Verbesserungen der Öffentlichkeit zur Verfügung zu stellen, damit die ganze Gemeinschaft davon profitieren kann (Freiheit 3). Der Zugang zum Quellcode ist dafür Voraussetzung.« (GNU Project 1996 ff.)
Die Eigenschaft des »Freien« bezog sich dabei auf diese vier Freiheiten; nicht notwendigerweise verbunden war damit die Forderung, dass Programme kostenlos abzugeben seien: »›frei‹ wie in ›freier Rede‹, und nicht wie in ›Freibier‹« (ebd.). Damit sollten enorme Vorteile sowohl für die Benutzer von Software als auch für Softwareautoren einhergehen. Anhand freigelegter Codezeilen lernen üblicherweise Programmierer das Handwerk bzw. trainieren ihr Wissen. Sobald Code frei zugänglich ist und auch frei wieder verwendet werden kann, wird der Aufbau von Codebibliotheken möglich. Damit vermeiden Coder aber, dass sie für dieselben Aufgaben ständig neuen Code schreiben müssen, also oftmals ›das Rad neu erfinden‹. Die Freiheiten ermöglichen auch, dass ein Programm den eigenen Wünschen gemäß angepasst und sogar verbessert werden kann. Letzteres wird vor allem bei Programmfehlern immer wieder deutlich, die zu Sicherheitslücken führen können. Befürworter von Open Source stellen heraus, dass solche Fehler bei Open Source viel schneller behoben werden können als bei »geschlossener« Software, da es viel mehr ›Entwickler‹ gibt. Mit diesen Vorteilen hat sich Open Source aber als ernstzunehmendes Gegenmodell zur klassischen Art der Softwareproduktion in den großen Softwarehäusern entwickelt (vgl. Grassmuck 2004: 230-249). Gleichzeitig stellt Open Source und die damit verbundene Geschenkökonomie auch einen wirtschaftlichen Gegenentwurf dar. Die freie Verwendbarkeit von Open Source bewirkt resultierend nicht allein einen Fortschritt in der Softwareproduktion, sondern führt zu einer Unabhängigkeit von den wirtschaftlichen Interessen der großen Softwareproduzenten und -distribuenten. War der Begriff Open Source zunächst vor allem auf Software bezogen, wird er heute auch auf Wissen und Informationen allgemein angewandt, zumeist unter der adaptierten Bezeichnung ›Open Content‹. In dieser zweiten Bedeutung wird der Begriff als ›philosophisches Konzept‹ von Netzliteratur wird jede Form von Software als proprietär bezeichnet, die ›nicht frei‹ im Sinne von Open Source oder Freier Software ist. 13 Mit dem Begriff ›Quellcode‹ oder (synonym) ›Quelltext‹ wird der Text eines Computerprogramms bezeichnet, der für den Menschen lesbar ist und vor der Ausführung erst noch in ein computerlesbares Format übersetzt werden muss. Letzteres wird als ›Maschinencode‹ bezeichnet.
RAHMENBEDINGUNGEN DER AUTORSCHAFT IM NETZ | 203
auch in der vorliegenden Arbeit verwendet. Die Grundlagen sowie die mittlerweile komplexen und zahlreichen Anwendungen des Konzeptes sind hinlänglich breit dokumentiert. Deshalb seien die entsprechende Sekundärliteratur bzw. die wichtigsten Akteure an dieser Stelle nur knapp skizziert. Das im deutschsprachigen Raum einschlägigste Standardwerk stellt das Buch »Freie Software« von Volker Grassmuck dar (vgl. Grassmuck 2004). Es ist in einer korrigierten zweiten Auflage bei der »Bundeszentrale für politische Bildung« erschienen und kann zudem kostenlos von deren Webseite heruntergeladen werden. In seiner ausführlichen Darstellung beschreibt Grassmuck vor allem die Entwicklung von Freier Software als Gegenentwurf zum traditionellen Urheberrecht. Er diskutiert en détail die Hintergründe und Strukturen der kollaborativen Softwareproduktion. Schließlich versteht er sein Buch auch als Plädoyer für freies Wissen. Volker Grassmuck ist selbst bereits lange Jahre in der Erforschung und Vermittlung Freier Software tätig; er ist Mitglied in der einschlägig aktiven »mikro«-Initiative und Mitorganisator der Konferenzreihe »Wizards of OS«, die sich explizit mit Fragen Freier bzw. Open Source-Software beschäftigen.14 Sein englischsprachiger Counterpart ist Lawrence Lessig, US-amerikanischer Juraprofessor und Gründer der »Creative Commons«-Initiative. Er stellt einen der international renommiertesten und aktivsten Fürsprecher des ›Open Source‹ bzw. ›Open Content‹ Gedankens dar. In seinem Buch »Code« vertritt er die These, dass der Cyberspace nicht allein durch rechtliche Reglementierungen, politische und moralische Normen sowie die Entscheidungen des Marktes strukturiert und reguliert wird. Stattdessen reguliere sich das Internet durch seine Architektur bereits selbst. Diese Selbstregulation von innen wäre aber einer von außen vorzuziehen. Bemerkenswert ist, dass die zweite Auflage seines Standardwerkes – Lessig nennt es stringent auch »Version 2.0« – in einem kollaborativen Editierverfahren vorbereitet wurde, bei dem jeder Internetnutzer in einer Wiki-Fassung selbst mitschreiben konnte. Das Buch ist als PDF über Lessigs Website (vgl. Lessig 2000 ff.) downloadbar und unterliegt einer offenen Lizenz (vgl. Lessig 2006). Ebenfalls frei zugänglich ist das seit 2004 jährlich erscheinende »Open Source Jahrbuch«, das einen exzellenten Überblick über den jeweils aktuellen Stand der Forschung bietet (vgl. Gehring/Lutterbeck 2004; Bärwolff et al. 2005; Bärwolff et al. 2006; Bärwolff et al. 2007; Bärwolff et al. 2008). Flankiert werden die bisher besprochenen Titel durch Untersuchungen zu spezifischen Aspekten von Open Source. Erik Möllers Buch »Die heimliche Medienrevolution« diskutiert etwas euphorisch die Chancen von Open Source, insbesondere von Wiki und Weblog-Systemen, und liefert eine Vielzahl von Beispielen (vgl. Möller 2006). Droussou et al. versammeln eine Reihe von Konferenzbeiträgen zum Thema »Open Innovation« (vgl. Drossou et al. 2006). Dabei stellen sie vor allem heraus, dass das Open Source-Konzept enorme Potentiale in der Wissensvermehrung freisetzen kann. Die hohe Bedeutung des Thema Open Source in der gesellschaftlichen Debatte wird schließlich evident, weil es in der normativen politischen Bil14 In der Einleitung seines Buches beschreibt Grassmuck ausführlich seine Hinwendung zum Thema und liefert einen ausführlichen Bericht der eigenen Aktivitäten, der von »mikro« sowie der Konferenzreihe »Wizards of OS«. Dies aber stellt eine Art Historie der akademischen Diskussion um Freie und Open Source-Software in Deutschland dar. Zu Grassmuck selbst vgl. Grassmuck 2000 ff.
204 | DER DIGITALE AUTOR
dung reflektiert wird. Die »Bundeszentrale für politische Bildung« hat neben Grassmucks Buch auch einen praxisorientierten Leitfaden zum »Urheberrecht im Alltag« (vgl. Djordjevic et al. 2008) im Programm; daneben bietet sie seit Januar 2007 ein umfangreiches Dossier zum Thema auf ihrer Webseite an (vgl. Bundeszentrale für politische Bildung 2007). Open Source und Open Content wären undenkbar ohne die internationalen, zumeist webbasierten Initiativen, die diese alternativen Modelle entwickelt haben und sie propagieren. Das »GNU-Project«15 unterstützt und propagiert zusammen mit der ihm eng verbundenen »Free Software Foundation« seit 1984 die Entwicklung freier Software. Der auch außerhalb des Netzes berühmt gewordene Gründungsvater der Initiative, Richard Stallmann, prägte die Idee, dass Freie Software nicht notwendigerweise umsonst sein müsse, sondern besondere Freiheiten zu gewähren habe (vgl. GNU Project 1996 ff.). Auch die bekannteste und beliebteste Lizenz für Freie Software, die »GNU General Public Licence« (GPL) wurde 1989 von GNU geschaffen. Eng verbunden mit GNU ist das freie Betriebssystem »Linux«, dessen Kern bereits seit 1993 unter der GPL steht. Während sich das »GNU-Project« vor allem auf die Entwicklung von Software-Lizenzen konzentriert, erarbeitet die Initiative »Creative Commons« verschiedene Lizenzen für Inhalte ganz unterschiedlicher Art und Weise. Die Idee dahinter ist, dass jeder Autor oder Künstler für sich selbst entscheiden kann, wie viele seiner Urheber- und Verwertungsrechte er frei gibt.16 Gestartet wurde diese Bewegung, wie bereits erwähnt, von Lawrence Lessig (im Jahr 2001), sie ist maßgeblich mit den von ihm propagierten Ideen und Werten verbunden. Lawrence Lessig sieht vor allem die eingrenzenden Auswirkungen auf die Kunst, die das traditionelle Urheberrecht hat. Mit Hinblick auf die historische Entwicklung des Urheberrechts konstatiert er, dass der Fortschritt einer Gesellschaft ganz notwendigerweise auf dem freien Zugang zu den Werken der Vergangenheit beruht. Gesellschaften aber, die diesen freien Zugang verwehren, würden sich seiner Analyse nach am Ende selbst schaden: »Creativity and innovation always builds on the past. The past always tries to control the creativity that builds upon it. Free societies enable the future by limiting this power of the past. Ours is less and less a free society.« (Lessig 2002)
Lizenzen beider Initiativen eignen sich für die freiere Lizenzierung von Inhalten, wobei auch diese Lizenzen den urheberrechtlichen Schwierigkeiten nicht völlig ein Ende setzen. So ist oft eine Zusammenführung von Werken, die nicht dieselbe freie Lizenz aufweisen, legal ausgeschlossen, da beide Lizenzformen jeweils andere (auch freie) Lizenzen ausschließen. Eine Lösung besteht etwa in der Mehrfach-Lizenzierung desselben Werkes, das dem Nutzer des Werkes frei stellt, unter welcher Lizenz er das Werk weiterverwendet. Ein Beispiel dafür ist etwa Florian Cramers Studie »Words Made Flesh«, die 15 Vgl. auch die Website von »GNU«. 16 Jeder Autor oder Künstler kann über die Website von »Creative Commons« die für ihn passende Lizenz erstellen lassen, auf der Basis der für ihn gültigen (Landes-)Rechtsordnung. Dabei muss er nicht alle Urheber- und Verwertungsrechte an seiner Arbeit abtreten, sondern kann bestimmte Einschränkungen festschreiben. Vgl. die Website von »Creative Commons«.
RAHMENBEDINGUNGEN DER AUTORSCHAFT IM NETZ | 205
sowohl unter einer »GNU«-Lizenz als auch einer »Creative Commons«Lizenz freigegeben ist (vgl. Cramer 2005: 3). Auch in Forschung und Wissenschaft haben die Ideen und Ideale der Open Source-Initiative (wieder) Einzug gehalten. Die ebenfalls internationale »Open Access«-Bewegung will erreichen, dass wissenschaftliche Literatur und Materialien frei zugänglich im Netz abrufbar sind. Institutionalisiert ist sie etwa in der »Budapest Open Access Initiative« (BOAI)17, die seit 2001 tätig ist, oder in der 2003 verabschiedeten »Berlin Declaration on Open Access to Knowledge in the Sciences and Humanities« (vgl. o. N. 2003a). Grundlage ihrer Bemühungen bildet die Tatsache, dass das traditionelle akademische Wissensmodell dem Open Source-Ideal ähnlich ist und Open Source nicht zuletzt aus dem akademischen Modell heraus entwickelt wurde. Allerdings sind diese Freiheiten durch die Inhaltsverwerter eingeschränkt worden und sollen im Zuge der Open Access-Bewegung erneut etabliert werden. Dazu tritt die Tatsache, dass ein hoher Teil der wissenschaftlichen Literatur bereits ›bezahlt‹ ist und damit grundsätzlich frei zur Verfügung stehen könnte. Zum einen werden Forschungsprojekte von Universitäten oder den klassischen Drittmittelgebern gefördert. Zum anderen müssen Wissenschaftler als Teil ihrer Qualifikation und Reputationsbildung publizieren, was sie üblicherweise neben ihrer normalen Anstellung erledigen. Diese Tätigkeit wird zumeist nicht extra vergütet, da wissenschaftliche Publikationen oft nur einen geringen Abnehmerkreis haben. Ganz im Gegenteil müssen Autoren für die Publikationen einen finanziellen Beitrag leisten, wenn sie einen so genannten Druckkostenzuschuss an den Verlag zu entrichten haben.18 Dadurch sind es meist allein die Distributionskosten des klassischen Printmediums, die bei einer nur geringen Zahl von absetzbaren Exemplaren den Preis von wissenschaftlicher Literatur oftmals so hoch treiben, dass der Zugang nur ökonomisch gut gestellten Bibliotheken vorbehalten bleibt. Dies kann zu der paradoxen Situation führen, dass eine Universität zwar einen publizierten Beitrag ›bezahlt‹, der von einem ihrer Angestellten mit ihrer Infrastruktur erforscht und verfasst wurde. Sie kann die Ergebnisse seiner Forschung aber nicht für die Studierenden und anderen Lehrenden zur Verfügung stellen, weil die veröffentlichende Zeitschrift aufgrund des hohen Preises nicht oder nicht mehr bezogen wird. Damit aber, so argumentieren die Vertreter von Open Access, würden allein die ökonomischen Absichten der Verwerter befriedigt, die Interessen von Forschung und Wissenschaft würden dagegen in hohem Maße beschädigt. Mit Lessig gesprochen, baut gerade der wissenschaftliche Fortschritt auf den Ergebnissen der Vergangenheit auf. Ein Verschluss dieser Ergebnisse blockiere aber die Weiterentwicklung, weil ›das Rad immer wieder neu erfunden werden müsse‹. Eine Lösung würde die Internetpublikation bieten, weil hier unabhängig von Verlagsstrukturen Informationen frei zugänglich veröffentlicht werden könnten (vgl. dazu ausführlicher Herb 2006a; Herb 2006b).19 So unterstützt die »Deutsche Forschungs17 Vgl. die Webseite der »BOAI«, insbesondere die »FAQs«. 18 Dies ist zum Beispiel gängige Praxis bei der Veröffentlichung von Promotionsschriften. 19 Zum Problem des Zugangs zu Informationen bzw. der Beschränkung des Zugangs vgl. auch die einflussreiche Studie »Access« von Jeremy Rifkin, vgl. Rifkin 2000. Ein jüngerer Sammelband bietet eine Reihe von Interviews mit den wichtigsten Open Source-Aktivisten und -Forschern zum Thema Open Access, vgl. Dobusch/Forsterleitner 2007.
206 | DER DIGITALE AUTOR
gemeinschaft« (DFG) inzwischen nachdrücklich den offenen Zugang zu wissenschaftlichem Wissen (vgl. DFG 2005). Diese Frage des Zugangs trifft in hohem Maße aber auch auf die theoretische Diskussion um Netzliteratur zu. Es gab vor allem bei der journalistischen und akademischen Reflexion eine ganze Reihe von Projekten, die in Open Source-Manier ehrenamtlich und unentgeltlich entwickelt und gepflegt wurden. Viele der zu den euphorischen Boomzeiten des Internets und der Netzliteratur gestarteten Seiten aber haben kaum oder gerade noch den zehnten Geburtstag der deutschsprachigen Netzliteratur erlebt. Die Herausgeber des »Berliner Zimmers« (vgl. Ortmann/Peter 1998-2006), zeitweise eines der wichtigsten Literaturportale im deutschsprachigen Internet, stellten im Oktober 2006 ihre Arbeit an dem Projekt ein. Es ist zwar weiterhin noch online zugänglich, wird aber nicht mehr aktualisiert. Als Begründung verwiesen die Herausgeber auf die zeitlichen Grenzen eines ehrenamtlichen Engagements; sie konstatierten zudem, dass künstlerische und journalistische Anerkennung im Netz eben nicht unmittelbar mit ökonomischem Erfolg einhergeht: »Doch unsere Lebenssituation hat sich über die Jahre geändert. Sabrina Ortmann ist beim DIW Berlin als PR-Referentin beschäftigt und Enno E. Peter hat sich als Marketingberater selbständig gemacht. Da bleibt leider für ein derart aufwendiges Projekt, das finanziell kaum die Kosten einspielte, kein Raum mehr.« (Ortmann/Peter 2007)
Das gleiche Schicksal schien im Jahr 2006 auch »dichtung-digital« zu drohen, anerkanntermaßen das einflussreichste und meistzitierte E-Zine zur digitalen Literatur. Nach einem Jahr ohne Beiträge und ohne Nachricht, ob und wie es mit der Zeitschrift weitergeht, erschien erst im Mai 2007 eine neue Ausgabe, die für das Jahr singulär blieb. Auch im Jahr 2008 wurde nur ein Heft veröffentlicht, daher bleibt abzuwarten, ob sich die vermutlich darunterliegenden ökonomischen Probleme zukünftig dauerhaft lösen lassen. Es wird aber deutlich, dass Open Source-Denken und -Handeln letztendlich doch querfinanziert oder subventioniert werden muss und dadurch an das normale Wirtschaftssystem angekoppelt ist. »Netzliteratur.net«, das als Gegenmodell zu »dichtung-digital« aufgebaut wurde (vgl. Fröde et al. 2004a), ist weiterhin aktiv und stellt somit ein gutes Beispiel für ein Open Source-Projekt dar, das eine gewisse Dauerhaftigkeit erreicht hat. Allerdings sind damit offenbar auch die Grenzen einer solchen Produktion angesprochen. Während das »Berliner Zimmer« und »dichtung-digital« originäre Inhalte anboten und noch anbieten, verweist »netzliteratur.net« nur auf bereits publizierte Texte oder hält Zweitveröffentlichungen vor. Der damit verbundene, überschaubare Zeitaufwand ist für die Herausgeber offenbar besser ›nebenbei‹ zu leisten, als die enorm zeitaufwendige Herausgabe eines E-Zines (vgl. Hartling 2007b). Open Source und Open Access bilden für viele Netzliteraten also einen ›philosophischen‹ Hintergrund ihres Schaffens, insbesondere weil sie sich meist selbst als Netizen sehen. Sie stehen den Bestrebungen der großen Internetdienstanbieter skeptisch gegenüber, mit den Inhalten (›Content‹) im Internet maximalen Gewinn schöpfen zu wollen und dabei die Rechte der Nutzer (›Käufer‹) eher zu beschneiden. So erklärt sich die enorme und auch sprachlich bissige Ablehnung entsprechender Versuche, wie im nächsten Abschnitt diskutiert wird. Sicherlich bildet die zumeist kostenlose Open Source-Software auch pragmatisch für Netzliteraten mit geringem Einkommen eine sehr
RAHMENBEDINGUNGEN DER AUTORSCHAFT IM NETZ | 207
willkommene Alternative zu preislich hoch angesiedelten, proprietären Produkten. Mit Hinblick auf die immer aufwendigere Produktion von Netzliteratur wird zudem, wie Susanne Berkenheger im Interview herausgestellt hat, die Zusammenarbeit zwischen mehreren Autoren immer wichtiger (vgl. Fröde et al. 2005, Clip »Antworten« | »Berkenheger - Geld«). Dies wird aber sowohl technisch als auch rechtlich in hohem Masse durch Open SourceSoftware befördert, da auch die Verteilung von Software durch freie Lizenzen gedeckt ist. Diese Art und Weise der Softwareproduktion kann sich selbstverständlich nicht mit der hoch arbeitsteiligen und komplexen Entwicklung etwa des Betriebssystems Linux messen. Volker Grassmuck beschreibt aber detailliert, dass ein Produktionsablauf in Open Source-Manier auch bei kleineren Projekten zu vielversprechenden Ergebnissen führen kann. Darüber hinaus teilt er die Meinung der Open Source-Befürworter, dass die so entstandene Software qualitativ besser ist als proprietäre Programme (vgl. Grassmuck 2004: 233-258). In der freien Softwareproduktion werden Technologien der kollaborativen Arbeit erprobt und verfeinert, die auch bedeutsam für die gemeinschaftliche Produktion von Inhalten sind. Entsprechende Projekte sind vor allem auf Herstellung von pragmatischen (Text-)Inhalten angelegt, erst zögerlich halten diese Technologien in die Kunstproduktion Einzug. Über das Internet vermittelte pragmatische Textproduktion in Open Source-Manier ahmt bereits erfolgreich die Techniken und Prozeduren der Softwareproduktion nach, die schon früher stets notwendigerweise kollaborativ waren. Einige (bekannte) beispielhafte Umsetzungen des Open SourceGedankens sollen dies illustrieren. Im kleineren, deutschsprachigen Projekt »open theory« etwa werden theoretische Texte rund um Open Source erarbeitet. Diese Plattform kann allgemein als kulturwissenschaftlich orientiert angesehen werden, auch wenn es keine Themenbeschränkungen gibt. Die journalistische Medienplattform »Indymedia« dagegen vernetzt global eine ganze Reihe von Initiativen und unabhängigen Journalisten. Ihr erklärtes Ziel ist es, eine alternative Medienöffentlichkeit zu schaffen, die mit den traditionellen Medien konkurriert. Ebenfalls als Alternative begreifen sich wikibasierte Lexika und Enzyklopädien, wobei die »Wikipedia« das mit Abstand prominenteste und einflussreichste Projekt darstellt. Diese konkurriert mit den traditionellen Nachschlagewerken in Buchform, aber auch mit elektronischen Varianten auf CD-ROM oder auf (geschlossenen) Webplattformen. Weblogs sowie deren Gesamtheit »Blogosphäre« werden des Öfteren als Mittel eines alternativen »Grasswurzel«-Journalismus angesehen, was eher kritisch zu betrachten ist. Als besonders an der Blogosphäre kann ihre effektive Vernetzung von Einzel-Autoren angesehen werden. Die sehr komplexen Blogs wie »Slashdot« bieten ausgefeilte und effektive Mechanismen zur Qualitätssicherung bei außergewöhnlich hohen Nutzer- und Postingzahlen. Schließlich existiert mit dem »Open Directory Project« (ODP) auch eine Open SourceAlternative zu den traditionellen Webkatalogen. Von den Technologien kollaborativer Textproduktion im Allgemeinen sowie »Wikipedia« und »Slashdot« im Besonderen soll im folgenden Kapitel die Rede sein.
208 | DER DIGITALE AUTOR
7.2 Technische Bedingungen der Autorschaft Die technischen Bedingungen des Internets umfassen, wie weiter oben bereits skizzenartig dargestellt, eine sehr komplexe Apparatur mit Bestandteilen für Produktion, Distribution und Rezeption der Inhalte. Jeder Bestandteil umfasst sowohl eine Hardware- als auch eine Softwarekomponente. Bezogen auf Autoren (Handlungsbereich der Produktion) kann die Hardware vernachlässigt werden, weil die hardwareseitige Infrastruktur zumeist bereits vorausgesetzt werden muss und kaum von Autoren verändert werden kann. Anders herum gewendet, stellt die Neukonstruktion oder Modifizierung einer HardwareInfrastruktur vor der eigentlichen Produktion von Inhalten nur in den seltensten Fällen einen Teil der künstlerischen Arbeit dar.20 Damit konzentriert sich die Diskussion der technischen Bedingungen an dieser Stelle auf die Softwareseite und hier auf die Elemente, die für die tatsächliche Produktion relevant werden. Es wird zunächst knapp das weiterhin vorherrschende »ServerClient-Prinzip« dargestellt, bevor es um die Diskussion von Wikis und Weblogs als neue Formen der Textproduktion geht.
7.2.1 Server-Client-Prinzip Im Internet herrscht vor allem das »Server-Client«-Prinzip als grundlegendes Kommunikationsparadigma vor, auch wenn daneben weitere Paradigmen existieren, die hier nicht näher diskutiert werden.21 Dieses bildet das klassische »Sender-Empfänger«-Modell aus den traditionellen elektronischen Massenmedien nach22, wobei der »One-to-many«-Sendemodus vorherrscht. Mit ›Server‹ ist dabei ein Computer, oder spezieller ein auf ihm laufendes Programm23, gemeint, das permanent auf Anfragen aus dem Netz wartet. Bei Ankunft einer solchen Anfrage wird diese ausgewertet und die jeweils angeforderten Daten an den entsprechenden Empfänger geliefert. Serverprogramme können dabei sehr unterschiedliche Inhalte bereitstellen. So existieren etwa spezielle Videoserver-Anwendungen24, die auf das differenzierte Streamen von Videos je nach der Empfänger-Bandbreite beim Empfänger spezialisiert sind. Auf der anderen Seite stehen Client-Computer oder -programme, die Daten von Servern anfordern, diese empfangen und für den Benutzer aufbereiten (›rendern‹). Solche Client-Programme bilden beispielsweise WWWBrowser, die nach Eingabe eines »Uniform Resource Locators« (URL) den
20 Dies gilt etwa für Performances, die an Orten ohne funktionierendes Netzwerk veranstaltet werden. In diesen Fällen, wo erst ein Netz aufgebaut werden muss, geht es aber meist um die Herstellung einer klassischen Netzinfrastruktur zwischen einzelnen Rechnern bzw. den Anschluss an das Internet. Dieser Fall kann als eher triviales Hardwareproblem vernachlässigt werden. 21 Ein alternatives Beispiel wäre etwa das »Peer-to-Peer«-Prinzip des Datenaustauschs, was vor allem von Tauschbörsen genutzt wird. 22 Hierbei wird explizit auf die technische Grundkonstellation der elektronischen Massenkommunikation referiert, nicht aber auf das tatsächliche Modell der massenmedialen Kommunikation. 23 Das bekannteste Webserver-Programm ist die Open Source-Software »Apache«, welche von der »Apache Software Foundation« entwickelt wird. 24 Ein bekanntes Beispiel ist der Streaming-Server »Helix DNA Server« der Firma »Real Networks«.
RAHMENBEDINGUNGEN DER AUTORSCHAFT IM NETZ | 209
Quelltext der entsprechenden Seite anfordern, dazugehörige Dateien herunter laden und alle Daten als Webseite auf dem Bildschirm darstellen. Dieser grundlegende Kommunikationsmodus wurde bereits vor der Etablierung des ARPANETs als zentrales Paradigma in das Medium Computer ›eingegossen‹ und für das spätere Dispositiv einfach übernommen. So bildeten die (später vernetzten) Großrechner die Server, während die kleinen Terminals, die Daten abschicken und empfangen konnten, die Clients darstellten. Damit wurde bereits zu Beginn ein Machtverhältnis in das Dispositiv festgeschrieben, das im späteren WWW weiterhin gültig war und auch in der WWW-Gegenwart noch einen zentralen Kommunikationsmodus bildet. Nur der Webserver kann in diesem Modell Informationen ›senden‹, der einzelne Client bleibt weitestgehend auf den ›Empfang‹ beschränkt.25 Ein Rückkanal vom Empfänger zum Sender war nicht systematisch vorgesehen und musste jeweils unter großen Schwierigkeiten etabliert werden. Doch auch dann war eine ›echte‹ gleichberechtigte Kommunikation nicht möglich. Diese Anordnung führte die klassischen Ordnungen der vorhergehenden (Massen-)Medien fort26 und zementierte vor allem das asymmetrische (Macht-)Verhältnis zwischen Autor und Leser im Internet. Wie bereits knapp ausgeführt hatte Tim Berners-Lee als ›Vater‹ des World Wide Webs diesen Mangel des Internets frühzeitig erkannt. Er war bei der Konzeption seiner ersten Browser-Anwendung der Ansicht, dass Webseiten nicht nur angezeigt werden, sondern stets auch einfach zu ändern sein sollten. Diese Ansicht basierte auf den frühen Hypertext-Konzepten, die auf eine Trennung zwischen Autor und Leser abhuben. Von den Entwicklern entsprechender Anwendungen verlangte er konsequent, dass die Browser auch eine Editier-Funktion besitzen sollten. Diese Forderung wurde allerdings nie umgesetzt, was von Berners-Lee rückblickend dahingehend gedeutet wurde, dass es ökonomisch interessanter war, den Nutzern Inhalte zu zeigen als diesen eine eigene Inhaltsproduktion zu ermöglichen (vgl. Berners-Lee 1999: 91-92). Damit aber kann diese Lücke als erstes Anzeichen einer Kommerzialisierung des Netzes angesehen werden. Im World Wide Web wurde also von Anfang an die Separation von Autor und Leser strukturell immer wieder neu hergestellt. Projekte und Anwendungen, die eine kollaborative Arbeit darüber realisieren wollen, mussten und müssen sich zum Teil aufwendiger Alternativlösungen bedienen. Die Herausgeber solcher kollaborativen Projekte behalten aber durch ihre Verfügungsgewalt zum Webserver27 auch die Kontrolle über den Text, die Entscheidungsmacht darüber, was publiziert wird und was nicht. Mittlerweile wurde eine ganze Reihe von Programmen veröffentlicht, die einen von Berners-Lee vorgeschlagenen Editier-Modus aufweisen. Eines der bekannteren ist das Programm »Contribute«, das 2003 erstmals veröffentlicht
25 Diese Einschätzungen gelten für im World Wide Web gespeicherte Dokumente, die über das HTTP-Protokoll abgerufen werden können und entsprechend ähnliche Dienste im Internet, die auf eine eher dauerhafte Publikation von Inhalten ausgelegt sind. Reine Kommunikationsdienste wie E-Mail oder Chatanwendungen sind damit nicht angesprochen. 26 Diese Bewertung gilt sowohl für Printmedien als auch für die elektronischen Medien. 27 Die Veränderung von Daten auf einem Webserver erfordert einen FTP-Zugang, der aus Sicherheitsgründen zumeist regelmäßig passwortgeschützt ist.
210 | DER DIGITALE AUTOR
wurde.28 Dieses Programm vereinigt alle Funktionen, die für die Publikation und Änderung von Webinhalten notwendig sind. So kann es erstens Webseiten anzeigen, erlaubt zum zweiten eine intuitive Bearbeitung im WYSIWYGModus und kann drittens die Änderungen per FTP im Web auch veröffentlichen. Dazu treten eine ganze Reihe einfacher »Content Management«-Funktionen wie Benutzerverwaltung, Dokumentation und Archivierung der Änderungen, Vorlagenverwaltung usw. Damit eignet sich das Programm auf den ersten Blick scheinbar sehr gut für eine gleichberechtigte kollaborative Produktion. Auf den zweiten Blick aber werden eine ganze Reihe von Einschränkungen evident. So sorgt die Benutzerverwaltung vor allem für eine strikte Trennung zwischen einem Administrator mit umfassenden Rechten und abgespeckten Editor- oder Autorkonten. Dies stellt aber kaum eine gleichberechtigte Arbeitsumgebung her. Das Programm läuft »Client«-seitig, kann also nur an Maschinen verwendet werden, auf denen es auch installiert wurde. »Contribute« ist proprietär und hat eine strikte Lizenzierungspolitik. Da jeder Benutzer über eine eigene, teure Lizenz verfügen muss, würde ein Webprojekt mit vielen Autoren schnell sehr kostspielig. Mit diesen Merkmalen platziert sich diese (und vergleichbare) Software vor allem als ein bequem zu bedienendes Editiertool für bereits existierende Webseiten, das von einem oder wenigen Webmastern benutzt wird. Keinesfalls kann es aber die Anforderungen an eine echte kollaborative Produktion erfüllen. Diese Einschätzung stellt keinen normativen Vorwurf an die Hersteller der Software dar, sondern beschreibt ein Resultat aus der dispositivären Anordnung: Publikation der Seite durch eine ›normale‹ WebserverSoftware, ›Schreiben‹ per Upload mittels FTP-Programm sowie ›Lesen‹ per Download über den Browser. Diese Trennung kann von »Contribute« oder ähnlichen Programmen aber nicht grundsätzlich aufgelöst werden. Daraus lässt sich schlussfolgern, dass auch der generelle »Server-Client«-Publikationsmodus des WWWs mit der damit verbundenen Trennung zwischen Autor und Leser auf diese Weise clientseitig nicht überwunden wird. Einher geht die Tatsache, dass Autoren mit einem starken Autorverständnis an dieser Trennung auch gar nichts ändern wollen. So ist ein Grossteil der deutschsprachigen Netzliteratur eben konsequent nicht kollaborativ angelegt, weil die Autoren die uneingeschränkte Kontrolle über das literarische Werk ausüben. Die Rezipienten dieser Projekte aber sollen sich in diesen Fällen auch nicht selbst an der Produktion beteiligen. Seit Mitte der 1990er Jahre29 werden mit Wiki- und Weblog-Anwendungen Lösungen des Publizierungsproblems auf der Server-Seite entwickelt, die auf umfangreichen Erweiterungen der Webserver-Software beruhen. Dazu werden die Inhalte der Seite nicht in Form von statischen Webseiten auf dem Webserver abgelegt, sondern erst auf Anfrage stets dynamisch zusammengesetzt. Notwendig ist dafür meistens, dass die Inhalte in einer Datenbank abgespeichert werden, wo sie stets änderbar sind. Die Bereitstellung der Inhalte bzw. deren Modifikation übernehmen Programme30, die auf dem Webserver laufen. Das Browser-Programm kommuniziert nicht mehr allein mit dem 28 Seit 2006 firmiert die Software unter dem Namen »Adobe Contribute«. 29 Die erste lauffähige Wiki-Software »WikiWikiWeb« wurde 1995 von Ward Cunningham entwickelt. Der erste Gebrauch des Begriffs »Weblog« erfolgte 1997, um dieses Jahr herum entstanden auch die ersten Weblog-Anwendungen. 30 Diese Programme sind zumeist skriptbasiert und in serverseitigen Skriptsprachen wie »Perl« oder »PHP« geschrieben.
RAHMENBEDINGUNGEN DER AUTORSCHAFT IM NETZ | 211
Webserver, sondern mit Skriptanwendungen, die dynamisch generierte Webseiten liefern. Umgedreht können vom Browser auch Änderungen der Webseite an die Anwendung geschickt werden, was über Formulare auf der Webseite realisiert wird. Während die eigentlichen Änderungen an den Inhalten direkt auf dem Server vorgenommen werden, dient die Client-Software nur zur Eingabe und Anzeige der Modifikationen. Daher können prinzipiell von jedem beliebigen, internetfähigen Computer solchermaßen Inhalte editiert werden. Abhängig von der Konfiguration muss etwa bei Wikis noch nicht einmal notwendigerweise eine Passwortkontrolle in diesen Editiervorgang eingebaut sein. Damit wird aber das »Server-Client«-Prinzip tatsächlich durchbrochen, auch wenn es faktisch technisch immer noch ›darunter‹ liegt. Wikis und Weblogs führen den Open Source-Gedanken in der Webpublizierung fort, ein Fakt, den Erik Möller euphorisch als »die heimliche Medienrevolution« (vgl. Möller 2006) gefeiert hat. Sieht man von solchen technikeuphorischen Visionen einmal ab, können Wikis und Weblogs aber zweifellos als ein maßgeblicher Evolutionsschritt in der internetbasierten Textproduktion angesehen werden.31 Dies wird im Folgenden diskutiert.
7.2.2 Wikis »Wikis« stellen streng genommen abgespeckte »Content Management Systeme« dar, die aber zumeist bewusst offen gestaltet sind und allen Usern eine gleichberechtigte Bearbeitung erlauben.32 Dabei existieren eine ganze Reihe verschiedener Wiki-Engines in unterschiedlichen Programmiersprachen und für unterschiedliche Zwecke. Die meisten Engines sind unter einer Open Source-Lizenz freigegeben und können somit frei eingesetzt werden. Besonders bekannt geworden ist die Engine »Mediawiki«, die für die »Wikipedia« entwickelt worden ist. Es ist allerdings zu beachten, dass diese Engines vor der Benutzung zunächst auf einem dafür geeigneten kostenpflichtigen Webserver eingerichtet werden müssen. Es existieren – anders wie etwa bei Weblogs – kaum kostenlose Wiki-Services.
31 Betrachtet man Wikis und Weblogs als eingeschränkte »Content Management Systeme« (CMS), taucht die Frage auf, weshalb diese Systeme nicht an dieser Stelle diskutiert werden. Moderne CMS simulieren zumeist einen Workflow, welcher einer Zeitungsredaktion nachempfunden ist. Ein differenziertes System von unterschiedlichen Benutzerberechtigungen und oftmals mehrere FreigabeStufen erlauben explizit keine freie Textproduktion. Zudem wird ein CMS häufig zur bequemeren Pflege von Webinhalten benutzt, die Trennung zwischen Autor und Leser dabei strikt aufrechterhalten. Aus diesen Gründen sind CMS im Rahmen der vorliegenden Untersuchung nicht interessant und werden auch von künstlerischen Autoren nicht zur literarischen Produktion genutzt. Selbstverständlich gibt es auch Ausnahmen von der Regel: Die meisten CMS können prinzipiell auch sehr frei konfiguriert werden, ebenso existiert mit »Joomla!« ein Open Source-CMS, das unter der GPL lizenziert ist. 32 Zur aktuellen deutschsprachigen, theoretischen Reflexion rund um Wikis und die »Wikipedia« vgl. insbesondere das E-Zine »Telepolis«. Zur näheren Diskussion der Hintergründe und Technologie vgl. zudem Bruns 2008; Möller 2006. Eine kritische Sicht auf Wikis und die »Wikipedia« bietet Weber 2007.
212 | DER DIGITALE AUTOR
Grundlegende Merkmale einer Wiki-Engine Das Grundprinzip aller Wikis (ursprünglich auch »WikiWikiWebs« genannt) besteht in der besonders schnellen und sehr einfachen Editierbarkeit der Inhalte. Dies wird schon anhand der Bezeichnung dieser Technologie deutlich, denn »wikiwiki« ist das hawaiianische Wort für »schnell«. Eine zügige und einfache Bearbeitung wird durch eine ganze Reihe von Merkmalen der WikiSoftware unterstützt. So befindet sich auf jeder Seite eines Wikis zumeist oben ein »Edit« (»Bearbeiten«)-Link, mit dem vom Ansichtsmodus sofort in den Bearbeitungsmodus einer Seite gewechselt werden kann. Anders als bei ähnlichen Webdiensten können viele Wikis ohne vorherige Registrierung geändert werden, was die Schwelle für eine Mitarbeit extrem niedrig hält. Alle Wikis weisen eine ähnliche Formatierungs-Syntax auf, die einfach zu erlernen ist und in ihrer Formatierungs-Logik an HTML erinnert. Damit kann sich jeder Benutzer, der bereits Erfahrungen mit HTML gesammelt hat, schnell in die Wiki-Syntax einarbeiten, auch wenn diese andere Anweisungen benutzt. Auch das Anlegen neuer Seiten bzw. der Verweis auf andere Seiten ist durch das weit verbreitete »CamelCase«-Schema vergleichsweise einfach gelöst. Dadurch werden Zeichenfolgen, die sowohl einen Großbuchstaben am Anfang als auch in der Mitte enthalten, als Links zu Seiten mit dieser Folge als Titel interpretiert. Das noch fortgeschrittenere System »Free Links«, was auch in »Mediawiki« verwendet wird, markiert Links durch doppelte, eckige Klammern (z. B. »[[Wikipedia]]«), funktioniert aber ansonsten ähnlich wie »CamelCase«. Mit der Logik hinter diesen Verlinkungssystemen wird sichergestellt, dass keine ›toten‹ Links existieren. Neben der ähnlichen Formatierungssyntax sind auch die weiteren grundlegenden Funktionen eines Wiki-Systems analog. Für jede Seite werden geänderte Fassungen in einer Versionsgeschichte gespeichert, sodass Editierungen jederzeit rückgängig gemacht werden können. Zum Vergleich zweier Versionen einer Seite existiert eine »Diff«-Funktion, die der Softwareproduktion entstammt. Mit deren Hilfe können unterschiedliche Versionen einer Seite verglichen und Änderungen in eine neue Revision überführt werden, ebenso wie das bei unterschiedlichen Versionen eines Programmcodes gehandhabt wird. Änderungen werden jeweils unter dem Benutzernamen oder der IP-Nummer des Autors gespeichert, sodass »Spammer« oder »Vandalen«, die Texte mutwillig verunstalten, gesperrt werden können. Versionstracking und Versionenvergleich sind aber nicht die einzigen Parallelen zwischen der (Software-)Textproduktion und dem wikibasierten Schreiben.33 Gemeinsam haben alle Wiki-Engines schließlich auch, dass sie sich durch ihr System der Inhaltskategorisierung nach Stichworten, der Verlinkung und der Zusammenarbeit vor allem für Dokumentationen und Enzyklopädien eignen. Es verwundert nicht, dass Wiki-Dokumentationen vor allem bei computernahen Themen vorkommen, etwa in der Systemadministration. Das bekannteste Wiki stellt die freie Enzyklopädie »Wikipedia« dar, die sich seit 2001 als ernstzunehmende Konkurrenz zu den traditionellen Print- und elektronischen Enzyklopädien etabliert hat.
33 Zum Wikiprinzip vgl. weiterführend auch Möller 2006: 170-173 sowie den Artikel »Wiki« in der englischsprachigen »Wikipedia«.
RAHMENBEDINGUNGEN DER AUTORSCHAFT IM NETZ | 213
Fallbeispiel »Wikipedia« »Wikipedia«34 bildet als Gemeinschaftsprojekt von mehr als 15 Millionen registrierten Benutzern35 mittlerweile ein Referenznachschlagewerk, das sich erfolgreich mit den etablierten, traditionellen Enzyklopädien messen kann. Vor allem bei internetaffinen Gegenständen sowie Themen der Popkultur und des ›Zeitgeistes‹ stellt sie alle anderen Konkurrenten in den Schatten. Erik Möller, Wikipedianer und Journalist, traut der »Wikipedia« zu, (zusammen mit Weblogs und der freien Software) eine ›revolutionäre‹ Technologie zu sein, die die Welt verändern kann (Möller 2006). Bezogen auf wissenschaftliche Inhalte ist »Wikipedia« vom renommierten Wissenschaftsmagazin »Nature« als »kaum weniger« korrekt als die »Encyclopedia Britannica« eingeschätzt worden. »Nature« stellte heraus: »[T]he accuracy of science in Wikipedia is surprisingly good: the number of errors in a typical Wikipedia science article is not substantially more than in Encyclopaedia Britannica, often considered the gold-standard entry-level reference work. That crazy idea is starting to look anything but stupid.« (o. N. 2005) Diese Einschätzung basiert auf einem umfangreichen Vergleich beider Enzyklopädien (vgl. dazu auch die ausführliche Schilderung der Untersuchung bei Giles 2005). Bemerkenswert ist weniger, dass »Wikipedia« als so ›gut‹ eingeschätzt wurde, sondern dass die »Encyclopedia Britannica« offenbar mehr Unzulänglichkeiten aufweist, als es ihr ›guter Name‹ vermuten lässt. In der Diskussion um den »Nature«-Artikel ist so konsequent auch auf die grundsätzlichen Unzulänglichkeiten des Enzyklopädie-Prinzips hingewiesen worden. Andere Kritiken der »Wikipedia« stellen einen besonders hohen Anteil von schlechten oder wenig relevanten Artikeln heraus (vgl. etwa Hoffmann 2005; Hürter 2005). Zur Bedeutung der »Wikipedia« vor allem im Zusammenhang mit wissenschaftlichen Texten vgl. weiterführend auch die kritische Einschätzung von Wehn/Welker 2006. Erfolgreich ist die »Wikipedia« durch eine Reihe von Grundprinzipien, die von den »Wikipedianern« erarbeitet wurden und auf deren Einhaltung strikt geachtet wird. Zum einen stellen dies Kommunikationsregeln dar, die die inhaltliche Gestaltung von Einträgen festlegen. Zum anderen sind es Vor-
34 Zur »Wikipedia« vgl. auch die Eigenbeschreibung des Projektes, vgl. den Artikel »Wikipedia« in der englischsprachigen »Wikipedia«. Für einen distanzierteren Überblick vgl. Hürter 2005. 35 Summe der Mitglieder aller »Wikipedias«, Stand: 07.01.2009, Quelle: »List of Wikipedias«. Dabei ist einschränkend zu bemerken, dass mit dieser Zahl nur die tatsächlich vorhandenen Benutzerkonten bei allen »Wikipedia«-Projekten erfasst sind. Die Zahl der tatsächlich aktiven Mitschreiber liegt deutlich unter diesem Wert, wobei genaue Aussagen aufgrund von Problemen bei der Auswertung der umfangreichen statistischen Daten schwierig sind. Für die deutschsprachige »Wikipedia« werden für September 2008 insgesamt 68.708 aktive Mitschreiber ausgewiesen (Zachte 2008), denen 675.505 Benutzerkonten am 07.01. 2009 gegenüberstehen (»List of Wikipedias«). Auch wenn beide Werte zeitlich etwas auseinanderliegen, kann daraus geschlussfolgert werden, dann in der deutschsprachigen »Wikipedia« nur etwas mehr als zehn Prozent der Benutzer auch aktiv mitschreiben. Bezogen auf alle Projekte wären es nur 1,5 bis 2 Millionen Teilnehmer.
214 | DER DIGITALE AUTOR
lagen und Stylesheet-Anweisungen, in denen die Formatierungen der Texte festgelegt werden.36 Die zuerst genannten Kommunikationsregeln bestehen aus vier zentralen Grundsätzen, um die herum sich inhaltliche Vorgaben locker gruppieren. So wird die »Wikipedia« zum ersten explizit als Enzyklopädie verstanden, die Sekundärquellen zusammenfasst und einen ganz bestimmten ganzheitlichen Charakter aufweist. Zweitens bezeichnet sich die »Wikipedia« selbst strikt als neutral und verpflichtet alle Mitautoren auf die Wahrung eines neutralen Standpunktes während des Schreibprozesses. Als dritter Punkt wird die Beachtung des Urheberrechts genannt, was aber weniger einem Anspruch an den korrekten Umgang mit fremdem Wissen geschuldet ist. Stattdessen befürchtet die »Wikipedia« rechtliche Konsequenzen aus Verletzungen des Urheberrechts. Viertens wird wie in allen Netzcommunities gefordert, dass der Umgang miteinander den Standards der Netiquette37 und der Höflichkeit folgt. Als inhaltliche Richtlinien werden Punkte vertreten, die allgemeinen Standards von journalistischen oder wissenschaftlichen Texten entsprechen. So müssen die Texte gewissen definierten Mindestanforderungen und Relevanzkriterien genügen und die inhaltlichen und sprachlichen Anforderungen an »gute« Artikel erfüllen. Enthalten sein müssen Grundbestandteile wie Quellenangaben, Literaturverweise usw. Die als zweites genannten Vorlagen, Regeln und Hinweise für das Layout können mittlerweile als ebenfalls sehr komplex und umfassend eingeschätzt werden. Die Vorlagen dienen einer Vereinheitlichung der Enzyklopädie; so existieren beispielsweise Muster für biographische Einträge oder für Artikel über Staaten. Auch kleinere Elemente einer Seite sind bereits vorgeformt, wie etwa Infoboxen bei Ländern. Detaillierte Formatanweisungen existieren für die kompletten Seiten (»Wie gute Artikel aussehen«), aber auch für Details wie die Datenangaben. Auffällig ist, dass »Wikipedia« Automatismen einsetzt, wo immer es geht. So werden beispielsweise die ISBN von Büchern, etwa in den Literaturlisten, automatisch mit Suchmaschinen von Bibliotheken oder des Buchhandels verlinkt. Auch dies dient einer vereinheitlichten Usability der gesamten Enzyklopädie. Die Einhaltung dieser Regeln wird durch eine Kombination von automatischen Abläufen und einer hochgradig ausdifferenzierten Arbeitsteilung der »Wikipedia«-Community geprüft. Neue oder aktuell veränderte Artikel werden automatisch auf bestimmten Übersichten gelistet und hervorgehoben, sodass sie von Wikipedianern eingesehen und überarbeitet werden können. Sobald sich ein Artikel als problematisch herausstellt und größere Überarbeitungen erfordert, kann er besonders markiert werden, etwa »stub« (sehr unvollständig), »Löschkandidat« (irrelevant oder zu schlecht), »NPOV verletzt« (kein neutraler Standpunkt) usw. Auch diese speziell markierten Artikel werden in Übersichten zusammengefasst. Jeder Wikipedianer kann in diesem Prozess aber selbst entscheiden, welchen Aspekten des Schreib- oder Überarbeitungsprozesses er sich widmet. Und so ist es kaum verwunderlich, dass sich die besonders aktiven Personen zumeist auf bestimmte, spezielle Tätig36 Vgl. dazu den Artikel »Wikipedia: Richtlinien« in der deutschsprachigen »Wikipedia«. 37 ›Netiquette‹ ist ein Oberbegriff für Sets von Verhaltensempfehlungen, die in verschiedenen netzbasierten Kommunikationsdiensten gelten und den Ablauf der Kommunikation normativ regeln.
RAHMENBEDINGUNGEN DER AUTORSCHAFT IM NETZ | 215
keiten verlegen. Sie bearbeiten etwa nur »Löschkandidaten«, reparieren kaputte Weiterleitungen oder helfen neuen Mitautoren. Ebenfalls hervorgehoben werden besonders gelungene Artikel, etwa als »exzellenter Artikel« oder durch ihre Aufnahme in einem Reader. Qualitätsoffensiven widmen sich der Ausarbeitung bestimmter, bisher vernachlässigter Artikel, und Schreibwettbewerbe schaffen persönliche, positive Anreize für Benutzer, sich in der »Wikipedia« zu engagieren. In einer solch großen Community wie »Wikipedia« existiert allerdings auch der Bedarf an negativen Sanktionierungen. Sobald Benutzer gegen die Regeln der Community verstoßen, können sie nach einem einfachen demokratischen Prinzip bestraft werden, etwa durch temporäre Bannung oder Löschung ihrer Nutzerkonten. Dieser hochkomplexe Prozess steht aber beispielhaft für Mechanismen der Qualitätskontrolle und -sicherung bei einem umfangreichen kollaborativen Projekt. Nach Ansicht der Wikipedianer stellen diese Mechanismen sicher, dass das »Wikipedia«-Prinzip grundsätzlich sehr gut funktioniert.38 Unterstützt wird diese affirmative Selbsteinschätzung durch Forschungsergebnisse, die die Existenz einer so genannten Schwarmintelligenz annehmen, die sich positiv in Wikis und damit auch der »Wikipedia« niederschlagen würde (vgl. dazu Aronsson 2002; Stalder/Hirsh 2002). Allerdings muss einschränkend herausgestellt werden, dass die »Wikipedia«-Prinzipien auch deutliche Grenzen aufweisen. So hat »Wikipedia« große Probleme bei der vollständigen Darstellung von Themen oder Themengebieten, weil die Herausgeber-Funktion fehlt und Beiträge daher oft nur nach dem »Aufmerksamkeits«-Prinzip erstellt werden. Problematisch ist auch, dass sich nur sehr wenige Fachleute (Wissenschaftler oder Journalisten) am Projekt beteiligen, weil die etablierten wissenschaftlichen und journalistischen Gratifikationssysteme eine solche Mitarbeit nicht goutieren. Dazu tritt das Problem, dass Fachleute mit gleichberechtigten fachlichen Laien um Editierungen ringen müssen. Letztere verfügen aber zumeist über mehr Zeitressourcen, um ihre Fassungen durchzusetzen. Zudem ist die Online-Enzyklopädie hoch anfällig für Vandalismus. Grob verunstaltende und grotesk verfälschende Fehler können dabei immer nur nachträglich entfernt werden. Das retrospektive Editierprinzip versagt zudem regelmäßig bei kleineren Fehlern, die sich sogar über lange Zeiträume halten können. Artikel über gesellschaftlich kontroverse Themen müssen sogar häufig gesperrt werden, weil um sie so genannte »Edit-Wars« geführt werden; Einträge werden hin und hergeändert oder dienen nur noch dem verbalen Schlagabtausch zwischen gegnerischen Gruppen. Bekannt geworden ist der Fall »John Seigenthaler«, der im Dezember 2005 sehr medienwirksam verhandelt wurde. Ein zunächst unbekannter Autor hatte den Eintrag des renommierten Journalisten eines Spaßes wegen an mehreren Stellen verunstaltet. Diese Verfälschungen blieben aber über Monate erhalten und wurden erst von Seigenthalers Umfeld aufgedeckt. Pikant an dem Fall war die Tatsache, dass ihm eine Verwicklung in die Ermordung von John F. Kennedy und dessen Bruder Robert Kennedy angedichtet wurde. Letzterem diente Seigenthaler in den 1960er Jahre als Assistent (vgl. dazu 38 Vgl. dazu die euphorische Einschätzung von Erik Möller, der selbst ein sehr aktiver Wikipedianer ist, vgl. Möller 2006: 173-222. Vgl. außerdem die ausführliche Verteidigung des Prinzips, welches von der »Wikipedia«-Community selbst geleistet wird, der Artikel »Wikipedia:Replies to common objections« in der englischsprachigen »Wikipedia«.
216 | DER DIGITALE AUTOR
ausführlicher Patalong 2005). Es ist allerdings bemerkenswert, dass solche Fälle von der »Wikipedia«-Community selbst dokumentiert werden und mit welcher Offenheit und Detailliertheit dies geschieht.39 Das Problem des Vandalismus bzw. der mangelnden inhaltlichen Qualität stellt aber den springenden Punkt dar, wenn man »Wikipedia« explizit als Schreibplattform versteht. Die auf solche Vorkommnisse jeweils folgende massive Berichterstattung in den traditionellen Medien und daran anschließende Diskussionen über die Qualitätssicherung bei »Wikipedia« haben dazu beigetragen, das Thema zu einem besonders sensiblen werden zu lassen. Bei der englischen Version wurde auf »Seigenthaler« reagierend das Editieren von Artikeln für anonyme Benutzer zeitweise unterbunden.40 Kritisiert wurde jedoch, dass dieser Schritt nicht verhindern konnte und kann, dass Benutzerkonten extra zum Zweck des Vandalismus angelegt werden. »Wikipedias« nachgelagertes Editierprinzip vermag bei allen Vorkehrungen den Vandalismus nicht effektiv zu verhindern. Hier wird deutlich, dass bei der Balance zwischen möglichst freier Editierbarkeit und dem Schutz der Integrität und Seriosität von »Wikipedia« durch ihre Struktur nur unzureichende Kompromisse gefunden werden können. Trotz komplexer Routinen zur (nachträglichen) Behandlung von Vandalismus41 versagt hier das »Wikipedia«-Prinzip auf eklatante Art und Weise. Dass das Vandalismus-Phänomen aber nicht nur die großen Fälle betrifft, sondern auch im kleinen Rahmen ein Problem darstellt, wurde 2006 medienwirksam dargestellt. Die satirische Dokumentations-Fiktion »Borat: Cultural Learnings of America for Make Benefit Glorious Nation of Kazakhstan«42 wurde vor allem durch ihre massiv zur Schau gestellten Verletzungen der »political correctness« sehr kontrovers diskutiert und hatte auch ein juristisches Nachspiel. In dem Film trat der britische Komiker Sascha Baron Cohen als fiktiver kasachischer Journalist »Borat Sagdijew« auf, der aber in realen Situationen inszeniert wurde. Mit bewussten Provokationen wurden amerikanische Bürger dazu aufgestachelt, sich fremdenfeindlich, antisemitisch oder frauenfeindlich zu äußern. Diese Äußerungen erschienen jedoch im Kontext des Films als selbstentlarvend und ›hinterwäldlerisch‹.43 Angeheizt von der gesellschaftlichen Debatte um den Film wurden Vandalismus-Attacken auf den englischen »Wikipedia«-Eintrag des Staates »Kasachstan«44 durchgeführt, für die Fans des Filmes verantwortlich gemacht wurden. Diese Bear-
39 Vgl. dazu näher den Artikel »Seigenthaler incident« in der englischsprachigen »Wikipedia«. 40 Auf »Wikipedia« gibt es noch eine Reihe weiterer Artikelschutz-Systeme, die über Halbsperrung (Artikel können nur von Benutzern editiert werden, die mindestens vier Tage angemeldet sind) bis hin zur Vollsperrung (nur Administratoren können Artikel ändern) gehen. 41 Vgl. dazu den ausführlichen Artikel »Wikipedia:Vandalism« in der englischsprachigen »Wikipedia«. 42 Zum Film selbst vgl. etwa Stöcker 2006. Zur Filmrezeption sowie den gesellschaftlichen und juristischen Auseinandersetzungen vgl. die Berichterstattung in »Spiegel Online« zwischen Oktober 2006 und Januar 2007. 43 Die Vermischung von Dokumentation und Fiktion war dabei komplexer, als es der Anschein vermuten lässt. Dies ist aber nicht Gegenstand der vorliegenden Untersuchung und wird daher nicht eingehend diskutiert (vgl. Marchese/Paskin 2006). 44 Vgl. dazu den Artikel »Kazakhstan« in der englischsprachigen »Wikipedia«.
RAHMENBEDINGUNGEN DER AUTORSCHAFT IM NETZ | 217
beitungen führten das Kino-Verwirrspiel um Realität und Fiktion im Netz fort. Modifiziert wurden vor allem allgemeinere Informationen zum Staat Kasachstan sowie zu den Aktivitäten der Bevölkerung, die zumeist Referenzen auf oder Zitate aus dem Film darstellten.45 Diese Änderungen waren zwar vergleichsweise harmlos und immerhin sofort als Vandalismus zu erkennen; sie wurden trotzdem von den Wikipedianern mit erhöhter Aufmerksamkeit beobachtet. Der Artikel war seit den Vandalismusvorfällen »halbgesperrt«, konnte also nicht mehr von anonymen Benutzern editiert werden. Allerdings zeigten die vor der Sperrung häufigen und zeitlich über mindestens einen Monat ausgedehnten Vandalismusfälle, dass die »Wikipedia« offenbar auch ein attraktives Betätigungsfeld für Scherzbolde darstellt. Dies ist aber kaum mit einer seriösen Informationsquelle vereinbar und zwingt die administrierenden Wikipedianer nicht zuletzt zum massiven Einsatz von Personal- und Zeitressourcen. Die Fluidität der Wiki-Technologie führt also zu einer mangelnden Berechenbarkeit. Der offensichtliche Missbrauch nicht nur mit Spaßbeiträgen, sondern auch mit Werbung und Spam muss aber notwendigerweise die Motivation der mitarbeitenden Autoren beschädigen. Vandalismus als besonders auffälliges Phänomen verweist auf eine nur scheinbar darunter liegende Unzulänglichkeit des Projektes. Auch wenn die »Wikipedia« oft mit den traditionellen Enzyklopädien verglichen wird, geschieht dies konsequent unter dem Hinweis auf einen erschreckend hohen Anteil schlechter Artikel. Selbst der »Wikipedia«-Gründer Jimmy Wales musste 2005 in einem vielzitierten Posting einräumen, dass aller Editierarbeit und qualitativer Kontrolle zum Trotz das allgemeine inhaltliche Niveau der »Wikipedia« den Maßstäben der Wikipedianer nicht genügt.46 Wie Karin Wehn und Martin Welker herausstellen, führen die eingeschränkte Qualität zusammen mit der enormen Fluidität von »Wikipedia«-Artikeln zu einer gewissen Unbrauchbarkeit für eine wissenschaftlich gültige Referenzierung: »Jeder Artikel kann zu jedem Zeitpunkt in einem schlechten Zustand sein« (Wehn/Welker 2006). Damit warnen sie aber vor dem Einsatz des Lexikons in der wissenschaftlichen Arbeit und stehen mit ihrer Einschätzung nicht allein. So konstatiert Björn Hoffmann in einer Rezension: »Zu einer brauchba45 So wurde in der Artikel-Version vom 6. November 2006, 10:01 Uhr das Foto des amtierenden Präsidenten Nazarbayev durch ein Bild des Charakters »Borat« ausgetauscht. Außerdem fand sich eine neue Sektion »Hobbies«, in der behauptet wurde: »Hobbies include table tennis, disco dancing, gypsy catching and rape« (was ein Filmzitat darstellte). Anderthalb Stunden später veröffentlichte der Benutzer »Bougon2012« eine Textversion, die »Borat Sagdiyev« als Präsidenten aufführte und seinen Filmausruf »Hi Five« zum Motto des Staates erklärte. Zudem wurde die Nationalhymne modifiziert, so hieß es dort: »Kazakhstan greatest country in the world. All other countries are run by little girls.« Auch dieser Text ist eine Anspielung auf den Film, in dem der Charakter »Borat« eben diese Zeilen zur amerikanischen Nationalhymne singt (Artikel-Version vom 6. November 2006, 11:40 Uhr). Beide Versionen können über die »History«-Funktion des Artikels »Kazakhstan« in der englischsprachigen »Wikipedia« abgerufen werden und liegen dem Autor vor. 46 So schrieb Wales: »But the two examples […] are, quite frankly, a horrific embarassment. [[Bill Gates]] and [[Jane Fonda]] are nearly unreadable crap« (Wales 2005). Er reagierte damit auf eine vernichtende Analyse speziell dieser zwei und weiterer Artikel, die der renommierte IT-Fachautor Nicholas Carr in seinem Weblog gepostet hatte, vgl. Carr 2005.
218 | DER DIGITALE AUTOR
ren Textqualität zumindest im geisteswissenschaftlichen Umfeld scheint allerdings noch ein weiter Weg zu sein« (Hoffmann 2005). Diese und eine Reihe anderer Probleme, die hier nicht erschöpfend diskutiert werden können47, veranlassen sowohl moderate als auch ausgesprochen kritische »Wikipedia«Gegner sogar dazu, das Projekt als Ganzes komplett in Frage zu stellen. Der österreichische Medienwissenschaftler Stefan Weber bezeichnet die »Wikipedia« (zusammen mit Suchmaschinen wie »Google«) als eine der Hauptgefahren für (wissenschaftliche) Lehre und Forschung. Somit würde die Enzyklopädie zu einem dramatisch zunehmenden Niveauverlust wissenschaftlicher Texte und damit des geistigen Fortschrittes beitragen: »Ich gehe davon aus, dass ein mir nicht bekannter Anteil der Beiträge in der Wikipedia Plagiate sind. Ich gehe sogar noch einen Schritt weiter und behaupte, dass Selbst- und Fremdplagiate in der Wikipedia systemisch sind, dass sie gleichsam vom Prinzip der Wikipedia begünstigt, ja verlangt werden.« (Weber 2007: 31, Hervorhebung im Original)
Eine andere grundsätzliche Kritik stammt aus der Richtung der traditionellen Enzyklopädien. Der ehemalige »Encyclopaedia Britannica«-Herausgeber Robert McHenry etwa konstatiert sehr polemisch: »The user who visits Wikipedia to learn about some subject, to confirm some matter of fact, is rather in the position of a visitor to a public restroom. It may be obviously dirty, so that he knows to exercise great care, or it may seem fairly clean, so that he may be lulled into a false sense of security. What he certainly does not know is who has used the facilities before him.« (McHenry 2004)
Diese beiden extremen Positionen sind aber – auch von den Wikipedianern – nicht unwidersprochen hingenommen worden und halten zudem bei einer näheren Gegenanalyse in ihrer Brisanz nicht stand.48 Andere Gegner stimmen dem Ziel und teilweise auch den Methoden der »Wikipedia« durchaus zu, versprechen aber bessere Lösungen. So hat der ehemalige »Wikipedia«-Administrator Ulrich Fuchs im Jahr 2005 das (deutschsprachige) Alternativprojekt »Wikiweise« gestartet (vgl. dazu ausführlicher Möller 2005). Der ehemalige »Wikipedia«-Mitbegründer Larry Sanders versucht seit 2006 mit seinem Projekt »Citizendium« sogar, dezidiert Fachleute in den Schreibprozess zu involvieren und andere zentrale »Wikipedia«-Probleme zu beseitigen (vgl. ausführlicher Dambeck 2006). Wohin die »Wiki«-Technologie im Allgemeinen und das »Wikipedia«Prinzip im Besonderen steuern, kann Anfang 2009 während der Streitigkeiten 47 Das nach den Vandalismus- und Qualitäts-Problemen schwierigste Thema stellt für die »Wikipedia« vermutlich die Verletzung von Urheberrechten dar. Dies ist, wie Stefan Weber herausgestellt hat, offenbar sogar als ein systematisches Problem in der Enzyklopädie anzunehmen, vgl. Weber 2007: 27-68. Zum einen sind die mitschreibenden Autoren schlichtweg unerfahren im Verfassen von wissenschaftlichen Aufsätzen. Zum anderen treten aber auch bewusste Plagiate in großem Stil auf. Eine Reihe weiterer Probleme diskutiert Kleinz 2006. 48 So wurde beiden Positionen u. a. eine fehlende Objektivität bescheinigt. Zu Webers Kritik vgl. die ausführliche Reaktion der Wikipedianerin und Medieninformatik-Professorin Deborah Weber-Wulff, vgl. Weber-Wulff 2005. Zur Kritik von McHenry vgl. eine Gegenanalyse von Aaran Krowne, vgl. Krowne 2005.
RAHMENBEDINGUNGEN DER AUTORSCHAFT IM NETZ | 219
zwischen heißglühenden Befürwortern und verächtlichen Ablehnungen kaum prognostiziert werden. Die Technologie kann softwareseitig als ausgefeilt angesehen werden, allerdings sind die sozialen ›Programmierungen‹ noch weit davon entfernt, perfekt zu sein. Trotzdem gestatten Wikis und »Wikipedia« bereits einen umfassenden Einblick in möglicherweise gut funktionierenden Mechanismen der Qualitätssicherung und -kontrolle. Diese könnten aber beispielgebend sein für kollaborative Textproduktion auch in anderen technologischen und inhaltlichen Zusammenhängen.
7.2.3 Weblogs und Blogosphäre Auch »Weblogs« (oder »Blogs«) können genauso wie Wikis in ihrer technischen Anordnung zunächst als »Content Management Systeme« erfasst werden. Im Gegensatz zu Wikis werden Weblogs aber tatsächlich zum Großteil eingesetzt, um eine technisch unaufwendige Website einzurichten und zu pflegen. Weblogs werden darüber hinaus viel öfter von Einzelautoren betrieben als von Gruppen, insoweit kann auf sie zumeist nicht so offen und gleichberechtigt zugegriffen werden, wie das bei Wikis größtenteils der Fall ist. Die Gesamtheit von Weblogs, die zudem stark untereinander vernetzt sind, wird gemeinhin als »Blogosphäre« bezeichnet. Auch für den Betrieb von Weblogs existieren eine ganze Reihe von Engines, die sich durch unterschiedliche Features jeweils für unterschiedliche Zwecke eignen. Die meisten davon sind unter einer Open Source-Lizenz freigegeben, oft eingesetzt werden etwa »Wordpress« oder »Drupal«. Diese Engines setzen ebenso wie Wikis eine Installation auf einem adäquaten Webserver voraus. Anders als bei Wikis existieren aber eine ganze Reihe von Internetdienstleistern, die kostenlos die Einrichtung und den Betrieb eines eigenen Weblogs erlauben. Eine kostenpflichtige Mitgliedschaft gestattet dabei die Nutzung zusätzlicher Dienstleistungen, die das eigene Weblog aufwerten und seine Benutzung vereinfachen. Vorteil dieser Services ist zudem, dass die gesamte technische Einrichtung und Wartung entfällt. International bekannt sind etwa die Dienste »LiveJournal« (seit 1999) und der inzwischen zu Google gehörige Service »Blogger« (seit 1999). Eine der größten deutschsprachigen Plattformen stellt »Twoday.net« (seit 2003) dar, die beispielsweise auch das weiter unten diskutierte Weblog von Alban Nikolai Herbst beherbergt. Die (deutschsprachige) Fachliteratur zu Weblogs ist deutlich umfangreicher als bei Wikis und »Wikipedia«, was vermutlich damit zusammenhängt, dass Weblogs als alternative Journalismusform gelten und sich Effekte von virtuellen Gemeinschaften daran besser beobachten lassen. Wiederum findet die tagesaktuelle deutschsprachige, theoretische Reflexion insbesondere im E-Zine »Telepolis« statt, aber auch die traditionellen Medien greifen das Thema (in eingeschränkter Form) auf. Die früheste Dokumentation des Phänomens liefert die Anthologie »Blogs« aus dem Jahr 2004 (vgl. Alphonso/ Pahl 2004). Darin waren Beispiele aus der Blogosphäre zusammen mit ersten theoretischen Reflexionen versammelt. Wichtige Standardwerke stellen momentan die deutschsprachige Analyse von Erik Möller (vgl. Möller 2006: 113-161)49 und die englischsprachige von Jill Walker Rettberg (vgl. Rettberg 2008) dar. In Picot/Fischer 2006 werden Installation und Einsatz von Web49 Wie im Fall der Wikipedia gilt auch hier die Einschränkung, dass Möllers Schilderungen etwas zu euphorisch ausgefallen sind.
220 | DER DIGITALE AUTOR
logs aus unternehmerischer und journalistischer Perspektive näher diskutiert. Eine aktuelle Bestandsaufnahme des Feldes sowohl aus der Perspektive der privaten und kommerziellen Weblog-Betreiber als auch der kommunikationswissenschaftlichen Forschung bietet dagegen der Sammelband Diemand et al. 2007. Wie Weblogs aus kommunikationstheoretischer Perspektive analysiert werden können, zeigt Schmidt 2006 auf. In der Kommunikationswissenschaft und in der Journalistik werden Weblogs momentan intensiv diskutiert (vgl. dazu überblicksweise Neuberger 2007). Dabei geht es unter anderem um die Frage, ob Weblogs tatsächlich einen alternativen Journalismus darstellen (vgl. dazu die kritische Einschätzung von Armborst 2006) und wie sie als journalistische Quelle zu behandeln sind (vgl. Welker 2006). Unter Stichworten wie »Bürgerjournalismus« und »Web 2.0« wird verhandelt, dass der so genannte »nutzergenerierte Inhalt« ein zunehmend wichtiges Standbein für den Onlinejournalismus bildet (vgl. Bieber 2006; Neuber 2006; Niggemeier 2006). Allerdings wird das damit verbundene ökonomische Modell, das Einnahmen zumeist ausschließlich für die Verwerter generiert und die Inhaltsproduzenten dabei ausschließt, von Internettheoretikern wie Geert Lovink (vgl. Lovink 2008: 9-32) und Slavoj Žižek (vgl. Žižek 2006) sehr kritisch gesehen. Diese Diskussion wird aber hier ausgeblendet, weil der Journalismus nicht im Fokus der vorliegenden Untersuchung steht.
Grundlegende Merkmale einer Weblog-Engine Weblogs werden gemeinhin als digitale oder Online-Tagebücher bezeichnet, womit bereits ein gewisses Abgrenzungsproblem angesprochen ist. Prinzipiell konnten und können Tagebücher mit jeder Software-Technologie verfasst werden, die sich für die Webpublikation eignet. So existierten OnlineTagebücher bereits im World Wide Web, bevor dafür im Jahr 1997 von Jorn Barger der Begriff »Weblog« geprägt wurde (vgl. Boutin 2005). Erst die um dieses Jahr herum entwickelten frühen Weblog-Engines automatisierten den Vorgang aber soweit, dass für die Publikation von Beiträgen keine dezidierten Kenntnisse von Dokumentauszeichnungssprachen oder das Beherrschen des Datentransfers (»online stellen«) mehr notwendig waren. Zudem reicherten die Engines die geschriebenen Einträge um eine ganze Reihe zusätzlicher Links und Funktionen an, die automatisiert generiert wurden und den Weblog-Autor entlasteten. Erst diese Online-Tagebücher, die mit Hilfe eines speziell dafür zugeschnittenen, eingeschränkten Content-Management-Systems produziert werden, bezeichnet man heutzutage tatsächlich als Weblog (vgl. Möller 2006: 13-14). Weblog-artige Webseiten können weiterhin mit Hilfe anderer Software erstellt werden, dies wird aber analytisch ausgeblendet. Bei aller Unterschiedlichkeit der Engines und der Zielstellungen bildet das Grundprinzip aller Weblogs, dass periodisch (üblicherweise täglich oder mehrmals täglich) Einträge (Postings) verfasst werden, die in umgekehrter chronologischer Reihenfolge auf der Webseite angezeigt werden. Die Themen von Weblogs müssen dabei nicht nur persönlicher Natur sein, also im strikten Sinne eines »Online-Tagebuchs«, sondern sie sind breit gefächert. Der Schriftsteller Alban Nikolai Herbst etwa nutzt sein Weblog für eine umfassende Darstellung und Dokumentation seines täglichen Schriftstellerlebens, er veröffentlicht theoretische Reflexionen zu seiner Poetologie und verwendet seine Seite für eine intensive Kommunikation mit seinen Lesern (vgl. Herbst 2004 ff.). Dagegen stellt das »Literaturwelt«-Blog ein kollaboratives
RAHMENBEDINGUNGEN DER AUTORSCHAFT IM NETZ | 221
Weblog von ganz verschiedenen Schriftstellern dar, die dieses als sehr vielschichtige Kommunikationsplattform für Literaturthemen nutzen. Schließlich bildet »Slashdot« das vermutlich größte kollaborative Weblog im Internet, es versteht sich als Informationsplattform rund um IT- und Internet-Themen. An diesen Beispielen wird bereits deutlich, dass Weblogs bei aller Themenunabhängigkeit vor allem für Zwecke eingesetzt werden, die eine periodische Berichterstattung und eine Kategorisierung anhand der Publikationszeitpunkte notwendig machen. Bei einem Weblog können, ähnlich wie bei einem Wiki, neue Inhalte besonders einfach publiziert werden. Sobald die Engine installiert ist oder ein Weblog bei einem Internetdienstleister eingerichtet wurde, übernimmt die Weblog-Engine alle zur Bearbeitung und Publikation notwendigen Schritte. Zumeist können die Postings mit einer aus Textverarbeitungsprogrammen bekannten Technologie einfach formatiert werden, Weblogs gehen in der Funktionalität hierbei teilweise sogar noch über Wikis hinaus. Postings enthalten üblicherweise Links zu weiterführenden Webseiten und anderen Weblogs, oder sie stellen sogar nur Zusammenfassungen anderer Seiten dar. Bereits dieses Charakteristikum führt zu einer hohen Vernetzung von Weblogs untereinander und mit dem restlichen Internet. Während bei Wikis alle Einträge nach dem Stichwort sortiert werden, bildet bei Weblogs der Zeitpunkt des Eintrages das zentrale Sortierkriterium. Dies stellt wiederum eine Referenz an den ursprünglichen Tagebuchcharakter dar, wo eben dokumentiert werden sollte, was der Autor zum Zeitpunkt des Eintrages denkt und fühlt. Auch das Archiv eines Weblogs sortiert die Beiträge über das jeweilige Datum, zumeist befindet sich auf der entsprechenden Seite ein Kalender, mit dessen Hilfe der Leser auf gespeicherte Postings zurückgreifen kann. Dazu gestatten die Engines üblicherweise eine Verschlagwortung der Einträge, indem sie mit so genannten »Tags« versehen werden. Diese Tags bilden also Kategorisierungen der Postings, in jüngeren Versionen der Engines können die Tags mit variablen Schriftgrößen angezeigt werden. In einer »tag cloud« (Wortwolke) oder »tag map« (Wortmappe) werden damit schnell die populärsten Schlagworte (also die Kategorien mit den meisten Einträgen) sichtbar. Obwohl ein Weblog zumeist nur von einem Autor geschrieben wird, bilden sich durch die Unterstützung der dahinter liegenden Engines sofort erste kollaborative Strukturen. Jeder Eintrag eines Weblogs kann von den Lesern üblicherweise kommentiert werden, wodurch Korrekturen oder Anmerkungen angebracht werden können, die den Beitrag ergänzen. Bei Weblogs mit vielen Lesern, die gleichzeitig intensiv kommentieren, entspinnt sich aber nicht selten eine intensive Kommunikation mit dem jeweiligen Autor, die auch über mehrere Beiträge hinweg immer wieder fortgesetzt wird. Schließlich wird oft automatisch auf die Webseiten oder Weblogs der Kommentatoren verlinkt, auf denen wiederum zu diesen oder ähnlichen Themen geschrieben wird. Diese Kommentare sind stets zweiseitig zu sehen, denn jeder Weblog-Autor ist zugleich oftmals ein intensiver Weblog-Leser. Indem er kommentiert, wird er selbst gleichsam auch Mit-Autor an fremden Texten. Indem er Kommentare an seinen Texten zulässt, gibt er ein Stück weit die Autorkontrolle an die Kommentatoren ab. Die »Blogosphäre« selbst wird vor allem durch die direkte Verlinkung von Weblogs untereinander erzeugt. Dies kann manuell geschehen, etwa durch die Angabe der eigenen URL, wenn ein Leser einen Kommentar postet. In der so genannten »Blogroll« gibt der Autor eines Weblogs die von
222 | DER DIGITALE AUTOR
ihm favorisierten Weblogs oder die Seiten von Freunden oder Bekannten an. Damit vernetzen sich die Blogger mit gleichen Interessen untereinander, es findet gleichzeitig eine gewisse Kanonisierung von Weblogs50 statt und die rein technische Relevanzbildung bei Suchmaschinen wird befördert. Schließlich verlinken Autoren, wie schon erwähnt, auch in ihren Postings aufeinander. Zu diesem Zweck existieren die so genannten »Permalinks«; die Weblog-Engine generiert für jedes Posting automatisch auch statische (beständig gültige) URLs, die zumeist den für Suchmaschinen relevanten Titel im Klartext enthalten. Diese Verlinkungen werden von den Weblog-Engines auch automatisch generiert. Mittels der »Trackback«-Funktion51 können Referenzen auf das eigene Weblog sichtbar gemacht werden. Sobald in einem anderen Weblog auf das eigene verlinkt wird, üblicherweise mit einem wertenden Kommentar, erhält die eigene Weblog-Engine eine Nachricht von der fremden. Im eigenen Weblog kann darauf reagierend unter »Trackback« ein Ausschnitt der Bewertung angezeigt werden. Damit wird aber die Resonanz auf einen Eintrag sofort sichtbar und die beiden Weblogs verlinken gegenseitig aufeinander (vgl. Möller 2006: 149). Weblog-Engines können darüber hinaus mittels der Newsfeed-Technologie auch ihre Inhalte zur Weiterverwendung bereitstellen oder um gekehrt Inhalte anderer Webseiten und Weblogs in die eigene Seite einbinden. Diese Funktionalität stellt faktisch ein Push-Abonnement von Inhalten52 dar und kann somit automatisierte Content-Syndication53 realisieren. Für den Export stellt die Weblog-Engine die Überschriften der neuesten Beiträge in einem fest definierten Format zusammen und legt diese Informationen in einem Newsfeed ab. Dieser kann von den Weblog- oder CMS-Engines anderer Webseiten dynamisch in der jeweils eigenen Seite eingebunden werden. Resultat ist, dass bei jeder Aktualisierung auf der Originalseite sofort auch die Überschriften und Zusammenfassungen neuer Artikel bei den abonnierenden Plattformen erscheinen. Üblicherweise wird diese Funktionalität von Communities verwendet, um jeweils auf die neuesten Inhalte der anderen Seiten zu verweisen, wobei ein typischer Einsatz etwa die Syndikation von Nachrichtenmeldungen darstellt. Webdienstleistungen können sogar ausschließlich auf dem Prinzip der Syndikation durch Newsfeeds beruhen. So versammelt etwa der webbasierte Aggregator »popurls« jeweils die aktuellsten Überschriften der populärsten (englischsprachigen) Webseiten auf einem einzigen Nachrichtenportal. Auch einzelne Internetnutzer können Newsfeeds mit so genannten Aggregatorprogrammen abonnieren und diese auf dem eigenen Computer struk50 Die jeweils beliebtesten Weblogs werden auf der Seite »deutsche blogcharts« (deutschsprachig) oder bei der Weblog-Suchmaschine »Technorati« (international) aufgeführt. 51 Abhängig von der Weblog-Engine wird diese Funktion auch »Pingback« genannt. 52 Als ›Push‹-Dienste werden im Internet Funktionalitäten bezeichnet, bei der Informationen von einem Server automatisiert an einen Client ausgeliefert werden, ohne dass letzterer dafür eine extra Anfrage stellen muss. Dieser Modus der Informationsweitergabe steht im Gegensatz zum normalen ›Pull‹-Paradigma in der klassischen »Server-Client«-Kommunikation. 53 Mit dem Begriff Content-Syndication wird in der vorliegenden Studie die Zusammenführung von Inhalten aus verschiedenen Internetquellen bezeichnet.
RAHMENBEDINGUNGEN DER AUTORSCHAFT IM NETZ | 223
turiert anzeigen. Einfache Aggregatorfunktionalitäten sind bereits in die neuesten Versionen der gängigen Web-Browser54 integriert, aber es existieren auch spezialisierte Anwendungen55. Mittels solcher Newsfeed-Aggregatoren werden Internet-Nutzer ständig über Änderungen an den abonnierten Webseiten informiert. Entsprechende Newsfeeds werden aber nicht nur von Weblogs angeboten, sondern haben sich als Standard-Funktionalität auch anderer CMS-basierter Webangebote längst im Internet durchgesetzt. Was ein Weblog auszeichnet und wie die Kommunikation darüber funktioniert, kann exemplarisch gut an der englischsprachigen Newsplattform »Slashdot« nachvollzogen werden, die, wie erwähnt, vermutlich eines der weltweit größten Weblogs darstellt.
Fallbeispiel »Slashdot« (1997 ff.) »Slashdot«56 wurde im September 1997 gestartet und zeichnet sich neben seiner Größe57 auch dadurch aus, dass es eines der ganz frühen Weblogs darstellt. Als Newsplattform richtet sich »Slashdot« an Besucher, die über einen IT-Background verfügen, was der Slogan »News for nerds58, stuff that matters«59 knapp und prägnant zusammenfasst. Das Themenspektrum umfasst dabei nicht nur rein technische Berichte, sondern auch Unterhaltungsthemen wie Buch- und Spielrezensionen, dazu Wissenschaftsnachrichten und Informationspolitik. Dazu zählen auch etwas exotische Gegenstände wie Science Fiction (Bücher, Filme, Serien) und die als negativ konnotierte Arbeit des Microsoft-Konzerns. Geordnet werden die thematisch höchst unterschiedlichen Nachrichten nach Kategorien (»Topics«), Anfang 2009 existierten insgesamt 172 solcher Abteilungen, wovon die 15 populärsten im Hauptmenü angezeigt wurden. Nicht nur der Themenfokus entspricht den Vorlieben der Zielgruppe, sondern auch die durch und durch selbstironische Präsentation der News. Ebenso wie »Mediawiki« für die »Wikipedia« wurde für »Slashdot« eine spezielle, eigene Engine namens »Slashcode« entwickelt, die unter
54 So etwa die populären Webbrowser »Internet-Explorer« (ab Version 7.0), »Mozilla Firefox« (ab Version 1.0) und »Opera« (ab Version 7.0). 55 Ein populäres Beispiel ist etwa die Freeware-Anwendung »Feedreader«. 56 Zu »Slashdot« vgl. auch die ausführlichere Diskussion bei Erik Möller, vgl. Möller 2006: 114-124. 57 Im Gegensatz zur »Wikipedia« scheint keine ›echte‹ Statistik auf den Seiten von »Slashdot« zu existieren. So lässt sich beispielsweise nicht direkt eruieren, wie viele Benutzer die Plattform überhaupt hat. Die Anzahl der Benutzerkonten lässt sich indirekt ermitteln, indem ein neues Konto angelegt wird, welches eine spezifische Nummer erhält. Anfang 2009 war dies eine Nummer größer als 1.400.000. Diese Zahl sagt aber wenig über die Anzahl der tatsächlich aktiven Poster aus, denn sie berücksichtig keine doppelten oder inaktive Konten. Eine Art ironisch gewendete Statistik existiert auf »Slashdot« in Form der »Hall of Fame«, worin die Größe der aktiven »Slashdot«-Community in etwa ersichtlich wird. So wurden im Januar 2009 mindestens zehn ›Stories‹ mehr als 300.000 mal gelesen und mindestens zehn erhielten mehr als 3.000 Kommentare. 58 »Nerd« ist eine selbstironische Bezeichnung für Menschen, die sich besonders intensiv mit IT-Themen beschäftigen und eine damit verbundene ganz bestimmte Kultur pflegen. 59 Ein Rohübersetzung, die auch den ironischen, sprachlich nicht einwandfreien Ausdruck überträgt, lautet etwa: »Nachrichten für Computer-Heinis. Zeug, das wichtig ist.«
224 | DER DIGITALE AUTOR
Open Source freigegeben und damit auch für andere Zwecke frei verwendet werden kann. Üblicherweise werden für »Slashdot« keine originär neuen Nachrichten geschrieben, sondern die knappen, oft nur einen Absatz langen »Stories« stellen Zusammenfassungen von Berichten anderer Webseiten oder simple Hinweise auf diese dar. Dieses verlinkende Prinzip hat allerdings des Öfteren unerwünschte Folgen für die entsprechenden Webangebote. Die enorm hohe Leserzahl von »Slashdot« führt zu einem ebenfalls ungewöhnlich hohen Ansturm auf jeweils besprochene Seiten, was nicht selten zu einer Unerreichbarkeit des Webservers führt. Dieser »Slashdot«-Effekt ist auch bei deutschsprachigen Nachrichtenportalen nicht unbekannt.60 Jede »Slashdot«-Story enthält über die weiterführenden Links hinaus auch ein Diskussionsforum, in denen Kommentare und Diskussionsbeiträge zu dieser Nachricht eingetragen werden können. Besonders interessant sind aber die Prinzipien des kollaborativen Schreibens in »Slashdot« sowie die Mechanismen, die der Qualitätssicherung und -kontrolle dienen. Prinzipiell ist das System zwar offen für alle Internetnutzer, sowohl registrierte als auch die unregistrierten Benutzer der Plattform können eigene Beiträge schreiben und einreichen. Allerdings entscheidet allein ein kleines Team von Editoren rund um die Betreiber, welche Artikel tatsächlich veröffentlicht werden. Somit wird ein ungleichberechtigtes, hierarchisches Publikationssystem etabliert, das eher mit einem klassischen Journalismusmodell des »Gatekeepers« vergleichbar ist. Dieser Publikationsmodus steht eher im Gegensatz zu einem echten gemeinschaftlichen Konzept, wie es etwa in der »Wikipedia« vertreten wird. Die asymmetrische Machtverteilung bildet konsequent auch einen der Hauptkritikpunkte, der immer wieder an dem Editierprinzip von »Slashdot« geäußert wird. So wird der Beurteilungsprozess durch die Editoren als untransparent und beliebig kritisiert. Als problematisch wird eingeschätzt, dass Artikel doppelt erscheinen oder Berichte von den Editoren geschrieben und veröffentlicht werden, die vorher als Einsendungen von normalen Benutzern abgelehnt wurden. Grundsätzlich gelten die »Slashdot«-Editoren als reserviert und unzugänglich gegenüber der normalen Community, dieses elitäre Prinzip scheint aber kaum kompatibel mit der ansonsten von »Slashdot« vertretenen Open Source-Philosophie. Nach der Veröffentlichung eines Artikels kann dieser von »Slashdot«Benutzern kommentiert, ergänzt oder kritisiert werden, wobei eine Registrierung nicht unbedingt zwingend notwendig ist. Diese Diskussionen erfolgen in einem hierarchisch nach Themensträngen sortierten Forum, das jeweils fest mit dem Artikel verbunden ist. Bei diesen Diskussionen achten die »Slashdot«-Editoren allerdings besonders strikt darauf, dass sich die Benutzer sehr frei und unzensiert äußern können. Diese Foren umfassen nicht selten mehrere hundert Beiträge, wobei sich oft viele Internetuser mit zum Teil enormen fachlichen Kompetenzen an den Erörterungen beteiligen. Daher kann es kaum überraschen, dass diese Kommentare den eigentlichen Mehrwert einer Plattform bedeuten, die ansonsten Informationen nur zweitverwertet. Die sehr 60 Dies gilt etwa für das Portal »Spiegel Online«, bei dem nicht selten Berichte über Webseiten nach kurzer Zeit um einen Hinweis ergänzt werden müssen, dass der entsprechende Server temporär überlastet ist. Der »heise.de-Newsticker« wird im Aufbau und den verhandelten Themen gemeinhin mit »Slashdot« verglichen, ein entsprechender Überlastungs-Effekt firmiert hier unter der Bezeichnung »Heise-Effekt«.
RAHMENBEDINGUNGEN DER AUTORSCHAFT IM NETZ | 225
hohe Anzahl von Kommentaren und der strikte Verzicht auf redigierende Eingriffe bedingen allerdings einen hohen »Rauschanteil« in der Kommunikation, also kaum brauchbare Beiträge, die die Diskussion nicht voranbringen. Dies kann unabsichtlich geschehen, etwa durch schlichte Unkenntnis, dies kann aber auch absichtsvolle Provokationen bedeuten. So genannte »Trolle« veröffentlichen aggressive oder anstößige Kommentare, die keinen anderen Zweck haben, als den Meinungsaustausch zu behindern und die Community zu reizen (vgl. dazu überblickend Myers o. J.). Das »Trolling«-Phänomen in seiner Extremform, aber auch das einfache »Rauschen«, stellen Probleme bei allen größeren Kommunikationsplattformen dar und müssen von den Beteiligten in irgendeiner Weise regulierend angegangen werden. Üblichweise wird dies durch Kommunikationsregeln (›Netiquette‹) organisiert, die von der Community erarbeitet wurden und durch negative Sanktionen durchgesetzt werden. Diese störenden Phänomene werden aber bei einer so großen Plattform wie »Slashdot« zu einem tatsächlichen, existentiellen Problem, da sie mit mehreren hundert Mitautoren pro Diskussionsstrang umgehen muss. Es kann kaum verwundern, dass das Problem der Trolle den zweiten zentralen Kritikpunkt an der Newsplattform darstellt. Aufschlussreich ist, wie die Betreiber mit dem Phänomen umgehen. Um den offenen Meinungsaustausch in den Kommentaren aufrecht zu erhalten, wurde von den »Slashdot«-Administratoren im Laufe der Zeit ein höchst komplexes, aber auch effektives System von Benutzereinstufungen (›Karma‹), Beitragsbewertungen (›Moderation‹) und persönlichen Filtern eingeführt. Damit wurde umgeschaltet von einer zentralen Aussonderung unerwünschter Beiträge, wobei immer ein Zensurvorwurf mitschwingen würde, hin zu einer persönlichen Filterung, die jeder einzelne Benutzer für sich selbst festlegen kann. Gewechselt wurde auch von einer normativen Bewertung der Beiträge hin zu einer Beurteilung durch die gesamte »Slashdot«Community. Wie funktioniert dieser Mechanismus?61 Für jeden registrierten Benutzer wird eine Einstufung namens ›Karma‹ gespeichert, die Auskunft darüber gibt, wie aktiv er ist und als wie nützlich seine Beiträge von den anderen Nutzern eingestuft werden. Werden Beiträge positiv beurteilt, steigt das Karma, bei negativer Einschätzung sinkt es. Neutrale Karmawerte (0) deuten darauf hin, dass ein Benutzer sich noch nicht oder nur wenig an der Arbeit der Community beteiligt. Das Karma stellt aber nicht allein eine Einstufung dar, sondern hat direkte Auswirkungen auf die Möglichkeiten, die ein Benutzer über das reine Schreiben von Kommentaren oder Einreichen von Beiträgen hinaus im System hat. Um die Güte von geschriebenen Beiträgen einschätzen zu können, werden diese durch ein semi-zufallsbasiertes Moderationssystem bewertet, das jedoch direkt von den Karmawerten der User abhängig ist. Positive Karmawerte und regelmäßige Besuche der Plattform führen eher dazu, dass ein Benutzer für die Moderation von Beiträgen ausgewählt wird. Umgekehrt dürfen User mit negativen Einstufungen tendenziell eher nicht moderieren. Moderatoren dürfen allerdings stets nur eine kleine Zahl von Kommentaren bewer61 Dieser Mechanimus wird flankiert von einer Reihe weiterer, kleinerer Massnahmen, die einem gewissen Wandel unterliegen und mit denen die SlashdotBetreiber auf Veränderungen in der Community reagieren. Aufgrund der Fluktuation und der untergeordneten Bedeutung werden diese Procedere hier nicht weiter diskutiert.
226 | DER DIGITALE AUTOR
ten, zudem müssen sie dies in einer gewissen Frist erledigen. So wird sichergestellt, dass der damit verbundene Einfluss auf die Karmawerte der bewerteten Autoren verantwortlich gehandhabt wird. Sobald ein Nutzer für die Moderation ausgewählt wurde, kann er sich einen beliebigen Kommentar aussuchen und diesen positiv oder negativ bewerten. Ein Beitrag kann im günstigsten Fall eine Einstufung von »+5« (sehr gut) erhalten, im schlechtesten Fall eine »-1« (sehr schlecht, meistens die Einstufung von Trollpostings). Die neutrale Einstufung »0« stellt den Startwert dar. Zusätzlich erhält jeder Kommentar eine wertende Beschreibung. Aufgrund der immens hohen Nutzerzahl von »Slashdot« und der daraus resultierenden hohen Zahl von Moderatoren wird jeder Beitrag mehrmals bewertet, wodurch sich eine faire Bewertung durch mehrere Moderatoren ergibt. Die Bewertung eines Beitrages wird dem Karma des entsprechenden Autors zugeschlagen, wodurch er für gute Kommentare belohnt, für schlechte aber sanktioniert wird. Hauptzweck der Kommentarbewertung ist allerdings, dass jeder Besucher von »Slashdot« für sich selbst einstellen kann, ab welchem Schwellenwert er Postings angezeigt bekommen möchte. Stellt er den Wert besonders hoch ein, kann er nur wenige Reaktionen lesen, die qualitativ aber als sehr gut eingeschätzt werden. Stellt er den Wert besonders niedrig ein, werden mehr bis fast alle Kommentare angezeigt, der User muss im ungünstigsten Fall mehrere hundert Beiträge sichten. Schließlich kann auch jeder Benutzer für sich entscheiden, ob er die im System grundsätzlich zugelassenen Trollpostings angezeigt haben möchte, indem er den Filter auf »-1« setzt. Die Mehrzahl der Benutzer stellt ihren Schwellenwert höher ein und wird von solchen Provokationen verschont. Es wird deutlich, dass durch dieses Moderationssystem dem einzelnen Benutzer auf effektive Art die Selektions- und Bewertungsarbeit abgenommen wird, ohne dass Beiträge zentral anhand von möglicherweise schwer zu objektivierenden Kriterien eingestuft werden. Flankiert wird das Moderationssystem durch ein übergeordnetes MetaModerationssystem, das wiederum die Moderationsentscheidungen bewertet. Angemeldete Benutzer können dabei die Entscheidungen mit dem jeweilig bewerteten Artikel vergleichen und einschätzen, ob die jeweilige Moderation fair oder unfair war. Das Resultat dieser Meta-Einschätzung hat aber direkten Einfluss darauf, ob und wie häufig der bewertete User in der Zukunft zur Moderation gebeten wird. Werden Bewertungen als unfair eingestuft, werden die dafür verantwortlichen User weniger häufig moderieren dürfen und umgekehrt. Damit wird sichergestellt, dass Moderatoren die ihnen temporär zugewiesene Macht nicht missbrauchen und die Einstufungen der Kommentare, auf die sich die Leser ja verlassen, ein adäquates Bild ergeben. Dieses mehrstufige Bewertungsverfahren wurde seit 1998 in einer stetigen Auseinandersetzung mit dem Kommunikationsgeschehen auf der Plattform entwickelt. Flankiert wird es von weiteren automatischen Erkennungsverfahren sowie zusätzlichen Einstellmöglichkeiten für die Benutzer. »Slashdot« steht damit beispielhaft für einen Begutachtungsprozess, der trotz einer enormen Textmenge funktioniert und dabei die Begutachtungskompetenz einer riesigen Community nutzt.62 Bemerkenswert ist zudem, wie die Ideale der
62 Für eine genauere Beschreibung des Bewertungsmechanismus’ auf »Slashdot« vgl. auch die Beschreibung auf der Plattform selbst, vgl. CmdrTaco [Rob Malda] u. a. o. J.
RAHMENBEDINGUNGEN DER AUTORSCHAFT IM NETZ | 227
Open Source Bewegung trotz aller störenden Einflüsse durch Provokationen hier funktionierend umgesetzt werden. Diese äußerst komplexe, kollaborative und als grundsätzlich fair angesehene Form der Bewertung wird aber trotzdem noch als fehleranfällig kritisiert, was weitere Optimierungen am Algorithmus erwarten lässt (vgl. dazu Möller 2006: 116-118 und CmdrTaco [Rob Malda] 200663). Als kritikwürdig muss vor allem gelten, dass die Benutzer zwar in ihren Kommentaren sehr frei sind und auch Trolle faktisch keiner Zensur unterliegen. Allerdings ist bei der grundsätzlichen Entscheidung, welcher Beitrag in welcher Form überhaupt erst auf der Plattform veröffentlicht wird, eine strenge Hierarchie zwischen der kleinen Gruppe der Editoren mit Publikationsmacht und der großen Gruppe der Benutzer ohne diese festzustellen. Dies bildet aber einen fundamentalen Unterschied zum Prinzip der »Wikipedia«. Sowohl die »Wikipedia« als auch »Slashdot« sind beides allerdings explizit keine künstlerischen Plattformen, wie sie eigentlich den Gegenstand der vorliegenden Untersuchung darstellen. Die hier vertretene These ist aber, dass im nichtkünstlerischen Raum Regeln und Algorithmen experimentell erarbeitet werden, die auch für künstlerische, kollaborative Produktionen nutzbar gemacht werden könnten (vgl. Kapitel 8.2).
Fallbeispiel »Die Dschungel. Anderswelt.« (2004 ff.) Wie bereits ausgeführt, scheinen sich Weblogs vor allem für eine periodische Berichterstattung zu eignen, damit kann es kaum verwundern, dass WeblogsEngines auch selten für literarische Arbeiten eingesetzt werden. Eines der wenigen Beispiele stellte das Projekt »Worldwatchers« (aus dem Jahr 2003) von Susanne Berkenheger und Gisela Müller dar, in dem die (tägliche) Überwachung durch Kameras thematisiert wird. In diesem Projekt wurde die Kontinuierlichkeit der Berichterstattung in ironisch gebrochener Weise poetisch reflektiert, was zumindest einen Beweggrund für den Einsatz eines Weblogs dargestellt haben durfte. Zudem sollte ein kollaborativer Schreibplan von mehreren festen Mitautoren bzw. gelegentlich mitschreibenden Schriftstellern umgesetzt werden, auch das ist ein Argument für den Einsatz einer WeblogEngine. Die geringe Zahl von literarischen Weblogs, so scheint es, könnte aber ein Indiz dafür sein, dass nur wenige Poetiken bzw. literarische Projektkonzeptionen durch ein Weblog technisch untersetzt werden können. Dies könnte mit einer weiter unten diskutierten grundsätzlichen Reserviertheit gegenüber kollaborativen Schreibmodellen zusammenhängen. Auch wenn Weblogs nur selten als literarische Methode eingesetzt werden, scheinen sie als Kommunikationsplattform für den literarischen Metadiskurs durchaus relevant zu sein. Sowohl für traditionelle als auch für Netzliteraten stellen Weblogs eine Möglichkeit dar, ihre eigene Arbeit oder die Arbeit einer Schriftsteller-Community zu dokumentieren und damit um Aufmerksamkeit für sich zu werben. Zudem kann über eine solche Plattform ein einfacher Informationsaustausch über alle denkbaren Literaturthemen oder die jeweiligen Beteiligten realisiert werden. Schließlich werden technikaffine
63 Der Artikel »On the matter of Slashdot story selection« des »Slashdot«Gründers CmdrTaco (Rob Malda) reagierte auf eine ganze Reihe von Kritiken am eher elitären »Slashdot«-Auswahlprozess, welche am 10.01.2006 auf vielen »Slashdot«-Stories erschienen.
228 | DER DIGITALE AUTOR
Netzliteraten von der Motivation geleitet, neue Kommunikationstechnologien intensiv zu erproben. Dieser Metadiskurs über Literatur lässt sich exemplarisch an dem bereits erwähnten »Literaturwelt«-Blog nachvollziehen. Es wurde von einigen Aktiven der deutschsprachigen »Netzliteratur«-Szene anlässlich der Frankfurter Buchmesse im Oktober 2005 gestartet. Zunächst als temporäres Experiment konzipiert, begann das Weblog mit einer intensiven Berichterstattung zu dieser Buchmesse. Einen Monat lang dokumentierten seine Autoren das von Johannes Auer kuratierte Netzliteraturfestival »Literatur und Strom. Code – Interface – Concept« in Form eines Livebloggings64. Die einzelnen Beiträge leiteten dabei nicht selten eine intensive Diskussion zwischen den Mitschreibern in den Kommentaren ein und standen damit beispielhaft für das kollaborative Schreiben in Weblogs. Auch Anfang 2009 war das fast 20köpfige Team weiterhin aktiv, was bemerkenswert für ein Netz-Experiment ist. Beachtlich ist schließlich zudem, dass ein solches Projekt über den gegenseitigen moralischen Beistand der Beteiligten hinaus auch für tatsächliche, finanzielle Unterstützung genutzt wird; so etwa geschehen am 15. März 2006, als die Weblog-Autorin Regula Erni einen dringenden Hinweis auf einen ökonomischen Hilferuf ihres (Blogger-)Kollegen Alban Nikolai Herbst postete (vgl. Erni 2006). Der Dichter Alban Nikolai Herbst ist selbst ein engagierter Blogger, sein umfangreiches literarisches Weblog »Die Dschungel. Anderswelt.« (vgl. Herbst 2004 ff.) steht nahezu einzigartig in der deutschsprachigen, literarischen Landschaft. Herbst ist als freier Schriftsteller sowie Rundfunk-Autor zwar fest im traditionellen Literatursystem verankert und wird von der Sekundärliteratur auch weitestgehend als Print-Autor wahrgenommen, tatsächlich stellt er jedoch einen der ersten aktiven deutschsprachigen Weblog-Autoren dar.65 Herbsts Weblog ist seit September 2003 online, er nutzt seit dem 12. Juni 2004 den bereits erwähnten Dienstleister »twoday.net«.66 Offensichtlich bestand eine erste Motivation, ein Weblog-System einzusetzen, in der sehr einfachen Pflege eines solchen, ohne notwendigerweise detaillierte HTMLKenntnisse vorauszusetzen. Zweite Absicht war die Nutzung der Webseite als sortierte Sammlung von sehr unterschiedlichen Textformen, nämlich Notizen, Exzerpten, Tagebucheinträgen, Beobachtungen und ähnliches. Somit bildet sein Weblog eine interessante Melange von Literaturtheorie, persönlichem Schicksal und Kommunikation. Bereits an dem Umfang des Auftrittes sowie der Art und Weise seines Schreibens wird deutlich, dass die WeblogTechnologie seine Absichten nahezu idealtypisch unterstützt. So unterteilt er seine Einträge Anfang 2009 in insgesamt mehr als 50 verschiedene Kategorien, was selbst für einen intensiven Blogger eher umfänglich erscheint.
64 Das Verb »bloggen« bezeichnet das (Mit-)Schreiben in einem Blog. Es hat bereits Eingang in den offiziellen deutschen Sprachschatz gefunden, Anzeichen dafür ist seine Aufnahme in den »Duden«. 65 Zum Weblog selbst bzw. dessen Rolle in der Selbstinszenierung des Autors Herbst vgl. auch Glauch 2005. 66 Die Einträge, die Herbst vor dem Umzug zu »twoday.net« auf einem Weblog beim Dienstleister »Freecity.de« verfasst hat, sind nur lückenhaft archiviert, vgl. Herbst 2003-2004.
RAHMENBEDINGUNGEN DER AUTORSCHAFT IM NETZ | 229
Abbildung 11: Alban Nikolai Herbst: »Die Dschungel. Anderswelt.« (2004 ff.)
Quelle: Screenshot der Kategorie »Arbeitsjournal« am 23. Oktober 2008, vom Autor All diese Elemente werden aber von Herbst nicht planvoll, systematisch ausgearbeitet, sondern wild assoziierend heruntergeschrieben. So zufällig und zusammenhangslos wie die Ereignisse und Gedanken dem Schriftsteller auch widerfahren, schreibt er sie sofort nieder. Beim Lesen der Einträge in chronologischer Reihenfolge kann der zufällige Besucher kaum einen Sinn herstellen, Kohärenz wird erst durch die Verschlagwortung und damit schlussendlich durch die Weblog-Engine hergestellt. Erst durch wiederholte Besuche der Webseite und ausführliche Lektüre der archivierten Postings kann der höchst komplexe Text und damit die Komplexität seines Autors allmählich erfasst werden. Dies sind aber typische Verfahren eines Weblogs, hier hat die Technik offenbar eine wilde Oszillation mit einem Schreibverfahren hergestellt. Zunächst auf eine Schreibabsicht antwortend, fordert die Software auch fragmentiertes Assoziieren ein und be-fördert sie. Der intensive Einsatz von internen und externen Hyperlinks lassen Alban Nikolai Herbsts Weblog beinahe wie Netzliteratur wirken.67 Mit seiner Arbeit am Weblog arbeitet Herbst nicht nur seine eigene Poetologie aus, sondern führt sie sofort durch und erprobt sie im Experiment. Er gestaltet das Alltägliche auf ästhetische Art und Weise, zudem reflektiert er 67 Auch wenn die Texte, die Herbst auf seiner Seite veröffentlicht, durchweg im klassischen Printmedium reproduzierbar wären, reflektiert seine Poetologie aber strukturell und selbstreflexiv die Merkmale des Netzes. Tatsächlich wird Herbst von der deutschsprachigen Netzliteraturszene eindeutig auch als Vertreter einer digitalen Literatur angesehen. So wirkt er als Blogger beim »Literaturwelt«Blog mit und war beim 2005er Netzliteraturfestival »Literatur und Strom« als Referent eingeladen.
230 | DER DIGITALE AUTOR
es literarisch. Sein Weblog ist damit nicht nur eine Dokumentation des eigenen Lebens oder seiner Literatur, es ist nicht nur ein poetisches Handwerkszeug, sondern es stellt selbst Kunst dar. Folgerichtig erarbeitet Herbst auf seiner Seite eine (fragmentierte) Poetologie des literarischen Weblogs, die im deutschsprachigen Raum vermutlich die erste ihrer Art ist.68 Ergänzt werden diese poetologischen Entwürfe und Reflexionen durch eine ganze Reihe anderer literarischer Vorarbeiten und Gedankengänge. So dokumentiert Herbst den Fortschritt seiner jeweils aktuellen literarischen Arbeit in einem »Arbeitsjournal«, publiziert erste Entwürfe und Streichungen, versammelt Materialien und Reaktionen auf sein Werk. Ein solches Verfahren ist für ein Weblog aber eher untypisch und nutzt die technischen Möglichkeiten einer Weblog-Engine auf avantgardistische Art und Weise. Typischer für ein Weblog ist aber, dass Alban Nikolai Herbst sehr ausführlich seine schriftstellerische Tätigkeit dokumentiert und darin detaillierte Reflexionen über seine Existenz als Schriftsteller anstellt. Sein Weblog bildet sowohl ein persönliches Tagebuch als auch ein Reservoir wichtiger Korrespondenzen an seine Verleger und Gläubiger, es versammelt schließlich auch detaillierte Tagesabläufe und Beschreibungen wichtiger Termine. Damit dient sein Weblog zum einen der eigenen Selbstvergewisserung, zum anderen aber auch der Verarbeitung existentieller oder persönlicher Probleme. Diese Einblicke können zunächst als typisch für die Textsorte Weblog eingeschätzt werden. Auffallend sind an »Die Dschungel. Anderswelt.« allerdings die besonders offenen und überaus intimen Darstellungen des eigenen Lebens, Alban Nikolai Herbst ignoriert damit auf geradezu extreme Art und Weise die Grenzen der eigenen Privatsphäre (und eingeschränkt auch die anderer Personen, weil jene nicht immer anonymisiert werden). Dies entspricht zunächst Herbsts literarischer Methode, die das Alltägliche und Persönliche zum Gegenstand der eigenen Poesie macht und eine autobiographische Literatur formiert. Darüber hinaus dienen die offenen, zum Teil auch sehr verstörenden Schilderungen eines arbeitsreichen Schriftstellerlebens, das stets von nahezu unerträglichen ökonomischen Schwierigkeiten geprägt ist, aber dem dritten großen Ziel des Weblogs. Einen bedeutenden Teil seiner Arbeitszeit verwendet Herbst nämlich auf die direkte und intensive Kommunikation mit den Lesern seines Weblogs und seiner Bücher sowie mit seinen Mäzenen. So veröffentlicht er einen unregelmäßigen Newsletter, beschreibt intensiv den Fortgang seiner Arbeit, antwortet oft sehr ausführlich auf Kommentare zu seinen Beiträgen und wendet sich immer wieder mit konkreten Bitten um Unterstützung an seine Leser. Die schonungslose Darstellung seiner oft prekären finanziellen Situation wird also stets auch von Zeugnissen seiner Produktivität begleitet: »Dabei arbeite ich hart. Mein Arbeitstag beginnt morgens um halb fünf und hört abends nicht selten erst nach 22 Uhr auf. Es ist dabei ein unterdessen riesiges Werk entstanden […] Ich stehe in der entschiedenen Tradition von Kunstauffassungen, die in ihrer Zeit ebenfalls umstritten bis abgelehnt, aber gelegentlich bepriesen wurden
68 Einen Zwischenstand seiner Reflexionen präsentierte Herbst im November 2005 auf dem von Johannes Auer kuratierten Netzliteraturfestival »Literatur und Strom. Code – Interface – Concept«, vgl. Herbst 2005.
RAHMENBEDINGUNGEN DER AUTORSCHAFT IM NETZ | 231 und ihre Verfasser haben finanziell sehr darben lassen. Das historische Ergebnis aber gibt ihnen recht.« (Herbst 2006d)69
Seine Leser und Mäzenen bittet er vor allem um Spenden für die Finanzierung seiner Arbeitsmaterialien und benötigter Technik; der Lebensunterhalt soll also stets aus der eigenen literarischen Arbeit bestritten werden.70 Es wird hierbei deutlich, wie sehr sich Herbst von dem traditionellen ökonomischen Modell abgekoppelt hat (oder abkoppeln musste), das ihm reguläre Einnahmen versagt und stattdessen auf Geschenkökonomie sowie freiwilliges Mikropayment umschaltet. Ironisch muss dabei anmuten, dass Herbsts Arbeit bei aller Kritik des Literaturbetriebes literarisch als überaus wertvoll angesehen wird.71 Diese ökonomische Strategie ist aber typisch für einen bloggenden Netzliteraten.72 »Die Textfassung dieses Vortrags wird kostenfrei zur Verfügung gestellt«, schreibt Herbst am Ende seines bereits erwähnten Vortrages zur Poetologie des literarischen Weblogs. Und er führt weiter aus: »Dennoch wären wir für eine Spende dankbar, schon damit dieser Service beibehalten bleiben kann. Die Höhe der Zuwendung sei völlig Ihnen überlassen: nach dem, was Sie können, sowie nach dem, was Ihnen ein solcher Vortrag wert ist.« (Herbst 2005: 18) Damit ist aber die allgemein äußerst schwierige finanzielle Situation von Netzliteraten angesprochen, die im Folgenden näher diskutiert wird.
7.3 Ökonomische Bedingungen der Autorschaft Im Sinne des Handlungsrollenmodells kann der ökonomische Charakter von Online-Medien nach den drei Handlungsbereichen Produktion, Distribution und Rezeption analytisch differenziert werden.73
69 Dieses und weitere entsprechende Postings sind in seinem Weblog unter »Arbeitsjournal«, »DT« und »Gläubiger« dokumentiert, vgl. Herbst 2004 ff. 70 Eine kleine Auswahl entsprechender Bettel- und Brandbriefe: 25. Januar 2006: Sponsoring der Arbeitswohnung (Herbst 2006b, auch in Printform publiziert, vgl. Herbst 2006a); 13. März 2006: Sponsoring des Internet-Anschlusses (Herbst 2006c); 12. Februar 2007: Sponsoring eines Laptops (Herbst 2007). 71 Der anerkannte Literaturwissenschaftler Ralf Schnell vergleicht das Werk von Alban Nikolai Herbst mit den Arbeiten von Christoph Ransmayr, Peter Handke und der Literaturnobelpreisträgerin Elfriede Jelinek, vgl. Schnell 2003: 601606. Eine ausführliche Würdigung erfährt der Autor in einem von Schnell herausgegebenen Sonderband der Zeitschrift »Die Horen«, vgl. Schnell 2008. Darüber hinaus wurde sein Werk mit verschiedenen wichtigen Literaturpreisen und Stipendien ausgezeichnet, vgl. die Dokumentation auf Herbsts eigener Website, Herbst 2003 ff., Abschnitt »Sekundäres«. 72 Betreiber anderer (auch nicht-literarischer) Blogs, wie etwa dem in Deutschland bekannten BILDblog, handeln ebenso. So bitten diese um Spenden und bieten die Möglichkeit an, auf ihrer Seite zu werben. 73 Dieser Abschnitt führt frühere Überlegungen fort, vgl. Hartling 2002: 51-53.
232 | DER DIGITALE AUTOR
7.3.1 Produktion Analysiert man im Handlungsbereich der Produktion die ›ganzheitliche‹ Produktion von Kunst und Literatur im Netz, hat man es mit zwei völlig unterschiedlichen Gruppen zu tun. Zum einen handelt es sich dabei um nebenberufliche Autoren, die sich die Kunstproduktion als Hobby oder Liebhaberei leisten, ihre Rolle aber wenig oder gar nicht professionalisieren. Zum anderen sind dies die hauptberuflichen Autoren, die ihren Lebensunterhalt unmittelbar oder mittelbar aus der Kunstproduktion gewinnen wollen. Letztere stellen zwar den Hauptfokus der vorliegenden Analyse dar, trotzdem ist auch die ökonomische Situation der zuerst genannten, nebenberuflichen Autoren relevant, weil hier das Dispositiv seine Vorteile ausspielen kann. Nebenberufliche Autoren verspüren kaum einen ökonomischen Druck, da ihr Einkommen durch ihre hauptberufliche Tätigkeit abgesichert ist. Die einzig für sie relevante Ressource ist die der Zeit. Eine gewisse Computerund Internetaffinität führt zumeist dazu, dass ein hoher Teil der eigenen Freizeit ganz selbstverständlich dem Medium zur Verfügung gestellt wird. Typischerweise übt gerade die Online- und Multimedia-Produktion einen hohen Reiz auf Internetnutzer aus, sodass diese selbst herstellen und sich das dazu nötige Wissen zum Teil autodidaktisch, zum Teil aber auch durch die Unterstützung der Netzcommunity74 aneignen. Anders als bei Print- oder elektronischen Medien kann die gering finanzierte ›ganzheitliche‹ Produktion eines Einzelnen oder eines kleinen Produktionsteams zu vergleichbaren Ergebnissen führen wie stark arbeitsteilige Projekte mit hohem Budget.75 Der Grund dafür ist in der ›digitalen Revolution‹ und dem ›Internet-Boom‹ zu suchen. Die Hard- und Software moderner Personal Computer76 sind leistungsfähig genug, um semiprofessionelle Onlineproduktionen zu erlauben. Damit sind die grundlegenden Produktionsapparate für Online-Medienangebote in privaten Haushalten der Industrieländer im großen Maßstab verfügbar. Der Internetnutzer wird damit selbst zum Produzenten.77 Kompensiert wird das fehlende oder geringe Budget oftmals durch das große zeitliche Engagement der Betreiber, die, unter Umgehung klassischer Medieninstitutionen, die Rollen von Produktion und Distribution in sich vereinen. Projekte können damit kostengünstiger und zum Teil auch schneller 74 Diese Unterstützung vollzieht sich zumeist in webbasierten Foren, in Mailinglisten oder auf speziell dazu eingerichteten Webseiten und Wikis. 75 Grenzen sind hierbei vor allem vom Hardwarebedarf gesetzt. So werden komplexe Indexierungsdienste (die ganze Serverparks mit mehreren hundert vernetzten Computern voraussetzen) oder Nachrichtenportale wie »tagesschau.de« (mit umfangreichem Videodownload-Angebot) kaum von privater Hand realisiert werden können. Anderes gilt aber z. B. für Animationen. 76 Mittlerweile bieten selbst Lebensmitteldiscounter Desktop-Computer und Notebooks an, die sich explizit für Multimedia-Produktionen eignen sollen. Auf der Software-Seite sind selbst erschwingliche, semiprofessionelle Programme inzwischen ausgereift genug, um ansprechende Ergebnisse zu erzielen. Außerdem werden abgespeckte Versionen von Profisoftware wie z. B. Adobe Photoshop veröffentlicht (erkennbar an dem Zusatz »Light« oder »Special Edition«), die für die meisten Anwendungen ausreichen. 77 Vgl. etwa den Boom von »Machinima«-Animationen, vgl. Wehn 2004, sowie selbstproduzierten Videos, die über Plattformen wie »youtube.com« nicht nur distribuiert, sondern von diesen auch befördert werden, vgl. Gugel/Wehn 2006.
RAHMENBEDINGUNGEN DER AUTORSCHAFT IM NETZ | 233
entwickelt werden, als das bei traditionellen Medien möglich wäre. Die damit verbundene Unabhängigkeit von einem Medienbetrieb hat darüber hinaus den Vorteil einer tatsächlich unbegrenzten künstlerischen Freiheit. Ein großes Problem stellt allerdings die Finanzierung von Projekten dar, die über Experimente oder ehrenamtliche Engagements hinausgehen und damit eine gewisse Größe übersteigen. Anspruchsvolle Projekte, die eine große Zahl von Besuchern anlocken, sind zumeist keine Ein-Mann-Unternehmungen mehr, deren Betreuung ehrenamtlich und unentgeltlich erfolgen kann. Die finanzielle Decke wird also auch bei nebenberuflichem oder ehrenamtlichem Engagement zu einem Problem, der Hobbycharakter schließt aber eine Refinanzierung eher aus. Zudem bietet das Netz, wie hier zu diskutieren sein wird, momentan nur sehr eingeschränkte Refinanzierungsmöglichkeiten für Kunst und Literatur. Dieses ökonomische Problem trifft aber in besonderem Maße die Autoren, die ihre künstlerische Tätigkeit professionalisiert haben. Sie streben mit ihrer künstlerischen Arbeit grundsätzlich einen Hauptbroterwerb an. Zur Lebenssicherung notwendige nicht-künstlerische Aktivitäten werden von ihnen allenfalls als Querfinanzierung der Kunst angesehen. Damit haben aber Autoren im Netz grundsätzlich ähnliche Probleme wie traditionelle Schriftsteller. Sie ›schreiben‹ oftmals am Existenzminimum, erfahren Belastungen durch den nichtkünstlerischen Broterwerb, der an der Zeit für die Kunst nagt, und sie sind angewiesen auf Fördergelder, Stipendien oder Mäzene. Die vergleichbar schlechte ökonomische Situation von traditionellen Schriftstellern verdeutlicht eine Sammlung von »Bettel- und Brandbriefen berühmter Schriftsteller«, die Birgit Vanderbeke unter dem bezeichnenden Titel »Ich bin ganz, ganz tot, in vier Wochen« herausgegeben hat (vgl. Vanderbeke 2006a). Bemerkenswert an diesen Zeugnissen aus erster Hand ist vor allem, dass es sich hierbei nicht um im literarischen Sinn erfolglose Autoren handelt. Es sind anerkannte, bekannte und heute kanonisierte Schriftsteller, die ihre ökonomische Not drastisch zur Schau stellen mussten. So ist ein Brief von Else Lasker-Schüler an ihren Gönner und Schriftstellerkollegen Franz Werfel enthalten, in dem es heißt: »Wollen Sie sofort mit Zsolnay verhandeln. Ich hab auch neues Manuscript. Dieses neue Manuscript hatte ich einmal hingesandt vor einem Jahr etwa. Wiederbekommen, da zwei Partien – schreiben so. Das Manuscript schon verkauft sehr karg, und ich bekäme es auch wieder – denn ich bin Privatbolschewist mit Truppen. Nun ist doch ein Kaufmann: Kaufmann: Sie müßten kaufmännisch mich loben, bin sehr fleißig und Bücher stehen im Curs […]. Franz Werfel sofort Antwort! Sind Sie Paris? Zsolnay soll viel Geld haben! Und ich fresse schon meine Fingerspitzen wie Spargelköpfe. Und nun enorm zu zahlen. Will mal sehen, ob sie wirklich religiös sind. Nur an einem einzigen zeigt sich die Freundschaft. […] Franz Werfel die Welt fällt wenn Sie es verdrödeln.« (Lasker-Schüler 2006 [1926]: 44-45, Hervorhebungen im Original)78
Bemerkenswert ist aber auch der Subtext des Buches. Vanderbeke hatte eine erste Version der Sammlung bereits im Jahr 1990 unter dem ähnlich aufrüttelnden Titel »Fresse schon meine Fingerspitzen wie Spargelköpfe« (vgl. Vanderbeke 1990) veröffentlicht. Aus den Briefen zog die damals noch weit78 Der Brief datiert vom Mai 1926.
234 | DER DIGITALE AUTOR
gehend unbekannte Schriftstellerin den Schluss, dass der Autor-Beruf kein einträglicher sei. Sechzehn Jahre später galt Vanderbeke als eine der avanciertesten deutschsprachigen Gegenwartsautorinnen, die mehrere wichtige Literaturpreise erhalten hat. An der Einschätzung ihrer Lebenssituation hat sich aber nichts geändert. »Ja kann man denn davon leben?«, würde sie immer noch häufig gefragt. Ihre Antwort aber wäre nach wie vor: »Eher nicht, aber irgendwie doch« (Vanderbeke 2006b: 9). Auch der im Buch veröffentlichte Bettelbrief von Alban Nikolai Herbst aus dem Jahr 2006 bezeugt die Kontinuität der extremen wirtschaftlichen Lage von Autoren seit eh und je (vgl. Herbst 2006a79). Diese Befunde aus den Primärzeugnissen werden von der Forschung gestützt.80 Solche Einschätzungen von Print-Schriftstellern finden sich fast wortwörtlich in Interviews mit Netzkünstlern wieder. So stellt der Animationskünstler Peter Auge Lorentz knapp und schonungslos fest: »Mit Animationen im Internet verdient man kein Geld« (Fröde et al. 2005, Clip »Antworten« | »Lorenz - Geld«, Zeitindex 00:00:02-00:00:06). Für Johannes Auer liegt dies generell in der bereits diskutierten Parallele zwischen traditioneller und Online-Kunst begründet: »Also grundsätzlich muss man sagen: Beim Web Geld verdienen unterscheidet sich die Netzkunst und Netzliteratur in nichts von der traditionellen Kunst. Da sind auch ungefähr in der traditionellen Kunst nur maximal 3% die wirklich richtig gut davon leben können. Der Rest muss in irgendeiner Form quersubventionieren.« (Fröde et al. 2005, Clip »Antworten« | »Auer - Geld«, Zeitindex 00:00:01-00:00:18)
Als Flanierer zwischen der Offline- und Online-Kunst erkennt Auer das Problem damit nicht allein als ein netzspezifisches an, er sucht dessen Lösung in etablierten Strategien aus der traditionellen Kunstwelt. Dass das Netzdispositiv durch seine Spezifika aber den Broterwerb durchaus noch zusätzlich erschwert, stellt die Netzliteratin Susanne Berkenheger halb selbstironisch, halb verbittert fest: »Man kann nicht Netzliterat werden und versuchen davon zu leben, weil ich seh da keine Perspektive […]. Es gibt schon ein größeres Problem bei Netzliteratur, dass man natürlich nichts zu verkaufen hat. Und selbst wenn man jetzt bekannter wird, hat man dennoch nichts zu verkaufen. Und deswegen kommen […] keine größeren Erträge.« (Fröde et al. 2005, Clip »Antworten« | »Berkenheger - Geld«, Zeitindex 00:00:00-00:01:30)
79 Dieser Bettelbrief ist einer von vielen, die sich an die Leser von Alban Nikolai Herbsts Weblog richteten, stellte demnach gewissermaßen also eine ›Weiterentwicklung‹ des Genres dar, Originalquelle vgl. Herbst 2006b. Herbsts Weblog bietet noch eine Reihe weiterer Zeugnisse ökonomische Not, so etwa Briefe an das Finanzamt oder Berichte über Termine bei einem Gerichtsvollzieher. 80 Vgl. anstelle vieler anderen Untersuchungen die bekannt gewordene historische Studie »Der Autorenreport«, vgl. Fohrbeck/Wiesand 1972. Obwohl bereits über 30 Jahre alt, hat sich an den groben Tendenzen und Einschätzungen kaum etwas geändert. Für aktuellere Untersuchungen vgl. die Studien des aus den Arbeiten zum »Autorenreport« hervorgegangenen »Zentrums für Kulturforschung« (ZfKf).
RAHMENBEDINGUNGEN DER AUTORSCHAFT IM NETZ | 235
Bemerkenswert ist dabei, dass Susanne Berkenheger in Deutschland vermutlich die bekannteste und künstlerisch eine der erfolgreichsten unter den Netzliteraten und Netzliteratinnen ist. Allein lassen ihre pessimistischen Einschätzungen denselben Schluss wie bei der gleichermaßen bekannten und erfolgreichen Birgit Vanderbeke zu; vom literarischen Erfolg allein können Netzautoren nicht leben.81 Hinzu kommt, dass die Zahlungsbereitschaft bei der Nutzung von künstlerischen Internet-Inhalten, anders als bei den großen Onlineauftritten, äußerst gering ausgeprägt ist.82 Analysiert man die Szene der praktischen Netzliteratur und deren theoretische Reflexion genauer, wird deutlich, dass derzeit die meisten Projekte nach dem Prinzip der Selbstausbeutung oder der Querfinanzierung betrieben werden. Bezogen auf die Netzliteratur stellte Johannes Auer heraus, dass es seines Wissens nach gerade drei Projekte im deutschsprachigen Raum gegeben hätte, die tatsächlich Einnahmen für den Künstler oder die Künstlerin einspielten (vgl. Fröde et al. 2005, Clip »Antworten« | »Auer - Geld«, Zeitindex 00:00:52-00:01:47).83 Dass anspruchsvollere Unternehmungen irgendwann unweigerlich vor der Entscheidung stehen, aufzugeben oder nutzerunfreundliche Maßnahmen zu ergreifen, zeigte sich im Jahr 2002 am Schicksal des E-Zines »dichtungdigital«. Dieses stellt die anerkannteste wissenschaftliche Zeitschrift zur Theorie und Kritik von Netzliteratur im deutschsprachigen Raum dar. Auch international kann sie als renommiert angesehen werden, da sie in den letzten 81 Zur schwierigen ökonomischer Situation vgl. auch den provokanten Vortrag »Wertetransfer: (Netz-) Kunst & Kommerz« von Reinhard Döhl und Johannes Auer, vgl. Döhl/Auer 2003. 82 Die Geschäftsmodelle der großen Onlineauftritte bzw. der großen Contentverwerter stehen nicht im Zentrum der Analyse, deshalb sei hier nur ein knapper Hinweis auf die gegenläufige Tendenz gegeben: Die Contentverwerter haben in den letzten Jahren sehr hart daran gearbeitet, bei den Nutzern ein Bewusstsein dafür zu schaffen, dass Inhalte auch im Internet nicht kostenlos abrufbar sind. Damit einher ging die Erweiterung entsprechender Unternehmensstrategien auf die Internet-Distribution und die Entwicklung unkomplizierter und effektiver Micropayment-Systeme. Kommerziell erfolgreich arbeiten spezialisierte Dienste, wie etwa »Apple iTunes« (Distribution von Musik und Videos; »iTunes« trägt mit dazu bei, dass Apple derzeit hohe Gewinne erzielt, vgl. auch anw [Andreas Wilkens] 2009) oder das Online-Portal von »Stiftung Warentest« (Verbraucherinformationen, vgl. auch Stiftung Warentest 2008; im Jahr 2007 erwirtschaftete das OnlinePortal Einnahmen im Umfang knapp eines Viertels des Zuschusses, den die Stiftung vom Bundesverbraucherschutzministerium erhielt). Allmählich kostendeckend, wenn auch zumeist nicht wirklich kommerziell erfolgreich, arbeiten die Online-Auftritte der traditionellen Medien. Eine der bekanntesten und ertragsreichsten Plattformen in Deutschland ist »SPIEGEL ONLINE«. (Die Plattform ist nach allen maßgeblichen Kennzahlen die führende Nachrichtenplattform im deutschsprachigen Internet und erzielte im Jahr 2007 einen Jahresüberschuss von 2,0 Millionen Euro; vgl. den Jahresabschluss 2007, der im »Elektronischen Bundesanzeiger« veröffentlich ist.) 83 Auer bezieht sich damit auf den Verkauf eines »Netart-Generatoren« der Künstlerin Cornelia Sollfrank, auf seinen eigenen Erfolg mit dem Projekt »Fabrikverkauf« sowie die »toywar« Aktion der Künstlergruppe »etoys«. Diese Zahl erhöht sich auf vier Projekte, zählt man den von Auer im Interview nicht erwähnten, erfolgreichen Verkauf einer Onlinearbeit durch die Künstlerin und OnlineGaleristin Olia Lialina hinzu (vgl. dazu weiter unten in diesem Abschnitt).
236 | DER DIGITALE AUTOR
Jahren stärker den internationalen Diskurs reflektiert hat und so etwa amerikanische und skandinavische Experten als Autoren gewinnen konnte. Ursprünglich komplett frei zugänglich, musste im Februar 2002 ein Großteil des Angebots kostenpflichtig gemacht werden, da die vorherigen Versuche einer Refinanzierung der Kosten erfolglos blieben. Die Erklärung des Herausgebers Roberto Simanowski spießte den ökonomischen Charakter des Dispositivs Internet in sehr polemischer, aber zutreffender Art und Weise auf: »Nimmt ein Grassroot-Unternehmen solche Dimensionen an, stellt sich irgendwann die Frage der Finanzierung. Wie die Erfahrung gezeigt hat, kann man dabei (noch) keineswegs auf die traditionellen Fördereinrichtungen bauen. Auch Werbung stellt im vorliegenden Falle keine Alternative dar. Will man den Fortbestand des Projekts sichern, muss es in irgendeiner Form an die Ökonomie angebunden werden. Dies ist ohne Frage ein unpopulärer Schritt innerhalb dieses Mediums der freien Information. Ohne Deckung zumindest der Kosten für Aufbereitung und Bereitstellung dieser Informationen besteht andererseits die Gefahr, dass gerade jene Projekte eingehen, die aus der Freiheit des Mediums entstanden sind und dessen Unabhängigkeit von den traditionellen Diskurs-Zugangsbeschränkungen verkörpern.« (Simanowksi [sic!] 2002)
Simanowski hatte hier also nur die Deckung der unmittelbarsten Produktionskosten des Magazins im Auge und beabsichtigte damit immer noch keine Honorarzahlungen, was in der akademischen Welt mit ihren Publikationsverpflichtungen ja auch wenig üblich ist. Die Antwort darauf bestand in oft erbosten, nur teilweise verständnisvollen Reaktionen, die zumeist auf der Mailingliste »Netzliteratur« veröffentlicht wurden. Dabei kritisierten die entsprechenden Personen vor allem, dass mit der Sperrung ein wichtiger Teil der Forschungsliteratur plötzlich ›abgeschnitten‹ und Linkbeziehungen gekappt wurden.84 Die nur geringe Zahl der zustimmenden Meinungen zeigte, dass Simanowski mit seiner sehr defensiven Einschätzung ganz richtig gelegen hatte. Den Verkauf des Zugangs flankierte Roberto Simanowski in den darauf folgenden Jahren durch eine ganze Reihe weiterer Maßnahmen, immer auf der Suche nach geeigneten Refinanzierungsmodellen. So verpflichtete er Gastherausgeber, die zumeist als Teil ihrer akademischen Publikationsverpflichtungen eine Ausgabe des Magazins komplett selbst editierten. Er suchte Sponsoren, die eine komplette Ausgabe ›kauften‹ (also sponserten), um diese dann frei zugänglich stellen zu können. Schließlich bot er auch klassische Werbeschaltung in den Newslettern an. Das Jahr 2003 brachte eine weitere Wendung. Zum einen zog Simanowski in die USA und konnte seinen neuen Arbeitgeber, die renommierte »Brown University« davon überzeugen, »dichtung-digital« auf ihrem Webserver zu hosten.85 Zum anderen führte dieser Wechsel auch zu einem allmählichen Ende des ›Selbstausbeutungs‹-Prinzips, das »dichtung-digital« immer noch getragen hatte. Waren bis 2002 stets wenigstens sechs Ausgaben im Jahr erschienen, reduzierte sich die Anzahl im Jahr seines Wechsels auf 84 Wie bereits erwähnt, wurde die Plattform »netzliteratur.net« von Johannes Auer als Reaktion explizit als offenes Gegenmodell zu »dichtung-digital« aufgebaut, vgl. Fröde et al. 2004a. 85 Das ist nicht immer leicht erkennbar. Die beiden Webadressen »dichtungdigital.de« und »dichtung-digital.org« leiten in so genannten Framesets auf den Webserver der »Brown University« um.
RAHMENBEDINGUNGEN DER AUTORSCHAFT IM NETZ | 237
vier, um dann stetig weiter abzusinken: 2004 drei Exemplare, 2005 zwei, von 2006 bis 2008 jährlich je nur eine Ausgabe. Ende 2005 erläuterte Simanowski die Gründe dafür wie folgt: »Due to the overload with work in an academic environment there are, as you may have noticed, only two issues of dichtung-digital in 2005. This possibly will be the amount of issues I am able to produce a year in the future. However, there are always special events and guest editors and thus there will be special issues too. I hope you enjoy the articles this issue presents and stay tuned.« (Simanowski 2005)
An die so eingeführte Ausgabe aber schloss sich mit dem Jahr 2006 eine Zeit komplett ohne jede Beiträge an, in der auch keine Informationen darüber veröffentlicht wurden, ob und wie es mit der Zeitschrift weitergehen würde. Erst im Mai 2007 erschien eine neue Ausgabe in der Simanowski lakonisch vermeldete: »Dichtung-Digital has taken a break much longer than expected… However, now it is back with a collection of very interesting articles« (Simanowski 2007). Auch wenn die genauen Gründe für die längere Pause nicht näher erläutert wurden, kann vermutet werden, dass »dichtung-digital« als theoretische Zeitschrift an genau denselben finanziellen Problemen bei der Produktion krankte, wie auch die von ihr diskutierte Netzliteratur. Seit diesem Heft, das als Ausgabe für 2006 firmierte, erscheint die Zeitschrift wieder regelmäßig, mit zunächst einer Ausgabe jährlich. Trotzdem steht, wie bereits ausgeführt, weiterhin die Frage im Raum, ob sich ihre ökonomischen und zeitlichen Probleme zukünftig tatsächlich lösen lassen, oder ob Simanowski gegenüber dem bereits 2002 drastisch beschriebenen ›Selbstkannibalismus‹-Prinzip endgültig kapituliert. Dieses Beispiel aus dem theoretischen Diskurs um Netzliteratur steht stellvertretend für das systematische, ökonomische Problem der praktischen Produktion. Im Folgenden wird anhand von vier Modellen der Refinanzierung diskutiert, inwieweit die Netzliteratur besondere Probleme mit sich trägt und welche Lösungen sich abzeichnen. Diese Modelle sind Verkauf, Förderung, Sponsoring, Auftragsarbeiten und Querfinanzierung. Die Reihenfolge spiegelt dabei ungefähr die Nähe zur eigentlich relevanten künstlerischen Tätigkeit wider. Während der Verkauf eines Kunstwerkes für den Künstler am erstrebenswertesten ist, bildet die Querfinanzierung durch eine kunstfremde Tätigkeit den eigentlich unerwünschten (aber häufigsten) Fall.
Verkauf Netzliteratur stellt eine avantgardistische Literaturform dar, die wenig massenwirksam ist und sich zum Teil auch explizit gegen eine solche Massenwirksamkeit richtet. Insoweit weist diese Literaturgattung einen ähnlich exklusiven Rezipientenkreis wie experimentelle Offline-Literatur auf. Mit dem Internet-Boom gab es zwar auch einen gewissen Hype um Netzliteratur, dem aber wie allen Internet-Moden nur eine kurze Dauer beschieden war (vgl. dazu Petersen/Saltzwedel 2002). An dieser Einschätzung ändert auch der Fakt nichts, dass Netzliteratur im Netz prinzipiell frei verfügbar ist, sich für die Rezipienten also zumeist keine finanziellen Hürden ergeben. Mit den Pegasus-Literaturwettbewerben sowie den »Literatur.digital«-Preisen hatten die großen Medienhäuser versucht, an das je aktuelle oder vermeintlich aktuelle Interesse an Netzliteratur anzuknüpfen und dieses in Aufmerksamkeit für die
238 | DER DIGITALE AUTOR
eigenen Produkte umzuwandeln. Allein bewies das Scheitern dieser Anstrengungen und die damit einhergehende Desillusionierung der traditionellen Medien wiederum, dass Netzliteratur kaum massenkompatibel zwischen Lifestyle und Popmusik platziert und konsumiert werden kann. Dies kann als der erste Grund angesehen werden, warum Netzliteratur nie einen Markt hatte, obwohl es durchaus interessante Offline-Editionen einschlägiger Arbeiten, etwa vom »update verlag«86 gab und weiterhin gibt. Die einzigen Netzprojekte, die sich einer gewissen Öffentlichkeit zumindest des traditionellen Literaturmarktes erfreuen konnten, waren ganz offensichtlich gar keine Netzliteratur, sondern allenfalls »Literatur im Netz«, aber auch hier war der ökonomische Erfolg offenbar eher begrenzt. Der zweite Grund hängt mit der von Berkenheger angesprochenen freien Verfügbarkeit im Netz und der einfachen Duplizierbarkeit digitaler Daten zusammen. Was einmal im Netz veröffentlicht wurde, kann so schnell nicht wieder gelöscht werden. Traditionelle Vorstellungen vom Kauf und Besitz von Kunst brechen damit aber zusammen. Für traditionelle Sammler wird Netzkunst erst allmählich interessant (vgl. dazu näher Baumgärtel 2000b), weil noch völlig unklar ist, ob es bei dieser Kunstform jemals so etwas wie Wertsteigerungen geben könnte; auch die Fragen nach der Musealisierung und Musealisierbarkeit sind weitestgehend ungelöst (vgl. dazu näher Huber 2001b; Huber 2003). Aber zielt Berkenhegers Enttäuschung nicht an dem Problem vorbei? Ist die freie Verfügbarkeit tatsächlich das Problem? Wie bereits dargestellt, entstand Netzliteratur in der frühen akademischen Phase des Internets und des WWWs vor deren Ökonomisierung durch die großen Medienhäuser und Internetdienstleister. Mit dem erwähnten Begriff der ›Geschenkökonomie‹ wurde damals ein weit verbreitetes ökonomisches Modell im Netz bezeichnet. Während der Internet-Zugang seit dem Anfang an das normale Wirtschaftssystem gekoppelt war, waren die Inhalte weitgehend frei zugänglich. Grund dafür war die Überzeugung der akademischen Welt, dass neues Wissen nur auf Basis des alten entstehen kann und somit der ungehinderte Zugang zu Informationen notwendig für den gesellschaftlichen Fortschritt ist. Diese Überzeugung führte – wie bereits dargestellt – in die Open Source-Bewegung. Diese Philosophie wird aber heute von den traditionellen Distributoren als »Kostenlos«-Kultur diffamiert, die es zu beseitigen gelte, damit im Netz Geld verdient werden kann. Diese Kritik an einem grundlegenden ökonomischen Modell des Netzes ruft bis heute eine harte Gegenkritik der Netizen und alternativen Medienöffentlichkeit hervor. Dies wird nicht zuletzt am bissigen Titel der »Datenherren« ersichtlich, mit dem die traditionellen Distributoren von Netizen bezeichnet werden. Auf diesen Hintergrund spielt Johannes Auer an, wenn er ausführt: »dass der Content im Internet kostenlos ist […] ist nicht mein Problem. Es ist im Grunde genommen ein Problem der Contentindustrie oder, wie es Volker Grassmuck ausgedrückt hat, der Datenherren, die später im Internet dazugekommen sind, das muss man ganz klar sagen. […]
86 In der von Beat Suter im »Update Verlag« herausgegebenen »edition cyberfiction« erschienen zwischen 2000 und 2004 insgesamt vier Ausgaben von einflussreichen (kanonisierten) Netzliteraturarbeiten, nämlich von Susanne Berkenheger, Johannes Auer/Reinhard Döhl, Oliver Gassner, Frank Klötgen, vgl. Suter 2001 ff.
RAHMENBEDINGUNGEN DER AUTORSCHAFT IM NETZ | 239 Wenn jetzt die Contentindustrie dazu kommt und darüber jammert, dass das Internet zum Geldverdienen nicht so richtig geeignet [ist], dann ist das […] ihr Problem, was mich ehrlich gesagt auch nicht interessiert. Es interessiert mich dann, wenn ›Digital Rights Management‹-Fragen aufgeworfen werden und […] versucht wird, den Computer umzufunktionieren in eine Abdudelmaschine, also wegzukommen von einer Universalmaschine, hinzukommen zu einem Abspielgerät, das nur nach Bezahlvorgängen […] wiedergibt, was mir der Datenherr zeigen will. Damit hätte ich ein Problem und das ist auch im Augenblick auch eine ganz spannende und wichtige Diskussion. Ich selber verorte mich eher in der ›Open Source‹ und damit auch in der ›Open Content‹-Bewegung, die mich durchaus interessiert und hab nichts dagegen, meine Sachen kostenfrei im Internet anzubieten.« (Fröde et al. 2005, Clip »Antworten« | »Auer - Geld«, Zeitindex 00:01:49-00:03:07)87
Auer entwirft hier also ein Gegenmodell zu Berkenheger und bezeichnet die freie Zugänglichkeit sogar als eine notwendige Voraussetzung für einen künstlerischen Fortschritt im Netz. Offensichtlich prallen hier zwei unterschiedliche Geschäftsmodelle zweier Künstler mit unterschiedlichen künstlerischen Programmen aufeinander. Beide Überzeugungen scheinen aber auch gleich legitim. Faktisch lassen sich im deutschsprachigen Raum bislang nur vier Fälle feststellen, in denen Künstler mit ihren Arbeiten tatsächlich Geld verdienen konnten oder zumindest gekonnt hätten. Mit dem Verkauf eines ihrer »Netart-Generatoren« an die »Sammlung Volksfürsorge« konnte Cornelia Sollfrank im Jahr 2003 vermutlich den ersten bekannten kommerziellen Erfolg eines Netzliteratur-Projektes erzielen.88 Auch die Netzkunst-Aktivistin Olia Lialina konnte als Online-Galeristin einen Verkaufserfolg erzielen, stufte dies aber eher als enttäuschendes Ergebnis ein. Sie hatte 1998 eine eigene Netzkunst-Galerie eröffnet, die innerhalb eines Jahres jedoch nur eine einzige Arbeit verkaufte, diese war zudem auch noch von Lialina persönlich.89 Johannes Auer selbst konnte in den Jahren 1999-2000 unter seinem Pseudonym »Frieder Rusman« mit seinem Online/Offline-Projekt »Fabrikverkauf« tatsächliche Einnahmen erzielen. Dabei handelte es sich um einen Webshop, in dem er von ihm künstlerisch gestaltete T-Shirts verkaufte und dezidierte Anweisungen zu weiterführenden »walking exhibitions« gab. Die Tragenden sollten so selbst Teil des Kunstwerkes werden und ihre persönlichen Ausstellungen auf der Community-Plattform des Webshops auch dokumentieren. Damit handelte es sich streng genommen nicht um ein Netzliteraturprojekt, sondern um eine zeitlich ausgedehnte Offline-Performance, verknüpft mit Online-Shop und Community-Komponente. Dieses Projekt konnte sich dank einer bundesweiten Medienberichterstattung u. a. im »SPIEGEL« einer besonders breiten Öffentlichkeit erfreuen, und zeigte, dass netzkünstle87 Die Fragen nach dem »Digital Rights Management« wird im Rahmen der vorliegenden Untersuchung ausgeklammert, weil entsprechende Systeme derzeit nur bei der Übertragung und Wiedergabe von Audioinhalten oder audiovisuellen Materialien über das Internet relevant werden. Dies berührt aber den Untersuchungsgegenstand höchstens peripher. 88 Zum Verkauf an die Sammlung Volksfürsorge vgl. Eble 2003; Sollfrank 2003. Zu Sollfrank und ihrer Arbeit vgl. auch Kiener 2004 und Sollfrank 2000 ff. 89 Dieser Verkauf geschah zudem auch noch an eine befreundete Galerie, womit der Erfolg zusätzlich relativiert wurde, vgl. Lialina 2000; Wettig 2001.
240 | DER DIGITALE AUTOR
rische Verkaufserfolge offenbar notwendig mit einer Repräsentanz in den traditionellen Medien zusammenhängen (vgl. weiterführend auch Knöfel 2000; Döhl/Auer 2003). Als viertes Projekt, das zumindest das Potential für einen ökonomischen Erfolg aufwies, gilt gemeinhin die Aktion »toywar«, die von der Künstlergruppe »etoy« von November 1999 bis zum Januar 2000 durchgeführt wurde (vgl. dazu Grether 2000; Rötzer 2000; Arns 2002: 6265).90 Auch diese Aktion stellte keine Netzliteratur im engeren Sinne dar. An die virtuellen oder auch faktischen Vermarktungsstrategien von »etoy« knüpft die selbsternannte Nachfolgegruppierung »UBERMORGEN. COM« an, die mit ihren Online-Aktionen eine Verwertung im traditionellen Kunstmarkt anstreben. Obwohl sich die entsprechenden Projekte auf das Netz beziehen und auch aus dem Netz speisen, werden diese in herkömmlichen Galerien und auf Ausstellungen präsentiert. Begleitet von einer sehr intensiven und zielgerichteten Öffentlichkeitsarbeit sollen Online-Arbeiten so auch offline verkauft werden. Ob sich der gewünschte Erfolg einstellt, bleibt abzuwarten (vgl. Hartling 2007b). Bei nur einem ökonomisch erfolgreichen Projekt, das im weitesten Sinne der Netzliteratur zugeordnet werden kann (Sollfrank), liegt eine Schlussfolgerung sofort auf der Hand: Wie Auer bereits ausführte, stellt auch im Netz der Verkauf von Literatur eher den Ausnahmefall dar; Autoren müssen daher regelmäßig andere Einnahmequellen aufsuchen.
Förderung und Sponsoring Auch für Netzliteratur hat sich inzwischen ein Netz an Förderinstitutionen und -einrichtungen etabliert, das aber deutlich weitmaschiger ist als bei der traditionellen Literatur. Klassische Beispiele waren die großen Literaturwettbewerbe, deren Preisgelder für eine Zeitlang den Lebensunterhalt eines Autors oder einer Autorin sichern konnten. Gerade die deutschsprachige Netzliteratur wurde von den großen Pegasus-Wettbewerben und später wieder von den »Literatur.digital«-Wettbewerben enorm befördert. Das Scheitern der Wettbewerbe hatte allerdings einmal mehr deutlich gemacht, dass sich die traditionellen Förderstrukturen erst allmählich auf die neuen, netzbasierten Kunstformen einstellen und einstellen können. Kleinere Netzliteraturwettbewerbe wurden von den Aktiven selbst initiiert, die aber nur einmalige Veranstaltungen darstellten und teilweise zudem nur symbolische Preise ausschreiben konnten. Im deutschsprachigen Raum existiert noch keine systematische Ankaufs- oder Musealisierungspolitik von Netzliteratur und Netzkunst. Mitarbeiter von literarischen Archiven und Museen haben derzeit kaum eine Vorstellung davon, geschweige denn Strategien, wie Netzliteratur zu sammeln und für eine dauerhafte Bereitstellung aufzubereiten ist. Dazu tritt das oben diskutierte Problem, dass sich digitale Kunst schlecht verkaufen lässt. Zudem haben sich erst ansatzweise künstlerische und ökonomische Infrastrukturen um die Kunst entwickelt, wie sie aus der traditionellen Literatur bekannt sind. Schriftsteller verdienen dort ihr Geld vor allem durch Lesereisen, Stipendien, Literaturpreise und -wettbewerbe, Redakteursstellen bei literarischen Magazinen, Auftragsarbeiten usw. All dies steckt für digitale Literatur noch in den Kinderschuhen. Traditionelle Förderinstitutionen beginnen 90 Im Laufe der Aktion war der Künstlergruppe angeblich 500.000 Dollar für die Übergabe der Domain »etoy.com« geboten worden, auf dieses Angebot war »etoy« nach eigener Aussage aber nicht eingegangen (vgl. Kapitel 7.4.1).
RAHMENBEDINGUNGEN DER AUTORSCHAFT IM NETZ | 241
erst allmählich, diese Kunstform als unterstützungswürdig zu erkennen; gleiches gilt für literarische Festivals oder Auftraggeber. Bekannt ist etwa die Sendung »ORF Kunstradio«, die als klassischer Förderer und Einkäufer von experimenteller Literatur in Erscheinung tritt. Dies geschieht im Sinne einer Kontinuität der traditionell stets fruchtbaren Beziehung zwischen Hörfunk und Literatur (vgl. Hucklenbroich/Viehoff 2002). Radioformate wie »ORF Kunstradio« stellen zudem vermutlich eine der wenigen Distributionskanäle für netzbasierte Kunst dar, die gleich zwei wichtige Leistungen erfüllen. Als öffentlich subventioniertes Massenmedium mit Kulturauftrag kann das Radio sowohl ein potentiell breites Publikum erreichen als auch bezahlte kreative Auftragsproduktionen von Netzkünstlern erwerben. Neben dem »ORF« ist »SWR2« eine der wenigen Institutionen der traditionellen Massenmedien, die eine Plattform für netzbasierte Kunst bildet. Der Sender machte sich so um Netzmusik, aber auch um Netzliteratur sehr verdient. Ein gutes Beispiel war das 1998 gestartete, aber mittlerweile nicht mehr im Netz erreichbare Projekt »Audiohyperspace« von Sabine Breitsameter auf »SWR2«. Wie sehr der Anspruch der Kulturförderung und die tatsächliche Förderpraxis aber trotzdem auseinander driften, zeigt eine etwas ernüchterte Einschätzung Auers im Interview: »Grundsätzlich kann man da aber schon auch drüber diskutieren, weil angeblich hat Kultur, Kunst, auch […] Netzliteratur einen ganz hohen Stellenwert. […] Aber gleichzeitig ist […] die direkte Finanzierung […] mangelhaft. Und ich denke, […] [man könnte, F. H.] schon diskutieren, ob das so zu machen ist.« (Fröde et al. 2005, Clip »Antworten« | »Auer - Geld«, Zeitindex 00:00:28-00:00:53)
Diese eingeschränkte Infrastruktur bringt es mit sich, dass nur ein kleiner Teil der deutschen Netzliteraten ihre künstlerische Tätigkeit als Hauptberuf betreiben kann. Aber auch diese Autoren müssen notwendigerweise querfinanzieren, da der Lebensunterhalt ansonsten nicht gesichert ist. So muss trotz seiner vergleichsweise guten Situation der Autor Johannes Auer »noch zwei Tage die Woche durchaus auch als Webmaster arbeite[n]« (Fröde et al. 2005, Clip »Antworten« | »Auer - Geld«, Zeitindex 00:00:23-00:00:28). Susanne Berkenheger traf stattdessen nach den ersten künstlerisch erfolgreichen, aber ökonomisch problematischen netzliterarischen Experimenten für sich die Entscheidung, keine Netzliteratur mehr zu produzieren. Die von der Kritik gefeierte »Schwimmmeisterin« entstand nur aufgrund einer großzügigen Stipendienzusage, die in der Netzliteratur wie dargestellt eher selten ist (vgl. Fröde et al. 2005, Clip »Projekte« | »vorgestellt« | »Die Schwimmmeisterin«, Zeitindex 00:00:00-00:00:20). Klassisches Kultursponsoring durch die Industrie spielt aber bei der Netzliteratur fast gar keine Rolle91, sieht man einmal von der Bereitstellung von Webspace ab, wie im nächsten Kapitel zur »Distribution« geschildert wird.
Auftragsarbeiten Eine weitere Einnahmequelle für Autoren stellen Auftragsarbeiten dar, womit nur selten künstlerische Werke gemeint sind, die von einem Kunden beim 91 Diese Einschätzung basiert auf eigenen Recherchen und einer Aussage von Johannes Auer, der die deutschsprachige Netzliteraturszene seit 1996 intensiv beobachtet, vgl. E-Mail von Johannes Auer vom 16.01.2007.
242 | DER DIGITALE AUTOR
Autoren ›bestellt‹ und anschließend sicher ›verkauft‹ werden. Dieser Fall wird von den Literaten bevorzugt, denn hier sind zwar zumeist das Thema und die Verarbeitung in gewisser Weise vorgegeben, allerdings kann der Autor darüber hinaus frei und künstlerisch arbeiten. Ein gutes Beispiel dafür ist etwa das Projekt »The Famous Sound of Absolute Wreaders«, das Johannes Auer für das ORF Kunstradio konzipierte und durchführte. In den meisten Fällen entfernen sich Auftragsarbeiten aber recht deutlich vom eigentlichen künstlerischen Interesse der Autoren, wobei nicht selten schnell Grenzen sichtbar werden. So beschrieb der Animationskünstler Peter Auge Lorenz, dass er häufig Animationen für Musikvideos produziere. Diese seien für ihn künstlerisch nur eingeschränkt interessant, allerdings könne er durch seine Professionalität und Schnelligkeit die Aufträge zügig erledigen: »Man verdient sein Geld damit, dass man das, was man kann, als Dienstleistung anbietet. […] Wir können […] Animationen herstellen. Wir sind schnell. Wir finden super Bilder und können mit der Technik umgehen. Und können halt zum Beispiel Musikvideos machen. Wir können für Dokumentarfilme […] Sequenzen einfach zeichnen. Wir können programmieren. Wir können professionell arbeiten.« (vgl. Fröde et al. 2005, Clip »Antworten« | »Lorenz - Geld«, Zeitindex 00:00:1100:01:00)
Mit dem Hinweis auf die Schnelligkeit spielte er vermutlich auf Belastungen an, die Auftragsarbeiten bedeuten können, wenn sie zuviel Zeit in Anspruch nehmen und die künstlerische Arbeit leidet. Im Allgemeinen, so Lorenz, würde er allerdings darauf achten, dass auch Auftragsarbeiten für ihn ästhetisch interessant wären: »Die Grenze zwischen Kunst und Auftrag ist dann […] fließend. Ich weiß ja, was ich kann und was mir Spaß macht oder was mir soviel Spaß macht, dass ich es immerhin noch für Geld machen würde. Und ich weiß auch, was ich nicht mache.« (Fröde et al. 2005, Clip »Antworten« | »Lorenz - Geld«, Zeitindex 00:01:2700:01:42)
Auer dagegen mahnt eindringlich vor den Einschränkungen, denen ein Künstler bei dieser Form des Gelderwerbs ausgesetzt ist: »Zu Auftragsarbeiten würd ich grundsätzlich sagen: Eine Auftragsarbeit, die in irgendeiner Form die künstlerische Freiheit einschränkt, sollte man nicht annehmen, würde ich nicht annehmen.« (Fröde et al. 2005, Clip »Antworten« | »Auer Geld«, Zeitindex 00:00:52-01:48:00) Seine Auftragsarbeiten, die er in den letzten Jahren vor allem für das Radio gemacht hat, zeugen davon, dass er sein künstlerisches Programm kaum preisgibt. Es steht zu vermuten, dass er andersartige Projekte auch abgelehnt hat. Stattdessen finanziert er seine künstlerische Tätigkeit durch klassische Stipendien und Literaturpreise92 sowie Querfinanzierung, wie im nächsten Abschnitt geschildert wird. Schließlich, so stellt die Netzliteratin Susanne Berkenheger deutlich heraus, begrenzen auch die Art und Weise der für Netzliteraten potentiell ›geeigneten‹ Projekte die Möglichkeiten solcher Auftragsarbeiten. So berichtete sie von früheren Überlegungen, ob Netzliteraten nicht bewerbende Webseiten für Kinofilme produzieren könnten. Diese Diskussionen wären dabei von ei92 Eine Auflistung findet sich auf seiner Webseite, vgl. Auer 2003 ff.
RAHMENBEDINGUNGEN DER AUTORSCHAFT IM NETZ | 243
ner gewissen Überlagerung der erzählenden Netzliteratur sowie von FilmStories ausgegangen und hätten vor allem die Internet-Vermarktung des Films »Blair Witch Project« als Vorbild gesehen. Allerdings, so stellte Berkenheger ernüchtert fest, »hat das mit Netzliteratur dann nicht wieder so viel zu tun« und »[es] baut sich ja auch nicht so aus, dass da ein Heer von Netzliteraten davon leben könnte« (Fröde et al. 2005, Clip »Antworten« | »Berkenheger - Geld«, Zeitindex 00:02:28-00:02:36).
Querfinanzierung Netzliteraten können von ihrer Kunst also vergleichsweise schlecht leben, ihre desolate Einkommenssituation ist in etwa mit der von Lyrikern vergleichbar. Beide Kunstformen sind für das breite Publikum weniger interessant als etwa Erzählungen, Romane oder Theaterstücke, womit, wie erwähnt, die traditionellen Verdienstmöglichkeiten von Autoren eher verwehrt bleiben. Sie sind mehr auf Querfinanzierung durch ihre Hauptarbeit angewiesen (wodurch die Kunst zur Nebentätigkeit ›verkommt‹), auf Lehraufträge an Universitäten (die nicht immer gut bezahlt werden), auf Selbstausbeutung oder eben auf Preisgelder von Literaturwettbewerben. Literaturwettbewerbe als sehr öffentlichkeitswirksame Veranstaltungen versprechen zudem eine Unterstützung der Quersubventionierung, die unter dem Stichwort »Aufmerksamkeitsökonomie« (vgl. Goldhaber 199793) läuft. Der Begriff erfasst ein ökonomisches Prinzip, das die Netzkunst mit vielen Internetphänomenen und auch der akademischen Welt teilt. Aufmerksamkeit ist danach in einem von Informationen durchfluteten Mediensystem ein besonders wertvolles Gut und indirekt mit finanziellem Gewinn verbunden. Steigende Aufmerksamkeit führt zu steigender Reputation in der Öffentlichkeit, was letztendlich zu ökonomischem Erfolg führt. Insoweit fallen Aufmerksamkeitsanhäufung und finanzielle Entlohnung zwar nicht zusammen, sind aber indirekt gekoppelt. Wie Florian Rötzer herausgestellt hat, stellt Aufmerksamkeit damit im wortwörtlichen Sinn das »mediale Geld« dar: »Öffentlichkeit, so rudimentär und minoritär sie auch sein mag, basiert auf Aufmerksamkeit, und erst im Licht der öffentlichen Aufmerksamkeit erhalten gesellschaftlich bedeutungsvolle Dinge, Ereignisse oder Menschen ihre Kontur, ja eigentlich ihre Realität.« (Rötzer 1996) Für Netzliteraten bedeutet dies, dass die massive Berichterstattung rund um einen Literaturwettbewerb und vor allem die besondere Hervorhebung der Preisträger deren Reputation enorm steigern. Als mittel- und langfristige Wirkung führt dies zu Auftragsarbeiten, Stipendien, Jobs – kurzum zur langfristigen Chance, ihre künstlerischen Fähigkeiten für die Finanzierung der Kunsttätigkeit einsetzen zu können. Johannes Auer beschreibt diesen Zusammenhang folgendermaßen: »Wenn nun die Frage aufkommt, wie man dann damit Geld verdienen kann: Es gibt natürlich […] andere Möglichkeiten an Geld zu kommen, ähnlich auch wie in der ›Open Source‹-Bewegung die Distribution von irgendwas […] zum Beispiel kostenpflichtig machbar [ist]. So verdiene ich […] zum Beispiel Geld mit irgendwelchen Vorträgen oder […] wenn ich jetzt gerade für den ORF eine Reihe zu Netzliteratur 93 Zur Aufmerksamkeitsökonomie vgl. auch die Kolumne zum Thema, die Goldhaber bis 2003 auf »Telepolis« schrieb, vgl. dazu einführend auch Schmidt/Zurstiege 2000: 82-87.
244 | DER DIGITALE AUTOR im Radio kuratiere, […] Stipendien oder auch mal Preisgelder […] das Netz funktioniert dann nach der Aufmerksamkeitsökonomie. Und ich denke […], diese Aufmerksamkeit, die man dann anhäuft, kann man an anderer Stelle […] so verwerten, dass man auch Geld damit machen kann.« (Fröde et al. 2005, Clip »Antworten« | »Auer - Geld«, Zeitindex 00:03:08-00:03:51)94
Diese Steigerung der Reputation ist aber nicht nur ökonomisch zu sehen, sondern auch kulturell. Denn dies bedeutet ja nichts Geringeres als die Etablierung des Künstlers im netzliterarischen Kanon und die Steigerung seines Kanonwertes. Mit Preisen ausgezeichnete Arbeiten werden fortan als besonders beispielhaft für die literarische Gattung herausgestellt, sie dienen anderen literarischen Produzenten als Vorbilder, Kritikern und Rezipienten als frame of reference sowie Wissenschaftlern als herausragendes Analysematerialien oder diskurs-strukturierende Elemente. Diese Zusammenhänge gelten selbstverständlich auch für den traditionellen Kunstmarkt, sind aber besonders auffällig bei der Onlinekunst. Die Kanonisierung von Netzliteratur scheint nämlich stark über den Offline-Diskurs zu laufen (vgl. dazu ausführlicher Hartling 2004). Netzliteraten sind also dringend davon abhängig, ob und wie ihr Werk außerhalb des Netzes wahrgenommen wird.95 Der Kanonwert beeinflusst wiederum den ökonomischen Erfolg, womit sich der Kreis der Finanzierung wieder schließt. Das damit einher gehende Zeitproblem war bei den Auftragsarbeiten bereits angesprochen worden. Bei der Querfinanzierung der künstlerischen Arbeit verschärft sich der Konflikt zwischen der künstlerischen Arbeit und dem nicht-künstlerischen Broterwerb sogar noch mehr. Zeit- und Kraftressourcen gehen in hohem Maße der eigentlich beabsichtigten literarischen Produktion verloren, was zu einer hohen Frustration führen kann. So beurteilte Susanne Berkenheger die Lage der Netzliteraten recht düster: »Man kann nicht Netzliterat werden und versuchen davon zu leben, weil ich seh da keine Perspektive. […] Also es geht eine Zeitlang vielleicht, dass man [sich] über Stipendien […] so ein bisschen dürftig ernährt und man kann auch natürlich irgendeinen anderen Job haben. Der muss dann aber relativ gut dotiert sein, sonst muss man sich wirklich alle Nächte um die Ohren schlagen, weil es ist ja auch eine sehr zeitaufwendige Sache. […] Als ich angefangen habe, war das ja sehr einfach alles zu machen und jetzt ist es sehr aufwendig.« (Fröde et al. 2005, Clip »Antworten« | »Berkenheger - Geld«, Zeitindex 00:00:00-00:00:59)
Mit dem Hinweis auf die Zeitaufwendigkeit der Netzliteratur liefert sie aber wiederum ein Indiz für eine womöglich sogar noch schlechtere ökonomische Situation der Netzliteraten gegenüber den traditionellen Schriftstellern. Welche Auswege aus diesem ökonomischen Dilemma gibt es? Berkenheger beobachtet die Tendenz zur Zusammenarbeit, um die aufwendige Produktion auf mehrere Schultern zu verteilen. Allerdings stellt dieser Ausweg ihrer Ansicht nach keine echte Lösung des Problems dar: »das ist dann einfach ein totaler Glücksfall, dass jetzt plötzlich irgendwie […] Leute zusammenkommen, die 94 Wie aber bereits weiter oben erläutert, muss Auer sein Grundeinkommen trotzdem durch die teilberufliche Arbeit als Webmaster finanzieren. 95 Dies stellt auch einen Beleg für die trotz des Netzes weiterhin ungebrochene Diskursivierungsmacht der traditionellen Medien dar.
RAHMENBEDINGUNGEN DER AUTORSCHAFT IM NETZ | 245
jetzt grad Zeit […] und Lust haben eigentlich für gar nichts irgendwas zu machen.« (Fröde et al. 2005, Clip »Antworten« | »Berkenheger - Geld«, Zeitindex 00:01:05-00:01:15) Eine echte Verbesserung der Lage wäre Berkenheger zufolge wohl nur durch eine Abkopplung vom ökonomischen System möglich, etwa mittels einer indirekten Quersubventionierung durch die öffentliche Hand: »Was man vielleicht eher bräuchte oder was ich sinnvoll fände, wäre, wenn den Leuten so ein bisschen Zeit gegeben würde, Sachen auszuprobieren. Wenn natürlich gleichzeitig die Studien immer gedrängter stattfinden, dann ist es […] sehr schwierig.« (Fröde et al. 2005, Clip »Antworten« | »Berkenheger - Geld«, Zeitindex 00:02:45-00:03:09)
7.3.2 Distribution In der Frage der Distribution unterscheidet sich die amateurhafte bis semiprofessionelle, ›ganzheitliche‹ Produktion deutlich von der hoch arbeitsteiligen Herstellung unter Profibedingungen. Grund dafür ist wiederum die bereits diskutierte fehlende oder mangelhafte finanzielle Basis der amateurhaften Projekte, die auf der Distributionsebene schlecht durch Engagement wettgemacht werden kann. Internetdienstleister, die die zur Publikation notwendige Infrastruktur bereitstellen, tun dies zumeist gegen Mietgebühren, nur selten aufgrund von Modellen der Geschenkökonomie. Mit steigenden Nutzerzahlen oder hohen technischen Anforderungen an die Serverinfrastruktur wird die Kostenfrage aber zu einem drängenden Problem. Trotzdem wird für diese Sphäre zunächst der Vorteil des Dispositivs relevant, dass grundsätzlich keine Schranken des klassischen Medienbetriebes wirken und damit Produzenten von Inhalten unbeschränkt ihre Werke publizieren können. Schlagwort für dieses Charakteristikum war der markige Slogan »Everyone is a publisher« des Internet-Booms in den späten 1990er Jahren. An anderer Stelle wurde ausführlicher dargelegt, dass diesen scheinbar schrankenlosen Publikationsmöglichkeiten letztendlich doch Grenzen gesetzt sind, denn die reine Veröffentlichung von Inhalten reicht im Netz genauso wenig aus wie in der Offline-Welt. Projekte müssen von anderen Seiten verlinkt und besprochen werden, um vom potentiellen Publikum überhaupt wahrgenommen zu werden. Damit etablieren sich aber wiederum Bewerbungs- und Kanonisierungsstrukturen, die beeinflussen, auf welche Werke zugegriffen wird und auf welche nicht (vgl. Hartling 2004: 18-19). Neu am Dispositiv Internet ist allerdings, dass die autonomen, semiprofessionellen Produzenten durch alternative Medienmodelle im Netz unterstützt und die traditionellen Strukturen des Medienvertriebes kritisch hinterfragt und aufgebrochen werden. Zudem goutieren die jüngeren technischen Entwicklungen der ›social networks‹ (etwas marktschreierisch unter dem Schlagwort »Web 2.0« gefasst) explizit den Amateurproduzenten. Beispiele sind etwa die Videoplattform »YouTube.com«, die »Blogosphäre« oder das »Open Directory Project (ODP)«96. In Zeiten, in denen die Budgets für Onli-
96 Dieser Webkatalog wird von freiwilligen Editoren bearbeitet, die jeweils ihr ›eigenes‹ Themengebiet mit Links zu ihnen relevant erscheinenden Webprojekten füllen können. Auch wenn der Katalog AOL gehört, ist sein Inhalt selbst
246 | DER DIGITALE AUTOR
neprojekte knapp sind und der Onlineauftritt zumeist ein Zuschussgeschäft darstellt, wurde die Inhaltserstellung durch den Benutzer zu einer seriösen Geschäftsstrategie. Diskutiert wird diese Tendenz etwa unter dem bereits erwähnten Schlagwort des »Bürgerjournalismus« (vgl. dazu näher Bieber 2006; Neuber 2006; Niggemeier 2006). Der Slogan »Everyone is a publisher« umfasste von Anfang an neben der unreglementierten Veröffentlichungsmöglichkeit noch eine zweite Komponente. Als nahezu unbegrenztes und potentiell globales Medium wird das Dispositiv als sehr billiges Publikationsmedium eingeschätzt. Unbeschränkt gültig ist diese Bewertung für die »Web 2.0«-Plattformen, die etwa die Publikation besonders großer Videodateien gestatten, wobei weder für die Datenbereitstellung (Hosting) noch für den Datenverkehr (Traffic) Gebühren anfallen. Allerdings sind der Kreativität enge Grenzen gesetzt97, zum Teil ist die Copyrightfrage ungeklärt und der Nutzer hat keinen echten Zugriff auf den Webserver. Damit übt er aber auch keine Kontrolle über den Vertrieb seines Werkes aus. Der Slogan ist (etwas eingeschränkt) gültig für netzliterarische Produktionen, die zumeist nur vergleichsweise normale technische Anforderungen an einen Webserver stellen. Für kleinere bis mittlere Webpräsenzen fallen bei den großen Providern nur geringe Hostingkosten an, zum Teil sind auch dedizierte Webserver98 bereits erschwinglich. Allerdings wird bei diesen Angeboten nicht nur der nutzbare Platz eng begrenzt, womit üblicherweise keine Publikation von (großen) audiovisuellen Inhalten möglich ist. Auch der zulässige Traffic ist beschränkt, also die Menge der Daten, die heruntergeladen werden dürfen und damit resultierend die Anzahl der Besucher. Im Großen und Ganzen werden diese prinzipiellen Einschränkungen aber für die aktuelle netzliterarische Produktion kaum relevant. Problematisch bei der Distribution ist die dauerhafte Vorhaltung der Projekte. Nicht immer sorgen die Autoren selbst für eine nachhaltige Zugriffsmöglichkeit auf ihre Arbeiten, sondern sie verlassen sich auf Repositorien von Literaturwettbewerben und andere Archive, die nicht immer stabil sind. Beispielsweise waren die Beiträge zu den Pegasus-Literaturwettbewerben bzw. den jüngeren Wettbewerben »Literatur.digital« jeweils nur für eine begrenzte Zeit im Netz abrufbar. Das Verschwinden der Pegasus-Archive und damit der Verlust der früheren Netzliteraturprojekte ist häufig beklagt worden.99 Aber auch die aktuellsten Archive sind sehr vergänglich. Konkret auf den Wettbewerb »Literatur.digital« bezogen, bedeutete dies, dass allein die Beiträge des ersten Durchlaufes noch systematisch archiviert sind, klassisch auf CD-ROM gebrannt und einer Buchpublikation beigelegt (vgl. Simanowski 2002c). Die anderen beiden Jahrgänge müssen bereits als verloren gelten, »Open Content«, kann also von anderen Verzeichnissen oder Serviceplattformen frei genutzt werden. 97 So ist beispielweise bei »youtube.com« eben nur der Upload von klassischen Videodateien möglich. 98 Von einem dedizierten Server wird gesprochen, wenn ein Webserver komplett nur einem einzigen Kunden bzw. einem einzigen Projekt zur Verfügung steht und damit größere Leistungen erbringen kann. 99 Eine Zeitlang behalf sich die deutschsprachige Netzliteraturszene mit einer Veröffentlichung der Pegasus-Archiv-CD-ROM, aber auch diese Version ist nicht mehr online zugänglich. Auf »Netzliteratur.net« verweisen die Herausgeber nur noch auf zum Teil vorhandene archivierte Fassungen beim »Internet Archive«.
RAHMENBEDINGUNGEN DER AUTORSCHAFT IM NETZ | 247
womit die Flüchtigkeit des Dispositivs evident wird. Wie schon dargestellt, hat sich das Portal »netzliteratur.net« mittlerweile das Ziel gesetzt, die etwas desolate Archivierungssituation abzumildern, indem Netzliteraten ihre Projekte dort dauerhaft vorhalten können.
7.3.3 Rezeption Auf Seiten der Rezipienten spielt die Kostenfrage über 15 Jahre nach der Bildung des World Wide Webs nur noch eine eingeschränkte Rolle. Die Empfangsapparatur verlangt bei der Anschaffung üblicherweise zunächst einmal höhere Ausgaben als die Apparaturen Radio100, Fernseher101 oder Kino102. Diese Einschätzung gilt offensichtlich auch für die Ausstattung mit einem Desktop Computer samt Monitor oder einem Notebook. Sie ist aber auch legitim für mobile Empfangsgeräte wie das Mobiltelefon, bei dem die Gerätekosten vom Netzbetreiber zunächst subventioniert sind. Die Anschaffungskosten werden nachträglich über Grund- oder Gesprächsgebühren vom Betreiber wieder einverlangt. Trotz dieser höheren Kosten stellt die Ausstattung mit einem internetfähigen Computer mittlerweile allmählich einen Standard in den Haushalten der Industrieländer, auch Deutschlands, dar. Nach Informationen des Branchenverbandes BITKOM verfügten im Jahr 2008 erstmals 77 Prozent aller deutschen Haushalte über einen Personal Computer (vgl. BITKOM 2007: 10). Einer umfangreichen Studie von »TNS Infratest« und der »Initiative D21« zufolge waren im selben Jahr etwa 65,1 Prozent der deutschen Bevölkerung über 14 Jahren auch Internetnutzer (vgl. TNS Infratest/Initiative D21 2008: 10). Mit diesen Zahlen ist für die Autoren die Einschätzung legitimiert, dass das Internet ein Medium für alle darstelle (vgl. ebd.: 5). Die Autoren stellen zudem fest, dass im Jahr 2008 bereits 42,6 Prozent der Bevölkerung über einen Breitbandanschluss verfügten (vgl. ebd.). In einer anderen Studie wird darüber hinaus ein Anstieg auf über 80 Prozent aller deutschen Haushalte bis zum Jahr 2015 prognostiziert (vgl. Wirtz et al. 2008: 9). Damit können die grundsätzlichen Voraussetzungen für die Internetrezeption als in hohem Masse gegeben angesehen werden. Trotz dieser von den jeweiligen Studien euphorisch gefeierten Zahlen bleibt aber ein deutlicher Prozentsatz der Bevölkerung übrig, der das Internet nicht oder nur sporadisch nutzt. Für diesen Fakt liefern die referierten Studien 100
101
102
Radioempfang ist zudem als zusätzliche Funktionalität normalerweise in einer ganzen Reihe von Geräten eingebaut, z. B. in Form von Radioweckern, Mobiltelefonen, Satelliten-TV-Receiver usw. Damit fehlt aber ein Radio in einem Haushalt zumeist nur dann, wenn sich die Bewohner explizit gegen Radionutzung wenden, etwa um GEZ-Gebühren zu sparen. Als zusätzliche Anschaffungskosten fällt ein Radiogerät kaum ins Gewicht. Auch mindestens ein Fernsehgerät mit Basisfunktionen ist zumeist in jedem Haushalt vorhanden, mit den im obigen Punkt benannten Einschränkungen. Da das Fernsehdispositiv immer mehr das Dispositiv Kino nachahmt, sind neben preisgünstigen Basisgeräten mit veralteter Röhrentechnologie auch technisch aufwendige und teure Apparate erhältlich (Plasmafernseher etc.). Beim Dispositiv Kino fallen gemeinhin keine Anschaffungskosten an, da sich kaum eine Person ein eigenes Kinogebäude samt Technik leisten kann. Die Rezeption erfolgt üblicherweise unter Entrichtung einer Eintrittsgebühr, die im Umfang zunächst deutlich unter den Anschaffungskosten von Computertechnik liegt.
248 | DER DIGITALE AUTOR
ebenfalls eine Erklärung, die neben der Kostenfrage auf eine weitere Hürde der Rezeption hinweist. Es ist auffällig, dass die Internetnutzung sehr stark mit dem Alter korreliert. Während 2008 in der Altersgruppe von 14-29 Jahren insgesamt 91,3 Prozent der Befragten das Internet konsumierten, waren es in der Altersgruppe von über 50 Jahren nur noch 40,3 Prozent (vgl. TNS Infratest/Initiative D21 2008: 10). Diese Zahlen verweisen auf die mehrfache Medienkompetenz, die zur Internetnutzung nötig ist und die deutlich über den Anforderungen der traditionellen Medien liegt. Um Hardware und Software für die Computer- und Internetnutzung zu installieren und zu warten, sind besondere technische Kenntnisse notwendig. Mediale Kompetenzen werden vom Nutzer verlangt, um das Internetangebot wahrnehmen und effektiv verwenden zu können. Dies wird etwa für den richtigen Umgang mit Suchmaschinen und Katalogen immer wieder eindringlich gefordert (vgl. etwa Machill 2005). Die noch weitgehend fehlende Infrastruktur der Bewertung und Selektion von Netzinhalten verlangt vom Benutzer ein hohes Maß an Selbstdisziplin, um nicht ständiger Ablenkung zu erliegen. Die Qualität der Informationen muss viel stärker vom Rezipienten selbst hinterfragt werden, da die selektierenden Funktionen von Verlagen und Lektoren noch nicht vollständig durch Netzmechanismen nachgeahmt werden. Damit ist die Diskussion bei den Aufwendungen und Kosten angelangt, die nach der einmaligen Technikanschaffung regelmäßig bei der Internetnutzung anfallen. Angesprochen sind hier verschiedene Grund-, Einwahl- und Verbindungsentgelte, die zusätzlich zu den Kosten des normalen Telefonanschlusses beglichen werden müssen. Der Boom der Breitbandanschlüsse hat gleichzeitig zu neuen Abrechnungsmodellen geführt, wie etwa so genannten »Flatrate«-Angeboten, bei denen mit einer deutlich erhöhten monatlichen Grundgebühr bereits alle Online-Nutzungsentgelte abgegolten sind. Die meisten deutschen Internetdienstanbieter halten im Jahr 2008 solche Angebote bereit, koppeln teilweise die Gebühren für Telefon- und Internetanschluss mit »Flatrates« für beide Dienstleistungen. Aber: Trotz sinkender Preise, so stellen die Autoren des »(N)Onliner Atlasses« fest, ist die »Internet-Nutzung […] jedoch nach wie vor eine Kostenfrage« (TNS Infratest/Initiative D21 2008: 17). Sie schließen dies aus Zahlen, die belegen, dass zwischen dem monatlichen Haushaltsnettoeinkommen und der Internetnutzung ein Zusammenhang besteht. Während bei einem Einkommen von unter 1.000 EUR 2008 nur 40,9 Prozent der untersuchten Bevölkerung online waren, waren es bei einem Einkommen von über 3.000 EUR schon 87,0 Prozent. Für die untersuchten Einkommensklassen dazwischen wurde ein steigender Anteil der Internetnutzer nachgewiesen (vgl. ebd.). Damit kann aber abschließend geschlussfolgert werden, dass die Kostenfrage auch für die Rezipienten von Netzliteratur relevant ist, wenn auch in eingeschränktem Maße. Wie gezeigt werden sollte, werden im Dispositiv Internet andere ökonomische Modelle umgesetzt, die auf ideologischen Alternativentwürfen zu den herkömmlichen wirtschaftlichen Gratifikationssystemen beruhen. Damit gehen aber zahlreiche dualistische Konfliktlinien einher, wie etwa Kunst vs. Kommerz, Open Source vs. Closed Source und nicht zuletzt Netizen vs. ›Datenherren‹. Diese Dualismen stellen nicht selten zwei Seiten einer Medaille dar. Auf der einen Seite steht das Bestreben von Netizen, Netzaktivisten und Netzkünstlern, aus dem Dispositiv heraus neue Impulse für Strukturen, Normen und Werte der Gesellschaft zu entwickeln. Auf der anderen Seite versuchen die traditionellen Aktanten im Mediensystem (Produzenten und Verwer-
RAHMENBEDINGUNGEN DER AUTORSCHAFT IM NETZ | 249
ter), das Dispositiv im Verständnis der traditionellen Medien zu überformen und zu disziplinieren. Diese Auseinandersetzung zwischen dem evolutionären und dem traditionellen Paradigma findet aber nicht nur auf den Feldern der philosophischen Grundlegung und der Ökonomie statt, sondern wird in die Gesetzgebung, Verwaltung und Rechtsprechung verlängert. Davon wird im Folgenden die Rede sein.103
7.4 Rechtliche Bedingungen der Autorschaft Das Internet war nie ein rechtsfreier Raum, auch wenn dies in der (verzerrten) öffentlichen Wahrnehmung in der Boomzeit zuweilen einen anderen Anschein hatte. Die bereits kodifizierten Rechtsnormen galten und gelten online (zunächst) weiter, daher war und ist es auch überflüssig, von einem speziellen Internetrecht zu sprechen. So ist zum Beispiel die Darstellung von Symbolen verfassungsfeindlicher Organisationen auf einer Webseite ebenso strafbar wie in den traditionellen Medien. Allerdings wurde auch sehr schnell offensichtlich, wie schwer sich die traditionelle Rechtsprechung damit tat, die spezifischen Eigenschaften des Dispositivs in seiner Besonderheit zu erfassen und die bereits bestehenden Gesetze auch adäquat auf das Netz anzuwenden. Exemplarisch deutlich wird dieses Problem auch heute noch anhand des Phänomens der Serienabmahnungen von Webseitenbetreibern. Dabei werden durch systematische Internetrecherchen möglichst viele gleichartige Verstöße, etwa gegen das Markenrecht oder das Urheberrecht, ermittelt, was durch geschickt gewählte Online-Suchanfragen technisch relativ einfach ist. Anschließend werden hohe Zahlen von textidentischen und kostenintensiven Abmahnungen an die Verantwortlichen für diese Verstöße versandt. Kritiker dieses Vorgehens werfen den mit Abmahnungen betrauten Anwälten vor, dass eine solche Praxis von Serienabmahnungen nur der Generierung von finanziellen Erlösen dient, was aber nicht dem Sinn einer Abmahnung entsprechen würde. Daher seien Serienabmahnungen auch illegal. Vor den Gerichten war es für Betroffene von Serienabmahnungen aber in der Vergangenheit zumeist schwierig, diese Auffassung auch durchzusetzen.104 Damit wird ein Missverhältnis zwischen den Strukturen und Anforderungen des Dispositivs und den Unzulänglichkeiten traditioneller Vorstellungen deutlich. Noch auffälliger ist diese Diskrepanz bei der onlinespezifischen Ge103
104
Aufgrund der verknappten Überblicksdarstellung wird dabei nicht explizit nach den unterschiedlichen Staatsgewalten unterschieden, sondern der Einfluss von Legislative, Exekutive und Judikative auf die Netzautoren ganz allgemein unter dem Begriff der »rechtlichen Bedingungen« gefasst. Vgl. dazu ausführlicher die Dokumentation »Abmahnwelle« der gleichnamigen Forschungsstelle. Eine der ersten bekannten Abmahnwellen in Deutschland stellte der so genannte »Explorer«-Fall zwischen 1999 und 2001 dar. Diese Abmahnwelle betraf u. a. den bekannten Netizen Stefan Münz, der mit »SELFhtml« eine der beliebtesten HTML-Dokumentationen verfasst hatte, weshalb der Fall auch sehr intensiv in der Presse diskutiert wurde. Hierbei wurde vor Gericht erkannt, dass die Marke »Explorer« nur zum Zweck der Abmahnung registriert wurde. Münz gewann den Fall, auch wurde die entsprechende Markenregistrierung gelöscht. Dementsprechend polemisch fiel auch die überwiegend netzbasierte Berichterstattung, etwa im E-Zine »Telepolis«, aus. Vgl. etwa Jörns 2001; Roth 2002; Roth 2005.
250 | DER DIGITALE AUTOR
setzgebung und Rechtsprechung, die mit der stärkeren Nutzung des Internets Einzug hielt. Wiederum ist hier nicht von einem grundlegend neuen Internetrecht zu sprechen, sondern von einer Anpassung und Ergänzung bestehender Rechtsnormen auf die besonderen Spezifika des Dispositivs. Das dabei zutage tretende – durchaus gespannte – Verhältnis zwischen traditioneller Gesetzgebung, Verwaltung und Rechtsprechung auf der einen Seite und dem Dispositiv Internet auf der anderen hat seit jeher praktische Auswirkungen auf die Arbeit von Netzkünstlern im Allgemeinen und Netzliteraten im Besonderen. Dies wird im Folgenden exemplarisch anhand zweier Fälle diskutiert, bei denen Netzkünstler zwischen diese Fronten gerieten. Dazu wurden Beispiele ausgewählt, die in der (deutschsprachigen) Öffentlichkeit besonders intensiv diskutiert wurden und daher gut dokumentiert sind.
7.4.1 Namens- und Markenrecht, Fallbeispiel »toywar« (1999) Eine der bekanntesten gerichtlichen Auseinandersetzungen im deutschsprachigen Raum ist unter dem etwas martialischen Titel »toywar« bekannt geworden. Hinter dieser Aktion stand die Schweizer Netzkunst-Gruppe »etoy«, die bereits im Jahr 1994 gegründet wurde und deren Mitglieder (so genannte ›Agenten‹) auf strengster Anonymität bestehen. Die Gruppe fiel in den Boomjahren des Internets besonders dadurch auf, dass sie sich im Internet konsequent als die fiktive Firma »etoy.CORPORATION« darstellte und damit die Kommerzialisierung des Internets mit künstlerischen Mitteln sarkastisch kommentierte (zu »etoy« vgl. einführend auch Medien Kunst Netz o. J. und die dortigen Verweise). Bereits vor dem Projekt »toywar« hatte die Gruppe so mit dem Project »Digital Hijack« für Furore gesorgt, mit dem sie die Manipulierbarkeit von Suchmaschinen vorführte und für das sie 1996 die Goldene Nica des österreichischen Kulturpreises »Prix Ars Electronica« erhielt. Bemerkenswert an diesen und weiteren Medienaktionen war aber, dass die Künstlergruppe sehr virtuos mit den Medien und der medial hergestellten Öffentlichkeit spielte. Dies führte nicht zuletzt dazu, dass von Beobachtern die Frage gestellt wurde, ob die Aktionen jeweils tatsächlich so abgelaufen waren, wie von »etoy« in der Berichterstattung behauptet (vgl. Hartling 2007b)105. Der »toywar« des Jahres 1999/2000 stellte laut »etoy« zunächst keine geplante Aktion dar, sondern die Künstlergruppe reagierte nach eigener Aussage nur auf eine Klage durch den US-amerikanischen Internet-Spielzeug105
Auch die Künstlergruppe »UBERMORGEN.COM«, welche sich als Nachfolger von »etoy« versteht, arbeitet mit diesen medialen Aktionen, in denen sich die jeweilig anderen Parteien üblicherweise kaum auf Interviews zu den Geschehnissen einlassen. Dies hängt mit der strikt zurückhaltenden Kommunikationspolitik der großen (Medien-)Konzerne wie Google (Projekt »Google Will Eat Itself«) oder Amazon (Projekt »Amazon Noir«) zusammen, die ihr Image nicht beschädigen wollen. Da also jeweils nur die Künstler ›sprechen‹, lassen sich die geschickten medialen Inszenierungs- und Desinformationsstrategien sowohl von »etoy« als auch von »UBERMORGEN.COM« kaum entlarven. Daher muss die (einseitige) Rekonstruktion des »toywar«-Projektes ebenfalls unter dem Vorbehalt gesehen werden, dass sich die tatsächlichen Geschehnisse unter Umständen ganz anders abgespielt haben. Die Schilderung erfolgt daher an den fraglichen Punkten auch konsequent im Konjunktiv.
RAHMENBEDINGUNGEN DER AUTORSCHAFT IM NETZ | 251
händler »eToys.com«. Hintergrund dieser Klage war ein für das Dispositiv sehr typischer Streit um Domain-Namen und damit der Zusammenstoß zwischen Offline-Namens- und Markenrecht sowie dem Online-DNS-System. Vereinfacht ausgedrückt, können im traditionellen Namens- und Markenrecht verschiedene Produkte den gleichen Namen führen. Dies wird etwa möglich, wenn die Marken jeweils in anderen Staaten und dabei nur mit Wirkung für die jeweilige Nation geschützt sind. Denkbar ist dies auch, wenn sich Namen auf unterschiedliche Markenklassen beziehen.106 Da der Markenname eines Produktes zumeist durch einen hohen Werbeaufwand bekannt gemacht und geformt wird, haben Firmen ein legitimes Interesse daran, diese Namen zu registrieren und zu schützen. Durch die Registrierung und die Möglichkeit, den Markenschutz auch vor Gericht einzuklagen, soll verhindert werden, dass fremde Firmen den geprägten Markennamen für die Vermarktung eigener Produkte instrumentalisieren.107 Dieser Schutz gilt aber wie bereits erwähnt nur für eine Klasse, nicht für den gesamten Wirtschaftsverkehr. Im World Wide Web, spezieller noch beim »Domain-Name-System« (DNS), kann aber die Ausdifferenzierung des Namens- und Markenrechts nicht nachgebildet werden, wodurch entsprechende Streitigkeiten systematisch angelegt sind. Das DNS ist zuständig für die Übersetzung der maschinenlesbaren IP-Adressen von Internet-Computern in für Menschen lesbare Namen.108 Eine nationale Trennung von Marken kann noch in Ansätzen durch die länderspezifischen (nationalen) »Top-Level-Domains« (TLD)109 abgebildet werden. Allerdings existiert hierbei bereits die Einschränkung, dass von mehreren gleichlautenden Markennamen aus unterschiedlichen Klassen nur eine einzige eine »de«-Domain erhalten kann. Völlig unzulänglich ist das DNS-System bezogen auf die internationale Ebene. So stellt die TLD »com« international den mit Abstand begehrtesten Domainnamen dar, weil Netzbenutzer sich daran gewöhnt haben, an einen Firmen- oder Produktnamen sowie an ein generisches Produkt einfach die Endung »com« anzuhängen, um zur gewünschten Seite zu gelangen. Zudem stellt der Besitz einer »com«-TLD eine Statusfrage dar, insbesondere für Fir106
107
108
109
So konnte die Zeitschrift »Tempo« gleichzeitig neben der sehr bekannten Papiertaschentuchmarke »Tempo« existieren. Die Zeitschrift erschien zwischen 1986 bis 1996. Der Begriff »Walkman« ist eine eingetragene Marke der Firma Sony und darf in den meisten Ländern nicht für tragbare Kassettenabspielgeräte oder (neuerdings) MP3-Spieler verwendet werden. Bei diesem Beispiel gibt es allerdings eine nationale Einschränkung: Da der Terminus sich in der Umgangssprache zu einer generischen Bezeichnung für die gesamte Produktgruppe entwickelt hat, ist der Markenschutz etwa in Österreich erloschen, vgl. Gingold 2002. So befindet sich die Website des Autors im Februar 2009 auf einem Rechner mit der IP-Adresse »83.243.58.215«. Sie ist unter der für Menschen einfacher zu merkenden Adresse »www.hartling.org« erreichbar. Diese Namensauflösung hat darüber hinaus noch weitere Vorteile, wie etwa die Möglichkeit eines Umzuges der Webseite, ohne dass sich dabei der Name ändert. Top-Level-Domains (TLDs) bezeichnen das letzte Element eines Domainnamens, also die höchste Ebene des Namenssystems. Länderspezifische TLDs stellen Zwei-Buchstaben-Kürzel des jeweiligen Landes dar, etwa »de« für Deutschland oder »uk« für Großbritannien. Allgemeine TLDs wiesen früher auf einen bestimmten Gebrauch hin, etwa »com« für Unternehmen oder »org« für nichtkommerzielle Organisationen, werden aber mittlerweile freier gehandhabt.
252 | DER DIGITALE AUTOR
men, die sich als international ausgerichtete Internetunternehmen im Netz präsentieren wollen. Für andere TLDs existieren – abgeschwächt – ähnliche Mechanismen. Domainnamen können aber jeweils nur ein einziges Mal im gesamten WWW zugeordnet werden, wobei dies strikt nach dem Prinzip »first come, first serve«110 erfolgt. Wenn der Anspruch auf eine Domain gerechtfertigt ist, erhält derjenige Nutzer die Rechte daran, der sie zuerst anmeldet. Daher stellen Domainnamen eine knappe Ressource dar, mit der konsequent auch gehandelt und um die gestritten wird. Die teuersten Verkäufe111 und die bekanntesten Auseinandersetzungen drehten sich so auch um die beliebten und damit raren »com«-Domains. Auch Erweiterungen des DNS haben dieses Problem nicht grundsätzlich lösen können (vgl. Eßer 2006; Kleinwächter 2006). Es war eine Auseinandersetzung um eben eine solche »com«-Domain, die den »toywar«-Konflikt auslöste. Dieser begann am 1. November 1999 mit der Klageeinreichung durch den Versandhandel »eToys.com« und endete kaum drei Monate später mit einer außergerichtlichen Einigung (am 26. Januar 2000). Teil der Aktion war eine massive Mobilisierung der Öffentlichkeit durch eine intensive Presseberichterstattung während und nach dem Prozess. Daher verwundert es kaum, dass das Geschehen außerordentlich gut dokumentiert ist (vgl. dazu insbesondere die Berichterstattung im E-Zine »Telepolis«), wobei die Berichte zum überwiegenden Teil auf »etoy« selbst zurückzuführen sind. Zum Verlauf des Streits und zum Ergebnis der Einigung hatte Florian Rötzer am Tag der Entscheidung einen umfangreichen Artikel veröffentlicht (vgl. Rötzer 2000). Zwei Wochen später lieferte Reinhold Grether als einer der an der Aktion Beteiligten einen umfangreichen Bericht nach, in dem er die im »toywar« verwandten Strategien aufschlüsselte. Auch in der Forschungsliteratur zur Netzkunst finden sich viele Analysen, weil »toywar« den ersten großen ökonomischen Erfolg eines »deutschsprachigen« Netzkunst-Projektes darstellte. Inke Arns etwa analysierte es unter dem Aspekt des »Netzaktivismus« (vgl. Arns 2002: 62-65), während Tilman Baumgärtel in einem Interview112 mit einem »etoy«-Agenten die poetologischen Grundlagen hinterfragte (vgl. Baumgärtel 2000a). Die Schweizer Künstlergruppe »etoy« hatte nach eigener Aussage die Domain »etoy.com« im Jahr 1995 registriert, um dort den Online-Teil ihrer differenzierten und avantgardistischen Firmensimulation zu veröffentlichen. Flankiert wurde dieser Online-Fake durch eine komplexe Offline-»corporate identity«, also einem bestimmten Dresscode der Beteiligten, einer ausschließlichen Verwendung von Pseudonymen usw. Insoweit stellte die angebliche »Corporation« keine simpel und einfach zu entlarvende Internet-Fiktion dar, sondern konnte selbst erfahrene Internetnutzer nachhaltig durcheinander
110
111
112
Eine umgangssprachliche Übersetzung lautet: Wer zuerst kommt, mahlt zuerst. Damit wird ein chronologisches Prinzip beschrieben, bei dem die zeitliche Reihenfolge der Eingänge über die Zuteilung entscheidet, der zeitlich erste Besteller erhält dabei Zugriff auf die Ressource. So wurde etwa die Domain »sex.com« im Januar 2006 für 14 Millionen USDollar verkauft. Dies stellte damals eine der höchsten Summe dar, die jemals für eine Domain gezahlt wurde, vgl. Wilkens 2006. Dieses Interview führte Baumgärtel mit »Agent Gramazio« (Fabio Gramazio) am 26. Januar 2000, nur wenige Stunden nach der außergerichtlichen Einigung (zur Identität von »Agent Gramazio« vgl. Medien Kunst Netz o. J.).
RAHMENBEDINGUNGEN DER AUTORSCHAFT IM NETZ | 253
bringen. Unterstützt wurde die Verwirrung noch dadurch, dass die Webseite mit durchaus provokanten und verstörenden Inhalten aufwartete. Diese Provokationen waren es angeblich, die die US-amerikanische Firma »eToys.com« Anstoß nehmen ließ, als sie nach eigener Aussage im Jahr 1999 auf die ähnlich lautende Domain aufmerksam gemacht wurde. »eToys. com« war 1997 gegründet worden und hatte sich zu einem der größten Online-Versandhandel für Spielwaren entwickelt. Problematisch sei dabei für die Firma gewesen, dass sie einige Monate zuvor an die Börse gegangen war und zudem kurz vor dem für den Versandhandel wichtigen Weihnachtsgeschäft gestanden hatte. In einer solchen Phase schätzten Beobachter jegliche Form von Verunsicherung, sowohl der Anleger als auch der Käufer, als äußerst negativ für das Geschäft ein. So warf »eToys.com« der Künstlergruppe vor, ›Cybersquatting‹ zu betreiben, also die ähnlich lautende Domain unrechtmäßig erworben zu haben, um sie mit hohem Gewinn weiterzuverkaufen. Dem entgegen stellte »etoy« die Aussage, ihren Domainnamen bereits zwei Jahre vor der eigentlichen Gründung der Firma »eToys.com« registriert zu haben. Zudem hätte »etoy« nie versucht, die Adresse zu verkaufen, und sogar ein Kaufangebot über 500.000 Dollar durch »eToys.com« konsequent abgelehnt. Der zweite Vorwurf an die Künstlergruppe lautete, dass diese als Unternehmen auftreten, anstößige Inhalte veröffentlichen und damit potentielle Kunden von »eToys. com« verwirren würden, die sich durch einen Tippfehler auf die Seite von »etoy« verirrt hätten. Auch dieser Einwand wurde von der Künstlergruppe zurückgewiesen, denn diese hätte aufgrund des zeitlichen Zusammenhangs keinen Einfluss auf die Namensgleichheit der Adressen gehabt. Zudem sei die Fiktivität der »etoy.Corporation« und damit die Virtualität der Unternehmensaktivitäten durch eine gründlichere Recherche sehr wohl erkennbar gewesen.113 Schließlich hätte das scheinbare Geschäft von »etoy« im Verkauf von Aktienanteilen bestanden und nicht im Handel mit Spielzeug, eine Verwechslung dieser Aktivitäten stellte den Künstlern zufolge damit nur eine geringe Gefahr dar. Unter dieser Faktenlage sah »etoy« ihren Anspruch auf ihre InternetDomain als legitimiert an, weshalb die Künstlergruppe nach eigener Aussage auch ein Kaufangebot strikt ablehnte oder vielmehr, wie Reinhold Grether herausgestellt hat, aus künstlerischen Gründen sogar ablehnen musste (vgl. Grether 2000). Allerdings untersagte ein kalifornisches Gericht trotz dieser scheinbar eindeutigen Faktenlage Ende November 1999 »etoy« vorläufig die Nutzung des Domainnamens, eine Gerichtsverhandlung war zunächst für Ende Dezember angesetzt. Im Vorfeld dieser Verhandlung spitzte sich die Lage aber schnell zu. »etoy« schien zunächst das Verbot zu akzeptieren und schloss den Webserver »etoy.com«, ging aber gleichzeitig auch mit Details der Auseinandersetzung an die (Internet-)Öffentlichkeit. Innerhalb kurzer Zeit formierte sich online eine große Unterstützergemeinde, die Strategien gegen »eToys.com« diskutierte und offenbar teilweise bereits mit Blockaden114 des Webservers des Versanddienstes begann. Als Reaktion darauf 113
114
So war über das ältere Projekt »Digital Hijack« im Jahr 1996 ausführlich berichtet worden. Recherchen nach den Aktivitäten von »etoy« hätten dieses künstlerische Projekt und damit den fiktionalen Charakter der »etoy.CORPORATION« nach Auffassung der Künstler sofort deutlich gemacht. Solche Blockaden werden mit Referenz auf Protestformen in der realen Welt auch ›virtuelle sit-ins‹ genannt.
254 | DER DIGITALE AUTOR
wurde vom zuständigen Netzwerkdienstleister »Network Solution« der komplette Eintrag von »etoy.com« im Domain-Hauptverzeichnis gelöscht. Dieser Schritt hatte aber nach Aussage der Künstlergruppe deren Internetexistenz komplett ausgelöscht, da die E-Mailadressen nicht mehr nutzbar gewesen wären. Das Vorgehen wäre nicht mehr von der einstweiligen Verfügung gedeckt gewesen, zudem seien unterstützende Seiten blockiert worden. Erst aufgrund dieses Vorgehens wurde nach Angaben von »etoy« Mitte Dezember der »Toywar« ausgelöst (vgl. Arns 2002: 62-65). Reinhold Grether beschreibt in seinem umfangreichen Bericht »Wie die Etoy-Kampagne geführt wurde« (vgl. Grether 2000), wie im Verlauf der Auseinandersetzung der Webserver des Versandhandels »eToys.com« durch ein umfangreiches und komplexes ›vituelles sit-in‹ kontinuierlich mit sinnlosen Anfragen gestört worden sei. Verschiedene Skripte hätten das Shopsystem auf unterschiedliche Art und Weise beschäftigt, wodurch die Angriffe nicht effektiv hätten bekämpft werden können. Eine globale UnterstützerCommunity hätte zeitlich ununterbrochen agiert, die verschiedenen Maßnahmen des ›sit-ins‹ ausgeführt und weiterentwickelt. Flankiert wurde die Aktion durch eine intensive Pressearbeit, die zum Boykott der Firma aufrief und deren Anleger in hohem Maß verunsichert hätte. Ziel sei es dabei gewesen, den Onlineversender gerade beim wichtigen Weihnachtsgeschäft am sensibelsten Punkt zu treffen, nämlich einer fehlerfrei funktionierenden und zuverlässig reagierenden Infrastruktur. Dies sollte aber das Vertrauen in die Leistungsfähigkeit des Unternehmens und damit den Wert der Aktie nachhaltig drücken. Ende Dezember 1999 war der Aktienkurs von »eToys.com« bereits um etwa die Hälfte gefallen, woran allerdings nicht nur der »Toywar« Schuld hatte. Wie Helmut Neumann konstatierte, stellte dies auch eine Folge großer logistischer Pannen bei der Bearbeitung von Weihnachtsbestellungen dar, die verspätet ausgeliefert wurden (vgl. Neumann 2002b: 135-136). »eToys.com« hatte zu dem Zeitpunkt den bereits anberaumten Gerichtstermin verschieben lassen und angeblich ein Einlenken signalisiert. Am 25. Januar 2000 zog die Firma schließlich ihre Klage zurück und zahlte in einer außergerichtlichen Einigung nach Aussage von »etoy« insgesamt 40.000 Dollar als Entschädigung für deren Rechtsanwaltskosten. »etoy« sah damit den Streit als gewonnen an und zelebrierte diesen Sieg genauso intensiv, wie der »Toywar« von seinen Unterstützern geführt worden war (zum Ende des »Toywars« vgl. insbesondere Rötzer 2000 und Grether 2000). Die Firma »eToys.com« musste wohl auch aufgrund der erwähnten Logistikprobleme Mitte des darauf folgenden Jahres Konkurs anmelden (vgl. Neumann 2002b: 136). Auch wenn »etoy« mit ihrem künstlerischen Ansatz und ihrer herben Kritik des Kommerziellen die Auseinandersetzung in gewisser Weise herausgefordert und gesucht zu haben scheint, steht der »Toywar« paradigmatisch für ein zentrales Problem, das Netzkünstler in ihrer Arbeit beschäftigt. Aufgrund der technischen Struktur des Dispositivs können Netzkünstler mit ihrer Arbeit in Konflikte mit kommerziellen Anbietern geraten, die eine vergleichsweise ›hemdsärmelige‹ Version des Kapitalismus vertreten. Wie deutlich geworden ist, kann dies trotz des offensichtlichen Kunstcharakters und auch über nationalstaatliche Grenzen hinaus geschehen, was in der traditionellen Kunst kaum denkbar wäre. Der Domain-Streit beweist zudem den Einfluss einer Rechtsprechung, die mit den dispositiveigenen Charakteristiken
RAHMENBEDINGUNGEN DER AUTORSCHAFT IM NETZ | 255
nicht genügend vertraut ist, und im konkreten Fall das Markenrecht auf die Domainproblematik nicht adäquat übertragen hatte. Dies hatte zur Folge, dass beim »Toywar« nur unter Umgehung der traditionellen Gerichtsbarkeit, nämlich durch zivilen Ungehorsam bzw. durch eine abgeschwächte Form der Selbstjustiz, die als rechtmäßig empfundenen Ansprüche gewahrt werden konnten. Zudem brachte der Streit den ambivalenten Charakter des Netzaktivismus deutlich hervor. Wenn sich Kunst satirisch mit der Kommerzialisierung des Internets auseinandersetzt, wenn Netzaktivisten bewusst Formen des zivilen Ungehorsams einsetzen, müssen sich diese Initiativen auf einen harten Gegenwind der traditionellen Institutionen gefasst machen, die den Aktionszielen unverständig und ihren Mitteln ablehnend gegenüberstehen. Schließlich zeigte der »Toywar« aus einer anderen Perspektive betrachtet auch auf, dass medienaktionistische Kunst in hohem Maße virtuell sein und die tatsächlichen Geschehnisse unter einer lauten medialen Inszenierung verbergen kann. Der Gegner von »etoy« war in diesem Fall ein kommerzielles Unternehmen, das in hohem Maße Wert auf ein intaktes Image in der Öffentlichkeit legen musste und daher vermutlich an einer vergleichsweise schnellen Einigung interessiert war. Zudem agierte die Künstlergruppe samt ihrer Unterstützer offenbar vor allem mit Mitteln des Ungehorsams und torpedierte damit den legalen Weg durch gerichtliche Instanzen. Wie lang, zeit- und nervenaufreibend aber dieser legale Weg sowie die Auseinandersetzung mit einem staatlichen Akteur sein kann, wurde am Fall »FreedomFone« deutlich, der im Folgenden diskutiert werden soll.
7.4.2 Medienrecht, Fallbeispiel »FreedomFone« (2001) Hintergrund des Falles »FreedomFone« war die Diskrepanz zwischen traditionellen nationalstaatlich geltenden Gesetzen und Rechtssprechung auf der einen Seite sowie einem global ›sendenden‹ Dispositiv auf der anderen.115 Dabei geraten national unterschiedliche Vorstellungen darüber aneinander, welche Inhalte verboten sind und welche trotz eventueller Anstößigkeit frei verbreitet werden dürfen. So wird die Propagierung der Holocaustleugnung in den USA etwa durch das Recht auf freie Meinungsäußerung116 gedeckt, in Deutschland ist sie aber als Volksverhetzung strafbar. Dies führt zu der paradoxen Situation, dass bekannte Vertreter der Holocaustleugnung ihre Ansichten auf US-amerikanischen Webservern legal publizieren können, diese Angebote damit in Deutschland prinzipiell aber abrufbar sind, weil ein Clientrechner nicht ›weiß‹, in welchem Nationalstaat er steht und welche Inhalte er abrufen ›darf‹. Gleiches gilt etwa für gewaltverherrlichende Darstellungen. Das nationalstaatliche Prinzip führt aber auch dazu, dass deutsche Behörden die Verbreitung inkriminierter Inhalte von ausländischen Webservern aus nicht direkt an der Quelle abwehren können. Versuche, Verstöße wie diese zu verhindern, können also immer nur am Empfänger oder einer dazwischen liegenden Übermittlungsinstanz ansetzen, indem die Weiterleitung strafbarer Informationen an den Nutzer unterbunden wird. Dies wird etwa 115 116
Vgl. dazu sehr viel ausführlicher den Streit um die Regulierung des Internets, vgl. Kleinwächter 2004. Dies ist im 1. Zusatzartikel (Amendment) zur Verfassung der USA festgeschrieben.
256 | DER DIGITALE AUTOR
durch Sperrungsverfügungen versucht, also die Unterdrückung der Inhalte bei den Providern, die den Internetzugang bereitstellen. Solche Verfügungen muten aber etwas naiv bei einer Apparatur an, die explizit darauf hin entwickelt wurde, technische Ausfälle zu kompensieren und alternative Wege zu suchen. Sperrungen werden von Netzaktivisten als sehr problematisch angesehen, weil sie Zensurentscheidungen gleichen und in das Grundrecht der Informationsfreiheit eingreifen. Zudem wird argumentiert, dass sich eine freie und demokratische Gesellschaft nicht bestimmter Methoden bedienen sollte, die in Staaten mit diktatorischen Strukturen die Menschenrechte verletzen würden.117 Ein anderer Fall stellt ganz offensichtlich die Kontrolle und das Verbot problematischer Inhalte im tatsächlichen Zuständigkeitsbereich der deutschen Gesetzgebung, Verwaltung und Rechtsprechung dar. Webserver im deutschen Raum und die auf ihnen gespeicherten Angeboten sind für deutsche Ermittlungsbehörden greifbar, sodass die Verbreitung strafbarer Inhalte etwa durch Beschlagnahmung der Server und Anklage der Betreiber wirksam unterbunden werden kann. Diese Kontrollen sind so effektiv, dass rassistische, faschistische oder gewaltverherrlichende Inhalte auf deutschen Servern nicht oder nicht mehr veröffentlicht werden. In den letzten Jahren sind vor allem Verstöße gegen das Urheberrecht118 und gegen das Verbot von Kinderpornographie119 auf deutschen Computern und Webservern bekannt geworden. Diese Prozesse wurden in der Öffentlichkeit entsprechend intensiv diskutiert. Nach gängiger Praxis in der Rechtsprechung ist darüber hinaus bereits der reine Verweis auf inkriminierte Inhalte – mit wenigen Ausnahmen – verboten. Es existiert damit eine so genannte ›Haftung für Hyperlinks‹. Verlinkt also das Angebot eines deutschen Webservers auf eine ausländische Webseite mit verbotenen Inhalten, kann dies strafbar sein und verfolgt werden. So wurde 1996 die damalige PDS-Politikerin Angela Marquardt angeklagt, weil sie auf ihrer persönlichen Homepage einen Link zur Webpräsenz der (de facto illegalen) Zeitschrift »radikal« gelegt hatte, auf der im Juni 1996 zwei beanstandete Texte über Bahnsabotage erschienen. Da der entsprechende Webserver in den Niederlanden stand und die Zeitschrift auf mehreren Mirrorser117
118
119
Ein oft genanntes Beispiel für die Zensur zur Unterdrückung von Bürgerrechten ist etwa China. Zum Problem der Internet-Zensur in den einzelnen Staaten vgl. die Dokumentation auf der Webseite der internationalen Organisation »Reporter ohne Grenzen«, Abschnitt »Internet«. Dies betraf etwa die Zerschlagung so genannter Tauschringe oder von FTPServern, auf denen illegale Kopien von Filmen angeboten und vertrieben wurden. Das bisher umfangreichste Verfahren betraf den illegalen DownloadServer »FTPWelt«, dessen Betreiber im September 2004 festgenommen wurden. Dieser Server war kommerziell ausgerichtet, technisch komplex ausgestattet und soll eine hohe sechsstellige Summe umgesetzt haben, vgl. dazu näher Bleich 2004. Eine der größten Aktionen gegen Kinderpornographie der jüngeren Vergangenheit war die internationale Operation »Marcy«. Diese Operation richtete sich gegen einen international tätigen Kinderpornographie-Ring im Internet und wurde von deutschen Behörden koordiniert. Ermittelt wurden etwa 26.500 Verdächtige, wobei ca. 530 davon deutsche Staatsbürger waren, vgl. Wilkens 2003. Da Kinderpornographie international geächtet ist, haben deutsche Strafverfolgungsbehörden hier allerdings kaum Probleme, auf Webserver in anderen Staaten zuzugreifen, weil die Kooperation mit ausländischen Behörden in der Regel offenbar gut funktioniert.
RAHMENBEDINGUNGEN DER AUTORSCHAFT IM NETZ | 257 120
vern gespiegelt wurde, konnten die deutschen Behörden den Server selbst nicht abschalten, verfolgten aber Linksetzungen darauf.121 Marquardt hatte sich zwar explizit von den Inhalten der verlinkten Seite distanziert, aber im Sinne der Informationsfreiheit gehandelt und damit auch Formen von Internetzensur kritisiert. Sie führte an, dass sie den Link bereits vor der Veröffentlichung der inkriminierten Texte und damit ohne Kenntnis dieser gelegt hatte. Im Verfahren wurde die Verantwortlichkeit für Verlinkungen nachdrücklich bestätigt, allerdings konnte ihr eine Kenntnis der verbotenen Texte nicht nachgewiesen werden, weshalb sie 1997 freigesprochen wurde (vgl. dazu näher Helmers 1997). Argumentiert wird in solchen Fällen damit, dass Hyperlinks keinesfalls nur Verweise im Sinne von Fußnoten darstellen, sondern sich der Link-Setzer in der Regel die verlinkten Inhalte zueigen machen würde. Relevanter ist diese ›Linkhaftung‹ vor allem im Zivilrecht, etwa bei Links auf Webseiten, die verbotene Software anbieten. Dies betrifft etwa Software zur Umgehung von Kopierschutzmaßnahmen auf Audio-CDs oder DVD-Videos, die in Deutschland mittlerweile illegal sind. In diesem Zusammenhang musste sich der »Heise-Zeitschriftenverlag« vor Gericht verantworten, weil im Rahmen der Berichterstattung auf seinem Onlinedienst »heise online news« auch Links auf entsprechend verbotene Programme gelegt worden waren. Im März 2005 wurde der Verlag dazu verurteilt, diese Links zu entfernen sowie zukünftig zu vermeiden. Gegen diese Entscheidung hat der Verlag Verfassungsbeschwerde beim Bundesverfassungsgericht eingereicht (vgl. dazu näher Kaufmann 2006). Im konkreten Fall »FreedomFone« betraf es eine Sperrungsverfügung, die im Jahr 2001 vom Regierungspräsidium Düsseldorf zunächst gegen vier, schließlich nur gegen zwei Webseiten auf US-amerikanischen Servern mit neonazistischen oder gewaltverherrlichenden Inhalten erlassen wurde. Damit waren Internet-Zugangsanbieter des Landes Nordrhein-Westfalen aufgefordert, die betreffenden Seiten bereits an der Schnittstelle zwischen der internationalen Internet-Infrastruktur und ihrem (regionalen) System zu sperren. Technisch sollte dies auf einer relativ einfachen Veränderung des DNSSystems basieren, die nicht vollkommen sicher sperrte, aber für den normalen Nutzer ausreichen sollte. An dieser Entscheidung wurde massive Kritik geübt, sowohl von Rechtsexperten als auch von Bürgerrechtsgruppen. Erstere bezweifelten vor allem, ob die Sperrungsverfügung tatsächlich ein adäquates Mittel darstellte, um verbotene Inhalte zu bekämpfen. Letztere klagten an, dass mit der Sperrungsverfügung massiv das im Grundgesetz verankerte Recht auf Informationsfreiheit verletzt und damit der Tatbestand der Zensur erfüllt würde. Zudem wäre die Sperrung zweier inkriminierter Seiten nur der Beginn weiterer, umfassenderer Sperrungen, die unkontrollierbare Züge annehmen könnten (vgl. dazu ausführlicher Kleinz 2002; Krempl 2002). 120
121
Mirrorserver speichern exakte Kopien eines Webangebotes, um Ausfälle eines Servers abzufangen oder die Anfragen der Nutzer gleichmäßig zu verteilen und damit schneller zu bedienen. Gleichzeitig stellen diese auch ein Mittel gegen Zensur oder Sperrungsverfügungen dar, indem inkriminierte Inhalte weiter im Netz vorgehalten werden, auch wenn der Originalserver abgeschaltet wurde. Auch Anbieter von zivil- oder strafrechtlich problematischen Inhalten nutzen diese Technologie. Dies betraf übrigens auch das Projekt »Assoziationsblaster« und damit Alvar Freude als einen seiner Autoren.
258 | DER DIGITALE AUTOR
Weiterhin wurde die Sperrungsverfügung durch eine Reihe von Maßnahmen und Äußerungen aus dem Regierungspräsidium flankiert, die dazu geeignet waren, die Befürchtungen der Bürgerrechtler noch zu verstärken. So wurde etwa eine kritische Kolumne über den für die Sperrung hauptverantwortlichen Regierungspräsidenten Jürgen Büssow, die auf »WDR online« erscheinen sollte, vom Sender selbst zensiert. Die Äußerungen deuteten zudem darauf hin, dass tatsächlich weitere Sperrungsmaßnahmen geplant waren und es somit vordringlich um die Etablierung einer dazu geeigneten Infrastruktur zu gehen schien. Daraus schlussfolgerten Bürgerrechtsgruppen, dass mit Hilfe der Sperrungsverfügungen vor allem von der Politik als unangemessen empfundene Inhalte blockiert werden sollten (vgl. Krempl 2003). Eine der aktivsten Bürgerrechtsgruppen, die das Thema bereits sehr frühzeitig aufgriff und öffentlichkeitswirksam diskutierte, war die bereits erwähnte Plattform »ODEM«, die sich die Förderung der »Menschen- und Bürgerrechte im digitalen Zeitalter« auf die Fahnen geschrieben hat. Ihr Initiator Alvar Freude hatte die Sperrverfügung von Anfang an publizistisch begleitet und auf der Webseite von ODEM ein umfangreiches Dossier angelegt, das zum Teil auch Interna aus dem Regierungspräsidium enthielt. Freude hinterfragte dabei kritisch, ob die Sperrung von faschistischen oder rassistischen Webseiten tatsächlich dazu geeignet war, diesem Gedankengut entgegenzuwirken. Stattdessen stellte er fest, dass nur der ungehinderte Zugang zu entsprechenden Seiten und die freie Information über die Position von deren Betreibern zu einem normativ positiven Denkprozess führen könnten. Es war aus seiner Sicht nur konsequent, dass er die inkriminierten Seiten kommentierte und auch verlinkte. In der Dokumentation und in diversen Pressemitteilungen bezeichnete Freude schließlich die Sperrungsverfügung in der Sache und deren geistigen Vater Büssow in Person als Bedrohung der Informationsfreiheit und geißelte die Verfügung als Zensur (vgl. ODEM e.V. 2003). Konkret tätig wurde Alvar Freude, indem er Strafanzeige gegen die Sperrungsverfügung stellte, die allerdings zurückgewiesen wurde (vgl. ODEM e.V. 2002), und indem er die Internet-Satire »FreedomFone« veröffentlichte. Das Projekt »FreedomFone« war bereits auf den ersten Blick als sarkastische Replik auf die Sperrungsverfügung zu entlarven.122 Es bestand aus nicht mehr als einer Handvoll Seiten, die nur sehr oberflächlich die Funktionsweise eines Internetserviceanbieters nachahmten. Fiktiver Zweck des Dienstes war es, einen Zugang zu gesperrten Webseiten herzustellen, indem sich der Benutzer diese über eine kostenpflichtige 0190-Nummer vorlesen lassen konnte. Die eigene Dienstleistung wurde dabei recht marktschreierisch angepriesen, wobei die Seite mit der graphisch sehr aufdringlichen Hervorhebung der Telefonnummer eher an unseriöse Werbeangebote erinnerte. Schließlich mussten auch die Schilderungen der Karrierechancen beim fiktiven Internetdienstleister den Besucher schallend auflachen lassen. Diese ironische Zurschaustellung von Versatzstücken aus dem ›Verkaufs-Internet‹ demaskierte das Angebot bereits auf Anhieb als offensichtlichen Fake.
122
Anfang 2009 war das Projekt in einer archivierten Fassung noch online abrufbar, allerdings funktionierte die angegebene Telefonnummer nicht mehr, nicht zuletzt weil alle 0190-Servicenummern zugunsten der neuen Nummerngasse 0900 Ende 2005 abgeschaltet wurden. Spätestens mit dem Abschluss der gerichtlichen Auseinandersetzung war das Projekt endgültig beendet, weswegen es an dieser Stelle in der Vergangenheitsform diskutiert wird.
RAHMENBEDINGUNGEN DER AUTORSCHAFT IM NETZ | 259
Abbildung 12: Alvar Freude: »FreedomFone« (2001)
Quelle: Screenshot der Startseite, vom Autor Der Adressat der Satire war aber nur schlecht maskiert, unverhohlen wurden sarkastische Seitenhiebe auf die Urheber der Sperrungsverfügung ausgeteilt. So wurde das Regierungspräsidium mit der Führung eines diktatorisch strukturierten Systems auf eine Ebene gestellt, wenn es hieß: »Immer mehr Internetseiten werden abgeriegelt, um die Nutzer vor bestimmten Inhalten zu schützen: Nur noch eingeschränkt surfen lässt sich beispielsweise bereits in Nordrhein-Westfalen oder in China.« (»FreedomFone«)123 ›Gefilterte Informationen‹ – so der euphemistisch verklausulierte Ersatzbegriff für Zensur – wurden aber auf der Seite positiv herausgestellt, letztendlich hätte es sogar eine steigende Nachfrage gegeben. Nur in Ausnahmefällen wäre ein ›ungefilterter‹ Zugang nötig gewesen, so etwa für »Regierungsbeamte, die kompetente Entscheidungen fällen müssen« (»FreedomFone«).124 Schließlich wurde auch noch ein besonderer Preisnachlass für einen Teil der von der Verfügung betroffenen Bevölkerung offeriert. Dies stellte aber einen zynischen Kommentar zu die Folgen von Sperrungen für die Qualität von Forschung und (wissenschaftlicher) Ausbildung dar: »ACHTUNG! 1. September 2004: FreedomFone launcht neue Hochschulkampagne: Als Student oder Dozent einer Universität oder Fachhochschule in Nordrhein-Westfalen können Sie den FreedomFone-Service jetzt noch günstiger nutzen! Sprechen
123 124
Die Ländernamen verlinken auf Presseberichte zur Zensur in den entsprechenden Regionen. Der Begriff »Regierungsbeamte« verlinkt auf einen ausführlichen und sarkastisch kommentierten Lebenslauf Jürgen Büssows, die Phrase »kompetente Entscheidungen« auf einen Telepolis-Artikel, indem kritisch über einen verschärften Jugendmedienschutz-Staatsvertrag (JMStV) berichtet wird.
260 | DER DIGITALE AUTOR
Sie noch heute mit uns! Wir rufen zurück!« (»FreedomFone«)125 Krönung des Angebotes war die Einblendung von sieben Webadressen, die angeblich in den vorangegangenen 24 Stunden am meisten nachgefragt wurden. Es musste sofort auffallen, dass der (lächerliche) Service überhaupt nicht funktionstüchtig war. Freude hatte zwar tatsächlich die entsprechende Mehrwertdienst-Telefonnummer gemietet, allerdings nach eigener Aussage nie einen wirklich ernstzunehmenden Anruf bekommen. Stattdessen wäre er nur von einer Handvoll Personen kontaktiert worden, die die Erreichbarkeit der Nummer testen wollten. Insoweit war evident, dass der satirische Charakter der Seite von jedem Internetnutzer sofort entschlüsselt werden konnte. Auch die angeblichen »FreedomFone Top7« dürften nur für kurzzeitige Verwirrung gesorgt haben, erschienen doch neben den inkriminierten Seiten auch zufallsbasiert weitere Verweise auf polarisierende Webseiten (vgl. Sixtus 2004a). Dies war neben Seiten wie Google, Auftritte antifaschistischer Organisationen, Schwulenhasserseiten und ähnlichem auch die Seite der CSU. Bei jedem Aufruf der Seite wurde eine neue Liste generiert, so dass ihr bedeutungsloser Gehalt rasch evident wurde (zu Freudes Poetologie vgl. ausführlicher auch Roth 2003). Mit dieser handwerklich und sprachlich geschickt umgesetzten Verspottung einer Verwaltungsentscheidung stellte Freude aber das Regierungspräsidium Düsseldorf so nachhaltig bloß, dass die deswegen einsetzende, heftige Gegenwehr die Beobachter kaum überrascht haben dürfte. Aufgrund von Anzeigen u. a. aus dem Umfeld des kritisierten Regierungspräsidiums begann die Staatsanwaltschaft Stuttgart im Oktober 2003 mit Ermittlungen gegen Freude. Sie warf ihm dabei die angebliche Zugänglichmachung von verbotener rechtextremistischer Propaganda vor. Kernpunkt der Anzeigen waren zum einen Links auf die von der Sperrungsverfügung betroffenen Seiten, die Freude im Zuge seiner Dokumentation gelegt hatte. Dabei wurde ihm unterstellt, er würde sich die Inhalte zueigen machen. Faktisch hatte Freude sich aber sehr wohl deutlich von den Inhalten der Seiten distanziert und die entsprechenden Links ausführlich kommentiert. Die Vorwürfe in diesem Punkt richteten sich, so Unterstützer von Freude, gegen das Recht der Informationsfreiheit. Zum zweiten wurde er für Links angeklagt, die vom satirischen Projekt »FreedomFone« auf die inkriminierten Seiten verwiesen, wobei die Links aber nur zufällig unter den »Top 7« erschienen, eingebettet in eine offensichtlich ironische Mischung von seriösen und militanten Webseiten. Auch hier lautete der Vorwurf, Freude würde sich die Inhalte zueigen machen und damit rechtsradikale Propaganda verbreiten, ja er würde die Inhalte sogar in seine Seite einbetten. Dabei wurde der satirische Charakter missachtet, der durch die geschilderten Mittel für den normalen Internetnutzer mehr als evident sein musste. Eine breite Front von Künstlern, Bürgerrechtlern und internetaffinen Rechtsanwälten führte zu Freudes Verteidigung aus, dass eine Verurteilung an diesem Punkt klar gegen die Kunstfreiheit verstoßen würde. In einer freiheitlichen Demokratie müsste ein Protest gegen eine Verwaltungsentscheidung mit satirischen Mitteln möglich sein, auch wenn die Äußerungen wie in diesem Fall sehr drastisch ausgefallen wären. Da die Frage der Strafbarkeit von Hyperlinks sehr intensiv diskutiert wurde und bereits erste Gerichtsentscheide dazu getroffen wurden, konnte sich der Streit einer hohen öffentli125
Die Wortgruppe »Universität oder Fachhochschule in Nordrhein-Westfalen« verlinkt auf einen der ersten Berichte über die Sperrungsverfügung.
RAHMENBEDINGUNGEN DER AUTORSCHAFT IM NETZ | 261
chen Aufmerksamkeit sicher sein. So berichtete nicht nur das E-Zine »Telepolis« intensiv über den Fall, auch die klassische Printpresse verfolgte die Auseinandersetzung, wobei sie auch die Position des Beschuldigten Freude einnahm. Dies aber musste damals als (noch) ungewöhnlich für die traditionelle Presse angesehen werden (zu den Ermittlungen sowie den ersten Reaktionen vgl. auch die Hintergrundberichte in Roth 2003 und Sixtus 2004a). Im Oktober 2004 wurde Freude in erster Instanz vom Amtsgericht Stuttgart zunächst zu einer Geldstrafe von 120 Tagessätzen über insgesamt 3.000 EUR verurteilt (zur Entscheidung vgl. näher Sixtus 2004b). Freude hatte nach Auffassung des Gerichtes den satirischen Charakter seines Projektes nicht hinreichend genug darstellen können, zudem hatte die Staatsanwaltschaft signalisiert, im Falle eines Freispruches auf jeden Fall Rechtsmittel einzulegen. In einem ausführlichen Bericht und Kommentar zur Verhandlung mutmaßte Oliver Gassner, dass sogar beide Seiten an einer höchstrichterlichen Prüfung interessiert gewesen wären (vgl. Gassner 2004). Gegen das Urteil ging Freude in Berufung, die im Juni 2005 zu einem Freispruch in zweiter Instanz (vgl. Ermert 2005) führte. Diese Entscheidung wurde in einem von der Staatsanwaltschaft angestrengten Revisionsprozess knapp ein Jahr später (April 2006) endgültig bestätigt (vgl. Gassner 2006). Die beiden höheren Instanzen erkannten den satirischen Charakter des Projektes bedingungslos an und stellten heraus, dass »FreedomFone« eine Dokumentation zur Zeitgeschichte sei. Deshalb erfülle die Seite auch nicht den Tatbestand der Propagierung von rechtextremistischen Positionen. In der Berufungsverhandlung hatte das Landesgericht Stuttgart die Ermittlungsbehörden bereits für Fehler bei der Aufklärung und für die Missinterpretation von Freudes Absichten kritisiert. In der Revisionsverhandlung wurde noch einmal explizit betont, dass das Projekt eine deutlich erkennbare Satire darstellte und damit unter die Kunstfreiheit falle. Freude hätte eine staatsbürgerliche Aufklärung bezweckt, was ihm Straffreiheit bei ansonsten verbotenen Links gewähre. In seiner Entscheidung hatte das Oberlandesgericht Stuttgart deutlich herausgestellt, dass die Verantwortung für gesetzte Hyperlinks den Normalfall darstelle und die Verlinkung inkriminierter Seiten im Allgemeinen durchaus strafbar sei. Allein durch die besonderen Umstände des Einzelfalls sowie eine Prüfung der spezifischen Sachlage hätte von einer Verurteilung abgesehen werden können. Damit steht der Fall Freude aber nicht nur beispielhaft für den schwierigen Abwägungsprozess zwischen künstlerischer Freiheit und der Inkriminierung verbotener Inhalte, sondern er zeigt ein systematisches Problem von kritischer Netzkunst und aufklärerischen Dokumentationen auf. Wenn sich Diskussionen gerade von gesellschaftlich brisanten Themen nämlich zunächst im strafbaren Bereich befinden und deren Initiatoren ihre Unschuld erst beweisen oder erstreiten müssen, hängt das Damoklesschwert der Strafverfolgung über jeder kritischen Äußerung. Auch die im Prozess betonte Verantwortlichkeit für Hyperlinks stellt eine systematische Schwierigkeit für Netzautoren dar. Sie agieren in einem Dispositiv, dem der ständige Wechsel von Inhalten und damit der Ziele von Verweisen inhärent ist. Dadurch kann aus Sicht von Bürgerrechtlern völlige (Rechts-)Sicherheit nur durch den Verstoß gegen das zentrale Linkparadigma des Dispositivs erreicht werden, nämlich indem nicht gelinkt wird.
8 DER AUTOR IN DER NETZLITERATUR. O N L I N E -A U T O R S C H A F T Z W I S C H E N PERSONENKULT UND DISSOZIIERUNG Bislang wurden die Faktoren des Dispositivs Internet gekennzeichnet, wie sie als Rahmenbedingungen für Online-Autoren wirksam werden. Nun soll es weiterführend darum gehen, welche Folgen diese Bedingungen für die tatsächlichen Autor-Inszenierungen im Netz haben. Dazu wird in diesem Abschnitt zunächst diskutiert, dass die Ausgangsthese von der grundsätzlichen Autorschafts-Marginalisierung im Internet eindeutig zu widerlegen ist. Gezeigt wird erstens, dass der Autor in den neuen Medien wiedergeboren wird bzw. weiter in ihnen lebt. Dabei kann die Autorbedeutung sogar stärker und der ›Personenkult‹ größer sein als in der traditionellen Literatur (Kapitel 8.1). Im Gegensatz zur ausgedehnten ›autorlosen‹, kollektiven Textproduktion in onlinejournalistischen Zusammenhängen sind zweitens literarische, kollaborative Arbeiten derzeit kaum festzustellen. Erfolgreiche und ästhetisch ansprechende gemeinschaftliche Projekte setzen notwendigerweise Herausgeber in Form von Initiatoren und Moderatoren voraus. Damit bleiben aber auch hier Autorfunktionen erhalten (Kapitel 8.2). Drittens: Auch bei kollektiven Projekten oder den scheinbar autorlosen Codeworks ›stirbt‹ der Autor nicht, sondern seine Funktionen werden aufgespalten und auf verschiedene Personen verteilt (Kapitel 8.3). Trotzdem können – viertens – Tendenzen im Netz festgestellt werden, dass sich Autoren aus den dispositivitären Rahmenbedingungen des Netzes zu ›befreien‹ trachten. Eine der wichtigsten Tendenzen ist die netzliterarische Konzept- und Performancekunst, bei der sich sogar eine maximal verteilte, »dissoziierte« Autorschaft feststellen lässt (Kapitel 8.4).
8.1 Genialistische Autorschaft Die bereits als ›klassisch‹ zu bezeichnenden Genres von Netzliteratur führten die Experimente der modernen Print-Literatur fort. Narrativ orientierte Hyperfiction basierte auf der Idee der Nonlinearität, wie sie etwa von James Joyce oder E. T. A. Hoffmann im klassischen Medium erprobt wurden. Dagegen schlossen und schließen die hypermedial orientierten Arbeiten von Reinhard Döhl (1934-2004) und Johannes Auer seit 1996 an Experimente der konkreten und visuellen Poesie an. Sie traten damit gewissermaßen die Nachfolge der Stuttgarter Schule um Max Bense1 (1910-1990) im Netz an. Döhl gehörte selbst maßgeblich zur Gruppe dazu, Auer steht für die Kontinuität 1
Zur Stuttgarter Gruppe bzw. Schule vgl. Döhl/Auer 2004; Lutz 2004: 36-38 sowie den ausführlichen Internetreader »Als Stuttgart Schule machte«, vgl. Döhl et al. 1998 ff. Zu Max Bense vgl. Nünning 2004b.
264 | DER DIGITALE AUTOR
der experimentellen Literatur und Kunst in Stuttgart. Dies bedeutet aber keinesfalls nur alten Wein in neuen Schläuchen. Während im Buchmedium zwar immer schon die Möglichkeit bestand, gegen die Norm der seriellen Lektüre zu verstoßen, wird diese Normverletzung im Netzdispositiv zur Regel. Der interaktive Eingriff des Lesers liefert die Grundlage der Poesie. Losgelöst vom Wort als alleinigem Bedeutungsträger sowie ergänzt um multimediale und interaktive Elemente formen sich neue Qualitäten von Literatur. Allerdings werden auch weiterhin klassische Merkmale der Literatur fortgeführt. So vertreten diese Arbeiten ein starkes Konzept von Autorschaft, das sich z. B. in der Inszenierung der Autoren niederschlägt. Auch kann der Leser bei aller Interaktivität nur die Wege einschlagen, die ihm der Autor vorgegeben hat. Die Bedeutung des Codes und des Maschinellen erfährt kaum eine künstlerische Reflexion. Schließlich orientieren sich die Arbeiten noch vornehmlich an Vorbildern aus der Offline-Welt, wie etwa Gedicht, Roman, Theater, Film, Fernsehen und zunehmend auch am Computerspiel. Netzliteratur dieser eher klassischen Form bedient sich der drei spezifischen Stilmittel ›Interaktivität‹, ›Intermedialität‹ und ›Inszenierung‹.2 ›Interaktivität‹ meint dabei die »Teilhabe des Rezipienten an der Konstruktion des Werkes« (Simanowski 2002b: 18). Der Leser navigiert aktiv durch Hypertexte, entscheidet dabei über den Verlauf, den die Geschichte nimmt oder er muss sogar erst den Film zusammenstellen, den er anschließend sehen kann. Ein bemerkenswertes Projekt ist »Spätwinterhitze« von Frank Klötgen. In diesem »Internetkrimi« wird der Betrachter zum Protagonisten der Geschichte, die er eher im Stil eines Adventure-Computerspiels steuern kann. Das ›Look and Feel‹ von Computerspielen wird noch stärker im 2005 veröffentlichten Projekt »Endlose Liebe – Endless Love« umgesetzt. ›Intermedialität‹ steht für die »Verbindung zwischen den traditionellen Ausdrucksmedien« (ebd.: 8). Dies bedeutet, dass der Text mit (bewegtem) Bild und Ton verschmolzen wird. In Verbindung mit Interaktivität und Inszenierung entsteht eine neue Form von Gesamtkunstwerk, die sich von den traditionellen Melangen Text-Grafik (Print) oder Bild-Ton (Audiovision) absetzt. Besonders interessant ist diese Verbindung im Werk von Ursula Hentschläger und Zelko Wiener (vgl. »Zeitgenossen«, 1999-2005). Diese Abgrenzung markieren Theoretiker wie Simanowski durch die Vermeidung des ›traditionellen‹ Begriffes Multimedia. ›Inszenierung‹ bedeutet schließlich, dass bei Netzliteratur »die Programmierung einer werkimmanenten oder rezeptionsabhängigen Performance« (Simanowski 2002b: 9) möglich bzw. sogar gefordert ist. Da die netzspezifischen Text-, Animations- und Soundformate auch die Einbettung von ausführbarem Programmcode erlauben, kann das Verhalten dieser Komponenten gesteuert werden. »Worte und Bilder« können, so Simanowski, »ihren ›Auftritt‹ haben«, dessen »Stichworte« vom Programm oder vom Rezipienten »ausgehen« (ebd.: 19). Dies ist aber das Haupterzählprinzip in den aufwendig und detailliert programmierten Arbeiten von Susanne Berkenheger. Texte, Bilder und Browserelemente haben solche ›Auftritte‹, sie werden durch die Programmierung oder den Leser aktiviert. In ihrem Projekt »Zeit für die Bombe« (1997) werden etwa bestimmte Textpassagen automatisch und schnell hintereinander 2
Zu den Charakteristika von Netzliteratur vgl. ausführlicher Simanowski 2002b: 14-23.
DER AUTOR IN DER NETZLITERATUR | 265
weg ausgetauscht, sodass sich ein dynamischer und spannungsvoller Leseeindruck einstellt. In »Hilfe!« aus dem Jahr 1998 erscheinen Popup-Fenster und ›reden‹ miteinander, wobei die Browserelemente tatsächlich zu Protagonisten der Geschichte zu werden scheinen. Berkenhegers Werk wird immer wieder beispielhaft für Netzliteratur herausgestellt, die sowohl künstlerisch und handwerklich gelungen als auch für eine breite Öffentlichkeit interessant ist. Es überrascht nicht, dass nahezu alle ihre Arbeiten bei renommierten Wettbewerben für digitale Literatur ausgezeichnet wurden.3 Für ihr viel beachtetes Projekt »Die Schwimmmeisterin« (2002)4 erhielt Berkenheger den zweiten Preis bei der zweiten Auflage des letzten großen deutschen Netzliteratur-Wettbewerbs »Literatur.digital« im Jahr 2002. »Die Schwimmmeisterin« ist aber auch in einer anderen Beziehung bemerkenswert, denn sie stellt eine der wenigen Werke dar, die ganz traditionell von Institutionen des printorientierten Literaturbetriebes gefördert wurden.5 Abbildung 13: Susanne Berkenheger: »Die Schwimmmeisterin« (2002)
Quelle: Screenshot von Susanne Berkenheger Dabei wurde »Die Schwimmmeisterin« in handwerklicher und ästhetischer Hinsicht als eine beeindruckende Arbeit gewürdigt. Das ›Hypertextspiel‹ versetzt den Leser in die Rolle eines Praktikanten in einer virtuellen Badeanstalt. In dieser gilt es eine Reihe von Abenteuern zu bestehen, die dadurch er3 4
5
Für eine komplette Übersicht über die Auszeichnungen für Susanne Berkenhegers Werk vgl. Berkenheger 2001. Zur »Schwimmmeisterin« vgl. den Essay »Literatur im Netz ist eine Zumutung«, vgl. Berkenheger 2002. Das Projekt liegt auch in einer englischsprachigen Aktualisierung unter dem Titel »The Bubble Bath« (2005) vor. Die Arbeit wurde gefördert von dem deutschen Literaturfonds, Darmstadt sowie Migros Kulturprozent, Zürich.
266 | DER DIGITALE AUTOR
schwert werden, dass nicht der Spieler Herr des Geschehens ist. Irgendwann reißt der Computer das Heft des Handelns an sich, ein zweiter Mauspfeil erscheint, lädt einen Virus herunter und installiert ihn. In Berkenhegers virtuos programmierter Arbeit, die tatsächlich ›durchgespielt‹ werden kann, vermischt sich die fiktionale Handlung mit einer Metahandlung, die die Frustrationen des Mediums reflektiert. Der Spieler wird durch plötzlich auftauchende Warnfenster immer wieder direkt angesprochen. Schließlich muss er selbst den Virus/Hai mit einer Harpune erlegen, um in der Geschichte bzw. dem Spiel voranzukommen. Dadurch wird aber die Distanzierung zum Spielgeschehen immer wieder gebrochen, die Frustrationen des Spiels verweisen auf die Frustrationen des alltäglichen Computergebrauchs. Nicht nur auf textlicher Ebene setzt die Autorin auf theatralische Effekte. Auch das Benehmen bzw. Nicht-Benehmen des Browser-Inventariums ist dazu geeignet, den Puls des Lesers hochzutreiben. Wenn er tatenlos zusehen muss, wie der eigene Rechner sich vom Willen seines Besitzers abkoppelt, ist seine Ohnmacht nahezu körperlich greifbar. Der Rezipient hat selbst kaum Gelegenheit dazu, wirklich interaktiv in die Geschichte einzugreifen. Dies bricht aber mit der Vorstellung vom ›freien‹ Leser im Hypertext und stellt die ironische Wendung des Inszenierungsprinzips in Berkenhegers Projekten dar. Damit wird deutlich, dass Berkenheger in ihrer Arbeit ein sehr starkes Autorkonzept vertritt. Sie übt die absolute Werkkontrolle aus, der Rezipient ist der Autorin und dem Projekt scheinbar regelrecht ›ausgeliefert‹.
8.2 Kollaborative Autorschaft Netzliteratur ermöglicht aber auch kollaboratives, gemeinschaftliches Schreiben. Die Funktion der Autorschaft wird dabei nicht mehr nur von einem einzigen Autor übernommen. Kollaborative Schreibprojekte verwenden das Internet nicht allein zur Publikation und Distribution, sondern nutzen vor allem dessen Eigenschaft als Kommunikations- und Interaktionsmedium. Kennzeichnend für diese Art von Literatur ist, dass sie konsequent die traditionelle Beziehung von Autor und Leser umzukehren, zu verwischen und am Ende sogar aufzulösen scheint. Jeder Leser ist dazu eingeladen und angehalten, selbst am Schreibprozess teilzunehmen; die Organisatoren der Schreibprojekte verstehen sich dagegen eher als Techniker und Moderatoren im Hintergrund. Das Werk selbst entsteht durch die Zusammenarbeit ganz verschiedener Schreiber, weswegen häufig die Bedeutung von kollaborativen Schreibprojekten als besonders hoch eingeschätzt wird. Verschiedene Netztheoretiker halten sie sogar für die spezifisch neue Literaturform des Internets, die die traditionelle Rollenverteilung von Werk, Autor und Leser aufzubrechen imstande ist (vgl. Böhler/Suter 2000; Wirth 2001; Simanowski 2004b). Für den Hypertext-Theoretiker George P. Landow gilt sogar, dass kollaborative Textproduktion schon von der Textsorte Hypertext selbst befördert wird. Seiner Ansicht nach ist jede Textproduktion im Netz, sobald sie verlinkt wird, notwendigerweise immer schon kollaborativ: »The important point here is that hypermedia linking automatically produces collaboration« (Landow 2006: 143). Damit wäre kollaboratives Schreiben aber dem Netz inhärent. Landow setzt den Begriff der kollaborativen Produktion hier also sehr früh an, scheint dabei jedoch völlig einen grundlegenden, enormen Unterschied zur echten Kollaboration zu übersehen. Letztere erwächst aus plan-
DER AUTOR IN DER NETZLITERATUR | 267
voller und absichtsvoller Zusammenarbeit, die konsequent in einen gemeinschaftlichen Text mündet (vgl. dazu Livingston 2005: 78-84; vgl. auch weiter unten in diesem Abschnitt). Sie ist von eher zufälligen Verlinkungen von Texten, die mehr Verweisen in klassisch akademischen Texten gleichen, zu unterscheiden. Es lassen sich vier verschiedene Stufen kollaborativen Schreibens feststellen, abhängig davon, wie stark die Mitschreiber tatsächlich an der Konzeption des Textes mitarbeiten können: Abbildung 14: Typologie verschiedener Stufen von kollaborativer Autorschaft Kollaborative Autorschaft • 1. Stufe: Keine echte Kollaboration. Der Leser wird auf grundlegende Weise zum Mit-Schöpfer des Textes, indem er durch seine Lektüre mit seinen eigenen kognitiven Voraussetzungen Sinn stiftet.6 • 2. Stufe: Aneinander orientierte Kollaboration. Dies stellt die übliche Art und Weise dar, wie im Netz geschrieben wird. Neue Texte werden mit vorhandenen verlinkt und damit die bereits existierenden ergänzt. • 3. Stufe: Kollaboration mit ungleichem Kräfteverhältnis. Bei Mitschreibprojekten wird vom Moderator oder Initiator eine Grundkonzeption des zu schreibenden Werkes vorgegeben. Damit sind Inhalt des Textproduktes, ästhetischer Gehalt (Konzept) sowie Art und Weise des Zustandekommens (Schreibregeln) bereits festgelegt, bevor Mitschreiber anfangen können, an dem Projekt mitzuarbeiten. • 4. Stufe: Co-Autorschaft/echte gemeinschaftliche Autorschaft. ›Echte‹ Co-Autorschaft ist dadurch gekennzeichnet, dass alle Mitschreiber als gleichberechtigte Autoren bereits die Grundkonzeption der gemeinschaftlichen künstlerischen Äußerung festlegen. Auch die Erfüllung des Projektes geschieht völlig gleichberechtigt. In der vorliegenden Untersuchung wird der grundlegende Link-Charakter des Netzes (2. Stufe) nicht als kollaborative Produktion bezeichnet und damit Landow in seiner Begriffsverwendung nicht gefolgt. Stattdessen wird der Begriff des kollaborativen Schreibens erst für Produktionen verwendet, bei denen die Mitschreiber tatsächlich aufeinander bezogene Pläne entwickeln und verwirklichen (ab der 3. Stufe). Gemeinschaftliche Autorschaft setzt nach dieser Auffassung notwendigerweise die Existenz eines gemeinsam geteilten Schreibkonzeptes für die Textproduktion voraus. Auch die Einschätzung von der ›revolutionären‹, kollaborativen Literaturform kann derzeit nur mit Abstrichen gelten, angesichts der momentan noch geringen Zahl von kollaborativen Projekten und den avancierten literarischen Experimenten der Codeworks. So unterschiedlich kollaborative Projekte sind, lassen sich doch einige gemeinsame Grundcharakteristika feststellen: 6
Diese Modellierung resultiert zwingend aus dem Modell der literarischen Kommunikation, wie es der vorliegenden Studie zugrunde liegt. Sie knüpft an die »Empirische Theorie der Literatur«, vgl. Hauptmeier/Schmidt 1985; Schmidt 1991 [1980], sowie weiterführend an den »Radikalen Konstruktivismus« an, vgl. dazu überblickend Schmidt 2000b. Dieser Sinnstiftungsprozess ist durchaus nicht trivial, sondern sehr komplex strukturiert.
268 | DER DIGITALE AUTOR
• • • •
•
Sie erlauben prinzipiell jedem Leser, als Schreiber am Projekt weiterzuschreiben. Sie sind meist unabgeschlossen und ermöglichen dadurch ständige Erweiterung oder Veränderung. Neue Texte können meist an jeder beliebigen Stelle des Projektes eingefügt werden. Sie setzen auf Internet-Diensten auf, die normalerweise andere, nämlich rein kommunikative, Funktionen übernehmen. Dabei wird nahezu jeder verfügbare Internet-Dienst auch verwendet, entsprechend dem abgewandelten Rheingoldschen Diktum, dass jeder Kommunikationsdienst sofort auch zur literarischen Textproduktion benutzt wird (vgl. Rheingold 1994).7 Zumeist sind diese Dienste stark textbasiert. Die Beschränkung auf Text erlaubt es auch Internet-Nutzern mit geringer medialer Kompetenz, an den Projekten mitzuschreiben.
Die Bedeutung und Beliebtheit von kollaborativen Schreibprojekten wird anhand der Breite von Internet-Diensten deutlich, die dazu benutzt werden. Sie können folgendermaßen differenziert werden (mit zum Teil historischen Beispielen): • Schreibprojekte im World Wide Web (Beispiel: »Beim Bäcker«8), • Texte, die in (literarischen) Newsgroups gepostet, kommentiert und weitergeschrieben werden (Beispiel: »«), • in (literarischen) Mailinglisten veranstaltete ›Wandertexte‹, an denen via E-Mail gearbeitet wird (zum Beispiel »Textra« in der Mailingliste »Netzliteratur«), 9 ) und • Literaturprojekte mittels Weblogs (Beispiel: »Worldwatchers« 10 • literarische Wikis (Beispiel: »amillionpenguins« ). • Eingeschränkt können dazu auch ›Multi11 User Dungeons‹ (MUDs) gezählt werden (Beispiel: »kahunaMUD« ). Diese Zuordnung ist allerdings nicht unproblematisch.12 7 8 9
Vgl. dazu die Diskussion am Ende dieses Abschnittes. Vgl. ausführlicher Simanowski 2000c; Simanowski 2000a. Vgl. ausführlicher die Erläuterungen zum Projekt im Pressespiegel und in den Projektinformationen. 10 »amillionpenguins« wurde vom Verlag »penguin Books« in Zusammenarbeit mit der Montfort Universität Leicester, Großbritannien durchgeführt. Das Projekt war also nicht der deutschsprachigen Netzliteratur zuzurechnen. Allerdings existierten Anfang 2009 noch keine erwähnenswerten deutschsprachigen, WikiLiteraturprojekte, die über Spielereien hinausgingen, vgl. etwa: »CarpeWiki«. 11 Zu »kahunaMUD« vgl. ausführlicher Bertram 2001; Suter 2002. 12 An anderer Stelle hat der Autor die MUDs als Veranstaltungsort kollaborativer Netzliteratur systematisch ausgeblendet, da sie als Spielumgebungen konzipiert sind und zumeist nicht als literarische Projekte veranstaltet werden. Zudem fehlen wichtige Charakteristika kollaborativer Literatur, z. B. die Absicht der tatsächlichen Produktion eines Textes, vgl. Hartling 2004: 15. Diese Position hat sich etwas relativiert. Einerseits stellen MUDs weiterhin vor allem Rollenspiele dar, in denen kaum das Ziel verfolgt wird, literarische Texte zu produzieren. Andererseits werden MUDs in der Forschung oft unter dem Aspekt ihrer »Literarizität« diskutiert, vgl. etwa Ortmann 2001: 61-64. Mit dem »kahunaMUD« wurde zudem ein MUD als Einreichung zu einem Literaturwettbewerb akzeptiert (bei »Literatur.digital 2001«). Pragmatisch kann konstatiert werden, dass sie aber eben aus Text bestehen oder vielmehr allein durch Text entstehen. In-
DER AUTOR IN DER NETZLITERATUR | 269
Auch bei kollaborativen Texten ist bereits eine starke Ausdifferenzierung in Subgenres festzustellen, je nach Nutzung kollaborativer Stilmittel für die Textproduktion. Mit Christiane Heibach kann kollektive Produktion als ›Partizipation‹, ›Kollaboration‹ oder ›Dialog‹ charakterisiert werden. ›Partizipative Projekte‹ werden von einem Moderator eröffnet und redaktionell kontrolliert. Sie sind prinzipiell offen und erlauben die Mitarbeit aller Nutzer; diese verfassen Einzelbeiträge, bei denen die Autorzuschreibungen erhalten bleiben. Prominentes Beispiel ist das weiter unten diskutierte Projekt »Beim Bäcker«. Heibach stellt bei diesen gemeinschaftlichen Formen besonders den Bezug auf die literarische Tradition als »[o]ffene Beteiligung nach den Regeln der Buchkultur« heraus. Die Beiträge würden weiterhin in traditioneller Art und Weise als individuelle Schreibleistung produziert. Daher ließen sich »für die partizipativen Projekte keine signifikanten neuen Programme feststellen« (Heibach 2003: 172, Hervorhebung im Original). ›Kollaborative Projekte‹ verzichten im Gegensatz zu den partizipativen explizit auf Zuschreibungen von Autorschaft sowie auf redaktionelle und ästhetische Kontrolle. Damit, so Christiane Heibach, würden jegliche Qualitätskriterien völlig zugunsten der Offenheit und Dynamik der Projekte aufgegeben. Grundlegender literarischer Modus sei also das »Chaos als Herausforderung« (ebd.). Damit ginge allerdings ein strukturelles Grundproblem kollaborativer Arbeiten einher: »Absolute Freiheit und Strukturlosigkeit führen dazu, dass die Lesbarkeit verloren geht; redaktionelle Eingriffe jedoch stehen dem Prinzip der Offenheit der Gestaltungsmöglichkeiten für alle Teilnehmer entgegen« (ebd.: 174-175, Hervorhebung im Original). Beim »AssoziationsBlaster«13 (1999 ff.) können Nutzer etwa Texte zu anfangs vorgegebenen Stichwörtern verfassen, mit zunehmender Aktivität im System steigen die Eingriffsmöglichkeiten und die Chancen, eigene Stichwörter auszuwählen. Aus diesen Texten werden Hypertexte generiert, bei denen vorhandene Stichwörter als Links erscheinen, die schließlich zu den jeweiligen Beiträgen führen. An die Stelle redaktioneller Regeln treten einige ästhetische Empfehlungen, die gleichzeitig aber auch ironisch gebrochen werden: »Wenn Dir diese Ratschläge auf den Keks gehen dann ignoriere sie einfach.«14 ›Dialogische Projekte‹ sind eher selten, was Heibach auf die Tradition der Buchkultur zurückführt, in der eine direkte Kommunikation zwischen Autor und Leser nicht (mehr) vorgesehen war und ist. Somit lassen sich auch kaum (deutsche) Arbeiten finden, eines der wenigen bekannt gewordenen ist das sehr ansprechende Projekt »Heaven & Hell« (1997). Das dialogische Prinzip, so Heibach, ließe das »Gruppengespräch« zum »ästhetische[n] Phänomen« werden. Diese Projekte beruhten auf zeitgleicher Kommunikation zwischen den Teilnehmern, wobei die Kommunikation entweder in die Texte integriert würde oder sogar das künstlerische, konzeptuelle Zentrum der Projekte darstelle. Dabei stünden dialogische Projekte vor der schwierigen Aufgabe, »rückkopplungsintensive Wissens- und auch Literaturproduktion für soweit können sie eingeschränkt als Literatur diskutiert werden, vor allem wenn MUDs poetische Qualität besitzen. Das gilt aber selbstverständlich nur für Projekte, die tatsächlich eine Konzeption als literarisches MUD erkennen lassen. Keinesfalls soll einer Beliebigkeit das Wort geredet werden, die am Ende die gesamte Welt als Literatur begreifen muss. 13 Vgl. dazu Simanowski 1999; Freude et al. 2000; Dreher 2002-2006. 14 Eine der möglichen Ratschläge, die vom System angezeigt werden, sobald ein Benutzer einen neuen Beitrag eingibt.
270 | DER DIGITALE AUTOR
andere, nicht am Kommunikationsprozess Beteiligte lesbar und transparent zu machen« (Heibach 2003: 189, Hervorhebung im Original). Was Christiane Heibach hier in ihrer ausführlichen Diskussion und Beschreibung von Mitschreibprojekten vorgeführt hat, hebt auf die medialen Besonderheiten und Kommunikationsmuster der Genres ab. Als Erklärungsmodell diskutiert sie immer wieder die Beschränkungen der literarischen Tradition aufgrund ihrer Verwurzelung in der Buchkultur. Mit Hinblick auf andere vorstellbare dispositivitäre Anordnungen des Mediums Buch stellt dies eine interessante und überzeugende Argumentation dar. Ihre Klassifikation der »Literatur im elektronischen Raum« als einem Genre, das seine Geschichte noch vor sich hat (vgl. Simanowski 2002b, Klappentext), bietet zulässige Anknüpfungspunkte für zukünftige Analysen. Mit dem bereits diskutierten Diktum vom »Tod des Autors« als der »Geburt des Lesers« (vgl. dazu Wirth 1999: 30; Wirth 2001: 56) knüpfen die Konzeptionen kollaborativer Schreibprojekte oftmals an bekannte, aber ältere literaturtheoretische Entwürfe an. Sie gehen von den frühen großen Hoffnungen von Hypertext-Pionieren wie Jay David Bolter oder dem bereits erwähnten George P. Landow aus, dass die digitalen Neuen Medien eine völlig neue, kollaborative literarische Textproduktion erlauben würden: »The particular importance of networked textuality […] appears when technology transforms readers into reader-authors or ›wreaders,‹ because any contribution, any change in the web created by one reader, quickly becomes available to other readers.« (Landow 1995: 14) Der Autor würde in den Neuen Medien nun endlich völlig verschwinden, das Internet stünde damit quasi für die Einlösung älterer utopischer Versprechen aus dem Poststrukturalismus: »Even today, when theoretical interest has largely gone elsewhere, it remains striking how well the poststructuralists did seem to be anticipating electronic writing. […] Although the work of the poststructuralists is no longer the dominant critical discourse, it is worthwhile to review the relationship between poststructuralism and hypertext. For it is not only that poststructuralism clarifies the cultural significance of hypertext; the reverse is also true.« (Bolter 2001: 171)
Landows Konzept des ›Wreaders‹ ist nicht nur in der internationalen, sondern auch in der deutschen Debatte zu einem prominenten Modell geworden (vgl. Rau 2000; Simanowski 2000b; Gendolla/Schäfer 2001; Simanowski 2004b). Damit bezeichnet er, wie erwähnt, den aufgewerteten Leser, der einen Großteil der auktorialen Verfügungsgewalt übernommen hat und Texte sowohl rezipiert als auch ›lesend‹ produziert. Der ›Wreader‹ sei damit aktiv an der Entstehung des Werkes beteiligt. Indem er mit Tastatur und Maus die Hyperlinks und damit die jeweiligen Lektürepfade aktiviert, würde der vorhandene und abrufbare Text erst hervorgebracht.15 Wenn er eigene Texte schreibt und mit den bereits vorhandenen verlinkt, ruft er sogar Änderungen an den Ursprungstexten hervor; er wird selbst produktiv tätig. Wie bereits diskutiert, scheint es aber fraglich, ob dieses ungeplante, aneinander nur orientierte Schreiben wirklich (zulässig) als gemeinschaftliche Produktion angesehen werden kann. Folglich ist in der jüngeren wissen15 Dieser Modus der Beteiligung entspricht der 1. Stufe des kollaborativen Schreibens: Der Leser wird zum Mit-Schöpfer des Textes, indem er durch seine Lektüre und mit seinen eigenen kognitiven Voraussetzungen Sinn stiftet.
DER AUTOR IN DER NETZLITERATUR | 271
schaftlichen Debatte die These vom ›Wreader‹ konsequent als zu einfache Übertragung poststrukturalistischer Konzepte auf Hypertext kritisiert worden. So traf Johannes Auer auf breiteste Zustimmung, als er den ›Wreader‹ als reine »Ideologie« entlarvte (vgl. Auer 2000). Eine wesentlich differenziertere Einschätzung von der Veränderung des Kräfteverhältnisses legt Uwe Wirth vor. An Barthes’ und Foucault anknüpfend formuliert er die These, dass die Verabschiedung des Autors gerade nicht mit der »Geburt des Lesers« einhergeht, sondern stattdessen den Editor hervorbrächte: »Die einstmals auktoriale Funktion der Einheitsstiftung wandert damit vom Ursprungspunkt, dem Akt der Texterzeugung, zum Zielpunkt, also dem Akt des Lesens. Der Totengräber des Auteur [Autor, F. H.] ist jedoch nicht der Lecteur [Leser, F. H.], sondern, der Scripteur [Schreiber, F. H.]. Der ›moderne Scriptor‹ wird nicht mehr, wie der Autor, durch seine Individualität bestimmt, sondern er ist eine überpersönliche ›Instanz des Schreibens‹, die den Text im Vollzug eines ›performativen Aktes‹ hervorbringt. Der Akt des Schreibens ist nicht mehr ein ›origineller Akt‹ des Zeugens, sondern ein zitierendes Zusammenschreiben von Fragmenten.« (Wirth 2001: 56, Hervorhebungen im Original)
Die radikale Gegenposition zum poststrukturalistischen Diktum stammt dagegen von Roberto Simanowski, der etwas reißerisch formuliert: »Tod des Autors? Tod des Lesers!« (Simanowski 2004b). Damit verweist er auf die Besonderheit kollaborativen Schreibens, das nicht das rezipierbare Endprodukt als wichtig erachtet, sondern vor allem den Prozess des Entstehens und damit des Mitschreibens hervorhebt. Die Annahme vom verschwindenden Autor als Geburtshelfer des Lesers ist also in dieser vereinfachenden Formulierung von der Forschung eher zurückgewiesen worden. Dies konnte sowohl anhand von theoretischen Überlegungen, als auch aufgrund konkreter Analysen nachgewiesen werden (vgl. vor allem Wirth 2001; Simanowski 2004b). An die Stelle der vereinfachenden Formel vom ›Verabschieden des Autors‹ treten zwei gegenläufige Befunde. Die bereits erwähnte erste Beobachtung ist, dass der Autor im Netzdispositiv förmlich wiedergeboren wird bzw. in diesem (weiter) fortlebt. Dies geschieht laut Simone Winko mit einem teilweise sogar »extremer ausgeprägte[n] Personenkult als unter traditionellen Bedingungen linearer Texte« (Winko 1999b: 512). Eher traditionelle literarische Autoren inszenieren sich im Netz auf ihren persönlichen Webseiten. Ein gutes Beispiel für PrintAutoren ist die Webseite des bereits erwähnten Schriftstellers Alban Nikolai Herbst (vgl. Herbst 2004 ff.), der das Internet konsequent als zusätzlichen, breiten Publikationskanal benutzt.16 Darüber hinaus dient sein Weblog insbesondere der Kommunikation mit seinen Lesern, denen er u. a. auch seine prekäre ökonomische Situation schildert und von denen er teilweise gesponsert wird. Als Netzautorin inszeniert sich die oben besprochene Susanne Berkenheger auf etwas exzentrische Art und Weise. Sie nutzt zur Präsentation die ästhetische Formsprache ihrer Arbeiten. Besonders interessant in der Verwendung von Skripttechnologien und ironisierter Sprechweise ist dabei ihre 16 Dies stellt aber keineswegs eine singuläre Vermarktungsstrategie dar. Auch die Literatur-Nobelpreisträgerin Elfriede Jelinek pflegt eine umfangreiche Webseite, vgl. Jelinek 1996 ff., auf der sie u. a. ihre jüngeren Roman »Neid« exklusiv als Internet-Roman veröffentlicht hat, vgl. dazu Gropp 2007.
272 | DER DIGITALE AUTOR
ältere literarische Homepage »a c h t u n g ! a r c h ä o l o g i s c h e s g eb i e t !« (vgl. Berkenheger 1997-2001). Im Internet fallen die üblichen Selektionsmechanismen des Buchmarktes weg. Daher ist sowohl für klassische als auch für Netz-Autoren eine nahezu schrankenfreie Selbstdarstellung und -inszenierung als Autor möglich. Dies steht selbstredend auch AmateurAutoren frei, deren Arbeiten von den anderen Aktanten im Literatursystem ansonsten kaum Anerkennung finden und die nicht als poetisch wichtig eingeschätzt werden.17 Ein sehr überzeugender Beleg für die These von der Wiedergeburt des Autors ist das Mitschreibprojekt »NULL«18 aus dem Jahr 2000, moderiert und herausgegeben von Thomas Hettche und Jana Hensel: Abbildung 15: Hettche/Hense (Hrsg.): »NULL« (2000)
Quelle: Screenshot des Eintrags von Helmut Krausser am 01.01.1999, vom Autor
17 Das Internet bietet also potentiellen Inszenierungsraum für Autoren, die an den klassischen Hürden des Literatursystems gescheitert sind oder scheitern würden. Dies bedeutet allerdings nicht, dass die Ästhetik-Konvention online außer Kraft gesetzt ist. Auch digitale Texte werden für die Aktanten erst zu literarischen Texten, wenn sie »als poetisch wichtig festgestellt[e] und bewertet[e] Qualitäten« (Hauptmeier/Schmidt 1985: 17) aufweisen. Dieser Fakt ändert zwar nichts an der möglichen Selbstinszenierung als Autor im Netz, auch wenn diese Position von anderen Aktanten nicht anerkannt wird. Allerdings ist damit die Frage aufgeworfen, ob die Bezeichnung »Autor« wirklich zulässig für solchermaßen nicht anerkannte Textproduzenten ist. 18 Zu »NULL« vgl. ausführlicher Wirth 1999: 54-56 und Simanowski 2000d. Das Projekt ist nicht mehr im Internet zugänglich, aufgerufen werden kann nur eine archivierte Version. Es wurde als traditionelles Buch im Jahr 2000 publiziert (Hettche/Hensel 2000). Siehe auch die Diskussion weiter unten.
DER AUTOR IN DER NETZLITERATUR | 273
Vom Feuilleton wurde es ironischerweise geradezu als ein Meilenstein gemeinschaftlichen Schreibens gefeiert. Im Netzdiskurs und von den Netzliteraten selbst ist es dagegen eher belächelt worden: »[H]at eigentlich null mit Netzliteratur zu tun, ist aber bekannt. Ein Missverständnis...« (Auer 2002 ff.).19 Konzipiert als ein kollektives Projekt etablierter (›namhafter‹) deutschsprachiger Autoren, wurden deren Mitarbeiten konsequent stets unter den jeweiligen Namen veröffentlicht. Die Beiträge selbst sind kaum netzaffin, es handelt sich um klassische (Print-)Texte, die über ein Menü untereinander verlinkt sind. Es lässt sich weitergehend sogar vermuten, dass die eindeutige Zuordnung der Beiträge und damit eine recht traditionelle ›Autorisierung‹ der Texte eine Bedingung der Mitarbeit war. Auffallend ist, dass nicht nur alle Texte eindeutig mit den jeweiligen Autoren markiert sind, auch die verschiedenen Navigationsmöglichkeiten des Projektes laufen allein über die Autorennamen. Dann überrascht es nicht weiter, dass das Projekt von Anfang an auf eine normale Buchveröffentlichung im renommierten DuMont-Verlag hin konzipiert war; auch dies war sicher eine Teilnahmevoraussetzung für die traditionellen Autoren. Begründet werden kann diese ›Namensfixiertheit‹ gerade der Print-Autoren mit den Gratifikationssystemen des Literaturmarktes. Diese zielen auf das deutliche Hervortreten eines Autors ab und goutieren explizit die Publikation gedruckter Arbeiten. Der Autorname weist hier durchaus den Charakter einer ›Marke‹ auf, ganz im Sinne einer ökonomischen Konzeption von Marketing. Nicht zu unterschätzen ist auch die starke Beziehung zwischen literarischem Kanon und Autorpräsenz. Die Kanonisierung von literarischen Werken wird, wie bereits erwähnt, vor allem durch eine deutlich hervortretende Autorschaft möglich (vgl. Hartling 2004 und Hartling 2007a). Der erwähnte überstarke ›Personenkult‹ wird umgekehrt auch auf Autoren bezogen, die sich selbst explizit nicht als die eigentlichen Künstler verstehen und sich auch nicht so inszenieren. So werden Initiatoren und Moderatoren von Mitschreibprojekten regelmäßig ebenso als Autoren herausgestellt, wie Programmierer von textgenerierenden Algorithmen. Dies war auch bei den Herausgebern von »NULL« der Fall, ein noch treffenderes Beispiel für diesen Befund ist aber das Projekt »Beim Bäcker« von 1996 bis 2000. Zunächst muss selbstverständlich etwas genauer erläutert werden, warum ein solch ›altes‹ Projekt als Demonstration und Beispiel dienen kann; bei Drucklegung dieser Studie liegt der Beginn des Werkes immerhin über zehn Jahre zurück. Sind die dabei beobachteten Phänomene nicht völlig veraltet? Vier Antworten sind darauf zu geben. Zum ersten hängt diese Wahl mit der bereits thematisierten Seltenheit deutschsprachiger kollaborativer Projekte zusammen, insbesondere wenn sie eine gewisse Qualität anstreben. Ganz offensichtlich gab es Ende der 1990er Jahre ein gewisses Hoch an künstlerischen Mitschreibprojekten (»23:40 Das Gedächtnis«, ab 1997; »Generationen-Projekt«, 1998; »Assoziations-Blaster«, 1999), das in der jüngeren Vergangenheit den eher genialistischen Projekten Platz gemacht hat. Zweitens dominieren in der Gegenwart andere Formen von Mitschreibprojekten: Entweder sind sie nicht literarisch, sondern eher journalistisch oder enzyklopädisch (»ni-clas«, Entwicklung seit 1999) angelegt. Oder die Kollaboration beschränkt sich auf einen kleinen, ausgewählten Kreis, womit aber das wich19 Diese kritische Einschätzung wird vom theoretischen Diskurs zur Netzliteratur allgemein geteilt, vgl. Porombka 2000: 63-64; Ortmann 2001: 33.
274 | DER DIGITALE AUTOR
tigste Kriterien von Mitschreibprojekten nicht erfüllt ist, prinzipiell offen für alle Mitschreibenden zu sein (»The Famous Sound of Absolute Wreaders«, 2003). Zudem ist – drittens – kaum ein Mitschreibprojekt als Netzliteraturprojekt so interessant wie »Beim Bäcker«, bezogen auf dessen kommunikative Struktur, ästhetische Qualität und dokumentierte Geschichte. Es ist kein Wunder, dass es in der einschlägigen Diskussion oft und ausführlich besprochen wurde.20 Das Projekt war schließlich – viertens – seiner Zeit ganz offensichtlich voraus – eine ganz ähnliche Struktur findet sich konsequent bei allerhand Nachahmern. Abbildung 16: Klinger (Hrsg.): »Beim Bäcker« (1996-2000)
Quelle: Screenshot des Eintrags von Carola Heine am 18.06.1996, vom Autor »Beim Bäcker« gilt also zu Recht gemeinhin als ein ›Klassiker‹ oder »Veteran« (Simanowski 2000c) der kollaborativen Mitschreibprojekte. Es war eine erotische, lineare Erzählung, die thematisch lose an einen Bäckerladen angebunden war und von 1996 bis 2000 neue Beiträge entgegennahm. Sie wurde von verschiedenen Mitschreibern weitergesponnen, indem diese immer an den chronologisch jüngsten Beitrag einen eigenen anhingen. Der Moderatorin Claudia Klinger wurde bereits während der Projektlaufzeit immer wieder die Autorschaft zugeschrieben, was sie selbst stets ablehnte. Konsequenterweise waren sämtliche Beiträge der Mitschreiber (und damit der eigentlichen Auto20 Zwei der renommiertesten Netzliteratur-Forscher haben das Projekt umfangreich analysiert, wobei diese Diskussionen im traditionellen Buchmedium und darüber hinaus im renommierten Suhrkamp-Verlag erschienen sind, vgl. Simanowski 2002b: 27-34 sowie Heibach 2003: 168-171. Diese beiden Analysen belegen tatsächlich, dass »Beim Bäcker« bereits ein kanonisierter ›Klassiker‹ der deutschen Netzliteratur ist bzw. einen hohen Stellenwert im netzliterarischen Kanon innehat.
DER AUTOR IN DER NETZLITERATUR | 275
ren) mit Namen gekennzeichnet. Die Hervorhebung des individuellen ›Copyrights‹ markiert hier wieder den Verweis auf einen traditionellen, starken Autorbegriff. Trotz dieser vielfachen Herausstellung des kollektiven Charakters von »Beim Bäcker«, das nicht einem Autor allein zugerechnet werden konnte, blieb Klinger immer im Fokus der Rezensenten, als Initiatorin mit zugeschriebener Autorschaft. Spätestens seit seinem Ende war das Projekt als Paradebeispiel für Mitschreibprojekte kanonisiert und Klinger schließlich dennoch als Quasi-Autorin des Werkes im Literaturkanon verankert. Die Spannungen zwischen konzeptionell als autorlosem Text angelegten Mitschreibprojekt einerseits sowie andererseits literarischen Techniken und Traditionen, die einen Autorbegriff immer mitführen, verdeutlichte das ›Ende‹ des Projektes. Während im ersten Jahr (1996) sehr rege geschrieben wurde und dabei etwas mehr als die Hälfte der gesamten Beiträge entstanden, nahm die Häufigkeit und die Qualität der Texte in den Folgejahren deutlich ab. »[D]ie lockere Gemeinschaft«, so Claudia Klinger in einem Interview, war »lange schon auseinandergedriftet […] und die noch folgenden Beiträge [hatten, F. H.] nicht mehr viel mit dem ganzen zu tun« (Simanowski 2000c). Der letzte Beitrag datierte vom Dezember 1998, danach lag das Projekt brach. Wann aber ist ein Mitschreibprojekt abgeschlossen, wer kann das Ende ausrufen? Für Claudia Klinger war klar, dass es eben nicht ihre Aufgabe war, trotz der paradoxen Situation ihrer oktroyierten Autorschaft: »Kein Autor kann sich ›anmaßen‹, diesen Text ›zu beenden‹ […]. Also ich, als Moderatorin, weil ich den Text ALS MITSCHREIBPROJEKT arrangiert habe? Zwar schrieb ich weder den ersten noch irgend einen Teil des ›Bäcker‹, doch nach dem zweiten Part gab ich der Sache eine eigene Website – also war ich für das Anlaufen verantwortlich und muß es auch beenden. Dachte ich mir immer, konnte aber nicht, – NICHT ALS AUTORIN. Weil es mich tatsächlich inhaltlich nie gereizt hat, mich auf einen der Texte oder gar mehrere einzulassen. […] Einfach ›The End‹ darunterschreiben, schien mir auch nicht angemessen.« (Klinger 2000)
Mit diesem Statement hatte Claudia Klinger auf eine im Februar 2000 veröffentlichte Rezension ihres Projektes durch Roberto Simanowski reagiert, die später in seinem Buch »Interfictions« verwendet wurde (vgl. Simanowski 2000a; Simanowski 2002b). Simanowski hatte zwar die Beendigung eines solchen Projektes als unmöglich gekennzeichnet, gleichzeitig aber ein solches Ende auch drastisch eingefordert: »Das Ende öffentlich auszurufen ist die Aufgabe des letzten Autors. Da der Text keinem gehört, kann keiner wirklich diese Aufgabe zu [sic!] übernehmen. So vergetiert [sic!] der Text vor sich hin, ohne, wie Wein oder Käse, mit zunehmendem Alter besser zu werden.« (Simanowski 2000a) Zwei Wochen später rief Klinger mit oberem Posting das Ende des Projektes aus, nahm sich der poetologisch für sie unmöglichen, aber de facto existierenden Autor-Rolle an. Dass die Autorzuschreibung aber auch als legitim angesehen werden konnte, war bereits durch die faktischen Grenzen deutlich geworden, die Klinger als Moderatorin den Mitschreibern gesetzt hatte.
276 | DER DIGITALE AUTOR
Obwohl inhaltlich scheinbar nur lockere Vorgaben gemacht wurden21, hatte sie mit der Wahl des technischen Procederes einen sehr engen Rahmen gesteckt. So konnten neue Beiträge nur an die bereits bestehenden angehängt werden, Bearbeitungen bestehender Einträge oder alternative Handlungsstränge waren unmöglich. Eine eigenständige Veröffentlichung war ebenfalls nicht möglich, neue Texte mussten per E-Mail an Klinger geschickt werden, die sie dann auf der Webseite veröffentlichte. Zudem entschied allein die Moderatorin mit ihrem ästhetischen und inhaltlichen ›Raster‹, welche Beiträge zugelassen oder abgelehnt wurden. Schließlich war es eben auch Claudia Klinger, die das Projekt für beendet erklärte, was durch ihren alleinigen Zugriff auf den Projekt-Webserver möglich war. In einem Interview, das Roberto Simanowski mit ihr im Mai 2000 – wiederum als de facto Autorin – geführt hatte, brachte sie ihr poetologisches Verständnis von Mitschreibprojekten noch einmal auf den Punkt: »Doch als Moderatorin gehört mir der Text nicht – und ein einzelner Autor kann sich erst recht nicht anmassen [sic!], ein Ende zu setzen. Gerade das fordert u.U. wieder jemand anderen heraus, aus diesem Ende nur ein Zwischenspiel hin zu einer neuen Ebene zu machen.« (Simanowski 2000c) Diese poetologisch konstatierte Autorlosigkeit wurde aber – wie gezeigt – von der tatsächlichen Position Klingers konterkariert. Aus ihrer technischen Verfügungsgewalt über den Webserver und die Programmierung des Textes resultierte eine deutlich erkennbare Autorität, die Macht, den Text für abgeschlossen zu erklären und ihn damit dem Zugriff anderer zu entziehen. Dieser Modus der Beendigung sowie die durch die Moderatorin vorher gesetzten Grenzen sind allerdings sehr typisch und allgemeingültig für das gesamte Genre der Mitschreibprojekte. Wenn Initiatoren und Moderatoren von solchen Projekten regelmäßig als die Autoren dieser Werke herausgestellt werden, liegt diese Zuschreibung nicht völlig daneben. Auch wenn ein Teil der Autorfunktionen auf die Mitschreiber ausgelagert ist, werden die wesentlichen konzeptionellen und abschließenden Funktionen stets von den Moderatoren übernommen. Mit Paisley Livingston kann argumentiert werden, dass echte kollaborative Produktion notwendigerweise eine Absicht zur Verwirklichung kollektiver Konzeptionen voraussetzt.22 Pläne müssen gemeinsam festgelegt, Texte müssen zusammen verfasst oder zur Publikation ausgewählt werden. Dies führt Livingston an einer ganzen Reihe von Fallbeispielen exemplarisch vor, in der er seine Definition einer ›joint authorship‹ testet (vgl. Livingston 2005: 82-89). Diese Exempel entstammen vor allem der traditionellen Literatur und dem Kino, seine Erkenntnisse können aber auf digitale Literatur übertragen werden. Auch bei kollaborativen netzliterarischen Projekten gibt der Moderator üblicherweise den Plan mehr oder weniger komplett vor. Die anderen Mitschreiber können dagegen nur eingeschränkt ihre eigenen Pläne verwirklichen, zumeist indem sie die Ursprungskonzeption umgehen oder brechen. Der Moderator kann zudem das Abschlussprodukt oder die finale Version bestimmen, etwa indem er einen Text für ›beendet‹ erklärt, alle Editiermöglichkeiten stoppt oder ihn sogar aus dem Netz entfernt. Obwohl eine solche 21 Schauplatz der Handlung musste die Bäckerei sein und bleiben, eine erotische Geschichte war gefordert; ausgeschlossen waren pornographische oder sprachlich schlechte Inhalte, vgl. Simanowski 2000c. 22 Vgl. dazu seine Definition einer »joint authorship«, die weiter oben diskutiert wurde (vgl. Kapitel 2.1.3).
DER AUTOR IN DER NETZLITERATUR | 277
Produktion damit noch nicht zum Werk eines Autors allein wird, verwirklicht sie keineswegs echtes kollaboratives Schreiben entsprechend der vierten Stufe in obigem Modell. Tatsächlich muss sie als Werk mehrerer Mitschreiber angesehen werden, das sowohl einige Merkmale kollaborativer Arbeit aufweist, als auch mit dem Moderator Elemente einer sehr starken Autorschaft beinhaltet (dritte Stufe). Die Fähigkeit und Berechtigung des Moderators, einen Text für abgeschlossen zu erklären, ist sogar das wesentliche Prinzip des Autors. Damit wird deutlich, dass sich im Netzdispositiv eine Tendenz aus der klassischen, traditionellen Literatur fortsetzt. Feststellen lässt sich das von Stephanie Waldow konstatierte »Nebeneinander vielfältiger, auch rivalisierender Autorschaftsmodelle« (Waldow 2002: 582), die je nach künstlerischem Programm aktiviert werden. Dabei lassen sich gewisse ›Moden‹ beobachten, also die temporäre Bevorzugung von je stärker individualistischen oder von stärker kollaborativen Modellen. Eine zweite Beobachtung lässt den »Tod des Autors« im Netz als fraglich erscheinen. Betrachtet man das tatsächliche Ausmaß kollaborativer Textproduktion im Internet näher, wird deutlich, dass sie derzeit vor allem in nichtkünstlerischen, insbesondere journalistischen Zusammenhängen stattfindet. Plattformen wie »Wikipedia« und »Slashdot« stehen als sehr prominente Beispiele stellvertretend für eine Vielzahl anderer Wikis oder Weblogs. Gerade die so genannte »Blogosphäre« wird immer wieder als revolutionäre Form der gemeinschaftlichen Textproduktion beschrieben (vgl. dazu Alphonso/ Pahl 2004; Möller 2006). Im Gegensatz dazu sind kollaborative literarische (also künstlerische) Arbeiten nach ihrem Boom Mitte bis Ende der 1990er Jahre selten geworden. Wie Johannes Auer einmal resigniert feststellte, gibt es offenbar mehr literaturkritische und akademische Texte über kollaborative Netzliteratur als Projekte selbst (vgl. Fröde et al. 2004a). Es fällt auf, dass gerade Wikis oder Weblogs als die beliebtesten kollaborativen Schreibtools kaum benutzt werden, um literarische Projekte durchzuführen, schon gar nicht im deutschsprachigen Raum. Dies scheint zum ersten mit frustrierenden Erfahrungen bei der Durchführung von Mitschreibprojekten zusammenzuhängen. Deren ambitionierte künstlerische Erwartungen werden häufig nicht erfüllt, zudem flaut die Beteiligung daran oftmals rasch ab. Belegt werden kann diese Einschätzung anhand von Reflexionen über die Entstehung des Projektes »Beim Bäcker«, bei dem sogar dezidiert nur sehr niedrige Maßstäbe angelegt wurden. Frustrationen entstanden hier dadurch, dass der Text sich irgendwann nur noch mit sich selbst beschäftigte, die Mitschreiber also ständig auf einer Meta-Ebene den Fortgang oder Nicht-Fortgang der Handlung reflektierten (vgl. Simanowski 2002b: 27-34). Mit Hartmut Jonas kann dagegengesetzt werden, dass an kollaborative Projekte gar nicht die gleichen künstlerischen Qualitätskriterien angelegt werden könnten wie an traditionelle Texte. Das kollaborative Schreiben diene weniger der Erschaffung eines Produktes, sondern der Kommunikation der Schreibenden untereinander: »Es scheint so, als ob eine bestimmte ästhetische Qualität nur deshalb angepeilt wird, um Feedback zu erreichen. Das Ästhetische ist Anlass und Gegenstand, Auslöser von Kommunikation; es wird quasi überlagert von diesen Absichten nach relativ unmittelbarer Kommunikation.« (Jonas 2000) Die geringe Anzahl von kollaborativen Projekten resultiert zum zweiten, wie es scheint, aus den bereits diskutierten sozialen, künstlerischen und öko-
278 | DER DIGITALE AUTOR
nomischen Gratifikationssystemen. Diese sind nämlich nach wie vor an den Autorennamen und zudem an das traditionelle Dispositiv Buch gebunden. Kann ein Autor aber keine ausschließliche Anerkennung für seine Arbeit erwarten oder muss er seine Leistungen sogar dem Eingriff anderer gegenüber frei geben, fallen wichtige Motivationen für das literarische Schreiben weg. Im literarischen Feld kommen Mitschreiber und kollektive Werke faktisch nicht vor, weil der Literaturbetrieb dies nur als Experimente zulässt, nicht jedoch als ernstzunehmende Literatur anerkennt. Drittens lässt sich eine Unterscheidung ins Feld führen, die in der Debatte um Autorschaftskonzepte immer wieder diskutiert wird. Danach ist die Bedeutung von Autorschaft in künstlerischen und nicht-künstlerischen Texten grundsätzlich verschieden. Bei nicht-künstlerischen Texten sei es für den Rezipienten eher unwichtig, welche und wie viele Autoren an einem Text gearbeitet haben, weil er den Wert von Informationen aufgrund ganz anderer Maßstäbe einschätze. Dafür stünden etwa kollaborative Wikis wie die Online-Enzyklopädie »Wikipedia«, kollektive journalistische Plattformen wie »indymedia.org« oder kollaborative Weblogs wie »Slashdot«. Für die beteiligten Autoren sei eine Identifikation mit dem Text nur in eingeschränkter Art und Weise von Bedeutung, hier könnten kollaborative Schreibmodelle problemloser eingesetzt werden. Literarischen Texten würde vom Rezipienten stattdessen immer die Intention eines Autors untergeschoben. Zudem sei eine künstlerische Qualität der Arbeit scheinbar vor allem durch die Konzeption und Kontrolle eines singulären Autors sicherzustellen. Und viertens könnte die geringe Beteiligung mit den Beschränkungen zusammenhängen, die den Mitschreibern vom Moderator und Initiator auferlegt werden. Dies geschieht durch die Wahl der Schreibplattform, durch die Konstituierung von Schreibregeln und nicht zuletzt durch die Festlegung des Endes. Mitschreibende Autoren sind völlig der Logik der Software ausgeliefert, die bestimmt, was möglich ist – oder eben nicht. So kann oft nur reiner, unformatierter Text eingegeben werden, die Verwendung von Grafiken oder Sounds ist zumeist unmöglich. Neue Einträge können nur an den vom Programm vorgegebenen Stellen angefügt werden und Streichungen oder Editierungen sind zuweilen völlig ausgeschlossen. An diesem Punkt steht aber zu erwarten, dass Autoren mit einem höheren Anspruch an die technischen und künstlerischen Möglichkeiten eher eigene (singuläre) Projekte entwickeln als sich den Beschränkungen solcher kollaborativer Werke zu unterwerfen. In nicht-künstlerischen, journalistischen Zusammenhängen wird das faszinierende Potential des Dispositivs für gelingende kollaborative Produktionen bereits deutlich. Mittlerweile haben sich etablierte Systeme und Plattformen für kollektive Inhaltsproduktionen entwickelt, die erfolgreich den traditionellen Medien Konkurrenz machen. Diese Systeme basieren auf der Open Source-Bewegung sowie auf Methoden und Technologien aus der Softwareproduktion, die immer schon notwendigerweise kollaborativ angelegt war. »Wikipedia« bildet, wie erwähnt, mittlerweile ein Referenznachschlagewerk, das sich tatsächlich mit den etablierten, traditionellen Enzyklopädien messen kann. Vor allem bei internetaffinen Gegenständen sowie Themen der Popkultur und des ›Zeitgeistes‹ stellt sie alle anderen Konkurrenten in den Schatten. Allerdings muss einschränkend herausgestellt werden, dass die »Wikipedia«-Prinzipien auch Grenzen aufweisen. »Indymedia« und »Slashdot« zeigen bereits ansatzweise, wie netzbasierte alternative journalistische Plattformen in Zukunft erfolgreich arbeiten können. Die so genannte »Blo-
DER AUTOR IN DER NETZLITERATUR | 279
gosphäre« agiert mit gewissem Erfolg als kritische Medienalternative, die den traditionellen Strukturen trotzt. Allerdings bleibt fraglich, ob sich die euphorischen Hoffnungen auf eine netzbasierte »Medienrevolution« tatsächlich in der Form auch erfüllen werden (vgl. dazu Möller 2006). Die vor allem in nicht-künstlerischen und journalistischen Zusammenhängen erprobten und verfeinerten Technologien des gemeinsamen ›Schreibens‹ und Methoden des Erzählens wirken zurück in die künstlerische Produktion. Kollaborative Netzliteratur-Projekte bedienen sich Schreib-Oberflächen, die ursprünglich nur für Kommunikations- oder Informationszwecke konzipiert wurden. Das kollaborative Projekt »nic-las« ist bereits so ein Hybrid zwischen journalistischen und literarischen, kollaborativen Projekten (vgl. dazu weiterführend Suter 2004b und Suter 2005: 213-219). In »Wikipedia« oder »Slashdot« werden Mechanismen zur Qualitätssicherung von kollaborativ und hierarchielos erarbeiteten Inhalten erprobt. Diese könnten auch zu anspruchsvollen literarischen kollaborativen Arbeiten führen, wenn entsprechende Oberflächen und Mechanismen aus der nicht-künstlerischen in die künstlerische Produktion übernommen werden. Künstlerische Weblog-Projekte wie »Worldwatchers« oder kollaborative, künstlerische Schreiboberflächen wie »nic-las« stellen hoffnungsvolle Ansätze dar. An diesen Arbeiten wird deutlich, dass sich die technischen Rahmenbedingungen für kollaborative Projekte deutlich verbessert haben. Was aber bedeutet kollaborative Autorschaft für das Erzählen? Man kann wie Jonas rein auf der ästhetischen Ebene argumentieren und bedauern, dass es in kollaborativen Texten weniger um das Erzählen einer ästhetischen Geschichte ginge, sondern vor allem um die Kommunikation der Schreiber untereinander. Damit aber verfehlt man den Punkt. Natürlich werden, wie Howard Rheingold immer wieder betont hat, Technologien zur computervermittelten Kommunikation (und nichts anderes sind Plattformen für Mitschreibprojekte) von den Menschen immer sofort genutzt, um Gemeinschaften zu gründen und damit zu kommunizieren (vgl. Rheingold 1994).23 Dies stellt jedoch ein basales Charakteristikum netzbasierter Kommunikation dar, insofern scheint eine negative Bewertung naiv. Das eigentliche Ziel von Mitschreibprojekten, nämlich das gemeinsame Schreiben an einem literarischen Text, gerät damit zwangsläufig etwas in den Hintergrund. Aber muss dies tatsächlich eine Schwäche kollaborativer Literatur darstellen? Es scheint, als ob die Kommunikation über das Schreiben während des Schreibens ein besonderes Charakteristikum des kollaborativen Textens bildet. Erzählen (›Storytelling‹) meint hier also ein doppeltes ›telling stories‹. Mit der Rücknahme einer starken Vorstellung von Autorschaft in kollaborativer Literatur geht eine schwindende Bedeutung singulärer Autorität und Verantwortlichkeit für den Text einher. Auch wenn Moderatoren weiterhin maßgebliche Autorfunktionen übernehmen, wird konzeptionell die genialistische Autorschaft zurückgewiesen und stattdessen werden kollaborative Formen gesucht. Deshalb entfernt sich diese Literatur stärker von traditionellen literarischen Formen als es die ›klassischen‹ Genres von Netzliteratur tun und 23 Bezogen auf die große Bandbreite von Internet-Diensten, die zur Produktion von Netzliteratur-Projekten benutzt werden, kann Rheingolds Einschätzung noch umformuliert werden: Jeder Kommunikationsdienst wird sofort zur literarischen Textproduktion benutzt. Dies trifft selbstverständlich nicht nur für Onlinemedien zu, sondern galt bereits für traditionelle Medien; so hat E-Mail-Kunst einen direkten Vorläufer in der Mail-Art mit traditionellen Postkarten.
280 | DER DIGITALE AUTOR
nimmt deutlich ›echte‹ internetspezifische Charakteristika an. Somit muss Jonas’ eher abfällige Äußerung zurückgewiesen werden; Ziel und einmaliger Charakter kollaborativer Literatur kann eben nicht allein die Generierung eines ästhetisch anspruchsvollen Werkes sein. Stattdessen geht es beim kollaborativen Schreiben momentan eher um die experimentelle Entwicklung gemeinschaftlicher Schreibformen und das doppelte ›telling stories‹. Die Literaturform ist noch jung, insoweit ist ihr kaum vorzuwerfen, dass noch keine ästhetisch ansprechenden Ergebnisse vorliegen. Ihre Möglichkeiten müssen erst ausgelotet werden, die Schreiber haben noch entsprechende Erfahrungen zu sammeln. Langfristig gesehen dürfte die künstlerische Qualität kollaborativer Literatur steigen, auch wenn die ästhetische Qualität weiterhin kaum das Hauptaugenmerk der Schreiber darstellen wird. Die derzeitige netzliterarische Praxis und die geringe Anzahl von Mitschreibprojekten scheinen also nur zu vorsichtigen Hoffnungen zu berechtigen. Trotz dieses geringen Ausmaßes lassen sich im Internet und bedingt durch das Dispositiv aber bereits durchaus neue Formen kollaborativer Modelle finden. Damit einher geht auch eine zunehmend stärkere Präferenz für diese gemeinschaftlichen Konzeptionen. Geht man von den erfolgreichen kollaborativen Konzeptionen aus, müsste die Zukunft der Mitschreibprojekte aber gerade nicht in der Offenheit und in der Amateurhaftigkeit zu suchen sein, sondern in der Geschlossenheit und der Professionalität. Ein überzeugendes Beispiel ist das crossmediale Projekt »The Famous Sound of Absolute Wreaders«, welches 2003 den 1. Publikumspreis beim Netzliteratur-Wettbewerb »Literatur.digital 2003« errang. Das sehr komplex strukturierte Projekt wurde im Fachdiskurs seitdem intensiv besprochen und kann damit als ›kanonisiert‹ im Literatursystem gelten. Allerdings war es von Anfang an als Zusammenarbeit von sechs etablierten Netzliteraten konzipiert und bildete somit ein Produkt normaler gemeinschaftlicher (Co-)Autorschaft (vgl. dazu weiterführend Suter 2004a sowie Lutz 2004: 96-98).24 An diesem Beispiel wird deutlich, dass den Mitschreibprojekten (dritte Stufe von Kollaboration) zukünftig vermutlich weiter die Rolle des Experiments zukommt. Anspruchsvollere kollektive Projekte aber dürften eher im Modus einer gleichberechtigten Co-Autorschaft von wenigen Autoren entstehen (vierte Stufe). An den Kanten des Mediums Internet und hervorgerufen durch dessen dispositive Struktur vernetzter heterogener Faktoren bilden sich damit tatsächlich neue Qualitäten von kollaborativer und kollektiver Autorschaft heraus. Diese neuen Formen dürfen aber nicht auf den unzulässig vereinfachenden Nenner ›Verabschiedung des Autors‹ gebracht werden. Stattdessen gilt es, aus den derzeitigen netzliterarischen Experimenten die Möglichkeiten des Dispositivs herauszufiltern.
8.3 Marginalisierte Autorschaft Bisher wurde digitale Literatur diskutiert, die nicht nur zur Konzeption und Programmierung von Projekten, sondern auch zur Inhaltserstellung noch unmittelbar einen oder mehrere menschliche Autoren benötigt. Selbst automatische Hypertextverknüpfungen wie beim kollaborativen Projekt »Assoziati-
24 Vgl. dazu auch die umfangreichen Erläuterungen auf der Projektwebsite.
DER AUTOR IN DER NETZLITERATUR | 281 25
ons-Blaster« , die von serverseitigen Skripten mittels Datenbankeinträgen generiert werden, setzen noch notwendigerweise die Einarbeitung von Inhalten durch den Menschen voraus. Die Bedeutung von Software und deren Leistung für das künstlerische Werk weisen aber bereits auf einen weiteren Fortschritt hin: Zur Produktion von neuen Inhalten braucht es nicht unbedingt den Menschen. Software kann nämlich auch selbst aktiv werden, aufgrund von bereits existierenden Datenbeständen und des enthaltenen Codes. Damit ist die Diskussion bei den so genannten ›Codeworks‹ angekommen. Sowohl die klassischen digitalen, literarischen Arbeiten etwa der Hyperfiction als auch die scheinbar autorlosen, kollaborativen Mitschreibprojekte rücken die künstlerische Wahrnehmung in das Zentrum. Sie sind, um mit dem Literaturtheoretiker Friedrich W. Block zu sprechen, »Interfacework« (vgl. Block 2004). Der Begriff ›Interface‹ beschreibt dabei den Bildschirm als Schnittstelle zwischen Computer und Nutzer. Er erfasst aber auch die Bedeutung der ästhetisch rezipierbaren Gestaltung von Netzliteratur. Im Gegensatz dazu stellen Codeworks literarische Projekte dar, die reflektieren und hervorheben, dass digitale Literatur immer auf Software beruht. Damit rücken sie das konzeptionelle ›Dahinter‹ von digitaler Literatur in den Mittelpunkt der Aufmerksamkeit. Sie referieren explizit auf das Digitale und leiten Schlussfolgerungen für die Beziehung zwischen ›Code‹ und ›Interface‹ ab. Diese Literatur besitzt zwar ebenfalls bereits eine gewisse Vorgeschichte in den Experimenten früher Computerlyrik, ihre künstlerische und wissenschaftliche Reflexion ist allerdings noch sehr jung. Codeworks können damit gleichzeitig als ein Ausblick auf zukünftige ›Versionen‹ von ›digitalen Autorschaften‹ angesehen werden. Deutschlands herausragende Persönlichkeit im Bereich der Codeworks ist der Literaturwissenschaftler und Netzkünstler Florian Cramer. In seiner Person vereint ist sowohl der aktivste Forscher im Feld als auch ein produktiver Künstler. Einige der interessantesten künstlerischen deutschsprachigen Projekte der letzten Jahre stammen von ihm, so z. B. »Permutationen« (19962000) oder »plaintext.cc« (2005). Von seiner umfangreichen Forschungstätigkeit zeugt das Archiv von Aufsätzen und Vorträgen auf seiner Website »Gopher« (so ihr Titel im Jahr 2009). Seine 2006 abgeschlossene Dissertation stellt die erste elaborierte Untersuchung zur Genese und Poetik von Codeworks dar (Cramer 2009). Diese paradoxe Personalunion verweist selbstverständlich auf das noch geringe Alter der Codeworks. Sie deutet aber auch darauf hin, dass Codeworks eine besonders hohe (und bei Künstlern seltene) Kompetenz in Sachen Internettechnologien und Computersprachen voraussetzen. Wichtig ist zudem eine enorme Affinität zu diesen basalen, betriebssystemnahen Sphären von Code. Konsequenterweise war Cramer beim Ende 2005 verliehenen »1. Junggesellenpreis für Netzliteratur« nicht nur der erste Preisträger, sondern hielt auch noch den Eröffnungsvortrag beim vor der Verleihung stattfindenden Festival »Literatur und Strom. Code – Interface – Concept« (vgl. Gassner 2005). Florian Cramer charakterisiert Codeworks als »herausragend[e] Beispiele einer digitalen Dichtung, die die interne Textualität von Computern reflektiert. Sie tun dies jedoch nicht, indem sie, um Alan Turing via Raymond Queneau zu zitieren, Computerdichtung für Computer sind […], sondern 25 Vgl. dazu ausführlicher Simanowski 1999; Freude et al. 2000; Dreher 20022006.
282 | DER DIGITALE AUTOR indem sie mit den Verwirrungen und Grenzunschärfen von maschinen- und menschengenerierter Sprache spielen und die kulturellen Implikationen dieser Überschneidungen reflektieren.« (Cramer 2004: 272)
In dieser Konzeption fließen Elemente von Programmiersprachen26 und Netzwerkprotokollen mit natürlichen und künstlichen Sprachen in der Poesie zusammen. Diese hinterfragen die Bedeutung des Codes und die Rolle des Computers in der künstlerischen Produktion. Die vielfältigen Vorgänge ›im Computer‹ werden auf dem Bildschirm sichtbar gemacht. An der Schnittstelle zwischen Interface- und Code-Ästhetik angesiedelt, fordern sie nicht nur das traditionelle Kunstverständnis der Nutzer heraus. Sie zwingen diese auch zu Reflexionen über scheinbare Selbstverständlichkeiten. Codeworks erscheinen nicht selten wie Systemstörungen und versetzen die Nutzer in allerhand Verwirrung. Sie sind bis zur Unkenntlichkeit verfremdete Filme (»ascii history of moving images«, 1998), dekonstruierte Computerspiele (»Untitled game«, 1996-2001) oder sogar Viren (»biennale.py«, 2001).27 Auch wenn diese Kunstformen noch ›jung‹ sind, können drei Typen herauskristallisiert werden, die sich durch unterschiedliche Autorschaftskonzeptionen auszeichnen: Abbildung 17: Untergenres von Codeworks Genres von Codeworks • ›ASCII-Art‹ mit zum Teil starker Autorschaft (Vorform und Übergang zu ›Codeworks‹), teilweise lauffähig • ›Broken Codes‹ mit starker Autorschaft, nicht lauffähig • ›Algorithmen‹ als ablauffähige Programme mit deutlich marginalisierter Autorschaft Quelle: Typologie, basierend auf einer Vorstrukturierung von Johannes Auer (vgl. Hartling 2007b) Als Vorform kann die so genannte ›ASCII-Art‹ gelten, die historisch bis auf die Figurengedichte der Antike zurückzuführen ist (vgl. Auer/Döhl 2006). Damit verbunden ist zumeist die Vorstellung einer starken Autorschaft, die komplexeren Varianten sind lauffähig und nähern sich damit den eigentlichen Codeworks an. Mit den so genannten ›broken codes‹ sind funktionsunfähige Codes angesprochen, die nur noch in Bruchstücken an Programme erinnern, ansonsten aber weitestgehend durch natürliche und Kunstsprachen kontaminiert sind (vgl. Cayley 2004: 298). ›Broken code‹-Autoren wie mez (Pseudonym von Mary-Anne Breeze) stellen zumeist klassische Originalgenies dar, die sich als starke Autoren inszenieren und über ihr Werk absolute Kontrolle ausüben. Im Zusammenhang mit der vorliegenden Untersuchung sind aber die ›Algorithmen‹ am interessantesten, also lauffähige Programme, die von 26 Dabei handelt es sich oft um die skriptorientierten Websprachen »Javascript« auf der Clientseite oder »PHP« auf der Serverseite. Verwendung findet außerdem die in der Softwareentwicklung beliebte Sprache »C« sowie deren Nachfolger »C++« oder »C#«. 27 Zu den Codeworks sowie deren historischen Vorläufer vgl. ausführlicher auch Cramer 2008.
DER AUTOR IN DER NETZLITERATUR | 283
einer marginalisierten Autorschaft gekennzeichnet sind und bei denen der Programmierer deutlich in den Hintergrund tritt. ›ASCII-Art‹ als Vorform von Codeworks basiert auf den so genannten ASCII-Grafiken, die auch das »ASCII Art Ensemble«28 verwenden. Diese Grafikform ist als Reminiszenz an die Frühzeit der Computer (von den 1960er bis weit in die 1980er Jahre hinein) zu verstehen, in der Grafikspeicher noch zu teuer war, um hochauflösende Pixel-Computergrafiken zu gestatten. Zur Verfügung standen nur die 256 Buchstaben, Ziffern und Sonderzeichen des ASCII-Codes (vgl. Jennings 1999-2004). Damalige Künstler und die ersten Computerspiel-Designer nutzen dieses eingeschränkte Zeichenrepertoire, um Grafiken zu generieren; Zahlen, Buchstaben und Sonderzeichen bildeten Gesichter, Tiere, Spielwelten. Eingesetzt wurde und wird diese Form von Grafik auch heute noch in durchaus selbstironischer Weise auf persönlichen Webseiten. Für die ungebrochene Beliebtheit von ASCII-Grafik innerhalb der Internet-Community stehen eine ganze Reihe von Anwendungen, die ASCII-Grafik generieren können.29 Eine auch in der breiten Öffentlichkeit populär gewordene Reminiszenz an die Zeiten alter Computergrafiken bildete die Filmtrilogie »Matrix« (1999-2003). In ihr wurden die Übergänge vom Code des Computersystems zur virtuell erzeugten Welt und zurück durch die Bewegung exotischer (wiederum ASCII-ähnlicher) Zeichen markiert, die sich schließlich zu Formen und Strukturen der Matrix-Wirklichkeit verdichteten. ASCII-Grafiken selbst können noch nicht als Kunst angesehen werden. Der Grund dafür ist, dass das Überführen von Pixelgrafiken in ein anderes Grafikformat eine relativ triviale Operation darstellt, die von Computerprogrammen erledigt werden kann. ASCII-Grafiken bilden aber eine Vorstufe zur so genannten ASCII-Kunst: Abbildung 18: Typologie verschiedener Vor- und Erscheinungsformen von ASCII-Kunst Typologie von ASCII-Kunst • Vorstufe: Statische, vereinzelte ASCII-Grafiken • 2. Stufe: Programme, die ASCII-Grafiken berechnen • 3. Stufe: ASCII-Kunst, die ›rekursiv‹ ASCII-Grafiken und Programmcodes generiert Bei ASCII-Kunst auf der zweiten Stufe handelt es sich um Algorithmen, die nach Durchlaufen ASCII-Grafiken oder Texte erzeugen und diese auf dem Bildschirm anzeigen. Interessanter aber sind Programme, die sowohl als ausführbare Codes aber auch als ästhetisch wahrnehmbare ASCII-Grafiken rezipiert werden können. Dies bedeutet nichts anderes, als dass die Zeichen doppelte Funktionen übernehmen. Zum einen bilden sie als Datenwerte die Bestandteile von computerlesbaren Anweisungen und sind damit die Träger des 28 Zur Künstlergruppe und deren bekanntes Projekt »Deep ASCII« vgl. ausführlicher Bosma 1998. 29 Die Software »ASCII Generator« wandelt beliebigen Text in ASCII-Art mit einer großen Bandbreite möglicher Designs um. Pixelgrafiken können beispielsweise mit dem Programm »ASCII Generator dotNET« in ASCII-Art überführt werden. Die dabei erzeugten Grafiken sind selbstredend nicht künstlerisch, können allenfalls Vorstufen zur Kunst bilden.
284 | DER DIGITALE AUTOR
Codes. Die Anweisungen nehmen Daten entgegen, prozessieren diese, speichern umgewandelte Daten oder zeigen diese an. Zum anderen bilden die Zeichen in ihrer schriftlichen Präsenz und optischen Form aber auch Elemente von Gesamtgrafiken, die zum Teil sehr kunstvoll gestaltet sind. Dritte Stufe: Die aktuellen, avanciertesten Formen dieser ausführbaren ASCII-Kunst sind aber ›rekursiv‹. Handwerklich und ästhetisch virtuos gestaltete Programme wie etwa »dhyang.c 2000« (ein so genannter »Obfuscated C code«30) beinhalten nicht einfach nur visuell ästhetische Grafiken und ausführbare Codes. Abbildung 19: Don Yang: »dhyang.c 2000 / SAITOU.C« (2000)
Quelle: Screenshot vom Autor Stattdessen bringen die Algorithmen durch ihre Ausführung wiederum neue Programmcodes hervor. Diese Codes sind erneut Träger doppelter Informationen, nämlich computerlesbare Anweisungen und Daten sowie neue Grafi30 »Obfuscated C code« (von »to obfuscate«, deutsch: »verdunkeln«): Bezeichnung für Programme in der populären Programmiersprache C, die ihren eigentlichen Zweck und ihre Funktion besonders kreativ verschleiern. Damit verstoßen sie gegen sämtliche Standards des Programmierens und stellen somit technisch den ›schlimmstmöglichsten‹ Code dar. Ziel dieses kunstvollen Verstoßens gegen das Handwerk ist – wie bei vielen ähnlichen Programmierübungen – der handwerklich Wettstreit mit anderen Programmierern. Es kann kaum verwundern, dass sich der seit 1984 jährlich stattfindende »International Obfuscated C Code Contest« einer enormen Beliebtheit in der Programmierszene erfreut. Zusätzlich ist es nicht überraschend, dass der Wettbewerb auch in anderen Sprachen abgehalten wird. Vgl. Schweikhardt 2003, vgl. auch die Webseite des »The International Obfuscated C Code Contest« und den Teil »Obfuscated C code« in der Ausstellung »I love you«, 2002.
DER AUTOR IN DER NETZLITERATUR | 285
ken. Die Programme im Code und die grafische Kunst auf dem Bildschirm bedingen einander und bringen sich gegenseitig immer wieder hervor. Damit durchdringen sich Code und Kunst zu einer Melange, die nicht mehr deutlich zu differenzieren ist. Ist sie avanciertes Programmierhandwerk oder ist sie grafisch anspruchsvolle Kunst? Normalerweise strikt getrennte Ebenen von Computer- und Online-Kunst fließen ineinander. Sie reflektieren auf ästhetisch und intellektuell höchst ansprechendem Niveau die Charakteristika softwarebasierter Kunst, die eben vor allem Code ist. Diese Kunstform fällt streng genommen nicht unter die weiter oben entwickelte Definition von Netzliteratur, da sie die Bedeutung des Netzes kaum strukturell oder ästhetisch zu reflektieren scheint. Insoweit bildet ASCIIKunst ein Übergangsphänomen zwischen reiner Computerkunst und Netzliteratur. Die avanciertesten Formen leiten bereits zu den Codeworks über, sind aber im Gegensatz zu diesen für den Rezipienten sehr zugänglich, da sie vor allem auf der Oberfläche funktionieren. ASCII-Kunst reflektiert schon umfänglich die Bedeutung des Codes in der digitalen Literatur und setzt sich damit mit einem zentralen Charakteristikum netzbasierter Texte auseinander. Somit können die entsprechenden, elaborierten Arbeiten sehr wohl als Netzliteratur angesehen werden, auch wenn sie die Vernetzung nicht notwendigerweise voraussetzen. Eine der bekanntesten Vertreter der broken codes ist die australische Netzwerk-Künstlerin mez.31 In ihrer Kunst entwickelte sie eine eigene Sprache namens »mezangelle«. Diese vermischt natürliche Sprachen wie Englisch, Slang, Netz-Jargon und phonetische Wortspiele mit der Sprache von Codes, also technischen Protokoll-Codes und Programmiersprachen: Abbildung 20: mez [Mary-Anne Breeze]: »term.i.nation net.wurk[er]« (2003)
Quelle: Screenshot vom Autor
31 Für weiterführende Informationen zu mez vgl. auch ihre Website: mez o. J.
286 | DER DIGITALE AUTOR
Mez’ Projekte kommen auf den ersten Blick scheinbar als Computerprogramme daher, auf den zweiten Blick entpuppt sich die Poesie aber als funktionsunfähig (›broken‹) und damit als virtuoses Spiel mit Elementen von Codes (vgl. Cayley 2004: 296-300). Florian Cramer hat oft diskutiert, wie solche Texte gelesen und verstanden werden sollten. Dies kann etwa anhand seiner Deutung der Arbeit »_Viro.Logic Condition][ing][ 1.1_« von mez aus dem Jahr 2001 nachvollzogen werden (vgl. Cramer 2009).32 Charakteristisch für broken codes ist, dass ihre Autoren meist eine vollständige Werkkontrolle ausüben, da die Arbeiten nach ihrer Veröffentlichung tatsächlich unveränderliche Programm›texte‹ bilden. Sie gestatten anschließend nicht mehr den Eingriff anderer Mitschreiber; sie sind daher konsequent auch mit dem jeweiligen Namen bzw. dem Pseudonym der Autoren markiert und damit autorisiert. Charakteristisch ist auch, dass broken codes zumeist in eher flüchtigen Mailinglisten wie etwa »Nettime« veröffentlicht und somit in einen eher lockeren Diskussionszusammenhang gestellt werden. Die somit implizierte, scheinbar schwache Autorschaft wird aber konterkariert durch die strikte Selbstinszenierung und die oft deutlich erkennbare eigene Sprache. Einem schwachen Autorkonzept entgegen steht auch, dass die so in einen temporären Diskussionszusammenhang geposteten Arbeiten zuweilen durchaus traditionell gesammelt und herausgegeben werden, wobei nicht zuletzt die Autornamen ein entscheidendes Sortierkriterium darstellen. So wurden etwa die auf der Mailingliste »Nettime« geposteten broken code-Arbeiten der Jahre 2002-2004 von Florian Cramer, Alan Sondheim und anderen im so genannten »Nettime unstable digest« (vgl. Cramer/Sondheim 2002-2004) veröffentlicht. Damit stellt also die lockere oder schwache Autorschaft vor allem ein fiktives Konstrukt dar, die entsprechenden Autoren identifizieren sich selbst mit dem Autormodell des poetischen Handwerkers (›poeta faber‹). Abbildung 21: Florian Cramer: »plaintext.cc« (2005)
Quelle: Screenshot vom Autor Die Codework-›Algorithmen‹ können dagegen tatsächlich als Programme ausgeführt werden, wobei sie konzeptuell eine marginalisierte Autorschaft 32 Vgl. auch das umfangreiche Textarchiv auf Cramers Webseite, vgl. Cramer 2005 ff.
DER AUTOR IN DER NETZLITERATUR | 287
mitführen. Florian Cramers Arbeit »plaintext.cc« aus dem Jahr 2005 zeigt eindringlich, wohin codeorientiertes ›Erzählen‹ mit einem bemerkenswerten Konzept und einer ästhetisch interessanten Optik führen kann. In seiner Online-Installation werden aus einem ganz heterogenen Fundus von geschriebenen Inhalten jeglicher Art immer wieder neue, verblüffende Texte generiert. Diese erinnern stark an konkrete und visuelle Poesie, stellen aber eben ›Codekunst‹ dar. Ein E-Mail-Dialog mit der Künstlerin mez vermischt sich mit Teilen von Quellcode und pornographischen Zitaten von Georges Bataille33. Diese Texte ›kontaminieren‹ einander, haben zudem Transformationen und typographische Formatierungen durchlaufen. Durch die Vermischung von Softwareelementen und Programmierung mit Pornographie spielt Cramer dabei mit ironischen Verfremdungen des Konzeptes »Junggeselle«. Damit lieferte er seine Lesart des 2005 ausgeschriebenen Literaturwettbewerbs »1. Junggesellenpreis für Netzliteratur«, mit dem sein Projekt, wie bereits erwähnt, prämiert wurde. Die Jury deutete seine Arbeit folgendermaßen: »Florian Cramer hat eine kleine autopoetische Junggesellenmaschine gebaut, die ironisch einen ›Kurzschluss bei Bedürfnis‹ inszeniert. Die prekäre Selbstverliebtheit, in der das Programm nach bestimmten Regeln immer wieder anderen Text aus Texten erzeugt, vermag die Benutzer gleichwohl in ihren Bann zu ziehen. Sie lockt auf falsche Fährten, die, wenn man ihnen nur beharrlich folgt, doch zu überraschenden Entdeckungen führen.« (Höllerer et al. 2005)
Was aber bedeuten ›codebasierte‹ und ›codereflektierende‹ Arbeiten für die Autorschaft? Ganz offensichtlich ist diese Kunstform die sperrigste und am wenigsten zugängliche der hier präsentierten. Der Programmierer ist nur noch im Hintergrund für einen meist nicht einsehbaren Programmalgorithmus verantwortlich. Auf der Bildschirmoberfläche scheint sich der Computer ›auszutoben‹. Hier geht es nicht mehr um ästhetisch rezipierbare Literatur, sondern um das Aufbrechen und ironische Wenden von traditionellen, bislang unvereinbaren Gegensätzen, wie etwa Maschine vs. Mensch, Software vs. Nutzer oder Interface vs. Code. Im Zentrum dieser Kunstform steht nicht mehr das Endprodukt auf dem Bildschirm, sondern das darunter liegende Konzept – der ›Code‹. Wenn bei diesem stark computerbasierten und -reflektierenden netzliterarischen Genre das Konzeptuelle so deutlich im Vordergrund steht und die unterliegende Programmierung zum eigentlichen Gegenstand der Literatur wird, dann spielen traditionelle Autorkonzepte offensichtlich kaum mehr eine Rolle. Marginalisiert ist auch das Erzählen einer ästhetisch rezipierbaren Geschichte. Stattdessen treten nur noch Bruchstücke traditioneller Erzählformen auf, knappe Reminiszenzen und Referenzen, die kaum dazu geeignet sind, so etwas wie eine stringente Erzählung zu erzeugen. Allenfalls sind textuell zu identifizierende Fragmente wie in Cramers »plaintext.cc« noch als Verweis auf eine literarische Tradition anzusehen, die ein Stück weit zur Computerliteratur hingeführt hat. Vor allem aber verdeutlichen diese ›Brocken‹, dass ›stories‹ hier zum Material werden, zu Datenbankeinträgen, aus denen der Code seine eigentlich unverständlichen Texte generiert. Traditionelles Erzählen wird bei dieser Produktion von Assoziationsmaterial stark ironisiert. Die
33 Zu Georges Bataille vgl. einführend Wiechens 1995.
288 | DER DIGITALE AUTOR
Sinnstiftung wird vollständig zur Aufgabe des Lesers, der aus diesem Angebot seine eigene Geschichte generieren muss. Deutlich wird aber auch, dass der Programmierer hier nicht mehr die volle Autorschaft ausübt, zu einem großen Teil übernehmen diese Aufgaben Code und Leser. Klaus Weimar hat auf die grundlegende Möglichkeit des Auseinandertretens hingewiesen, die sich ergibt, weil Autorschaft notwendigerweise immer »doppelte Autorschaft« bildet. Er fordert, zwischen dem Autor als Produzent der Schrift und dem Autor als Produzent von Sprache oder »Textwelt« zu unterscheiden (vgl. Weimar 1999). Matías Martínez trennt den Autor ebenfalls; er unterscheidet konsequent zwischen dem Autor als »Urheber des Textes« und dem Autor als »konzeptuellen Schöpfer des Werkes« (Martinez 1999a: 474). Dass der Autor im Netz sogar eine Verdreifachung erfährt, weil zudem die Grenze zum Herausgeber aufgehoben wird, hat Uwe Wirth herausgestellt (vgl. Wirth 2001). Diese Aufsplitterung der Autorfunktion wird in der Netzliteratur auf den Leser ausgedehnt, indem er Sinn stiftet und indem er selbst zum Mitschreiber wird. Damit kann eine dritte Schlussfolgerung zum Autor in der Netzliteratur formuliert werden. Dem Dispositiv Internet und der digitalen Literatur ist das Auseinandertreten von Autorfunktionen besonders gemein. Gerade bei den algorithmischen Codeworks wird dies außerordentlich deutlich. Diese sperrige Literaturform markiert ein Ende der großen Bandbreite von möglichen Realisationen des Autors im Internet, die nur oberflächlich autorlosen Texte. Am anderen Ende stehen die Autoren mit überstarkem Personenkult – ebenfalls besonders typisch für das Dispositiv Internet.
8.4 Dissoziierende Autorschaft, Fallbeispiel: »Search Lutz!« (2006) Dieses Auseinandertreten von Autorfunktionen kann so stark sein, dass die Autorschaft förmlich ›dissoziiert‹. Dies geschieht bei einem vierten Genre von Netzliteratur, den Konzept- und Performanceprojekten. Sie verknüpfen stilistische Elemente der bislang diskutierten Genres, gehen aber noch darüber hinaus. Die bisher besprochenen Literaturformen sind mehr oder weniger ›fest‹ im WWW abgelegt und erlauben eine beständige ›Lektüre‹ solange, wie das Projekt im Netz publiziert ist. Konzept- und Performancekunst unterscheiden sich aber gerade in diesem Punkt völlig von den traditionelleren Gattungen. Das Werk kristallisiert am Zeitpunkt der Performance, existiert nur während seiner Aufführung und verschwindet danach unweigerlich wieder. Übrig bleiben allenfalls Webinterfaces, Pressemitteilungen, Fotografien oder Mitschnitte. Deutlich wird hier der Versuch von Netzautoren, aus den Rahmenbedingungen des Netzdispositivs regelrecht ›auszubrechen‹. Deutlich wird aber auch, dass diese ›Befreiung‹ schlussendlich nicht vollständig gelingen kann, weil das Autorkonzept kulturell äußerst dominant ist. Mit der netzliterarischen Konzept- und Performancekunst ist eine der jüngeren Entwicklungen in der Netzliteratur angesprochen, die aber eine der bedeutsamsten und einflussreichsten darstellt. Diese Genres haben ebenfalls eine lange Vorgeschichte und knüpfen an die Experimente der Konzeptkunst in der Offline Welt seit den 1960er Jahre an. Dabei treten verschiedene Formen auf, wie etwa Performance, Aktion oder Installation:
DER AUTOR IN DER NETZLITERATUR | 289
Abbildung 22: Genres von netzliterarischer Konzeptkunst Genres von netzliterarischer Konzeptkunst • Aktion: ›social hack‹, Netz- und Netzkunstaktivismus • Performance: Auseinandersetzung mit Algorithmus, Handlungsanweisung, Performance Quelle: Typologie, basierend auf einer Vorstrukturierung von Johannes Auer (vgl. Hartling 2007b) Ebenso wie in der Offline-Konzeptkunst lassen sich online die beiden Typen ›Aktion‹ und ›Performance‹ unterscheiden. ›Aktions‹-Projekte können dabei etwa ›social hacks‹ auf Internet-Kanäle umfassen oder als Netz- bzw. Netzkunstaktivismus angelegt sein. Als ›social hacks‹ werden aufstachelnde Aktionen von Netz- und Aktionskünstlern bezeichnet, die diese auf internetbasierten Kommunikationsdiensten ausführen. Sie provozieren und verwirren die Nutzer dieser Kanäle sehr bewusst, um diese zu Reaktionen und Diskussionen zu animieren. Langfristiges Ziel solcher Hacks ist es, dass Netznutzer auch in ›real life‹ gesellschaftlich oder politisch aktiv werden und sich in negativ bewertete Prozesse einmischen. Ein Beispiel dafür sind Arbeiten von Cornelia Sollfrank (vgl. ausführlicher Cramer 2003a). ›Netzaktivismus‹ bzw. ›Netzkunstaktivismus‹ basiert auf den netzkulturellen Praktiken der Netizen. Inke Arns bezeichnet damit subkulturelle Strategien, die sich kritisch mit dem kommerzialisierten Internet auseinandersetzen. Dies meint zum einen rein technischen oder politischen Netzaktivismus, der sich u. a. in der Einrichtung alternativer Kommunikationskanäle wiederfindet (vgl. Arns 2002: 56-59). Zum anderen ist für sie damit ein künstlerischer Netzkunstaktivismus angesprochen, der sich etwa in elektronischem zivilen Ungehorsam niederschlägt (vgl. ebd.: 60-65). Gute Beispiele hierfür bilden die öffentlichkeitswirksamen Aktionen der Künstlergruppe »etoy«. ›Performance‹-Projekte beinhalten stets auch Algorithmen und konkrete Handlungsanweisungen, sie gerinnen aus der produktiven Verbindung dieser drei Elemente. Ausgangspunkt ist dabei eine Entwicklung der Konzeptkunst seit den 1960er/1970er Jahren, die die Kunst auf eine Idee oder eine Handlungsanweisung an den Betrachter reduzierte. Solche Handlungsanweisungen an ein Publikum sind aber problemlos über einen Algorithmus programmierbar. Resultierend hat die Performance damit über ihre Handlungsanweisung auch eine direkte Verbindung zum Algorithmus und zur Rechenanweisung. Diese Verbindungen werden in Projekten wie »The Famous Sound of Absolute Wreaders« oder »Search Lutz!« ästhetisch verarbeitet und dabei auch künstlerisch reflektiert. (vgl. Hartling 2007b; vgl. ausführlicher auch Weibel 2004; Dreher 2005) Diese Experimente haben gemein, dass keine beständigen Kunstwerke erschaffen werden, die für spätere Generationen archiviert werden können. Stattdessen dominiert bei Konzeptkunst das dem Kunstwerk zugrunde liegende Konzept über das fertige Produkt. Nicht allein die Ausführung von Kunst sowie deren physische Beschaffenheit sind von Relevanz, sondern vor allem deren Idee. Damit wird das Werk selbst entmaterialisiert und der Rezipient in die Kunst hineingenommen. Konzept- oder Performanceprojekte orientieren sich sowohl offline als auch online an Vorarbeiten etwa von Marcel Du-
290 | DER DIGITALE AUTOR
champ (vgl. Auer/Döhl 2006) und Sol Lewitt (vgl. LeWitt 1974 [1967]) für die Kunst oder John Cage (vgl. Motte-Haber 2003) für die Musik. Sie rufen diese Bezugnahmen zudem beständig in ihren jeweiligen theoretischen oder konzeptuellen Fundierungen wieder auf. Diese Formen von Aktionen oder Performances geschehen zu einem bestimmten Zeitpunkt oder in einer festgesetzten Zeitspanne und sind flüchtig. Das Vergängliche ist somit sozusagen bereits in das Kunstwerk ›eingebaut‹. Deswegen kann man den Projekten nicht vorwerfen, dass sie nur temporär, kaum abzuspeichern oder archivierbar sind. Diese Projekte hinterfragen damit völlig den traditionellen Modus des Kunstbetriebes, der auf Musealisierung, Archivierung und Präservierung angelegt ist. Auch der herkömmliche Sammelbetrieb wird dadurch kritisiert. In der deutschsprachigen Netzliteratur sticht, was Konzeptkunst betrifft, insbesondere das Werk von Johannes Auer34 hervor. Bereits als Mitglied der Künstlergruppe »DAS DEUTSCHE HANDWERK«35 hatte er seit Beginn der 1990er Jahre offline vor allem Installationen produziert und sich dabei zumeist auf Marcel Duchamp bezogen. Diese Experimente führte er im Netzmedium fort.36 Als einer der ersten Netzliteraten und Netztheoretiker produzierte Auer bereits seit 1996 Literaturprojekte im Internet und reflektierte seine Arbeit seitdem auch theoretisch. Aus dem Hin- und Her zwischen theoretischer Reflexion und praktischer Umsetzung entwickelte sich seine Poesie. In seiner Person verbinden sich Theoriearbeit und Kunstproduktion auf eine Weise, wie das für diese Kunstform offensichtlich notwendig ist, aber eben der komplexen Anforderungen wegen nur von wenigen so exerziert werden kann.37 Gegenwärtig kann er vermutlich als einer der drei, vier aktivsten und bekanntesten Vertreter der deutschen Netzliteraturszene gelten. Mit seiner Kunst38 und seiner theoretischen Arbeit39 knüpft Auer stark an die Arbeit der »Stuttgarter Schule« an (vgl. Döhl et al. 1998 ff.; Döhl/Auer 2004; Lutz 2004: 36-38). Die »Stuttgarter Schule« (oder auch »Stuttgarter Gruppe«) um Max Bense (vgl. Nünning 2004b) führte bereits in den 1960er Jahren literarische Experimente durch, die auf eine Verbindung von Literatur und Computer zielten. Bekannt geworden sind etwa die »stochastischen Texte«, die Theo Lutz programmiert hatte, und an die Auer ab 2005 auch produktiv anknüpfte. In diesem Projekt waren die grammatischen Strukturen vorgegeben, die einzelnen Worte wurden jedoch durch den Zufall bestimmt. 34 Zu Johannes Auer selbst vgl. Fröde et al. 2004a. Vgl. zudem Auer 2003 ff. 35 Zur Poetologie und zu den Werken der Künstlergruppe vgl. auch DAS DEUTSCHE HANDWERK 1998. 36 Das Projekt »Fabrikverkauf« seines Alter Egos Frieder Rusmann aus dem Jahr 1999 stand programmatisch für diesen Übergang, indem es sich explizit gegen die traditionelle Kunst stellte, selbst Hypermedia- und Installationskunst war. 37 Gleiches gilt für den bereits erwähnten Florian Cramer, aber auch für Reinhard Döhl, Heiko Idensen und Beat Suter. 38 Auswahl jüngerer Webprojekte von Johannes Auer: »concrete_maschine« (2003), »The Famous Sound of Absolute Wreaders« (2003), »Free Lutz!« (2005), »Search Lutz!« (2006), »searchSongs« (2007, zusammen mit René Bauer und Beat Suter). 39 Auswahl der wichtigsten Publikationen von Johannes Auer: Auer 2000; Auer et al. 2002 ff.; Auer 2004b; Auer 2008. Wichtigste kuratierte Veranstaltungen und Projekte: Literaturfestival »Literatur und Strom: Code – Interface – Concept« mit dem Netzliteraturwettbewerb »1. Junggesellenpreis für Netzliteratur« (2005), Radioreihe ».ran : real audio netliterature« (2004-2005), Literaturfestival »Literatur und Strom 2: Netzgeschichten« (2008).
DER AUTOR IN DER NETZLITERATUR | 291
In gewisser Weise kann Johannes Auer damit als Nachfolger der »Stuttgarter Schule« gelten. Eine personelle Kontinuität ergibt sich zudem aus seiner langjährigen Zusammenarbeit mit Reinhard Döhl, selbst einem Mitglied der »Stuttgarter Schule«.40 Diese Kooperation währte vom Beginn der deutschsprachigen Netzliteratur im Jahr 1996 bis zu Döhls Tod im Jahr 2004. Bis Ende der 1990er Jahre konzentrierte sich Auers künstlerische Arbeit vor allem auf traditionelle Hypertext- und Hypermediaprojekte. Die letzten Jahre brachten eine (Rück-)Verlagerung hin zur stärker performativen und konzeptuellen Kunst, wobei Auer die Verbindung von Konzept, Algorithmus und Handlungsanweisung künstlerisch nutzt. Außerdem bezieht er andere Medien – wie insbesondere das Radio – in die Netzliteratur ein. Diese Entwicklung wird bestärkt durch die Wahrnehmung von Auers Kunst auch außerhalb der Netzliteraturkreise, z. B. durch die Netzmusik-Szene (vgl. dazu Breitsameter et al. 2006b: 14). Somit scheint es nur logisch, dass seine künstlerische Arbeit aus den Jahren 2005 und 2006 in einer Performance kulminierte, die auf einem Radiokunstfestival aufgeführt wurde: »Search Lutz!«. Mit dieser Ausdehnung der Netzliteratur auch auf Themen und Charakteristika der Netzkunst oder der Musik stellt sich aber vorab eine zentrale Frage: Kann netzliterarische Konzeptkunst im Allgemeinen und »Search Lutz« im Besonderen noch zulässig als Netzliteratur angesehen werden oder liegt hier ein Paradigmenwechsel hin zur Netzkunst vor, der im Rahmen der vorliegenden Untersuchung zu vernachlässigen wäre? Erstens kann diese Zuordnung mit dem in der vorliegenden Analyse vertretenen, erweiterten Literaturbegriff der ELT begründet werden. Der Literaturbegriff wird über den Text hinausgehend auch auf andere Medien erweitert. Netzliteratur beschränkt sich damit nicht nur auf textliche Ausgabemöglichkeiten, sondern bezieht auch weitere medialen Präsentationsformen mit ein. Somit aber wachsen die Medien im Internet zusammen und überschreiten die traditionell vorherrschenden Grenzen, was als besonders typisch für das Netzdispositiv und auch die Netzliteratur angesehen werden kann. Konkret auf »Search Lutz!« bezogen, stellt der Text sogar immer noch das dominante Medium im Projekt dar. Zweitens greift auch die Verbindung von Radio und Literatur in Auers Arbeit einen traditionellen Zusammenhang aus der (Print-)Literatur auf. Der Hörfunk war stets sowohl ein Experimentierfeld für literarische Autoren als auch ein Förderer der Literatur, indem Literaten als Hörfunk-Autoren tätig waren. Damit gingen aber literarische Experimente im Radio stets mit dem Broterwerb von Schriftstellern Hand in Hand (vgl. die Beiträge in Hucklenbroich/Viehoff 2002). Diese ästhetisch interessante Beziehung führen Auers netzliterarische Arbeiten produktiv fort; gleichzeitig weist er in seinen jüngeren theoretischen Arbeiten nach, dass die Verbindung zwischen Literatur und Radio eine wichtige, jüngere Entwicklung in der Netzliteratur darstellt (vgl. einführend Auer 2008; vgl. ausführlicher Auer 2007). Drittens verarbeitet netzliterarische Konzeptkunst weiterhin Themen der Netzliteratur, sie kann dies teilweise sogar eindringlicher und poetischer realisieren, als es die ›klassischen‹ Formen leisten könnten. So wird die Einbeziehung des Rezipienten im Rahmen einer Performance sehr viel einfacher 40 Beleg für diese personelle Kontinuität ist etwa der umfangreiche Internetreader »Als Stuttgart Schule machte«, den Johannes Auer zusammen mit Reinhard Döhl herausgab und seit 2005 gemeinsam mit Friedrich W. Block editiert, vgl. Döhl et al. 1998 ff.
292 | DER DIGITALE AUTOR
möglich, er kann besser für eine kollaborative Mitwirkung aktiviert und durch das ›setting‹ rezeptiv tiefer in das Werk involviert werden. »Search Lutz!« griff mit der literarischen Verarbeitung von Suchmaschinen ein Thema auf, das in den jüngeren Netzliteraturprojekten sehr intensiv verhandelt wird. Zudem bildete die Art und Weise, wie die Teilnehmer an der Performance literarisch produktiv sein konnten, einen traditionellen Mechanismus aus kollaborativen Projekten nach. Nicht zuletzt stellt die netzliterarische Konzeptkunst eine wichtige poetische Richtung dar, in die sich ein nicht unwesentlicher Teil der netzliterarischen Szene bewegt. Aus diesen Gründen ist es zulässig, das Konzeptuelle auch als Teil der Netzliteratur zu analysieren und damit die Bedeutung von Konzept und Handlungsanweisung für die netzliterarische Autorschaft zu reflektieren.
8.4.1 »Search Lutz!«: Genese »Search Lutz!« wurde erstmalig am 30. September 2006 im Rahmen des Radiofestivals »RadioREVOLTEN« (vgl. Breitsameter et al. 2006a) in Halle (Saale) inszeniert und über das ortsansässige, nichtkommerzielle Lokalradio »Corax« gesendet. Das Projekt konnte bei seiner Erstaufführung auf eine bereits umfangreiche Vorgeschichte zurückblicken. Da sowohl die weniger komplexen Vorläufer als auch das Projekt selbst konzeptionsgemäß nicht mehr vollständig zugänglich sind, gilt es zunächst, seine Genese bis hin zur Premiere genau zu rekonstruieren.41 Abbildung 23: Johannes Auer: »Search Lutz« (2006). Genese des Projektes 2005
»Theo Lutz: Stochastische Texte (1959)«, Nachprogrammierung des Algorithmus’ von Theo Lutz.
09.11.11.11.2005
»Free Lutz!«, Installation im Rahmen des Netzliteraturfestivals »Literatur und Strom. Code – Interface – Concept«. Nur Eingabe von Lexemen möglich, keine Sprecher-Performance, kein Radio-Broadcast.
08.12.2005
»Free Lutz!«, Performance und Live-Sendung, mit Peter Gorges und Ana Jur, Städtische Galerie Wroclaw, Polen. Einbeziehung des Publikums, Sprecher-Performance, Radio-Broadcast, zweisprachig.
12.05.2006
»Free Lutz!«, Performance, mit Christiane Mascheajechi, Kunsthalle Fridericianum, Kassel. Einbeziehung von Publikum, Einbeziehung der Live-Suche in Vorform, Sprecher-Performance, kein Radio-Broadcast.
30.09.2006
Premiere »Search Lutz!«, Performance und Live-Sendung, mit Peter Gorges, Festival »RadioREVOLTEN«, Halle. Einbeziehung des Publikums, Einbeziehung der Live-Suche, Sprecher-Performance, Radio-Broadcast.
Quelle: Auer 2003 ff 41 Nach seiner Premiere wurde das Projekt, ebenso wie sein Vorläufer, noch mehrmals aufgeführt, zum Teil in anderen Sprachen. Zu Details vgl. die Webseite von Johannes Auer, Kategorie »web acts«.
DER AUTOR IN DER NETZLITERATUR | 293
Nach seinen Hypermedia-Experimenten hatte sich Johannes Auer spätestens im Jahr 2003 deutlich dem Radio als Produktions- und Distributionskanal für Netzliteratur zugewandt. Zunächst kuratierte er die beiden Radioprojekte »The Famous Sound of Absolute Wreaders« (2003) und ».ran : real audio netliterature« (2004-2005). Mit »Free Lutz!« sowie dem Nachfolger »Search Lutz!« gerannen die damit verbundenen künstlerischen Überlegungen in komplexen Projekten, die algorithmische und performative Kunst miteinander verbanden. Er suchte dabei den direkten Bezug zwischen Radio/Hörspiel und Computer/Internet, wie er bereits von der »Stuttgarter Schule« in den 1960er Jahren künstlerisch nutzbar gemacht wurde (vgl. dazu Lutz 2004: 3638). Johannes Auer bezog sich damit auf einen bereits historischen Algorithmus aus der Frühzeit der computergenerierten Literatur. Theo Lutz hatte bei seinen »Stochastischen Texten« aus dem Jahr 1959 Lexeme aus Franz Kafkas »Schloss« aufgerufen. Diese wurden nach einem bestimmten Schema in einfachen Elementarsätzen verwendet und ausgegeben. Erläutert hatte Lutz diesen Algorithmus in dem gleichnamigen Artikel (vgl. Lutz 1959). Dabei hatte er nicht nur den Algorithmus diskutiert, sondern auch einen korrigierten Abdruck der Computer-Textausgabe beigefügt (vgl. Büscher et al. 2004: 169). Auers Adaption der »Stochastischen Texte« von Theo Lutz knüpfte damit bereits inhaltlich an die »Stuttgarter Schule« an.42 2005 baute er dieses Projekt zunächst als Nachprogrammierung43 von Theo Lutz’ originalem Algorithmus auf. Das Programm mit dem Namen »Theo Lutz: Stochastische Texte (1959)« lief als serverseitige PHP-Anwendung und war von vornherein für das WWW konzipiert. Es nahm 16 Substantive mitsamt deren Geschlecht sowie 16 Adjektive entgegen und konnte daraus einmalig jeweils 50-zeilige Textpassagen entsprechend von Lutz’ originalem Algorithmus erzeugen. Vorbelegt waren die Eingabefelder durch die Lexeme des originalen Projektes, wodurch die Generierung zufallsbasierter Texte nach dem Muster von Lutz ermöglicht wurde. In einer deutlich erweiterten Fassung stellte Johannes Auer das Projekt im Rahmenprogramm des von ihm kuratierten Literaturfestivals »Literatur und Strom. Code – Interface – Concept« (November 2005) aus. Der modifizierte Titel »Free Lutz!« unterstrich bereits den Anspruch an ein selbst geschöpftes Werk, das sich von den Wurzeln des Originals deutlich entfernt hatte. Diese Version generierte im Unterschied zur Nachprogrammierung fortlaufend Texte, in die während der Ausführung eingegriffen werden konnte. Damit war der Algorithmus um eine Möglichkeit für die Nutzer bereichert, selbst Texte eingeben zu können. Fortwährend bauten sich Textzeilen auf, die aufgrund der originalen Lexeme von Lutz generiert wurden. Auf dem Bildschirm war währenddessen ständig eine Eingabemaske sichtbar, in die ein Substantiv samt dessen Geschlecht sowie ein Adjektiv eingegeben wer42 Ein interessantes Detail ist, dass Max Bense als bekanntestes Mitglied der »Stuttgarter Schule« die Anregung zu den »Stochastischen Texten« gegeben hatte. Auch auf dieser Ebene stellte die Arbeit Auers eine Kontinuität dar. 43 Die Nachprogrammierung von Johannes Auer firmierte unter dem Titel »Theo Lutz: Stochastische Texte (1959)«. In dem bereits erwähnten Internetreader »Als Stuttgart Schule machte« war Lutz’ Grundlagentext »Stochastische Texte« bereits einige Jahre zuvor wieder veröffentlicht worden, vgl. Lutz o. J. [1959]. Auf diese elektronische Ausgabe wird im Folgenden Bezug genommen. Im Internetreader findet sich weiteres Material zur »Stuttgarter Schule« selbst und zu deren Nachfolge.
294 | DER DIGITALE AUTOR
den konnten. Sobald diese Daten abgeschickt wurden, nahm das Programm die neuen Lexeme sofort in seinen Datenbestand auf und generierte von nun an Texte auch unter Berücksichtigung der neuen Begriffe. Mittels einer »Reset«-Funktion konnte das Programm auf den originalen Lexem-Bestand (von Theo Lutz) zurückgesetzt werden. Einen Monat später wurde das Projekt »Free Lutz!« in einer wiederum deutlich komplexeren Fassung als Performance beim binationalen Radioprojekt »Radio_Copernicus« in der Städtischen Galerie Wroclaw (Polen) aufgeführt. Es blieb die Möglichkeit für die Leser, selbst den Text modifizieren zu können. Neu war, dass das Projekt als temporär begrenzte Veranstaltung vor einem anwesenden und einem Radiopublikum stattfand. Der generierte Text wurde live von zwei Sprechern in zwei Sprachen performt44. Die ersten 25 Minuten fanden in deutscher, die zweiten 25 Minuten in polnischer Sprache statt, womit ein Beitrag zur kulturell übergreifenden Kunstproduktion geleistet wurde. Dabei blieb die zweisprachige Ausrichtung ein singuläres Spezifikum der Wroclawer Aufführung, die sich aus dem Konzept von »Radio_ Copernicus« heraus erklärte und nicht wieder aufgegriffen wurde. Eine modifizierte Aufführung von »Free Lutz!« ohne Radio-Broadcast, aber bereits probehalber unter Einbeziehung der Suchmaschine »Fireball« wurde im Mai 2006 in der Kunsthalle Fridericianum, Kassel aufgeführt. Für das Nachfolgeprojekt »Search Lutz!« wurde die Programmierung endgültig um die Möglichkeit der Suchmaschinenabfrage ergänzt. Dies dehnte aber die Konzeption der Performance zu einer potentiell globalen Kollaboration aus: »Suchmaschinen sind das populärste Werkzeug des Internets. Mit tausenden von Wörtern wird in jeder Sekunde nach Antworten gesucht. Dieser Wortstrom ist quasi Ausdruck des rohen, ungefilterten kollektiven Begehrens der Menschen im Netz.« (Auer 2006b: 41) Diese ausführliche Schilderung der Genese sollte verdeutlichen, dass in einem Performance-Projekt die Autorenrolle nach und nach an Differenzierung gewinnen kann. Dabei wurde aber auch offensichtlich, wie ein Künstler seine Konzeption im künstlerischen Experiment, im Wechselspiel zwischen Aufführung und Reflexion, immer komplexer und hintergründiger gestalten kann: »Es entsteht ein höchst komplexes Geflecht der sprachlichen Interaktion zwischen Mensch, Maschine (Programmierung) und Netzkommunikation, zwischen zufälliger Textentstehung, literarischer Absicht, bewusster Manipulation und dem Wortstrom der ›Livesuche‹.« (Ebd.: 41)
8.4.2 Ablauf Die Premiere von »Search Lutz!« war als Abendveranstaltung in das Programm des Radiokunstfestivals »RadioREVOLTEN« eingebettet, das vom 20. September bis 21. Oktober 2006 in Halle (Saale) stattfand.45 Das Festival verstand sich selbst als subkulturell und experimentell ausgerichtet: 44 Das Verb »performen« bezeichnet die kunstvolle Darbietung einer Aktion oder Performance durch einen Künstler, hier im Speziellen die Darbietung eines experimentellen Textes durch einen Sprechkünstler. Damit umfasst der Begriff mehr das Verb »vortragen« und bezieht die künstlerische Qualität des Sprechaktes mit ein. 45 Für nähere Informationen vgl. auch die Dokumentation auf der Webseite des Festivals »RadioREVOLTEN«.
DER AUTOR IN DER NETZLITERATUR | 295 »RadioREVOLTEN präsentiert Installationen, Performances und On Air-Projekte als Modelle im sozialen Raum experimentierender Radio-Kulturen. Im Zentrum der künstlerischen Arbeiten steht die Zukunft des Mediums Radio. Ziel von RadioREVOLTEN ist es, Modelle einer künstlerischen (Neu-) Aneignung des Mediums Hörfunk zu entwickeln, im Rahmen der Ausstellung zu präsentieren und im Programm von Radio CORAX zu erproben.« (Selbstbeschreibung des Festivals auf seiner Webseite, Stand: 08.12.2008.)46
Deutlich war, dass ein experimentelles und sperriges Kunstprojekt wie »Search Lutz!« im Rahmen eines solchen Festivals ideal aufgehoben war oder vielmehr, ex negativo formuliert, nur hier tatsächlich Hörer erreichen konnte. Dies war von den Kuratoren des Festivals auch so antizipiert worden: »Dies ist ein gewagtes Verfahren. Weder Vokabular noch Aussagen sind gewiss. Dass sie genehm und sozialverträglich sind, ist nicht garantiert. Deshalb würde wohl ein öffentlich-rechtlicher Sender auf dieses Stück verzichten. ›Search Lutz!‹ hätte ohne ihre Produktion durch RadioREVOLTEN wohl nur eine geringe Chance, ihr Publikum zu finden.« (Breitsameter et al. 2006b: 14)
Der hallesche Ablauf der Performance47 gestaltete sich folgendermaßen: Bereits vor Beginn der Aktion lief der Algorithmus und generierte Texte, basierend auf den Vorgaben des Algorithmus und den extrahierten Begriffen aus der Suchmaschine. Vor die eigentliche Performance waren zwei umfangreiche inhaltliche Erläuterungen durch den Organisator des Festivals, Thomas Kupfer, und den Programmierer und Künstler Johannes Auer gesetzt. Daran wurde deutlich, dass sich bei dieser Kunstform das dahinter liegende Konzept keineswegs allein aus dem Werk selbst heraus erschließt. Scheinbar setzte gerade diese Form von Aktion ein besonders umfangreiches Wissen über das theoretische Konzept voraus, um die Performance adäquat zu verstehen. Es zeigte sich zudem, dass die Autorintention in hohem Maße wichtig für das Verstehen eines vergleichsweise ›sperrigen‹ Werkes war, das sich herkömmlichen Kategorien des Kunstverständnisses verweigerte (vgl. Livingston 2005). Schließlich war es nötig, das relativ komplizierte Procedere der Texterzeugung und des Mitschreibens zu erklären, um das Konzept tatsächlich erfüllen zu können. Auch dies bildete offenbar eine unabdingbare Voraussetzung für eine solche Kunstkonzeption und deren Gelingen. Nach den Erläuterungen startete Johannes Auer die Performance mit den Worten: »Und jetzt mag die Lesung beginnen.« Mit einer Handbewegung wurden die etwa 20 bis 30 Zuhörer im Raum dazu aufgefordert, sich an der Performance zu beteiligen, der Sprecher selbst begann mit dem Vortrag des bereits laufenden Textes. Nach dem Start der Performance griffen die Benutzer durch ihre Eingaben in den performten Text ein, konnten sofort das Er46 Die Selbstbeschreibung war auf dieser Seite nur in den Metatags des Quelltexts sichtbar, wurde aber in einer ähnlichen Form für Einträge in verschiedenen Web-Katalogen verwendet. 47 Diese Rekonstruktion basiert auf der Teilnahme des Autors an der Performance, einem unmittelbar danach angefertigten Audioprotokoll, dem auf der Projektseite veröffentlichten Audio-Mitschnitt der Performance sowie verschiedenen Konzeptionspapieren und Beschreibungen. Letztere sind nur teilweise publiziert, einige unveröffentlichte Entwürfe wurden freundlicherweise von Johannes Auer zur Verfügung gestellt.
296 | DER DIGITALE AUTOR
gebnis ihrer Eingabe am Bildschirm sehen und über die Lautsprecher hören. Johannes Auer als Programmierer des Algorithmus’ übernahm bis auf sein Eingangsstatement und den späteren Abschluss der Performance keine herausgehobenen Funktionen mehr. Von dem Publikum weitgehend unbemerkt, hatte Auer allein die Möglichkeit, schwer aussprechbare Wörter aus dem Begriffsreservoir zu löschen, um die Lesbarkeit für den Sprecher zu erhalten. Dieses Mittel wurde während der halleschen Performance in Einzelfällen auch genutzt (vgl. Hartling 2007b). Ansonsten beteiligte sich Auer als normaler Benutzer an der Produktion des Textes, indem er selbst Lexeme über seinen eigenen, etwas abseitig stehenden Computer beisteuerte. Die anwesenden Hörer und Teilnehmer an der Performance waren durch die Veranstaltungsatmosphäre und die sofortige Rückkopplung ihrer Eingaben scheinbar in besonders hohem Masse dazu motiviert mitzuschreiben. Sie sahen die anderen Personen schreiben und hörten, wie die eingegebenen Begriffe in der Performance umgewandelt wurden. Schnell konnte ein regelrechtes ›Gedränge‹ um die drei bereitgestellten Terminals beobachtet werden, die nun stets besetzt waren. Dies lag auch daran, dass die Distanz zwischen dem Publikum und dem Sprecher sowie zu den Computerterminals bewusst klein gehalten war. Damit waren die Anwesenden sofort angehalten, selbst Anteil an der Produktion des Kunstwerkes zu nehmen, ohne dass sie irgendwelche Schranken überwinden mussten. Zudem hatten die Zuhörer offensichtlich nach einiger Zeit des Mitschreibens schnell die Struktur des Algorithmus durchschaut. Sie verstanden seinen Modus der Textgenerierung und nutzten ihn spielerisch zur Erzeugung von Textfragmenten, die witzig oder programmatisch klangen. Dies reichte von Sprachwitzen (etwa Verballhornung radionaher Begriffe wie »ein Sendeschema ist anstrengend« [»Search Lutz!«, Zeitindex 18:33]) bis hin zu politischen Statements (etwa Bruchstücke von Slogans aus der alternativen Radiobewegung wie »Nicht jedes Radiorevoltenfestival ist standortnotwendig« [»Search Lutz!«, Zeitindex 18:15]). Der vom Skript generierte Text wurde vom Sprecher simultan performt, wobei die anwesenden Zuhörer nicht nur den gesprochenen Text wahrnehmen, sondern den Sprecher auch mimisch und gestisch ›in Aktion‹ erleben konnten. Die Performance wurde zudem über das Festivalradio gesendet und über einen Webserver gestreamt, sodass sowohl normale Radiohörer als auch Internetnutzer die Performance verfolgen und über das Webinterface darauf reagieren konnten. Zum Ende hin verließ Johannes Auer schließlich seine Rolle als Mitschreiber und übernahm wieder Autorfunktionen. Nach etwa 30 Minuten stoppte er die potentiell unendlich weiterlaufende Performance mit einer Handbewegung und erklärte somit das Werk für beendet.
8.4.3 Charakteristika Diese etwas ausführlichere Beschreibung des Projektes sollte bereits ansatzweise sowohl seine komplexe Struktur verdeutlichen als auch seine vielschichtige Verhandlung der Autorschaft. Im Folgenden werden fünf zentrale Aspekte der Performance näher diskutiert: 1. Performancecharakter: Vergänglichkeit und Dokumentation 2. Computergenerierte Kunst 3. Kollektives Schreiben im Netz als Input 4. Publikum und Live-Situation 5. Ausgabemedium Radio
DER AUTOR IN DER NETZLITERATUR | 297
Sie erlauben, sechstens, ausführlichere Rückschlüsse auf die ›dissoziierte‹ Autorschaft, die sich im Projekt kristallisiert.48
Performancecharakter: Vergänglichkeit und Dokumentation Installations- oder Konzeptkunst ist als Phänomen im Internet nicht selten. Zunehmend stellt sie auch eine breite Strömung in der Netzliteratur dar, die hier vorrangig betrachtet wird. Sie reflektiert unter anderem den temporären Charakter von onlinebasierter Kunst. Der Netzkunst wird gemeinhin stets ihre starke Vergänglichkeit vorgeworfen, denn jede Webseite bleibt durchschnittlich weniger als 100 Tage im Netz unter ihrer Originaladresse abrufbar. Danach zieht sie um oder wird komplett gelöscht.49 Projekte können zudem nicht mehr abspielbar sein, weil ihre Inhalte Plugins voraussetzen, die veraltet sind; oder sie sind nur für bestimmte, alte Browserversionen optimiert und funktionieren nicht mehr bei neueren Browsern. Schließlich kann Netzkunst sogar nur für eine bestimmte Hardwareplattform konzipiert worden sein und ist auf nachfolgenden Rechnermodellen nicht mehr lauffähig. Dadurch ›vergeht‹ die Kunst, irgendwann kann der Nutzer nicht mehr darauf zugreifen oder sie nicht mehr abspielen. Darüber hinaus existieren keine vernünftigen Vorstellungen darüber, wie digitale Kunst wirklich zulässig und strukturiert gesammelt und somit für die Nachwelt aufbewahrt werden kann.50 Damit wird der Netzkunst im Allgemeinen und auch der Netzliteratur im Besonderen immer wieder vorgeworfen, flüchtig zu sein und sich dieser Flüchtigkeit auch nicht richtig bewusst zu werden. Die netzbasierte Performance- oder Konzeptkunst dreht den Spieß allerdings um. In diesen Konzeptionen sind die Probleme von Archivierung und Musealisierung überhaupt nicht vorhanden, sondern explizit ausgeschlossen. Konzeptkünstler im Netz wenden sich gegen traditionelle Kunstkonzeptionen, die auf Dauerhaftigkeit angelegt sind. Sie führen darum zumeist das Beständige in ihrer Kunst gar nicht fort. Das Netz wird stattdessen als vergängliches Medium begriffen, in dem der Nutzer kaum darauf vertrauen kann, dass die Inhalte bestehen bleiben. Kunstwerke werden bewusst auf eine Vergänglichkeit hin konzipiert, sodass sie nur im Augenblick oder in der Zeit-
48 Zur Diskussion des Vorläufer-Projektes »Free Lutz!« vgl. auch Block/Torres 2007. 49 Für die durchschnittliche ›Lebensdauer‹ einer Webseite werden von den jüngeren Studien jeweils unterschiedliche Zahlen angegeben, da die schiere Menge von Webseiten ein kaum zu handhabendes methodisches Problem für die Erforschung darstellt. Die Zahl von 100 Tagen stellt aber so etwas wie eine Obergrenze dar. In einem Report für die britische Organisation UKOLN (früherer Titel: »United Kingdom Office for Library and Information Networking«) wurde ein Wert von 75 Tagen angegeben, vgl. Day 2003: 6-7. Das »UK Web Archiving Consortium«, welches u. a. aufgrund dieser Studie gegründet wurde, gibt sogar eine Zahl von nur 44 Tagen an (ohne eine Quelle zu nennen), vgl. UK Web Archiving Consortium o. J. [2004?]. Letzterer Wert wird im Internet sehr häufig wiederholt, teilweise mit Bezug auf das »UK Web Archiving Consortium«, teilweise ohne. 50 Zur Frage der Musealisierung und Archivierung vgl. die Forschungsarbeiten von Hans-Dieter Huber, vgl. Huber 1996 ff.; zu seinen jüngeren, einschlägigen Publikationen vgl. Huber 2001b; Huber 2003. Vgl. außerdem den einschlägigen internationalen Kongress »404 Object Not Found. Was bleibt von der Medienkunst?«, 19.-22. Juni 2003, Dortmund, vgl. Neuhaus 2003.
298 | DER DIGITALE AUTOR
spanne der Performance funktionieren. Das Temporäre und Flüchtige wird zum Thema der Kunst. Dieser vergängliche Charakter stellte den ersten maßgeblichen Aspekt von »Search Lutz!« dar. Das Projekt war Performancekunst par excellence, allein auf die 30 Minuten der Aufführung beschränkt und damit von vornherein flüchtig angelegt, als Moment von Kunst und als Moment von Teilhabe. Programmatisch verschwand die Performance nach ihrer Aufführung wieder. Sie lebte nur in dem Zeitraum, in dem sie Eingaben erwartete, diese prozessierte, die Algorithmus-Ausgabe performte und in dem die Performance über das Radio versendet wurde. Selbstverständlich war der Algorithmus bereits davor aktiv und funktionierte auch nach der Performance weiter. Er konnte kontinuierlich Eingaben der Nutzer entgegennehmen, Stichworte aus der Suchmaschine laden und neue Texte generieren. Allerdings blieb damit nur ein (relativ unbedeutender) Teil des Projektes aktiv, da all die performativen Elemente fehlten. Diese Vergänglichkeit der Netzperformance spielte virtuos mit der Flüchtigkeit des Netzes und darüber hinaus auch mit der Flüchtigkeit des Ausgabemediums Hörfunk. Nicht zuletzt war das Projekt ja eingebunden in ein Radiokunstfestival und wurde somit als Kunstprojekt vor allem auf das Radiomedium bezogen. Diese Verbindung kam allerdings nicht von ungefähr, denn zwischen Hörfunk und Internet lassen sich einige verblüffende Parallelen feststellen, wenn es um die Vergänglichkeit des Programms geht. Radio ist ebenso flüchtig, es ›versendet‹ sich, wenn es nicht aufgezeichnet und archiviert wird. Rückgriffe auf alte Sendungen sind zumeist nur über die Senderarchive möglich, wenn sie denn existieren. Ähnliches gilt für die Geschichte des Radiomediums, denn es existieren kaum Mitschnitte von den frühen Radiosendungen, häufig müssen schriftliche Programmkonzeptionen und Sendeprotokolle als Materialien genügen.51 Mittlerweile wird das Programm der großen Anstalten vor allem für den Eigengebrauch komplett archiviert, aber dies ist für kleinere Sender (z. B. freie Radios) kaum zu leisten. Die großen Audio-Datenmengen sind sehr unhandlich, zudem ist eine anständige Archivierung und Vorhaltung sehr kosten- und personalintensiv. Es mutet ironisch an, dass der vergängliche Charakter des Netzes einem Medium anhaftet, das für Dokumentation und Archivierung eigentlich sehr geeignet zu sein scheint. Alle Informationen werden automatisch digital erfasst und prozessiert. Damit sind aber digitale Sicherungen und Auslagerungen ebenso möglich wie die Spiegelung auf verschiedenen Servern. Es existieren bereits eine ganze Reihe von (oft privatwirtschaftlichen) Archivierungsplattformen52, die durch die großflächigen Archivierungen von Seiten der Nationalbibliotheken53 systematisch ergänzt werden sollen. Auch im privaten oder gewerblichen Einsatz werden Netzwerke und Computer zum Archivieren von Informationen eingesetzt, was zudem nach und nach traditionelle Dokumentationsverfahren ersetzt. Hinzu treten neue, nachhaltige Ver51 Ähnliches galt für das Fernsehen, bei dem anfangs aus technischen Gründen überhaupt kein Programm aufgezeichnet wurde, und man sich später mit Abfilmungen vom Fernsehbildschirm behalf. 52 Beispiel ist das gemeinnützige »Internet Archive«. 53 Auch die »Deutsche Nationalbibliothek« (bis 2006: »Die Deutsche Bibliothek«) hat seit dem Jahr 2006 einen gesetzlichen Sammelauftrag für Netzpublikationen. Seit Oktober 2008 ist eine entsprechende Ablieferungspflicht für Seitenbetreiber fesetzlich verankert, vgl. Krempl 2008.
DER AUTOR IN DER NETZLITERATUR | 299
fahren der Adressierung und damit der Identifizierung von Online-Inhalten.54 So muss die Ambivalenz zwischen Vergänglichkeit und Nachhaltigkeit als mediales Übergangsphänomen angesehen werden. Allerdings werden auch zukünftig bei aller technischen Exzellenz von Archivierung immer nur ausgewählte Daten bewahrt werden. Dadurch ist dem Dispositiv der massive Verlust von Informationen und somit des kulturellen Gutes inhärent.55 Dieses ›Vergessen‹ dient – durchaus positiv verstanden – als Filter, um kulturell relevante Informationen vom ›Datenmüll‹ zu trennen. Selektions- und Archivierungsinstanzen bilden wie in der Offline-Welt privat oder öffentlich finanzierte Bibliotheken. Diese entwickeln Methoden und Technologien der Archivierung digitaler Daten; zudem selektieren sie auf einen Kanon von bewahrenswertem Wissen hin.56 An Projekten wie»Search Lutz!« lässt sich das ambivalente Verhältnis von Vergänglichkeit und Archivierung in der netzbasierten Performancekunst exemplarisch nachvollziehen. Auf der einen Seite stellt das Einmalige und Temporäre einen ganz maßgeblichen Charakterzug der Poesie dar. Auf der anderen Seite bringt der geförderte Kunstbetrieb einen gewissen Zwang zur Dokumentation notwendigerweise mit sich. Als freier Künstler, der von den Früchten seiner Arbeit direkt oder indirekt leben will, musste dem Autor Johannes Auer trotzdem an einer Dokumentation der Performance gelegen sein. Auch die Initiatoren des Radiokunstfestivals hatten eine gewisse Nachweisverpflichtung, hier gegenüber den Förderern und Sponsoren des Radiokunstfestivals »RadioREVOLTEN« sowie für die eigene Öffentlichkeitsarbeit. Resultat war eine besonders intensive und damit auffällige Dokumentation der Performance selbst. Besonders raumgreifend – und damit beinahe Teil der Inszenierung – waren zwei Videoaufnahme-Teams, die die Veranstaltung jeweils aus verschiedenen Blickwinkeln dokumentierten, nämlich das Podium mit Sprecher, das auf die Wand projizierte Interface des Projektes sowie die anwesenden Teilnehmer. Zudem gab es eine fotografische Berichterstatterin, die offensichtlich ebenso wie die Videoteams für das Festival arbeitete. Auch der Künstler Johannes Auer ließ mit dem Zweck fotografieren, die Performance zumindest teilweise fotografisch für sein Archiv zu dokumentieren. 54 Ein gutes Beispiel für die Implementierung neuer Archivierungsmethoden für Online-Inhalte ist das System der »Uniform Resource Names« (URN), welches dauerhafte, ortsunabhängige Adressen für online gespeicherte Dokumente ermöglichen soll. Damit wird das normalerweise im World Wide Web übliche Adressierungsverfahren »Uniform Resource Locator« (URL) für wissenschaftliche Publikationen abgelöst. Eingesetzt wird es zunehmend für die Elektronische Publikation von Dissertationen oder Habilitationen. Die Deutsche Nationalbibliothek entwickelt und trägt das System in Deutschland, vgl. Korb/Roth 2008. 55 Diese Probleme der Archivierbarkeit gelten aber selbstverständlich auch für Offline-Speichermedien wie CD-ROM oder DVD-ROM. So sind etwa die ersten Musikalben auf CD-ROM, die Anfang der 80er Jahre erschienen, bereits vom Verfall bedroht. Als noch problematischer stufen Experten selbst hergestellte (›gebrannte‹) Datenträger ein, bei denen die Daten durch das Aufzeichnungsverfahren weitaus gefährdeter sind. Damit aber warnen die Archive auch bei den scheinbar materiell gesicherten Daten vor einem drohenden Kulturverlust und suchen Verfahren zur Langzeitarchivierung. Vgl. dazu näher Groth/Uhl 2007 und die dort angegebenen Verweise. 56 Zur Problematik der Archivierung von Netzkunst vgl. auch die Interviews in Fröde et al. 2005, Clips im Bereich »Antworten« | »Archivierung«.
300 | DER DIGITALE AUTOR
Schließlich schnitten die Organisatoren von »RadioREVOLTEN« zudem die gesendete Sprechperformance mit, sodass man das Ergebnis des Algorithmus auditiv nachverfolgen konnte.57 Nicht archiviert wurden dagegen der vom Algorithmus ausgegebene Text, die Texteingaben der Teilnehmer sowie die aus der Suchmaschine entnommenen Begriffe. Insoweit ist die Archivierung der Veranstaltung als unvollständig zu betrachten. Kann eine solche Performance aber wirklich archiviert werden, wenn sie sich konzeptuell so stark von dem Vergänglichen leiten lässt? Würde eine solche Archivierung jemals vollständig sein? Wie deutlich geworden ist, könnte ein solches Kunstwerk nur durch ein Zusammenspiel sehr verschiedener ›Mitschnitte‹ rekonstruiert werden: • Das Log oder eine Videoaufzeichnung sämtlicher Nutzereingaben und der aus der Live-Suche entnommenen Begriffe könnten die textliche Dynamik und die originalen Sinnzusammenhänge der Eingaben wiederherstellen. • Ergänzt würde diese Aufzeichnung durch ein Log aller vom Algorithmus produzierten Texte. Dieses enthielte im Gegensatz zum gesprochenen Text auch die Textpassagen, die vom Sprecher nicht vorgetragen wurden. • Der Audio-Mitschnitt würde mit der Sprechperformance das prägnanteste Ergebnis der Performance festhalten. Dieser Kanal wäre deshalb der wichtigste des Projektes, weil er von allen Teilnehmern an der Performance wahrgenommen werden konnte. • Der Bewegungsaspekt der Performance könnte durch den Video-Mitschnitt dokumentiert werden. Dieses Material würde zum einen den sinnlich erfahrbaren Ort der Veranstaltung umfassen, zum anderen aber auch die Dynamik des Mitschreibens festhalten. • Fotografien würden nahe Close-ups und Details festhalten, die in der Videoaufzeichnung nicht wahrnehmbar sind. Aber trotz dieser ›Flut‹ unterschiedlicher Daten kann die persönliche Teilnahme an der Performance, das körperliche Erleben, wohl kaum auch nur ansatzweise nachgebildet werden. Im Grunde genommen ist damit die Frage nach der Art einer Dokumentation wieder bei ihrer Unmöglichkeit angekommen. Scheinbar kann vor allem die Erinnerung an das eigene Erlebnis den legitimen Modus der Dokumentation darstellen. Das hoch selektive Gedächtnis aber scheint nicht der richtige Speicher zu sein und ein persönlicher Erfahrungsbericht kaum das richtige Medium. Somit ist am Ende die einzige Reproduzierbarkeit offenbar dadurch gegeben, dass die Performance erneut aufgeführt wird. Deshalb wurde »Free Lutz!« bzw. »Search Lutz!« auch mehrmals in unterschiedlichen Modifikationen und Erweiterungen veranstaltet.
Computergenerierte Kunst Den zweiten maßgeblichen Aspekt des Projektes bildete sein Charakter als computergenerierte Kunst. Theo Lutz hatte 1959 für den Vorläufer »Stochastische Texte« detaillierte Angaben zum dahinter stehenden Algorithmus vorgelegt und diese Beschreibung zusammen mit einem Probeausdruck publiziert (vgl. Lutz 1959; Lutz o. J. [1959]). Danach waren seine »Stochastischen Texte« zufallsbasierte Texte, die von der Großrechenanlage Zuse Z 22 produziert wurden. Dieses Projekt stand im Zusammenhang mit umfassende57 Der Mitschnitt wurde auf der Projektseite veröffentlicht.
DER AUTOR IN DER NETZLITERATUR | 301
ren literarischen Experimenten, die der Kreis um Max Bense im Stuttgart der 1960er Jahre mit Computern durchführte. In den Erläuterungen zu seiner Nachprogrammierung »Theo Lutz: Stochastische Texte (1959)« und zu »Search Lutz!« selbst stellte Johannes Auer aber heraus, dass die »Stochastischen Texte« keineswegs vollständig computergeneriert waren. Stattdessen hatte Theo Lutz vor der Veröffentlichung der Texte die originalen Ausdrucke grammatisch und typographisch überarbeitet. Dies wies Auer anhand des originalen Fernschreiber-Ausdruckes nach (vgl. Auer 2006a, Zeitindex 04:5605:30). Damit trat neben den ›Autor‹ Computer aber auch der Autor Theo Lutz, der resultierende Text war also mehr als einfach literarisch konnotiert.58 Streng genommen bildeten die »Stochastischen Texte« somit sogar das Produkt einer dreifachen Autorschaft. Neben den ›Dichter‹ Computerprogramm und den ›Herausgeber‹ Theo Lutz trat Franz Kafka als Autor des vom Projekt benutzten Wortschatzes. Diesen Algorithmus hatte Johannes Auer nachprogrammiert und wiederholt weiterentwickelt, um die mehrfache literarische Konnotation oder die komplexe Aufsplitterung der Autorschaft in die Textentstehung strukturell einzubauen. Analysiert man die verschiedenen Entwicklungsstufen des Projektes näher, so fällt auf, dass die initiale Nachprogrammierung sogar noch strengere Computerlyrik darstellte als der originale Algorithmus. In Auers erster Version war es möglich, Texte ohne den editorischen Eingriff von Theo Lutz generieren zu lassen. Diese Resultate wurden aber von Auer selbst als ästhetisch uninteressant eingestuft, weil das dahinter liegende Konzept schnell durchschaubar und damit abwechslungslos wurde (vgl. Auer 2005, Zeitindex 11:01-11:58). Deshalb entwickelte er insbesondere den Algorithmus der Textgenerierung deutlich weiter. Das Projekt »Theo Lutz: Stochastische Texte (1959)« steht damit auch beispielhaft für die Grenzen von computerbasierten Texten. Betrachtet man die Rolle des Autors, werden hier einige Parallelen zu den bereits diskutierten Codeworks deutlich. Der Programmierer Auer übernahm in Nachfolge von Theo Lutz nur einen Teil der Autorschaft, weil er den Algorithmus programmierte und die Regeln der Textgenese vorgab. Daran anschließend wurde der Computer selbst aktiv und arbeitete den Algorithmus entsprechend ab. Damit wurde also die Autorschaft nicht mehr vollständig vom Entwickler des Konzeptes ausgeübt. Stattdessen verlagerte sie sich hin zum ›digitalen Autor‹ Computer (und weiter noch zu den Mitschreibern, den Teilnehmern und dem Sprecher).
Kollektives Schreiben im Netz als Input Drittes Projektcharakteristikum stellte das kollektive Mitschreiben dar, was durchaus als Referenz an die bereits diskutierten kollaborativen Netzliteraturprojekte verstanden werden kann. Der Textbestand des Algorithmus wurde über die Projektwebseite während der gesamten Performance verändert. Dazu konnten die Nutzer mittels eines Formulars neue Lexeme entsprechend des 58 Diese Aufspaltung der Autorfunktion ist aber durchaus typisch für diese Art von Computerlyrik. So wurden und werden die Ausgaben von computergenerierten Texten sehr häufig vor deren Veröffentlichung editiert. Zumeist werden als ›literarisch‹ bewertbare Passagen ausgewählt und andere Abschnitte weggelassen, die als unverständlich oder ›nichtliterarisch‹ eingestuft werden. Ein menschlicher Autor agiert hier also als Herausgeber der Computertexte.
302 | DER DIGITALE AUTOR
Algorithmus’ von Lutz abschicken: ein Substantiv, das Geschlecht des Substantivs (weiblich, männlich, sächlich) und ein Adjektiv. Diese drei Daten wurden vom Skript zusätzlich regelmäßig in den Algorithmus eingespeist. Um dies zu realisieren, konnten einerseits die anwesenden Besucher bei der Performance an einem der drei vorhandenen Terminals mitschreiben. Andererseits beteiligten sich beliebige WWW-Nutzer, die die Performance am Radio oder mittels Internetstream verfolgten. Die menschliche Zuarbeit lief über ein einheitliches Online-Formular, unabhängig davon, von wo aus es aufgerufen wurde. Hinzu trat aber noch ein neues Element. Der Algorithmus wurde nicht nur aufgrund von Daten aktiv, die schon vorgegeben waren, oder Daten, die ihm im Veranstaltungsverlauf eingegeben wurden. Das Skript lud darüber hinaus Lexeme aus der Suchmaschine »Web.de« nach. Johannes Auer begründete dieses Vorgehen in seiner Einführung folgendermaßen: »Das eigentlich rohe, ungefilterte Schreiben im Internet sind ja nicht etwa die Emails oder Weblogs, sondern das eigentlich ungefilterte Schreiben, das kollektive Begehren des Menschen, die Sehnsuchtsmelodie des Netzes, das sind die Suchbegriffe und Phrasen, die in jeder Millisekunde zigfach in Suchmaschinen – in Google und Co – eingegeben werden.« (Auer 2006a, Zeitindex 06:40-07:00)
Konkret wurden dazu Ergebnisse der so genannten »Live-Suche« der Suchmaschine verwendet. Dabei handelt es sich um einen speziellen Service von Suchmaschinen, der die aktuell von anderen Benutzern eingegebenen Suchbegriffe anzeigt. Diese Übersichten sind üblicherweise durch einen Filter zensiert, um keine anstößigen Wörter oder Phrasen weiterzugeben, die dem Image der Suchmaschine schaden könnten. Damit können sie als geschöntes Abbild der aktuellen Suchinteressen von Suchmaschinennutzern bewertet werden. Die Häufigkeit, mit der Begriffe aus der Suchmaschine entnommen wurden, war einstellbar. Bei der halleschen Premiere wurden aller zehn Sekunden Begriffe aus »Web.de« geladen und bei der Generierung des Textes verwendet. Wenn Netzliteratur insbesondere auszeichnet, dass sie strukturell die Eigenschaften des Internets in der Literatur reflektiert, dann wird dieses zentrale Merkmal am Projekt von Auer besonders deutlich. Kaum etwas scheint für das WWW so charakteristisch zu sein wie die schiere Menge von verknüpften Daten und damit die Notwendigkeit, dieser Daten›flut‹ mittels geeigneter Mechanismen selektierend Herr zu werden. Damit ist aber die Bedeutung von Suchmaschinen angesprochen, denn Nutzer durchstöbern das Netz nach Informationen, indem sie sich der Suchmaschinen und Kataloge bedienen. Die Relevanz der gelieferten Suchergebnisse und damit der Zugriff zur Information selbst werden aber von den Maschinen anhand von nicht vollständig transparenten Relevanz- oder Gewichtungskriterien hergestellt (vgl. dazu ausführlicher Machill 2003). Diese medienethischen Fragen wurden von Auer ausgeblendet. In seiner Verarbeitung erschienen die aus der Suchmaschine gewonnenen Lexeme als zusätzliche, von der Realität der Performance unbeeindruckte Datenquelle.59 Im Verlauf der Veranstaltung selbst wurde das Netz – den Text mitwebend – aktiv. Dies führte zu teilweise kuriosen Ergeb59 Eine unterschiedliche farbliche Markierung trennte die Beiträge der Teilnehmer (grün) von denen aus der Suchmaschine (blau).
DER AUTOR IN DER NETZLITERATUR | 303
nissen, wenn die Eingaben der Teilnehmer oft verblüffend von den Lexemen aus den Suchmaschinen konterkariert wurden: »Ein AVM Wireless LAN USB-Stick ist beleidigt« (»Search Lutz!«, Zeitindex 11:24). Abbildung 24: Johannes Auer: »Search Lutz!« (2006). Bildschirmausgabe
Quelle: Screenshot der Bildschirmausgabe mit generiertem Text und Texteingabefeld, vom Autor Poetologisch interessant war jedoch, dass diese substantielle Erweiterung des Programms erst in »Search Lutz!« eingefügt wurde. Auers Vorarbeiten unter dem Titel »Free Lutz!« hatten das Thema Suchmaschinen noch weitgehend außer Acht gelassen.60 Diese Erweiterung könnte zum einen Indiz für die fortgesetzten Bemühungen des Programmierers Auer sein, die Projektkonzeption interessant und abwechslungsreich zu gestalten. Indem Lexeme aus der sich fortwährend in hoher Frequenz ändernden Live-Suche entnommen wurden, war die Performance nicht notwendigerweise auf die Mitarbeit der anwesenden Teilnehmer angewiesen, um zu funktionieren. Zum anderen führte die Erweiterung zu einer ironischen Brechung der vom Skript generierten Texte, auch das war konzeptionell interessant. Schließlich ist die Nutzung von und damit die Auseinandersetzung mit Suchmaschinen ein wichtiges Thema für die Netzkunst seit 2003. Zunehmend reflektieren Künstler analytisch und kritisch die gewachsene gesellschaftliche Bedeutung von Suchmaschinen und die medienethischen Konsequenzen dieser Entwicklung.61 Damit wurde von Auer aber eine gleichzeitig stattfindende intensive gesellschaftliche Debatte aufgegriffen und begleitet.
60 Eine Ausnahme bildete die letzte Aufführung von »Free Lutz!« in Kassel. 61 Beispiele für solche Projekte sind »apple in space« (2003-2004), »Mensch – Maschine :: Apple in Space :: Search the World« (2004), »streamfishing« (2004) und »Google Will Eat Itself« (2005). Auch Auer hatte 2005 bereits in einer kleinen Vorarbeit unter dem Titel »Google Snippet-Picture Ad(d)Sense« sowie in dem umfangreicheren »searchSongs« (2007) die Rolle von Suchmaschinen künstlerisch verarbeitet.
304 | DER DIGITALE AUTOR
Publikum und Live-Situation Als viertes maßgebliches Charakteristikum konnte die besondere Live-Situation der Performance angesehen werden und damit die Frage, wie sich das Kunstprojekt als Veranstaltung vollzog. Im Gegensatz zu den »Stochastischen Texten« von Theo Lutz bzw. deren Nachprogrammierung im Jahr 2005 war sowohl bei »Free Lutz!« als auch bei »Search Lutz!« von besonderer Wichtigkeit, dass die generierten Texte vor und mit dem Publikum aufgeführt (›performt‹) wurden. Netzliteratur der bisher diskutierten Genres ist vor allem durch eine ›autistische‹, vereinzelte Lektüre vor dem Computerbildschirm geprägt. Diese Einschätzung gilt auch für kollaborative Mitschreibprojekte, denn trotz des gemeinsamen Schreibens findet die Textrezeption und -produktion eben zumeist körperlich vereinzelt statt.62 Abbildung 25: Johannes Auer: »Search Lutz«! (2006). Sprecher Peter Gorges bei der Performance
Quelle: Foto vom Autor Performancekunst ist in dieser Hinsicht eher mit einer Theateraufführung zu vergleichen oder, viel besser noch, mit der Literaturrezeption der Vergangenheit. In Zeiten primär oraler Literatur (wie etwa der althochdeutschen Dichtung), aber auch zunehmend schriftlicher Literatur (wie beispielsweise der 62 Gemeinsame Arbeit an einem Text führt also noch nicht zu einer Veränderung der individualistischen Produktion oder Rezeption. Umgekehrt könnte sogar vermuten werden, dass der immer wieder beklagte Misserfolg von Mitschreibprojekten sogar ursächlich mit dieser Ambivalenz zusammenhängt. Dann wären Frustrationen über die gemeinsame Schreibarbeit zu einem Gutteil auch Frustrationen über den fehlenden persönlichen Austausch.
DER AUTOR IN DER NETZLITERATUR | 305
höfischen Dichtung des Mittelalters) wurden Texte konsequent deklamiert und dabei von einem Sprecher interpretiert.63 Die stumme Lektüre bildet aber eine vergleichsweise junge Rezeptionsart. »Search Lutz!« wurde sofort live vom Sprechkünstler Peter Gorges performt, also laut vorgetragen. Er formte durch die Art und Weise seiner Interpretation die ursprünglich eintönigen und ähnlich strukturierten Wortkolonnen zu einem sinnlich erlebbaren Vortrag um. Somit wandelte sich der Text durch je unterschiedliche Interpretationen und Betonungen zum Trauerspiel, zur Anklage, zum Freudengeheul, zum Wutausbruch usw. Darüber hinaus veränderte Gorges den Text mehrfach, sowohl inhaltlich, als auch kontextuell. Der Text erfuhr inhaltliche Kürzungen durch die Art und Weise der Anzeige und des Vortrages. So musste der Sprecher stets die letzten Passagen einer Textausgabe auslassen, wenn sich eine neue Seite aufbaute und der alte Text verschwand, bevor er alle Zeilen vortragen konnte. Folglich arbeitete er am Text mit, wenn er Textelemente nicht mehr rechtzeitig vortragen konnte oder indem er vorausschauend Passagen wegließ, um das schnelle Tempo des Textes mitverfolgen zu können. Zudem bauten sich Sprech-Fehler in den performten Text ein, etwa aufgrund von Verlesen, falsche Betonungen entgegen dem Sprachstandard oder dem Verschlucken von Endungen. Durch die sprachlichen sowie stilistischen Interpretationen wurde der Text also zur eigentlichen Sprech-Kunst und Peter Gorges zum Co-Autor des fertigen Klangwerkes. Zudem schuf er eine besondere Produktions- und Rezeptionssituation, die sich erheblich von den anderen netzliterarischen Genres unterschied. Mit seinem Vortrag verlieh der Sprecher dem Text bereits eine Vorab-Sinngebung, die die Rezeption der Teilnehmer vorstrukturierte. Das Aufbrechen der normalen ›autistischen‹ Lektüre bewirkte aber auch ein besonderes ›involvement‹ der Performanceteilnehmer; sie waren von Anfang an dazu angehalten, sich aktiv an der Textproduktion zu beteiligen. Während kollaborative Mitschreibprojekte meist daran kranken, dass die Beteiligung oftmals zu gering ist, führte die Veranstaltungsatmosphäre, wie erwähnt, zu einer besonders hohen Motivierung der Teilnehmer, am Text aktiv mitzuarbeiten. Sie sahen die anderen Besucher begeistert lachen, aufspringen und mitschreiben. Sie erlebten, wie das Geschriebene sofort verarbeitet und gesprochen wurde. Ungewollt komische Satzkonstruktionen oder merkwürdig hintergründige Reflexionen klangen für die Teilnehmer interessant und bewirkten sofortige ›Antworten‹. Mit zunehmender Dauer der Performance wurde offensichtlich, dass einige Teilnehmer die Regeln des Algorithmus’ durchschaut hatten. Sie verwendeten ihn manipulativ, indem sie Lexeme eingaben, die zu ironischen politischen Statements oder komischen Kommentaren führten. Dies aber ermunterte wiederum andere Teilnehmer ebenfalls zum manipulativen ›Hacken‹ des Algorithmus’. Die Live-Situation der Performance führte somit nicht nur zu einer besonderen Inszenierung, die eher einer Sprechkunstaufführung im Theater ähnelte als einer Lesung. Sie beförderte schlussendlich für die Dauer ihres Verlaufs eine intensive, kollaborative Textproduktion, die durch nachhaltige, reflexive Verstärkungsprozesse hervorgebracht wurde.
63 Zu den Bedingungen, Strukturen und Traditionen des mittelalterlichen Literaturbetriebes vgl. Bumke 2002, insbesondere das 7. Kapitel »Der Literaturbetrieb der höfischen Zeit«: 595-783.
306 | DER DIGITALE AUTOR
Ausgabemedium Radio Johannes Auer hatte sich, wie erwähnt, spätestens im Jahr 2003 dem Radio als Produktions- und Distributionskanal für Netzliteratur zugewandt.64 Dies hing sicherlich zunächst einmal zusammen mit der Sendereihe ».ran : real audio netliterature«, die er in diesem Jahr für das »ORF Kunstradio« kuratierte. In dieser wurden verschiedene Genres von Netzliteratur exemplarisch für das Radio adaptiert und somit in einem neuen Medienzusammenhang vorgeführt. Zum zweiten war diese Entwicklung damit verbunden, dass sich Auers kreatives Interesse von der reinen Netzliteratur hin zur Netzliteratur im Radio wandelte. Beleg dieser Entwicklung war das bereits erwähnte kollaborative Projekt »The Famous Sound of Absolute Wreaders« (2003), bei dem Texte von sechs bekannten Netzautoren gelesen, verändert, adaptiert und vorgetragen wurden. Dieses Projekt mündete ebenfalls in einer Radiosendung, die explizit als Live-Performance konzipiert war und auf ein größeres Publikum zielte. Damit war zudem ein Prozess verbunden, der von den gängigen Experimenten mit den interaktiven Möglichkeiten des WWW wegführte und sich den interaktiven Möglichkeiten des Radios zuwandte. Auer bezog sich dabei auf Radiotheorien wie etwa von Bertolt Brecht (vgl. Brecht 2004 [1932]). Schließlich spielte Johannes Auer drittens wiederum auf Vorarbeiten der »Stuttgarter Schule« an, die neben den Experimenten mit computergenerierter Literatur auch das Radiomedium erforscht hatte. Dieses »direkte Nebeneinander von Radio/Hörspiel und Computer« konnte von Auer noch nicht als direkt aufeinander bezogen nachgewiesen werden. Allerdings, so stellte er heraus, »aktualisierte sich [das Nebeneinander, F. H.] jedoch ab 1996 erneut für die Netzliteratur über Reinhard Döhl« (Auer 2004a). Die jüngere Arbeit von Johannes Auer steht somit also auch für ein Verschmelzen der beiden Dispositive Radio und Internet. Damit ist das fünfte bedeutsame poetische Mittel von »Search Lutz!« angesprochen. Die Performance vollzog sich nicht nur im Netz bzw. am Computerbildschirm und in einer Live-Situation. Sie wurde zudem gleichzeitig über das Lokalradio »Corax« gesendet. Damit knüpfte das Projekt an eine frühe Tradition in der Netzmusik an, die versuchte, einige grundsätzliche Probleme der Distribution zu lösen. Diese Probleme betrafen vor allem Soundqualität und Datenmenge. Das Internet eignete sich zwar sehr gut, um verschiedene Musiker oder Nutzer zu vernetzen und gemeinsame Musikproduktionen durchzuführen. Allerdings funktionierte diese Zusammenarbeit nur so lange reibungslos, wie reine Steuerdaten ausgetauscht wurden. Sobald es an die Verteilung der fertigen Kompositionen ging, musste das Internet der 1990er Jahre passen. Fertige Stücke konnten nur in komprimierter Form über das Netz geschickt werden, was zu einer drastischen Verschlechterung der Soundqualität führte. Trotzdem benötigten die Dateien weiterhin eine große Bandbreite, um übertragen zu werden. Auf der Senderseite setzten die hohen Kosten für den Datenverkehr (›Traffic‹) eine finanzielle Grenze, gerade bei Projekten, die ohne größere finanzielle Unterstützung auskommen mussten. Je mehr Daten ein Projekt erzeugte und zum Download bereithielt, je öfter Benutzer diese Daten herunter luden, desto schneller erhöhten sich die laufenden Mietkosten für den Webserver. Zudem waren nur spezielle Webserver bzw. Server-An64 Vgl. dazu auch Auers Dokumentation zu »Netzliteratur und Radio«, vgl. Auer 2007, sowie eine Einführung in seine diesbezügliche Poetik, vgl. Auer 2008.
DER AUTOR IN DER NETZLITERATUR | 307
wendungen dazu geeignet, eine große Nachfrage nach umfangreichen Dateien zu erfüllen. Diese zogen höhere Betriebs- und Wartungskosten nach sich, konnten demnach kaum für Kunstprojekte eingesetzt werden. Auf der Empfängerseite bildete die geringe Verbreitung von Breitbandanschlüssen (DSL) eine kaum zu überwindende Hürde. Audiodateien waren trotz der Komprimierungsverfahren so groß, dass sie über die damals gängigen Analog- oder ISDN-Anschlüssen kaum in akzeptabler Zeit herunterzuladen waren. Dazu trat bei den verbreiteten Zeit-Tarifen wiederum eine finanzielle Hürde. Eine Übertragung mittels eines Radiosenders konnte aber die Distributionsprobleme (Soundqualität und Datenmenge) auf beiden Seiten elegant lösen. Über das Radio konnte beinahe die volle Soundqualität der originalen Musikkomposition versendet und empfangen werden, qualitätsvermindernde Kompressionen entfielen. Zudem konnte man erwarten, dass die Radioempfänger (über Stereoanlagen oder komplexe Audiosysteme) durchschnittlich eine bessere Audioqualität wiedergeben konnten als das am Computer möglich war. Die Senderseite ermöglichte die Ausstrahlung der qualitativ hochwertigen Audiodaten an eine beliebige Anzahl von Adressaten, begrenzt allein durch die grundsätzliche Empfangbarkeit des Programms. Radioempfangsgeräte waren aber technisch höchst unaufwendig und in den Haushalten weit verbreitet, sodass potentiell jeder Nutzer, der im Bereich der Ausstrahlung lag, die Sendung auch empfangen konnte. Ein technisch interessantes Beispiel für die Lösung dieser Distributionsprobleme war das Projekt »INTEGER« (Abkürzung für »INTErnetGEneratedRadio«) von Michael Iber aus dem Jahr 2001.65 Bei »INTEGER« fungierte – kurz gesagt – eine Webseite als »Fernbedienung« einer Musikkomposition, die über eine komplexe Hardware- und Algorithmusstruktur generiert wurde. Dabei war die 22-minütige Musikkomposition nicht darauf auslegt, dass die Nutzer tatsächlich miteinander ›musizierten‹. Stattdessen wurde über mehrheitsbasierte Entscheidungsprozesse der Fortgang der Komposition bestimmt. Das Internet transportierte hier also nur die Klickentscheidung der Nutzer hin zum Webserver. Aus den oben bereits diskutierten Gründen (Qualität der Sendung, Mangel an geeigneter Serverhardware, Menge der Zuhörer) wurde die Komposition »INTEGER« auf dem Radiosender »SWR2« gesendet. Dies aber ermöglichte für jeden Mitmusizierenden eine unmittelbare Kontrolle der eigenen Klickentscheidung in Verbindung mit denen der Mitmusizierenden. Eine ähnliche Anordnung machte sich Johannes Auer in seinem Projekt »Search Lutz!« zunutze, auch wenn technisch das Internet fünf Jahre nach »INTEGER« sehr wohl in der Lage war, komplette Radiosendungen zu streamen. Damit war das diskutierte Distributionsproblem also nicht mehr im selben Ausmaß gegeben wie bei früheren Audioprojekten. Weiterhin bestehen blieb allerdings das Qualitätsproblem der Internetsendung, darüber hinaus war in einem Radiokunstfestival die Nutzung des Radios selbstverständlich 65 Uraufführung am 23.01.2001 um 20:30 Uhr im Abendkonzert auf »SWR2«. Eine ausführlichere Diskussion des Projektes findet sich in seiner Beschreibung auf der Projektwebsite. Mitschnitte oder Dokumentationen des Projektes selbst sind nicht veröffentlicht. Zur Diskussion von »INTEGER« vgl. auch Föllmer 2005: 116-117. Für eine ausführliche Erläuterung des Projektes durch den Künstler Michael Iber selbst vgl. ein Interview, das er mit Golo Föllmer im Rahmen von dessen Dissertationsprojekt geführt hat, vgl. Föllmer 2002b: 324326; auch im Netz zugänglich, vgl. Föllmer 2002a. Vgl. Fröde et al. 2004d.
308 | DER DIGITALE AUTOR
programmatisch vorgegeben. Johannes Auer nutzte also die Tatsache, dass prinzipiell jeder Haushalt über eine oder mehrere Möglichkeiten des Radioempfangs verfügte. Damit traten keine technische Hürden auf, die der Performance im Wege standen. Eine (eingeschränkte) Teilnahme an dem Projekt war somit potentiell für jeden möglich. Internetnutzer konnten auch abseits des Veranstaltungsortes die Radiosendung über Radio oder Internetstream verfolgen und ihre eigenen Lexeme mittels des Webinterfaces beisteuern. Allerdings ging bei diesem Rezeptionsmodus die bereits diskutierte LiveCharakteristik des Projektes komplett verloren. Die Performance musste sperrig und ästhetisch schwierig wirken. Konsequenterweise zeigte sich in ihrem Verlauf, dass die Beteiligung von ›außerhalb‹ nur äußerst gering war.66 Ob dies an der nur reduzierten Version der Performance lag, die über das Radio gesendet wurde oder an der ohnehin geringen (lokalen) Reichweite des Senders, konnte nicht eingeschätzt werden. Es wurde allerdings eine Ambivalenz des Radioanteils deutlich. Obwohl die Radioverbreitung die technischen Hürden für die Hörer und potentiellen Mitschreiber niedrig hielt, war der Kreis von Hörern eines programmatisch alternativen freien Radios zu klein für eine wirklich große Beteiligung am Projekt.67 Diese Ambivalenz hatte sich bereits in der Ankündigung der Kuratoren niedergeschlagen. Wie bereits oben diskutiert, hatten sie herausgestellt, dass »Search Lutz!« nur im Rahmen eines Festivals wie »RadioREVOLTEN« sein Publikum finden könne: Ein »öffentlich-rechtlicher Sender [würde wohl, F. H.] auf dieses Stück verzichten« (Breitsameter et al. 2006b: 14). Damit wurde deutlich, dass das Projekt »Search Lutz!« tatsächlich nur als Performance an seinem Veranstaltungsort funktionieren konnte. Wie aber kann »Search Lutz!« in Bezug auf die radiomedialen Vorarbeiten von Johannes Auer eingeschätzt werden? Zunächst einmal stand das Projekt für eine kontinuierliche Fortführung einiger Hauptthesen von Auer, wobei die wichtigste vermutlich lautete, dass bei allem Neuen auf das Alte nicht verzichtet werden kann – oder vielmehr das alte Medium Probleme des neuen produktiv zu lösen imstande ist. Ästhetische Spannung erwuchs insbesondere aus der Verbindung der beiden scheinbar konträren Medien, die bei näherem Hinsehen doch verblüffende Gemeinsamkeiten offenbarten. Somit liegt die Zukunft des Radios nicht allein nur im Internet, es liegt auch in sich selbst 66 Die Intensität des Mitschreibens ließ sich einfach über die IP-Nummern ermitteln, die zusammen mit den Texteingaben protokolliert wurden. Es erschienen zum überwiegenden Großteil nur die Nummern der vor Ort befindlichen Terminals. Nur einige fremde Nummern belegten die Mitarbeit von WWW-Nutzern, die sich außerhalb der Veranstaltung aufhielten. Offensichtlich hatten nur wenige Hörer die Performance über das Radio oder die Streamübertragung gehört bzw. sich in dem Fall nur auf das reine Zuhören beschränkt. Über die Zahl der zugeschalteten Hörer kann hier nur spekuliert werden, da niemand die Einschaltquoten bei einem regional begrenzten Radio wie »Corax« ermittelt. Ohne diese Messung sind aber keine legitimierten Aussagen über das Medium Radio möglich. 67 Wie in der Erläuterung zu »INTEGER« deutlich herausgestellt wurde, konnte die hohe Teilnehmerzahl nur durch eine massive Werbekampagne des Senders SWR2 im Vorfeld erreicht werden. Zudem verfügte SWR2 über einen deutlich breiteren Hörerkreis, da der öffentlich-rechtliche Sender bereits regulär über eine größere Region ausgestrahlt wurde. Schließlich wurde der Sender auch in räumlich entfernte Kabelkanäle eingespeist, erreichte also auch Hörer außerhalb der eigentlichen Senderreichweite.
DER AUTOR IN DER NETZLITERATUR | 309
und kann dem Netz darüber hinaus sogar noch Impulse geben (vgl. weiterführend Hartling/Wilke 2008). Allerdings ging »Search Lutz!« konzeptionell auch deutlich über seine Vorgänger hinaus. Die von Auer kuratierte Sendereihe ».ran : real audio netliterature« und das Radioprojekt »The Famous Sound of Absolute Wreaders« waren noch dezidiert als Radiosendungen angelegt, die wenig performative Elemente enthielten. »Search Lutz!« dagegen spiegelte die Sprecher- bzw. Radioausgabe direkt an den Algorithmus zurück, vermittelt über die beteiligten Mitschreiber.
Charakteristika der ›dissoziierten‹ Autorschaft Analysiert man zusammenfassend die komplexe Autor-Struktur der performativen Netzliteratur á la »Search Lutz!«, wird eine Besonderheit dieser Kunstform deutlich. Diese könnte man ›dissoziierte Autorschaft‹ nennen. Offensichtlich war die Autorschaft an dieser Performance (der Begriff ›Text‹ greift sicherlich zu kurz) sehr viel weiter und anders gestreut als bei kollaborativen Projekten. Die Autorfunktionen wurden von sehr heterogenen Personen und Dispositiven übernommen. Der Begriff ›dissoziieren‹ im Sinne von »zerfallen, trennen« würde demnach sehr gut für eine solche maximal verteilte Autorschaft passen. Die Folgen einer solchen dissoziierten Autorschaft für die Literatur im Dispositiv Internet sind vielfältig; es sind also noch extremere Ausformungen des Autors möglich. Johannes Auer hatte dies mit dem Begriff der »literarischen Konnotation« erfasst und dabei vor allem auf traditionelle Autorrollen angespielt: »1959 waren die Computertexte zweifach literarisch konnotiert. Einerseits durch den benutzten ›Kafka‹-Wortschatz, andererseits durch Korrekturen von Theo Lutz. […] Dieses Literarische […] beim ersten computergenerierten Texten [sic!] soll in der Performance 3-fach aufgegriffen werden. Einerseits als eine literarische Inszenierung der entstehenden Computertexte durch einen professionellen Sprecher. Zweitens durch die Mitautorschaft des Publikums. Als dritte literarische Referenz schreibt das kollektive Begehren im Netz mit.« (Auer 2006b)
Hier wird dagegen die Auffassung vertreten, dass die Autorfunktionen in seiner Performance noch sehr viel komplexer strukturiert waren. Diese Funktionen bauten aufeinander auf und können etwa folgendermaßen modelliert werden: (1) Eine basale Autorfunktion übernahm der Programmierer Johannes Auer, als er den Algorithmus schrieb. Damit legte er die Regeln fest, unter denen die Kunst entstand. Diese Funktion teilte Auer allerdings mit Theo Lutz, da er sich auf die Vorarbeit bezog und seine Programmierung zunächst streng am Vorbild ausgerichtet hatte. Einschränkend ist festzustellen, dass er als Programmierer zwar eine Autorfunktion innehatte, diese aber tatsächlich kaum mit dem Autor bei Codeworks zu vergleichen war. Im Gegensatz zu Codework-Autoren konnte Auer nur wenig Kontrolle über das Ergebnis des Gesamtprojekts ausüben. (2) Der Computer übernahm ebenfalls – sehr eingeschränkt – Autorfunktionen. Er konnte zwar nur aufgrund der in ihn einprogrammierten Regeln funktionieren und den Algorithmus abarbeiten. Aber da in das Programm bestimmte Freiheitsgrade eingebaut waren, spielt er als »digitaler Autor« zumindest eine untergeordnete Rolle bei der Generierung der Texte. Diese Modellierung rekurriert zum Teil auf Juan B. Gutiérrez, der unter dem Begriff
310 | DER DIGITALE AUTOR
des »digital author[s]« fasst: »the role of the computer in digital narrative when it builds links between pages in a way that correspondends to users interaction« (Gutiérrez 2007: 96-97, Hervorhebung im Original). Er hat hier einen sehr einfachen Autorbegriff und argumentiert, dass die vorprogrammierten, interaktiven Funktionalitäten als Ausfluss einer simplen künstlichen Intelligenz zu verstehen sind. Implizit legt Gutiérrez damit auch nahe, dass der Computer ebenso Autorfunktionen übernimmt bzw. übernehmen kann, wie es eine menschliche Person könnte. Diesem optimistischen Schluss wird hier nicht gefolgt, da die Möglichkeiten des Algorithmus stets nur vom menschlichen Autor einprogrammiert sind, also auch das Generieren von Links oder die Reaktion auf Benutzereingaben keinesfalls allein ›eigene‹ Leistungen darstellen. Die Frage nach der Beziehung zwischen Computer und Autorschaft scheint höchst schwierig zu beantworten und kann an dieser Stelle nicht erschöpfend diskutiert werden. (3) Als aktive Mitschreiber am Projekt agierten zum einen die Performance-Teilnehmer vor Ort, zum anderen auch die über Radio und Internet ›zugeschalteten‹ Mitschreiber, die räumlich getrennt waren. Beide Gruppen übernahmen in größerem Maße Autorfunktionen, weil sie dem Computerprogramm Lexembeiträge lieferten, die seine Datenbasis erweiterten und auf deren Basis es ›kreativ‹ generieren konnte. Diese Eingaben waren intentional auf das Projekt ausgerichtet, beschäftigten sich zudem durchaus auch in ironischer und ›manipulativer‹ Art und Weise mit dem Projekt selbst. Je intensiver die Performance-Teilnehmer am Projekt mitschrieben, desto stärker änderte sich der Datenbestand, auf den der Algorithmus zurückgreifen konnte und desto abwechslungsreicher wurde der generierte Text. Je besser die Mitschreibenden den Algorithmus verstanden und ›durchschauten‹, desto besser und stärker konnten sie die Textgenerierung in ihrem eigenen Sinn beeinflussen (›hacken‹). Allerdings ist festzuhalten, dass zwischen den beiden Gruppen von Mitschreibern erhebliche Unterschiede bestanden. Die Teilnehmer vor Ort waren neben ihren textlichen Beiträgen auch als Mitschaffende an der räumlichen Komponente der Performance tätig. Wie bereits oben kurz diskutiert, gab es allein durch die Reflexivität der Schreib- und Beobachtungsprozesse enorme Rückkopplungs- und Verstärkungseffekte. Diese aber schienen zu einer wesentlich intensiveren Textproduktion und auch zu einem besseren Lerneffekt zu führen, verglichen mit der räumlich entfernten Schreibsituation bei den Radiohörern. Vor Ort war das ›involvement‹ in das Kunstprojekt wesentlich höher und damit auch die Motivation einer Produktionsbeteiligung mehr gegeben. Es kann mit diesen Argumenten zulässig vermutet werden, dass vor Ort auch das Kunsterlebnis intensiver und am Ende befriedigender war. (4) Die eingebundenen Suchanfragen aus der Live-Suche der Suchmaschine veränderten ebenso wie die Lexemeingaben der menschlichen Teilnehmer den Datenbestand des Algorithmus und führten damit zu einer modifizierten Textausgabe. Der zentrale Unterschied aber bestand in der Intention der solchermaßen hinzugefügten Lexeme. Die Suchmaschinenabfragen wurden von »Search Lutz!« ganz bewusst entgegen ihrer ursprünglichen Zielstellung, relevante Informationen zu finden, verwendet. Die (anonym gebliebenen) Verfasser der Suchabfragen bildeten, wenn überhaupt, dann unabsichtliche Mitschreiber. Damit sind aber die Beiträge »des rohen, ungefilterten kollektiven Begehrens […] im Netz« (Auer 2006b) auch mit Hinblick auf deren Autorfunktion anders zu bewerten. Sie stellen kaum Äußerungen dar, die ei-
DER AUTOR IN DER NETZLITERATUR | 311
nem Autorbewusstsein oder einer Autorintention zugeordnet werden können; die Suchmaschinen selbst bildeten gewiss auch keine solche. Stattdessen konnten diese Lexeme als reine, zufällige Daten interpretiert werden, die zunächst sinnlos waren, bis sie in einen größeren, Sinn schaffenden Zusammenhang gestellt wurden. (5) Besonders zentrale Autorfunktionen wurden vom Sprecher Peter Gorges übernommen, der den generierten Text als Sprechkunst performte. Da die Regeln des Algorithmus’ relativ wenige Variationsmöglichkeiten boten, war der generierte Text eher monoton und eintönig. Daraus erzeugte Gorges eine für das Publikum abwechslungsreich inszenierte Sprechaufführung, die darüber hinaus den Text interpretierte und damit auch intentional veränderte. Zusätzlich zu dieser absichtlichen interpretatorischen Bearbeitung modifizierte Gorges auch unabsichtlich den eigentlichen Textkorpus. Diese Modifikation aber war vom Programmierer als systematischer Fehler in die Performance eingebaut worden. Resultierend übernahm der Sprecher Peter Gorges die wichtige Funktion, die abschließend gültige Version des Textes herzustellen und damit schlussendlich zu ›autorisieren‹. Keine expliziten Autorfunktionen übernahmen allerdings die beobachtenden Teilnehmer bzw. die Radiohörer, wenn sie die Sendung einfach passiv mitverfolgten. Im hier vertretenen Modell von Literaturvermittlung und -rezeption stellt die kognitive Verarbeitung von Literatur und deren Sinnkonstruktion eine basale Funktion des Rezipienten dar, die noch keine Autorbedeutung begründet. Damit ergab sich aber in dieser dissoziierenden Form eine starke Gemengelage von Autorfunktionen. Diese auf mehrere Ebenen verteilte Autorschaft spiegelte die mehrfache Autorschaft des originalen Algorithmus von Theo Lutz wider, führte aber noch weit darüber hinaus. Es scheint, als ob diese Art von netzliterarischer Konzeptkunst eine neue Version von digitalen Autorschaften bildet. Die Autorenrolle dissoziiert maximal, trotzdem entsteht aber am Ende ein Kunstprodukt, das künstlerisch und ästhetisch in höchstem Maße interessant ist. So überrascht es nicht, dass sich neben den bereits diskutierten Performance-Arbeiten von Johannes Auer und Michael Iber noch eine ganze Reihe anderer konzeptueller Netzarbeiten finden lassen. Einer enormen Bekanntheit erfreuen sich etwa die Netzaktionen der Künstlergruppe »etoy« bzw. der poetologisch ähnlich fundierten Gruppe »UBERMORGEN.COM«68. Aber auch die Installations-Projekte von Cornelia Sollfrank69 sind im deutschsprachigen Raum bekannt geworden. Sie setzt sich intensiv mit Geschlechterfragen in der Netzkunst70 und dem Problem der digitalen
68 Zu UBERMORGEN.COM vgl. die Webseite der Künstlergruppe. Eine ihrer bekanntesten Projekte ist die bereits knapp erwähnte Aktion »Google Will Eat Itself« (2005), vgl. dazu Blume 2006; Köver 2006; Seidler 2006. Die Beziehungen zwischen »UBERMORGEN.COM« und »etoy« sind etwas unklar. Das ehemalige »etoy«-Mitglied Hans Bernhard hatte »UBERMORGEN.COM« als neue Kooperation mit anderen Künstlern gegründet und stellte dies stets als Nachfolgeprojekt oder kontinuierliche Fortführung dar. »etoy« selbst aber lehnt jede Verbindung zu »UBERMORGEN.COM« strikt ab. Inwieweit diese Auseinandersetzung aber faktisch existiert oder einfach nur als Teil der Simulations-Poesie anzusehen ist, kann von außen nicht eingeschätzt werden. 69 Zu Cornelia Sollfrank vgl. Sollfrank 2000 ff. 70 Etwa im Projekt »Revisiting Feminist Art«, in der Sollfrank sich auf die frühen Positionen feministischer Kunst bezieht. Dieses Kunstprojekt war auf fünf Teile
312 | DER DIGITALE AUTOR
Autorschaft71 auseinander. Mit dem Verkauf eines ihrer »Netart-Generatoren« konnte sie vermutlich den ersten größeren kommerziellen Erfolg eines Netzliteratur-Projektes erzielen. Diese Projekte können als Indiz dafür angesehen werden, dass performative Netzkunst und Netzliteratur von hohem Interesse für die Presseberichterstattung und damit für die Öffentlichkeit sind. Dies liegt oft in der Konzeption begründet, die zumeist von vornherein auf eine deutliche mediale Wirkung angelegt ist. Wenn Aktionen und Performances selbst flüchtig sind, wird die Dokumentation durch die Presse nahezu unverzichtbar, ansonsten hat die Kunst förmlich ›nicht stattgefunden‹. Zudem stellt die Abarbeitung an zentralen medialen Themen sowie die Reflexion von medialen Vermittlungsprozessen selbst oft das künstlerische Ziel dar. Es liegt auf der Hand, dass eine solche Diskussion aber nur in den Medien stattfinden kann. Die spektakulär angelegten Aktionen der Gruppen »etoy« und »UBERMORGEN.COM« stehen exemplarisch für Künstler, die virtuos mit der breiten Klaviatur der Medien zu spielen imstande sind. Von Kritikern ist die These in den Raum gestellt worden, dass die digitale Konzeptkunst im Grunde genommen nur eine elitäre Randerscheinung darstelle, die die breite Öffentlichkeit kaum interessiert. Damit aber, so muss der Vorwurf weitergedacht werden, würde sich diese Kunstform totlaufen bzw. von selbst als belanglos verabschieden. Dem Vorwurf muss zweifach begegnet werden. Für die gerade diskutierten, explizit auf Öffentlichkeit angelegten Projekte kann der Vorwurf ganz offensichtlich zurückgewiesen werden. Zwar mögen die elaborierten Konzeptionen hinter entsprechenden Aktionen nicht in ihrer ganzen Komplexität von der breiten Öffentlichkeit aufgenommen werden. Dies hängt aber vor allem damit zusammen, dass sich die theoretischen Voraussetzungen oftmals kaum erschöpfend in den gängigen medialen Vermittlungsformen kommunizieren lassen. Der Erfolg in der medialen Berichterstattung sichert aber die Wahrnehmung der künstlerischen ›message‹; damit wird das grundlegende Anliegen sehr wohl von der Öffentlichkeit wahrgenommen. Es ließe sich darüber diskutieren, inwieweit diese Projekte so erfolgreich sein können wie die Clips auf »youtube.com«, die als Videokunst angesehen werden können. Damit wäre man bei der grundsätzlichen Frage nach dem Sinn und Zweck von populärer oder massentauglicher Kunst angelangt. Diese Diskussion würde allerdings nicht mehr die hier verhandelten Fragen betreffen. Projekte wie »Search Lutz!« aber sind theoretisch anspruchsvoller und in ihrer Anlage auch voraussetzungsreicher. Weil sie auf die Reflexion kunsttheoretischer und -methodologischer Fragen abheben, suchen sie ein geeignetes Publikum, das sich strikt von einem Massenpublikum unterscheidet. Deshalb positionieren sie sich auch nicht als Angebot für die massenmediale Vermittlung, sondern werden in alternativen ›Nischen‹ durchgeführt. Diese Projekte sind also faktisch elitär angelegt. Allerdings zielt der Vorwurf oder vielmehr die Besorgnis, dass dies ein problematischer Umstand sei, an der Intention dieser Kunst vorbei. Gerade weil in dieser Art von Performancekunst ausgelegt, wovon der erste im Juli 2006 in einem Hamburger Einkaufzentrum durchgeführt wurde. 71 Ein gutes Beispiel ist ihr Radioprojekt »Autorschaft und ihre automatische Generierung«, das sie zusammen mit Timothy Didymus 2004 für die Reihe »real audio netliterature« produzierte.
DER AUTOR IN DER NETZLITERATUR | 313
Themen angesprochen werden, die in den traditionellen Medien nicht vorkommen, müssen alternative und damit in gewisser Weise auch elitäre Medien aufgesucht werden. Gerade weil diese Diskussionen und Probleme keinen Platz in der zeitgenössischen gesellschaftlichen Debatte finden, geschieht deren Diskursivierung in gesellschaftlichen Nischen. Damit ist aber von einem produktiven Nebeneinander von populären Kunstformen, die sich komplexeren Fragestellungen verschließen müssen, und Nischenkunstformen auszugehen. Dieses Nebeneinander vollzieht sich online entsprechend der etablierten Modelle in der traditionellen Kunst. Hier wie dort führt das Elitäre keineswegs zu einem Verschwinden entsprechender Kunstformen. Ein anderer populärer Vorwurf, der ebenfalls aus der Offline-Konzeptkunst auf die Onlinekunst übertragen wurde, kann dagegen als zutreffender bewertet werden. Danach seien Konzeptionen entsprechender Performances oder Aktionen oftmals zu simpel und eindimensional, die Kunst selbst wäre somit durch eine gewisse Beliebigkeit gekennzeichnet. Dieses Problem wird von den Künstlern selbst aber thematisiert, etwa wenn Johannes Auer auf die Frage nach seiner künstlerischen Methodologie antwortet: »Das Primäre hat das Konzept, aber nicht Konzept als Selbstzweck. Also genauso langweilig und öde finde ich Projekte, die ein sehr gutes Konzept haben, was sich dann aber in der Realausprägung mit einem Mal sozusagen erschließt; man hat’s einmal gesehen, man hat’s kapiert damit. Also ich denke, es muss beides funktionieren: Das Konzept muss gut sein und die Umsetzung hinterher muss auch Spaß machen.« (Fröde et al. 2005, Clip »Biografisch« | »Johannes Auer«, Zeitindex 01:5302:02:10)
Damit vertritt Auer die normative Forderung an eine komplexe und mehrdimensionale Konzeption von Netzprojekten. Weiterführend verlangt er aber auch eine technisch und optisch interessante Umsetzung, die sich am Publikum orientiert.72 Es schließt sich der Bogen zu den bereits diskutierten Codeworks, bei denen ebenfalls das Konzeptuelle stark im Vordergrund steht. Diese Forderung nach elaborierten Konzepten stellt längst einen der zentralen Bewertungsmaßstäbe von konzeptueller Netzkunst dar, wird von den Literaturverarbeitern also geteilt. Ein jüngeres Beispiel ist der »1. Junggesellenpreis für Netzliteratur« (2005), bei dem Florian Cramers Codework-Projekt »plaintext.cc« den ersten Preis, Dirk Schröders Performance »Macelib« eine lobende Erwähnung errang. Die Jury-Laudatio des zweiten Projektes stellte nachdrücklich heraus, welche hohe Bedeutung das Konzeptuelle für eine prämierungswürdige Arbeit aufweist: »Der ganze Aufwand, und genau darauf zielt das Projekt, deutet letztlich auf die Frage, die alle Gedichtmaschinen aufwerfen: Wenn der Text beliebig neu generierbar ist, was genau macht dann noch die Qualität des einzelnen Produktes aus? Oder anders gefragt: Muss nicht eine originär menschliche Leistung, wie Intuition oder Unberechenbarkeit hinzutreten, um aus einem Textkonstrukt ein Gedicht zu machen?
72 Mit der Publikumsorientierung weist Auer damit auch implizit den oben diskutierten Elite-Vorwurf zurück. Auch wenn sich seine Kunst an ein kleines Publikum richtet, will er dieses Publikum erreichen.
314 | DER DIGITALE AUTOR Dirk Schröders gelungene und konsequente Arbeit hat die Jury durch ihre Originalität, die Komplexität ihrer Fragestellung und Ausführung überzeugt. Georges Perec hat sein erwähntes Hörspiel damit enden lassen, dass die Maschine am Schluss zusammenbricht, als sie ein Goethe-Gedicht verbessern soll.« (Höllerer et al. 2005)73
Eine ähnlich komplexe Struktur und intellektuell anspruchsvolle Diskursivierung weist aber auch »Search Lutz!« auf, wie durch die ausführliche Diskussion der Performance gezeigt wurde. Anhand dieses und aller anderen genannten konzeptuellen Projekte sollte vor allem eine Schlussfolgerung deutlich werden: Bei aller Dissoziation von Autorfunktionen geht die Bedeutung und Wichtigkeit des Autors selbst keineswegs verloren; egal wie fremd und auf wie viele Schultern verteilt das Konzept auch zu sein scheint. Die aus der mehrfach gebrochenen Zusammenarbeit resultierenden Produkte sind eben nicht beliebig, sondern ästhetisch in hohem Maße interessant. Damit steht diese Art von konzeptueller Kunst zwar für eine junge ›Version‹ von digitalen Autorschaften. Allerdings zeigt sich auch, dass ein beachtlicher Teil der Netzliteraten konzeptuelle und performative Elemente in ihre Arbeiten integrieren. Damit aber kann die netzliterarische Konzeptkunst zulässig als eine wichtige Tendenz in der Netzliteratur angesehen werden. Diese Perspektivisierung auf eine maximal verteilte Autorschaft führt abschließend zu einer zentralen Schlussfolgerung bezüglich des Autors im Internet. Auch bei einer stark dissoziierten Autorschaft kann der Autor im Netz nicht verschwinden bzw. kann er sich nicht ›befreien‹, weil es das Dispositiv überhaupt nicht zulässt. Damit steht das Dispositiv Internet nicht für die Abschaffung des Autors. Es ist stattdessen zu erwarten, dass sich im Dispositiv auch weiterhin technisch und gesellschaftlich neue künstlerische Qualitäten von Autorschaft herausbilden werden.
73 Die Jury spielte in ihrer Laudatio auf das Hörspiel »Die Maschine« von Georges Perec (1936-1982) aus dem Jahr 1968 an (Ursendung 13.11.1968, Saarländischer Rundfunk). Besonders an dem Sprachkunst-Hörspiel war, dass es auf mehrfachen fiktiven Ebenen Computerliteratur und Autorschaft in computergenerierter Literatur reflektierte. In ihm wird ein Computerprogramm simuliert, das das Gedicht »Wanderers Nachtlied« von Johann Wolfgang von Goethe analysiert. Damit aber ahmte ein Autor (Perec) ein Computerprogramm nach, um letztendlich Sprachkunst zu erschaffen. Eine gut zugängliche Edition des Hörspiels samt Begleitbuch bietet Perec/Helmlé 2001 [1968].
T EIL D. R ESÜMEE UND A USBLICK : S INGULÄRE UND KOLLEKTIVE A UTORSCHAFT IM D ISPOSITIV I NTERNET
9 ZUKUNFT ZUKUNFT
DER DER
AUTORSCHAFT, NETZLITERATUR
Damit sind die Rahmenbedingungen diskutiert, die das Dispositiv Internet setzt und unter denen sich die literarische Produktion von Autoren im Netz vollzieht. Diesen dispositivitären Bedingungen können sich Internet-Autoren nur schwer entziehen, sie können diese aber durch ihre Arbeit zu einem gewissen Teil auch beeinflussen. Es ist allerdings deutlich geworden, dass allem technologischen Fortschritt zum Trotz eine Befreiung von der Autorenrolle nicht vollständig möglich ist, auch wenn konzeptionell intendiert. Stattdessen findet man im Internet ein reiches Repertoire von möglichen AutorInszenierungen vor, das vermutlich komplexere (Selbst-)Konstruktionen ermöglicht als im traditionellen Umfeld. Abschließend werden die Thesen der vorliegenden Untersuchung resümiert und um einige Ausblicke auf den zukünftigen Forschungsbedarf ergänzt.
9 . 1 I st d i e N e t z l i t e r a t u r t o t ? Anfang 2009 hat die deutschsprachige Netzliteratur die Kinderschuhe verlassen1 und befindet sich – um im Bild zu bleiben – in der Pubertät. Mit Euphorie und Begeisterung gestartet, scheint mittlerweile eine gewisse Ernüchterung eingetreten zu sein. Die literarische Produktion und reiche akademische Reflexion ignorierend, wird vor allem in den traditionellen Medien immer wieder das Ende der Netzliteratur ausgerufen. Sie sei tot (vgl. Petersen/Saltzwedel 2002)2 und würde von Phänomenen wie den Weblogs beerbt: »Die Netzliteratur, die um das Jahr 2000 zur Zukunft der Schriftstellerei erkoren wurde, war rückblickend nur ein Strohfeuer in den Medien. Der Niedergang vollzog sich gleichzeitig mit dem Scheitern der New Economy, des Neuen Marktes und der Netzkunst. […] Es ist wahrscheinlich aber auch kein Zufall, dass mit dem Niedergang der Netzliteratur […] die Erfolgsgeschichte der Blogs beginnt.« (Alphonso 2004: 18-19)
1
2
Diese Einschätzung basiert auf der Tatsache, dass mit dem ersten »Pegasus«Netzliteraturwettbewerb im Jahr 1996 eine der wichtigsten Initialzündungen der deutschsprachigen Netzliteratur gegeben wurde. Allerdings waren spätestens seit 1995 entsprechende Aktivitäten festzustellen, die sich in Heiko Idensens programmatischen Essay »Die Poesie soll von allen gemacht werden!« aus dem Jahr 1995 als eine der ersten theoretischen Reflexionen niederschlugen (veröffentlicht als Idensen 1996). Mit ähnlichen Argumenten und kritischen Einschätzungen vgl. auch Söhler 2006; Söhler 2007.
318 | DER DIGITALE AUTOR
Diesen Kritikern aus Diskursen außerhalb der Netzliteratur kann freilich entgegnet werden, dass sie unzulässig zuspitzen und vereinfachen. Aber auch aus dem Kreis von literarisch interessierten Netizen sind durchaus ambivalente Stimmen zu hören: »Netzliteratur war ein Stiefkind der New Economy, ist somit heute eine Vollwaise. Dazu hat Dirk Schröder schon vor Jahren einen ironischen Text geschrieben: ›Das Internet ist vorbei.‹ Aber die Netzliteratur lebt noch. Linksammlungen wie Cyberfiction, dichtung-digital und der Webring Bla dokmentieren [sic!] die Existenz, beweisen jedoch auch, dass seit 2000 nicht mehr viel passiert ist.« (Schröder 2004, Hervorhebungen im Original)
Dagegen stehen Einschätzungen, die davon ausgehen, dass nur die Zeit der netzliterarischen Experimente vorüber ist und sich mittlerweile die ›Spreu vom Weizen‹ getrennt hat. Damit wird die ›erwachsenere‹ Netzliteratur aber als durchaus lebendig eingeschätzt, auf quantitativ zwar geringerem aber qualitativ viel höherem Niveau (vgl. Hartling 2007b). Mit Hinblick auf die jüngere netzliterarische Produktion, die in der vorliegenden Arbeit exemplarisch reflektiert wurde, kann letztere Einschätzung nur nachdrücklich bekräftigt werden. Gründe für die ambivalenten Beurteilungen sind an dieser Stelle zu diskutieren, ebenso wie die weiterhin ungebrochene Zukunft. Dazu kann auf einen Text von Niels Werber Bezug genommen werden, in dem er die These aufstellt, dass der Boom und das von ihm konstatierte Scheitern der Netzliteratur eng mit den entsprechenden Bewegungen der ›New Economy‹ zusammenhing (vgl. Werber 2003b). Zwar ist seine implizit konstatierte Verallgemeinerung der Netzliteratur-Produktion zurückzuweisen, denn die deutsche Netzliteraturszene rund um die Mailingliste »Netzliteratur« war zu keinem Zeitpunkt identisch mit dem, was er unter ›New Economy‹ subsumiert. Grundsätzlich weist Werber allerdings in die richtige Richtung. Mit dem Boom der ›New Economy‹ rund um die Jahrtausendwende ging einher, dass die Netzliteratur als eine dem Boom-Medium angemessene Kunstform entdeckt und aufgeschlossen wurde. Netzliteratur galt in seinen verschiedenen Subgenres als äußerst interessant für die Internetbenutzer; die Inhaltsanbieter aber trachteten auf verschiedene Art und Weise danach, dieses Interesse in Aufmerksamkeit für die eigenen Produkte umzumünzen. So wurde Netzliteratur als ästhetisch besonderer ›Content‹ auf den eigenen Plattformen integriert, um diese aufzuwerten. Die großen Verlage und Internetdienstleister, die hinter den Netzliteraturwettbewerben wie »Pegasus« oder »Literatur.digital« standen, dürften mehr am eigenen Renommee interessiert gewesen sein denn an der Förderung einer neuen Literaturform. Schließlich sind die Experimente traditioneller Verlage mit Netzliteratur (z. B »NULL«) vor allem als Bestreben zu erklären, die neue Kunstform zu ›besetzen‹ und frühzeitig mögliche Geschäftsmodelle auszuloten. Der damit einhergehende Hype um Netzliteratur war also vor allem von ökonomischen Interessen geprägt und wurde daher konsequenterweise von den Netzliteraten stets misstrauisch beobachtet. Zum einen standen letztere ohnehin jeglichen Versuchen skeptisch gegenüber, das Netz in eine reine ›Verkaufsplattform‹ umzuwandeln. Zum anderen kritisierten die Netzliteraten, dass die traditionellen Verwerter kaum ein Verständnis für netztypische Ästhetiken entwickelten und damit auch die tatsächlich avantgardistische Li-
ZUKUNFT DER AUTORSCHAFT, ZUKUNFT DER NETZLITERATUR | 319
teratur weitgehend ignorierten. Stattdessen seien bei den großen Wettbewerben vor allem traditionelle Arbeiten prämiert und damit gefördert worden, die kaum netztypische Ästhetiken aufwiesen. Der Verlust der großen Öffentlichkeit ist von den Netzliteraten, soweit das überblickt werden kann, kaum beklagt worden, vor allem, weil sich an ihrer prekären ökonomischen Situation während des Hypes nichts geändert hatte. Stattdessen ist der Netzliteratur-Diskurs auch in jüngerer Vergangenheit immer noch so aktiv wie vor und inmitten der Netzliteratur-Euphorie3; er kann sich weiterhin einer (eingeschränkteren) Berichterstattung auch durch die traditionellen Medien erfreuen.4 Dieses Zurückfahren der öffentlichen Aufmerksamkeit konnte und kann aber niemanden überraschen, der sich intensiver mit digitaler Literatur beschäftigt. Es liegt ganz offensichtlich auf der Hand, dass Netzliteratur niemals den Anspruch eines Massenphänomens einlösen konnte, der von außen an sie herangetragen, aber von den Netzliteraten nie so unterstützt wurde. Wie bereits dargestellt, ist Netzliteratur als ernstzunehmendes ästhetisches Phänomen längst von der Forschung erkannt worden (vgl. Kapitel 1.2.2) und wird zunehmend auch vom traditionellen Kunstbetrieb wahrgenommen (vgl. Baumgärtel 2000b). Die entsprechenden Kanonisierungsprozesse funktionieren aber anders als die kurzfristigen Aufmerksamkeitsmobilisierungen in den traditionellen Medien; sie sind viel langfristiger wirksam und haben digitale Literatur im kulturellen Bewusstsein etabliert. Damit aber kann keineswegs vom »Tod« der Netzliteratur gesprochen werden, allenfalls von einer Etablierung als Kunstform unterhalb der Aufmerksamkeitsschwelle einer massenmedial hergestellten Öffentlichkeit. Scheinbar ist dies eine weitere Parallele zwischen Netzliteratur und Lyrik (vgl. Kapitel 7.3.1), auch letztere kommt im öffentlichen Diskurs fast nicht vor.5
9.2 »YouTube« und Co.: Neue literarische Gattungen? Mit der Annahme verschiedener Modelle für Netzliteratur und damit für netzliterarische Autorschaft geht die Überzeugung einher, dass auf der einen Seite kaum vorauszusehen ist, welche Einflüsse zukünftig die netzliterarische Autorschaft prägen werden. Auf der anderen Seite lassen sich trotzdem bereits 3
4
5
Zeugnis davon legen etwa die große p0es1s-Ausstellung im Jahr 2004 oder die beiden Festivals »Literatur und Strom« von 2005 und 2008 ab. Vgl. außerdem die umfangreiche Dokumentation von Theorie und Praxis der Netzliteratur in Auer et al. 2002 ff. Insoweit hatte der Hype um Netzliteratur durchaus einen gewissen Nutzen für die Netzliteraturszene, denn im Zuge dessen wurde die Kunstform zumindest im Bewusstsein der Bildungs- und Kunstelite etabliert. Im Gegensatz etwa zu Schriftstellern wie Günter Grass oder Martin Walser, an deren erzählerisches Werk die Berichterstattung häufig und intensiv anknüpft, kommen Lyriker wie Sarah Kirsch in den Medien fast nicht vor. Dies liegt aber nicht an einer fehlenden literarischen Qualität, auch Kirschs Werk wurde reich prämiert und in der wissenschaftlichen Debatte ebenso intensiv diskutiert. Ohne dies detailliert ausführen zu können, dürfte die fehlende Aufmerksamkeit für Lyrik in der vergleichsweise schwierigen literarischen Form selbst liegen, die nur ein kleines Publikum ansprechen kann.
320 | DER DIGITALE AUTOR
einige Impulse feststellen, die von der Netzliteratur aufgenommen und künstlerisch verarbeitet werden. Einen solchen Impuls stellt erstens der Boom von Videoportalen wie »YouTube.com« dar, auf denen Videokünstler Gelegenheit zur künstlerischen Selbstentäußerung haben und ein potentiell globales Publikum erreichen können. Dabei verarbeiten Videokünstler genauso wie kommerzielle Anbieter Themen, die bislang vor allem das Refugium der Netzliteratur zu sein schienen. Videos auf »YouTube« thematisieren virtuelle Identitäten, Identitätswechsel und Fakes. Die Strukturen von virtuellen Gemeinschaften werden genauso hinterfragt wie deren gruppendynamische Prozesse. Autoren nutzen zweitens zunehmend Weblog- und Wiki-Engines. Der Dichter Alban Nikolai Herbst kann als gutes Beispiel eines etablierten Autors angesehen werden, der sein Weblog nicht nur zur intensiven Kommunikation mit seinen Lesern und Mäzenen nutzt. Darüber hinausgehend setzt er es produktiv für seinen literarischen Schaffensprozess ein und beschäftigt sich literaturtheoretisch mit dem Phänomen Weblog. Oliver Gassner dagegen ist als Initiator für eine ganze Reihe von literarischen Wikis unter dem Sammeltitel »Carpewiki« in Erscheinung getreten, wobei es hier vor allem um literarischen Experimente und die Kommunikation von Autoren untereinander geht. Bei beiden Formen werden momentan weniger netzliterarische Innovationen erprobt, sondern eher klassische Literatur produziert. Interessant ist aber, wie die Autorschaftsmodelle oszillieren und sich über traditionelle Formen hinaus entwickeln. Den dritten Impuls bildet die Bedeutung von Suchmaschinen, die bereits in einer ganzen Reihe von jüngeren Projekten thematisiert wird. Von Netizen und Netzliteraten sorgenvoll betrachtet wird dabei der wachsende Einfluss, den Suchmaschinen auf die Organisation von Wissen im Internet ausüben, wobei allerdings die Strategien und Ziele der dahinterstehenden Firmen weitgehend im Dunkeln bleiben. Reflektiert werden zudem die Mechanismen, mit denen kommerzielle (netzbasierte) Anbieter Suchmaschinen zu manipulieren trachten, um sich im Ranking zu verbessern und damit mehr Aufmerksamkeit für ihr Produkt zu generieren. Schließlich befindet sich der Internet-Nutzer mitsamt seinen Begehrlichkeiten im Zentrum der Kunst. Es steht zu erwarten, dass mit dem steigenden Einfluss von Suchmaschinen auch die künstlerische Reflexion zukünftig eine bedeutende Rolle spielen wird. Viertens nimmt der Einfluss des Performativen auf bestimmte Genres von Netzliteratur zu, womit eine wachsende Bedeutung des Konzeptuellen einhergeht. Dies ist jedoch nicht als Paradigmenwechseln zu sehen, besteht doch gleichzeitig ein weiterhin deutlicher Trend zu computerspielähnlichen Projekten etwa von Susanne Berkenheger (»Die Schwimmmeisterin«) oder Frank Klötgen (»Spätwinterhitze«). Mit dem Performativen greifen Künstler wie Johannes Auer theoretische und ästhetische Schulen auf, die bislang eher untypisch für Netzliteratur waren und die traditionellen Vorläufer in Hypertext oder Hyperfiction ergänzen. Parallel wird der Ort verlagert, in dem netzliterarische Produktion und Rezeption stattfinden, weg vom vereinsamten Computerarbeitsplatz hin zur Bühne. Damit verändert sich das Kunsterlebnis für die Zuschauer und wird gemeinschaftlich. Zudem wandelt sich die Erfahrung von Kontrolle und Einheitlichkeit von Netzliteratur. Traditionelle Formen liegen noch relativ unveränderlich im Netz vor und können von da aus abgerufen werden; selbst kollaborative Projekte sind eingeschränkt archivierbar. In der Konzept- und Performancekunst aber wird das ästhetische Produkt
ZUKUNFT DER AUTORSCHAFT, ZUKUNFT DER NETZLITERATUR | 321
fluider und bezieht den Rezipienten mit all seinen Sinnen viel stärker ein. Die Autorschaft »dissoziiert« förmlich, ohne jedoch dabei zu verschwinden. Der vergleichsweise ausführliche Bezug auf die Bedeutung von Netizen mit ihren Werten für die Ausgestaltung von Netzliteratur hat den fünften Einfluss bereits deutlich thematisiert. Der Begriff Netzkunstaktivismus erfasst, dass Netzkunst im Allgemeinen und Netzliteratur im Besonderen stets auch die politischen und gesellschaftlichen Debatten um das Dispositiv Internet aufgegriffen und verarbeitet haben. Mit künstlerischen Aktionen wurde und wird vehement gegen die von Netizen als schädlich empfundenen Auswüchse einer Kommerzialisierung des Netzes angegangen. Teil des Netzkunstaktivismus ist dabei eine besonders intensive und professionelle Öffentlichkeitsarbeit sowie auffällige mediale Inszenierungen, die teilweise sogar den Eindruck erzeugen, dass die Kunst ›hinter‹ den Pressemitteilungen überhaupt nicht existiert. Damit verbunden sind die sogenannten ›social hacks‹ auf Internetkommunikationskanäle oder traditionelle Medien, also die bewusste Provokation und Verwirrung anderer Nutzer, um diese zu Reaktionen und Diskussionen, schließlich auch Aktionen gesellschaftlicher oder politischer Art zu animieren.
9.3 Evolution von Autorschaft? Wie deutlich geworden ist, muss die Autorschaft im Internet als ein hochkomplexes Phänomen angesehen werden, dies gilt auch für die verschiedenen dispositivitären Rahmenbedingungen, denen Autoren von Netzliteratur unterliegen. Gleichzeitig gibt es eine ganze Reihe von (multi-)disziplinären Ansätzen, die in der Lage sind, die Komplexität analytisch zu durchdringen. In der vorliegenden Arbeit konnte herausgearbeitet werden, dass schon die jüngere Diskussion um Autorschaft in der Literaturwissenschaft samt angrenzenden Disziplinen eine reiche theoretische Basis bietet, an die produktiv angeknüpft werden kann. Bereits bei diesem Erkenntnistransfer wurde evident, dass bestimmte vortheoretische Annahmen um den Autor im Internet verabschiedet werden müssen. So ist auch im Internet von einem Nebeneinander der verschiedensten Autorschafts-Modellen auszugehen, die von den jeweiligen literarischen Produzenten anhängig von der eigenen Poetologie umgesetzt werden können. Dabei lässt sich zeigen, dass sowohl traditionelle Autorkonzepte aktiviert, aber auch Modelle erprobt werden, die sich aus eben jenen Autorrollen zu befreien trachten. Diese besondere Ambivalenz zwischen ›nützlichem‹ Autorkonzept sowie ›gesteigertem Personenkult‹ auf der einen Seite und deutlicher Autormarginalisierung auf der anderen ist es aber, was das Medium Internet und die Netzliteratur auszeichnet. Im theoretischen Diskurs ist dieser komplexe Zusammenhang, wie gezeigt wurde, noch nicht oder nur eingeschränkt reflektiert worden. Hier ist nach wie vor ein Auseinanderfallen zwischen der literarischen Praxis und dem theoretischen Diskurs zu beklagen. Ebenso fehlt noch immer eine konsistente Theoriedebatte; gerade zur Online-Autorschaft sind grundlegende Untersuchungen anzumahnen, an die zukünftige Einzelfallanalysen anknüpfen können. Eine solche grundlegende Position nimmt die vorliegende Untersuchung ein. Dazu wurde eine Typologie von Autorschaftsmodellen entwickelt, die auf einer Systematisierung von Heinrich Detering für die Printliteratur beruht. Dabei wurde gezeigt, dass die grundlegenden Konzepte auch online ak-
322 | DER DIGITALE AUTOR
tiviert werden: Der starke »Autor« mit einem singulären Selbstverständnis findet sich in den eher ›klassischen‹ Hypermedia-Arbeiten wieder und bedient sich vor allem der ästhetischen Sprache von Multimedia, Animationen und Computerspielen. Dagegen setzen kollektive Projekte verschiedene Formen des »Schreibers« um; sie sind vorwiegend textorientiert und stehen in der Tradition von Poststrukturalismus und Hypertexttheorie. In den Codeworks findet sich das Modell der »Autorfunktionen« wieder; die Autorschaft ist marginalisiert und ihre einzelnen Funktionen werden von verschiedenen Aktanten realisiert. Codeworks verbinden eine lange Tradition etwa der Figurengedichte oder der visuellen Poesie mit Traditionen aus der Hackerkultur. Dass das Internet aber auch neue Formen im Experiment ermittelt, zeigt die ausführlich diskutierte Strömung der netzliterarischen Konzept- und Performancekunst. Hier suchen sich Autoren zu befreien, können dies sogar besser als es im Printmedium möglich wäre. Allerdings zeigt sich das kulturelle Phänomen Autor gleichzeitig als so wirkungsmächtig, dass die Befreiung unter dem Schlagwort »dissoziierte Autorschaft« letztlich nicht vollständig gelingen kann. Um die Rahmenbedingungen zu klären, unter denen Internet-Autoren agieren, hat sich das Modell des Dispositivs als äußerst nützlich erwiesen. Es ist zum ersten als holistisches Konzept geeignet, das komplexe Phänomen Autorschaft als ein analysierbares Netz von Bedingungen (Faktoren) zu erfassen. Zum zweiten lässt sich die Verbindung zwischen Netzdispositiv und Internet-Autorschaft als von Machtstrukturen geprägt rekonstruieren, wobei sich Dispositiv und Netzautoren gegenseitig beeinflussen. Drittens wird auf die Ebene der handelnden Subjekte rekurriert und damit die literarische Produktion des Einzelnen beschreibbar. Diese (Wieder-)Einbeziehung des Subjektes erfolgte mit Rückgriff auf Michel Foucault. Die Diskussion des Dispositiv-Konzeptes hat darüber hinaus gezeigt, dass es sich sowohl für die diachrone Analyse der Entwicklung des Netzes eignet als auch für die synchrone Untersuchung des spezifischen Phänomens der digitalen Autorschaft. Da letzteres noch eine vergleichsweise junge Erscheinung darstellt, war zum jetzigen Zeitpunkt eine Analyse des Dispositivs Autor unter dem Aspekt seiner Geschichte noch nicht sinnvoll, wäre aber mittelfristig interessant. In der Diskussion wurde deutlich, dass das Modell des Dispositivs sich außerordentlich gut für die Erforschung des Mediums Internet eignet, auch wenn das Modell ursprünglich für ganz andere mediale Zusammenhänge entwickelt worden ist. Damit sind auch vergleichende Untersuchungen der Dispositive Internet, Fernsehen, Kino und Radio möglich und anzuraten. Indem der netzliterarische Autor konsequent als literarischer Produzent diskutiert wurde, bezog sich die Untersuchung zudem auf das Handlungsrollenmodell aus der Empirischen Theorie der Literatur. Zum einen war hier wiederum die Ebene der handelnden Subjekte angesprochen. Zum anderen konnte damit der Erkenntnistransfer von Literaturwissenschaft zur Medienwissenschaft über die Empirische Literaturwissenschaft tatsächlich auch begründet werden. Schließlich werden somit für zukünftige Arbeiten Anschlüsse an Untersuchungen zum traditionellen literarischen Produzenten möglich, die auf einer ähnlichen theoretischen Struktur basieren. Als maßgebliche dispositivitäre Rahmenbedingungen von InternetAutoren wurden vier Faktorenbündel intensiv und detailliert diskutiert: Philosophische, technische, ökonomische und rechtliche Bedingungen des Internets formen die literarische Autorschaft vor und schlagen sich somit auch in
ZUKUNFT DER AUTORSCHAFT, ZUKUNFT DER NETZLITERATUR | 323
den künstlerischen Arbeiten nieder. Umgekehrt wird das Dispositiv (eingeschränkt) zudem durch die Aktivität der Autoren beeinflusst, was etwa an der Entwicklung spezieller Produktionstools oder zum Teil an der Open SourceBewegung nachvollzogen werden kann. Wie im anschließenden Forschungsausblick dargestellt, lässt auch die Diskussion weiterer Rahmenbedingungen nützliche Erkenntnisse über Netzliteratur und deren Produzenten erhoffen. Damit ist die Situation der deutschsprachigen Netzliteraten aus dem Blickpunkt des Jahres 2008 diskutiert. Was aber ist mittelfristig zu erwarten? In der Diskussion um Netzliteratur dominiert eine ›evolutionäre‹ Vorstellung davon, wie sich die netzliterarische Autorschaft zukünftig ausdifferenzieren wird. Vertreter dieser Position gehen davon aus, dass sich die Netzliteratur zum Computerspiel hin entwickeln wird, oder vielmehr umgekehrt das Computerspiel die Netzliteratur beerbt (vgl. Werber 2003a). Die bereits erwähnten Forscher im Bereich der »Game studies« (vgl. Kapitel 1.2.3) widmen sich erzählerischen Phänomenen vornehmlich in Computerspielen und führen diese Untersuchungen – oft implizit – ebenfalls mit diesem evolutionären Ansatz durch. Problematisch ist dieses Paradigma, wenn es einen ausschließlichen und dominanten Charakter annimmt, denn dabei wird unterschlagen, dass die Netzliteratur mit Elementen der Computerspiele nur eine der möglichen ästhetischen Modelle darstellt. Damit verbunden ist, wie gezeigt wurde, zumeist ein starkes Autorschaftsmodell, das den Rezipienten tatsächlich nur eine auf das Spiel reagierende Rolle zuweist. Die Arbeiten von Susanne Berkenheger weisen in ihrer Form des Erzählens (des Storytellings), durchaus auf künstlerisch interessante Impulse aus dem Computerspiel hin. Dieses eine mögliche Modell digitalen Storytellings wurde an anderer Stelle ausführlicher entwickelt (vgl. Hartling 2007a).6 Wie Johannes Auer herausgestellt hat, müssen anstelle des vereinfachenden evolutionären Paradigmas eine Vielzahl von Modellen angenommen werden, was auch eine Fülle von möglichen Erscheinungen von digitaler Autorschaft bedeutet (vgl. Hartling 2007b). Dieser Befund wurde in der vorgelegten Studie nachdrücklich bestätigt. Abhängig sind diese Autorschaftskonzepte, wie erwähnt, je vom künstlerischen Programm des einzelnen Netzliteraten, der die Regeln seiner Poesie ebenso festlegt, wie er Autor-Macht an Co-Autoren abgibt. Dabei lassen sich durchaus gewisse Vorzüge ableiten, die je bestimmten Schulen oder Denktraditionen entstammen. In der vorliegenden Arbeit wurde die netzliterarische Konzept- und Performancekunst als eine der ästhetisch bemerkenswertesten Tendenzen diskutiert, die auch von einem beachtlichen Teil der Netzliteraten vertreten wird. Es wird interessant zu beobachten sein, wie die damit einhergehenden Versuche der Befreiung zukünftig von den Autoren selbst und von der netzliterarischen Theorie reflektiert werden. Auch hierfür hat die vorliegende Untersuchung umfangreiche Vorarbeiten geleistet.
9.4 Zukünftiger Forschungsbedarf Es gilt schließlich noch, Anstöße für weitere Forschungen in der Medienwissenschaft zu geben, die dieses weitgehend unbestellte Feld noch zu beackern hat. Dies umfasst Aspekte, die im Rahmen der vorliegenden Studie nicht 6
Zum literarischen Charakter von Computerspielen vgl. auch Neitzel 2005.
324 | DER DIGITALE AUTOR
mehr diskutiert werden konnten oder wertvolle Anschlüsse an die vorgestellten Ergebnisse versprechen. An die vorliegende Arbeit anschließend wäre es erstens sinnvoll, die historische Entwicklung der Online-Autorschaft aus ihren Vorläufern heraus darzustellen und zu analysieren. Dabei müsste die Entwicklung des literarischen Autors in der traditionellen Literatur intensiv nachvollzogen werden, wie es etwa Porombka et al. für kollektive Autorschaftsphänomene exemplarisch vorgeführt haben (vgl. Porombka et al. 1996). Es war explizit kein Ziel der vorliegenden Untersuchung, die Entstehung des Print-Dispositivs Autor zu rekonstruieren. Stattdessen wurde ausschließlich auf die Untersuchung des Dispositivs Online-Autor fokussiert, das noch zu jung ist, um nach dem vorgestellten Entwicklungsmodell des Dispositivs analysiert zu werden. Zweitens wäre die Darstellung um die Diskussion weiterer heterogener Rahmenbedingungen (oder Bündel davon) des Netzes zu ergänzen, die für die Online-Autorschaft relevant werden. Dies betrifft etwa soziologische Bedingungen, Bedingungen der Wahrnehmung und Rezeption oder ›nicht-diskursive‹ Bedingungen. In der vorliegenden Arbeit wurden die vier für die Online-Autorschaft maßgeblichsten Bedingungsbündel diskutiert. Darüber hinaus wäre es lohnenswert, Phänomene wie virtuelle Identitäten (vgl. Döring 2003: 325-402) oder virtuelle Gemeinschaften (vgl. Rheingold 2000) ebenso zu diskutieren wie den Status des Online-Autors. Letzterer lehnt sich an Michel Foucault an, der in seinem Buch »Archäologie des Wissens« ein Analysemodell des Status’ von Ärzten entwickelte, das in seiner Struktur geeignet wäre, auf Autoren allgemein und Online-Autoren im Speziellen übertragen zu werden (vgl. Foucault 1981 [1969]: 75-76).7 Die vorliegende Arbeit bezog sich vor allem auf den literaturtheoretischen Diskurs um Autorschaft, weil dieser momentan die komplexesten und systematischsten Erklärungsmodelle zu liefern imstande ist. Zunächst ausgeblendet wurde der medienwissenschaftliche Diskurs, der phänomenologisch weitgehend ›unter‹ dem theoretischen Diskurs angesiedelt ist. Eine weiterführende Analyse müsste drittens die Rahmenbedingungen von literarischen Produzenten im Netz viel stärker untersuchen (vgl. Keuchel/Wiesand 2001; Hucklenbroich/Viehoff 2002; Janssen 2002) und hierbei auch auf die Inszenierung von öffentlicher oder abwesender Autorschaft eingehen. Damit wären aber vor allem die Untersuchungen von netzliterarischem Erfolg (vgl. Günther 2003) und Starphänomenen unter Online-Autoren (vgl. Faulstich/ Korte 1997) von höchstem Interesse. Flankiert werden sollten die theoretischen Reflexionen und Analysen viertens durch eine umfassendere empirische Untersuchung zur Situation von Netzautoren und damit des Handlungsbereichs netzliterarischer Produktion. 7
Die einzelnen Teilaspekte des Analysemodells, nach denen Autoren analysiert werden könnten, sind: (1) Kriterien des Wissens und der Kompetenz; (2) Institutionen, Systeme, Pädagogische Normen; (3) gesetzliche Bedingungen, die ein Recht auf die Anwendung und das Ausprobieren dieses Wissens geben, allerdings nicht ohne ihnen Grenzen zu setzen; (4) System der Differenzierung und der Beziehungen mit anderen Individuen oder anderen Gruppen, die selbst ein Statut besitzen; (5) Züge, die das Funktionieren im Verhältnis zur Gesamtgesellschaft bestimmen: Interventions- und Entscheidungsrechte, Teil, der vom öffentlichen Reichtum oder vom Privatvermögen abgeschöpft wird, explizite oder implizite Form des Vertrages; (6) Indifferenz und Austauschbarkeit, vgl. Foucault 1981 [1969]: 75-76.
ZUKUNFT DER AUTORSCHAFT, ZUKUNFT DER NETZLITERATUR | 325
Es ist noch weitgehend unbekannt, in welchem Ausmaß sich etwa die ökonomische Situation von Netzautoren oder deren Tätigkeitsfelder von denen der Printautoren unterscheiden. Mehr als zehn Jahre nach dem Beginn der deutschsprachigen Netzliteratur und damit in einer Phase der etablierten Kunstform wäre eine solche Erhebung möglich und von höchstem Interesse. Einzelne Fälle sind bereits in der vorliegenden Arbeit dokumentiert, aber ein systematischeres Bild fehlt. Als Modell könnte der vielzitierte »Autorenreport« von Karla Fohrbeck und Andreas J. Wiesand aus dem Jahr 1972 (vgl. Fohrbeck/Wiesand 1972) dienen. Fünftens: In der Diskussion wurde vor allem auf die künstlerische Autorschaft in der Netzliteratur rekurriert, wobei gerade bei kollektiven Modellen die Einflüsse einer pragmatischen oder sogar onlinejournalistischen Autorschaft mit betrachtet wurden. Es steht noch aus, diese vornehmlich journalistische Produktion im Netz genauer zu analysieren. Dabei müsste ein Modell entwickelt werden, dass tatsächlichen Journalismus mit all seinen handwerklichen und ethischen Standards von Autoren trennt, die nur mit journalistischen Mitteln arbeiten. Hier ist insbesondere die Trennung der professionellen, journalistischen Produktion von einer laienhaften Wissensvermittlung vor allem in der Blogosphäre (Kantel 2006; Machill 2006) und der »Wikipedia« (vgl. etwa Pscheida 2006 [2008]) gemeint. Erste Überlegungen dazu wurden in der vorliegenden Untersuchung bereits angestellt und bieten Anknüpfungspunkte für eine intensivere Auseinandersetzung mit dem Thema. Ebenso anschlussfähig wäre schließlich sechstens die Untersuchung von Autorschaft in angrenzenden Kunstformen, wie Netzmusik, Netzkunst, (Internet-)Animationen, Computerspielen, Online-/Offline-Installationen usw. Zum Teil wären hier Verbindungen zur Autorschaft in der Netzliteratur freizulegen, zum Teil völlig neue Phänomene zu erkennen. So ist die Produktion von Computerspielen in höchstem Maße kollektiv angelegt, wobei die einzelnen Mitarbeiter kaum wirkliche Freiheiten haben oder Kontrolle über das Endprodukt ausüben (vgl. etwa Kline et al. 2003). Deshalb kann hier auch keineswegs von einer Co-Autorschaft gesprochen werden. Netzmusik kennt dagegen sehr wohl gleichberechtigte, kollektive Autorschaftsmodelle, die qualitativ über entsprechende Formen in der Netzliteratur weit hinausgehen können (vgl. etwa Föllmer 2005). Bei Netzanimationen schließlich stehen Phänomene wie »Machinima« für eine beinahe ›subversive‹ Autorschaft, bei der die Nutzer von Computerspielen diese entgegen dem ursprünglichen Sinn künstlerisch einsetzen und damit zu Produzenten werden (vgl. Wehn 2004; Förster/Linde 2004 [2007]).
ANHANG Glossar Im Glossar werden die im Text verwendeten Abkürzungen und Fachtermini aus dem Feld von Computer- und Internettechnologien sowie der Netzkunst erläutert. Nähere Informationen dazu lassen sich am unkompliziertesten über die Online-Enzyklopädie »Wikipedia« sowie den dort angegebenen Referenzen nachschlagen. Zu Personen und Firmen, die in irgendeiner Weise für das Internet von Bedeutung waren und sind, vgl. auch das exzellente »Lexikon der Internetpioniere« von Helmut Neumann (vgl. Neumann 2002b). Aggregator: Software, die Newsfeeds von Webseiten einlesen, organisieren und in einer integrierten Übersicht anzeigen kann (auch »RSS-Reader«). Mit dem gleichen Begriff werden auch Webseiten benannt, deren hauptsächlicher Zweck die Anzeige von Newsfeeds darstellt. ARPA/ARPANET: Vorläufer des Internets. Browser: Software, die die speziellen Text-, Bild-, Sound- und Animationsformate des Internets lesen und darstellen kann. CERN (»Europäische Organisation für Kernforschung«): Forschungsinstitution, angesiedelt in der Nähe von Genf, Schweiz (vgl. näher: Berners-Lee 1999: 20-23). CMS (»Content-Management-Systeme«): Software, die die Publikation von Inhalten für das Internet in einem stark arbeitsteiligen Prozess ermöglicht, strikt zwischen Design und Content trennt und ausgefeilte Systeme zur Autorisation der Inhalte bereitstellt. Community: Normalerweise werden mit dem Begriff ganz allgemein Gemeinschaften als Ansammlungen von Personen bezeichnet. Diese pflegen gemeinsame Identitäten und teilen kollektive Wissensbestände sowie Normen. In der vorliegenden Arbeit sind mit dem Begriff vor allem netzbasierte Gemeinschaften, also im engeren Sinn »Online-Communities« angesprochen. DFG (»Deutsche Forschungsgemeinschaft«): Zentrale Selbstverwaltungsorganisation der deutschen Wissenschaft und gleichzeitig bedeutendste Einrichtung zur Forschungsförderung. DFÜ (»Datenfernübertragung«): Über das analoge oder digitale Telefonnetz wird eine Verbindung zwischen dem privaten Rechner und einem anderen Rechner (zumeist der des ISPs) hergestellt. Dies geschiet mit Hilfe eines Modems, einer ISDN-Karte oder eines DSL-Modems. DivX: Leistungsstarkes Video-Kompressionsverfahren, das sich insbesondere bei der amateurhaften und semiprofessionellen Aufbereitung von Videoinhalten für die Internet-Distribution einer besonderen Beliebtheit erfreut. Dolby Digital: Eine sehr weit verbreitete Technik, mit der Tonwiedergabe auf mehreren Kanälen möglich wird. Sie wird vor allem im Heimbereich
328 | DER DIGITALE AUTOR
eingesetzt und wird z. T. auch bei Fernsehsendungen verwendet. Dolby Digital kann über normale Stereo-Lautsprecher ausgegeben werden und erzeugt einen Raumklang. DSL (»Digital Subscriber Line«, deutsch: »digitale Teilnehmeranschlussleitung«): Breitbandiger und digitaler Internetanschluss, der über das normale Telefonnetz realisiert wird. Durch die Nutzung von Frequenzbereichen, die sich vom normalen Telefonsignal unterscheiden, können höhere Datenübertragungsraten (Geschwindigkeiten) erzielt werden. E-Mail (»electronic mail«, deutsch: »elektronische Post«): Beliebter Dienst in Computernetzwerken wie dem Internet. Er erlaubt den zeitnahen Austausch von elektronischen Nachrichten zwischen einzelnen Nutzern bzw. auch von einem Sender zu mehreren Empfängern. ELW: Empirische Literaturwissenschaft. ETL: Empirische Theorie der Literatur. E-Zine (»Electronic Magazine«): Zeitschrift, die im Internet publiziert wird. Zumeist beschreibt der Begriff auch die Tatsache, dass der Inhalt sich vorwiegend an Netzthemen orientiert. FAQ (»Frequently Asked Questions«, deutsch: »häufig gestellte Fragen«): Übersicht mit Fragen, die von Nutzern oder Besuchern von Webseiten oder Kommunikationskanälen regelmäßig gestellt werden sowie die dazugehörigen Antworten. Forum: Bezogen auf das Internet beschreibt der Begriff zumeist webbasierte Diskussionsforen, in denen hierarchisch strukturierte Diskussionen von Forenbenutzern realisiert werden. Gateway: Computerserver, die den Datenverkehr zwischen unterschiedlichen Netzen regeln. Dies kann etwa die Verbindung zwischen einem Subnetzwerk in einer Abteilung mit dem Hauptnetzwerk des gesamten Unternehmens sein, aber auch die Verknüpfung zwischen technisch völlig anders strukturierten Netzen. Hacken/Hacking: Im Zusammenhang mit Netzkunst und Netzliteratur werden die Begriffe als kreativer Umgang mit Hardware oder Software jeglicher Art verwendet. Andere Begriffsbedeutungen werden im Rahmen dieser Untersuchung ausgeblendet (vgl. dazu näher Gröndahl 2001; Raymond 2002). HDTV (»High Definition Television«, deutsch: »hochauflösendes Fernsehen«): Dieser Sammelbegriff steht für eine ganze Reihe unterschiedlicher Fernsehnormen, die eine gegenüber dem Standard deutlich erhöhte Auflösung bereitstellen. Seit 2004 in Deutschland eingeführt (vgl. ausführlicher Gieselmann/Kuri 2006). HTML (»Hypertext Markup Language«): Textbasierte Dokumentenauszeichnungssprache, mit der Inhalte für die Publikation im WWW strukturiert werden können. HTML wurde ursprünglich von Tim Berners-Lee für das WWW entwickelt, seitdem unter Obhut des »World Wide Web Consortiums« (W3C) weiterentwickelt. HTTP (»Hypertext Transfer Protocol«): Protokoll zur Übertragung von Daten ganz allgemein in Computernetzwerken, insbesondere aber für Daten (z. B. Webseiten) im World Wide Web. ICANN (»Internet Corporation for Assigned Names and Numbers«): Die privatrechtliche Non-Profit-Organisation mit Sitz in den USA wird in der Umgangssprache gemeinhin als »Regierung des Internets« bezeichnet. Dies resultiert aus der Aufgabe, die technischen Aspekte des Internets,
ANHANG | 329
also insbesondere die Namens- und Adressverwaltung, zu koordinieren und festzulegen. Internet: Gesamtheit von weltweit zusammengeschalteten Computernetzwerken. Der populärste und wichtigste Dienst ist das »World Wide Web« (WWW), aber auch Dienste wie Usenet, E-Mail oder Chat stellen maßgebliche Bestandteile des Internets dar. Intranet: Netzwerk, das normalerweise auf einem einzigen Server aufsetzt, der die Rechner eines (Büro-)Gebäudes verbindet. Aus Sicherheitsgründen sind Intranets stark bis vollständig vom Internet abgeschottet. IRC (»Internet Relay Chat«): Textbasiertes Chatsystem, das unabhängig vom WWW funktioniert, zumeist auf Universitäts-Servern aufsetzt und besondere Funktionen bietet. IRC ist prinzipiell vollständig unreglementiert und weitestgehend anonym; die Kanäle verwalten und organisieren sich selbst. ISDN (»Integrated Services Digital Network«, deutsch: »Integriertes Sprachund Datennetz«): Internationaler Standard, über den ein digitales Telekommunikationsnetz mit ganz verschiedenen Diensten realisiert wird. ISP (»Internet Service Provider«): Internetdienstleister, der über eine permanente Verbindung zum Internet verfügt und gegen eine Gebühr die temporäre oder permanente Verbindung zum Internet herstellt und weitere Dienste anbietet. LAN (»Local Area Network«, deutsch: »lokales Netzwerk«): LANs stellen räumlich gering ausgedehnte Netzwerke dar, die nicht mehr einzelne Rechner, sondern vor allem Intranets bzw. deren Server zu einem eingegrenzten Netzwerk zusammenschließen. Mailinglisten: Setzen auf dem Dienst E-Mail auf und stellen eine relativ unkomplizierte Möglichkeit dar, ein thematisch eng umgrenztes Forum zu realisieren. Die Organisation übernimmt ein zentrales Listenverwaltungsprogramm. Memex: Theoretisches, mechanisches Wissensorganisationssystem. Modem (Abkürzung für »Modulator/Demodulator«): Gerät, mit dem digitale Daten beim Sender in Signale für eine analoge Leitung umgewandelt und beim Empfänger wiederum in digitale Daten rückgewandelt werden. MUD (»Multi User Dungeon«, deutsch etwa »Mehrbenutzer-Verlies«): Textbasierte Spielumgebungen, die auf Großrechnern laufen und auf die nur mit Hilfe eines speziellen Programms (»Telnet«) zugegriffen werden kann (vgl. Döring 2003: 98-109). Newsfeed: Internetbasierte Syndikationstechnologie. Newsgroup: Internetdienst, der auf einer ähnlichen Technik wie E-Mail aufsetzt. Beiträge zu fest definierten Themen werden auf allgemein zugänglichen Newsservern veröffentlicht, von wo aus diese abgerufen werden können. Die Gesamtheit aller Newsgroups ergibt das Usenet (vgl. auch Döring 2003: 62-70). Netiquette: Sammlung von Kommunikationsregeln von netzbasierten Kommunikationsdiensten und größeren Netzcommunities. P2P (»Peer to Peer«, deutsch etwa »Gleichgestellter zu Gleichgestellter«): »Peer-to-Peer«-Kommunikation umgeht das ansonsten im Internet vorherrschende Server-Client-Prinzip. Bei P2P-Kommunikation dienen zentrale Server nur noch der Kontaktaufnahme zu anderen Rechnern, die sich in den P2P-Netzwerken befinden. Zum Transfer von Daten werden schließlich direkte Kontakte zwischen den Rechnern hergestellt.
330 | DER DIGITALE AUTOR
PHP (rekursives Backronym für »PHP Hypertext Preprocessor«): Skriptsprache, die nicht über die volle Komplexität einer gängigen ComputerHochsprache verfügt und durch die Reduzierung des Spachbestandes einfacher zu handhaben ist. Mittels PHP werden üblicherweise alle größeren Webprojekte realisiert, die notwendigerweise mit verschiedenen dynamischen Verfahren der Inhaltsgenerierung und mit Datenbankabfragen arbeiten müssen. Player (deutsch etwa: »Abspieler«): Sammelbegriff für Software, die multimediale oder interaktive Inhalte wiedergeben können. Plugin (»plug in«, deutsch: »einstöpseln«): Ergänzungsmodul, das in eine Softwareanwendung eingebunden wird und deren Funktionsumfang erweitert. Portale: Allgemeine »Einstiegsseiten« im WWW. Horizontale Portale der großen WWW-Dienste versuchen, die Ansprüche einer möglichst großen Nutzerschar zu befriedigen. Dagegen bieten vertikale Portale möglichst vollständige Informationen und Verweise zu einem thematisch eng umgrenzten Thema. Real life: Mit diesem Begriff aus der Netz- und Computerkultur wird der Lebensteil eines Nutzers beschrieben, der sich außerhalb des Internets sowie damit verbundener Gruppen abspielt. RFCs (»Request for Comments«, deutsch: »Aufforderung zu Kommentaren«): Spezieller Dokumenttyp im Internet. In diesem werden Arbeitsergebnisse und Vorschläge von offiziellen Arbeitsgruppen veröffentlicht, die sich mit Aufbau, Struktur und Wartung des Internets beschäftigen. Soziale Software: Der Begriff wird im Zusammenhang mit dem Slogan »Web 2.0« verwendet, um komplexe Webanwendungen zu charakterisieren, die vor allem den Aufbau von sozialen Netzwerken und von Communities ermöglichen. Inhalte und Vernetzungen werden dabei vor allem von den Nutzern selbst erstellt und gepflegt (»user generated content«), damit sind diese Anwendungen weitgehend selbstorganisiert. Storyspace: Software zur Realisierung von Hypertext-Anwendungen auf Diskette oder CD-ROM. Dieses System wurde vor dem WWW entwickelt und erfreute sich auch nach dessen Etablierung einer gewissen Beliebtheit, vor allem im angloamerikanischen Raum. Sowohl der HypertextPionier und Storyspace-Entwickler Michael Joyce als auch der Hypertext-Forscher George P. Landow waren prominente Nutzer der Software. Syndication (auch Content-Syndication): Im Allgemeinen bezeichnet Syndication die Mehrfachverwendung von Inhalten, die in allen Medien zum Einsatz kommen. Bezogen auf das Internet ist damit die Zusammenführung von Inhalten aus verschiedenen Webquellen gemeint. Telnet: Mit diesem Internetprotokoll können unverschlüsselte Verbindungen zu anderen Computern über das Internet hergestellt werden, um diese per Kommandozeile anzusprechen und zu steuern. Die fehlende Verschlüsselung hat dazu geführt, dass das Protokoll in der Gegenwart weitgehend an Bedeutung verloren hat und durch Nachfolger wie SSH ersetzt wurde. TCP (»Transmission Control Protocol«) und IP (»Internet Protocol«): Beide Protokolle ermöglichen den Datenaustausch zwischen unterschiedlichen Netzwerken und stellen damit die grundlegenden Protokolle des Internets dar, ohne die Netzkommunikation unmöglich wäre.
ANHANG | 331
URL (»Uniform Resource Locator«): Adressierungsverfahren in Computernetzwerken (z. B. im World Wide Web), bei dem eine Ressource (z. B. Webseite) über ihr Zugriffsprotokoll und ihren Ort definiert ist. Usenet: Ältester und ›anarchistischster‹ Bestandteil des Internets. Web 2.0: Oberbegriff für die Kombination einer ganzen Reihe von Technologien, die komplexe Webanwendungen ermöglichen, mit verschiedenen »Social Software«-Systemen und der Aufwertung des Nutzers als Lieferant von Inhalten. Ursprünglich als Marketingbegriff geprägt, steht er heute für ein verändertes Wahrnehmungs- und Nutzungsverhalten von Produzenten und Nutzer (vgl. dazu ausführlicher auch Alby 2006; Heuer 2006). Weblog: Webanwendung, die die einfache Publikation von chronologisch geordneten Einträgen erlaubt. Webspace: Bezeichnung für den zumeist gemieteten und üblicherweise im Umfang begrenzten Speicherplatz bei einem ISP, auf dem Webseiten zum freien Abruf publiziert werden können. Wiki: Webanwendung, die einfache kollaborative Textproduktion gestattet. W3C (»World Wide Web Consortium«): Das W3C wurde im Jahr 1994 u. a. von Tim Berners-Lee gegründet; es entwickelt und vereinheitlicht Softwaretechnologien für das WWW. WWW (»World Wide Web«): Bekannter graphischer Internet-Dienst. WYSIWYG (»What You See Is What You Get«, deutsch: »Was du siehst, ist, was du bekommst«): Prinzip in Textverarbeitungsprogrammen und Desktop-Publishing-Anwendungen. Dabei wird ein Dokument während der Bearbeitung genauso angezeigt, wie es ausgedruckt aussehen würde.
Literaturverzeichnis (Elektronische) Primärliteratur »23:40 Das Gedächtnis«, Mitschreibprojekt von Guido Grigat. . 1997 ff. »Die Aaleskorte der Ölig«, von Frank Klötgen und Dirk Günther. . 1999. »AMAZON NOIR ~ The Big Book Crime«, Netzkunstprojekt von UBERMORGEN.COM (Hans Bernhard und lizvlx), Paolo Cirio und Alessandro Ludovico. . 2006. »amillionpenguins.com«, Wikiroman. . 2006-2007. »apple in space«, Netzliteraturprojekt von Beat Suter zusammen mit René Bauer. . 2003-2004. »ascii history of moving images«, Codeworks des »ASCII Art Ensembles« (Walter van der Cruijsen, Luka Frelih, Vuk Cosic). . 1998. »Assoziations-Blaster«, Mitschreibprojekt von Alvar C. H. Freude und Dragan Espenschied. . 1999 ff. »Autorschaft und ihre automatische Generierung«, Radioprojekt von Cornelia Sollfrank und Timothy Didymus. Entstanden für das Kunstradio ORF, Wien, im Rahmen der Sendereihe ».ran [real audio netliterature]«, kura-
332 | DER DIGITALE AUTOR
tiert von Johannes Auer. . 05.12.2004. »Beim Bäcker«, Mitschreibprojekt, initiiert von Claudia Klinger. . 1996-2000. »biennale.py«, Codework des Künstlerduos 0100101110101101.org und epidemiC. . 2001. »Blue Rooms«, Hyperfiction von Liz Crain. . 2000. »concrete_maschine«, Netzliteraturprojekt von Johannes Auer. . 2003. »DADADATA«, computerliterarisches Projekt von Hartmut Landwehr. . o. J. »dhyang.c 2000«, Obfuscated C Code von Don Yang. . 2000. »digital hijack«, Suchmaschinen-Aktion der Künstlergruppe »etoy«. . 1996. »Endlose Liebe – Endless Love«, Online-Musical von Frank Klötgen. . 2005. »Fabrikverkauf«, art-wear-Projekt von Frieder Rusmann [Johannes Auer]. . 1999. »The Famous Sound of Absolute Wreaders«, kollaboratives, intermediäres Projekt von Johannes Auer zusammen mit Reinhard Döhl, Sylvia Egger, Oliver Gassner, Martina Kieninger, Beat Suter. . 2003. »FreedomFone«, Internet-Satire von Alvar Freude. . 2001-2005. »Free Lutz!«, Performance und Live-Sendung von Johannes Auer. Erstaufführung für Radio Copernicus, Veranstaltungsreihe »Talking Back to Radio, Radio als Zuhörer, ArtyĞci zmieniają radio«. Städtische Galerie Wroclaw, Polen. . 08.12.2005. »Für den natürlichen Tod des Kunstwerks / For the Natural Death of the Work of Art«, Hypermediaprojekt von Johannes Auer. . 2001. »Generationen-Projekt«, kollaboratives Geschichtsschreibungsprojekt von Jan Ulrich Hasecke. . 1998 ff. »Google Snippet-Pictures Ad(d)Sense«, Projekt von Johannes Auer. . 2005. »Google Will Eat Itself«, Netzkunstprojekt von UBERMORGEN.COM (Hans Bernhard und lizvlx) und Alessandro Ludovico. . 2005. »Heaven & Hell«, dialogisches Projekt von Olia Lialina und Michaël Samyn. . 1997. »Hilfe!«, Hypertext von Susanne Berkenheger. . 1998. »INTEGER«, Netzmusik-Projekt von Michael Iber. Weltpremiere für SWR2. . 23.01.2001. »Kahuna-Modus«/»kahunaMUD«, literarisches Rollenspiel bzw. MUD von Nika Bertram. . 2001. »Looppool«, Shockwave-Arbeit von Sebastian Böttcher. . 1998.
ANHANG | 333
»Lyrikmaschine«, Hypertext von Martin Auer. . 1996. »Macelib«, Netzliteratur-Performance von Dirk Schröder. Aufführung und Beendigung am 11.11.2005 um 24:00 Uhr. Projekt gelöscht. »Die Maschine«, Hörspiel von Georges Perec und Eugen Helmlé. Ursendung am 13.11.1968, Saarländischer Rundfunk. Veröffentlicht als Perec/ Helmlé 2001 [1968]. »Matrix-Trilogie«, Filmtrilogie von Andy Wachowski und Larry Wachowski. 1999-2003. »Matrix« (1999). »Matrix Reloaded« (2003), »Matrix Revolutions« (2003). »Mensch - Maschine :: Apple in Space :: Search the World«, netzliterarisches Radioprojekt von Beat Suter zusammen mit René Bauer. Entstanden für das Kunstradio ORF, Wien, im Rahmen der Sendereihe ».ran [real audio netliterature]«, kuratiert von Johannes Auer. . 07.11.2004. »Net Art Generator«, Netzkunstprojekt von Cornelia Sollfrank. . 1999. »nic-las«, kollaboratives Schreibtool von René Bauer und Joachim Maier. . 1999 ff. »NORD«, Hyperfiction von Esther Hunziker nach Felix Zbinden. . 2003. »NULL«, Mitschreibprojekt, initiiert von Thomas Hettche und Jana Hensel. . 2000. Veröffentlicht als: Hettche/Hensel 2000. »Permutationen«, Website zur kombinatorischen Dichtung von Florian Cramer. . 1996-2000. »plaintext.cc«, Codework von Florian Cramer. . 2005. »Revisiting Feminist Art. No. 1: ›le chien ne va plus‹«, Performance von Cornelia Sollfrank und Monty Cantsin. Phönix-Einkaufscenter HamburgHarburg. Pressemitteilung. . 07.07. 2006. »Die Säulen von Llacaan«, kollaboratives Schreibprojekt. . 2000-2001. (Verweis auf archivierte Version, da Originalquelle inzwischen offline, Stand: 20.11.2008). »Die Schwimmmeisterin«, Hypermediaspiel von Susanne Berkenheger. . 2002. Englische Fassung: »The Bubble Bath«. . 2005. »Search Lutz!«, Performance und Live-Sendung von Johannes Auer. Erstaufführung auf dem Festival »RadioREVOLTEN. Festival zur Zukunft des Radios«. Ärztehaus Mitte, Halle (Saale). . 30.09.2006. »searchSongs« suchmaschinenbasiertes Netzliteraturprojekt von Johannes Auer, René Bauer und Beat Suter. . 2007. »Spätwinterhitze«, Hyperfiction und Internetkrimi von Frank Klötgen. . 2004. »Stochastische Texte«, Programm von Theo Lutz zur Generierung von stochastischen Texten. Geschrieben 1959 für die Zuse Z 22. Veröffentlicht als Lutz 1959.
334 | DER DIGITALE AUTOR
»streamfishing«, Netzliteraturprojekt von Beat Suter zusammen mit René Bauer. . 2004. »term.i.nation net.wurk[er]«, Codework von mez [Mary-Anne Breeze]. 2003. In: Florian Cramer, Beatrice Beaubien, Alan Sondheim (Hgg.), 2003: nettime unstable digest vol 28. . 27.01.2003. (Stand: 20.11.2008). »Textra«, E-Mail-Wandertext. . 1997-1998. »Theo Lutz: Stochastische Texte (1959)«, Nachprogrammierung des Originalprogramms von Johannes Auer in der Skriptsprache PHP. . 2005. »toywar«, virtuelle Performance der Künstlergruppe etoy. November 1999 – Januar 2000. Projektseite inzwischen offline. Knappe Dokumentation der Künstlergruppe. . o. J. »Untitled game«, Codeworks von »jodi.org« (Joan Heemskerk und Dirk Paesmans). . 1996-2001. »Worldwatchers«, weblogbasiertes Literaturprojekt von Susanne Berkenheger, Gisela Müller. . 2003. Pressespiegel und Projektinformationen. . 2003. (Stand: 20.11.2008). »Wunderland-MUD«, Multi User Dungeon (MUD). sowie . 1997 ff. »Zeit für die Bombe«, Hypertextarbeit von Susanne Berkenheger. . 1997. »zeitgenossen.com«, multimediales Gesamtdatenwerk von Ursula Hentschläger und Zelko Wiener. . 1999-2005.
Sekundärliteratur Aarseth, Espen, 2001 ff.: Game Studies. The International Journal of Computer Game Research. . 2006. (Stand: 20. 11.2008). Aarseth, Espen J., 1997: Cybertext. Perspectives on Ergodic Literature. Baltimore, Maryland: Johns Hopkins University Press. Aarseth, Espen J., 1999: Hypertext, Cybertext, Digital Literature, Medium. In: dichtung-digital (1999). . 16.12.1999. (Stand: 20.11.2008, kostenpflichtiger Zugang). Aarseth, Espen J., 2001: Computer Game Studies, Year One. In: Game Studies. Jg. 1 (2001). H. 1. . Juli 2001. (Stand: 20.11.2008). Alby, Tom, 2006: Web 2.0. Konzepte, Anwendungen, Technologien. München u. a.: Hanser. Alphonso, Don, 2004: Warum diese Blogger? Warum nicht die anderen? In: Alphonso/Pahl 2004: 17-20. Alphonso, Don/Kai Pahl (Hgg.), 2004: Blogs! Text und Form im Internet. Berlin: Schwarzkopf und Schwarzkopf. Altmeppen, Klaus-Dieter/Matthias Karmasin (Hgg.), 2003-2006: Medien und Ökonomie. Band 1/1: Grundlagen der Medienökonomie: Kommunikations- und Medienwissenschaft, Wirtschaftswissenschaft (2003). Band
ANHANG | 335
1/2: Grundlagen der Medienökonomie: Soziologie, Kultur, Politik, Philosophie, International, Geschichte, Technik, Journalistik (2003). Band 2: Problemfelder der Medienökonomie (2004). Band 3: Anwendungsfelder der Medienökonomie (2006). Wiesbaden: Westdeutscher Verlag/Verlag für Sozialwissenschaften. Antor, Heinz, 2004: Artikel »Tod des Autors«. In: Nünning 2004c: 662-663. anw [Andreas Wilkens], 2009: Apple erneut mit Rekordquartal. In: heise online news. . 22.01. 2009. (Stand: 30.01.2009). Armborst, Matthias, 2006: Kopfjäger im Internet oder publizistische Avantgarde? Was Journalisten über Weblogs und ihre Macher wissen sollten. Münster: Lit. Arnold, Heinz Ludwig (Hg.), 2001: Digitale Literatur. Text und Kritik. Band 152. München: Edition Text und Kritik. Arns, Inke, 2002: Netzkulturen. Hamburg: Europäische Verlagsanstalt. Arns, Inke, 2004: Interaktion, Partizipation, Vernetzung: Kunst und Telekommunikation. . 2004. (Stand: 20.11.2008). Aronsson, Lars, 2002: Operation of a Large Scale, General Purpose Wiki Website. In: João Álvaro Carvalho/Arved Hübler/Ana Alice Baptista (Hgg.), 2002: Technology Interactions. Proceedings of the 6th International ICCC/IFIP Conference on Electronic Publishing held in Karlovy Vary, Czech Republic, 6 - 8 November 2002. Berlin: Verlag für Wissenschaft und Forschung. S. 27-37. Auer, Johannes, 2000: Sieben Thesen zur Netzliteratur. In: Timo Kozlowski/Oliver Jahraus (Hgg.), 2000: Elektronische Literatur. Bamberg: Universität Bamberg. S. 12-17. Auer, Johannes (Hg.), 2002 ff.: Die wichtigsten dt. Netzliteratur- // Internetliteratur- // Hyperfiction-Projekte. . 29.06.2008. (Stand: 20.11.2008). Auer, Johannes, 2004a: .ran [real audio netliterature]. Einführung. . 2004. (Stand: 20.11.2008). Auer, Johannes (Hg.), 2004b: $wurm = ($apfel>0)? 1: 0. Experimentelle Literatur und Internet. Memoscript für Reinhard Döhl. Zürich, Stuttgart: Update. Auer, Johannes, 2005: Johannes Auer im Gepräch mit Jürgen Nehrlich und Thomas Doktor. Radio Copernicus. 08.12.2005. . 08.12. 2005. (Stand: 20.11.2008). Auer, Johannes, 2006a: Einleitung zum Projekt »Search Lutz!« Performance und Live-Sendung auf dem Festival »RadioREVOLTEN. Festival zur Zukunft des Radios«. Ärztehaus Mitte, Halle (Saale). 30.09.2006. Mitschnitt der Radiosendung. . 2007. (Stand: 20.11.2008). Auer, Johannes, 2006b: Search Lutz! In: Breitsameter et al. 2006a: 41. Auer, Johannes (Hg.), 2007: Netzliteratur und Radio. . o. J. (Stand: 20.11.2008). Auer, Johannes, 2008: Netliterature and Radio. In: Heidi Grundmann/Elisabeth Zimmermann/Reinhard Braun/u. a. (Hgg.), 2008: Re-Inventing Radio. Aspects of Radio as Art. Frankfurt am Main: Revolver. S. 359-374.
336 | DER DIGITALE AUTOR
Auer, Johannes/Reinhard Döhl, 2006: Text – Bild – Screen // Netztext – Netzkunst. In: Walter Gödden (Hg.), 2006: Literatur in Westfalen. Beiträge zur Forschung 8. Bielefeld: Aisthesis. S. 295-308. Auer, Johannes/Christiane Heibach/Beat Suter (Hgg.), 2002 ff.: Netzliteratur. net. Netzliteratur // Internetliteratur // Hyperfiction // Netzkunst. . November 2008. (Stand: 20.11.2008). Bachmann, Christian, 2002: Digitales Drachentöten. Rezension zur «ästhetischen Dimension einer digitalen Literatur». In: dichtung-digital (2002). . 22.03. 2002. (Stand: 20.11.2008). Barsch, Achim, 1993: Handlungsebenen, Differenzierung und Einheit des Literatursystems. In: Siegfried J. Schmidt (Hg.), 1993: Literaturwissenschaft und Systemtheorie. Positionen, Kontroversen, Perspektiven. Opladen: Westdeutscher Verlag. S. 144-169. Barsch, Achim, 2000: Die nicht immer lineare Entwicklung von Schüler zum Kollegen. . 28.10. 2000. (Stand: 20.11.2008). Barsch, Achim/Friedrich W. Block/Gebhard Rusch/u. a., 2000: SJSchmidt. net. Festschrift zu Ehren Siegfried J. Schmidt. . 28.10.2000. (Stand: 20.11.2008). Barth, Thomas, 2005: Blick, Diskurs und Macht. Michel Foucault und das Medien-Dispositiv. In: MEDIENwissenschaft (2005). H. 1. S. 8-14. Barthes, Roland, 2000 [1968]: Der Tod des Autors. In: Jannidis et al. 2000b: 185-193. Bärwolff, Matthias/Robert A. Gehring/Bernd Lutterbeck (Hgg.), 2005: Open Source Jahrbuch 2005. Zwischen Softwareentwicklung und Gesellschaftsmodell. Berlin: Lehmanns Media. Bärwolff, Matthias/Robert A. Gehring/Bernd Lutterbeck (Hgg.), 2006: Open Source Jahrbuch 2006. Zwischen Softwareentwicklung und Gesellschaftsmodell. Berlin: Lehmanns Media. Bärwolff, Matthias/Robert A. Gehring/Bernd Lutterbeck (Hgg.), 2007: Open Source Jahrbuch 2007. Zwischen freier Software und Gesellschaftsmodell. Berlin: Lehmanns Media. Bärwolff, Matthias/Robert A. Gehring/Bernd Lutterbeck (Hgg.), 2008: Open Source Jahrbuch 2008. Zwischen freier Software und Gesellschaftsmodell. Berlin: Lehmanns Media. Baudry, Jean-Louis, 1986 [1970]: Ideological Effects of the Basic Cinematographic Apparatus. In: Rosen 1986: 286-298. Baudry, Jean-Louis, 1986 [1975]: The Apparatus: Metapsychological Approaches to the Impression of Reality in Cinema. In: Rosen 1986: 299318. Baudry, Jean-Louis, 1993 [1970]: Ideologische Effekte erzeugt vom Basisapparat. In: Eikon. Internationale Zeitschrift für Photographie & Medienkunst. Jg. 5 (1993). H. 5. S. 36-43. Baudry, Jean-Louis, 1994 [1975]: Das Dispositiv. Metapsychologische Betrachtungen des Realitätseindrucks. In: Psyche. Zeitschrift für Psychoanalyse und ihre Anwendungen. Jg. 48 (1994). H. 11. S. 1047-1074. Bauer, Elisabeth, 2003: Kritik. »Interfictions. Vom Schreiben im Netz«. In: Neue deutsche Literatur. Jg. 51 (2003). H. 6. S. 176-180. Baumann, Heide/Clemens Schwender (Hgg.), 2000: Kursbuch Neue Medien 2000. Ein Reality-Check. Stuttgart, München: Deutsche Verlags-Anstalt.
ANHANG | 337
Baumgärtel, Tilman, 2000a: [rohrpost] Nochmal etoy: ein Interview am Tag danach.... . 27.01.2000. (Stand: 12.01.2009). Baumgärtel, Tilman, 2000b: Netzkunst – what is it? In: Kunstmarkt.com. . 24.11.2000. (Stand: 20.11.2008). Baumgärtel, Tilman, 2003: Computer-Spiele. In: Gohlke 2003: 21-24. Baumgärtel, Tilman, 2005: Die präzisen Vergnügen. In: Telepolis. . 20.03.2005. (Stand: 20.11. 2008). Baumgärtel, Tilman/Silke Albrecht (Hgg.), 2003: Games. Computerspiele von KünstlerInnen. Frankfurt am Main: Revolver, Archiv für Aktuelle Kunst. Beckett, Samuel, 1974: Texts for Nothing. London: Calder & Boyars. Beckett, Samuel, 1974 [1954]: III. In: Beckett 1974: 16-21. Beckett, Samuel, 1977 [1954]: Erzählungen und Texte um Nichts. Frankfurt am Main: Suhrkamp. Beckett, Samuel, 1979 [1953]: Der Namenlose. Frankfurt am Main: Suhrkamp. Bein, Thomas, 1999: Zum ›Autor‹ im mittelalterlichen Literaturbetrieb und im Diskurs der germaistischen Mediävistik. In: Jannidis et al. 1999b: 303-320. Bein, Thomas, 2004: Autor – Autorisation – Authentizität. Mediävistische Anmerkungen zur Begrifflichkeit. In: Bein et al. 2004: 17-24. Bein, Thomas/Rüdiger Nutt-Kofoth/Bodo Plachta (Hgg.), 2004: Autor – Autorisation – Authentizität. Beihefte zu Editio 21. Tübingen: Niemeyer. Benjamin, Walter, 1991 [1935]: Der Autor als Produzent. In: Rolf Tiedemann/Herrmann Schweppenhäuser (Hgg.), 1991: Walter Benjamin: Gesammelte Schriften. Band II.2. Frankfurt am Main: Suhrkamp. S. 683701. Berkenheger, Susanne, 2002: Die Schwimmmeisterin oder: »Literatur im Netz ist eine Zumutung«. In: dichtung-digital. 5/2002. . (Stand: 24. 10.2008). Berners-Lee, Tim, 1999: Der Web-Report. Der Schöpfer des World Wide Webs über das grenzenlose Potential des Internets. München: Econ. Berressem, Hanjo, 2004: Artikel »Poststrukturalismus«. In: Nünning 2004c: 544-546. Bertram, Nika, 2001: Stranger than fiction 2 – the author’s return. Vortrag auf dem Symposion »poetics of digital text – Poetologie digitaler Texte«. 27.09.-30.09.2001, Universität Erfurt. . 2001. (Stand: 20.11.2008). Bieber, Christoph, 2006: Die Entdeckung der Bürger. In: Telepolis. . 09.08.2006. (Stand: 20. 11.2008). Bieber, Christoph/Claus Leggewie, 2004a: Interaktivität – Soziale Emergenzen im Cyberspace? In: Bieber/Leggewie 2004b: 7-14. Bieber, Christoph/Claus Leggewie (Hgg.), 2004b: Interaktivität. Ein transdisziplinärer Schlüsselbegriff. Frankfurt am Main, New York: Campus.
338 | DER DIGITALE AUTOR
Binas, Susanne (Hg.), 2003: Erfolgreiche Künstlerinnen. Arbeiten zwischen Eigensinn und Kulturbetrieb. Essen: Klartext. BITKOM, 2007: Daten zur Informationsgesellschaft. Status quo und Perspektiven Deutschlands im internationalen Vergleich. Edition 2007. . 31.05.2007. (Stand: 23.12.2008). Bittner, Wolfgang, 2002: Beruf: Schriftsteller. Was man wissen muss, wenn man vom Schreiben leben will. Reinbek bei Hamburg: Rowohlt Taschenbuch Verlag. Blasberg, Cornelia, 2002: Adolf Hitler / George Tabori: ›Mein Kampf‹. Über Autorschaft auf der Bühne (der Geschichte). In: Detering 2002a: 258277. Bleich, Holger, 2004: Der Fall FTPWelt. Wie die große Warez-DownloadPlattform aufflog. In: c’t. 21/2004. S. 62-66. Block, Friedrich W., 2000a: Ein Link: »p0es1s – internationale digitale Poesie«. . 28.10.2000. (Stand: 20.11.2008). Block, Friedrich W. (Hg.), 2000b: p0es1s. Internationale digitale Poesie. In Zusammenarbeit mit André Vallias. Kassel: Winfried Jenior. Block, Friedrich W., 2004: vom code zum interface – und zurück: zur orientierung im diskurs digitaler poesie zwischen konzept und wahrnehmung. In: Auer 2004b: 76-86. Block, Friedrich W./Christiane Heibach/Karin Wenz, 2004a: Ästhetik digitaler Poesie. Eine Einführung / The Aesthetics of Digital Poetry. An Introduction. In: Block et al. 2004b: 11-36. Block, Friedrich W./Christiane Heibach/Karin Wenz (Hgg.), 2004b: p0es1s. Ästhetik digitaler Poesie. Ostfildern: Hatje Cantz. Block, Friedrich W./Rui Torres, 2007: Poetic Transformations in(to) the Digital. Vortrag auf dem Festival »E-Poetry 2007«, 21.05.-23.05.2007, Paris, Frankreich. . 2007. (Stand: 01.12.2008). Blume, Jutta, 2006: »Google Will Eat Itself«. In: Telepolis. . 20.08.2006. (Stand: 20.11.2008). Böhler, Christine, 2001: Literatur im Netz. Projekte, Hintergründe, Strukturen und Verlage im Internet. Wien: Triton. Böhler, Michael/Beat Suter, 2000: Genreformen digitaler Literatur. Computerliteratur, Netzliteratur, Hypertextliteratur. . 17.02.2002. (Stand: 20.11.2008). Bohnenkamp, Anne, 2002: Autorschaft und Textgenese. In: Detering 2002a: 62-79. Bolter, Jay David, 1991: Writing Space. The Computer, Hypertext, and the History of Writing. Hillsdale, New Jersey: Lawrence Erlbaum. Bolter, Jay David, 2001: Writing Space. The Computer, Hypertext and the Remediation of Print. Second Edition [substantial revision]. Mahwah, New Jersey, London: Lawrence Erlbaum Associates. Bolz, Norbert/Friedrich A. Kittler/Christoph Tholen (Hgg.), 1999 [1994]: Computer als Medium. Unveränderter Nachdruck. München: Fink. Booth, Wayne C., 2000 [1961]: Der implizite Autor. In: Jannidis et al. 2000b: 142-152.
ANHANG | 339
Bosma, Josephine, 1998: The Ascii Art Ensemble. In: Telepolis. . 18.11.2005. (Stand: 20.11.2008). Bosse, Heinrich, 1981: Autorschaft ist Werkherrschaft. Über die Entstehung des Urheberrechts aus dem Geist der Goethezeit. Paderborn u. a.: Schöningh. Bourdieu, Pierre, 1999: Die Regeln der Kunst. Genese und Struktur des literarischen Feldes. Frankfurt am Main: Suhrkamp. Boutin, Paul, 2005: Posts: Robot Wisdom on the Street. In: Wired (2005). H. 13.07. . July 2005. (Stand: 20.11.2008). Braun, Rebecca, 2009: Autorinszenierungen: Autorschaft und literarisches Werk im Kontext der Medien. Ed. by Christine Kuenzel and Jörg Schönert. Würzburg: Königshausen & Neumann. 2007. [Review]. In: Modern Language Review. Jg. 104 (2009). H. 2. (im Druck) Brecht, Bertolt, 2004 [1932]: Der Rundfunk als Kommunikationsapparat. In: Claus Pias/Joseph Vogl/Lorenz Engell/u. a. (Hgg.), 2004: Kursbuch Medienkultur. Die maßgeblichen Theorien von Brecht bis Baudrillard. 5. Auflage. Stuttgart: DVA. S. 259-263. Breitsameter, Sabine/Marold Langer-Philippsen/Ralf Wendt/u. a. (Hgg.), 2006a: RadioREVOLTEN. Festival zur Zukunft des Radios. Katalog. Halle: Verlag für Revolten. Breitsameter, Sabine/Ralf Wendt/Johannes Wilms, 2006b: Einleitung in die Radiorevolten. In: Breitsameter et al. 2006a: 9-14. Brück, Ingrid, 2004: Alles klar, Herr Kommissar? Aus der Geschichte des Fernsehkrimis in ARD und ZDF. Bonn: ARCult. Brück, Ingrid/Andrea Guder/Reinhold Viehoff/u. a., 2003: Der deutsche Fernsehkrimi. Eine Programm- und Produktionsgeschichte von den Anfängen bis heute. Stuttgart, Weimar: Metzler. Brune, Carlo, 2003: Roland Barthes. Literatursemiologie und literarisches Schreiben. Würzburg: Königshausen & Neumann. Brunner, Horst/Sigrid Neureiter-Lackner, 1996: Walther von der Vogelweide. Epoche – Werk – Wirkung. München: C. H. Beck. Bruns, Axel, 2008: Blogs, Wikipedia, Second Life, and Beyond: From Production to Produsage. New York: Peter Lang. Bublitz, Hannelore/Andrea D. Bührmann/Christine Hanke/u. a. (Hgg.), 1999: Das Wuchern der Diskurse: Perspektiven der Diskursanalyse Foucaults. Frankfurt am Main, New York: Campus. Bumke, Joachim, 1997: Wolfram von Eschenbach. 7., völlig neu bearbeitete Auflage. Stuttgart: Metzler. Bumke, Joachim, 2002: Höfische Kultur. Literatur und Gesellschaft im hohen Mittelalter. 10. Auflage. München: dtv. Bundeszentrale für politische Bildung, 2007: Dossier: Open Source. . Januar 2007. (Stand: 20.11.2008). Burke, Seán, 1992: The Death and Return of the Author. Criticism and Subjectivity in Barthes, Foucault and Derrida. Edinburgh: Edinburgh University Press. Burtscher-Bechter, Beate, 2004: Diskursanalytisch-kontextuelle Theorien. In: Sexl 2004a: 257-288.
340 | DER DIGITALE AUTOR
Büscher, Barbara/Hans-Christian von Herrmann/Christoph Hoffmann, 2004: Ästhetik als Programm. Max Bense. Daten und Streuungen. Berlin: Vice Versa. Bush, Vannevar, 1945: As we may think. . 2004. (Stand: 20.11.2008). Bush, Vannevar, 1997 [1945]: As We May Think. Auszug und Kommentar: Hartmut Winkler. In: formdiskurs. Zeitschrift für Design und Theorie. Journal of Design and Design Theory. 2, I/1997. S. 136-147. Cailliau, Robert/Dan Connolly, 2000: A Little History of the World Wide Web. . 2000. (Stand: 20.11.2008). Carr, Nicholas, 2005: Rough Type. Nicholas Carr’s Blog. The amorality of Web 2.0. . 03.10.2005. (Stand: 20.11.2008). Castells, Manuel, 2005: Die Internet-Galaxie. Internet, Wirtschaft und Gesellschaft. Übersetzt von Reinhart Kößler. Wiesbaden: VS. Cayley, John, 2004: Der Code ist nicht der Text (es sei denn, er ist der Text) / The Code is Not the Text (unless it is the Text). In: Block et al. 2004b: 287-306. Charlier, Michael, 1997: Erklärung zur Preisvergabe. CD-ROM Dokumentation des Pegasus 1997. . CmdrTaco [Rob Malda], 2006: Slashdot | On the Matter of Slashdot Story Selection. . 10.01.2006. (Stand: 20.11.2008). CmdrTaco [Rob Malda] u. a., o. J.: Slashdot FAQ – Comments and Moderation. . 2003. (Stand: 20.11. 2008). Comolli, Jean-Louis, 1986 [1971]: Technique and Ideology: Camera, Perspective, Depth of Field [Parts 3 and 4]. In: Rosen 1986: 421-443. Comolli, Jean-Louis, 2003 [1980]: Maschinen des Sichtbaren. In: Robert F. Riesinger (Hg.), 2003: Der kinematographische Apparat. Geschichte und Gegenwart einer interdisziplinären Debatte. Münster: Nodus Publikationen. S. 63-81. Cormeau, Christoph/Wilhelm Störmer, 1993: Hartmann von Aue. Epoche – Werk – Wirkung. 2., neubearbeitete Auflage. München: C. H. Beck. Cramer, Florian, 2003a: Social Hacking, Revisited. . 01.04.2003. (Stand: 20.11.2008). Cramer, Florian, 2003b: Zehn Thesen zur Softwarekunst. In: Gohlke 2003: 613. Cramer, Florian, 2004: Über Literatur und Digitalcode / Digital Code and Literary Text. In: Block et al. 2004b: 263-275. Cramer, Florian, 2005: Words made flesh. Code, Culture, Imagination. . 2005. (Stand: 20.11.2008). Cramer, Florian, 2009: Exe.cut[up]able statements. Poetische Kalküle und Phantasmen des selbstausführenden Texts. Paderborn: Fink. (im Erscheinen) D’Cruz, Carolyn, 2001: »What Matter Who’s Speaking?« Authenticity and Identity in Discourses of Aboriginality in Australia. In: Jouvert. Jg. 5 (2001). H. 3. . (Stand: 20.11.2008).
ANHANG | 341
Dambeck, Holger, 2006: Wikipedia-Gründer fordert Wikipedia heraus. In: SPIEGEL ONLINE. . 17.10.2006. (Stand: 20.11.2008). DAS DEUTSCHE HANDWERK, 1998: DAS DEUTSCHE HANDWERK (Raschke, Rogler, Rusman). Die Biographie. Erscheint anläßlich der Ausstellung »Männer, Mädchen und Maschinen«. Württembergischer Kunstverein Stuttgart. 04.07.-06.09.1998. Heidelberg: Verlag das Wunderhorn. Day, Michael, 2003: Collecting and preserving the World Wide Web. A feasibility study undertaken for the JISC and Wellcome Trust. . 25.02.2003. (Stand: 20. 11.2008). Deleuze, Gilles, 1992a: Foucault. Frankfurt am Main: Suhrkamp. Deleuze, Gilles, 1992b: Was ist ein Dispositiv? In: François Ewald/Bernhard Waldenfels (Hgg.), 1992b: Spiele der Wahrheit, Michel Foucaults Denken. 2. Auflage. Frankfurt am Main: Suhrkamp. S. 153-162. Detering, Heinrich (Hg.), 2002a: Autorschaft. Positionen und Revisionen. Germanistische Symposien-Berichtsbände 24. Stuttgart, Weimar: Metzler. Detering, Heinrich, 2002b: Vorbemerkung. In: Detering 2002a: IX-XVI. DFG, 2005: Open Access und Forschungsförderung durch die Deutsche Forschungsgemeinschaft. . 21.11.2005. (Stand: 28.11.2008). Diemand, Vanessa/Michael Mangold/Peter Weibel (Hgg.), 2007: Weblogs, Podcasting und Videojournalismus. Neue Medien zwischen demokratischen und ökonomischen Potenzialen. Hannover: Heise. Djordjevic, Valie/Robert A. Gehring/Volker Grassmuck/u. a. (Hgg.), 2008: Urheberrecht im Alltag. Kopieren, bearbeiten, selber machen. 2. Auflage. Bonn: Bundeszentrale für politische Bildung. Dobusch, Leonhard/Christian Forsterleitner (Hgg.), 2007: Freie Netze. Freies Wissen. Wien: Echo media. Döhl, Reinhard/Johannes Auer, 2003: Wertetransfer: (Netz-) Kunst & Kommerz. Performativer Vortrag und Demonstration im Kunstpanorama Luzern am 14.11.2003. . 2003. (Stand: 20.11.2008). Döhl, Reinhard/Johannes Auer, 2004: stuttgarter gruppe und netzprojekte. ein interview von roberto simanowski, dichtung digital. In: Auer 2004b: 158176. Döhl, Reinhard/Johannes Auer/Friedrich W. Block, 1998 ff.: Als Stuttgart Schule machte. Ein Internet-Reader. . Mai 2006. (Stand: 20.11.2008). Domsch, Sebastian, 2002: Dichtet digitaler! Roberto Simanowski bringt den elektronischen Pegasus ins Buch. In: Süddeutsche Zeitung. 21.11.2002. S. 14. Döring, Nicola, 2003: Sozialpsychologie des Internet. Die Bedeutung des Internet für Kommunikationsprozesse, Identitäten, soziale Beziehungen und Gruppen. 2., vollständig überarbeitete und erweiterte Auflage. Göttingen u. a.: Hogrefe.
342 | DER DIGITALE AUTOR
Dotzler, Bernhard J., 1992: Lektüre der Libertinage. Autorschaft und Medientechnik, Kulturindustrie und Erzählform in Jorge Sempruns L’Algarabie. In: Ingold/Wunderlich 1992: 133-150. Dreher, Thomas, 2002-2006: Link, Filter und Informationsfreiheit: ODEM. In: IASLonline Lektionen in NetArt (2002-2006). . Oktober 2006. (Stand: 20.11.2008). Dreher, Thomas, 2005: Konzeptuelle Kunst und Software Art. Notationen, Algorithmen und Codes. In: IASLonline NetArt: Theorie. . März 2005. (Stand: 20.11.2008). Drossou, Olga/Stefan Krempl/Andreas Poltermann (Hgg.), 2006: Die wunderbare Wissensvermehrung. Wie Open Innovation unsere Welt revolutioniert. Hannover: Heise. Eble, Julia, 2003: Wie schlaue Netzkünstler Maschinen für sich arbeiten lassen. Netzkunst als Sammlerobjekt. . 2003. (Stand: 21.11.2008). Eibl, Karl, 1993: Strukturierte Nichtwelten. Zur Biologie der Poesie. In: IASL. Internationales Archiv für Sozialgeschichte der deutschen Literatur. Jg. 18 (1993). H. 1. S. 1-36. Eibl, Karl, 1999: Der ›Autor‹ als biologische Disposition. In: Jannidis et al. 1999b: 47-60. Eibl, Thomas, 2004: Hypertext. Geschichte und Formen sowie Einsatz als Lern- und Lehrmedium. Darstellung und Diskussion aus medienpädagogischer Sicht. München: kopaed. Elsner, Monika/Thomas Müller/Peter M. Spangenberg, 1993: Zur Entstehungsgeschichte des Dispositivs Fernsehen in der Bundesrepublik Deutschland der fünfziger Jahre. In: Hickethier 1993b: 31-66. Engelbart, Christina/Douglas C. Engelbart, 2003: A lifetime pursuit. . 24.06.2003. (Stand: 21.11. 2008). Engelmann, Jan (Hg.), 1999: Michel Foucault: Botschaften der Macht. Der Focault-Reader. Diskurs und Medien. Stuttgart: DVA. Erhart, Walter, 2002: Sektion III: Der erforschte und der fingierte Autor. In: Detering 2002a: 327-333. Ermert, Monika, 2005: Freispruch im Hyperlink-Prozess. In: heise online news. . 15.06.2005. (Stand: 21.11.2008). Erni, Regula, 2006: Literaturwelt. Das Blog. » Blog Archive » Mäzen gesucht. . 15.03.2006. (Stand: 21.11.2008). Eschenbach, Wolfram von, 2003: Willehalm. Text und Übersetzung. Text der Ausgabe von Werner Schröder. Übertragung, Vorwort und Register von Dieter Kartschoke. 3., durchgesehene Auflage. Berlin, New York: de Gruyter. Eskelinen, Markku/Raine Koskimaa (Hgg.), 2001: CyberText Yearbook 2000. Publications of the Research Centre for Contemporary Culture. Saarijärvi: University of Jyväskylä. Eskelinen, Markku/Raine Koskimaa (Hgg.), 2002: CyberText Yearbook 2001. Publications of the Research Centre for Contemporary Culture. Saarijärvi: University of Jyväskylä. Eskelinen, Markku/Raine Koskimaa (Hgg.), 2003: CyberText Yearbook 2002-2003. With a special section on ergodic poetry edited by John Cay-
ANHANG | 343
ley and Loss Pequeno Glazier. Publications of the Research Centre for Contemporary Culture. Saarijärvi: University of Jyväskylä. Eßer, Torsten, 2006: Nationalismus im Internet? In: Telepolis. . 21.03.2006. (Stand: 21.11.2008). Fahlenbrach, Kathrin, 2002: Protest-Inszenierungen. Visuelle Kommunikation und kollektive Identitäten in Protestbewegungen. Wiesbaden: Westdeutscher Verlag. Faulstich, Werner (Hg.), 1994: Vom »Autor« zum Nutzer: Handlungsrollen im Fernsehen. Geschichte des Fernsehens in der Bundesrepublik Deutschland. Band 5. München: Fink. Faulstich, Werner, 2002: Einführung in die Medienwissenschaft. Probleme, Methoden, Domänen. München: Fink. Faulstich, Werner (Hg.), 2004: Grundwissen Medien. 5., vollständig überarbeitete und erheblich erweiterte Auflage. München: Fink. Faulstich, Werner/Helmut Korte (Hgg.), 1997: Der Star. Geschichte, Rezeption, Bedeutung. München: Fink. Fink-Eitel, Hinrich, 1997: Michel Foucault zur Einführung. 3., durchgesehene Auflage. Hamburg: Junius. Fischer, Frank, 2007: Der Autor als Medienjongleur. Die Inszenierung literarischer Modernität im Internet. In: Künzel/Schönert 2007: 271-280. Fohrbeck, Karla/Andreas J. Wiesand, 1972: Der Autorenreport. Reinbek bei Hamburg: Rowohlt. Föllmer, Golo, 2002a: Interview with Michael Iber via email, January 2002. . o. J. (Stand: 21.11.2008). Föllmer, Golo, 2002b: Musikmachen im Netz. Elektronische, ästhetische und soziale Strukturen einer partizipativen Musik. Dissertation. Philosophische Fakultät. Martin-Luther-Universität Halle-Wittenberg. Halle. Föllmer, Golo, 2005: Netzmusik. Elektronische, ästhetische und soziale Strukturen einer partizipativen Musik. Hofheim am Taunus: Wolke. Förster, Dirk/Ingo Linde, 2004 [2007]: Produktion, Rezeption und Transformation. Zur Analyse von medialen Aneignungsprozessen am Beispiel von Machinima. In: SPIEL: Siegener Periodicum zur Internationalen Empirischen Literaturwissenschaft. Jg. 23 (2004 [2007]). H. 2. S. 304318. Foucault, Michel, 1977: Le jeu de Michel Foucault. Diskussion mit Grosrichard, Miller, Millot, et al. Februar / März 1977. In: Ornicar. H. 10, July 1977. S. 62-93. Foucault, Michel, 1978: Dispositive der Macht. Über Sexualität, Wissen und Wahrheit. Berlin: Merve. Foucault, Michel, 1979 [1969]: What is an Author. In: Josué V. Harari (Hg.), 1979: Textual Strategies. Ithaca, N. Y.: Cornell University Press. S. 141160. Foucault, Michel, 1981 [1969]: Archäologie des Wissens. Frankfurt am Main: Suhrkamp. Foucault, Michel, 1984: Von der Freundschaft als Lebensweise. Michel Foucault im Gespräch. Deutsch von Marianne Karbe und Walter Seitter. Berlin: Merve. Foucault, Michel, 1984 [1969]: What Is An Author? In: Michel Foucault, 1984: The Foucault Reader. Edited by Paul Rabinow. New York: Pantheon Books. S. 101-120.
344 | DER DIGITALE AUTOR
Foucault, Michel, 1988 [1974]: Schriften zur Literatur. Aus dem Französischen von Karin von Hofer und Anneliese Botond. Frankfurt am Main: Fischer Taschenbuch. Foucault, Michel, 1994: Qu’est-ce qu’un auteur? In: Michel Foucault, 1994: Dits et Écrits, 1954-1988. I, 1954-1969. Édition établie sous la direction de Daniel Defert et François Ewald avec la collaboration de Jacques Lagrange. Paris: Éditions Gallimard. S. 789-821. Foucault, Michel, 1996 [1969]: Was ist ein Autor? In: Dorothee Kimmich/ Rolf G. Renner/Bernd Stiegler (Hgg.), 1996: Texte zur Literaturtheorie der Gegenwart. Ditzingen: Reclam. S. 233-247. Foucault, Michel, 1999 [1969]: Was ist ein Autor? In: Engelmann 1999: 3048. Foucault, Michel, 1999 [1976]: Sexualität und Wahrheit. Band 1: Der Wille zum Wissen. 11. Auflage. Frankfurt am Main: Suhrkamp. Foucault, Michel, 1999 [1980]: Der maskierte Philosoph. In: Engelmann 1999: 13-21. Foucault, Michel, 2000 [1969]: Was ist ein Autor? In: Jannidis et al. 2000b: 198-229. Foucault, Michel, 2001: Schriften in vier Bänden. Dits et Ecrits. Band 1. 1954-1969. Herausgegeben von Daniel Defert und François Ewald unter Mitarbeit von Jacques Lagrange. Aus dem Französischen von Michael Bischoff, Hans-Dieter Gondek und Hermann Kocyba. Frankfurt am Main: Suhrkamp. Foucault, Michel, 2001 [1969]: Was ist ein Autor? In: Foucault 2001: 10031041. Foucault, Michel, 2001 [1972]: Die Ordnung des Diskurses. Erweiterte Ausgabe. 8. Auflage. Frankfurt am Main: Fischer. Foucault, Michel, 2003: Schriften zur Literatur. Herausgegeben von Daniel Defert und François Ewald unter Mitarbeit von Jacques Lagrange. Übersetzt von Michael Bischoff, Hans-Dieter Gondek und Hermann Kocyba. Auswahl und Nachwort von Martin Stingelin. Frankfurt am Main: Suhrkamp. Foucault, Michel, 2003 [1969]: Was ist ein Autor? In: Foucault 2003: 234270. Freude, Alvar/Dragan Espenschied/Roberto Simanowski, 2000: Von der Leichtigkeit des Links und dem Kampf um seine Freiheit. . 30.10. 2000. (Stand: 21.11.2008). Fröde, Nele/Henry Gerlach/Florian Hartling/u. a., 2005: DVD Netzkunst. Institut für Medien- und Kommunikationswissenschaften. Martin-LutherUniversität Halle-Wittenberg. Fröhlich, Gerhard, 2006: Unethische Autorenschaften in den Wissenschaften. In: Telepolis. . 13. 03.2006. (Stand: 21.11.2008). Früh, Werner/Klaus Schönbach, 2005: Der dynamisch-transaktionale Ansatz III: Eine Zwischenbilanz. In: Publizistik. Jg. 50 (2005). H. 1. S. 4-20. Gane, Mike/Nicholas Gane (Hgg.), 2003: Roland Barthes. London: Sage. Gassner, Oliver, 2004: Das Stuttgarter Linkurteil: Eine Verschwörung dummer Juristen? In: Telepolis. . 12.10.2004. (Stand: 21.11.2008).
ANHANG | 345
Gassner, Oliver, 2005: Pornographie und Code. In: Telepolis. . 18.11.2005. (Stand: 21.11.2008). Gassner, Oliver, 2006: Endgültiger Freispruch – mit Warnung vor unbedachten Nachahmern. In: Telepolis. . 24.04.2006. (Stand: 21.11.2008). Gehring, Robert A./Bernd Lutterbeck (Hgg.), 2004: Open Source Jahrbuch 2004. Zwischen Softwareentwicklung und Gesellschaftsmodell. Berlin: Lehmanns Media. Geisenhanslüke,Achim, 2001: Literatur und Diskursanalyse. In: Kleiner 2001: 60-71. Gendolla, Peter/Jörgen Schäfer, 2001: Auf Spurensuche. Literatur im Netz, Netzliteratur und ihre Vorgeschichte(n). In: Arnold 2001: 75-86. Gendolla, Peter/Jörgen Schäfer, 2005: dichtung-digital. 1/2005. . (Stand: 21.11.2008). Gendolla, Peter/Jörgen Schäfer (Hgg.), 2007: The Aesthetics of Net Literature. Writing, Reading and Playing in Programmable Media. Bielefeld: transcript. Gévaudan, Paul/Hiltrud Lautenbach/Peter Schneck/u. a., 1997 ff.: PhiN. Philologie im Netz. . 2008. (Stand: 24.11.2008). Gieselmann, Hartmut/Jürgen Kuri, 2006: Feingliedrig. Mit HDTV zur geschlossenen Kopierschutzkette. In: c’t. 15/2006. S. 148-152. Giles, Jim, 2005: Internet encyclopaedias go head to head. Jimmy Wales’ Wikipedia comes close to Britannica in terms of the accuracy of its science entries, a Nature investigation finds. . 28.03.2006. (Stand: 24. 11.2008 , kostenpflichtiger Zugang). Gingold, Ronald, 2002: Markenrecht. Sony verliert Recht an der Wortmarke. . 12.06.2002. (Stand: 24.11.2008). Glauch, Lothar, 2005: Die Muse küsst binär. In: Telepolis. . 30.04.2005. (Stand: 24.11.2008). GNU Project, 1996 ff.: Die Definition Freier Software [Deutsche Übersetzung des englischen Originaltextes]. . 21.04.2008. (Stand: 24.11.2008). Goldhaber, Michael H., 1997: Die Aufmerksamkeitsökonomie und das Netz. In: Telepolis. Teil 1. »Prominenz statt Geld«. . 27.11.1997. Teil 2. »Über das knappe Gut der Informationsgesellschaft«. . 12.12.1997. (Stand: 24.11. 2008). Goldhammer, Klaus/Axel Zerdick, 2001: Rundfunk online. Entwicklung und Perspektiven des Internets für Hörfunk- und Fernsehanbieter. 3. Auflage. Berlin: Vistas. Gohlke, Gerrit (Hg.), 2003: Software Art. Eine Reportage über den Code. Berlin: Media Arts Lab des Künstlerhauses Bethanien. Gottfried von Straßburg, 2004a: Tristan. Band 1: Text. Herausgegeben von Karl Marold. Unveränderter fünfter Abdruck nach dem dritten, mit einem auf Grund von Friedrich Rankens Kollationen verbesserten kritischen Apparat besorgt und mit einem erweiterten Nachwort versehen von Werner Schröder. Berlin, New York: de Gruyter.
346 | DER DIGITALE AUTOR
Gottfried von Straßburg, 2004b: Tristan. Band 2: Übersetzung. Von Peter Knecht. Mit einer Einführung in das Werk von Tomas Tomasek. Berlin, New York: de Gruyter. Götzenbrucker, Gerit, 2001: Soziale Netzwerke und Internet-Spielewelten. Eine empirische Analyse der Transformation virtueller in realweltliche Gemeinschaften am Beispiel von MUDs (Multi User Dimensions). Wiesbaden: Westdeutscher Verlag. Grassmuck, Volker, 2004: Freie Software. Zwischen Privat- und Gemeineigentum. 2., korrigierte Auflage. Bonn: Bundeszentrale für politische Bildung. Greenfield, John/Lydia Miklautsch, 1998: Der »Willehalm« Wolframs von Eschenbach. Eine Einführung. Berlin, New York: de Gruyter. Grether, Reinhold, 2000: Wie die Etoy-Kampagne geführt wurde. Ein Augenzeugenbericht. In: Telepolis. . 09.02.2000. (Stand: 24.11.2008). Griffin, Scott, 2000: Internet Pioneers. Vannevar Bush. . 2000. (Stand: 24.11.2008). Gromov, Gregory R., 2006: The Roads and Crossroads of Internet History. . 2006. (Stand: 24.11.2008). Gröndahl, Boris, 2001: The Script Kiddies Are Not Alright. In: Telepolis. . 08.08.2001. (Stand: 24.11.2008). Gropp, Rose-Maria, 2007: Elfriede Jelineks Netzbaustelle. In: Frankfurter Allgemeinen Zeitung. 17.04.2007. S. 35. Groth, Susanne/Alexander Uhl, 2007: Deutsches Musikarchiv: CD-Zerfall bedroht Kulturerbe. In: heise online news. . 22.02.2007. (Stand: 24.11.2008). Guder, Andrea, 2002: Genosse Hauptmann auf Verbrecherjagd. Der Krimi in Film und Fernsehen der DDR. Bonn: ARCult. Gugel, Bertram/Karin Wehn, 2006: Internetvideo-Boom. In: Telepolis. Teil 1. »YouTube und Co. Das spektakuläre Comeback von viralen Videos«. . 01.07.2006. Teil 2. »Videohoster im Porträt. Das spektakuläre Comeback von viralen Videos«. In: Telepolis. . 16.08.2006. Teil 3. »Die Videohoster suchen nach Antworten. Nach dem Erfolg steht die Kommerzialisierung an«. . 06.09.2006. Teil 4. »Mit Internetvideos über Nacht zum (unfreiwilligen) Star. Virale Videos«. . 12.09. 2006. Teil 5. »Internetvideo-Boom in Deutschland? Deutschland bringt andere Voraussetzungen und neue Herausforderungen mit sich«. . 11.10.2006. (Stand: 24.11. 2008). Günther, Cordula, 2003: »Nichts ist so erfolgreich wie der Erfolg« – Literarischer Erfolg und Mediensystem. In: Binas 2003: 72-93. Günther, Hans, 1987: Die Lebensphasen eines Kanons. Am Beispiel des sozialistischen Realismus. In: Aleida Assmann/Jan Assmann (Hgg.), 1987: Kanon und Zensur. Beiträge zur Archäologie der literarischen Kommunikation II. München: Fink. S. 138-148.
ANHANG | 347
Gutiérrez, Juan B., 2007: The Boundaries of Digital Narrative. A Functional Analysis. In: López/Cabrerizo 2007. S. 85-102. Hafner, Katie/Matthew Lyon/Gabriele Herbst, 1997: Arpa Kadabra. Die Geschichte des Internet. Heidelberg: dpunkt. Hans, Jan, 2001: Das Medien-Dispositiv. In: Tiefenschärfe (2001). H. 2. S. 22-29. Hartling, Florian, 2002: Netzliteratur – Literatur im WWW. Gibt es einen Kanon der elektronischen Literatur im WWW? Magisterarbeit. Institut für Medien- und Kommunikationswissenschaften. Martin-Luther-Universität Halle-Wittenberg. Halle. Hartling, Florian, 2004: Wo ist der Online-Ulysses? Kanonisierungsprozesse in der Netzliteratur. In: HALMA. Hallische Medienarbeiten. Jg. 19 (2004). Hartling, Florian, 2005a: The Canonization of German-language Digital Literature. In: CLCWeb: Comparative Literature and Culture: A WWWeb Journal. Jg. 7 (2005). H. 4. . (Stand: 28.11.2008). Hartling, Florian, 2005b: ///// NETZ KUNST 2005 /////. . Dezember 2005. (Stand: 24.11. 2008). Hartling, Florian, 2007a: Storytelling in Netzliteratur. Möglichkeiten – Veränderungen – Herausforderungen. Betrachtungen aus einer deutschen Perspektive (Übersetzung ins Korenische von Bong Keun Yoo). In: Bonghi Cha (Hg.), 2007: Digiloges Storytelling. Kultur, Kunst und Kommunikation im digitalen Zeitalter. Seoul: Munmemi. S. 271-292. Hartling, Florian/Sascha Trültzsch (Hgg.), 2004 [2007]: Medienkulturanalysen. Frankfurt am Main u. a.: Peter Lang (= Sonderheft SPIEL: Siegener Periodicum zur Internationalen Empirischen Literaturwissenschaft. Jg. 23 (2004 [2007]). H. 2). Hartling, Florian/Thomas Wilke, 2003 [2005]: Das Dispositiv als Modell der Medienkulturanalyse: Überlegungen zu den Dispositiven Diskothek und Internet. In: SPIEL: Siegener Periodicum zur Internationalen Empirischen Literaturwissenschaft. Jg. 22 (2003 [2005]). H. 1. S. 1-37. Hartling, Florian/Thomas Wilke, 2008: Der produzierende Hörer - der hörende Produzent. Veränderungen von Radioritualen im und durch das Internet? In: Kathrin Fahlenbrach/Ingrid Brück/Anne Bartsch (Hgg.), 2008: Medienrituale. Rituelle Performanz in Film, Fernsehen und Neuen Medien. Wiesbaden: VS. S. 269-280. Hartmann von Aue, 2001: Der arme Heinrich. Herausgegeben von Hermann Paul. Neu bearbeitet von Kurt Gärtner. 17., durchgesehene Auflage. Tübingen: Max Niemeyer. Hasty, Will (Hg.), 1999: A Companion to Wolfram’s Parzival. Columbia, SC: Camden House. Hasty, Will (Hg.), 2003: A companion to Gottfried von Strassburg’s »Tristan«. Rochester, NY u. a.: Camden House. Hauben, Michael/Ronda Hauben, 1996: Netizens: On the History and Impact of Usenet and the Internet. . 04.07.2004. (Stand: 24.11.2008). Hauben, Michael/Ronda Hauben, 1997: Netizens: On the History and Impact of Usenet and the Internet. Los Alamitos: Wiley-IEEE Computer Society Press.
348 | DER DIGITALE AUTOR
Hauptmeier, Helmut/Siegfried J. Schmidt, 1985: Einführung in die empirische Literaturwissenschaft. Braunschweig, Wiesbaden: Vieweg. Hautzinger, Nina, 1999: Vom Buch zum Internet? Eine Analyse der Auswirkungen hypertextueller Strukturen auf Text und Literatur. St. Ingbert: Röhrig. Hegland, Frode/Fleur Klijnsma, 2003 ff.: Doug Engelbart’s INVISIBLE REVOLUTION. . 2008. (Stand: 24.11. 2008). Heibach, Christiane, 2000a: The Distributed Author. Creativity in the Age of Computer Networks. In: dichtung-digital. 6/2000. . (Stand: 24.11.2008, kostenpflichtiger Zugang). Heibach, Christiane, 2000b: Literatur im Internet. Theorie und Praxis einer kooperativen Ästhetik. Berlin: dissertation.de. Heibach, Christiane, 2001a: Der Text im digitalen Netz. In: IASL Online (2001). . 03.07. 2001. (Stand: 24.11.2008). Heibach, Christiane, 2003: Literatur im elektronischen Raum. Frankfurt am Main: Suhrkamp. Heibach, Christiane, 2007: Peter Gendolla/Jörgen Schäfer (eds.): The Aesthetics of Net Literature. Writing, Reading and Playing in Programmable Media. Bielefeld: transcript 2007. [Rezension]. In: Jahrbuch für Computerphilologie – online. Jg. 7 (2007). . 03.12.2007. (Stand: 01.12.2008). Heijnk, Stefan, 2002: Texten fürs Web. Grundlagen und Praxiswissen für Online-Redakteure. Heidelberg: dpunkt. Helmers, Sabine, 1997: Hyperlink-Prozeß: Freispruch für Angela Marquardt. In: Telepolis. . o. J. (Stand: 24.11.2008). Herb, Ulrich, 2006a: Die Farbenlehre des Open Access. In: Telepolis. . 14.10.2006. (Stand: 24. 11.2008). Herb, Ulrich, 2006b: Entgeltfreier Zugang zu wissenschaftlichen Informationen. In: Telepolis. Teil 1. »Schöne neue Welt des Open Access«. 14.09.2006. Teil 2. »Journale, Impact Factor, radikale Monopole und Karrieren. Entgeltfreier Zugang zu wissenschaftlichen Informationen«. . 15.09.2006. (Stand: 24.11.2008). Herbst, Alban Nikolai, 2005: Das Weblog als Dichtung. Einige Thesen zu einer möglichen Poetologie des Weblogs. Vortrag am 10.11.2005 im Rahmen des Netzliteraturfestivals »Literatur und Strom. Code – Interface – Concept«. . 16.11.2005. (Stand: 24.11.2008). Herbst, Alban Nikolai, 2006a: »www.albannikolaiherbst.twoday.net«. Der Autor in diesem Jahrhundert. In: Vanderbeke 2006a: 203-205. Herrmann, Britta, 2002: »So könnte dies ja am Ende ohne mein Wissen und Glauben Poesie sein?« Über ›schwache‹ und ›starke‹ Autorschaften. In: Detering 2002a: 479-500. Hettche, Thomas/Jana Hensel (Hgg.), 2000: Null. www.dumontverlag.de/ null. Köln: DuMont.
ANHANG | 349
Heuer, Steffan, 2006: Web 2.0-Konferenz. Im Info-»Dreck« nach Gold graben. In: Telepolis. . 10.11.2006. (Stand: 24.11.2008). Heydebrand, Renate von, 1998: Kanon Macht Kultur. Versuch einer Zusammenfassung. In: Renate von Heydebrand (Hg.), 1998: Kanon Macht Kultur. Theoretische, historische und soziale Aspekte ästhetischer Kanonbildungen. Stuttgart, Weimar: Metzler. S. 612-625. Heydebrand, Renate von/Simone Winko, 1994: Geschlechterdifferenz und literarischer Kanon. In: IASL. Internationales Archiv für Sozialgeschichte der deutschen Literatur. Jg. 19 (1994). H. 2. S. 96-173. Heydebrand, Renate von/Simone Winko, 1996: Einführung in die Wertung von Literatur. Systematik – Geschichte – Legitimation. Paderborn u. a.: Schöningh. Hick, Ulrike, 1992: Kinoapparat und Zuschauer. Zur Geschichte der Wahrnehmungsverhältnisse. In: Ästhetik und Kommunikation. Jg. 21 (1992). H. 80/81. S. 189-194. Hick, Ulrike, 1999: Geschichte der optischen Medien. München: Fink. Hickethier, Knut/Hartmut Winkler (Hgg.), 1990: Filmwahrnehmung. Berlin: Edition Sigma. Hickethier, Knut, 1991a: Apparat – Dispositiv – Programm. Skizze einer Programmtheorie am Beispiel des Fernsehens. In: Knut Hickethier/Siegfried Zielinski (Hgg.), 1991a: Medien/Kultur. Schnittstellen zwischen Medienwissenschaft, Medienpraxis und gesellschaftlicher Kommunikation. Berlin: Volker Spiess. S. 421-447. Hickethier, Knut, 1991b: Aspekte der Programmtheorie des Fernsehens. In: Communications. Jg. 16 (1991). H. 3. S. 329-347. Hickethier, Knut, 1992: Kommunikationsgeschichte: Geschichte der Mediendispositive. Ein Beitrag zur Rundfrage »Neue Positionen zur Kommunikationsgeschichte«. In: Medien & Zeit. Jg. 7 (1992). H. 2. S. 26-28. Hickethier, Knut, 1993a: Dispositiv Fernsehen, Programm und Programmstrukturen in der Bundesrepublik Deutschland. In: Hickethier 1993b: 171-243. Hickethier, Knut (Hg.), 1993b: Institution, Technik und Programm. Rahmenaspekte der Programmgeschichte des Fernsehens. Geschichte des Fernsehens in der Bundesrepublik Deutschland. Band 1. München: Fink. Hickethier, Knut, 1993c: Zu den Rahmenbedingungen der Programmgeschichte des bundesrepublikanischen Fernsehens. In: Hickethier 1993b: 21-30. Hickethier, Knut, 1994: Zwischen Einschalten und Ausschalten. Fernsehgeschichte als Geschichte des Zuschauens. In: Faulstich 1994: 237-306. Hickethier, Knut, 1995: Dispositiv Fernseher. Skizze eines Modells. In: montage/AV. Jg. 4 (1995). H. 1. S. 63-84. Hickethier, Knut, 1996: Film- und Fernsehanalyse. 2., überarbeitete Auflage. Stuttgart, Weimar: Metzler. Hickethier, Knut, 1997: Film und Fernsehen als Mediendispositive in der Geschichte. In: Knut Hickethier/Eggo Müller/Rainer Rother (Hgg.), 1997: Der Film in der Geschichte. Berlin: Edition Sigma. S. 63-73. Hickethier, Knut, 1998a: Geschichte des deutschen Fernsehens. Stuttgart, Weimar: Metzler. Hickethier, Knut, 1998b: Rezeptionsgeschichte des Fernsehens – Ein Überblick. In: Walter Klingler/Gunnar Roters/Maria Gerhards (Hgg.), 1998b:
350 | DER DIGITALE AUTOR
Medienrezeption seit 1945. Forschungsbilanz und Forschungsperspektiven. Baden-Baden: Nomos. S. 125-137. Hickethier, Knut, 2001: Film- und Fernsehanalyse. 3., überarbeitete Auflage. Stuttgart, Weimar: Metzler. Hickethier, Knut, 2002: Das Medien-Dispositiv oder eine Theorie des Mediensubjekts. In: Tiefenschärfe (2002). H. 1. S. 28-30. Hickethier, Knut, 2003: Einführung in die Medienwissenschaft. Stuttgart, Weimar: Metzler. Hillgärtner, Harald, 2001: Netzaktivismus im Spannungsfeld von Kunst und Technik. . 23. 01.2001. (Stand: 24.11.2008). Hoffmann, Björn, 2005: Rezension zu: Directmedia Publishing (Hrsg.): Wikipedia Frühjahr 2005. Die freie Enzyklopädie. Berlin 2005. In: H-Soz-uKult, 07.07.2005. . 07.07.2005. (Stand: 24.11.2008). Hoffmann, E. T. A., 1958 [1820-1822]: Lebens-Ansichten des Katers Murr. Nebst fragmentarischer Biographie des Kapellmeisters Johannes Kreisler in zufälligen Makulaturblättern. Herausgegeben von E. T. A. Hoffmann. In: E. T. A. Hoffmann, 1958: Poetische Werke. Fünfter Band. Klein Zaches. Lebensansichten des Katers Murr. Prinzessin Brambilla. Berlin: Aufbau. S. 131-598. Hofmann, Jeanette (Hg.), 2006: Wissen und Eigentum. Geschichte, Recht und Ökonomie stoffloser Güter. Bonn: Bundeszentrale für politische Bildung. Höing, Michael, 1994: Interaktives TV. Tests, Projekte, Systeme. Ein Überblick. Unterföhring: MGM MediaGruppe. Höllerer, Florian/Johannes Auer/Friedrich W. Block/u. a., 2005: 1. Junggesellenpreis für Netzliteratur: Begründung der Jury. . 18.11.2005. (Stand: 24.11.2008). Hörmann, Stefanie, 2004: Die Angleichung öffentlich-rechtlicher und privater Nachrichten unter den Mechanismen des journalistischen Feldes am Beispiel ausgewählter Hauptnachrichtensendungen im deutschen Fernsehen. Aachen: Shaker. Huber, Christoph, 2001a: Gottfried von Straßburg: Tristan. 2., verbesserte Auflage. Berlin: Schmidt. Huber, Christoph/Victor Millet (Hgg.), 2002: Der »Tristan« Gottfrieds von Straßburg. Tübingen: Niemeyer. Huber, Hans Dieter, 1996 ff.: ARTNINE - Art in the Nineties and after the Millennium. . o. J. (Stand: 24.11. 2008). Huber, Hans Dieter, 2001b: Über das Sammeln, Erhalten und Vermitteln von Bits and Bytes. Vortrag im Rahmen der Tagung »under construction: art.net.dortmund.de«. 19.05.2001. . 04.02.2002. (Stand: 24.11.2008). Huber, Hans Dieter, 2003: PPP: From Point to Point or from Production to Presentation to Preservation of Media Art. Vortrag im Rahmen des Kongresses »404 Object Not Found. Was bleibt von der Medienkunst? Internationaler Kongress zu Fragen der Produktion, Präsentation und Konservierung von Medienkunst«. 19. – 22.06.2003. . Juni 2003. (Stand: 24.11.2008).
ANHANG | 351
Hubig, Christoph, 2000: »Dispositiv« als Kategorie. In: Internationale Zeitschrift für Philosophie (2000). H. 1. S. 34-47. Hucklenbroich, Jörg/Reinhold Viehoff (Hgg.), 2002: Schriftsteller und Rundfunk. Konstanz: UVK. Hürter, Tobias, 2005: Die Kondensation des Wissens. In: Technology Review 5/2005. . 26.04.2005. (Stand: 24. 11.2008). Idensen, Heiko, 1996: Die Poesie soll von allen gemacht werden! Von literarischen Hypertexten zu virtuellen Schreibräumen der Netzwerkkultur. In: Matejovski/Kittler 1996: 143-184. Idensen, Heiko, 1999: Hyper-Scientifiction. Von der Hyperfiction zur vernetzten Kulturwissenschaft. In: Suter/Böhler 1999b: 61-84. Idensen, Heiko, 2000a: Hypertext, Hyperfiction, Hyperwissenschaft. Von der Hyperfiction zu kollaborativen Online-Projekten. . 2000. (Stand: 24.11.2008). Idensen, Heiko, 2000b: Zur »Kritik eines digitalen Mythos«. oder: von den Schwierigkeiten einer Hyper/Text/Kritik im Flachland 2-dimensionaler Texte. In: dichtung-digital. 2000. . 20.03.2002. (Stand: 24.11.2008). Idensen, Heiko, 2001: Hypertext, Hyperfiction, Hyperwissenschaft? Gemeinschaftliches Schreiben im Netz. In: Schmidt-Bergmann/Liesegang 2001: 69-115. Idensen, Heiko, 2002: Christiane Heibach: Literatur im Internet: Theorie und Praxis einer kooperativen Ästhetik. Berlin: Dissertation.de (zugleich: Heidelberg Univ., Diss. 2000). In: Jahrbuch für Computerphilologie – online. Jg. 4 (2002). . 12.08.2002. (Stand: 24.11.2008). Idensen, Heiko, o. J.: Suchen und Verweisen: digitale Autor-/Leserschaften oder: von den praktischen und theoretischen Schwierigkeiten, ohne Autornamen zu schreiben (und zu lesen). . o. J. (Stand: 24.11.2008). Imhof, Rüdiger, 1989: Artikel »Molloy«. In: François Bondy (Hg.), 1989: Harenbergs Lexikon der Weltliteratur. Autoren – Werke – Begriffe. Band 4 Mar – Sam. Dortmund: Harenberg. S. 2024-2025. Ingold, Felix Philipp, 1992: Der Autor am Werk. Versuche über literarische Kreativität. München, Wien: Hanser. Ingold, Felix Philipp, 2004: Im Namen des Autors. Arbeiten für Kunst und Literatur. München: Fink. Ingold, Felix Philipp/Werner Wunderlich (Hgg.), 1992: Fragen nach dem Autor. Positionen und Perspektiven. Konstanz: Universitätsverlag Konstanz. Ingold, Felix Philipp/Werner Wunderlich (Hgg.), 1995: Der Autor im Dialog. Beiträge zu Autorität und Autorschaft. St. Gallen: UVK. Internet Systems Consortium, 2008: Internet host count history. . 2008. (Stand: 24.11.2008). Jäger, Georg, 1992: Artikel »Autor«. In: Meid et al. 1992: 66-72. Jäger, Siegfried, 2001a: Diskurs und Wissen. Theoretische und methodische Aspekte einer Kritischen Diskurs- und Dispositivanalyse. In: Reiner Keller/Andreas Hirseland/Werner Schneider/u. a. (Hgg.), 2001a: Handbuch Sozialwissenschaftliche Diskursanalyse: Band 1. Theorien und Methoden. Opladen: Leske + Budrich. S. 81-112. Jäger, Siegfried, 2001b: Dispositiv. In: Kleiner 2001: 72-89.
352 | DER DIGITALE AUTOR
Jäger, Siegfried, 2004: Kritische Diskursanalyse. Eine Einführung. 4., unveränderte Auflage. Münster: Unrast. Jahraus, Oliver, 2004: Literaturtheorie. Theoretische und methodische Grundlagen der Literaturwissenschaft. Tübingen, Basel: Francke. Jannidis, Fotis, 1999: Der nützliche Autor. Möglichkeiten eines Begriffs zwischen Text und historischem Kontext. In: Jannidis et al. 1999b: 353-389. Jannidis, Fotis, 2002: Zwischen Autor und Erzähler. In: Detering 2002a: 540556. Jannidis, Fotis, 2004: Artikel »Autorfunktion«. In: Nünning 2004c: 38. Jannidis, Fotis/Gerhard Lauer/Matias Martinez/u. a., 1999a: Rede über den Autor an die Gebildeten unter seinen Verächtern. Historische Modelle und systematische Perspektiven. (Einführung). In: Jannidis et al. 1999b: 3-35. Jannidis, Fotis/Gerhard Lauer/Matias Martinez/u. a. (Hgg.), 1999b: Rückkehr des Autors: Zur Erneuerung eines umstrittenen Begriffs. Tübingen: Niemeyer. Jannidis, Fotis/Gerhard Lauer/Matias Martinez/u. a., 2000a: Autor und Interpretation. In: Jannidis et al. 2000b: 7-29. Jannidis, Fotis/Gerhard Lauer/Matias Martinez/u. a. (Hgg.), 2000b: Texte zur Theorie der Autorschaft. Stuttgart: Reclam. Jannidis, Fotis/Gerhard Lauer/Matias Martinez/u. a. (Hgg.), 2003: Regeln der Bedeutung. Zur Theorie der Bedeutung literarischer Texte. Berlin, New York: de Gruyter. Janssen, Susanne, 2002: Produktion und Profession. In: Rusch 2002a: 135154. Jatzek, Gerald, 2001: Christine Böhler: Literatur im Netz. . 28.11.2001. (Stand: 24.11.2008). Jennings, Tom, 1999-2004: Annotated history of charactercodes. . 29.10.2004. (Stand: 24.11.2008). Jonas, Hartmut, 2000: Literarische Kommunikation im Netz. . 28.10.2000. (Stand: 24.11. 2008). Jordan, Ken, 2004: The Click Heard Round The World. In: Wired (2004). H. 12.01. . Januar 2004. (Stand: 24.11.2008). Jörns, Gerald, 2001: Mit Abmahnungen kann man in der IT-Branche noch Geld verdienen. In: Telepolis. . 11.07.2001. (Stand: 24.11.2008). Joyce, James, 1989 [1939]: Finnegans Wake. Deutsch. Gesammelte Annäherungen. Herausgegeben von Klaus Reichert und Fritz Senn. Frankfurt am Main: Suhrkamp. Joyce, James, 1996 [1922]: Ulysses. Frankfurt am Main: Suhrkamp. Kamphusmann, Thomas, 2002: Literatur auf dem Rechner. Stuttgart, Weimar: Metzler. Kantel, Jörg, 2006: Weblogs und Journalismus: 5 Thesen zu einem Mißverständnis. . 10. 09.2006. (Stand: 24.11.2008).
ANHANG | 353
Kaufmann, Noogie C., 2006: Erneute Verurteilung wegen Hyperlink auf Antikopierschutzprogramme. In: heise online news. . 15.11.2006. (Stand: 24.11.2008). Kaul, Michael, 2003: Die definitive Geschichte des Internet von 1957 an. . 2003. (Stand: 24.11.2008). Kayser, Wolfgang, 2000 [1957]: Wer erzählt den Roman? In: Jannidis et al. 2000b: 127-137. Keuchel, Susanne/Andreas Johannes Wiesand (Hgg.), 2001: Konvergenz oder Symbiose – Kunst, Kultur und Neue Technologien. Perspektiven und Praxisbeispiele. Bonn: ARCult-Media. Kiener, Esther (Hg.), 2004: Cornelia Sollfrank. Net.art generator. Programmierte Verführung. Nürnberg: Verlag für Moderne Kunst. Klarmann, Michael, 2001: Wo Literatur schneller und kürzer wird. In: Telepolis. . 13.09.2001. (Stand: 24.11.2008). Klein, Dorothea, 2006: Inspiration und Autorschaft. Ein Beitrag zur mediävistischen Autordebatte. In: Deutsche Vierteljahresschrift für Literaturwissenschaft und Geistesgeschichte. Jg. 80 (2006). H. 1. S. 55-96. Kleiner, Marcus S. (Hg.), 2001: Michel Foucault: Einführung in sein Denken. Frankfurt am Main, New York: Campus. Kleinschmidt, Erich, 1997: Artikel »Autor«. In: Klaus Weimar/Harald Fricke/Klaus Grubmüller/u. a. (Hgg.), 1997: Reallexikon der deutschen Literaturwissenschaft. Band I A-G. 3., neubearbeitete Auflage. Berlin, New York: de Gruyter. S. 176-180. Kleinschmidt, Erich, 1998: Autorschaft. Konzepte einer Theorie. Tübingen, Basel: Francke. Kleinwächter, Wolfgang, 2004: Macht und Geld im Cyberspace. Wie der Weltgipfel zur Informationsgesellschaft (WSIS) die Weichen für die Zukunft stellt. Hannover: Heise. Kleinwächter, Wolfgang, 2006: TLDs für Städte und Regionen. In: Telepolis. . 18.12.2006. (Stand: 24.11.2008). Kleinz, Torsten, 2002: Gesellschaftlicher Dialog oder Pistole auf der Brust? In: Telepolis. . 19. 09.2002. (Stand: 24.11.2008). Kleinz, Torsten, 2006: Fünf Herausforderungen für die Wikipedia. In: Telepolis. . 15.01.2006. (Stand: 24.11.2008). Kline, Stephen/Nick Dyer-Witheford/Greig De Peuter, 2003: Digital play. The interaction of Technology, Culture, and Marketing. Montreal u. a.: McGill-Queen’s University Press. Klinger, Claudia, 2000: Claudia Klinger in der Mailingliste Netzliteratur am 5. März 2000. . 05.03.2000. (Stand: 24.11.2008, kostenpflichtiger Zugang). Knilli, Friedrich/Knut Hickethier/Wolf Dieter Lützen (Hgg.), 1976: Literatur in den Massenmedien. Demontage von Dichtung? München, Wien: Hanser. Knöfel, Ulrike, 2000: Karaoke fürs Auge. In: Der Spiegel. 1/2000. S. 173.
354 | DER DIGITALE AUTOR
Korb, Nikola/Andreas Roth, 2008: Persistent Identifier. eindeutige Bezeichner für digitale Inhalte. . 02.01. 2008. (Stand: 24.11.2008). Köver, Chris, 2006: Friss und Stirb! Google Will Eat Itself. In: DE:BUG 101. . 26.07.2006. (Stand: 24.11.2008). Krämer, Sybille (Hg.), 2000: Medien, Computer, Realität. Wirklichkeitsvorstellungen und Neue Medien. 2. Auflage. Frankfurt am Main: Suhrkamp. Krempl, Stefan, 2002: Dammbruch öffnet Weg ins Zensurnetz. In: Telepolis. . 18.02.2002. (Stand: 24.11.2008). Krempl, Stefan, 2003: c’t Hintergrund: Internet oder Deutschland-Net? . 28.01.2003. (Stand: 24.11.2008). Krempl, Stefan, 2008: Verordnung zur Pflichtablieferung von Netzpublikationen tritt in Kraft. In: heise online news. . 22.10.2008. (Stand: 09.01.2009). Kreuzer, Helmut (Hg.), 1981: Der Autor. LiLi. Zeitschrift für Literaturwissenschaft und Linguistik 42. Jg. 11 (1981). Göttingen: Vandenhoeck & Ruprecht. Kreuzer, Helmut/Christian W. Thomson (Hgg.), 1993/94: Geschichte des Fernsehens in der Bundesrepublik Deutschland. 5 Bände. München: Fink. Krol, Hoffman, 1993: RFC1462. FYI on »What is the Internet?« . Mai 1993. (Stand: 24.11.2008). Krowne, Aaron, 2005: The FUD-based Encyclopedia. In: Free Software Magazine n.2, March 2005. . 28.03.2005. (Stand: 24.11.2008). Krug, Christian, 2008: Peter Gendolla und Jörgen Schäfer (Hg.) (2007): The Aesthetics of Net Literature: Writing, Reading and Playing in Programmable Media. Bielefeld: Transcript. (= Medienumbrüche / Media Upheavals, 16) [Rezension]. In: PhiN. Philologie im Netz 44/2008. . (Stand: 01.12.2008). Kücklich, Julian, 2001: Auf der Suche nach dem verlorenen Text: Literaturwissenschaften und Computerspiele. In: PhiN. Philologie im Netz 15/ 2001. . (Stand: 24.11. 2008). Kücklich, Julian, 2002: Roberto Simanowski: Interfictions. Eine Rezension. In: Medienobservationen. . 2002. (Stand: 24.11.2008). Kücklich, Julian, 2004 [2007]: Invaded Spaces. Anmerkungen zur interdisziplinären Entwicklung der Game Studies. In: SPIEL: Siegener Periodicum zur Internationalen Empirischen Literaturwissenschaft. Jg. 23 (2004 [2007]). H. 2. S. 285-303. Kuhlen, Rainer, 1991: Hypertext. Ein nicht-lineares Medium zwischen Buch und Wissensbank. Berlin u. a.: Springer. Künzel, Christine/Jörg Schönert (Hgg.), 2007: Autorinszenierungen. Autorschaft und literarisches Werk im Kontext der Medien. Würzburg: Königshausen & Neumann. Lamarque, Peter, 1990: The Death of the Author. An Analytical Autopsy. In: British Journal of Aesthetics. Jg. 30 (1990). H. 4. S. 319-331.
ANHANG | 355
Landow, George P., 1992: Hypertext. The Convergence of contemporary Critical Theory and Technology. Baltimore, Md., London: Johns Hopkins University Press. Landow, George P., 1995: What’s a Critic to Do? Critical Theory in the Age of Hypertext. In: George P. Landow (Hg.), 1995: Hyper / Text / Theory. Baltimore, Md., London: Johns Hopkins University Press. S. 1-47. Landow, George P., 1997: Hypertext 2.0. The Convergence of contemporary Critical Theory and Technology. Baltimore, Md., London: Johns Hopkins University Press. Landow, George P., 2004: Is this hypertext any good? Evaluating quality in hypermedia. In: dichtung-digital (2004). . März 2004. (Stand: 24.11.2008). Landow, George P., 2006: Hypertext 3.0. Critical Theory and New Media in an Era of Globalization. 3rd edition. Baltimore: Johns Hopkins University Press. Lasker-Schüler, Else, 2006 [1926]: »Fresse schon meine Fingerspitzen wie Spargelköpfe«. In: Vanderbeke 2006a: 38-49. Lauer, Gerhard, 1999a: Einführung: Autorkonzepte in der Literaturwissenschaft. In: Jannidis et al. 1999b: 159-166. Lauer, Gerhard, 1999b: Kafkas Autor. Der Tod des Autors und andere notwendige Funktionen des Autorkonzepts. In: Jannidis et al. 1999b: 209234. Lauer, Gerhard, 2002: Offene und geschlossene Autorschaft. Medien, Recht und der Topos von der Genese des Autors im 18. Jahrhundert. In: Detering 2002a: 461-478. Leistert, Oliver, 2002: »Das ist ein Dispositiv, das geht, es läuft!« In: Tiefenschärfe (2002). H. 2. S. 7-9. Lenk, Carsten, 1996: Der Dispositiv-Begriff als theoretisches Paradigma der Medienforschung. Überlegungen zu einer integrativen Nutzungsgeschichte des Rundfunks. In: Rundfunk und Geschichte. Mitteilungen des Studienkreises Rundfunk und Geschichte. Jg. 22 (1996). H. 1. S. 5-17. Lenk, Carsten, 1997: Die Erscheinung des Rundfunks: Einführung und Nutzung eines neuen Mediums 1923-1932. Opladen: Westdeutscher Verlag. Lessig, Lawrence, 2002: Free Culture. Keynote auf der OSCON (O’Reilly Open Source Convention) 2002, gehalten am 24.07.2002. . 15.08.2002. (Stand: 24.11.2008). Lessig, Lawrence, 2006: Code. Version 2.0. New York: Basic Books. LeWitt, Sol, 1974 [1967]: Paragraphen über konzeptuelle Kunst. In: Gerd de Vries (Hg.), 1974: Über Kunst. Künstlertexte zum veränderten Kunstverständnis nach 1965. Köln: DuMont Schauberg. S. 176 ff. Lialina, Olia, 2000: EIN LINK WÄRE SCHON GENUG [About exhibiting net art]. . o. J. (Stand: 24. 11.2008). Liesegang, Torsten/Hansgeorg Schmidt-Bergmann, 2000: Liter@tur / Literaturtheorie. . 27.03.2000. (Stand: 24.11.2008). Livingston, Paisley, 2005: Art and intention. A philosophical study. Oxford u. a.: Clarendon Press. Löffelholz, Martin (Hg.), 2000: Theorien des Journalismus. Ein diskursives Handbuch. Wiesbaden: Westdeutscher Verlag.
356 | DER DIGITALE AUTOR
Lohmeier, Anne-Marie, 2002: Schriftstellers »Verantwortung« und Autors »Tod«. Autorkonzepte und offene Gesellschaft am Beispiel des deutschdeutschen Literaturstreits. In: Detering 2002a: 557-569. López, Dolores Romero/Amelia Sanz Cabrerizo (Hgg.), 2007: Literatures in the Digital Era. Theory and Praxis. Newcastle: Cambridge Scholars Press. Lovink, Geert, 2003: Dark fiber. Auf den Spuren einer kritischen Internetkultur. Bonn: Bundeszentrale für politische Bildung. Lovink, Geert, 2008: Zero Comments. Elemente einer kritischen Internetkultur. Bielefeld: Transcript. Lovink, Geert/Hartmut Winkler, 1996: Der Computer: Medium oder Rechner? Eine Begegnung im Netz mit Hartmut Winkler. In: Telepolis. . 15.06.1996. (Stand: 24.11.2008). Lubkoll, Christine, 2002: Sektion IV: Der abwesende und der öffentliche Autor. In: Detering 2002a: 455-460. Ludes, Werner (Hg.), 1997: Multimedia-Kommunikation. Opladen: Westdeutscher Verlag. Lutz, Bernd, 1994: Mittelalterliche Literatur. In: Wolfgang Beutin/Klaus Ehlert/Wolfgang Emmerich/u. a. (Hgg.), 1994: Deutsche Literaturgeschichte. Von den Anfängen bis zur Gegenwart. 5., überarbeitete Auflage. Stuttgart, Weimar: Metzler. S. 1-50. Lutz, Jens, 2004: Von den Avantgarden ins WWW. Möglichkeiten und Formen des Dialogs in der Kunst und Literatur des 20. Jahrhunderts. Magisterarbeit. Philosophisch-Historische Fakultät. Institut für Neuere Deutsche Literatur I. Universität Stuttgart. Stuttgart. Lutz, Theo, 1959: Stochastische Texte. In: augenblick. Jg. 4 (1959). H. 1. S. 3-9. Lutz, Theo, o. J. [1959]: Stochastische Texte. . o. J. (Stand: 24.11.2008). Machill, Marcel (Hg.), 2003: Wegweiser im Netz. Qualität und Nutzung von Suchmaschinen. Gütersloh: Bertelsmann-Stiftung. Machill, Marcel, 2005: 12 goldene Suchmaschinen-Regeln. Ein Ratgeber für Verbraucherinnen und Verbraucher, die sich besser und sicherer im Internet zurecht finden wollen. Düsseldorf: Landesanstalt für Medien Nordrhein-Westfalen (LfM). Machill, Marcel, 2006: »Google drückt sich vor Verantwortung«. . 15.02.2006. (Stand: 24.11.2008). Machill, Marcel/Markus Beiler (Hgg.), 2007: Die Macht der Suchmaschinen / The Power of Search Engines. Köln: Halem. Marchese, David/Willa Paskin, 2006: What’s real in »Borat«? Everything you wanted to know about the Kazakh road trip -- what was staged, who was an actor, and who was just hapless comedy roadkill. . 10.11.2006. (Stand: 01.12.2008). Marsh, Dave, 1997: History of the Internet. . 1997. (Stand: 24.11.2008). Martens, Gunter, 2004: Autor – Autorisation – Authentizität. Terminologische Überlegungen zu drei Grundbegriffen der Editionsphilologien. In: Bein et al. 2004: 39-50.
ANHANG | 357
Martinez, Matias, 1999a: Autorschaft und Intertextualität. In: Jannidis et al. 1999b: 465-479. Martinez, Matias, 1999b: Einführung: Autor und Medien. In: Jannidis et al. 1999b: 433-439. Martinez, Matias, 2004: Artikel »Autorschaft, historische Modelle der«. In: Nünning 2004c: 40. Martínez, Matías, 2001: Autorschaft und Autorität im religiösen Epos (Dante, Hojeda, Milton, Klopstock). Unveröffentlichte Habilitationsschrift. München. Matejovski, Dirk/Friedrich Kittler (Hgg.), 1996: Literatur im Informationszeitalter. Frankfurt am Main, New York: Campus. Mathez, Judith, 2002a: Anja Rau: What you click is what you get? Die Stellung von Autoren und Lesern in interaktiver digitaler Literatur. Berlin: disssertation.de 2000. In: Jahrbuch für Computerphilologie - online. Jg. 4 (2002). . 02.04.2002. (Stand: 24.11.2008). Mathez, Judith, 2002b: Hier bitte selber weiterschreiben! Konkreativität als Kategorie digitaler Literatur. In: dichtung-digital. 2/2002. . (Stand: 24.11.2008). Mattenklott, Gert, 1992: Artikel »Briefroman«. In: Meid et al. 1992: 129132. Mcclimens, Alex, 2004: What Difference Does it Make Who is Speaking? Audience, ownership and authority in learning disability research. In: Journal of Learning Disabilities. Jg. 8 (2004). H. 1. S. 71-88. McHenry, Robert, 2004: The Faith-Based Encyclopedia. . 15.11.2004. (Stand: 24.11. 2008). Medien Kunst Netz, o. J.: etoy: Biografie. . o. J. (Stand: 24.11.2008). Medosch, Armin, 2004: Freie Netze. Geschichte, Politik und Kultur offener WLAN-Netze. Hannover: Heise. Meid, Volker/Walther Killy/Hans Fromm/u. a. (Hgg.), 1992: Literatur-Lexikon. Autoren und Werke deutscher Sprache. Bd. 13: Begriffe, Realien, Methoden. [A - Lei]. Gütersloh, u. a.: Bertelsmann-Lexikon-Verlag. Meinel, Christoph/Harald Sack, 2004: WWW-Kommunikation, Internetworking, Web-Technologien. Berlin u. a.: Springer. Merten, Klaus, 1994: Wirkungen von Kommunikation. In: Merten et al. 1994: 291-328. Merten, Klaus, 1995: Inhaltsanalyse. Einführung in Theorie, Methode und Praxis. 2., verbesserte Auflage. Opladen: Westdeutscher Verlag. Merten, Klaus/Siegfried J. Schmidt/Siegfried Weischenberg (Hgg.), 1994: Die Wirklichkeit der Medien. Eine Einführung in die Kommunikationswissenschaft. Durchgesehener Nachdruck der 1. Auflage. Opladen: Westdeutscher Verlag. Miller, Nancy K., 2000 [1986]: Wechseln wir das Thema/Subjekt. Die Autorschaft, das Schreiben und der Leser. In: Jannidis et al. 2000b: 251-274. Ministerium für Schule und Weiterbildung, Wissenschaft und Forschung, Land Nordrhein-Westfalen, (Hg.), 1998: Studienziel: Dichter. Ist literarisches Schreiben lehrbar? Düsseldorf: Mswwf.
358 | DER DIGITALE AUTOR
Mock, Thomas, 2006: Was ist ein Medium? Eine Unterscheidung kommunikations- und medienwissenschaftlicher Grundverständnisse eines zentralen Begriffs. In: Publizistik. Jg. 51 (2006). H. 2. S. 183-200. Mohl, Nils, 2006: High & Low Level Litbizz. Über den Berufs- und Karrierestart von Schriftstellern heute. Hamburg: Artislife Press. Möller, Erik, 2005: Der Stein der Wikis. In: Telepolis. . 11.04.2005. (Stand: 24.11.2008). Möller, Erik, 2006: Die heimliche Medienrevolution. Wie Weblogs, Wikis und freie Software die Welt verändern. 2., erweiterte und aktualisierte Auflage. Hannover: Heise. Mon, Franz, 1968: herzzero. Neuwied und Berlin: Luchterhand. Moser, Sibylle, 2001: Komplexe Konstruktionen. Systemtheorie, Konstruktivismus und empirische Literaturwissenschaft. Wiesbaden: DUV. Motte-Haber, Helga de la, 2003: Konzeptkunst. In: Christoph Metzger (Hg.), 2003: Conceptualisms. Zeitgenössische Tendenzen in Musik, Kunst und Film. Saarbrücken: Pfau. S. 23-30. Münker, Stefan/Alexander Roesler, 2000: Poststrukturalismus. Stuttgart, Weimar: Metzler. Musch, Jochen, 2000: Die Geschichte des Netzes. Ein historischer Abriß. In: Bernad Batinic (Hg.), 2000: Internet für Psychologen. 2., überarbeitete und erweiterte Auflage. Göttingen: Hogrefe. S. 15-37. Myers, Steve, o. J.: Beware the Troll. . o. J. (Stand: 24.11.2008). Neitzel, Britta, 2005: Computerspiele – ein literarisches Genre? In: Segeberg/ Winko 2005a: 111-135. Nelson, Ted, 1987 [1974]: Computer Lib. »You can and you must understand computers NOW«/Dream Machines. New Freedom throught computer screens – a minority report. Redmond, Washington: Tempus Books of Microsoft Press. Nelson, Theodor Holm, 1987 [1981]: Literary machines. The report on, and of, project Xanadu concerning word processing, electronic publishing, hypertext, thinkertoys, tomorrow’s intellectual revolution, and certain other topics including knowledge, education and freedom. Revised edition. South Bend, Ind.: The Distributers. Nesbit, Molly, 1987: What Was An Author? In: Yale French Studies. Jg. 73 (1987). S. 229-257. Neuber, Harald, 2006: Die Amateure kommen. In: Telepolis. . 05.10.2006. (Stand: 24.11. 2008). Neuberger, Christoph, 2007: »Weblogs = Journalismus«? Kritik einer populären These. In: Diemand et al. 2007: 107-135. Neuhaus, Wolfgang, 2003: Kunst im digitalen Nirwana. In: Telepolis. . 27.06.2003. (Stand: 24.11. 2008). Neumann, Arndt, 2002a: Das Internet-Dispositiv. In: Tiefenschärfe (2002). H. 2. S. 10-12. Neumann, Helmut, 2002b: Das Lexikon der Internetpioniere. Von Amazon und Alando über Intershop bis zu Yahoo. Marc Andressen, Bill Gates, Haso Plattner und Linus Thorwalds. Die Enzyklopädie der Personen und Firmen, die das Internet zu dem gemacht haben, was es heute ist. Berlin: Lexikon-Imprint-Verlag.
ANHANG | 359
Neverla, Irene (Hg.), 1998: Das Netz-Medium. Kommunikationswissenschaftliche Aspekte eines Mediums in Entwicklung. Opladen, Wiesbaden: Westdeutscher Verlag. Nieberle, Sigrid, 2002: Diskussionsbericht. In: Detering 2002a: 444-452. Nieberle, Sigrid, 2005: Saskia Reither: Computerpoesie. Studien zur Modifikation poetischer Texte durch den Computer [Rezension]. In: Germanistik. Jg. 46 (2005). H. 1/2, Nr. 3035. S. 456-457. Niefanger, Dirk, 2002: Der Autor und sein Label. Überlegungen zur fonction classificatoire Foucaults (mit Fallstudien zu Langbehn und Kracauer). In: Detering 2002a: 521-539. Nielsen, Jakob, 1996: Multimedia, Hypertext und Internet. Grundlagen und Praxis des elektronischen Publizierens. Übersetzt und bearbeitet von Karin Lagrange und Marc Linster. Braunschweig, Wiesbaden: Vieweg. Niggemeier, Stefan, 2006: Hobby: Reporter. In: Frankfurter Allgemeine Sonntagszeitung. 08.10.2006. 40/2006. S. 35. Nünning, Ansgar, 2004a: Artikel »Autor, historischer«. In: Nünning 2004c: 36-37. Nünning, Ansgar, 2004b: Artikel »Bense, Max«. In: Nünning 2004c: 57-58. Nünning, Ansgar (Hg.), 2004c: Metzler-Lexikon Literatur- und Kulturtheorie. Ansätze – Personen – Grundbegriffe. Dritte, aktualisierte und erweiterte Auflage. Stuttgart, Weimar: Metzler. Nyce, James M./Paul Kahn (Hgg.), 1991: From Memex to hypertext. Vannevar Bush and the mind’s machine. Boston, Mass. u. a.: Academic Press. o. N., 1996: Dirk Matejovski / Friedrich Kittler (Hrsg.): Literatur im Informationszeitalter [Rezension]. In: Rundfunk und Geschichte. Mitteilungen des Studienkreises Rundfunk und Geschichte. Jg. 22 (1996). H. 1. S. 183. o. N., 2003a: Berlin Declaration on Open Access to Knowledge in the Sciences and Humanities. . 20.12.2006. (Stand: 24.11.2008). o. N., 2003b: Literatur.digital 2003. Der Jurypreis geht an »Nord« von Esther Hunziker. . 2003. (Stand: mittlerweile offline). o. N., 2005: Wiki’s wild world. Researchers should read Wikipedia cautiously and amend it enthusiastically. . 15.12.2005. (Stand: 28.11. 2008). ODEM e.V., 2002: Strafanzeige wegen Internet-Zensur. . o. J. (Stand: 28.11.2008). ODEM e.V., 2003: Internet-Zensur in Deutschland. . o. J. (Stand: 28.11.2008). Ortmann, Sabrina, 2001: netz literatur projekt. Entwicklung einer neuen Literaturform von 1960 bis heute. Berlin: berlinerzimmer.de. Ortmann, Sabrina/Enno E. Peter, 2007: Erklärung. . 22.01.2007. (Stand: 01.02.2007). Osinski, Jutta, 2002: Homer-Bilder im 19. Jahrhundert. In: Detering 2002a: 202-219. Paech, Anne/Joachim Paech, 2000: Menschen im Kino. Film und Literatur erzählen. Stuttgart, Weimar: Metzler. Paech, Joachim, 1989: Das Sehen von Filmen und filmisches Sehen. In: Knut Hickethier (Hg.), 1989: Filmgeschichte schreiben. Ansätze, Entwürfe und Methoden. Berlin: Edition Sigma. S. 68-77.
360 | DER DIGITALE AUTOR
Paech, Joachim, 1991: Eine Dame verschwindet. Zur dispositiven Struktur apparativen Erscheinens. In: Hans Ulrich Gumbrecht/K. Ludwig Pfeiffer (Hgg.), 1991: Paradoxien, Dissonanzen, Zusammenbrüche: Situationen offener Epistemologie. Frankfurt am Main: Suhrkamp. S. 773-790. Patalong, Frank, 2001: Pfade in den Dschungel des Internet. In: SPIEGEL ONLINE. . 27.09.2001. (Stand: 28.11.2008). Patalong, Frank, 2005: Der Sünder sagt »sorry«. In: SPIEGEL ONLINE. . 12.12. 2005. (Stand: 28.11.2008). Patalong, Frank, 2006a: Das fragile Netz. In: SPIEGEL ONLINE. . 27.12.2006. (Stand: 28.11.2008). Patalong, Frank, 2006b: Der Name der Rose. In: SPIEGEL ONLINE. . 13.09. 2006. (Stand: 28.11.2008). Patalong, Frank, 2006c: Nur falsch ist wirklich echt. In: SPIEGEL ONLINE. . 11.09. 2006. (Stand: 28.11.2008). Paulsen, Kerstin, 2007: Von Amazon bis Weblog. Inszenierung von Autoren und Autorschaft im Internet. In: Künzel/Schönert 2007: 257-269. Perec, Georges/Eugen Helmlé, 2001 [1968]: Die Maschine. Hörspiel, Text und CD. Herausgegeben und mit einem Vorwort von Margrit Eugenie Helmlé. Nachwort von Werner Klippert. Blieskastel: Gollenstein. Pesce, Mark, 1995: A Brief History of Cyberspace. . 15.10.1995. (Stand: mittlerweile offline). Petersen, Anne/Johannes Saltzwedel, 2002: Absturz der Netz-Poeten. In: Der Spiegel. 51/2002. S. 178-180. Pfister, Manfred, 2001: Das Drama. Theorie und Analyse. 11. Auflage, erweiterter und bibliographisch aktualisierter Nachdruck der durchgesehenen und ergänzten Auflage 1988. München: Fink. Pflugmacher, Torsten, o. J.: Poststrukturalismus. . o. J. (Stand: 28.11.2008). Pias, Claus, 2003: Poststrukturalistische Medientheorien. In: Weber 2003: 277-293. Pias, Claus, 2006: Vortragsreihe »Was waren Medien?« WS 2006/2007, Wien, Institut für Philosophie. . 2006. (Stand: 28.11.2008). Picot, Arnold/Tim Fischer (Hgg.), 2006: Weblogs professionell. Grundlagen, Konzepte und Praxis im unternehmerischen Umfeld. Heidelberg: dpunkt. Polaschegg, Andrea, 2002: Diskussionsbericht. In: Detering 2002a: 310-323. Porombka, Stephan, 2000: [email protected]. Auch ein Beitrag zur Literaturgeschichte der 90er. In: Neue Rundschau. Jg. 111 (2000). H. 2. S. 49-64. Porombka, Stephan, 2001: Hypertext. Zur Kritik eines digitalen Mythos. München: Fink. Porombka, Stephan, 2007: Clip-Art, literarisch. Erkundungen eines neuen Formats (nebst einigen Gedanken zur sogenannten ›angewandten Literaturwissenschaft‹). In: Künzel/Schönert 2007: 223-243.
ANHANG | 361
Porombka, Stephan/Ernst-Peter Schneck/Thomas Wegmann, 1996: Seminar »Kollaborative Autorschaft«. Utopien der Buchkultur / Utopien der Netzkultur, Virtual College, FU Berlin. . 1996. (Verweis auf archivierte Version, da Originalquelle inzwischen offline, Stand: 28.11.2008). Pscheida, Daniela, 2006 [2008]: Wissensmodelle im Wandel: Vom Modus wahrer Erkenntnis zum Modus situativen Konsenses. In: SPIEL: Siegener Periodicum zur Internationalen Empirischen Literaturwissenschaft. Jg. 25 (2006 [2008]). H. 1. S. 151-178. Rath, Wolfgang, 1992: Der Autor als Diagnostiker. Ludwig Tieck und die Epochenwende um 1800. In: Ingold/Wunderlich 1992: 105-120. Rau, Anja, 1999a: hyperfiction. Hyperliterarisches Lesebuch: Internet und Literatur. hg. v. Beat Suter und Michael Böhler. Kommentar von Anja Rau. In: dichtung-digital (1999). . 17.12.1999. (Stand: 28.11.2008). Rau, Anja, 1999b: Nina Hautzingers »Vom Buch zum Internet? Eine Analyse der Auswirkungen hypertextueller Strukturen auf Text und Literatur«. Rezension. In: dichtung-digital (1999). . 13.07.1999. (Stand: 28.11.2008). Rau, Anja, 2000: Wreader’s Digest – How To Appreciate Hyperfiction. . 2000. (Stand: 28.11. 2008). Rau, Anja, 2001: What you click is what you get? Die Stellung von Autoren und Lesern in interaktiver digitaler Literatur. Berlin: dissertation.de. Raymond, Eric S., 2002: Was ist ein Hacker? Überarbeitung und Übersetzung von Christopher Özbek und »chaos computer club cologne«. . 12. 09.2002. (Stand: 28.11.2008). Reither, Saskia, 2003: Computerpoesie. Studien zur Modifikation poetischer Texte durch den Computer. Bielefeld: Transcript. Rettberg, Jill Walker, 2008: Blogging. Cambridge u. a.: Polity Press. Rheingold, Howard, 1994: Virtuelle Gemeinschaft. Soziale Beziehungen im Zeitalter des Computers. Bonn: Addison-Wesley. Rheingold, Howard, 2000: The virtual community. Homesteading on the electronic frontier. Revised edition. Cambridge, Mass. u. a.: MIT Press. Rifkin, Jeremy, 2000: Access. Das Verschwinden des Eigentums. Warum wir weniger besitzen und mehr ausgeben werden. 2. Auflage. Frankfurt am Main: Fischer-Taschenbuch-Verlag. Robinson, Alan, 1995: Thomas Chatterton. Der Autor als Konstrukt. In: Ingold/Wunderlich 1995: 55-72. Roesler, Alexander (Hg.), 2002: Microsoft. Medien, Macht, Monopol. Frankfurt am Main: Suhrkamp. Roesler, Alexander/Stefan Münker, 2005: »Was ist ein Medium?« Interdisziplinäre Tagung Weimar. [Dokumentation]. . 01.03.2006. (Stand: 28.11.2008). Rosen, Philipp (Hg.), 1986: Narrative, Apparatus, Ideology. A Film Reader. New York: Columbia University Press. Rosengren, Karl Erik, 1968: Sociological Aspects of the Literary System. Stockholm: Natur och Kultur.
362 | DER DIGITALE AUTOR
Rosengren, Karl Erik, 1983: The climate of literature: Sweden’s literary frame of reference, 1953-1976. Lund/Sweden: Studentlitteratur. Roth, Wolf-Dieter, 2002: Ist jetzt Abschreiben erlaubt? In: Telepolis. . 24.07.2002. (Stand: 28.11. 2008). Roth, Wolf-Dieter, 2003: Berufsverbot für Mediendesigner? In: Telepolis. . 17.10.2003. (Stand: 28.11.2008). Roth, Wolf-Dieter, 2005: Symicron: Konkurs eines Abmahners. In: Telepolis. . 15.06.2005. (Stand: 28.11.2008). Rothschild, Thomas, 2002: Hansgeorg Schmidt-Bergmann, Torsten Liesegang (Hg.): Liter@tur. Computer – Literatur – Internet [Rezension]. In: MEDIENwissenschaft (2002). H. 1. S. 115-116. Röttger-Denker, Gabriele, 1997: Roland Barthes zur Einführung. 2., überarbeitete Auflage. Hamburg: Junius. Rötzer, Florian, 1996: Aufmerksamkeit. Der Rohstoff der Informationsgesellschaft. In: Telepolis. . 08.01.1996. (Stand: 28.11.2008). Rötzer, Florian, 2000: eToys.com zieht die Klage gegen Etoy.com zurück. In: Telepolis. . 26.01.2000. (Stand: 28.11.2008). Rusch, Gebhard, 1991: Zur Systemtheorie und Phänomenologie von Literatur. Eine holistische Perspektive. In: SPIEL. Siegener Periodicum zur Internationalen Empirischen Literaturwissenschaft. Jg. 10 (1991). H. 2. S. 305-339. Rusch, Gebhard, 2000a: Autopoesis, Literatur, Wissenschaft. Was die Kognitionstheorie für die Literaturwissenschaft besagt. In: Schmidt 2000a: 374400. Rusch, Gebhard, 2000b: Von der Empirischen Literaturwissenschaft zum Siegener Konstruktivismus. . 28.10.2000. (Stand: 28.11.2008). Rusch, Gebhard (Hg.), 2002a: Einführung in die Medienwissenschaft. Konzeptionen, Theorien, Methoden, Anwendungen. Wiesbaden: Westdeutscher Verlag. Rusch, Gebhard, 2002b: Kommunikation. In: Rusch 2002a: 102-118. Rusch, Gebhard, 2004: Artikel »Empirische Theorie der Literatur (ETL)«. In: Nünning 2004c: 143-145. Ryan, Marie-Laure, 2001: Narrative as virtual reality. Immersion and interactivity in literature and electronic media. Baltimore, Md., London: Johns Hopkins University Press. Ryan, Marie-Laure, 2006: Avatars of story. Minneapolis u. a.: University of Minnesota Press. Ryan, Marie-Laure, 2007: Narrative and the Split Condition of Digital Textuality. In: Gendolla/Schäfer 2007: 257-280. Schäfer, Jörgen, 2005: Von Literatur, Rechnern und Netzen. Anmerkungen zu drei wichtigen Büchern über Literatur in computergestützten Medien. In: PhiN. Philologie im Netz 32/2005. . (Stand: 28.11.2008). Schaff, Barbara, 2002: Der Autor als Simulant authentischer Erfahrung. Vier Fallbeispiele fingierter Autorschaft. In: Detering 2002a: 426-443.
ANHANG | 363
Schanze, Helmut, 2002: Medien. In: Helmut Schanze (Hg.), 2002: Metzler Lexikon Medientheorie. Medienwissenschaft. Ansätze – Personen – Grundbegriffe. Stuttgart, Weimar: Metzler. S. 199-201. Scheibe, Siegfried, 2004: Zur Abgrenzung der Begriffe Autorisation und Authentizität. In: Bein et al. 2004: 31-38. Schmidt-Bergmann, Hansgeorg/Torsten Liesegang (Hgg.), 2001: Liter@tur. Computer – Literatur – Internet. Bielefeld: Aisthesis. Schmidt, Arno, 2002 [1970]: Zettels Traum. 1963-69. Faksimile-Wiedergabe des einseitig beschriebenen, 1334 Blatt umfassenden Manuskriptes, digitalisiert nach der 4. Auflage (Druck nach der Erstausgabe von 1970). Frankfurt am Main: Fischer Taschenbuch. Schmidt, Jan, 2006: Weblogs. Eine kommunikationssoziologische Studie. Konstanz: UVK. Schmidt, Siegfried J., 1980: Grundriß der empirischen Literaturwissenschaft. Teilband 1: Der gesellschaftliche Handlungsbereich Literatur. Braunschweig, Wiesbaden: Vieweg. Schmidt, Siegfried J., 1982a: Die empirische Literaturwissenschaft ELW: Ein neues Paradigma? In: SPIEL: Siegener Periodicum zur Internationalen Empirischen Literaturwissenschaft. Jg. 1 (1982). H. 1. S. 5-25. Schmidt, Siegfried J., 1982b: Grundriß der Empirischen Literaturwissenschaft. Teilband 2. Zur Rekonstruktion literaturwissenschaftlicher Fragestellungen in einer Empirischen Theorie der Literatur. Braunschweig, Wiesbaden: Vieweg. Schmidt, Siegfried J., 1991 [1980]: Grundriß der empirischen Literaturwissenschaft. Mit einem Nachwort zur Taschenbuchausgabe. Frankfurt am Main: Suhrkamp. Schmidt, Siegfried J., 1994a: Die Wirklichkeit des Beobachters. In: Merten et al. 1994: 3-19. Schmidt, Siegfried J., 1994b: Einleitung. Handlungsrollen im Fernsehsystem. In: Faulstich 1994b: 13-26. Schmidt, Siegfried J., 1994c: Kognitive Autonomie und soziale Orientierung. Frankfurt am Main: Suhrkamp. Schmidt, Siegfried J., 1994d: Medien = Kultur? Bern: Benteli. Schmidt, Siegfried J. (Hg.), 2000a: Der Diskurs des Radikalen Konstruktivismus. 8. Auflage. Frankfurt am Main: Suhrkamp. Schmidt, Siegfried J., 2000b: Der Radikale Konstruktivismus. Ein neues Paradigma im interdisziplinären Diskurs. In: Schmidt 2000a: 11-88. Schmidt, Siegfried J., 2001: Literaturwissenschaft – zum letzten Mal. In: Herbert Jaumann/Jürgen Klein/Bettina Rommel/u. a. (Hgg.), 2001: Domänen der Literaturwissenschaft. Tübingen: Stauffenburg. S. 45-60. Schmidt, Siegfried J., 2002: Medienwissenschaft und Nachbardisziplinen. In: Rusch 2002a: 53-68. Schmidt, Siegfried J., 2003: Medienkulturwissenschaft. In: Ansgar Nünning/ Vera Nünning (Hgg.), 2003: Konzepte der Kulturwissenschaften. Theoretische Grundlagen – Ansätze – Perspektiven. Stuttgart, Weimar: Metzler. S. 351-369. Schmidt, Siegfried J./Peter Vorderer, 1995: Kanonisierung in Mediengesellschaften. In: Andreas Poltermann (Hg.), 1995: Literaturkanon – Medienereignis – kultureller Text. Formen interkultureller Kommunikation und Übersetzung. Berlin: Erich Schmidt. S. 144-159.
364 | DER DIGITALE AUTOR
Schmidt, Siegfried J./Guido Zurstiege, 2000: Orientierung Kommunikationswissenschaft. Was sie kann, was sie will. Reinbek bei Hamburg: Rowohlt Taschenbuch Verlag. Schneider, Irmela (Hg.), 1981: Die Rolle des Autors. Analysen und Gespräche. Stuttgart: Klett. Schnell, Ralf, 2003: Geschichte der deutschsprachigen Literatur seit 1945. 2., überarbeitete und erweiterte Auflage. Stuttgart, Weimar: Metzler. Schnell, Ralf (Hg.), 2008: Panoramen der Anderswelt / Expeditionen ins Werk von Alban Nikolai Herbst. Die Horen 231 (= Jg. 53, H. 3). Bremerhaven: Wirtschaftsverlag NW. Scholler, Dietrich, 2003: Einschiffung nach Cyberia. Neuigkeiten aus der Tiefe des digitalen Raums. In: PhiN. Philologie im Netz 24/2003. . (Stand: 28.11.2008). Scholz, Bernhard F., 1999: Alciato als emblematum pater et princeps. Zur Rekonstruktion des frühmodernen Autorbegriffs. In: Jannidis et al. 1999b: 321-351. Scholz, Manfred Günter, 2005: Walther von der Vogelweide. 2., korrigierte und bibliographisch ergänzte Auflage. Schrage, Dominik, 1999: Was ist ein Diskurs? Zu Michel Foucaults Versprechen, »mehr« ans Licht zu bringen. In: Bublitz et al. 1999: 63-74. Schröder, Burkhard, 2004: Monochrome Netzliteratur. . 14.07.2004. (Stand: 28.11. 2008). Schulmeister, Rolf, 1996: Grundlagen hypermedialer Lernsysteme. TheorieDidaktik-Design. Bonn, Paris: Addison-Wesley. Schumacher, Heidemarie, 2000: Fernsehen fernsehen. Modelle der Medienund Fernsehtheorie. Köln: DuMont. Schweikhardt, Jens, 2003: Wirres Schmuckstück. In: Linux Magazin. 12/ 2003. S. 96-98. Schwenger, Hannes, 1979: Literaturproduktion. Zwischen Selbstverwirklichung und Vergesellschaftung. Stuttgart: Metzler. Schwingel, Markus, 1998: Pierre Bourdieu zur Einführung. 2. Auflage. Hamburg: Junius. Segeberg, Harro, 2007: Menschsein heißt, medial sein wollen. Autorinszenierungen im Medienzeitalter. In: Künzel/Schönert 2007: 245-255. Segeberg, Harro/Simone Winko (Hgg.), 2005a: Digitalität und Literalität. Zur Zukunft der Literatur im Netzzeitalter. München: Fink. Segeberg, Harro/Simone Winko, 2005b: Digitalität und Literalität. Zur Zukunft der Literatur im Netzzeitalter. . 2005. (Stand: 28.11.2008). Seidler, Christoph, 2006: Wie sich Google selbst auffressen soll. In: SPIEGEL ONLINE. . 05.09.2006. (Stand: 28.11.2008). Seier, Andrea, 2001: Macht. In: Kleiner 2001: 90-107. Sexl, Martin (Hg.), 2004a: Einführung in die Literaturtheorie. Wien: WUV. Sexl, Martin, 2004b: Formalistisch-strukturalistische Theorien. In: Sexl 2004a: 160-190. Sheehan, Paul, 2000: Nothing is More Real. Experiencing Theory in the Texts for Nothing. Written as part of Another Beckett Conference Birbeck College, 9-10 June 2000. . o. J. (Stand: 28.11.2008).
ANHANG | 365
Siegert, Paul Ferdinand, 2008: Die Geschichte der E-Mail. Erfolg und Krise eines Massenmediums. Bielefeld: Transcript. Simanowksi [sic!], Roberto, 2002: [rohrpost] dichtung-digital.de zwischen Geschenkökonomie undKostendeckung [sic!]. . 24.02.2002. (Stand: 28. 11.2008). Simanowski, Roberto, 1999: Assoziations-Blaster. Alvar Freudes und Dragan Espenschieds Schreibprojekt. In: dichtung-digital. 5/1999. . (Stand: 24.11.2008, kostenpflichtiger Zugang). Simanowski, Roberto (Hg.), 1999 ff.: dichtung-digital – journal für digitale ästhetik. . 2008. (Stand: 28.11.2008). Simanowski, Roberto, 2000a: »Beim Bäcker«. Collaborative Sex und soziale Ästhetik. In: dichtung-digital (2000). . 15.02.2000. (Stand: 28.11.2008, kostenpflichtiger Zugang). Simanowski, Roberto, 2000b: Einige Vorschläge und Fragen zur Betrachtung digitaler Literatur. In: IASL online Forum (2000). . 03.07.2000. (Stand: 28.11. 2008). Simanowski, Roberto, 2000c: Mitschreibprojekte und Webtagebücher. Öffentlichkeit im Netz. ein Interview mit Claudia Klinger. In: dichtung-digital (2000). . 03.05.2000. (Stand: 28.11.2008, kostenpflichtiger Zugang). Simanowski, Roberto, 2000d: Poeten-Pinnwand digital. NULL. Thomas Hettches Netz-Projekt als Buch. In: dichtung-digital. 6/2000. . 30.09.2000. (Stand: 28.11.2008, kostenpflichtiger Zugang). Simanowski, Roberto, 2001: Autorschaften in digitalen Medien. In: Arnold 2001: 3-21. Simanowski, Roberto, 2002a: Digitale Literatur? Das Essay zum Wettbewerb. In: Simanowski 2002c: 11-26. Simanowski, Roberto, 2002b: Interfictions. Vom Schreiben im Netz. Frankfurt am Main: Suhrkamp. Simanowski, Roberto (Hg.), 2002c: Literatur.digital. Formen und Wege einer neuen Literatur. München: dtv. Simanowski, Roberto, 2004a: Der Autor ist tot, es lebe der Autor – Autorschaften im Internet. In: Bieber/Leggewie 2004b: 190-215. Simanowski, Roberto, 2004b: Tod des Autors? Tod des Lesers! / Death of the Author? Death of the Reader! In: Block et al. 2004b: 79-91. Simanowski, Roberto, 2005: Editorial dichtung-digital 2/2005. In: dichtungdigital. Jg. 7 (2005). H. 2. . 23.12.2005. (Stand: 28.11.2008). Simanowski, Roberto, 2007: Editorial dichtung-digital No. 36. In: dichtungdigital. Jg. 9 (2007). H. 1. . Mai 2007. (Stand: 28.11.2008). Simonis, Linda, 2004: Artikel »Literatursoziologie«. In: Nünning 2004c: 400-402. Sixtus, Mario, 2004a: Das FreedomFone (aus DE:BUG No. 79, Februar 2004). . 2004. (Stand: 28. 11.2008).
366 | DER DIGITALE AUTOR
Sixtus, Mario, 2004b: Netzaktivist wegen Hyperlinks zu Geldstrafe verurteilt. In: heise online news. . 07.10.2004. (Stand: 28.11.2008). Söhler, Maik, 2006: Die neue Netzliteratur. In: Telepolis. . 29.12.2006. (Stand: 28.11.2008). Söhler, Maik, 2007: Mit Klappentext im Wespennest. In: Telepolis. . 07.01.2007. (Stand: 28.11. 2008). Sollfrank, Cornelia, 2003: Netzkunst als Sammlerobjekt. Cornelia Sollfrank im Gespräch mit Dr. Joachim Lemppenau, Vorstandsvorsitzender der Volksfürsorge Versicherungen. . 01.11.2003. (Stand: 28.11.2008). Spinner, Helmut F., 1998: Die Architektur der Informationsgesellschaft. Entwurf eines wissensorienten Gesamtkonzepts. Bodenheim: Philo. Stalder, Felix/Jesse Hirsh, 2002: Open Source Intelligence. In: First Monday. Jg. 7 (2002). H. 6. . Steinmaurer, Thomas, 2000: Tele-Transformationen. In: Sabine Flach/Michael Grisko (Hgg.), 2000: Fernsehperspektiven. Aspekte zeitgenössischer Medienkultur. München: KoPäd. S. 281-295. Steinmetz, Ralf, 2000: Multimedia-Technologie. Grundlagen, Komponenten und Systeme. 3., überarbeitete Auflage. Berlin u. a.: Springer. Stephan, Inge/Sigrid Weigel/Kerstin Wilhelms (Hgg.), 1998: Wen kümmert’s, wer spricht. Zur Literatur und Kulturgeschichte von Frauen aus Ost und West. Köln, Wien: Böhlau. Stiftung Warentest, 2008: Positives Jahresergebnis, Anzahl der Tests konstant. . 29.05.2008. (Stand: 09.01.2009). Stöcker, Christian, 2006: »Ein Schwein von einem Mann«. In: SPIEGEL ONLINE. . 25.10.2006. (Stand: 28.11.2008). Suter, Beat, 1999: Fluchtlinie. Zur Geschichte deutschsprachiger Hyperfictions. . 1999. (Stand: 28.11.2008). Suter, Beat, 2000: Hyperfiktion und interaktive Narration im frühen Entwicklungsstadium zu einem Genre. Zürich: Update. Suter, Beat, 2001: Das Internet – die Wunschmaschine, die Plage, die Sucht. In: dichtung-digital (2001). . 05.09.2001. (Stand: 28.11.2008, kostenpflichtiger Zugang). Suter, Beat, 2002: liebe@netzliteratur. Eine kleine Werküberschau zum Thema »Liebe in der Netzliteratur«. . 2002. (Stand: 28.11.2008). Suter, Beat, 2004a: The Making of »The Famous Sound of Absolute Wreaders«. In: dichtung-digital. 1/2004. . 2004. (Stand: 28.11.2008). Suter, Beat, 2004b: möglichkeitsraum internet. vom verwahrten content zur interkreativen allmende. In: Auer 2004b: 42-65. Suter, Beat, 2005: Literatur@Internet – oder warum die Zukunft des Schreibens längst da ist. In: Segeberg/Winko 2005a: 199-220. Suter, Beat/Michael Böhler, 1999a: Hyperfiction – ein neues Genre? Einleitung. In: Suter/Böhler 1999b: 7-25.
ANHANG | 367
Suter, Beat/Michael Böhler (Hgg.), 1999b: Hyperfiction. Hyperliterarisches Lesebuch: Internet und Literatur. Basel, Frankfurt am Main: Stroemfeld. The History Of Computing Foundation, 2007: Chronology of the History of Computing. . 21.12.2007. (Stand: 28. 11.2008). Thissen, Frank, 2003: Multimedia-Didaktik in Wirtschaft, Schule und Hochschule. Berlin u. a.: Springer. Thums, Barbara, 2002: Wandernde Autorschaft im Zeichen der Entsagung. Goethes Wanderjahre. In: Detering 2002a: 501-520. TNS Infratest/Initiative D21, 2008: (N)ONLINER Atlas 2008. Eine Topographie des digitalen Grabens durch Deutschland. . 24.06. 2008. (Stand: 23.12.2008). Török, Imre (Hg.), 2001: VS-Handbuch. Ein Ratgeber für Autorinnen und Autoren, Übersetzerinnen und Übersetzer. 2., aktualisierte Auflage. Göttingen: Steidl. Turkle, Sherry, 1999: Leben im Netz. Identität in Zeiten des Internet. Reinbek bei Hamburg: Rowohlt Taschenbuch. Tuschling, Jeanine, 2006: Autorschaft in der digitalen Literatur. Bremen: Institut für kulturwissenschaftliche Deutschlandstudien an der Universität Bremen. UK Web Archiving Consortium, o. J. [2006?]: Project Overview. . o. J. [2006?]. (Stand: 28.11.2008). Uschtrin, Sandra/Michael Joe Küspert (Hgg.), 2001: Handbuch für Autorinnen und Autoren. Adressen und Informationen aus dem deutschen Literatur- und Medienbetrieb. 5., aktualisierte und erweiterte Auflage. München: Uschtrin. van Peer, Willie, 1999: Absicht und Abwehr. Intention und Interpretation. In: Jannidis et al. 1999b: 107-122. Vanderbeke, Birgit (Hg.), 1990: »Fresse schon meine Fingerspitzen wie Spargelköpfe«. Bettel- und Brandbriefe. Frankfurt am Main: Luchterhand. Vanderbeke, Birgit (Hg.), 2006a: »Ich bin ganz, ganz tot, in vier Wochen«. Bettel- und Brandbriefe berühmter Schriftsteller. Überarbeitete und erweiterte Neuausgabe. Berlin: Autorenhaus. Vanderbeke, Birgit, 2006b: Vorwort. »Ja kann man denn davon leben?« In: Vanderbeke 2006a: 9-14. Viehoff, Reinhold, 1998: Schriftsteller und Hörfunk nach 1945 – ein unterschätztes Verhältnis. In: LiLi. Zeitschrift für Literaturwissenschaft und Linguistik 111. Jg. 28 (1998). S. 102-125. Viehoff, Reinhold, 2000: Das SJS-Paradigma. . 28.10.2000. (Stand: 28.11.2008). Viehoff, Reinhold, 2002: Von der Literaturwissenschaft zur Medienwissenschaft. In: Rusch 2002a: 10-35. Waldow, Stephanie, 2002: Diskussionsbericht. In: Detering 2002a: 582-590. Warnke, Martin/Wolfgang Coy/Georg Christoph Tholen (Hgg.), 1997: HyperKult. Geschichte, Theorie und Kontext digitaler Medien. Basel: Stroemfeld/Nexus. Warnke, Martin/Wolfgang Coy/Georg Christoph Tholen (Hgg.), 2005: HyperKult II. Zur Ortsbestimmung analoger und digitaler Medien. Bielefeld: Transcript.
368 | DER DIGITALE AUTOR
Weber, Stefan (Hg.), 2003: Theorien der Medien. Von der Kulturkritik bis zum Konstruktivismus. Konstanz: UVK. Weber, Stefan, 2007: Das Google-Copy-Paste-Syndrom. Wie Netzplagiate Ausbildung und Wissen gefährden. Hannover: Heise. Weddige, Hilkert, 1997: Einführung in die germanistische Medävistik. 3., durchgesehene und ergänzte Auflage. Müchen: C. H. Beck. Wehn, Karin, 2002a: »Crime-Time« im Wandel. Produktion, Vermittlung und Genreentwicklung des west- und ostdeutschen Fernsehkrimis im Dualen Rundfunksystem. Bonn: ARCult. Wehn, Karin, 2002b: (Fast nur) Trash, Tierquälerei und Blasphemie: Renaissance des animierten Kurzfilms auf Entertainment-Portalen im WWW. . 2002. (Stand: 28.11.2008). Wehn, Karin, 2003: Kurzfilme im Internet. Eine Einführung von Dr. Karin Wehn. . 2003. (Stand: 28.11.2008). Wehn, Karin, 2003 [2005]: Machinima oder was Ego-Shooter und Puppentheater gemeinsam haben. Über die revolutionäre Umformung des Dispositivs Computerspiele durch seine User. In: SPIEL: Siegener Periodicum zur Internationalen Empirischen Literaturwissenschaft. Jg. 22 (2003 [2005]). H. 1. S. 162-182. Wehn, Karin, 2004: Machinima. In: Telepolis. Teil 1 und 2. »Was Ego-Shooter und Puppentheater gemeinsam haben«. . 13.07.2004. Teil 3. »Die Produktion von Machinima-Filmen«. . 26.07.2004. Teil 4. »Machinima-Stile: Parodien, Live-Machinimas, Ego-Shooter, Animationen«. . 29. 08.2004. Teil 5. »Machinima versus Urheberrecht«. . 28.09.2004. Teil 6. »Emanzipierter Umgang mit Computerspielen«. . 20.12.2004. (Stand: 28.11.2008). Wehn, Karin/Dirk Förster/Ingo Linde, 2000 ff.: Animation in Neuen Medien. . 2008. (Stand: 28.11. 2008). Wehn, Karin/Martin Welker, 2006: Weisheit der Massen. In: Telepolis. . 01.09.2006. (Stand: 28.11.2008). Weibel, Peter, 2004: Die Algorithmische Revolution. Zur Geschichte der interaktiven Kunst. . 2004. (Stand: 28.11.2008). Weimar, Klaus, 1999: Doppelte Autorschaft. In: Jannidis et al. 1999b: 123133. Welker, Martin, 2006: Weblogs: Ein neues Werkzeug für Journalisten. In: Picot/Fischer 2006: 157-172. Weller, Clemens, 2004-2007: Computer History Online. . 22.07.2007. (Stand: 09.01.2009). Werber, Niels, 2003a: »Das Videospiel könnte den Roman beerben«. Interview mit Tanja Zech. .
ANHANG | 369
o. J. (Verweis auf archivierte Version, da Originalquelle inzwischen offline, Stand: 09.01.2009). Werber, Niels, 2003b: New (literary) economy? Neue Medien, Neue Literatur – im World Wide Web, Vortrag an der Universität Frankfurt, 08.07. 2003. . 08.07.2003. (Stand: 24.11.2008). Werner, Andreas/Axel Becker, 1997: Multimedia. Das Objekt und seine Entwicklung. In: Ludes 1997: 87-104. Wettig, Christiane, 2001: Keine Angst vor 0 und 1. Künstlerinnen erobern das Netz. In: Telepolis. . 02.02.2001. (Stand: 24.11.2008). Wetzel, Michael, 2000: Autor/Künstler. In: Karlheinz Barck/Martin Fontius/Dieter Schlenstedt/u. a. (Hgg.), 2000: Ästhetische Grundbegriffe (ÄGB). Historisches Wörterbuch in sieben Bänden. Band 1: Absenz – Darstellung. Stuttgart, Weimar: Metzler. S. 480-544. Wetzel, Michael, 2002: Der Autor zwischen Hyperlinks und Copyright. In: Detering 2002a: 278-290. Wiechens, Peter, 1995: Bataille zur Einführung. Hamburg: Junius. Wilkens, Andreas, 2003: Polizei sprengt internationalen KinderpornografieRing im Internet. In: heise online news. . 26.09.2003. (Stand: 24.11.2008). Wilkens, Andreas, 2006: Domain sex.com wechselt für 14 Millionen USDollar den Besitzer. In: heise online news. . 19.01.2006. (Stand: 28.11.2008). Wilson, David L., 1998: Would the Internet survive the bomb? . 1998. (Stand: 24.11.2008). Wimmer, Helmut, 1997: Zur Konvergenz von Technologie und Denken. Diplomarbeit. Sozial- und Wirtschaftswissenschaftliche Fakultät. Universität Wien. Wien. Wimsatt, William K./Monroe C. Beardsley, 2000 [1946]: Der intentionale Fehlschluss. In: Jannidis et al. 2000b: 84-101. Winkler, Hartmut, 1990a: Der Zuschauer und die filmische Technik. Apparatus-Theorien, Frankreich 1969-75. In: Hickethier/Winkler 1990: 19-25. Winkler, Hartmut, 1990b: Switching, ein Verfahren gegen den Kontext. In: Hickethier/Winkler 1990: 137-142. Winkler, Hartmut, 1991: Switching, zapping. Ein Text zum Thema und ein parallellaufendes Unterhaltungsprogramm. Darmstadt: Häusser. Winkler, Hartmut, 1997a: Die prekäre Rolle der Technik. Technikzentrierte versus ›anthropologische‹ Mediengeschichtsschreibung. In: Telepolis. . 1997. (Stand: 24.11.2008). Winkler, Hartmut, 1997b: Docuverse. Zur Medientheorie der Computer. München: Boer. Winkler, Hartmut, 2003: Medium Computer. Zehn populäre Thesen zum Thema und warum sie möglicherweise falsch sind. Vortrag am 19.02. 2003 in der Reihe »Understanding New Media«, Heinz-Nixdorf-Forum Paderborn. . 18.02. 2003. (Stand: 24.11.2008). Winkler, Hartmut, 2004: Mediendefinition. In: Medienwissenschaft (2004). H. 1. S. 9-27.
370 | DER DIGITALE AUTOR
Winko, Simone, 1999a: Einführung: Autor und Intention. In: Jannidis et al. 1999b: 39-46. Winko, Simone, 1999b: Lost in Hypertext? Autorkonzepte und neue Medien. In: Jannidis et al. 1999b: 511-533. Winko, Simone, 2001: Beat Suter/Michael Böhler (Hg.): Hyperfiction. Hyperliterarisches Lesebuch: Internet und Literatur, Mit Cd-Rom: Basel, Frankfurt A.M.: Stroemfeld 1999 (Nexus 50). - Beat Suter: Hyperfiktion und interaktive Narration im frühen Entwicklungsstadium zu einem Literarischen Genre: Zürich: Update Verlag 2000. [Rezension]. In: Jahrbuch für Computerphilologie – online. Jg. 3 (2001). . 07.09.2001. (Stand: 24.11. 2008). Winko, Simone, 2002: Autor-Funktionen. Zur argumentativen Verwendung von Autorkonzepten in der gegenwärtigen literaturwissenschaftlichen Interpretationspraxis. In: Detering 2002a: 334-354. Wirth, Uwe, 1997: Wen kümmert´s wer liest? Literatur im Internet. In: Stefan Münker/Alexander Roesler (Hgg.), 1997: Mythos Internet. Frankfurt am Main: Suhrkamp. S. 319-337. Wirth, Uwe, 1999: Wen kümmert’s, wer spinnt? In: Suter/Böhler 1999b: 2942. Wirth, Uwe, 2001: Der Tod des Autors als Geburt des Editors. In: Arnold 2001: 54-64. Wirth, Uwe, 2008: Die Geburt des Autors aus dem Geist der Herausgeberfiktion. Editoriale Rahmung im Roman um 1800. Wieland, Goethe, Brentano, Jean Paul und E.T.A. Hoffmann. München: Fink. Wirtz, Bernd W., 2008: Deutschland Online 5. Unser Leben im Netz. . 28.01.2008. (Stand: 23.12.2008). Wolf, Gary, 1995: The Curse of Xanadu. In: Wired (1995). H. 3.06. . Juni 1995. (Stand: 24.11.2008). Wolf, Norbert Christian, 2002: Wie viele Leben hat der Autor? Zur Wiederkehr des empirischen Autor- und des Werkbegriffs in der neueren Literaturtheorie. In: Detering 2002a: 390-405. Wolf, Werner, 2004: Artikel »Erzähler«. In: Nünning 2004c: 156-157. Wolfram von Eschenbach, 1994: Parzival. Band 1. Nach der Ausgabe Karl Lachmanns. Revidiert und kommentiert von Eberhard Nellmann. Übertragen von Dieter Kühn. Frankfurt am Main: Deutscher Klassiker Verlag. Woodmansee, Martha, 2000: Der Autor-Effekt. Zur Wiederherstellung von Kollektivität. In: Jannidis et al. 2000b: 298-314. Woodmansee, Martha/Peter Jaszi, 1999: Die globale Dimension des Begriffs der ›Autorschaft‹. In: Jannidis et al. 1999b: 391-419. Worthmann, Friederike, 2004: Literarische Wertungen. Vorschläge für ein deskriptives Modell. Wiesbaden: DUV. Zakon, Robert, 2006: Hobbes’ Internet Timeline – the definitive ARPAnet & Internet history. . 01.11. 2006. (Stand: 24.11.2008). Zerdick, Axel/Arnold Picot/Klaus Schrape/u. a., 2001: Die Internet-Ökonomie. Strategien für die digitale Wirtschaft. 3., erweiterte und überarbeitete Auflage. Berlin: Springer.
ANHANG | 371
Ziegfeld, Richard, 1989: Interactive Fiction: A New Literary Genre? In: New Literary History. A Journal of Theory and Interpretation. Jg. 20 (1989). H. 2. S. 341-372. Zielinski, Siegfried, 1994: Audiovisionen. Kino und Fernsehen als Zwischenspiele in der Geschichte. Reinbek bei Hamburg: Rowohlt. Žižek, Slavoj, 2006: Nobody has to be vile. In: London Review of Books. Jg. 28 (2006). H. 7. .
Sonstige elektronische Sekundärliteratur »«, literarische Newsgroup. . o. J. (archiviert bei Google seit 1999, Stand: 24.11.2008). »1. Junggesellenpreis für Netzliteratur«, Netzliteraturwettbewerb, ausgeschrieben vom Literaturhaus Stuttgart in Zusammenarbeit mit Johannes Auer. Preisverleihung am im Rahmen des Netzliteratur-Festivals »Literatur und Strom: CODE – INTERFACE – CONCEPT«, kuratiert von Johannes Auer, Stuttgart, 09. – 11.11.2005. . 2005. (Stand: 24.11.2008). Abmahnwelle e.V., Dokumentation der Forschungsstelle Forschungsstelle Abmahnwelle e. V. . 2005 ff. (Stand: 24.11.2008). Artikel »Kazakhstan«. In: Wikipedia, the free encyclopedia. . 23.11.2008. (Stand: 24.11.2008). Artikel »Seigenthaler incident«. In: Wikipedia, the free encyclopedia. . 22.11.2008. (Stand: 24.11. 2008). Artikel »Wikipedia:Vandalism«. In: Wikipedia, the free encyclopedia. . 24.11.2008. (Stand: 24.11.2008). Artikel »Wiki«. In: Wikipedia, the free encyclopedia. . 24.11.2008. (Stand: 24.11.2008). Artikel »Wikipedia«. In: Wikipedia, the free encyclopedia. . 24.11.2008. (Stand: 24.11.2008). Artikel »Wikipedia:Replies to common objections«. In: Wikipedia, the free encyclopedia. . 03.11.2008. (Stand: 24.11.2008). Artikel »Wikipedia-Richtlinien«. In: Wikipedia. Die freie Enzyklopädie. . 13.11.2008. (Stand: 24.11.2008). »ASCII Generator«, webbasierte Software zur Generierung von ASCII-Art aus Textvorlagen. . 1996 ff. (Stand: 24.11.2008). »ASCII Generator dotNET«, Software zur Generierung von ASCII-Art aus Grafikvorlagen. . 2005 ff. (Stand: 28.11.2008). Auer, Johannes, 2003 ff: »Johannes Auer«, persönliche Website. . 2003 ff. (Stand: 28.11.2008). Berkenheger, Susanne, 1997-2001: »a c h t u n g ! a r c h ä o l o g i s c h e s g e b i e t !«, literarische Website von Susanne Berkenheger. . 1997-2001. (Stand: 28.11.2008).
372 | DER DIGITALE AUTOR
Berkenheger, Susanne, 2001 ff: »susanne berkenheger«, persönliche Website. . 2001 ff. (Stand: 28.11.2008). »BILDblog«, Medien- und Watchblog, das die Arbeit der »BILD«-Zeitung kritisch begleitet. . 2004 ff. (Stand: 28.11. 2008). »Bootstrap Institute«, Website des Forschungsinstitutes von Douglas Engelbart, gegründet 1989. . 1995 ff. (Stand: 28. 11.2008). »Budapest Open Access Initiative«, »Open Access«-Initiative. . 2001 ff. (Stand: 28.11.2008). »CarpeWiki«. Plattform für literarische Wikiprojekte, initiiert und moderiert von Oliver Gassner. . 2003 ff. (Stand: 28.11.2008). »CCC | Chaos Computer Club e.V.«, Webseite des »Chaos Computer Clubs«. . 1995 ff. (Stand: 28.11.2008). CERN, 2008: CERN in a nutshell. . 2008. (Stand: 28.11.2008) Charlier, Michael , 2006: [mlnl] Netzliteratur goes youtube. Online-Posting in der Mailingliste »Netzliteratur«. . 11.09.2006 (unveröffentlicht). »Computer als Medium«, Fachgruppe im Fachbereich »Informatik und Gesellschaft« der »Gesellschaft für Informatik e.V.« . 1991 ff. (Stand: 28.11. 2008). Cramer Florian, 2005 ff.: »Gopher«, persönliche Website. . 2005 ff. (Stand: 28.11.2008). Cramer, Florian, Alan Sondheim (Hgg.), 2002-2004: »Nettime unstable digest«, wöchentliche Anthologie insbesondere von ›broken code‹-Arbeiten. , . 2002-2004. (Stand: 28.11.2008). »Creative Commons«, webbasierte gemeinnützige Initiative zur Entwicklung alternativer und freier Lizenzmodelle für Inhalte. . 2001 ff. (Stand: 28.11.2008). »curated by…«, Sendereihe des »ORF Kunstradios«. . 2001 ff. (Stand: 28.11. 2008). »deutsche blogcharts«, Übersicht der beliebtesten deutschsprachigen Weblogs. . 2006 ff. (Stand: 28.11.2008). »Elektronischer Bundesanzeiger«, herausgegeben vom Bundesministerium der Justiz. . 2003 ff. (Stand: 09.01. 2009). »Deutschland Online«, jährliche Studie zum deutschen Breitband-Markt der »T-Online International AG«. . 2003 ff. (Stand: 28.11.2008). »digitalaesthetics.org«, Kooperation von Peter Gendolla (Universität Siegen) und Roberto Simanowski (Brown University, Providence, RI). . 2006 ff. (Stand: 28.11.2008). »etoy.CORPORATION«, Webseite der Künstlergruppe »etoy«. . 1994 ff. (Stand: 28.11.2008).
ANHANG | 373
»Feedreader«, RSS-Reader. . o. J. (Stand: 28. 11.2008). »The GNU Operating system – the GNU project – Free Software Foundation – Free as in Freedom – GNU/Linux«, Website des GNU-Projektes. . 1996 ff. (Stand: 28.11.2008). »Google Groups«, Webbasiertes Usenet-Frontend und Archiv. 2001 ff. (Stand: 28.11.2008). Grassmuck, Volker, 2000 ff: »vgrass’s home«, persönliche Website. . 2000 ff. (Stand: 28.11.2008). »heise.de-Newsticker«, Nachrichtendienst des »Heinz-Heise«-Verlags, spezialisiert auf Online-Themen. . 1996 ff. (Stand: 28. 11.2008). Herbst, Alban Nikolai, 2003 ff: »Herbst & Deters - Fiktionäre«, persönliche Website und Dokumentation. . 2003 ff. (Stand: 28.11.2008). Herbst, Alban Nikolai, 2003-2004: »Weblogbuch«, persönliches und literarisches Weblog. . 2003-2004. (Stand: 28.11.2008). Herbst, Alban Nikolai, 2004 ff: »Die Dschungel. Anderswelt.«, persönliches und literarisches Weblog. . 2004 ff. (Stand: 28.11.2008). Herbst, Alban Nikolai, 2006b: Borges und Mäzene. Der heutige Newsletter. . 25.01.2006. (Stand: 28.11.2008). Herbst, Alban Nikolai, 2006c: Montag, der 13. März 2006. . 13.03.2006. (Stand: 28. 11.2008). Herbst, Alban Nikolai, 2006d: An das Kassen- und Steueramt (Amt 21) der Stadt Frankfurt am Main. . 22.10.2006. (Stand: 28.11.2008). Herbst, Alban Nikolai, 2007: Notebook-Sponsoring. Anfrage. Grundbrief. . 12.02.2007. (Stand: 28.11.2008). Idensen, Heiko, 2000 ff: »HYPER- diskurs, -fiktion, -text, -diss«, persönliche und literarische Webplattform. . 2000 ff. (Stand: 28.11.2008). »independent media center« (indymedia.org), journalistische Plattform. . 1999 ff. (Stand: 28.11.2008). »Internet Archive«, Archivierungsservice für das gesamte öffentlich zugängliche »World Wide Web«. . 1996 ff. (Stand: 28.11.2008). »The International Obfuscated C Code Contest«, Programmierwettbewerb seit 1983. . 1998 ff. (Stand: 28.11.2008). »Joomla!«, Webseite des Open Source Content Management System. . 2006 ff. (Stand: 28.11.2008). Jelinek, Elfriede, 1996 ff.: »Elfriede Jelinek Homepage«, persönliche Website. . 1996 ff. (Stand: 28.11.2008). Lessig, Lawrence, 2000 ff.: »Lawrence Lessig«, persönliche Website. . 2000 ff. (Stand: 28.11.2008).
374 | DER DIGITALE AUTOR
»List of Wikipedias«, umfangreiche statistische Daten zu WikipediaProjekten. . 07.01. 2009. (Stand: 08.01.2009). »Literatur und Strom. Code – Interface – Concept«, Netzliteraturfestival, kuratiert von Johannes Auer. Literaturhaus Stuttgart. 09. – 11.11.2005. . 2005. (Stand: 28.11.2008). »Literatur und Strom 2. Netzgeschichten«, Netzliteraturfestival, kuratiert von Johannes Auer. Literaturhaus Stuttgart. 16. – 18.04.2008. . 2008. (Stand: 28.11.2008). »Literaturwelt. Das Blog«, kollaboratives Weblog, online seit 10.10.2005. . 2005 ff. (Stand: 28.11.2008). »Litnet. Literatur in Netzen – Netzliteratur«, Projekt im kulturwissenschaftlichen Forschungskolleg »Medienumbrüche«, Universität Siegen. . 2002 ff. (Stand: 28.11.2008). Martínez, Matías, o. J.: »Prof. Dr. Matías Martínez«, persönliche Webseite. . o. J. (Stand: 28.11.2008). mez [Mary-Anne Breeze], o. J.: »mo[ve.men]tion«, persönliche Website der Netzwerkkünstlerin mez. . o. J. (Stand: 28.11.2008). »nettime mailing list«, Mailingliste. . 1995 ff. (Stand: 28.11.2008). »Netzliteratur«, Mailingliste . 1998 ff. (Stand: 28.11.2008). »Obfuscated C code«, Teil der Ausstellung »I love you«, kuratiert von »digitalcraft.org Kulturbüro«. . 2002. (Stand: 28.11.2008). »ODEM – Plattform für Online-Demonstrationen und Grundrechte im Internet«, Webseite der Initiative »ODEM«. . 2001 ff. (Stand: 28.11.2008). »Open Directory Project« (ODP), Webkatalog auf »Open Content«-Basis. . 1998 ff. (Stand: 28.11.2008). »open theory«, kollaborative, kulturwissenschaftlich orientierte Schreibplattform. . 2000 ff. (Stand: 28.11.2008). Ortmann, Sabrina, Enno E. Peter, 1998-2006: »Berliner Zimmer«, E-Zine u. a. zur Netzliteratur. . 1998-2006. (Stand: 28.11.2008). »popurls® | popular urls to the latest web buzz«, webbasierter, komplexer RSS-Aggregator. . 2006 ff. (Stand: 28.11.2008). »Projekt Gutenberg-DE«, Literaturarchiv für traditionelle Literatur. . 1994 ff. (Stand: 28.11.2008). »Radio_Copernicus«, Deutsch-polnisches Künstlerradioprojekt. Wroclaw und Berlin. 15.07. – 31.12.2005. . 2006. (Stand: 28.11.2008). »Radio Corax«. Nichtkommerzielles Lokalradio, Halle (Saale). . 2001 ff. (Stand: 28.11.2008). »RadioREVOLTEN Festival«, Webseite des Radiokunstfestivals »RadioREVOLTEN«, Halle (Saale), 20.09. – 21.10.2006. . 2007. (Stand: 28.11.2008). ».ran : real audio netliterature«, 5-teilige Sendereihe für das »ORF Kunstradio«, Wien, kuratiert von Johannes Auer. 2004-2005. . 2005. (Stand: 28.11. 2008). »Reporters sans frontières - Reporters Without Borders - Reporteros sin fronteras«, Webseite der internationalen Organisation »Reporter ohne Grenzen«. . 2002 ff. (Stand: 23.12.2008). »rohrpost Archives«, Archiv der Mailingliste »Rohrpost«. . 2001 ff. (Stand: 28.11.2008). Simanowski, Roberto (Hg.), 1999 ff.: »dichtung-digital«, E-Zine zur digitalen Ästhetik. . 1999 ff. (Stand: 28.11. 2008). »Slashdot«, Newsplattform für Informationstechnologie. . 1997 ff. (Stand: 28.11.2008). Sollfrank, Cornelia, 2000 ff: »artwarez«, persönliche Website von Cornelia Sollfrank. . 2000 ff. (Stand: 28.11.2008). Suter, Beat, 2001 ff.: »c1berf1ction.ch« [cyberfiction.ch], Webplattform und Buchreihe zur Netzliteratur. . 2001 ff. (Stand: 28.11.2008). »Technorati«, Internet-Suchmaschine für Weblogs. . 2002 ff. (Stand: 28.11.2008). »Telepolis«, deutschsprachiges E-Zine zur Netzkultur. . 1996 ff. (Stand: 28.11.2008). Tischer, Wolfgang (Hg.), 1996 ff. »Literatur-Café«, E-Zine zur Literatur und Netzliteratur. . 1996 ff. (Stand: 28.11. 2008). »UBERMORGEN.COM«, Webseite der Künstlergruppe UBERMORGEN.COM (Hans Bernhard, Maria Haas). . o. J. (Stand: 28.11.2008). Wales, Jimmy , 2005: [WikiEN-l] a valid criticism. Online-Posting in der Mailingliste »WikiEN-l«. . 06.10.2005. (Stand: 28. 11.2008). »WEB.DE Live-Suche«, Service der Suchmaschine »WEB.DE«. . o. J. (Stand: 28.11.2008). Weber-Wulff, Debora , 2005: [VereinDEl] Kommen nach den »science wars« die »reference wars«? OnlinePosting in der Mailingliste »VereinDE-l«. . 29.09.2005. (Stand: 28.11.2008). »Wikipedia. Die freie Enzyklopädie«, Online-Enzyklopädie, deutschsprachige Ausgabe. . 2001 ff. (Stand: 28.11.2008). »Wikipedia, the free encyclopedia«, Online-Enzyklopädie, englischsprachige Ausgabe. . 2001 ff. (Stand: 28. 11.2008). »Wizards of OS: Wizards of OS 4«, Kongressreihe 1999 ff. . 1999 ff. (Stand: 28.11.2008). »World Summit on the Information Society« (WSIS), UN-Weltgipfel zur Informationsgesellschaft. Dezember 2003 und November 2005. . 2001 ff. (Stand: 28.11.2008). »YouTube.com«, Online-Videoportal. . 2005 ff. (Stand: 28.11.2008).
376 | DER DIGITALE AUTOR
Zachte, Eric, 2008: Wikipedia-Statistik. Sonntag 30 November 2008. . 30.11.2008. (Stand: 08.01.2009). Zentrum für Kulturforschung (ZfKf), 1999 ff: »Kulturpolitik – Zentrum für Kulturforschung – Centre for Cultural Research«, Webseite des Forschungsinstitutes. . 1999 ff. (Stand: 28. 11.2008).
Interviews Fröde, Nele/Henry Gerlach/Florian Hartling/u. a., 2004a: Interview mit Johannes Auer, Netzliterat und Essayist. Halle. 08.11.2004 (teilweise dokumentiert in Fröde et al. 2005). Fröde, Nele/Henry Gerlach/Florian Hartling/u. a., 2004b: Interview mit Susanne Berkenheger, Netzliteratin und Journalistin. Berlin. 03.08.2004 (teilweise dokumentiert in Fröde et al. 2005). Fröde, Nele/Henry Gerlach/Florian Hartling/u. a., 2004c: Interview mit Golo Föllmer, Medien- und Musikwissenschaftler, Schwerpunkt: Netzmusik. Halle. 13.02.2004 (teilweise dokumentiert in Fröde et al. 2005). Fröde, Nele/Henry Gerlach/Florian Hartling/u. a., 2004d: Interview mit Michael Iber, Netzmusiker. Halle. 13.02.2004 (teilweise dokumentiert in Fröde et al. 2005). Fröde, Nele/Henry Gerlach/Florian Hartling/u. a., 2004e: Interview mit Peter Auge Lorenz, Animationskünstler. Berlin. 11.08.2004 (teilweise dokumentiert in Fröde et al. 2005). Fröde, Nele/Henry Gerlach/Florian Hartling/u. a., 2004f: Interview mit Karin Wehn, Medien- und Kommunikationswissenschaftlerin, Schwerpunkt: Animation in den Neuen Medien. Leipzig. 22.12.2004 (teilweise dokumentiert in Fröde et al. 2005). Hartling, Florian, 2007b: Interview mit Johannes Auer, Netzliterat und Essayist. Stuttgart. 05.03.2007 (unveröffentlicht).
Bildnachweis Abb. 1: Typologie verschiedener Modelle von Autorschaft nach Heinrich Detering Abb. 2: Anordnung der Autorschaftsmodelle nach Heinrich Detering Abb. 3: Kommunikationsmodell narrativer Texte von Manfred Pfister Abb. 4: Verhältnis der Handlungsrollen zueinander Abb. 5: Allgemeines Strukturmodell des Dispositivs als Netz heterogener Elemente nach Michel Foucault Abb. 6: Allgemeines Entwicklungsmodell der Formierung und Veränderung von Dispositiven Abb. 7: Allgemeines Strukturmodell des Dispositivs nach Hickethier mit der Zuordnung ausgewählter heterogener Faktoren Foucaults
90 91 91 146 157 159
184
ANHANG | 377
Abb. 8: Gegenüberstellung der zentralen Vorstellungen, die vom Dispositiv-Konzept nach Hickethier und dem Medienmodell nach Schmidt jeweils integrativ verbunden werden Abb. 9: Gegenüberstellung der zentralen Vorstellungen, die vom Dispositiv-Konzept nach Hickethier und dem Medienmodell nach Faulstich jeweils integrativ verbunden werden Abb. 10: Gegenüberstellung des Kategoriensystems der vorliegenden Arbeit mit den Faktoren/Modellen nach Foucault und Hickethier Abb. 11: Alban Nikolai Herbst: »Die Dschungel. Anderswelt.« (2004 ff.), Screenshot mit freundlicher Genehmigung des Künstlers Abb. 12: Alvar Freude: »FreedomFone« (2001), Screenshot mit freundlicher Genehmigung des Künstlers Abb. 13: Susanne Berkenheger: »Die Schwimmmeisterin« (2002), Screenshot mit freundlicher Genehmigung der Künstlerin Abb. 14: Typologie verschiedener Stufen von kollaborativer Autorschaft Abb. 15: Hettche/Hense (Hrsg.): »NULL« (2000), Screenshot mit freundlicher Genehmigung des Künstlers Abb. 16: Klinger (Hrsg.): »Beim Bäcker« (1996-2000), Screenshot mit freundlicher Genehmigung der Künstlerin Abb. 17: Untergenres von Codeworks Abb. 18: Typologie verschiedener Vor- und Erscheinungsformen von ASCII-Kunst Abb. 19: Don Yang: »dhyang.c 2000 / SAITOU.C« (2000), Screenshot mit freundlicher Genehmigung des Künstlers Abb. 20: mez [Mary-Anne Breeze]: »term.i.nation net.wurk[er]« (2003), Screenshot mit freundlicher Genehmigung der Künstlerin Abb. 21: Florian Cramer: »plaintext.cc« (2005), Screenshot mit freundlicher Genehmigung des Künstlers Abb. 22: Genres von netzliterarischer Konzeptkunst Abb. 23: Johannes Auer: »Search Lutz« (2006). Genese des Projektes Abb. 24: Johannes Auer: »Search Lutz!« (2006). Bildschirmausgabe, Screenshot mit freundlicher Genehmigung des Künstlers Abb. 25: Johannes Auer: »Search Lutz«! (2006). Sprecher Peter Gorges bei der Performance, Foto: Florian Hartling
189
190
191
229 259 265 267 272 274 282 283 284
285 286 289 292 303 304
ZfK – Zeitschrift für Kulturwissenschaften
Michael C. Frank, Bettina Gockel, Thomas Hauschild, Dorothee Kimmich, Kirsten Mahlke (Hg.)
Räume Zeitschrift für Kulturwissenschaften, Heft 2/2008 Dezember 2008, 160 Seiten, kart., 8,50 , ISBN 978-3-89942-960-2 ISSN 9783-9331
ZFK – Zeitschrift für Kulturwissenschaften Der Befund zu aktuellen Konzepten kulturwissenschaftlicher Analyse und Synthese ist ambivalent: Neben innovativen und qualitativ hochwertigen Ansätzen besonders jüngerer Forscher und Forscherinnen steht eine Masse oberflächlicher Antragsprosa und zeitgeistiger Wissensproduktion – zugleich ist das Werk einer ganzen Generation interdisziplinärer Pioniere noch wenig erschlossen. In dieser Situation soll die Zeitschrift für Kulturwissenschaften eine Plattform für Diskussion und Kontroverse über Kultur und die Kulturwissenschaften bieten. Die Gegenwart braucht mehr denn je reflektierte Kultur, historisch situiertes und sozial verantwortetes Wissen. Aus den Einzelwissenschaften heraus kann so mit klugen interdisziplinären Forschungsansätzen fruchtbar über die Rolle von Geschichte und Gedächtnis, von Erneuerung und Verstetigung, von Selbststeuerung und ökonomischer Umwälzung im Bereich der Kulturproduktion und der naturwissenschaftlichen Produktion von Wissen diskutiert werden. Die Zeitschrift für Kulturwissenschaften lässt gerade auch jüngere Wissenschaftler und Wissenschaftlerinnen zu Wort kommen, die aktuelle fächerübergreifende Ansätze entwickeln.
Lust auf mehr? Die Zeitschrift für Kulturwissenschaften erscheint zweimal jährlich in Themenheften. Bisher liegen die Ausgaben Fremde Dinge (1/2007), Filmwissenschaft als Kulturwissenschaft (2/2007), Kreativität. Eine Rückrufaktion (1/2008) und Räume (2/2008) vor. Die Zeitschrift für Kulturwissenschaften kann auch im Abonnement für den Preis von 8,50 je Ausgabe bezogen werden. Bestellung per E-Mail unter: [email protected] www.transcript-verlag.de
Kultur- und Medientheorie Erika Fischer-Lichte, Kristiane Hasselmann, Alma-Elisa Kittner (Hg.) Kampf der Künste! Kultur im Zeichen von Medienkonkurrenz und Eventstrategien Juni 2009, ca. 300 Seiten, kart., zahlr. Abb., ca. 28,80 €, ISBN 978-3-89942-873-5
Jürgen Hasse Unbedachtes Wohnen Lebensformen an verdeckten Rändern der Gesellschaft Mai 2009, ca. 204 Seiten, kart., zahlr. Abb., ca. 24,80 €, ISBN 978-3-8376-1005-5
Christian Kassung (Hg.) Die Unordnung der Dinge Eine Wissens- und Mediengeschichte des Unfalls Mai 2009, 400 Seiten, kart., zahlr. Abb., ca. 33,80 €, ISBN 978-3-89942-721-9
Leseproben, weitere Informationen und Bestellmöglichkeiten finden Sie unter www.transcript-verlag.de
2009-03-19 17-00-25 --- Projekt: transcript.anzeigen / Dokument: FAX ID 0292205380619416|(S.
1-
3) ANZ1090.p 205380619424
Kultur- und Medientheorie Marcus S. Kleiner Im Widerstreit vereint Kulturelle Globalisierung als Geschichte der Grenzen Juni 2009, ca. 150 Seiten, kart., ca. 16,80 €, ISBN 978-3-89942-652-6
Christoph Neubert, Gabriele Schabacher (Hg.) Verkehrsgeschichte und Kulturwissenschaft Analysen an der Schnittstelle von Technik, Kultur und Medien Juli 2009, ca. 250 Seiten, kart., ca. 26,80 €, ISBN 978-3-8376-1092-5
Susanne Regener Visuelle Gewalt Menschenbilder aus der Psychiatrie des 20. Jahrhunderts Mai 2009, ca. 220 Seiten, kart., zahlr. Abb., ca. 25,80 €, ISBN 978-3-89942-420-1
Leseproben, weitere Informationen und Bestellmöglichkeiten finden Sie unter www.transcript-verlag.de
2009-03-19 17-00-25 --- Projekt: transcript.anzeigen / Dokument: FAX ID 0292205380619416|(S.
1-
3) ANZ1090.p 205380619424
Kultur- und Medientheorie Natalia Borissova, Susi K. Frank, Andreas Kraft (Hg.) Zwischen Apokalypse und Alltag Kriegsnarrative des 20. und 21. Jahrhunderts Mai 2009, ca. 286 Seiten, kart., zahlr. Abb., ca. 28,80 €, ISBN 978-3-8376-1045-1
Moritz Csáky, Christoph Leitgeb (Hg.) Kommunikation – Gedächtnis – Raum Kulturwissenschaften nach dem »Spatial Turn« Februar 2009, 176 Seiten, kart., 18,80 €, ISBN 978-3-8376-1120-5
Lutz Ellrich, Harun Maye, Arno Meteling Die Unsichtbarkeit des Politischen Theorie und Geschichte medialer Latenz Mai 2009, ca. 340 Seiten, kart., ca. 32,80 €, ISBN 978-3-89942-969-5
Marijana Erstic, Walburga Hülk, Gregor Schuhen (Hg.) Körper in Bewegung Modelle und Impulse der italienischen Avantgarde Mai 2009, ca. 312 Seiten, kart., zahlr. Abb., ca. 30,80 €, ISBN 978-3-8376-1099-4
Özkan Ezli, Dorothee Kimmich, Annette Werberger (Hg.) Wider den Kulturenzwang Migration, Kulturalisierung und Weltliteratur (unter Mitarbeit von Stefanie Ulrich) Mai 2009, ca. 400 Seiten, kart., ca. 32,80 €, ISBN 978-3-89942-987-9
Daniel Gethmann, Susanne Hauser (Hg.) Kulturtechnik Entwerfen Praktiken, Konzepte und Medien in Architektur und Design Science April 2009, 376 Seiten, kart., zahlr. Abb., 33,80 €, ISBN 978-3-89942-901-5
Insa Härtel Symbolische Ordnungen umschreiben Autorität, Autorschaft und Handlungsmacht April 2009, 326 Seiten, kart., zahlr. Abb., 32,80 €, ISBN 978-3-8376-1042-0
Kristiane Hasselmann Die Rituale der Freimaurer Zur Konstitution eines bürgerlichen Habitus im England des 18. Jahrhunderts Januar 2009, 376 Seiten, kart., zahlr. z.T. farb. Abb., 29,80 €, ISBN 978-3-89942-803-2
Sonja Neef (Hg.) An Bord der Bauhaus Zur Heimatlosigkeit der Moderne März 2009, 240 Seiten, kart., zahlr. z.T. farb. Abb., 19,80 €, ISBN 978-3-8376-1104-5
Leseproben, weitere Informationen und Bestellmöglichkeiten finden Sie unter www.transcript-verlag.de
2009-03-19 17-00-25 --- Projekt: transcript.anzeigen / Dokument: FAX ID 0292205380619416|(S.
1-
3) ANZ1090.p 205380619424
2008-05-27 12-26-20 --- Projekt: transcript.titeleien / Dokument: FAX ID 02a8179786122216|(S.
2
) T00_02 seite 2 - 746.p 179786122240