Literatur und Digitalisierung 9783110237887, 9783110237870

This reference work provides sound scientific information about the changes expected to result from the new technical po

389 76 3MB

German Pages 334 Year 2012

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
Zu diesem Buch
Öffentlichkeit und Autorschaft im digitalen Zeitalter
Der literarische Text als Buch und E-Book
Literaturplattformen
Literaturkritik im Medienwechsel
Literarische Autorschaft
Digitales Publizieren
Die digitale Revolution auf dem Buchmarkt
Die deutschsprachige Verlagsbranche und die digitalen Bücher
Urheberrechtliche Grenzen
Literatur im Hörbuch
Lesen im Zeichen des Medienwechsels
Lesen an digitalen Medien
Die Zukunft des Lesens
Wissenschaft und Archiv
Computerphilologie vs. ‚Digital Text Studies‘
Digitalisierung in Literaturarchiven
Literaturverzeichnis
Die Autorinnen und Autoren
Sachregister
Recommend Papers

Literatur und Digitalisierung
 9783110237887, 9783110237870

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Literatur und Digitalisierung

Literatur und Digitalisierung Herausgegeben von Christine Grond-Rigler und Wolfgang Straub

isbn 978-3-11-023787-0 e-isbn 978-3-11-023788-7 Library of Congress Cataloging-in-Publication Data A CIP catalog record for this book has been applied for at the Library of Congress. Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. © 2013 Walter de Gruyter GmbH, Berlin/Boston Satz: jürgen ullrich typosatz, Nördlingen Druck: Hubert & Co. GmbH & Co. KG, Göttingen ♾ Gedruckt auf säurefreiem Papier Printed in Germany www.degruyter.com

Inhalt Christine Grond-Rigler und Wolfgang Straub Zu diesem Buch 1

Öffentlichkeit und Autorschaft im digitalen Zeitalter Christine Grond-Rigler Der literarische Text als Buch und E-Book Gesine Boesken Literaturplattformen

7

21

Karin S. Wozonig Literaturkritik im Medienwechsel Florian Hartling Literarische Autorschaft

43

69

Digitales Publizieren Ernst Fischer und Anke Vogel Die digitale Revolution auf dem Buchmarkt

97

Wolfgang Straub Die deutschsprachige Verlagsbranche und die digitalen Bücher Nicole Zorn Urheberrechtliche Grenzen Sandra Rühr Literatur im Hörbuch

162

197

Lesen im Zeichen des Medienwechsels Martina Ziefle Lesen an digitalen Medien

223

143

VI

Inhalt

Simone C. Ehmig und Lukas Heymann Die Zukunft des Lesens 251

Wissenschaft und Archiv Jan Christoph Meister Computerphilologie vs. ,Digital Text Studies‘ Roland S. Kamzelak Digitalisierung in Literaturarchiven

Literaturverzeichnis

310

Die Autorinnen und Autoren Sachregister

325

322

297

267

Christine Grond-Rigler und Wolfgang Straub

Zu diesem Buch Die voranschreitende Digitalisierung im literarischen Feld ist ein mediales Dauerthema, wobei die Einführung neuer Lesemedien als offensichtlichste, umstrittenste und symbolträchtigste Neuerung für die Literatur stets im Vordergrund steht. Jahrhundertelang waren der literarische Text und das Buch als dessen Materialisierung auf das Engste verknüpft. Das Buch verselbständigte sich zu einem Symbol nicht nur der Literatur, sondern der Bildung und Kultur insgesamt. Es verwundert nicht, dass Abweichungen von dieser Konvention als eine Art Zivilisationsbruch verstanden werden. Aber die Veränderungen betreffen nicht alleine das Buch, sondern sind weit umfassender und tiefgreifender. Alle Bereiche der literarischen Kultur sind davon betroffen, vom Schreiben und Publizieren über die Verbreitung und Rezeption, die Literaturwissenschaft, das Bibliotheks- und Archivwesen bis hin zu übergreifenden Fragen wie der gesellschaftlichen Bedeutung der Literatur, dem Leseverhalten, der Ausbildung kognitiver Fähigkeiten oder der Veränderung der Phänomene ,Autorschaft‘ und ,Öffentlichkeit‘. Nicht alle ‚Bedrohungen‘, auf die in der Auseinandersetzung mit der Digitalisierung hingewiesen wird, sind aber tatsächlich nur auf die Digitalisierung zurückzuführen. Die Verbreitung anspruchsvoller Literatur, zum Beispiel, ist am stärksten durch ökonomische Zwänge der Verlagsbranche oder der Kulturredaktionen bedroht. Die eigentlich interessante Frage ist nicht, ob es in Zukunft noch Bücher geben wird, sondern ob es weiterhin Literatur geben wird, die durch die besondere Kombination der drei Parameter Welthaltigkeit, individualisierte Autoren-Perspektive und Schriftlichkeit unser kulturelles Gedächtnis bereichern und prägen wird. So revolutionär sich der ,digital turn‘ auch gebärdet bzw. dargestellt wird: Nicht alles daran ist tatsächlich neu (z. B. kollaborative Autorschaft, individuell gestaltete Bücher). Und so elaboriert unsere heutigen literarischen ‚Standards‘ auch sein mögen: Gerade dort, wo sie als verbürgt gelten, finden sie häufig keine Anwendung mehr (z. B. in der Literaturkritik der Feuilletons). Literatur und Digitalisierung will daher über die Veränderungen für Literatur, Wissenschaft und literarische Öffentlichkeiten besonnen informieren und bisherige (nachhaltige) Entwicklungen resümieren. Wesentlich erscheint dabei die Einbeziehung einer historischen Komponente, um nach wie vor bestehende literarhistorische Konstanten oder Zugriffe auf zurückliegende Konzepte, die mithilfe der neuen Technologien besser umsetzbar geworden sind, darzustellen. Wir sind uns der Schwierigkeit, einen Überblick über einen höchst dynamischen Bereich geben zu wollen, bewusst und unseren Autorinnen und Autoren

2

Christine Grond-Rigler und Wolfgang Straub

dankbar, dieses Unternehmen in ihren jeweiligen Disziplinen gewagt zu haben. Letztgültige Aktualität ist nicht unser Ziel, es geht um die grundlegenden Fragestellungen. Wir wollen zu Fragen der Digitalisierung im Bereich der Literatur bzw. Textmedien eine praktikable und übersichtliche Handreichung bieten. Dabei war uns die Interdisziplinarität wichtig: An diesem Kompendium haben Autorinnen und Autoren aus den Bereichen Literatur-, Archiv- und Buchwissenschaft, Literatursoziologie, Neuropsychologie sowie Rechtswissenschaft mitgewirkt. Den Anfang nimmt unsere Unternehmung bei der öffentlichen Auseinandersetzung um das ,Kulturgut‘ Buch und die ,digitale Revolution‘, Christine GrondRigler widmet sich den emotional geführten Diskussionen um die Zukunft unserer literarischen Kultur unter den Vorzeichen der Digitalisierung. Gesine Boesken und Karin S. Wozonig setzen sich mit der Frage auseinander, wie sich wohleingeführte Elemente des literarischen Feldes wie literarische Zirkel oder Literaturkritik durch den Medienwandel verändern und welche neuen Öffentlichkeiten sowie neuen Qualitäten im Umgang mit Literatur dadurch entstehen können. Florian Hartling untersucht, ob und wie sich literarische Autorschaft im digitalen Zeitalter neu formiert. Der Abschnitt „Digitales Publizieren“ beschäftigt sich mit konkreten Auswirkungen des digitalen Umbruchs: Ernst Fischer und Anke Vogel beleuchten die tektonischen Verschiebungen am Buchmarkt, die sich durch das Auftreten von Amazon, Apple und Google ergeben haben; Wolfgang Straub beobachtet den Umgang der deutschsprachigen Verlage mit digitalen Büchern; die virulenten Fragen des Urheberrechts im Internet bereitet Nicole Zorn für den Bereich der Literatur auf; Sandra Rühr stellt die bei den Konsumenten beliebte Form der Distribution von Literatur via Hörbücher vor und zeigt dabei, wie es beim Aufkommen der Hörbücher, ähnlich wie beim E-Book, Stimmen gab, die kulturellen Verfall und ein Ende des gedruckten Buchs befürchteten. Das Phänomen Lesen wird aus zwei Perspektiven betrachtet: Martina Ziefle untersucht die visuellen und kognitiv-ergonomischen Aspekte der Informationsdarstellung und -verarbeitung, Simone C. Ehmig und Lukas Heymann fragen nach dem Einfluss von Digitalisierung und demografischem Wandel auf die Bedeutung des Lesens. Was die Digitalisierung der philologischen Wissenschaften, die mit Begriffen wie Computerphilologie oder ,Digital Text Studies‘ umschrieben wird, konzeptionell bedeutet, ergründet Jan Christoph Meister. Und Roland S. Kamzelak führt aus, wie Literaturarchive mit der Digitalisierung und den Digitalisaten umgehen. Wir haben darauf verzichtet, einen eigenen Beitrag zur ,digitalen Literatur‘ aufzunehmen. Das ist der Tatsache geschuldet, dass sich gleich mehrere Beiträge mit diesem Phänomen auseinandersetzen (Gesine Boesken, Ernst Fischer/Anke Vogel) – Florian Hartling diskutiert literarische Autorschaft ausführlich anhand einiger Beispiele ,digitaler Literatur‘.

Zu diesem Buch

3

Wir haben uns dafür entschieden, die jeweiligen Schreibweisen der Autorinnen und Autoren in zwei Belangen beizubehalten: Der Begriff ,Internet‘ umfasst zwar verschiedene Dienste wie WWW, E-Mail, Newsgroups, Internet Relay Chat oder TV, im allgemeinen Sprachgebrauch hat sich aber eine Gleichsetzung mit dem Akronym WWW eingebürgert – unter diesem Vorzeichen haben wir keine Umschreibung von „Internet“ auf „WWW“ vorgenommen. Ebenso haben wir den Autorinnen und Autoren die Entscheidung überlassen, ob und wie sie eine geschlechterneutrale Schreibweise anwenden. Christine Grond-Rigler, Wolfgang Straub Krems und Wien, April 2012

Öffentlichkeit und Autorschaft im digitalen Zeitalter

Christine Grond-Rigler

Der literarische Text als Buch und E-Book Mit den technischen Möglichkeiten der Digitalisierung gehen Veränderungen im Bereich der Produktion, der Verbreitung und der Rezeption von Literatur einher, die oft als kulturelle Revolution empfunden werden. Wesentlich geprägt ist diese Wahrnehmung durch die Vorstellung einer radikalen Veränderung, im Zuge derer eine alte Ordnung durch etwas Neues ausgetauscht wird. Diese Wahrnehmung wird nicht nur durch reale Vorgänge, sondern wesentlich auch durch die mediale Auseinandersetzung gesteuert, entwickelt aber als Erlebnismuster „kulturelle Revolution“ eine nicht zu unterschätzende Eigendynamik. In einem Szenario des Umsturzes sind Vorurteile und Befürchtungen oft wirksamer als sachliche Analysen. Dementsprechend emotional gestalten sich Diskussionen um die Zukunft unserer literarischen Kultur sowohl im privaten Umfeld wie in der Öffentlichkeit. Für die Literatur bedeutet Digitalisierung in erster Linie, dass Texte auf elektronischen Geräten geschrieben werden können, diese im Verlag computerbasiert zu Druckvorlagen weiterverarbeitet werden, um dann entweder als Buch gedruckt oder als E-Book aufbereitet zu werden. Es kommt also immer häufiger vor, dass ein literarischer Text seinen gesamten Lebenszyklus in Form elektronischer Daten verbringt, ohne sich jemals auf Papier zu materialisieren. Innerhalb der letzen 450 Jahre hat sich jedoch (zumindest im industrialisierten Teil der Welt) ein Literaturverständnis durchgesetzt, das von Praktiken der schriftlichen Tradierung geprägt und abhängig ist. Die mündliche Überlieferung des literarischen Erbes von Mensch zu Mensch hat sich zunehmend verringert. Die schriftliche Aufzeichnung galt zumindest bis zur Entwicklung von Bild- und Tontechniken, die viel direkter und unmittelbarer Wirklichkeit aufzuzeichnen vermögen, als Garant dafür, dass Geschichten, Ereignisse, Schicksale nicht in Vergessenheit geraten. Aus dieser Funktion, das kollektive Gedächtnis zu bestücken, resultiert das hohe Ansehen des geschriebenen Wortes. Als Trägermedium dieser Aufzeichnungen bewährte sich neben Stein, Papyrus, Holz oder Pergament das Papier am besten. In gebundener Form wird daraus ein überaus praktischer Gegenstand, der sich in die Hand nehmen, aufbewahren, weiterreichen, verkaufen, sammeln, herzeigen oder auch stellvertretend für Inhalt und Verfasser zerstören lässt.1

1 Tiefere Einsichten in diese Zusammenhänge verdanke ich einem Workshop von Rüdiger Wischenbart im Rahmen des Seminars Literatur und Digitalisierung an der Donau-Universität Krems im März 2009.

8

Christine Grond-Rigler

Das Wesen der Literatur ist aber nicht das Buch, sondern der darin dargestellte Text, und der ist wiederum nicht an gebundenes Papier als Trägermedium gebunden. Der Text benötigt zwar einen Stoff als Medium der Verbreitung, seine Rezeption ist jedoch ein kognitiver Vorgang, der von außen nicht sichtbar ist, da er sich im menschlichen Gehirn vollzieht. Bislang kann der Eintritt geschriebener Sprache ins Gehirn visuell (Schrift), durch Tasten (Blindenschrift) oder auditiv (Vorlesen) erfolgen und jede dieser ‚Leseformen‘ beeinflusst das Verständnis. Jedes Vorlesen ist bereits eine Interpretation, eine Abweichung von der Abstraktion, die der Literatur zu eigen ist. Die reinste Form der Verbreitung und Tradierung wäre die telepathische Übertragung von den Autoren-/Sendergehirnen in die der Leser-/Empfänger. Dieser Gedanke, Lesen mit Empfangen gleichzusetzen, lässt Science-Fiction-Szenarios anklingen, ist aber nicht neu. Bereits in der frühen christlichen Kunst wurde diese Vorstellung des ,Lesens als Eingebung‘ in einem spirituellen Sinn dargestellt. Das beste Beispiel dafür sind die Verkündigungsszenen, in denen die Jungfrau Maria mit dem Erzengel Gabriel als Überbringer der Nachricht ihrer Empfängnis gezeigt wird, und ihr als Attribut ein Buch beigegeben ist.2

1 Das Buch als Fetisch 1.1 Objektcharakter Die Schriftstellerei ist ein kreativer Vorgang des Schreibens und bedarf bereits während des Schaffensprozesses einer Materialisierung, um zunächst für das schreibende Individuum selbst – und danach für die anderen – erkennbar zu werden. Das Buch ist die stabile und endgültige Form, in die der Text „gegossen“ wird. Der Zweck dieser Materialisierung ist nicht nur die Handelbarkeit, sondern es verbindet sich damit auch eine bestimmte Vorstellung von literarischer Qualität – im Kontext von Autorschaft und Authentizität. Es wird verhindert, dass sich Buchstaben, Worte, Passagen verändern, verstellen, der schöpferische Wurf sich nach dem Erscheinen wandelt. Auf diese Weise tritt das literarische Werk seinen Weg in die Zeit an, mitunter begleitet von der literaturwissenschaftlichen For-

2 Vgl. die Beiträge von Matthias Bruhn, Wolfgang Straub und Christine Grond-Rigler in: Die Sichtbarkeit des Lesens – Variationen eines Dispositivs. Hg. v. Christine Grond-Rigler u. Felix Keller. Wien, Innsbruck 2011.

Der literarische Text als Buch und E-Book

9

schung, die herauszufinden versucht, welche Ausgabe denn nun die „autorisierte“ Fassung – das wahre Werk– sei. Mit der elektronischen Datenverarbeitung sind im Universum der gedruckten Literatur Gegenentwürfe zu dieser ‚Erstarrung‘ des Textes im Buch aufgetaucht, die von den einen als Befreiung von konventionellen Zwängen begrüßt und von den anderen als Bedrohung empfunden werden. Literarische Ansätze, in denen ein Werk nicht mit der Publikation vollendet ist oder die Beteiligung der Rezipienten eine Rolle spielt, wurden allerdings schon in der Avantgarde und in experimentellen Richtungen erprobt, sind also ebenfalls nicht neu. Neben der Begeisterung für die neue Technologie hat sich mit der Möglichkeit, Literatur ohne Papier zu verbreiten, eine kulturkonservative Gegnerschaft gebildet, die durch das Verschwinden des gedruckten Buchs nicht nur qualitative Ansprüche an Literatur, sondern neben sprachlichen auch kognitive Kompetenzen und somit Bildung und Kultur allgemein gefährdet sieht.3 Im Zuge dieser Auseinandersetzung wurde das durch die Digitalisierung scheinbar bedrohte Buch zu einem Kultobjekt stilisiert, zu einem Symbol für das Gute an unserer Zivilisation erklärt. Die Einführung neuer Medien war immer schon von kulturpessimistischen Ängsten und Reaktionen begleitet, daran hat sich, trotz der Erfahrungen aus der Vergangenheit, nichts geändert: „Wir wissen inzwischen, dass nicht ein Medium das andere verdrängt. Diese Annahme ist viel zu simpel“, betont etwa die Leseforscherin Bettina Hurrelmann in einem Interview.4 Im Zusammenhang mit dem Buch wird beim Auftauchen neuer Medien vor allem der Verlust der Sprache befürchtet, die als Trägerin der Kultur gilt: „Selbst in ihrem weitesten Sinne ist und bleibt Kultur sprachzentriert. Sprache, Sprache und nochmals Sprache gibt der Kultur ihren Sinn und ihre Dauerhaftigkeit“, schreibt der ukrainische Schriftsteller Juri Andruchowytsch.5 Damit ist vor allem aber der Aspekt der Aufzeichnung angesprochen. Nicht die Sprache allein, sondern die Schrift gilt als „sicherster Garant für Dauer“, wie es die Kulturwissenschaftlerin Aleida Assmann formuliert: Schrift stützte das Gedächtnis nicht nur als Erinnerungshilfe und Erweiterung des Denkraums, sondern auch als Medium der Fama und Verewigungsinstrument. Diese Allianz von Schrift und Gedächtnis bzw. Schrift und Dauer hatte allerdings eine wichtige Vorausset-

3 Schloemann, Johan: „Papier, Geist und elektronische Tinte“. In: Süddeutsche Zeitung, 14.10.2011. 4 Hurrelmann, Bettina im Interview mit Jan Mölleken: Gutenbergs Zombies, 2008. www.zeit.de/ online/2008/43/lesen-hurrelmann (Stand: 10.10.2008). 5 Andruchowytsch, Jury: „Europa – Kultur am Rande der Welt, oder Wer ist hier der Looser?“, gehalten: Europäische Literaturtage 2011, p&s melk, Spitz an der Donau 23.09.2011.

10

Christine Grond-Rigler

zung: Man übersah die materielle Seite, die als fraglos gesichert galt, und konzentrierte sich ganz auf die in Buchstaben gespeicherte geistige Energie.6

Schrift erweitert und stützt nicht nur unser Gedächtnis, sondern beeinflusst auch die Art und Weise, wie wir denken. Wenn von der „Buchförmigkeit“7 unseres Denkens die Rede ist, muss wohl vor allem die Komplexität des geschriebenen Textes gemeint sein. Die Schriften, die unsere Kultur seit Erfindung des Buchdrucks hervorgebracht hat, wären oral nicht mehr tradierbar, da sie sich in Form, Struktur und Inhalt der Memorierbarkeit widersetzen. Wahrscheinlich ist aber auch, dass die wachsende Zahl von Büchern zu einer Abnahme unserer Merkfähigkeit geführt hat. Nicht erst die digitalen Medien, sondern bereits die alten Bibliotheken sind als Hilfsmittel zur Auslagerung von Wissen aus dem menschlichen Gedächtnis zu betrachten. Verändert hat sich vor allem der Zugang zu diesem Wissen.

1.2 Bibliophilie Seit Beginn der 2000er Jahre hat sich – als Folge des digital turn – die Bibliophilie zu einer kulturellen Mode mit Nostalgie-Charakter entwickelt. Die Begeisterung für das Buch wurde durch seine vermeintliche Gefährdung erheblich verstärkt, um nun mit großer Emphase zelebriert und sentimental verklärt zu werden.8 Die Hüter der Buchkultur – LiteratInnen, Verlage, Magazine, Buchhandlungen, einschlägige Berufsverbände, KritikerInnen – liefern die Vorlagen für diese Nostalgiebewegung, die keineswegs als ein reines Phänomen konservativer „Hoch“-Kultur zu sehen ist – von dort jedoch zweifellos ihren Ausgang nimmt. Der argentinisch-kanadische Schriftsteller Alberto Manguel etwa lieferte mit seiner Geschichte des Lesens9 ein kulturgeschichtliches Grundlagenwerk. In seinem Tagebuch eines Lesers dokumentiert er die Relektüre seiner Lieblings-

6 Assman, Aleida: „Das Archiv und die neuen Medien des kulturellen Gedächtnisses“. In: Schnittstelle: Medien und Kulturwissenschaften. Hg. v. Georg Stanitzek u. Wilhelm Voßkamp. Köln 2001, S. 271. 7 Müller Funk, Wolfgang: „Kaddisch für das Buch“. In: morgen Nr. 5 (2011), S. 12. 8 „… Und jedem Büchlein wohnt ein Zauber inne, der uns beschützt und der uns hilft zu überleben“: Kommentar des Verfassers einer Amazon-Lieblingsliste zu einem der Bücher. www.amazon.de/Lies-um-zu-leben/lm/R1LSMBT91REKHU/ref=cm_srch_res_rpli_alt_1 (Stand: 20.09.2011). 9 Manguel, Alberto: Eine Geschichte des Lesens. Farbig illustrierte Ausgabe. Frankfurt/Main 2008. Dt. Erstausgabe: Berlin 1998.

Der literarische Text als Buch und E-Book

11

bücher, von denen er ein Jahr lang jedes Monat eines liest. Anlass ist die Übersiedlung in ein neues Haus und die Einrichtung der Bibliothek darin. Seine Beziehung zu Büchern beschreibt Manguel pathetisch: „Jahrelang habe ich meine Bücher aus Platzmangel in Speichern gelagert. Nachts glaubte ich zu hören, wie sie nach mir riefen“, oder: „Ich werde eine Nacht in der Bibliothek schlafen, um mir den Raum gänzlich anzueignen. C. sagt, wie ein Hund, der in die Ecken pinkelt.“10 Eine Vielzahl von Romanen, in denen das Buch oder das Lesen handlungstragende Funktion haben, wurde innerhalb weniger Jahre (ab Mitte der 2000er) im deutschen Original publiziert oder aus anderen Sprachen übersetzt. Häufig sind diese Geschichten um die Magie des Lesens und magische Bücher dem Fantasy-Genre zuzuordnen und stellen eine versteckte Art der Leseförderung für Kinder und Jugendliche dar, die eine emotionale Bindung zum Medium Buch aufbauen sollen: Betont wird in solchen Geschichten einerseits die persönlichkeitsbildende Funktion des Lesens und andererseits der Abenteuercharakter. Bücher werden animiert, es wird ihnen ein Leben angedichtet über die enthaltene Geschichte hinaus.11 Ein weiteres Symptom der grassierenden Bibliophilie sind die Wettbewerbe um die „schönsten Bücher“ in Deutschland, Österreich, Niederlande, Liechtenstein oder der Schweiz. Die von der Stadt Leipzig unterstützte Stiftung Buchkunst vergibt als Vorreiter bereits seit 1991 alljährlich zur Leipziger Buchmesse auch Auszeichnungen für „Schönste Bücher aus aller Welt“. Die Auswahlkriterien sind in den genannten Wettbewerben ähnlich formuliert und darauf abgestimmt, eine anspruchsvolle Kultur des Buchdrucks zu fördern und zu erhalten. Bezeichnend ist, dass diese Förderung des Buchs (ebenso wie die Leseförderung) als Auftrag höherer Ordnung, also der Regierungen und Verwaltungseinrichtungen betrachtet wird. Das von Händlern, Verlagen und Kulturpessimisten genährte Lob des Buchs fördert die Obsession für ein Objekt, die nicht unbedingt mit einer Obsession für

10 Manguel, Alberto: Tagebuch eines Lesers. Frankfurt/Main 2005, S. 28 u. 32. 11 Einige Beispiele: Roger, Marie-Sabine: Das Labyrinth der Wörter (2010; verfilmt mit Gérard Depardieu); Bonnet, Jacques: Meine vielseitigen Geliebten (2009); Manguel, Alberto: Tagebuch eines Lesers (2007); Domingez, Carlos Maria: Das Papierhaus (2006); Fadiman, Anne: Ex Libris: Bekenntnisse einer Bibliothekarin (2007); de Sá Moreira, Régis: Das geheime Leben der Bücher (2009); Hay, Sheridan: Die Antiquarin (2008); Birkegaard, Mikkel: Die Bibliothek der Schatten (2011); Funke, Cornelia: Tintenwelt-Trilogie (Jugendbuch, 2003–2011); Ruebenstrunk, Gerd: Arthur und die vergessenen Bücher (Jugendbuch, 2009); Delaflotte, Anne: Mathilde und der Duft der Bücher (2011); Cossé, Laurence: Der Zauber der ersten Seite (2010); Moers, Walter: Die Stadt der träumenden Bücher (Jugendbuch, 2009) und Das Labyrinth der träumenden Bücher (Jugendbuch, 2011).

12

Christine Grond-Rigler

die Literatur gleichzusetzen ist. Als Hauptargument gegen das E-Book wird jedenfalls die für den Vorgang des Lesens so ungewohnte Materialität des Trägermediums genannt, die gerne als „fehlende Haptik“ beschrieben wird. Ein Buch kann man in der Hand halten, die Seiten umblättern, die Oberfläche des Papiers erfühlen, den Geruch wahrnehmen, der sich im Lauf der Zeit verändert und die olfaktorische Aufbewahrungsumgebung widerspiegelt. In seiner Materialisierung als Buch kann ein Werk den Charakter eines Originals annehmen, da es Gebrauchsspuren aufweist, einem sichtbaren Alterungsprozess unterliegt, seine eigene Geschichte hat, die jedes Exemplar vom anderen unterscheidet. Dieser individuelle Gebrauch des Buchs, den man in Form von gentechnischen Spuren sogar nachweisen könnte, beeinflusst unser Rezeptionsverständnis von Literatur: Es ist durch eine starke Verknüpfung zwischen dem Weg des Buchs durch die Hände und dem Weg des Werks durch die Köpfe der Leser gekennzeichnet. Sämtliche Kriterien, die ein Buch aus bibliophiler Sicht wertvoll erscheinen lassen, betreffen jedenfalls seinen Objektcharakter und nicht die Integrität des literarischen Werkes als Text.

2 Das Buch als Paratext Als der Literaturwissenschaftler Gérard Genette 1987 seine Abhandlung über das „Beiwerk des Buchs“ veröffentlichte, wird er noch nicht an die Möglichkeit eines elektronischen Buchs gedacht haben. Trotzdem bietet diese Analyse der Präsentationsumgebung eines Textes, die Ende der 80er Jahre noch unangefochten „Buch“ bedeutete, eine gute Matrix, um eine Vorstellung von der materiellen Funktion des Buchs und den Veränderungen durch die Digitalisierung zu geben. Als Paratext beschreibt Genette jenes Beiwerk, durch das ein Text zum Buch wird und als solches vor die Leser und allgemeiner, vor die Öffentlichkeit tritt. Dabei handelt es sich weniger um eine Schranke oder eine undurchlässige Grenze als um eine Schwelle oder – wie es Borges anlässlich eines Vorwortes ausgedrückt hat – um ein „Vestibül“, das jedem die Möglichkeit zum Eintreten oder Umkehren bietet.12

Der Paratext kann, muss aber nicht, selbst Text sein, wie zum Beispiel der Name des Autors, Titel, Untertitel, Zwischentitel, Mottos, Widmungen, Vorwort oder

12 Genette, Gérard: Paratexte. Das Buch vom Beiwerk des Buchs [franz. Originalausgabe 1987]. Frankfurt/Main 2001, S. 10.

Der literarische Text als Buch und E-Book

13

Anmerkungen. Paratext ist aber auch der Einband, der Schutzumschlag, das Papier, das Buchformat, der Satz oder ein beiliegender „Waschzettel“. Gerade hinsichtlich des nicht-sprachlichen Paratextes unterscheidet sich das E-Book am fundamentalsten vom gedruckten Buch. Im Detail ist davon der verlegerische Peritext betroffen, also jenes Beiwerk, das sich in unmittelbarster Nähe zum Text (im Band selbst) befindet: „es handelt sich um den äußerlichsten Peritext – den Umschlag, die Titelseite und deren Anhang – und um die materielle Realisierung des Buches, die dem Drucker obliegt, aber vom Verleger entschieden wird, der sich eventuell mit dem Autor abspricht“.13 Die äußerste Schicht des Buchs ist damit gemeint (Umschlag, Titelblatt), die visuelle Gestaltung (Schriftart, Satz), aber auch der Stoff, aus dem das Buch gemacht ist (Papierart) sowie die Größe des Buchs (Format). Dieser verlegerische Peritext entwickelte sich erst mit dem Buchdruck und existierte in Zeiten der handschriftlichen oder gar mündlichen Weitergabe von Texten noch nicht.

2.1 Format, Papier, Satz Das Format eines Buchs ist ein Indikator seines kulturellen Wertes: Große Formate waren in der Zeit der Klassik den seriösen Inhalten vorbehalten, hingegen waren die kleinen Büchlein zwar für die „ambulante“ Lektüre14 durchaus anerkannt, im Allgemeinen den weniger hochstehenden Werken zugedacht. Das Format bestimmt aber (zusammen mit Satz und Schriftgröße) auch die Texteinheit pro Seite und folglich den Seitenumfang. Wenngleich die Buchgröße nun nicht mehr als Gradmesser für die Ernsthaftigkeit des Geschriebenen gilt, so ist das Format im Zusammenhang mit Lesegeräten ein Thema. Hier geht es vor allem um die Portabilität der Geräte – bei größtmöglichem Display oder Bildschirm. Formate haben heute, nach Genette, einen „geringen paratextuellen Wert.“15 Dasselbe konstatiert er für die Qualität des Papiers (im Gegensatz zum Satz): Der Unterschied, ob ein Exemplar auf Velin, Japanpapier oder gewöhnlichem Papier gedruckt wurde, ist natürlich für den Text weniger relevant als ein satztechnischer Unterschied. Der Grund liegt vermutlich darin, dass das Setzen zwar auch nur eine Materialisierung des Textes ist, das Papier aber bloß der Träger dieser Materialisierung und damit von der konstitutiven Idealität des Textes noch weiter entfernt. Die wirklichen Unterschiede

13 Ebd., S. 22. 14 Ebd. 15 Ebd., S. 24.

14

Christine Grond-Rigler

sind hier also nur ästhetisch (gefälliges Papier, Druckqualität), ökonomisch (Handelswert der Exemplare) und eventuell stofflich (kürzere oder längere Haltbarkeit). Aber sie begründen auch, vielleicht sogar vor allem, einen entscheidenden symbolischen Unterschied, der auf dem ‚begrenzten‘ Charakter dieser Auflagen beruht. Für die Bibliophilen kompensiert diese Begrenzung in gewissem Maß den ideellen und damit potentiell unbegrenzten Charakter literarischer Werke, durch den sie beinahe jeglichen Besitzwert einbüßen.16

Der Satz hingegen beeinflusst unsere Wahrnehmung und Auffassung des Textes in hohem Maße. Erst durch die Kombination von Schriftart und Satzspiegel nimmt „der Text die Gestalt eines Buchs“ an.17 Der Satz bestimmt wie der Text auf der Buchseite angeordnet ist und übermittelt dem Leser Basisinformationen über die Textart (z. B. Lexikon) oder im Bereich der Literatur auch über die Gattung (z. B. Lyrik, Drama oder Roman).

2.2 Unikat oder Kopie Das nicht-besitzbare geistige Werk kann in Gestalt eines Buchs zum Unikat werden, wenn das Exemplar handschriftliche Annotationen aufweist oder eine Widmung enthält. Eine bibliophile Ausgabe in kleiner Auflagenzahl würde den Wert eines solchen Buchs für den Sammler noch steigern. Je bedeutender das Werk und der Autor, je größer die Prominenz der Person, die ihre Spuren in dem Buch hinterlassen hat, umso größer ist der Verkaufswert eines solchen Exemplars. Die Aufwertung der Handschrift im maschinell erzeugten Buch hat eine stark körperliche Dimension (ähnlich einer religiösen Reliquie). Denn was bedeutet eine handschriftliche Eintragung in ein Buch? Sie bedeutet, dass der mit der Hand Schreibende körperlichen Kontakt mit dem Buch hatte und darin Spuren hinterlassen hat – die Einzigartigkeit eines Objekts mit der Einzigartigkeit eines Menschen korrespondiert. Vor der Einführung des Urheberrechts Mitte des 19. Jahrhunderts waren gedruckte Bücher eines Werks innerhalb der gleichen Werkstatt nicht unbedingt identisch. Das steigert wie die Begrenztheit der Auflage den Seltenheitswert, macht es aber noch nicht zu einem Unikat. Eine ähnliche Diversifizierung von ‚Auflagen‘ ist durch die digitale Technik wieder möglich geworden. Leser können sich Bücher im Internet individuell zusammenstellen und ein einzelnes

16 Ebd., S. 39 f. 17 Ebd., S. 38.

Der literarische Text als Buch und E-Book

15

Exemplar davon drucken lassen – das vielleicht nie mit einem anderen Exemplar identisch sein wird.18

3 Das simulierte Buch Ein E-Reader, der einen literarischen Text am Display anzeigt, bietet zweifellos ein anderes haptisches Lektüreerlebnis als ein gedrucktes Buch. Das Aussehen der Geräte, ihre Handhabung und die Aufbereitung der Texte könnten sich grundlegend von der Darstellungsweise eines Buchs unterscheiden. Das war aber bei den ersten Lesegeräten nicht der Fall. In der Praxis orientierten sich die Hersteller in Konzeption und Design der Geräte am Buch und inszenierten eine elektronische Simulation des Buchlesens, die vor allem an folgenden Merkmalen zu erkennen ist:19 – Das Format der elektronischen Lesegeräte ist einem durchschnittlichen Buch angeglichen. – Der Text ist in ‚Seiten‘ aufgeteilt und paginiert. – Das Modell für die Seitengestaltung (Schrift und Satzspiegel) ist die Buchseite. – Man spricht beim Aufrufen neuer ‚Seiten‘ vom ‚Umblättern‘, was oft durch ein blattähnliches Ikon an der entsprechenden Funktionstaste angezeigt ist; der Vorgang kann mit einem Geräusch unterlegt sein, das ein Umblättern von Papierseiten evoziert. – Fußnoten oder Anmerkungen werden meistens tatsächlich am Fuße des Texte oder der Seite angezeigt und sind nicht mit der Stelle verlinkt, auf die sie sich beziehen. – Auch die das Buch umgebende Kultur wird in den digitalen Bereich übernommen: Der Begriff ‚Bibliothek‘ wird für die am Gerät gespeicherte Sammlung an Werken verwendet, ebenso ‚Bücherregale‘ zum Aufbewahren; es kann ‚ausgeliehen‘ werden, es können ‚Lesezeichen‘ gesetzt werden.20

18 Ein Beispiel für das Entstehen unikatärer Bücher bietet der Encyclopaedizer, ein Projekt des Schweizerischen Vereins P+S Luzern, konzipiert von Beat Mazenauer und Adi Blum. www.encyclopaedizer.net. 19 Der amerikanische Produktdesigner (Microsoft, Sony) Mark Rolston vergleicht diesen Trend mit den ersten Autos, die seiner Meinung nach aussahen wie „Kutschen ohne Pferd“. Rolston, Mark im Interview mit Marcus Rohwetter: Niemand wird das Buch abschaffen, 2008. http://www.zeit.de/2008/43/Kindle-Interview-Rolston (Stand: 08.11.2011). 20 Zu beobachten z. B. auf der europäischen Plattform für Literatur www.readme.cc.

16



Christine Grond-Rigler

Es besteht die Möglichkeit, Notizen in das ‚Buch‘ zu schreiben (auch handschriftlich) oder Textstellen zu markieren.

Ein Grund für diese Buchförmigkeit elektronischer Leseangebote mag sein, dass Menschen an diese Art des Lesens gewöhnt sind und damit umgehen können, schließlich ist unsere intellektuelle Kultur durch den Gebrauch des Buchs geprägt.21 Das führt auch dazu, dass oft nicht alle Möglichkeiten (und Vorteile), die eine elektronische Textpräsentation bietet, ausgeschöpft werden, etwa wenn Texte, die für den Druck konzipiert sind, aber nicht für das Lesen am Bildschirm oder E-Reader eingerichtet wurden, als elektronische Versionen angeboten werden. Es entsteht dadurch eine Vergleichssituation, in der das E-Book – als Simulation – schlecht abschneiden muss, denn das Buch wird immer das bessere Buch sein. Den Versuch einer Lösung von dieser Buch-Fixierung, um zugleich die digitalen Möglichkeiten besser auszunützen, unternahm etwa der deutsche Journalist und Autor Jürgen Neffe mit der Entwicklung seines Libroids, eines Modells zur Darstellung von Text auf elektronischen Geräten. Deklariertes Ziel des Libroid ist es „das ‚Buchartige‘ des entleibten Buchs zu bewahren“ und gleichzeitig „das Buch von den Zwängen des Gedruckten“22 zu befreien. Als Vorbild wird ein Medium der Schrift herangeholt, das aus einer Zeit lange vor der Erfindung des Buchdrucks stammt, nämlich die Schriftrolle – beim Libroid wird gescrollt statt geblättert. (Zum Libroid siehe auch den Beitrag von Wolfgang Straub in diesem Band.)

4 Stereotype der Kritik im Kontext des elektronischen Publizierens Von jeher pflegten Schriftstellerinnen und Schriftsteller Kritik an der Betriebsblindheit jener Personen zu äußern, die von Berufs wegen mit der Verbreitung und Vermittlung von Literatur befasst sind. Der Stein des Anstoßes war und ist dabei die fehlende Abkoppelung der qualitativen Beurteilung von Literatur von

21 Rolston u. Rohwetter, Niemand wird das Buch abschaffen: „Das Wunderbare am Buch ist seine einzigartige Verbindung zum Menschen. Es ist einfach und deutlich. Beim Lesen wird der vordere Teil dicker, während der hintere abnimmt. Das vermittelt ein starkes Gefühl von Fortschritt. Man muss versuchen, solche Gefühle in eine digitale Form zu überführen. Ein Lesegerät muss einem Buch sehr ähnlich sein, aber nicht im wörtlichen Sinn.“ 22 libroid.com/libroid (Stand: 10.10.2011).

Der literarische Text als Buch und E-Book

17

den Interessen des Buchmarktes. Diese uralten und vermutlich nie zu beendenden Konflikte zwischen Autoren und ihren Multiplikatoren werden, seit das E-Book Wirklichkeit geworden ist, von Diskussionen über die Zukunft der Literatur in einem allgemeineren Sinn überlagert. Die Qualitätsdebatte wird auf eine andere Ebene gestellt und von der Frage abhängig gemacht, ob es überhaupt weiterhin Bücher geben wird. Die Sentimentalität im Umgang mit dem Buch (getragen von der Vorstellung, dass unserer Schriftkultur das „Herz“ herausgerissen werde) suggeriert ein idealisiertes Bild von den Mechanismen des Literaturbetriebs, das nicht der Wirklichkeit entspricht. Es gibt einige neuralgische Punkte, an denen die Untergangsszenarien der Buchkultur stereotyp festgemacht werden, deren Stichhaltigkeit jedoch selten hinterfragt wird.

4.1 Keine Stabilisierung „E-Books stabilisieren literarische Texte weniger gut als gedruckte Bücher – der Autor/die Autorin hat keine Kontrolle darüber, in welcher Form das Werk beim Leser ankommt.“ Durch die Verbreitung unterschiedlicher Hard- und Software ist die Gestalt eines literarischen Textes, der elektronisch übermittelt wird, nicht in jedem Fall bis zur Anzeige am Gerät des Endbenutzers (oder gar Ausdruck auf dessen Printer) kontrollierbar, während ein Buch dieses Werk in einem bestimmten Zustand fixiert. Über diesen Zustand bestimmt jedoch nicht der Autor alleine, sondern vor allem der Verlag. Diese Entscheidungsfindung findet nicht in jedem Fall zur Zufriedenheit der AutorInnen statt und ist nicht immer das Resultat sorgfältiger Arbeit. Noch bevor das Thema Digitalisierung vorrangig zu werden begann, wurde am deutschen Buchmarkt beklagt, dass die Verlage am Lektorat und Korrektorat sparen, dass sowohl der inhaltlichen Arbeit am Buch als auch der Herstellung weniger Bedeutung zugemessen werde, das Ethos des Verlagswesens also im Sinken begriffen sei. Verlegerische Eingriffe in Form und Inhalt eines Werks werden im Umfeld der E-Book-Debatte pauschal umgedeutet als Maßnahmen, die der Qualitätssicherung dienen – und die Verlage gelten als Hüter dieser Qualität.

4.2 Fehlende Haptik „Lesen am Bildschirm/Display macht keinen Spaß, weil das haptische Erlebnis des anfassbaren Buchs fehlt.“ Tatsächlich hat der vermeintliche Niedergang der Buchkunst spätestens mit der Einführung des Taschenbuchs begonnen. Taschenbücher sind aufgrund

18

Christine Grond-Rigler

ihres geringen Preises und ihrer Handlichkeit zwar praktisch, jedoch aus billigem Papier gemacht und zur Reduktion der Seitenzahl in kleiner Schrift gedruckt. Ein Vorteil der elektronischen Lesegeräte hingegen ist, dass die Schrift den Bedürfnissen des Lesers angepasst werden kann. Dieser Umstand könnte in absehbarer Zukunft die Lesebrille überflüssig machen und ist in seiner Bedeutung vielleicht sogar vergleichbar mit der Entdeckung des Lesesteins im Mittelalter.23 Die Frage der Haptik wurde bereits in Zusammenhang mit dem Fetischcharakter des Buchs angesprochen. Das teure Papier, der griffige Einband, das Lesebändchen haben geringe Auswirkungen auf den Text, beeinflussen aber den Objektwert. Paratextuelle Wirkung geht aber vor allem vom Satz aus. Typografie und Schriftbild beeinflussen unsere Wahrnehmung des Textes und sind am Bildschirm nicht nur darstellbar, sondern werden am Bildschirm (auch für den Druck) eingerichtet. Der an das Buch gewohnte Leser kann diese Schrift am Bildschirm als „ortlos“ oder „gespenstisch“ empfinden.24 Bei der visuellen Gestaltung ist ein nahezu unübertrefflicher Vorteil der elektronischen Texte die Möglichkeit der Verwendung von Farbe, ohne dass sich das Produkt dadurch verteuert. Dadurch wird auch der Verlust des Buchumschlags kompensiert, dessen Bedeutung vor allem darauf zurückzuführen ist, dass er dem gedruckten Buchobjekt seine visuelle Attraktivität verleiht.

4.3 Geistiger Diebstahl „Geistiger Diebstahl wird durch EDV generell (Copy & Paste) und das Internet im Speziellen gefördert.“ Die Limitierung der Auflage und die dadurch limitierte Zahl der möglichen Leser sorgt bei Autor und Verlag für ein trügerisches Gefühl der Kontrolle. Die Wahrung der Urheberrechte ist jedoch weniger durch technische Möglichkeiten, sondern durch die Natur des Menschen gefährdet. Verletzungen von Urheberrechten werden seit Jahrzehnten unter Aufsicht des Personals in Bibliotheken begangen, zu deren Grundausstattung das Kopiergerät (und mittlerweile der Scanner) zählt, wenn etwa für Studienzwecke ganze Bücher dupliziert werden.

23 Vgl. Grond-Rigler, Christine: „Die Brille als Symbol des Lesens“. In: Grond-Rigler u. Keller: Sichtbarkeit des Lesens, S. 68–80. 24 Reuss, Roland: Die Mitarbeit des Schriftbildes am Sinn. Das Buch und seine Typografie in Zeiten der Hypnose, 2011. www.nzz.ch/nachrichten/kultur/literatur/ die_mitarbeit_des_schriftbildes_am_sinn_1.9331415.html (Stand; 13.10.2011).

Der literarische Text als Buch und E-Book

19

Ein Problem im Zusammenhang mit dem ,digital turn‘ ist aber die Größenordnung der Verbreitungsmöglichkeiten für Raubkopien. Ein Projekt wie Google Books, gegen das von Seiten der AutorInnen-Verbände, Verwertungsgesellschaften und Verlage vehement – und mit Erfolg – protestiert wurde, zeigt diese Dimension sehr deutlich. Sowohl die Anzahl der in diesem Projekt digitalisierten Bücher und der Autoren sowie der potentiellen Leser überschreitet die Kapazität eines gedruckten Buchs um ein Vielfaches. Damit verbindet sich die Vorstellung eines moralisch unrechtmäßigen Gewinns. Während das Unternehmen den Profit macht, erhalten die Urheber den symbolischen Lohn der Aufmerksamkeit. Darüber hinaus ist mit der Limitierung der Exemplare auf die Anzahl einer Druckauflage auch eine Wertschätzung verbunden, die weltumspannende Verbreitung wird hingegen nicht im Sinne einer Steigerung, sondern einer Minderung dieses Wertes empfunden.

4.4 Problematische Haltbarkeit „Die Haltbarkeit digitaler Medien ist noch begrenzt.“ Die symbolische Strahlkraft des Buchs hat viel mit seiner Brauchbarkeit als Langzeitspeicher zu tun. Tatsächlich haben Schriftstücke und Bücher eine lange Haltbarkeit. Das möglicherweise älteste ‚Buch‘ der Welt entstand vor Tausenden von Jahren: Es handelt sich um die Überreste einer altägyptischen Schrift, den Papyrus Prisse, benannt nach dem französischen Orientalisten Émile Prisse d’Avennes, der ihn 1856 erwarb und an die französische Nationalbibliothek verkaufte, wo er sich heute noch befindet. Solche Schriften, die sich dem biologischen Verfall widersetzt haben, werden zu auratischen Objekten in ihrer Funktion als Zeugen vergangener Welten. Ihre Zeugenschaft ist sowohl körperlich als auch ideell, so wie das Buch generell eine Materialisierung des Immateriellen darstellt. ‚Langzeitüberlebende‘ wie der Papyrus Prisse erzählen zugleich von den Gefahren, denen Bücher ständig ausgesetzt sind, denn sie sind nicht unzerstörbar. Die Haltbarkeit von Büchern war immer abhängig von Strukturen der Erhaltung, von Bibliotheken und Archiven also, die auch als Systeme der Selektion wirksam wurden und von jeher an Herrschaftsinstanzen oder zumindest an einen gewissen Wohlstand gebunden waren. Bücher sind also nur unter entsprechenden Lagerbedingungen gute Medien zur Langzeitspeicherung von Information. Die dafür notwendigen Strukturen und Arbeitsabläufe sind seit Jahrhunderten erprobt. Die Langzeitsicherung digitaler Daten erfordert jedoch andere Strukturen und andere Arbeitsabläufe, die sich in den Archiven und Bibliotheken erst etablieren müssen. Dateiformate wechseln, Medien verlieren ihre Speicherfähigkeit, es treten Inkompatibilitäten zwischen Geräten, Speichermedien und Software

20

Christine Grond-Rigler

auf. Daher müssen elektronische Daten in regelmäßigen Abständen gesichert werden, damit sie lesbar bleiben. Die Kopiervorgänge müssen geplant und protokolliert, die Daten strukturiert abgelegt werden, um auffindbar zu bleiben – ähnlich wie der Buchbestand in einer Bibliothek.25 Nicht alle Gefahren also, auf die in der Auseinandersetzung mit der Digitalisierung hingewiesen wird, sind tatsächlich nur auf die Digitalisierung zurückzuführen oder nur in deren Kontext wirksam. Vielmehr sind viele Vorzüge der dezentralen Wissensbereitstellung durch digitale Medien perfektionierte, beschleunigte, in der Handhabung vereinfachte Praktiken, die sich in der Buchkultur durchgesetzt haben und nach wie vor unsere Vorstellung vom Umgang mit geistigen Inhalten bestimmen. Nicht zufällig ist die Bibliothek auch im Bereich der Informationstechnologie eine zentrale Metapher, schließlich ist sie das beste Beispiel für die ‚Auslagerung‘ und ‚Erweiterung‘ des individuellen Gedächtnisses seit Beginn der Schriftkultur.

25 Vgl. Rohe, Stefan u. Keith Allen: Nicht von Dauer – Kleiner Ratgeber für die Bewahrung digitaler Daten in Museen. Berlin 2009.

Gesine Boesken

Literaturplattformen Sie heißen „Leselupe“, „Autorenecke“ oder schlicht „Kurzgeschichten“ und bieten Zugriff auf ein Korpus literarischer Texte von Privatpersonen, das in einem solchen Umfang wohl an keiner anderen Stelle öffentlich zugänglich ist. Die Rede ist von Internet-Literaturplattformen, Foren also, in denen Nutzer eigene literarische Texte veröffentlichen, aber auch die Texte anderer Teilnehmer kommentieren, ihnen Verbesserungsvorschläge unterbreiten und auf ein ebensolches Feedback zu ihren eigenen Texten hoffen können. Man tritt dort mit anderen Schreibenden in einen Austausch, der im besten Fall auch konstruktiv ist. Literaturplattformen dienen insofern nicht nur als Veröffentlichungsplattform, sondern sind immer auch ein Medium der (literarischen) Anschlusskommunikation. Der aus der Rezeptionsforschung stammende Begriff bezeichnet hier ganz allgemein den diskursiven Austausch über literarische Texte.1 In den vergangenen Jahren ist eine Vielzahl solcher Literaturplattformen entstanden; die meisten verfügen über eine große Zahl aktiver Mitglieder und werden regelmäßig frequentiert. Alleine auf drei der ältesten und größten deutschsprachigen Literaturplattformen haben in den letzten zehn bis zwölf Jahren zusammen über 37.000 registrierte Nutzer über 220.000 Gedichte, Kurzgeschichten und andere literarische Texte veröffentlicht; das Feedback zu den Texten umfasst derzeit deutlich über eine Million Beiträge, die der Anschlusskommunikation zugerechnet werden können (vgl. Abb. 1).

Leselupe Kurzgeschichten Gedichte.com

Jahr der Gründung

registrierte Nutzer

literarische Texte

Beiträge

1998 1999 2000

4.240 9.755 23.300

65.000 32.000 125.000

290.000 404.000 610.000

Abb. 1: ‚Eckdaten‘ der drei ältesten und größten deutschsprachigen Literaturplattformen (Stand: November 2011)

1 Vgl. u. a. Sutter, Tilmann: „Anschlusskommunikation und die kommunikative Verarbeitung von Medienangeboten. Ein Aufriss einer konstruktivistischen Theorie der Mediensozialisation“. In: Lesekompetenz. Bedingungen, Dimensionen, Funktionen. Hg. v. Norbert Groeben u. Bettina Hurrelmann. Weinheim, München 2006, S. 80–105.

22

Gesine Boesken

Die Zahlen machen deutlich, dass Literaturplattformen als wichtiger Bestandteil eines (jedenfalls deutschsprachigen) Literaturbetriebs verstanden werden können, der spätestens mit Beginn des 21. Jahrhunderts ganz dezidiert auch in den neuen Medien verortet werden muss.

1 Kontext: Literaturbetrieb im Internet Das Internet hat in den vergangenen zwei Jahrzehnten eine wichtige Position in nahezu allen Bereichen des Literaturbetriebs eingenommen, der hier als „Summe der Erscheinungsformen literarischen Lebens“2 verstanden werden soll. Nicht selten erweist sich der Online-Literaturbetrieb dabei lediglich eine Ergänzung des ‚traditionellen‘ Literaturbetriebs, etwa wenn das Internet als zusätzliche Plattform für Literaturdistribution, -vermittlung und -rezeption dient. Exemplarisch angeführt seien an dieser Stelle der Online-Buchhandel, Websites von Verlagen und Literaturhäusern, Feuilletons, Literaturzeitschriften sowie Bibliothekskataloge, Datenbanken oder Archive digitalisierter Literatur, wie etwa das Projekt Gutenberg.de. Darüber hinaus kann der Literaturbetrieb im Internet vor allem auch als innovative Erweiterung des traditionellen Literaturbetriebs gesehen werden. Genannt sei in diesem Zusammenhang zunächst einmal die digitale oder Internetliteratur, literarische Texte also, die in ihrer Produktion, Präsentation und Rezeption auf rechnergestützte Medien angewiesen sind, zu deren Konstitution folglich spezifische Eigenschaften, wie etwa hypertextuelle Vernetztheit, Multimedialität, Interaktivität oder die Automatisierung von Prozessen nötig sind:3 Hyperfictions, wie beispielsweise Susanne Berkenhegers Zeit für die Bombe

2 Schnell, Ralf: Geschichte der deutschsprachigen Literatur seit 1945. Stuttgart, Weimar 1993, S. 2. 3 Differenziert wird zwischen ‚digitaler bzw. Internetliteratur‘, die in ihrer Produktion, Präsentation und/oder Rezeption mediengebunden ist, und ‚Literatur im Internet‘ (bzw. digitalisierter Literatur), die im Prinzip nicht mediengebunden ist und der das Internet lediglich als zusätzliche Präsentationsplattform dient (z. B. Projekt Gutenberg-De). Vgl. u. a. Winko, Simone: „Am Rande des Literaturbetriebs: Digitale Literatur im Internet“. In: Arnold, Heinz Ludwig und Matthias Beilein (Hg.): Literaturbetrieb in Deutschland. 3. Aufl., Neufassung. München 2009, S. 292–303; Simanowski, Roberto: Interfictions. Vom Schreiben im Netz. Frankfurt/Main 2002; Gendolla, Peter u. Jörgen Schäfer: „Auf Spurensuche. Literatur im Netz, Netzliteratur und ihre Vorgeschichte(n)“. In: Text + Kritik 152 (2001), S. 75–86. Einen Überblick über deutschsprachige Netzliteratur-Projekte (sowie Netzliteratur-Theorie) bietet Netzliteratur. net.

Literaturplattformen

23

(1997), kollaborative Schreibprojekte, wie etwa der (2001 eingestellte) Netzroman Die Säulen von Llacaan,4 oder auch computergesteuerte aleatorische Texte, wie beispielsweise der Gedichte-Generator Poetron. Letztlich muss digitale Literatur aber als ein Phänomen betrachtet werden, das eher „am Rande des Literaturbetriebs“5 angesiedelt ist, nicht nur weil es eine zeitlich begrenzte Erscheinungsform war, die ihren Höhepunkt in den 1990er Jahren hatte, sondern auch weil Diskussion und Forschung fast umfangreicher waren als die tatsächliche Textproduktion. Ob sich andere ‚neue‘ Literaturformate, wie beispielsweise die (auf 140 Zeichen beschränkte) Twitter-Lyrik,6 tatsächlich etablieren werden, gilt es abzuwarten. Deutlich stärker genutzt und auch wirkungsmächtiger sind hingegen Angebote des Internet-Literaturbetriebs, die – im Übrigen nicht erst mit der Entwicklung des Internets hin zu dem, was wir heute als Web 2.0 bzw. Social Web bezeichnen7 – den Nutzern eine Partizipation an literarischem Handeln auf eine Art und Weise ermöglichen, die außerhalb des Internets nicht oder nur mit größerem Aufwand durchführbar wäre. Ob man in diesem Zusammenhang tatsächlich vorbehaltlos von einer „publizistische[n] Egalisierung“8 sprechen kann, sei dahingestellt, dass es hingegen für die Nutzer insgesamt weniger institutionelle (und ökonomische) Hürden als im traditionellen Literaturbetrieb gibt, um sich zu ‚veröffentlichen‘, ist wohl unbestritten. Hinzu kommt, dass sich, basierend auf computervermittelter Kommunikation, eventuelle räumliche Distanzen zwischen einzelnen Aktanten deutlich einfacher überwinden lassen und somit auch Voraussetzungen für gemeinsames literarisches Handeln geschaffen werden (vgl. Kapitel 2). Zu solchen Angeboten zählen, neben Literaturportalen, wie beispielsweise „Literaturcafé“ oder „Carpe Literaturwelt“, die der Orientierung innerhalb des Internet-Literaturbetriebs dienen, auch nicht-kommerzielle (und häufig auch nicht institutionell gebundene) Literaturmagazine und -zeitschriften, wie etwa „E.journal: Literatur Primär“ oder „Poetenladen“, sowie nicht-kostenpflichtige

4 Vgl. www.dichtung-digital.de/Simanowski-Feb-2000/index5.htm (Stand: 14.08.2012). 5 Winko: „Am Rande des Literaturbetriebs“, S. 292. 6 Vgl. www.twitter-lyrik.de (Stand: 14.08.2012). 7 Das Web 2.0 bzw. Social Web wird als „Mitmach-Netz“ (Ebersbach, Anja, Markus Glaser und Richard Heigl: Social Web. Konstanz 2008, S. 11) verstanden, zu dessen Inhalt und Struktur die Nutzer aktiv beitragen (user-generated content). Vgl. auch Schmidt, Jan: Das neue Netz. Merkmale, Praktiken und Folgen des Web 2.0. Konstanz 2009. 8 Döring, Nicola: Sozialpsychologie des Internet. Die Bedeutung des Internet für Kommunikationsprozesse, Identitäten, soziale Beziehungen und Gruppen. 2. Aufl. Göttingen 2003, S. 18.

24

Gesine Boesken

literatur- oder kulturwissenschaftliche Magazine und Zeitschriften („Dichtung Digital“, „Trans“, „Textpraxis“ etc.). Hinzu kommen (Autoren-)Homepages oder Blogs, die von im traditionellen Literaturbetrieb bereits etablierten Autoren als zusätzliche Präsentations- und Veröffentlichungsplattform genutzt werden. Darüber hinaus gibt es aber auch eine große Zahl persönlicher Literatur-Homepages und -Blogs, wie etwa „Das kleine Lesezimmer“, „Kurzgeschichten und Meer“ oder „Karthause’s Welt“, um nur einige wenige herauszugreifen, auf denen ‚Hobby-Schriftsteller‘ ihre eigenen Texte veröffentlichen oder über Literatur bzw. Ereignisse des literarischen Lebens schreiben.9 Ein weiterer wichtiger Bestandteil des Internet-Literaturbetriebs sind (nichtkommerzielle) Rezensionsplattformen, wie beispielsweise „Literaturschock“, „Rezensenten“ oder „readme.cc“. Obwohl den Nutzern in der Regel eine aktive (d. h. produktive) Partizipation an der Plattform ermöglicht wird, unterliegen solche Rezensionsplattformen einer redaktionellen Betreuung, die immer auch eine ,gatekeeper‘-Funktion hat, und unterscheiden sich darin von einer anderen Form der Kommunikation über Literatur: Literatur-Diskussionsforen, wie beispielsweise die „Büchereule“ oder – jeweils thematisch spezialisierter – das „Buchforum des SF-Netzwerks“ oder das „Romantische Bücherforum“. Diese sind weniger stark redaktionell gelenkt, d. h. Nutzer können ihre Beiträge in der Regel direkt einstellen, sind aber auch entsprechend weniger gut rein rezeptiv, im Sinne eines (Rezensions-)Archivs, nutzbar. Auch Literatur-Newsgroups, wie etwa „de.rec.buecher“, werden (immer noch!) für den Austausch über Literatur genutzt (ausführlicher zum Thema Literaturkritik vgl. den Beitrag von Karin Wozonig). Im Kontext eines solchen auf Partizipation ausgerichteten Internet-Literaturbetriebs lassen sich Literaturplattformen verankern, die für die Nutzer vor allem deshalb besonders interessant sind, weil sie nicht nur Raum für die Veröffentlichung von eigenen literarischen Texten bieten, sondern eben auch für den Austausch über eigene und fremde Texte mit anderen Teilnehmern.10 Literaturplattformen vereinen gewissermaßen alle Bereiche literarischen Handelns in einem

9 Zur Inszenierung von Autorschaft im Internet vgl. u. a. Boesken: Literarisches Handeln, S. 63 ff., S. 161 ff.; Paulsen, Kerstin: „Inszenierung von Autoren und Autorschaft im Internet“. In: Autorinszenierungen. Autorschaft und literarisches Werk im Kontext neuer Medien. Hg. v. Christine Künzel u. Jörg Schönert. Würzburg 2007, S. 257–269 sowie Florian Hartlings Beitrag in diesem Band. 10 Ein ähnliches Prinzip liegt im Übrigen auch der so genannten Fan Fiction zugrunde, mit dem Unterschied, dass die Teilnehmer dort auf bekannte Texte oder Filme rekurrieren und Fort- bzw. Umschreibungen vornehmen, während die Nutzer von Literaturplattformen in der Regel ohne eine solche explizite Bezugnahme schreiben, vgl. v.a. Jenkins, Henry: Textual Poachers: Television Fans and Participatory Culture. New York, London 1994.

Literaturplattformen

25

einzelnen Internetauftritt: Textproduktion und -rezeption, aber auch Vermittlung, im Sinne einer Veröffentlichung, sowie Verarbeitung, im Sinne einer Beschäftigung mit literarischen Texten liegen hier nahe beieinander und sind für jeden Nutzer – zumindest rein technisch gesehen – problemlos realisierbar.

2 Literarisches Handeln unter den Bedingungen computervermittelter Kommunikation Literaturplattformen bieten also Raum für gemeinsames literarisches Handeln und schließen damit an bereits bekannte und etablierte Formen gemeinschaftlichen literarischen Handelns an. Erinnert sei beispielsweise an die literarischen Salons des 18. Jahrhunderts11 oder an Schreib- und Lesezirkel.12 Auch hier traf und trifft man sich, um gemeinsam über Literatur zu sprechen oder an literarischen Texten zu arbeiten. Sind Literaturplattformen also letztlich nur ‚alter Wein in neuen Schläuchen‘, wie das in den vergangenen Jahren wiederkehrend für (vermeintlich) neue Formen und Konzepte der Literatur im Kontext neuer Medien diskutiert wurde?13 In der Tat ist das Literaturplattformen zugrunde liegende Prinzip des gemeinsamen literarischen Handelns nicht neu, dennoch kann konstatiert werden, dass hier unter den spezifischen Bedingungen computervermittelter Kommunikation Schreib- und Leseräume entstehen, die, jedenfalls in dieser Form, außerhalb des Internets nicht existieren (können) und insofern ihren Nutzern ein spezielles Gratifikationspotential eröffnen, das sich – auch wieder: in dieser Form – außerhalb des Internets nicht findet. Diese Überlegung schließt an das Konzept des ,Uses and Gratifications Approach‘ von Katz, Blumler und Gurevitch an, demzufolge Medien (mehr oder weniger bewusst) genutzt werden, um bestimmte (kognitive, affektive, integrative und/oder interaktive) Bedürfnisse zielgerichtet zu befriedigen. Gratifikationen können dabei nicht nur aus den jeweiligen Medieninhalten gezogen werden, sondern auch aus dem eigentlichen Akt der Medienzuwendung sowie aus dem sozialen Kontext der jeweiligen Medien-

11 Vgl. u. a. Seibert, Peter: Der literarische Salon. Literatur und Geselligkeit zwischen Aufklärung und Vormärz. Stuttgart 1993. 12 Zu (Online- wie Offline-)Lesezirkeln bzw. Buchgruppen vgl. u. a. Novak, Julia: Gemeinsames Lesen. Die Buchgruppe als soziales Phänomen und ökonomische Triebkraft. Wien 2007. 13 Vgl. u. a. Jucker, Andreas H.: „Multimedia und Hypertext. Neue Formen der Kommunikation oder alter Wein in neuen Schläuchen?“. In: Kommunikationsformen im Wandel der Zeit. Hg. v. Gerd Fritz u. Andreas H. Jucker. Tübingen 2000, S. 7–28.

26

Gesine Boesken

nutzung.14 Ohne hier im Detail auf das Phänomen der computervermittelten Kommunikation einzugehen, das zudem an anderer Stelle bereits unter verschiedensten Aspekten ausführlich untersucht worden ist,15 sollen nachfolgend lediglich solche Merkmale und Eigenschaften herausgegriffen werden, die für literarisches Handeln im virtuellen Raum, und hier speziell auf Literaturplattformen, von Bedeutung sind. Bereits genannt wurde der Aspekt einer gewissen ‚publizistischen Egalität‘ im virtuellen Raum: Wer sich an die Netiquette sowie an die jeweilig spezifischen Regeln der genutzten Anwendung hält, unterliegt normalerweise keinen weiteren Beschränkungen und kann sich und seine Texte umgehend veröffentlichen, ohne größere institutionelle oder ökonomische Hürden überwinden zu müssen. Wohl kaum ein Medium scheint besser geeignet, die „menschliche Sehnsucht nach einer säkularen Ewigkeit, einem zweiten Leben im Gedächtnis der Nachwelt“16 zu erfüllen. Hinzu kommt, dass computervermittelte Kommunikation zu einer Beschleunigung des Austausches beiträgt, der infolgedessen teilweise nahezu synchron erfolgen kann. Die Prozesse von Produktion, Vermittlung, Rezeption und Verarbeitung können also prinzipiell innerhalb kürzester Zeit aufeinander folgen und somit dynamisch ineinander greifen. Nicht zu vernachlässigen ist in diesem Zusammenhang aber auch, dass die derart veröffentlichten Texte in einem Spannungsfeld zwischen Dokumentation und Flüchtigkeit stehen: Einerseits haben die Texte also den Status des Veröffentlichten, andererseits können sie, im Gegensatz zu gedruckten Texten, die in dieser Form zunächst einmal unveränderbar sind, in der Regel ohne größeren Aufwand von ihren Autoren revidiert, modifiziert oder sogar gelöscht werden. Literarischem Handeln auf Literaturplattformen eignet damit immer auch etwas Unverbindliches. In mehrfacher Hinsicht interessant ist zudem, dass computervermittelte Kommunikation automatisch gespeichert und dokumentiert wird. Somit werden Vermittlungs- und Arbeitsprozesse literarischen Handelns sichtbar gemacht, die

14 Vgl. Katz, Elihu; Blumler, Jay G.; Gurevitch, Michael: „Uses and Gratifications Research“. In: Public Opinion Quarterly 37 (1973) H. 4, S. 509–523. 15 Zu computervermittelter Kommunikation, z. B. unter sprachwissenschaftlicher, soziologischer oder medienpsychologischer Perspektive, vgl. u. a. Journal of ComputerMediated Communication; Misoch, Sabina: Online-Kommunikation. Konstanz 2006; Schlobinski, Peter (Hg.): Von *hdl* bis *cul8r*. Sprache und Kommunikation in den Neuen Medien. Mannheim u. a. 2006. 16 Assmann, Aleida: „Das Archiv und die neuen Medien des kulturellen Gedächtnisses“. In: Schnittstelle: Medien und kulturelle Kommunikation. Hg. von Georg Stanitzek u. Wilhelm Vosskamp. Köln 2001, S. 279.

Literaturplattformen

27

außerhalb des Internets in der Regel nicht aufgezeichnet werden oder gar öffentlich zugänglich sind. Das ermöglicht zum einen eine zeitunabhängige und ortsungebundene – und somit in der Regel flexiblere – Teilnahme an Prozessen literarischen Handelns, eben weil man nicht nur jederzeit nachvollziehen kann, welche Reaktionen bereits zu einem Text erfolgt sind, sondern weil man die Anschlusskommunikation auch zu jedem Zeitpunkt wieder aufnehmen kann. Zum anderen können diese aufgezeichneten „Kommunikationshistorien“17 in Anlehnung an Gérard Genette durchaus als Paratexte (genauer: als Epitexte) verstanden werden,18 die ihrerseits wiederum Einfluss auf die Rezeption der veröffentlichten Texte nehmen, etwa weil sie (explizite oder implizite) Informationen über den Verfasser, seine Vorstellungen oder Arbeitsweisen vermitteln. Bei einer solchen Dokumentation von Kommunikation handelt es sich immer auch um die Dokumentation von Aufmerksamkeit, die bekanntermaßen als neue ‚Währung‘ des Informationszeitalters gilt und somit als wichtiger Motor für das Funktionieren von Literaturplattformen verstanden werden kann (vgl. Kapitel 3.3).19 In engem Zusammenhang mit diesen Überlegungen steht ein weiterer Aspekt: Wer Aufmerksamkeit erregen möchte, muss sich von der Masse abheben. Ein Gratifikationspotential von literarischem Handeln auf Literaturplattformen kann daher auch in den Möglichkeiten des virtuellen Identitätsmanagements gesehen werden. Kommunikation auf Literaturplattformen erfolgt fast ausschließlich schriftbasiert und gilt insofern, jedenfalls im Vergleich zu mündlicher Kommunikation, als kanalreduziert, weil Informationen über den Gesprächspartner eben nicht auf visuellen oder auditiven Sinneskanälen (Mimik, Gestik, Tonfall, aber auch andere so genannte soziale Hinweisreize wie Alter oder Geschlecht) übermittelt werden können.20 Auch wenn in diesem Zusammenhang häufig von „EntSinnlichung […] oder gar Ent-Menschlichung“21 der Kommunikation gesprochen und auf potentielle Verständigungsprobleme verwiesen wird, erlaubt diese Form der computervermittelten Kommunikation doch auch einen vergleichsweise spielerischen und kontrollierten Umgang mit Identität. Dabei gilt: Es genügt nicht, diese Kanalreduktion mittels Emoticons oder anderer Konventionen (Akronyme wie LOL – „laughing out loud“ –, Inflektiven wie *rotanlauf* etc.) behelfsweise auszugleichen; um „kommunikativ und sozial wirksam“22 sein zu können, muss man für das jeweilige Gegenüber auch darüber hinaus wahrnehmbar, ‚greifbar‘

17 18 19 20 21 22

Döring: Sozialpsychologie des Internet, S. 343. Vgl. Genette, Gérard: Paratexte. Das Buch vom Beiwerk des Buches. Frankfurt/Main 1992. Zu Aufmerksamkeit vgl. Franck, Georg: Ökonomie der Aufmerksamkeit. München 1998. Vgl. u. a. Döring: Sozialpsychologie des Internet, S. 149 ff. Döring: Sozialpsychologie des Internet, S. 149. Misoch: Online-Kommunikation, S. 115.

28

Gesine Boesken

sein, damit dieser sich ein Bild machen kann. Ohne eine (virtuelle) Identität ist der Nutzer also nicht wirklich ‚sichtbar‘, und wer sich an sozialer Interaktion im virtuellen Raum beteiligen möchte, muss folglich zunächst seine eigene Sichtbarkeit herstellen. Jedenfalls gilt, dass, „wer die Grenzen zum Cyberspace überschreitet, […] mit der Frage konfrontiert [ist:] Wer oder was möchte ich sein?“23 Die Bandbreite der möglichen Identitätskonstruktionen ist dabei groß: Sie reicht von verschiedenen Formen der Verschleierung der realen Identität (Pseudonyme, Gender-Switching, Anonymität) über Mehrfach-Identitäten bis hin zur Inszenierung der realen Identität. Insgesamt wird deutlich, dass es das Zusammenspiel verschiedener Eigenschaften computervermittelter Kommunikation ist, durch das sich literarisches Handeln auf Literaturplattformen von bereits bekannten Offline-Praktiken gemeinsamen literarischen Handelns unterscheidet. Inwiefern den aufgeführten Aspekten jedoch tatsächlich ein Gratifikationspotential zugeschrieben wird, steht letztlich immer in Abhängigkeit der individuellen Erwartungen und Kompetenzen der jeweiligen Nutzer. Dabei umfassen Letztere nicht nur technische Kompetenzen, sondern beispielsweise auch Fähigkeiten auf einer selbstbezogenen Ebene (Selektion und Organisation von Inhalten, zeitliche Strukturierung der Netznutzung, Abbau von Ängsten gegenüber dem Medium) oder auf einer sozialen Ebene (Kooperation, Kollaboration, Empathie, Fähigkeit zum Perspektivenwechsel).24

3 Literaturplattformen in der Nahaufnahme Die meisten deutschsprachigen Literaturplattformen sind nicht institutionell gebunden, sondern wurden privat gegründet und werden in Eigenleistung betrieben. Da auch die Finanzierung in der Regel privat erfolgt, wird ein Teil der Kosten gerade größerer Plattformen nicht selten über Werbung abgedeckt. Häufig ist der Betreiber einer Literaturplattform dort auch als Administrator und Moderator tätig; in der Regel gibt es darüber hinaus weitere Nutzer, die über Administratoren- und/oder Moderatorenrechte verfügen. Literaturplattformen

23 Thiedeke, Udo: „Wir Kosmopoliten. Einführung in eine Soziologie des Cyberspace“. In: Soziologie des Cyberspace. Medien, Strukturen und Semantiken. Hg. v. Udo Thiedeke. Wiesbaden 2004, S. 16. 24 Vgl. Döring: Sozialpsychologie des Internet, S. 6 f. Zu Medienkompetenz vgl. u. a. Groeben, Norbert u. Bettina Hurrelmann (Hg.): Medienkompetenz. Voraussetzungen, Dimensionen, Funktionen. Weinheim, München 2002.

Literaturplattformen

29

stehen allen Nutzern offen, wer allerdings nicht nur lesen will, sondern auch aktiv partizipieren möchte, muss sich als Mitglied registrieren. Die kostenlose Anmeldung ist in den meisten Fällen unaufwändig und erfordert lediglich die Angabe eines Benutzernamens und einer Mail-Adresse. Verfügen Plattformen über höherschwelligere Registrierungsprozedere, etwa eine manuelle Zulassung durch Administratoren oder andere Auflagen (z. B. uneingeschränkte Schreibrechte erst nach der Veröffentlichung eines ersten literarischen Texts), so dient dies der Vermeidung einer missbräuchlichen Nutzung der Plattform, etwa durch Flaming oder Spamming. Gerade größere Literaturplattformen verfügen daher über ein dezidiertes Plattform-‚Management‘, durch das die (in der Tendenz unverbindlichen) computervermittelten Beziehungen so gut wie möglich geregelt und organisiert werden sollen. Dazu zählen neben einer inzwischen netzweit standardisierten Netiquette auch spezifische Plattform-Regeln (Umgangsformen, Richtlinien für Kritiker, Hinweise auf Einhaltung von Orthographie- und Interpunktionsregeln, korrekte Zuordnung von Texten zu Foren, …) sowie die Etablierung bestimmter ,Netzämter‘, also Administratoren, die für Fragen der Organisation und Technik verantwortlich zeichnen, und Moderatoren, die vor allem auf inhaltlicher Ebene für einzelne Foren zuständig sind.

Abb. 2: Startseite von „Poetry“

Fast alle Plattformen basieren auf einer einfachen Ordnerstruktur, die in Rubriken unterteilt ist (im nachstehenden Beispiel: „Gedichte-Forum“ sowie „Ge-

30

Gesine Boesken

schichten und sonstiges Textwerk“), denen wiederum entsprechende Foren zugeordnet sind (vgl. Abb. 2). Jedes Forum besteht aus sogenannten Threads, Beiträgen also, die die Nutzer selbst erstellen, während die Rubriken und Foren in der Regel von den Betreibern und Administratoren der Literaturplattform generiert werden, die damit auch den formalen und inhaltlichen Rahmen der Plattform vorgeben. Die Literaturplattformen variieren hinsichtlich ihres Designs, aber auch bezüglich ihrer Größe bzw. Reichweite. So gibt es nicht nur große Plattformen, wie die bereits erwähnte „Leselupe“ mit mehreren tausend Nutzern, sondern auch solche, die lediglich 50 Mitglieder haben, wie beispielsweise „Autorenecke“. Unterschiede finden sich zudem in der Administrationsstruktur, d. h. die Plattformen verfügen teilweise über unterschiedlich viele Administratoren und Moderatoren, deren Befugnisse und Aufgaben zudem variieren können. Unterschiede lassen sich aber auch in der Nutzerstruktur aufzeigen, etwa wenn sich das Angebot speziell an Senioren oder Jugendliche richtet25 oder wenn sich eine Plattform als geschlossener Zirkel erweist, dem neue Nutzer nicht problemlos beitreten können. Und nicht zuletzt haben Literaturplattformen häufig unterschiedliche thematische Ausrichtungen, d. h. sie bieten Raum für bestimmte Gattungen, beispielsweise ausschließlich für Lyrik oder Prosa, oder sie spezialisieren sich auf besondere Genres, etwa auf Fantasy-Literatur oder Märchen.26

3.1 Aufbau und Struktur Bei aller Variationsbreite können Literaturplattformen bezüglich ihrer Inhalte bzw. Angebote systematisiert und fünf verschiedenen Bereichen zugeordnet werden, die sich in dieser Form auf (fast) allen Literaturplattformen finden: (1) Textpräsentation und Anschlusskommunikation: Gewissermaßen das „Herzstück“ einer Literaturplattform bilden Foren, die für die Veröffentlichung von literarischen Texten und die darauf folgende Anschlusskommunikation vorgesehen sind. Threads, die in diesem Bereich gepostet werden, enthalten literarische Texte, die im Übrigen in ihrer Produktion und Rezeption in der Regel nicht ursächlich mediengebunden sind, das heißt, es handelt sich nicht um Hypertexte etc. (vgl. Kapitel 1), im Gegenteil: Es finden sich vor allem bekannte Textfor25 „Graue Feder“ (für Senioren) oder „LizzyNet“ (für junge Mädchen). 26 „Gedichte“, „Poetry“, „Kurzgeschichten“, „Märchenbasar“ etc. Allerdings können sich Gattungszuordnungen auch als ‚Etikettenschwindel‘ entpuppen, wenn beispielsweise eine Plattform wie „Poetry“, auf der man Gedichte erwartet, auch eine Rubrik für Prosatexte bietet.

Literaturplattformen

31

men, wie beispielsweise Kurzgeschichten, Gedichte, Fortsetzungsgeschichten oder auch Essays. Häufig werden die eingestellten Texte von ihren Verfassern dabei explizit als ,work in progress‘ bezeichnet, weshalb der Fokus der Anschlusskommunikation hier ganz deutlich auf der Auseinandersetzung mit einem Text zum Zwecke seiner Verbesserung (bzw. der Verbesserung der Schreibkompetenz des Verfassers im Allgemeinen) liegt. Anschlusskommunikation wird, im Sinne eines ,interactive writing‘, von den meisten Nutzern also als „konstitutive[r] Bestandteil des Produktionsprozesses“ verstanden und die „Expertise“27 anderer Nutzer wird bewusst eingeplant. Wenn eine solche Anschlusskommunikation stattfindet, erhält ein Nutzer im besten Fall nicht nur positive, sondern auch konstruktive Rückmeldung. Das nachfolgende Beispiel zeigt, wie mit einfachen Mitteln (Zitate aus dem Originaltext, Hervorhebungen) Rückmeldungen und Überarbeitungsvorschläge für einen Text gegeben werden (vgl. Abb. 3). Textproduktion und Anschlusskommunikation greifen hier also eng ineinander.

Abb. 3: Anschlusskommunikation mit Verbesserungsvorschlägen zu einem Text auf „Kurzgeschichten“ (Ausschnitt)

27 Lehnen, Katrin: „Kooperative Textproduktion“. In: Schlüsselkompetenz Schreiben. Hg. v. Otto Kruse, Eva-Maria Jakobs und Gabriela Ruhmann. Neuwied 1999, S. 150.

32

Gesine Boesken

(2) Egotexte: Dieser Bereich umfasst alle Informationen, die sich auf den Nutzer beziehen: Dazu zählen neben systemgenerierten Informationen (Anzahl der bisher veröffentlichten Texte und Beiträge, Datum des letzten Besuchs etc.) auch nutzergenerierte Informationen, allen voran der gewählte Nutzername, d. h. der Nickname, aber beispielsweise auch eine Signatur (in Form von Zitaten, Sinnsprüchen, Links etc.) oder der so genannte ‚Avatar‘,28 ein persönliches Bildschirmbild also, das, wie auch die Signatur, bei jedem Beitrag des Nutzers automatisch zusammen mit dessen Nickname erscheint.29 Gebündelt einsehbar sind alle diese „Identitäts-Requisiten“30 in den Autorenprofilen, in denen die Nutzer auch weitere Informationen über sich veröffentlichen können, wie Hobbys, Lieblingsautoren oder die aktuelle Lektüre, aber auch weitere Kontaktmöglichkeiten oder Links auf persönliche Homepages (vgl. Abb. 4).

Abb. 4: Beispiel für ein Autorenprofil auf „Poetry“

28 Der Begriff ‚Avatar‘ wird von Plattformnutzern in der Regel in dieser Bedeutung verwandt, auch wenn das terminologisch nicht korrekt ist, da der ursprünglich aus der hinduistischen Mythologie stammende Begriff normalerweise virtuelle Charaktere bezeichnet, die verschiedene Funktionen übernehmen können (z. B. Spielfiguren, automatische Assistenten). 29 Zu system- und nutzergenerierten Informationen vgl. u. a. Boesken: Literarisches Handeln, S. 164 ff. 30 Döring: Sozialpsychologie des Internet, S. 342.

Literaturplattformen

33

Für die Ende der 90er Jahre angestoßene Diskussion um die ‚Rückkehr des Autors‘31 bilden diese Autorenprofile jedenfalls ein anschauliches Beispiel, insofern sie verdeutlichen, welche Bedeutung dem ‚empirischen‘ Autor im Kontext des (überwiegend) privaten literarischen Handelns zukommt. Eine ähnliche Funktion haben auch Forenbereiche, die der Vorstellung neuer Mitglieder vorbehalten sind. Vor allem auf kleineren Literaturplattformen werden neue Mitglieder dezidiert dazu aufgefordert, etwas über sich zu schreiben, bevor sie die Plattform aktiv nutzen. Hier zeigt sich recht eindrücklich, welchen Stellenwert der Aspekt der Identitätskonstruktion auf Literaturplattformen hat: Immerhin geht es für viele Nutzer um etwas vergleichsweise Persönliches, weshalb eine gewisse Vertrautheit eine wichtige Voraussetzung für den Austausch zu sein scheint. Diese Vertrautheit beruht auf der Glaubwürdigkeit der anderen Teilnehmer, die sich wiederum nicht unbedingt auf die (ohnehin nicht verifizierbare) Übereinstimmung von virtuellen und realen Identität stützt, sondern vielmehr auf die Stimmigkeit der im virtuellen Raum wahrnehmbaren ‚Identitäts-Requisiten‘. Andererseits bieten Literaturplattformen immer auch die Möglichkeit, sich einer eindeutigen Identitätskonstruktion in weiten Teilen zu entziehen, etwa durch bewusste Identitätsverschleierungen oder durch Mehrfachidentitäten innerhalb derselben Plattform (vgl. Kapitel 2). Eine solche Herangehensweise ist häufig verbunden mit der Vorstellung größerer (literarischer oder sonstiger) Freiheit oder mit der Hoffnung, auf diese Weise ein unvoreingenommenes Urteil zu den eigenen Texten zu erhalten. (3) Kommunikation: Foren, die der nicht-themenspezifischen Kommunikation, der so genannten ‚Off-Topic‘-Kommunikation, dienen (z. B. „Außer der Reihe“, „Plauderecke“, „Smalltalk“ oder „Kaffeekranz“), können als weiterer zentraler Bestandteil von Literaturplattformen betrachtet werden, weil sie entscheidend zur Entwicklung der Gruppendynamik beitragen und zudem eine wichtige Funktion für das Identitätsmanagement der Nutzer haben: Hier lernt man sich ‚außerhalb‘ der Texte kennen. (4) Ratgebertexte und Schreibanregungen: Zu diesem Bereich zählen Foren, in denen das Schreiben als Vorgang thematisiert wird. Man findet hier ganz allgemein Tipps zum Schreiben – diese Foren heißen beispielsweise „Rund ums Schreiben“ oder „Autoren-Talk“ – oder man kann, ähnlich einem Lektorat, konkrete Hilfestellung für bereits fertiggestellte Texte erhalten („KorrekturEcke“, „Schreibwerkstatt“ oder auch „Folterkammer“). Häufig werden mittels

31 Vgl. Jannidis, Fotis, Gerhard Lauer u. a. (Hg.): Rückkehr des Autors. Zur Erneuerung eines umstrittenen Begriffs. Tübingen 1999.

34

Gesine Boesken

Schreibübungen (z. B. „Fingerübungen“ oder „Trainingscamp“) und Schreibwettbewerben, die von Moderatoren begleitet werden, Schreibanlässe geschaffen. Obwohl solche Angebote ein nicht unwesentlicher Faktor für das dauerhafte Funktionieren von Literaturplattformen sind, werden sie nicht auf allen Literaturplattformen angeboten. (5) Informationen und Zusatzangebote: Diesem Bereich können alle weiteren Angebote zugeordnet werden, die zwar nicht unmittelbar zum Funktionieren der Plattform beitragen, aber möglicherweise für einen neuen Nutzer bei der Auswahl einer Plattform ausschlaggebend sind, wie beispielsweise Linklisten, Rezensionen, Informationen zu Wettbewerben und Ausschreibungen oder auch Newsletter, die über Neuerungen auf der Plattform informieren. Nicht auf allen Literaturplattformen hat sich allerdings ein solcher Bereich etabliert.

3.2 Die Literaturplattform als ‚Mehrzweckraum‘ Literaturplattformen erfüllen offensichtlich verschiedene Funktionen für ihre Nutzer, insofern sie zunächst ‚Galerien‘ sind, in denen Nutzer ihre Texte ausstellen können. Darüber hinaus haben sie die Funktion einer ‚Bühne‘, auf der man sich als Autor oder Autorin inszenieren und ausprobieren kann. Gleichzeitig dienen Literaturplattformen auch als ‚Treffpunkt‘ mit anderen Nutzern, die an Literatur interessiert sind, vor allem aber werden sie als (offene) ‚Werkstatt‘ genutzt, in der man gemeinsam mit anderen Schreibenden an literarischen Texten arbeitet; die Nutzung als Werkstatt lässt sich vor allem in den Bereichen Anschlusskommunikation, Ratgebertexte und Schreibanregungen beobachten. Natürlich erfüllen auch andere Angebote im Internet diese Funktionen, beispielsweise persönliche Homepages, Social Shareware (Flickr, YouTube), soziale Netzwerke (z. B. Facebook), Foren oder Chats; in der Regel haben sie aber nur eine oder zwei der genannten Funktionen (in überwiegendem Maß dienen sie als Treffpunkte oder Galerien). Literaturplattformen hingegen bündeln alle diese Funktionen an einem Ort und erweisen sich somit als ,Mehrzweckräume‘. Dabei kann das Zusammenspiel dieser Funktionen als konstituierend für Literaturplattformen gesehen werden: Wird eine Plattform auf nur eine dieser Funktionen reduziert, etwa auf die Galerie-Funktion, besteht die Gefahr des Scheiterns der Plattform, weil es dann etwa zu keiner Anschlusskommunikation mehr käme. Welche Funktionen ein Nutzer letztlich für sich wahrnimmt, hängt von seinen individuellen Präferenzen ab, steht aber immer in Abhängigkeit von der Ausrichtung einer Literaturplattform, da die Funktionen von Plattform zu Plattform recht unterschiedlich gewichtet werden. In der Tendenz lässt sich beobachten, dass auf kleineren Plattformen der Werkstatt- und Treffpunktfunktion eine insge-

Literaturplattformen

35

samt größere Bedeutung beigemessen wird als auf großen Literaturplattformen, auf denen die Galerie- und Bühnenfunktion häufig etwas dominanter ist.32

3.3 Autorschaft zwischen Hobby und Professionalität Diese Überlegungen legen nahe, dass es mit der unterschiedlichen Wahrnehmung und Nutzung von Literaturplattformen auch zu einer Ausformung unterschiedlicher Autorentypen kommt. Untersuchungen zeigen, dass sich für die Nutzer von Literaturplattformen neben ‚klassischen‘ Schreibmotiven wie Identitätsarbeit, personale und soziale Distinktion, Ausbildung von Identifikationskompetenzen, therapeutische Zwecke, ästhetische Expressivität etc.33 vor allem solche Motivationen bzw. Gratifikationserwartungen ermitteln lassen, die auf den spezifischen Eigenschaften des Mediums und den Merkmalen computervermittelter Kommunikation, vor allem aber auf der Öffentlichkeit des Mediums beruhen: Es geht um Aufmerksamkeit und Anerkennung, darum – im weitesten Sinne – veröffentlicht zu sein, um das Zusammentreffen mit ‚Gleichgesinnten‘, aber auch um den Austausch mit anderen, sei es, um sich über die eigene Leistung zu orientieren oder um – je nach der Weite des Blickwinkels – einen veröffentlichten Text bzw. die eigene Schreibkompetenz insgesamt zu verbessern. Neben „Gelegenheitsdichtern“, für die Literaturplattformen willkommene Ausstellungsräume für ihre Texte und denen positive Rückmeldungen oder die Dokumentation von Besucherzahlen Aufmerksamkeit genug sind, werden Literaturplattformen vor allem auch von „Hobby-Autoren“ genutzt. Zu diesem Autorentypus zählen Nutzer, die sich als Amateure verstehen, diesen Status aber überwinden möchten, indem sie die Möglichkeiten von Literaturplattformen nutzen, sich mit anderen auszutauschen, von anderen zu lernen und sich somit zu verbessern. Auch wenn der Begriff des Dilettantismus umgangssprachlich überwiegend negativ konnotiert ist, ist er doch – gerade mit Blick auf seine ursprüngliche Bedeutung – hier recht zutreffend, insofern dem Dilettanten, im Gegensatz zum professionellen Künstler, zwar die fachliche Ausbildung fehlt, nicht jedoch die Leidenschaft für den Gegenstand.34 Gerade solche Nutzer können ein Motor für Literaturplattformen sein.

32 Vgl. ausführlicher Boesken: Literarisches Handeln, S. 155 ff. 33 Vgl. u. a. Behnken, Imbke u. a. (Hg.): Lesen und Schreiben aus Leidenschaft. Jugendkulturelle Inszenierungen von Schriftkultur. Weinheim, München 1997. 34 Vgl. u. a. Vaget, Rudolf: „Der Dilettant. Eine Skizze der Wort- und Bedeutungsgeschichte.“ In: Jahrbuch der deutschen Schillergesellschaft 14 (1970).

36

Gesine Boesken

Zu einem weiteren Autorentypus, der sich überwiegend auf kleineren Literaturplattformen findet, lassen sich dann solche Nutzer rechnen, die sich selbst als professionelle Autoren verstehen. Diese nutzen die Plattformen einerseits als Treffpunkt, um berufliche Kontakte zu pflegen und um Netzwerke zu bilden, andererseits als Werkstatt, um auf die Unterstützung anderer für die eigene Textarbeit zurückzugreifen oder um gemeinsam an Projekten zu arbeiten. Die Literaturplattform dient hier in der Regel nicht als (öffentliche) „Endstation“ für Texte, sondern wird vielmehr als eine „Zwischenstation“ auf dem Weg zu einer erhofften Printveröffentlichung wahrgenommen.

4 Virtuelle Schreib- und Leseräume Literaturplattformen sind Websites, die man – das legt die lateinische Wurzel ‚situs‘ nahe – als virtuelle Orte (gewissermaßen auf Abruf) verstehen kann und denen insofern etwas Benennbares und Markiertes eignet.35 Die virtuellen (Schreib- und Lese-)Räume, die sich an einem solchen Ort eröffnen, erweisen sich hingegen als deutlich weniger fassbar, was jedoch nicht allein der Virtualität geschuldet ist, insofern Raum als „gedoppeltes“, physisches sowie soziales Phänomen verstanden wird.36 Raum ist einerseits etwas Konkretes, das uns ständig zu umgeben scheint, in dem wir uns aufhalten (im Sinne eines absoluten, euklidischen Raumkonzepts bzw. ‚Container-Modells‘), und andererseits etwas Abstraktes im Sinne einer relativen Raumauffassung, die den Raum nicht als ontisch, sondern als durch soziale Operationen konstituiert sieht und dem Menschen einen essentiellen kreativen Anteil an der Konstruktion des Raums zuschreibt.37 Der Begriff des virtuellen Raums bezeichnet zunächst lediglich einen in der Möglichkeit erschaffenen Raum, wobei dieses Konzept von Raum bzw. Welt nicht an Medien wie den Computer oder das Internet gebunden ist; auch imaginäre Film- und Traum-Welten oder Halluzinationen unter Drogeneinfluss kön-

35 Vgl. Löw, Martina: „Raum – Die topologische Dimension der Kultur“. In: Handbuch der Kulturwissenschaften. Bd. 1: Grundlagen und Schlüsselbegriffe. Hg. v. Friedrich Jaeger u. Burkhard Liebsch. Stuttgart 2004, S. 46. 36 Ahrens, Daniela: „Internet, Nicht-Orte und die Mikrophysik des Ortes“. In: Budke, Alexandra u. a. (Hg.): Internetgeographien. Beobachtungen zum Verhältnis von Internet, Raum und Gesellschaft. Stuttgart 2004, S. 166. 37 Ausführlicher zum Raumkonzept in der Soziologie vgl. Schroer, Markus: Räume, Orte, Grenzen. Auf dem Weg zu einer Soziologie des Raums. Frankfurt/Main 2006.

Literaturplattformen

37

nen als in der Möglichkeit konstruierte, und insofern als virtuelle Welten bzw. Räume verstanden werden. „Aus theoretischer Perspektive ist der Raum des Internets deshalb nicht weniger real als ein materieller Raum“.38 Virtueller Raum im Internet wird daher nicht als etwas verstanden, was einem vermeintlich ontischen physischen Raum in der Realität gegenübergestellt ist, sondern vielmehr als eine weitere, wenn auch medial vermittelte und unterstützte Facette innerhalb von subjektiver Wirklichkeits- bzw. Raumkonstruktion.

4.1 ‚Shared spaces‘: Gemeinsames literarisches Handeln Auf Literaturplattformen werden virtuelle Räume geschaffen, die – im Gegensatz zu Räumen, wie man sie beispielsweise aus Computerspielen kennt – fast ausschließlich textuell konstruiert sind. Es geht hier nicht um die Schaffung neuartiger, phantastischer oder abenteuerlicher Welten, vielmehr sind die RaumKonstruktionen an Strukturen aus der bekannten, realen Welt orientiert. Wie an anderer Stelle spielen auch hier Räumlichkeitsmetaphern eine wichtige Rolle: Wir ‚surfen‘ oder ‚navigieren‘ durchs Netz und ‚verlieren‘ uns dort, wir ‚springen‘ von Link zu Link; man spricht von ‚Foren‘, ‚Home‘-Pages oder Chat-‚Räumen‘, die man ‚verlässt‘ oder ‚betritt‘ und auf ‚Plattformen‘, in literarischen ‚Salons‘ oder Lese-‚Zimmern‘ werden ‚Besucher‘ zum ‚Eintreten‘ aufgefordert oder ‚willkommen‘ geheißen. Obwohl man lediglich auf einen Bildschirm blickt, der Raum also rein visuell ohne Ausdehnung bleiben muss, erscheint es dem Nutzer doch, als bewege er sich durch das Internet. Dabei ist nicht von Belang, ob es sich beim virtuellen Raum tatsächlich um einen Raum (im euklidischen Sinne) handelt, sondern vielmehr, dass das Internet „als Raum verstanden [Hervorhebung G.B.] wird und man versucht, es als solchen zu gestalten.“39 Weil also virtuelle Räume im Internet eine gewisse Materialität transportieren, lässt sich konstatieren, dass mittels computervermittelter Kommunikation nicht nur eine räumliche Distanz zwischen den Teilnehmern überwunden wird, sondern auch Räume geschaffen werden, in denen die Nutzer ‚zusammentreffen‘ können.40 Es gibt also ein ‚Dort‘, das man trotz dessen Virtualität zumindest temporär als ein ‚Hier‘ empfindet. Virtuelle Räume bilden gewissermaßen einen (zusätzlichen) ‚dritten Ort‘ zwischen den jeweiligen realen Standorten der Nut38 Becker, Cornelia: „Raum-Metaphern als Brücke zwischen Internetwahrnehmung und -kommunikation“. In: Budke (Hg.): Internetgeographien, S. 110. 39 Schroer: Räume, Orte, Grenzen, S. 258. 40 Vgl. Stegbauer, Christian: Grenzen virtueller Gemeinschaft. Strukturen internetbasierter Kommunikationsforen. Wiesbaden 2001, S. 140.

38

Gesine Boesken

zer, der von diesen gemeinsam gestaltet und genutzt werden kann. Auch Literaturplattformen sind solche „shared spaces“,41 die unter anderem auch deshalb so wahrgenommen werden, weil die Nutzer sie sich handelnd aneignen, die Räume gewissermaßen ‚einrichten‘:42 Das tun sie, indem sie Texte einstellen, die Texte anderer Nutzer lesen und Kommentare dazu verfassen, oder indem sie mit anderen Plattformmitgliedern kommunizieren. Und so wie Cayce Pollard, William Gibsons Protagonistin aus Mustererkennung, ein von ihr regelmäßig genutztes Internetforum als „transportables Zuhause“ bezeichnet, das „einer der konstantesten Orte in ihrem Leben“43 sei, sehen das auch viele Nutzer von Literaturplattformen: Sie verstehen ‚ihre‘ Literaturplattformen nicht selten als „Zuhause“, „Heimatforum“, „Stammkneipe“ oder gar als „Internetfamilie“.44

4.2 Mikro-Öffentlichkeit: Schreiben im Zwischen-Raum Ein solches ‚(Sich-)Einrichten‘ muss, im Gegensatz zu einer persönlichen Homepage, die ein einzelner Nutzer nach seinen Vorstellungen gestaltet, auf Literaturplattformen immer im Kontext einer gemeinsamen Gestaltung gesehen werden. Die Nutzung von Literaturplattformen ist notwendigerweise eingebunden in Aushandlungsprozesse, beispielsweise über die Struktur der Plattform, über Nutzungsmodalitäten, aber auch über soziale und kommunikative Konventionen (Forenregeln, Netiquette). In dieser Hinsicht unterscheiden sich Literaturplattformen zunächst einmal nicht von anderen Formen gemeinschaftlich genutzter Räume; gerade mit Blick auf den Aspekt computervermittelter Kommunikation (fehlende Kopräsenz, Unverbindlichkeit, …) gewinnt die Frage nach der Handhabbarkeit des gemeinsamen Handelns jedoch an Bedeutung. Hinzu kommt, dass es sich um virtuelle Räume handelt, die in einem Spannungsverhältnis von Öffentlichkeit und Privatheit angesiedelt sind, das sich nie gänzlich festlegen lässt und ständig in Bewegung ist, weshalb auch die Dimensionen gemeinschaftlichen Handelns nicht immer kalkulierbar sind. Einerseits bilden sich hier Gruppierungen, die sich nach außen hin abgrenzen, um gemeinsam über Literatur zu sprechen und an Texten zu arbeiten. Je nach Reichweite einer Plattform entstehen Räume, die als vergleichsweise privat

41 Lombard, Matthew und Theresa Ditton: „At the Heart of It All: The Concept of Presence“. In: Journal of Computer-mediated Communication 3 (1997) H. 2. 42 Vgl. Habermas, Tilmann: Geliebte Objekte. Symbole und Instrumente der Identitätsbildung. Berlin, New York 1996, S. 124 ff. 43 Gibson, William: Mustererkennung. Stuttgart 2004, S. 13. 44 Boesken: Literarisches Handeln, S. 235 ff.

Literaturplattformen

39

wahrgenommen werden, etwa weil die aktive Nutzung der Plattform nur registrierten Nutzer ermöglicht wird, weil Teilbereiche einer zusätzlichen, ‚internen‘ Beschränkung unterliegen, aber auch weil gewisse ‚soziale Aufenthaltsbedingungen‘ formuliert werden. Dabei geht es nicht nur um die Befolgung einer Netiquette, bei deren Nichteinhaltung Sanktionen drohen, sondern auch um die Binnenstruktur der Plattformen: In die Gruppe eingebunden wird nur derjenige, der sich identifiziert, integriert und engagiert. So werden neue Mitglieder auf der Plattform „Autorenecke“ beispielsweise gleich zu Beginn mit den Erwartungen der etablierten Plattformnutzer konfrontiert: „Wer mitmachen möchte … er ist willkommen. […] ABER: Schwurbler AUFGEPASST … dafür haben wir kein Publikum, höchstens bissige Opposition [Hervorhebungen und Punkte im Original]“.45 Auf der anderen Seite sind Literaturplattformen immer auch (zumindest potentiell) öffentliche Räume. Sie sind offen für Leser und für neue Teilnehmer – und müssen das auch sein, um ‚in Bewegung‘ und damit auch anschlussfähig zu bleiben: Wer sich zu sehr im Vertrauten verkapselt, verhindert eine (breitere) Wahrnehmung und somit auch das Hinzukommen neuer Inhalte und Perspektiven. Eine solche Öffentlichkeit wird unter anderem durch einen expliziten Adressatenbezug hergestellt (z. B. „Herzlich Willkommen [sic] auf Kurzgeschichten!“), aber beispielsweise auch durch Eigenwerbung auf der Startseite, etwa mit Erläuterungen zur Struktur, zum Angebot und zu den Teilnahmebedingungen der Plattform. Auf diese Weise werden nicht nur die Rahmenbedingungen des öffentlich nutzbaren Raums offen gelegt, sondern gleichzeitig auch neue Nutzer zur Partizipation eingeladen. Zur Wahrnehmung der Literaturplattformen als öffentlicher Raum trägt aber auch eine gewisse Form der Institutionalisierung und Professionalisierung bei, etwa durch FAQs, Forenregeln oder die Zuweisung von Administratoren- oder Moderatorenrollen. Literaturplattformen sind in dieser Hinsicht also ‚Zwischen-Räume‘ und können als Mikro-Öffentlichkeiten (bzw. fragmentierte oder private Öffentlichkeiten) beschrieben werden, Räume also, die faktisch zwar nur eine geringe Reichweite haben, gleichwohl aber als öffentliche Räume wahrgenommen werden.46 Diese Balance von Privatheit und Öffentlichkeit, von Vertrautheit einerseits und Anschlussfähigkeit andererseits, kann als konstituierend für Literaturplattformen erachtet werden, weil auf diese Weise ein Raum geschaffen wird, der übersichtlich und kontrollierbar genug ist, um gemeinsames literarisches Handeln zu ermöglichen, gleichzeitig aber prinzipiell öffentlich ist und somit

45 www.autorenecke.de/forum/viewtopic.php?t=69 (Stand: 14.08.2012). 46 Vgl. ausführlicher Boesken: Literarisches Handeln, S. 144 ff.

40

Gesine Boesken

immer auch die Möglichkeit (vielleicht sogar das Versprechen) des Wahrgenommenwerdens transportiert.

4.3 ‚Spiel-Raum‘ Damit eröffnet sich eine weitere Facette des Raumaspekts: Weil Literaturplattformen gemeinsam geschaffene und genutzte virtuelle Schreib- und Leseräume sind, die für ihre Nutzer unterschiedliche Funktionen erfüllen (können), weil es sich um Mikro-Öffentlichkeiten handelt, aber auch, weil computervermittelter Kommunikation immer eine gewisse Unverbindlichkeit eignet, erweisen Literaturplattformen sich für ihre Nutzer als ‚Spiel-Räume‘: Zunächst einmal, weil man sich hier als Autor oder als Kritiker ausprobieren kann. Das ‚Schreiben für sich‘, das außerhalb des Internets in der Regel nur einen geringen Öffentlichkeitsgrad entwickelt (etwa in der Familie oder bei Freunden) und nicht selten als „Schubladentext“ endet, kann hier in einem Raum realisiert werden, der vergleichsweise überschaubar und kontrollierbar ist, in dem aber gleichzeitig ein gewisser Öffentlichkeitsgrad messbar ist – eben weil sich Anschlusskommunikation entwickelt und dokumentiert wird. Literaturplattformen bieten aber auch Spielraum für das Austesten der Viabilität47 – gemeint ist eine Gangbarkeit – der eigenen Wirklichkeit, ganz im Sinne eines Freud’schen Probehandelns. Das betrifft sowohl den Umgang mit der eigenen Identität als auch soziales Handeln. Es lässt sich hier durchaus an Georg Simmels Überlegungen zur Soziologie der Geselligkeit anschließen, die er als „Spielform der Vergesellschaftung“ betrachtet, in der sich zwar dieselben großen formalen Motive finden wie in der Realität des Lebens, die dort jedoch „von der Materie entlastet“48 sind. In einem solchen Zwischen-Raum kann also literarisches und soziales Handeln ausprobiert werden, ohne dass die „Reibungswiderstände der Realität“49 zu stark wirken.

47 Ausführlicher zu dem aus dem aus dem radikalen Konstruktivismus stammenden Begriff der Viabilität vgl. Glasersfeld, Ernst von: Radikaler Konstruktivismus. Ideen, Ergebnisse, Perspektiven. Frankfurt/Main 1997. 48 Simmel, Georg: „Soziologie der Geselligkeit (1. Aufl. 1917)“. In: Georg Simmel. Aufsätze und Abhandlungen 1909–1918. Hg. v. Rüdiger Kramme u. Angela Rammstedt. Frankfurt/Main 2001, S. 179. 49 Ebd.

Literaturplattformen

41

5 Ausblick Der Aspekt des ‚Spiel-Raums‘ (bzw. Spielraums), der sich auf Literaturplattformen eröffnet, birgt großes Potential, weil es insgesamt einen breiteren und niederschwelligen Zugang zu literarischem Handeln ermöglicht. Dass dieses Konzept als vielversprechend wahrgenommen wird, zeigt nicht zuletzt die Tatsache, dass etwa etablierte Verlage auf derartige Plattformen als Akquise- und Marketinginstrument setzen (z. B. Neobooks). Hier wird zum einen – vermeintlich – das Bedürfnis nach (Print-)Veröffentlichung bedient, zum anderen erhoffen sich Verlage, dass eine Community entsteht, die dann wiederum potentielle, Erfolg versprechende Autorinnen und Autoren anlockt. Gleichzeitig ist die leichte Zugänglichkeit eine nicht unerhebliche Schwachstelle des Konzepts: Fehlen Strukturen und eine gewisse Verbindlichkeit sowie Reziprozität in der Nutzung, dann droht das auf nutzergeneriertem Inhalt basierende Konzept zu scheitern, weil auch (oder gerade?) im Web 2.0 die Devise gilt: ‚Der Verein lebt vom Mitmachen‘. Und dennoch kann eine optimistische Prognose lauten: Im Internet wird Literatur zum ‚Breitensport‘. Selbst wenn der Aspekt der Geselligkeit in der Regel im Vordergrund steht, so spielen Wettbewerb, Leistung und Weiterentwicklung hier eine große Rolle, was beispielsweise gerade unter didaktischer Perspektive von Interesse sein kann, etwa weil ein spielerischer Umgang mit Literatur in einem Rahmen ermöglicht wird, der zwar von den Lehrenden gesteuert und kontrolliert wird, von den Lernenden im Austausch mit der ,social community‘ (Schulklasse, Peers) jedoch mitgestaltet und beeinflusst werden kann. Nicht zu vernachlässigen ist dabei auch die motivationale Funktion, die der variablen Handhabung des Öffentlichkeitsgrads solcher Plattformen innewohnt, insofern der geschützte Lern- und Arbeitsraum um einen öffentlichen Raum erweitert werden kann, der Aufmerksamkeit und Anerkennung ermöglicht.

Websites (Stand: 14.08.2012) Autorenecke: www.autorenecke.de Büchereule: www.buechereule.de Carpe Literaturwelt: www.carpe.com/literaturwelt de.rec.buecher: https://groups.google.com/group/de.rec.buecher Das kleine Lesezimmer: www.daskleinelesezimmer.de Dichtung Digital: http://dichtung-digital.de e.journal: Literatur Primär: www.ejournal.at Facebook: www.facebook.com

42

Gesine Boesken

Flickr: www.flickr.com Gedichte: www.gedichte.com Graue Feder: www.graue-feder.de Journal of Computer-Mediated Communication: http://onlinelibrary.wiley.com/journal/10.1111/ (ISSN)1083–6101 Karthause’s Welt: http://karthause.wordpress.com/about Kurzgeschichten.de: www.kurzgeschichten.de Kurzgeschichten und Meer: www.kurzgeschichten-und-meer.de Leselupe: www.leselupe.de Literaturcafé: www.literaturcafe.de Literaturschock: www.literaturschock.de LizzyNet: www.lizzynet.de Märchenbasar: www.maerchenbasar.de Neobooks: www.neobooks.com Netzliteratur.net: www.netzliteratur.net Poetenladen: www.poetenladen.de Poetron: www.poetron-zone.de/poetron.php Poetry: www.poetry.de Projekt Gutenberg.de: http://gutenberg.spiegel.de Readme.cc: www.readme.cc Rezensenten: www.rezensenten.de Romantische Bücherecke: www.romanceforum.de SF-Netzwerk/Buchforum: www.scifinet.org/scifinetboard/forum/146-buch Textpraxis: www.uni-muenster.de/Textpraxis Trans: www.inst.at/trans/index.htm YouTube: www.youtube.com Zeit für die Bombe: http://berkenheger.netzliteratur.net/ouargla/wargla/zeit.htm

Literaturhinweise Boesken, Gesine: Literarisches Handeln im Internet. Schreib- und Leseräume auf Literaturplattformen. Konstanz 2010. Döring, Nicola: Sozialpsychologie des Internet. Die Bedeutung des Internet für Kommunikationsprozesse, Identitäten, soziale Beziehungen und Gruppen. 2. Aufl. Göttingen 2003. Schmidt, Jan: Das neue Netz. Merkmale, Praktiken und Folgen des Web 2.0. Konstanz 2009. Winko, Simone: „Am Rande des Literaturbetriebs: Digitale Literatur im Internet“. In: Heinz Ludwig Arnold und Matthias Beilein (Hg.): Literaturbetrieb in Deutschland. 3. Aufl., Neufassung. München 2009, S. 292–303.

Karin S. Wozonig

Literaturkritik im Medienwechsel Die Beschäftigung mit dem Einfluss von Digitalisierung1 auf Literatur führt auch zu der Frage, wie sich die Literaturkritik durch den Medienwechsel verändert. Dass es eine deutlich wahrnehmbare Veränderung der Positionierung und der gesellschaftlichen Relevanz von Literaturkritik durch digitale (für die Verbreitung via Internet geschriebene) und digitalisierte (für ein Printmedium verfasste und ins Netz gestellte) Literaturkritiken gibt, ist evident. Die professionelle Literaturkritik verändert sich einerseits durch Online-Angebote von Printprodukten und andererseits durch die Möglichkeiten der Teilnahme von Laienkritiker/innen im Internet, die Laienkritiken und Leserrezensionen2 in Konkurrenz zur herkömmlichen Literaturkritik produzieren. An den Wandel knüpfen sich Detailfragen, von denen viele zum heutigen Zeitpunkt noch nicht beantwortet werden können. Noch können wir z. B. nicht absehen, ob die Literaturkritik im gedruckten Feuilleton durch die Digitalisierung abgeschafft, ersetzt wird. Auch die Etablierung von Plattformen für professionelle Literaturkritik im Internet ist nicht abgeschlossen, es lässt sich noch nicht systematisch darstellen, welche Regeln aus dem Offlinebereich dort weiterhin gelten werden. Es lässt sich zwar konstatieren, dass durch die ausgewiesenen Orte der digitalen Literaturkritik Formen des Schreibens über Literatur entstehen, die sich von vorgängigen analogen Diskursen und vom Gespräch herleiten, ein abschließender Befund darüber, welche Konventionen der professionellen Literaturkritik in die Leser- oder Laienkritiken dauerhaft übernommen werden, ist jedoch nicht möglich. Technische Fragen und kommerzielle Überlegungen sowie Aspekte der medialen Selbstdarstellung sind bei der Frage nach Literatur und Digitalisierung relevant.

1 Hier verstanden als Verlagerung von Diskursen von analogen in digitale Medien und als Neuschaffung von digitalen Diskursen. 2 Urban (Urban, Evelin Alexandra: Literaturkritik für das Internet. Marburg 2007) bietet die praktische Unterscheidung zwischen Laienrezension und Bücherbewertung an, ich habe mich aus noch zu erläuternden Gründen dafür entschieden, von Leser- bzw. Kundenrezension zu schreiben, selbst wenn ein Text keine kritische Besprechung im engeren Sinn darstellt.

44

Karin S. Wozonig

1 Präliminarien Grundsätzliche Fragen zur journalistischen Literaturkritik, die als Rezension von Neuerscheinungen hier im Mittelpunkt steht, haben sich über die Jahrhunderte offensichtlich nur wenig verändert.3 Schon in der Zeit der Aufklärung, in der die Beurteilung von Literatur dazu diente, vernünftige Regeln über das Schöne aufzustellen, zeigte sich eine Schwierigkeit, die durch die Subjektivität des Geschmacks entsteht und die die Selbstreflexion der Literaturkritik seither begleitet: Der Kritiker hat über seine Privatmeinung hinausgehend zu einem allgemeingültigen Urteil zu finden, denn nur das ist sozial relevant und begründet das in dieser Zeit entstehende Spezialistentum (die Professionalisierung) des Kritikers. Neben der Feststellung der Regelhaftigkeit des literarischen Werks wird später auch die Bewertung seines Innovationscharakters zur Aufgabe der professionellen Kritik. Im Laufe des 19. Jahrhunderts trennt sich die anfängliche Einheit von Schriftsteller und Kritiker (im deutschen Sprachraum verkörpert z. B. durch G. E. Lessing, F. Schlegel oder H. Heinrich) und durch neue Publikationsorte entsteht die journalistische Literaturkritik. Das Feuilleton, ab ca. 1830 Bestandteil der ersten massenhaft produzierten Zeitungen, führt zur Entstehung des Berufs (Literatur-) Kritiker. Um in der ausdifferenzierten Gesellschaft als Literaturkritiker bestehen zu können, gilt es von Anfang an, Kritik als gesellschaftlich und zunehmend auch wirtschaftlich relevanten Spezialdiskurs zu verorten. Die Sprache der Literaturkritik folgt einerseits den journalistischen Vorgaben und grenzt sich andererseits vom Diskurs der Literaturwissenschaft ab, z. B. durch eine Sprachkunst, die sich der Literatur annähert. Die Auffassung, dass Literaturkritik ein Bestandteil der Literatur sei, hat eine lange Tradition (Friedrich Schlegel: „Poesie kann nur durch Poesie kritisiert werden.“) und lebt in dem Anspruch der „Gnostiker“4 weiter, Literaturkritik sei eine „schwierige Kunst.“5 Seit der Mitte des 20. Jahrhunderts wird von der professionellen Literaturkritik aus den eigenen Reihen eine stärkere Berücksichtigung des Publikumsgeschmacks, sozusagen ein Einbeziehen der Laienleser gefordert. Das sollte durch kritische Besprechungen von unterhaltsamer und lebenszugewandter Literatur geschehen.6 Auf diesem Wege findet die

3 Aus der Menge an Literatur zur Geschichte der Literaturkritik seien hervorgehoben: Literaturkritik. Geschichte – Theorie – Praxis. Hg. von Rainer Baasner u. Thomas Anz. München 2004; Pfohlmann, Oliver: Kleines Lexikon der Literaturkritik. Marburg 2005. 4 Vgl. Winkels, Hubert: „Emphatiker und Gnostiker.“ In: Die Zeit, 30.03.2006. Wiederabdruck in: Texte zur Theorie der Literaturkritik. Hg. v. Sascha Michel. Stuttgart 2008, S. 297 f. 5 Ina Hartwig in der Frankfurter Rundschau, 04.04.2006, zitiert in Texte zur Literaturkritik, S. 298. 6 Vgl. z. B. Wittstock, Uwe: Leselust. Wie unterhaltsam ist die neue deutsche Literatur? Ein Essay. München 1995.

Literaturkritik im Medienwechsel

45

Meinung von Leserinnen und Lesern sozusagen Eingang in die professionelle Literaturkritik,7 zur aktiven Beteiligung von Laien am literaturkritischen Diskurs kommt es aber erst durch die einfachen Publikationsmöglichkeiten im Internet. Erst durch die Digitalisierung wird Literaturkritik in dem Maße zum Betätigungsfeld von Laien wie es Literatur ist – Stichwort ,self publishing‘ (siehe den Beitrag von Wolfgang Straub in diesem Band). Dass die kleine Form, die Kurzrezension gegenüber der ausführlich-feuilletonistischen Literaturkritik an Bedeutung zunehmen würde, war bereits vor Durchsetzung des Internet deutlich erkennbar.8 Der Platz, der in Printmedien für Rezensionen bereit steht, nimmt seit längerer Zeit ab, Literatursendungen in Radio und Fernsehen bedienen sich häufig der Form der Kurzrezension. Diese beobachtbare Veränderung der professionellen Literaturkritik wird von Literaturjournalist/innen und von Literaturwissenschaftler/innen öffentlich diskutiert – immerhin betrifft sie ihre Arbeitsbedingungen. Kritik ist immer auch Gegenstand der kritischen Überprüfung und von Überlegungen zu ihrem Verfall und Untergang. Entwicklungen und krisenhafte Erscheinungen professioneller Literaturkritik sind als Bestandteile des Literaturbetriebs gut erforscht, und auch das Phänomen der Laienkritik im jüngsten Massenmedium, dem Internet, hat vereinzelt Untersuchungen hervorgebracht. Entsprechend der Ausdehnung und der Dynamik des Phänomens nehmen Analysen zur Literaturkritik durch nicht-professionelle Leser vor allem medientheoretische und wirtschaftliche Aspekte in den Blick, die Rückkoppelung mit dem Literatursystem und Fragen einer eigenständigen Poetologie können nur in sehr kleinen Ausschnitten behandelt werden, von denen keine repräsentativen Aussagen abgeleitet werden können. Weder Literaturwissenschaftler/innen noch professionelle Literaturkritiker/innen können allgemein gültige Aussagen darüber machen, wie sich Laienkritiken im Internet auf die Wahrnehmung von Literatur, den Kanon und das Selbstverständnis von Rezipient/innen und Autor/innen auswirken – eine Folge der komplexen Dynamik des Mediums, die (noch) nicht abgeschlossen ist. Erfassbar sind hingegen quantifizierbare kommerzielle Wirkungen, Untersuchungen zu Buchbesprechungen als Kaufempfehlungen lassen in einem bestimmten Umfang Schlussfolgerungen auf allgemeine Marktmechanismen in Bezug auf die (für den Verkauf über das Internet besonders gut geeignete) Ware Buch zu.

7 Der professionelle Literaturkritiker hat den journalistischen Anspruch, dem Interesse ihrer Leser/innen zu entsprechen, die Einschätzung der Erwartung des Publikums ist jedoch sehr schwierig. (Vgl. Neuhaus, Stefan: Literaturvermittlung. Wien, Konstanz 2009. S. 229). 8 Vgl. Anz, Thomas: „Theorien und Analysen zur Literaturkritik und zur Wertung“. In: Literaturkritik. Geschichte – Theorie – Praxis. S. 194–219.

46

Karin S. Wozonig

2 Fragen der Autorschaft Ende der 1990er Jahre schwappte die Literaturkritik ins Internet über, und zwar die professionelle Literaturkritik. Für den Druck geschriebene Texte wurden digitalisiert und standen online zur Verfügung. Sehr bald waren aber auch die ersten Laienkritiken9 zu finden und wurden von professionellen Literaturkritiker/innen als Verfallszeichen gewertet. Bei der weiteren Entwicklung und bis heute machen viele, die Laienkritik kritisieren, keinen Unterschied zwischen ausführlichen, fundierten Buchbesprechungen von dilettierenden Leser/innen einerseits und Kaufempfehlungen, die nicht einmal die Kriterien der Kürzestrezension erfüllen andererseits. Von Anfang an gilt: Bedrohlich ist nicht die TextKonkurrenz, sondern die Person des Schreibers/der Schreiberin. Profis fürchten, ihre Autorität an Laien zu verlieren. Daher gilt es bei einer Analyse der Literaturkritik, Probleme der Autorschaft im Kontext des Internets, besonders aber im Web 2.0, zu erläutern. Durch die einfache Publikationsmöglichkeit im Internet wird jede/r Leser/in zum/zur potentiellen Literaturkritiker/in. Als in den 1990er Jahren die ersten Leserrezensionen10 auftauchten, war noch nicht absehbar, dass sich aus begeisterten oder empörten Leserstimmen ein alternativer Diskurs über Bücher in mehr oder weniger lose organisierten Lesergruppen ergeben würde. Die Wortwahl des Buchverkäufers Amazon11 zeigt, dass die Kundenrezension ursprünglich ausschließlich als Hilfestellung bei der Kaufentscheidung gedacht war: „Wir sind stolz auf unsere passionierten Kundenrezensenten und danken Ihnen für die Zeit und Energie, die Sie aufwenden, um anderen Amazon-Kunden eine Hilfestellung zu geben.“12 Das unterscheidet die Kundenrezension deutlich von der professionellen Literaturkritik, die zwar möglicherweise Bücher in den Publikationskontext stellt und Empfehlungen ausspricht, bei der aber doch die individuelle Urteilsbildung und die Vermittlerfunktion im Zentrum steht und – so ist zu vermuten – nicht die Kaufempfehlung.

9 Ich verwende den Begriff „Laie“ in seiner Bedeutung von „Nichtfachmann/Nichtfachfrau“. 10 Selbstverständlich sind auch professionelle Literaturkritiker Leser und schreiben daher „Leserkritiken“, im Zusammenhang mit der Laienkritik im Internet hat sich aber mittlerweile der Begriff „Leserkritiker“ in der Bedeutung „Personen, die nicht beruflich im Literaturbetrieb tätig sind“ (Rokosz, Anna: Literaturkritik und ihre Wirkung. Zwischen Bestsellerlisten und Laienrezensionen. Marburg 2009, S. 36) durchgesetzt. 11 … der fast immer, wenn es um Laienkritik im Internet geht, als Paradebeispiel herhalten muss, so auch im vorliegenden Beitrag. 12 amazon.de Rezensionsrichtlinien: www.amazon.de/gp/help/customer/display.html/ ref=hp_rel_topic?ie=UTF8&nodeId=3471171 (Stand: 15.08.2012).

Literaturkritik im Medienwechsel

47

Die Kontinuität von Buchbewertungen und das Selbstverständnis der Kundenrezensenten auf Verkaufsplattformen entwickelten sich erst langsam mit der Verbesserung der technischen Möglichkeiten des Publizierens. Je einfacher das Publizieren und das Antworten auf Publiziertes sich gestaltet, desto wahrscheinlicher ist es, dass die User auf eine Website zurückkehren und Reaktionen auf ein von ihnen publiziertes Urteil wahrnehmen. Wer sich über das Echo auf die eigene Meinung freut, wird in der Möglichkeit der Bewertung von Bewertungen einen Ansporn sehen, weiterzumachen. So ist zu erklären, dass es bei Amazon Rezensent/innen gibt, die weit mehr Bücher „besprechen“, als sie selbst mit einer ausgefeilten Schnelllesetechnik und unter der Annahme, sie würden nichts anderes tun als zu lesen und darüber zu schreiben, bewältigen könnten. Eine Studie aus dem Jahr 2010 stellt fest, dass es allein auf der deutschen Website von Amazon mehr als 150.000 Kundenrezensent/innen gibt.13 Das bedeutet jedoch nicht, dass hinter jeder unter einem bestimmten Nickname oder auch unter dem „wirklichen“ Namen verfassten Rezension ein Individuum steht. Bei der Frage der Autorschaft und der Kategorisierung von professionellen Literaturkritiker/innen und Laienkritiker/innen stellt uns das Internet vor eine unlösbare Aufgabe. Wer hinter einem Buchtitel, womöglich noch als „Gast“ oder anonym, ein Smiley setzt oder einfach nur den Button „gefällt mir“ anklickt, hat noch nicht bewiesen, dass er ein fundiertes Urteil über das Buch abgeben kann, müsste also aus der Kategorie Laienkritiker/in ausgeschlossen werden. Dieselbe Person könnte aber einen Klick weiter eine Rezension oder einen Essay zu einem anderen oder auch zum gleichen Buch geschrieben haben – über Autorschaft und Autorität ist auf dieser Basis nicht zu verhandeln. Autorschaft im Internet ist immer nur kasuistisch zu betrachten. Alternativ zu „Laienkritiker“ wird gelegentlich zur Definition von ,usergenerated content‘ die Bezeichnung „Alltagskritiker“ verwendet,14 was aber nicht berücksichtigt, dass Kritik gerade für professionelle Kritiker ein Alltagsgeschäft ist, wohingegen Laienkritiker/innen wahrscheinlich acht Stunden werktags mit anderen Dingen zubringen. Wollte man individuelle Autor/innen hinter den anonymen oder auch gezeichneten Rezensionen im Internet vermuten, wäre auch noch eine Kategorie der semiprofessionellen Kritiker/innen einzuführen, in die z. B. Buchhändlerinnen und Bibliothekare zu zählen wären. Abgesehen davon, dass man es einem Nickname im Internet nicht ansieht, wer dahinter steht und welchen Beruf diese Person ausübt, kann auch der Angestellte einer 13 Vgl. Belz Nadine, Doreen Fräßdorf u. Felix Köther: Kunde, König, Kritiker, 2010. www. literaturkritik.de/public/rezension.php?rez_id=13759&ausgabe=201001 (Stand: 15.08.2012). 14 Vgl. z. B. Staude, Sylvia: Nur das Beste, 2010. www.fr-online.de/kultur/spezials/timesmager/nur-das-beste/-/1838190/4449920/-/index.html (Stand: 15.08.2012).

48

Karin S. Wozonig

Fachbuchhandlung für naturwissenschaftliche Literatur auf einem Internetportal sein Urteil über einen Schwedenkrimi abgeben und wechselte damit in die Kategorie Laienkritiker. Weniger problematisch ist die Definition der professionellen Kritiker/innen, da es zu ihrem Beruf gehört, mit ihrem Namen für ihr Urteil zu stehen, von der „personal zugerechnete Reputation“ zu profitieren.15 Ein Wechsel von der Kategorie Profi in die Kategorie Laie ist auf der Sachebene durchaus möglich, denn auch umfassend gebildete Literaturkritiker/innen können nicht für alles Fachleute sein. Allerdings gehen literaturwissenschaftlich oder journalistisch vorgebildete Leser/innen üblicherweise an jeden Text professionell heran (oft zum eigenen Bedauern, wird unvoreingenommenes Lesen dadurch doch unmöglich), denn es ist für die meisten von ihnen praktisch unmöglich, das kritische Handwerkszeug zu vergessen. Damit wird klar, dass eine Festlegung von Autor/innenkategorien für das Internet nur unter ganz bestimmten Umständen möglich ist, in denen zuverlässige Informationen über die User vorhanden sind. Für einen allgemeinen Überblick über den Zustand der Literaturkritik im Internet, wie er im vorliegenden Beitrag angestrebt ist, muss es genügen, Laienkritiker/innen als jene zu bezeichnen, die nicht erwiesenermaßen Berufskritiker/innen sind, auch mit der Unschärfe, dass sehr oft unklar bleibt, wer sich hinter einem Namen verbirgt. Und auch die Definition des Gegenstandes „Literaturkritik“ ist im Zusammenhang mit den Äußerungsformen im Internet nicht eindeutig möglich. Zwischen Buchbewertungen mit „emotionaler Investition“ und Rezensionen verlaufen keine deutlichen Grenzen, ebenso wenig wie zwischen Laienkritik und Expertenmeinung. Laienkritik im hier verwendeten Sinn entspricht den Mindestanforderungen an Kritik, liefert zur Bewertung also auch eine nachvollziehbare Begründung und speist sich aus der Kenntnis des kritisierten Texts und seines Kontexts. Im Internet ist eine unüberschaubare Anzahl von Lesermeinungen zu finden, die dieser Definition von Literaturkritik nicht entsprechen, die aber bei mediengerechter Ausblendung von Autorschaft als kollektives Unternehmen durchaus zu Rezensionen „zusammengelesen“ werden können. Der Umgang mit dem einzelnen (kritischen) Text wurde durch Digitalisierung verändert (Stichwort Hypertext). Im Internet wird das z. B. durch ein Revival des Kommentars16 deutlich: Ähnlich wie in einer früheren philologischen Praxis, die zur Sicherung von kanonischen Texten verwendet wurde, ermöglichen Va-

15 Vgl. Berlemann, Dominic: Wertvolle Werke. Reputation im Literatursystem. Bielefeld 2011, S. 137 f. 16 Auf die Parallele weist hin: Gumbrecht, Hans Ulrich: Die Macht der Philologie. Frankfurt/ Main 2003. Vgl. auch Dünne, Jörg: „Weblogs: Verdichtung durch Kommentar.“ In: PhiN (2004) Beiheft 2. Internet und digitale Medien in der Romanistik: Theorie – Ästhetik – Praxis. Hg. von

Literaturkritik im Medienwechsel

49

rianten der Kommentierung im Internet das „Hineinschreiben“ in einen Text. Das bedeutet: Ursprungstext und Kommentar werden nicht als getrennte Texte wahrgenommen (zu denen sie im analogen Bereich im Laufe der Institutionalisierung der Philologie wurden, z. B. als separater Anhang zum Haupttext). Mediengerecht gestaltete Literaturkritik im Internet ermöglicht den Dialog mit dem Kritiker durch eine Kommentarfunktion oder durch Verlinkung auf andere Kritiken, die Textteile aus anderen Quellen einbetten. Lesermeinungen, besonders wenn sie sich auf Wohlfühlaussagen beschränken („ich finde das Buch super spannend“), erzeugen dabei oft reflexartig Zustimmung oder Ablehnung, die als kollektiv entstandener Text gelesen durchaus als eine Sonderform der Rezension gelten kann. Auf lovelybooks.de oder bei Amazon finden sich Aufforderungen anderer User zur Begründung oberflächlicher Leseeindrücke, denen der Schreiber der ersten Bewertung nachkommt, oft auch assistiert von anderen Leser/innen. So ergibt sich ein Austausch über ein Buch, der von einer ersten oberflächlichen Einschätzung, die keinesfalls als Literaturkritik gelten könnte, bis zur detaillierten Begründung durch einen oder mehrere Autoren mit Hinweis auf Aufbau, Figurenzeichnung und Kontextualisierung gehen kann. Diese kollektiven Bewertungen ähneln dem Austausch in Lesekreisen, literarischen Salons oder Literaturveranstaltungen mit Publikumsbeteiligung. Die Konversationsform wird durch die Publikation im Internet – durch ihre Verschriftlichung – gestützt. Diese Nähe der Werturteile zum gesprochenen Wort (Pseudomündlichkeit) kann durchaus skeptisch gesehen werden: „Das Gros der Kommentare gleicht spontanen Smalltalk-Schnipseln aus dem Büroflur oder der Straße, jetzt vor einem Millionenpublikum. Für 5000 Kilobytes pro Sekunde ist man kurz berühmt. Argumente sind nebensächlich.“17 Die Selektions- oder Zusammenleseleistung muss der User selbst erbringen, denn „wer fundierte Kritiken sucht, sieht aufgrund dieses Wustes aus Bewertungslust und (Selbst-)Darstellungsehrgeiz den Wald vor lauter Bäumen nicht mehr.“18 Von dieser Sonderform der Literaturkritik sind bedeutend mehr Spuren im Internet vorhanden als von der klassischen, fundierten und zeitintensiven Variante. Diese wird nur von wenigen Medien angemessen bezahlt und Berufs-Kritiker/innen, zu deren Selbstverständnis es gehört, dass ihre Textproduktion dem literarischen Diskurs beizuordnen ist, lassen sich nicht mit einer Popularität – neben der Aufmerksamkeit eine

Jörg Dünne, Dietrich Scholler u. Thomas Stöber. S. 35–65 (online-Version: www.fu-berlin.de/ phin/beiheft2/b2t04.htm, Stand: 15.08.2012). 17 Hugendick, David: Jeder spielt Reich-Ranicki, 2008. www.zeit.de/2008/17/KALaienliteraturkr itik/komplettansicht (Stand: 15.08.2012). 18 Schwalm, Simone: Selbstprofilierung im Internet durch Literaturkritik, 2010. www.literaturkritik.de/public/rezension.php?rez_id=15100 (Stand: 15.08.2012).

50

Karin S. Wozonig

gängige Web-2.0-Währung – abspeisen, die sich aus positiven Bewertungen und affirmativen Kommentaren ablesen lässt. Eine im Zusammenhang mit Autorschaft und Autorität interessante Entwicklung besteht darin, dass sich durch die Laienkritik eine längst verloren geglaubte Nähe von Kunst und (Kritiker-)Leben ergibt. Die Distanz zum kritisierten Werk und seinem Verfasser/seiner Verfasserin ist in der Laienkritik deutlich geringer als in der professionellen Kritik. Der Laienkritiker sieht sich mit seinem kritisierten Objekt und seinem Schöpfer auf Augenhöhe. Die Kritikerin Ina Hartwig sagt in ihrer Dankesrede zur Verleihung des Alfred-Kerr-Preises über ihre Zunft: „[D]en Übermut, mit den Dichtern auf gleicher Höhe zu operieren, bringen wir nicht auf.“19 Damit ist ein Unterscheidungsmerkmal von Laienkritik und professioneller Literaturkritik benannt. Was die beiden Formen nicht von einander unterscheidet, ist das Fundament des Urteils und die Begeisterung für den Gegenstand – wenn nicht für das jeweils besprochene Buch so doch für die Literatur als solche. Das Fundament besteht aus einer Einsicht in den Gehalt (im Sinn von Ausdruck der spezifischen Auffassung von Welt, Leben, Mensch, Gesellschaft etc. im Werk) und die Machart des kritisierten Texts. Da Literaturkritik lehr- und lernbar ist und da Kritiken mit zunehmender Lektüreerfahrung ihres Schreibers besser werden, werden Laienkritiker, die regelmäßig und häufig online publizieren und Reaktionen ernten, auf die sie eingehen können, im Laufe der Zeit immer bessere Texte liefern.20 Die im Internet beobachtete „Rezensionswut“, hat den Effekt, dass begeisterte Laienkritiker/ innen durch ,trial and error‘ ihre Fähigkeiten, fundierte Kritiken zu schreiben, ständig verbessern. Einerseits steht es den Laienrezensent/innen offen, von den Profis, deren Texte im Netz leicht zu finden sind, zu lernen. Andererseits ist es der Austausch mit anderen Laien, der die Schreibkompetenz erhöht. Der oben erwähnte kollektive Schreibprozess im Rahmen dessen sich die Argumentation immer weiter vertieft, hat das Zeug, zu einer Debatte zu werden, „die an Lebendigkeit jede Fernseh-Kritikerrunde übertrifft.“21 Der Gesprächscharakter, die Kommentare, die Debatte über ihre Urteile und Argumente stoßen für viele Laienkritiker auch einen Lernprozess an, der einem professionellen Schreibtraining ähnelt. Es ist das Üben und Vergleichen mit dem das kritische Instrumentarium verfeinert wird, und das gilt auch für Laienkritiker/innen. Anne Rokosz zeigt in ihrem Vergleich von Leserrezensionen, dass in ihnen eine Kommunika-

19 Hartwig, Ina: „Die Kritik darf nicht aufhören“. In: Die Tageszeitung, 26./27.03.2011, S. 27. 20 Dasselbe gilt für den professionellen Bereich, so war z. B. die (Online-)Zeitschrift literaturkritik.de in ihren Anfängen ein Übungsfeld für Studierende der Universität Marburg. 21 Pfohlmann, Oliver: Albtraum oder Stimmenvielfalt? Die Literaturkritik im Zeitalter des Internets, 2004. www.nzz.ch/2004/04/06/fe/article9icuq_1.237898.html (Stand: 15.08.2012).

Literaturkritik im Medienwechsel

51

tion stattfindet, die einem zeitversetzten Gespräch ähnelt.22 „Diese Ähnlichkeit mit einer Gesprächsform oder sogar mit einem Dialog wird durch die informelle Sprache der untersuchten Beispiele belegt.“23 Der Lernprozess, der durch das Dialogische und Pseudomündliche des Mediums angestoßen wird, führt dazu, dass Leserrezensionen häufiger entweder emotional oder intellektuell fundiert ausfallen.24 Mit der Pseudomündlichkeit geht auch eine emotionale Komponente einher, die in der immerwährenden Diskussion um die zulässige Subjektivität des kritischen Urteils vor einigen Jahren in die Gegensätze „Gnostiker“ und „Emphatiker“ gefasst wurde. Der Kritiker Hubert Winkels konstatierte die Zunahme der „personalisierenden, emotionalisierenden Rede“25 über Literatur in seiner Zunft, die von den Emphatikern verbreitet würde, während die Gnostiker sich auf Text und Kontext konzentrierten. „Winkels lässt keinen Zweifel daran welcher Typus die seriöse Form von Literaturkritik verkörpert […].“26 An dieser gut dokumentierten Diskussion lässt sich ablesen, dass es auch in der professionellen Literaturkritik Stimmen für eine Subjektivismus gibt, wobei aber zumeist von einem generellen Subjektivismus ausgegangen wird, der (z. B. mit der Kritikerpersönlichkeit, seinen Vorlieben und Vorkenntnissen) begründet werden muss. Gefühlsäußerungen und Gemütsbewegungen stehen in der professionellen Literaturkritik im Konnex mit kognitiven Prozessen, gestritten wird um die Anteile, die dabei den Emotionen zugemessen werden. Dass die Laienkritik dagegen die emotionale Komponente deutlich bevorzugt, wird von Usern oft als ihr Vorteil und Pluspunkt gesehen. Repräsentativ für diese Einschätzung, die häufig in von der Kritik an der Laienkritik angestoßenen Diskussionen zu finden ist, ist die Aussage von Daniela Ecker, Betreiberin von die-leselust.de, einem Rezensionsforum mit Lesekreis:

22 Vgl. Rokosz, Literaturkritik, Kap 3.1. Die Beobachtung der Pseudomündlichkeit übernehme ich im Folgenden für den Bereich der Laienkritik, die medienlinguistische Diskussion über Mündlichkeit und Schriftlichkeit im Medium Internet bleibt hier ausgeklammert. Vgl. auch „,Das schnelle, dialogische Schreiben ist eine ganz neue Erscheinung.‘ Die Germanistikprofessorin Christa Dürscheid zum Einfluss der elektronischen Kommunikationsmittel auf die Sprache der Jugend (Interview geführt von Urs Bühler)“. In: Neue Zürcher Zeitung, 13.12.2010. 23 Rokosz: Literaturkritik, S. 78. 24 Vgl. Dartmouth College, Press Release, veröffentlicht am 10. Jänner 2005: Dartmouth researcher mines Amazon.com to measure literary tastes, 2005. www.dartmouth.edu/~news/ releases/2005/01/10.html (Stand: 15.08.2012). 25 Sascha Michel: „Einleitung. Hubert Winkels: Emphatiker und Gnostiker.“ In: Michel (Hg.): Texte zur Literaturkritik, S. 297–298, hier S. 297. 26 Michel: „Einleitung“, S. 297.

52

Karin S. Wozonig

Der Autor der Rezension [im klassischen Feuilleton] mag sich damit [mit dem Buch] beschäftigt haben, aber er hat mir eigentlich trotzdem am Ende nicht gesagt: Hat er Spaß dabei gehabt? Hat es ihm gefallen? Hatte er irgendwie Vergnügen dabei? War es ihm eine Qual? Und genau das ist das, was ich eigentlich ein bisschen vermisse.27

Nicht nur die inhaltliche Komponente ist lernbar, auch sprachlich verbessern sich Laienkritiker/innen, die durch Kommentarfunktion und Rezensentenranking darauf hingewiesen werden „that having an opinion is one thing but creating a well-written review is something very different.“28 Dass auch die Kundenrezensionen auf Amazon länger werden, bzw. längere Rezensionen von den Usern besser bewertet werden und ihre Verfasser/innen daher im Ranking höher steigen, kann als Zeichen gesehen werden, dass sich die Laienkritik im Internet zunehmend an der (gedruckten) Form der professionellen Kritik orientiert. Der Prozess der „remediation“ (J. D. Bolter), der Übernahme von Regeln aus einem Medium und ihrer Anpassung für ein anderes, erfolgt in beide Richtungen. Zu den Autor/innen von Literaturkritik im Internet zählen auch jene professionellen Literaturkritiker/innen, die für ihre Textproduktion die technische Anreicherung und die Publikationsgeschwindigkeit des elektronischen Mediums dem Druck vorziehen, ihre eigenen Blogs betreiben oder Mitarbeiter/innen von Rezensionsportalen sind. Auch den Kaufempfehlungen und oberflächlichen Geschmacksurteilen liegt eine ältere Form des Schreibens oder Redens über Literatur zugrunde. Der mündliche Austausch, der Bericht über die Lektüre in Briefen, schulischen Erlebnisberichte oder Referaten gehen der digitalen Äußerung medienhistorisch und biographisch voran. Nicht nur beziehen Laienkritiker/innen Regeln und Machart von professioneller Kritik in ihre Arbeit ein – andernfalls könnten sie sich nicht dagegen abgrenzen, was für die Selbstkonstruktion vieler Laienkritiker wichtig ist –, sondern auch für die Verfasser/innen von digitalen Buchbeurteilungen gilt: Das Schreiben über Literatur wird ,cross media‘ vermittelt, die Medien überschneiden sich. Besonders in Blogs, die soweit das festzustellen ist, meistens von Menschen mit höherer Bildung betrieben werden, ist die Anleihe beim Feuilleton nachweisbar. Viele Blogger sind auch Feuilletonleser und nicht alle verzichten auf die gedruckte Ausgabe ihrer Zeitung oder Wochenzeitung.

27 Zitiert bei Kahlefendt, Nils: Literaturkritik im Netz: Vom neuen Boom eines alten Genres, 2003. www.dradio.de/dlf/sendungen/buechermarkt/165821/drucken (Stand: 15.08.2012). 28 Steiner, Ann: „Private Criticism in the Public Space: Personal writing on literature in readers’ reviews on Amazon“. In: Particip@tions 5 (2008) H. 2 (online-Version: www. participations.org/Volume%205/Issue%202/5_02_steiner.htm, Stand: 15.08.2012).

Literaturkritik im Medienwechsel

53

3 Vertrauen in das Kritikerurteil Ein internetspezfisches Problem, das sich aus der persönlich-unpersönlichen Gestaltung des Mediums ergibt, ist der Vertrauensverlust (bei skeptischen Usern) bzw. eine naive Übertragung von Autorität vom Offline- in das Onlinemedium. Im Zusammenhang mit der Literaturkritik stellt sich die Frage, mit welchem Recht ein User über ein Buch urteilt und ob man dem Urteil trauen kann. Die Anonymität führt dazu, dass die Verbindlichkeit des Urteils, für die der Sprecher mit seinem Namen bürgt, verloren geht. Eine Amazon-typische Kundenrezension ist in wenigen Minuten verfasst und bringt dem Schreiber eventuell prompte Reaktionen, durch die er sich als Urheber einer Meinung, als Autor, wahrgenommen fühlen kann. Mit Literaturkritik (professionell oder laienhaft) hat das nichts zu tun, da diese kritischen und argumentativen Regeln folgt, die eine eingehende Beschäftigung mit dem Gegenstand voraussetzt. Der kritische Ethos, der es verbietet, oberflächlich und ohne Sachkenntnis zu urteilen, wird allerdings nicht beim Germanistik- oder Journalistikstudium erworben, sondern leitet auch viele nichtprofessionelle Kritiker/innen, die das Internet als einfache Publikationsweise für sich entdeckt haben. Zum vergrößerten Schreiberstamm von Literaturkritiken im Internet gehören auch sich selbst rezensierende Autoren. Diese Praxis wird durch die Anonymität bzw. die Verwendung von Nicknames ermöglicht, die in vielen Rezensionsforen üblich ist. Der bekannteste Fall von aufgeflogenen Selbstrezensionen ereignete sich im Jahr 2004, als Amazon Canada aus Versehen die Namen ihrer Kundenrezensenten veröffentlichte. Die Erkenntnis, dass es Autor/innen gibt, die im Internet ihre eigenen Werke positiv besprechen, löste eine Diskussion über Qualitätssicherung aus, historisch bewusste Kommentator/innen des Ereignisses stellten aber schnell klar, dass es sich nicht um ein durch das Internet verursachtes Problem handelt, sondern um eine Begleiterscheinung der Literaturkritik. Mehr literaturkritische Texte bedeuten schlicht auch mehr Fälle von Selbst- und Gefälligkeitsbesprechungen. Ein Fall von Gefälligkeitsrezension, die es auch in die Literaturseiten einiger Zeitungen geschafft hat, ist die 5-Sterne-Besprechung des Buchs Leonard Woolf von Victoria Glendinning (2006) durch ihren Ehemann Kevin O’Sullivan – für den das dann auch die einzige Rezension für Amazon geblieben ist. Eine Kundenrezensentin, die unter diesem Namen nur für diese eine Rezension aktiv wurde, deckte wenige Tage nach O’Sullivans Lob die Familienbande auf und fragte: „Does she [Glendinning] really need him to stick up for her?“29

29 dinahbitch: hilarious. www.amazon.co.uk/review/R200689UY9AI7N (Stand: 15.08.2012).

54

Karin S. Wozonig

Online-Rezensionsorgane kommen oft ganz ohne Redaktionen aus, Verkaufsportale sind nur durch Spam- und Trollfilter geschützt, inhaltliche Qualitätskontrollen wären zu teuer. Die „Skandale“ bei Amazon, die die Manipulierbarkeit der Technik verdeutlichen, werden immer wieder dafür herangezogen, die Qualität von Kundenrezensionen generell zu bezweifeln.30 Die technischen Möglichkeiten, die Amazon zum Marktführer unter den Internetverkäufern gemacht haben, sind aber nicht mehr als genau das: Technik, und sollten nicht überbewertet werden. Ein Beispiel: Eine Funktion, die viel zur Beliebtheit von Amazon beigetragen hat, ist die „Recommendation Engine“ mit dem Hinweis: „Kunden, die diesen Artikel gekauft haben, kauften auch …“, und nach dem Log-in auch vertiefte personalisierte Empfehlungen entsprechend den gespeicherten Such- und Kaufvorgängen gibt. Das kann dazu führen, dass einer Autorin ihr eigenes Buch zum Kauf angeboten wird – die Maschine denkt nicht. Und würde diese Funktion wirklich ernst genommen, wäre das ein sicheres Mittel dafür, dass der potentielle Amazon-Kunde niemals ein neues Genre für sich entdeckt. Wie in allen anderen Bereichen des Internets auch, ist bei der digitalen Literaturkritik die Medienkompetenz der User gefragt. Sie beurteilen die Vertrauenswürdigkeit des Informationsanbieters aufgrund ihrer Erfahrungen mit dem Medium und nützen die technischen Möglichkeiten, selbst zum Teil einer Redaktion zu werden, indem sie Websitebetreiber auf „bedenkliche“ Kommentare aufmerksam machen. Soweit es ökonomische Interessen betrifft, zeigt sich, dass das Web 2.0 über eine erstaunliche „Selbstheilungskraft“ verfügt. Von Marketingabteilungen gesteuerte positive Produktbesprechungen (,fakes‘) sind, soweit sich das messen lässt (und natürlich nur, wenn das Manöver auffliegt), den Verkaufszahlen abträglich. Dass Partizipationskonzepte „in hohem Maße anfällig für Manipulationen“31 sind, stimmt für die virtuelle und die wirkliche Welt. Um den Manipulationen im Netz nicht hilflos ausgeliefert zu sein, bedarf es einer gewissen Medienkompetenz, die auch die Technik hinter den bequemen Features einschließt, und ein wenig Misstrauen. Wer sich darüber wundert, dass Kundenrezensionen bei Amazon nichts mit öffentlicher Meinung zu tun haben, hat eine sehr naive Auffassung davon, was das Internet ist und kann. Der Manipulierbarkeit der Masse gesellt sich – ganz wie in der wirklichen Welt – auch im Netz die Manipulierbarkeit durch vorgespiegelte Autorität zu. Auch

30 Vgl. z. B. Merschmann, Helmut: Guerilla-Marketing bei Amazon, 2007. www.spiegel.de/ netzwelt/web/rezensions-missbrauch-guerilla-marketing-bei-amazon-a-476359.html (Stand: 15.08.2012). 31 Bendel, Oliver: User-generated Nonsense, 2009. www.heise.de/tp/artikel/30/30206/1.html (Stand: 15.08.2012).

Literaturkritik im Medienwechsel

55

hierfür gibt Amazon ein Beispiel: Um die „Produktbeschreibungen“ vertrauenserweckender zu machen, wurde eine „Amazon-Redaktion“ eingeführt, die selbstverständlich nur positive Beurteilungen abgibt – und die es offenbar gar nicht gibt.32 Zur Vertrauensbildung tragen häufig internetspezifische Selbsttechniken bei. Ranglisten aller Art sind Begleiterscheinungen schneller Informationsvermittlung und daher dem Medium Internet angemessen. Wer sich als Literaturkritiker/in in der Münze des Internets, der Aufmerksamkeit, bezahlen lässt und z. B. auf Amazon durch eine Vielzahl von Rezensionen zum „Top-Rezensenten“ aufsteigt, oder wer sich in einem Spezialforum durch häufige Beiträge als Experte für einen Autor/eine Autorin erweist, dessen Urteil wird an Gewicht zunehmen. Anders als im Print-Feuilleton gewinnt der Kritiker/die Kritikerin im Internet an Ansehen und Autorität nicht durch die Zustimmung der „richtigen“, sondern durch die der meisten Leser/innen. Dieser Mechanismus der Masse ist zwar anfällig für Missbrauch, verweist aber dort wo er funktioniert darauf, dass durch die Digitalisierung des Schreibens über Literatur das Interesse an Urteilen und Orientierungshilfen zugenommen hat und auch jene erreicht, die das PrintFeuilleton nicht lesen. Auch bei der rein quantitativen Bewertung von Vertrauenswürdigkeit lernt ein Anbieter wie Amazon dazu: Wurde die Liste der TopRezensenten anfangs ausschließlich aufgrund der Menge der abgelieferten Rezensionen erstellt, so gelten nun die Bewertungen der Kundenrezensionen („x von y Kunden fanden die folgende Rezension hilfreich“) als ausschlaggebend. Das erhöht wahrscheinlich die Qualität der abgelieferten Kundenrezensionen, kann als „sportlicher“ Ansporn33 betrachtet werden und zeigt, dass das von Facebook bekannte „Gefällt-mir-“ und „Freunde-Phänomen“ zu einem wichtigen Bestandteil der Internetkommunikation wurde: Nicht nur oft angeklickt zu werden, sondern auch „beliebt“ zu sein, motiviert dazu, Content beizutragen. Positive Selbstrezensionen sind im Kontext des Internets ein moralisches Problem, verzerren aber das allgemeine Urteil der Leserrezensent/innen über ein Buch nicht. Auf Verkaufsplattformen wird eine Selbstrezension nicht allein stehen bleiben und möglicherweise gerade wegen ihrer positiven Formulierungen Widerspruch hervorrufen. Verrisse sind hingegen sehr gut dazu geeignet, die Laienrezension von einer professionellen Rezension zu unterscheiden. Ein guter Verriss bleibt lesenswert, und es gehört zum Vertrauensvorsprung, den die professionelle Literaturkritik genießt, dass davon ausgegangen wird, eine nega32 Vgl. Formella Margarete, Kim Krall u. Janna Specken: Mit fremden Federn, in Literaturkritik.de, 1. Januar 2010. „Literaturjournalismus bei Amazon und Co.“ www.literaturkritik.de/public/ rezension.php?rez_id=13795&ausgabe=201001 (Stand: 15.08.2012). 33 Vgl. Belz u. a.: „Kunde, König, Kritiker“.

56

Karin S. Wozonig

tive Rezension sei nicht mit dem Ziel verfasst, den Leser/die Leserin vom Kauf des Buchs abzuhalten. Selbstverständlich geht aber auch die Unabhängigkeit des professionellen Kritikers nur bis zu seinen persönlichen Vorlieben, der Unterschied zum Laienkritiker besteht im besten Fall jedoch in der Sichtbarmachung von Loyalitäten. „Laienkritiker“ oder „Leserrezensenten“, die Mitarbeiter von Marketingabteilungen in Verlagen oder freie Texter sind, sind auf den ersten Blick nicht von unabhängigen Laienkritikern und Leserrezensenten zu unterscheiden. Generell gilt: Abhängigkeiten bleiben im Internet verborgen und sind zu komplex, als dass sie eine schnelle Entscheidung über die Vertrauenswürdigkeit eines Urteils ermöglichen würden. Ein Phänomen der Laienkritik, das ihre Vertrauenswürdigkeit ständig untergräbt, ist die Häufigkeit von Plagiaten. Bei oberflächlichen Geschmacksurteilen ergibt sich möglicherweise zufällig Wortgleichheit, bei gezieltem Guerillamarketing wird hingegen das Copy-Paste-Verfahren schon aus Zeitgründen angewandt.34 Anders verhält es sich hingegen mit Gruppenbildungen. Das Vertrauen in eine Leserrezension erhöht sich, wenn die Laienkritikerin betont, dass sie Kritiken von anderen Usern kennt und diese zitiert. Für Laienrezensent/innen ist Lesen im besten Fall ein Freizeitvergnügen mit gesellschaftlichem Mehrwert, der darin besteht, das Vergnügen mit anderen durch Leseempfehlungen zu teilen.

4 Die Wirkung von Literaturkritik im WWW Die durch das Internet vereinfachte Zugänglichkeit von Literaturkritiken führt dazu, dass kritische Bewertungen von Büchern miteinander in Konkurrenz stehen und die Abhängigkeit von den Hauskritikern von Printpublikationen abnimmt. Kritiken unterschiedlicher Provenienz stehen im Internet gleichrangig neben einander und die der professionellen Kritiker finden sich neben den Besprechungen von Laien. Auch die technische Möglichkeit, kritische Texte zu kommentieren und zu verlinken, ist ein internetspezifisches Phänomen, das sich auf die Literaturkritik auswirkt. Das Nebeneinander unterschiedlicher Literaturkritiken relativiert auch, so ist zu beobachten, die einzelne negative Kritik. Entsprechend der Aufmerksamkeitsökonomie des Mediums ist es für Verlage und Buchhandelsinteressen nicht gefährlich, mittelmäßige oder ablehnende 34 Vgl. Merschmann, Helmut: „Guerilla-Marketing bei Amazon“; Roentgen, Hans Peter: Der diskrete Charme des Chaos. Was man von Amazon-Rezensionen erwarten darf – und was nicht, in Literaturkritik.de, 4. April 2007. „Literaturvermittlung im Internet“. www.literaturkritik.de/ public/rezension.php?rez_id=10631 (Stand: 15.08.2012).

Literaturkritik im Medienwechsel

57

Bewertungen zu einem Buch im Internet zu veröffentlichen, da davon auszugehen ist, dass sie von guten, zustimmenden begleitet werden. Die Orientierungsfunktion, die die Literaturseiten im gedruckten Feuilleton haben, ist dadurch nicht ausgehebelt, ein digitaler oder digitalisierter Verriss bleibt weit hinter der Wirkung eines gedruckten zurück. Die beobachtbare Wirksamkeit ist hier aber – wie generell im Internet – wieder vorzüglich eine ökonomische. Verlage und Buchhändler sind von der Wahrnehmung ihrer Produkte ,cross media‘ abhängig, nicht aber davon, dass diese Wahrnehmung durch qualitativ hochwertige und daher zeitaufwändige Literaturkritik erzeugt wird, die das Buch auch noch empfehlen. Ann Steiner fasst die Vorteile von Kaufempfehlungen für Amazon zusammen: The reviews on Amazon have one purpose for the company – to sell more books. Amazon provides the option to write reviews because it is a cheap and efficient way to provide information on its products. It is convenient to let one’s customers do the editorial work rather than having one’s staff do it. The reviews also allow Amazon to appear to be a customer-oriented, non-commercial site. The writing done by customers does not look like marketing; instead it is the real thing – authentic readers commenting on books they have actually read.35

Laienkritiker/innen sehen sich üblicherweise nicht dazu berufen, anderen Leser/ innen Orientierung im überbordenden Angebot zu geben, sondern übereinstimmende Interessen stellen (eher nebenbei und zufällig) einen Lektüreleitfaden her. Da in der letzten Dekade nicht nur die Menge an digitaler und digitalisierter Literaturkritik zugenommen hat, sondern auch die Menge an gedruckter, digitaler oder digitalisierter Literatur, hat die Bedeutung der Orientierungsfunktion professioneller Literaturkritik eher zu- als abgenommen. Als der Literaturwissenschaftler und Literaturkritiker John Sutherland befand, es komme zu „degradation of literary taste“ durch „web-reviewing (whether independent bloggery, or commercially hosted),“36 blieben die empörten Reaktion in der Blogsphäre nicht aus, z. B. von der zu diesem Zeitpunkt eifrig bloggenden Autorin Susan Hill, deren literarische Karriere 1971 mit dem Somerset Maugham Award für I’m the King of the Castle begann. In dieser Diskussion zeigte sich deutlich, dass es zur Zeit bei der Bewertung von digitaler und digitalisierter Literaturkritik vor allem um Standards und einen elitären Anspruch von professioneller Literaturkritik

35 Steiner, Ann: Private Criticism in the Public Space. 36 Sutherland, John: john sutherland IS SHOCKED BY THE STATE OF book-Reviewing on the web, 2006. www.telegraph.co.uk/culture/books/3656629/john-sutherland-IS-SHOCKED-BYTHE-STATE-OF-book-Reviewing-on-the-web.html (Stand: 15.08.2012).

58

Karin S. Wozonig

auf der einen Seite und um das Recht auf freie Meinungsäußerung von Laien auf der anderen Seite geht. Nun ist das erlernte kritische Sprechen und Schreiben über Literatur nicht mit emotionalen Äußerungen eines Freizeitlesers zu vergleichen und für jeden, der Kritik als Handwerkszeug erlernt oder es sich selbst beigebracht hat, sind die Unterschiede evident: Der kognitive Prozess des Verstehens und Beurteilens setzt eine Beschäftigung mit dem Werk voraus, die über die vergnüglich-oberflächliche Lektüre hinausgeht, das argumentative Schreiben unterscheidet sich vom Protokoll erster Leseeindrücke grundlegend. Dass sich (elitäre) fundierte Urteilsfindung und Argumentation vordergründig in Konkurrenz mit unbegründeter Geschmacksäußerungen begeben muss, hat ausschließlich mit der Frage des Einflusses auf Verkaufszahlen zu tun. Gerade dabei besteht jedoch (noch) eine Trennung der Gegenstandsbereiche, die dazu führt, dass sich die beiden Kritikformen kaum jemals berühren. Zu Recht sind m. E. jedoch die Laienkritiker/innen der zahlreichen Literaturblogs, elektronischen Literaturmagazine und Rezensionsorgane im Netz, die keine kommerzielle Absicht verfolgen, empört, wenn nur jene Äußerungen zum Thema Literatur als legitime Literaturkritik gelten sollen, die aus dem Kreis der durch Studium oder Vertrag mit einem Printmedium ausgewiesenen Kritiker kommen. Der Einfluss einzelner Laienkritiker auf den Erfolg eines Buches bleibt immer gering, denn erst eine große Anzahl an positiven Urteilen auf Verkaufsportalen oder in Literaturportalen mit kommerziellem Angebot schlägt sich in den Verkaufszahlen nieder. Ganz anders steht es dagegen mit dem Urteil professioneller Literaturkritiker/innen, die z. B. in Jurys berufen werden. Selbst wenn sie – was in Zukunft wohl häufiger der Fall sein wird – ihr Renommee durch Online-Rezensionen und Essays erlangt haben, werden sie in der wirklichen Welt deutlich mehr Einfluss auf das Literatursystem und damit auf den Buchmarkt nehmen, als Laienkritiker/innen. Wird von Seiten der professionellen Literaturkritik für den Erhalt des eigenen Metiers im Sinne einer Verteidigung gegen die Laienkritik plädiert, so wird immer wieder auch das Argument angeführt, dass Literaturkritik ihrerseits literarische Qualität aufweisen kann und ein selbstständiges Genre darstellt, auf das nicht verzichtet werden sollte.37 Tatsächlich lässt sich aber nicht ausschließen, dass es im Internet Laienkritiken von ebenso hoher Qualität gibt, die zu sammeln und auch lange nach ihrem ersten Erscheinen zu lesen sich lohnen würde; oder die als Anleitung für das Schreiben guter Kritiken geeignet wären. Ich habe bei meinen Recherchen dafür keine Beispiele gefunden. Das sagt nichts

37 Vgl. z. B. Cooke, Rachel: Deliver us from these latter-day Pooters, 2006. www.guardian.co. uk/artanddesign/2006/nov/26/art1 (Stand: 15.08.2012).

Literaturkritik im Medienwechsel

59

über das Talent von Laienkritikern aus, sondern zeigt nur, dass im Internet Informationen nicht nach Qualität und Gehalt strukturiert und auffindbar sind. Texte auf den Onlineangeboten renommierter Printprodukte oder auf Rezensionsportalen, die von Universitäten betrieben werden – mithin professionell und institutionalisiert sind –, sind sichtbar und zugänglich und seien sie noch so schlecht. Texte in abgelegenen, kaum verlinkten Blogs sind nur durch Zufall zu entdecken, und seien sie noch so geschliffen, originell und lesenswert. Die „Schwarmintelligenz“ – im Sinne der kollektiven Meinungsbildung – mag durch technische Hilfsmittel gelegentlich eine der versteckten Perlen einem größeren Kreis bekannt machen, einen zuverlässigen Mechanismus dafür gibt es nicht.

5 Das Phänomen der Beschleunigung Wenn man über den drohenden Bedeutungsverlust der professionellen Kritik spricht, muss auch erwähnt werden, dass sich die an der Offline-Welt geschulte Kritik nicht in einen Wettbewerb um internetspezifische Merkmale begeben kann. In der Disziplin der oberflächlichen, schnellen Wertung können professionelle Kritiker die Verfasser/innen von Leserrezensionen nicht ausstechen. Die literaturkritische Kompetenz des sorgfältigen Lesens kann sich nur gegen das Leseverhalten abgrenzen, das die schnellen, geschmacksgeleiteten Leserrezensent/innen auszeichnet, die oberflächliche Urteile sehr schnell nach Erscheinen eines Buchs und in rascher Reaktion auf andere Leseurteile abgeben. Legt man den Maßstab der Geschwindigkeit an, sind nichtprofessionelle Leser/innen den professionellen immer uneinholbar voraus. Eine Website, die die hohe Produktionsgeschwindigkeit laienhafter Kritik nutzen wollte, indem sie positive Leserrezensionen von Vorabexemplaren an Verlage verkauft, ist damit allerdings gescheitert. Als Testimonials sind Laienkritiker aufgrund ihrer fehlenden Autorität nicht geeignet und auch die Qualität von Blurbs, die von Marketingabteilungen oder Lektoren verfasst werden, können sie zumeist nicht erreichen.38 Aber auch ein etabliertes Portal für fundierte Literaturkritik wie literaturkritik.de, das seit 1999 von der Universität Marburg betrieben wird, reagierte auf zunehmende Konkurrenz aus dem Netz mit einer Erhöhung der Publikationsgeschwindigkeit. Statt der anfänglichen monatlichen Aktualisierung sind die Beiträge seit einigen Jahren mediengerecht tagesaktuell.

38 frueherlesen.de.

60

Karin S. Wozonig

Das Internet beschleunigt die Literaturkritik aber nicht nur, sondern eröffnet im Gegenteil auch die Möglichkeit, Rezensionen zu alten und antiquarischen Büchern zu veröffentlichen. So gibt es auf Amazon durchaus auch Rezensionen zu Klassikern und im Internet wird auch über Bücher geschrieben, die nur durch Projekte wie gutenberg.org oder Google books wieder Leser gefunden haben (in elektronischer Form oder als print-on-demand-Produkt). Zwar bemüht sich gelegentlich auch der Literaturjournalismus in Printmedien um Wiederentdeckungen, der Diskurs des Feuilletons ist aber im Gegensatz zur Laienkritik im Internet um einen Kanon bemüht. Es wäre schwer zu begründen, dass sich ein Literaturkritiker ausführlich mit einem Werk befasst, das weder eine Neuerscheinung ist noch besondere ästhetische Qualität aufweist oder auf andere Art von Bedeutung für das literarische Feld ist. Einzig der Umstand, dass ein Werk bislang nicht ausreichend gewürdigt wurde, gewährt ihm unabhängig von der Tagesaktualität Eingang ins Feuilleton. Das Internet trägt hier zur Entschleunigung bei, Laienkritiker können in ihren Blogs und Foren ihre ganz persönliche Lektürepassion verfolgen, ohne aktuelle Bezüge herzustellen, Einflüsse nachvollziehbar zu machen oder einen Kanonisierungsdiskurs zu bedienen. Es zeigt sich, dass die erhöhte Geschwindigkeit, mit der auf Neuerscheinungen eingegangen wird, die oft als Ergebnis der „Internet-Kultur“ dargestellt wird und die als Bedrohung der literaturkritischen Qualität betrachtet wird, durch die Möglichkeit einer zeitlosen Kommunikation ergänzt wird, die keinem Marktdruck folgt.

6 Gegenstand der Kritik Die Möglichkeit der umfassenden kritischen Auseinandersetzung mit der Lektüre und ihre digitale Formulierung durch nichtprofessionelle Leser/innen führt dazu, dass mittlerweile eine große Anzahl an Besprechungen von Trivialliteratur vorliegt, von Literatur, die im gedruckten Feuilleton oder in Büchersendungen in Radio und Fernsehen selten zur Sprache kommt. Der Maßstab der professionellen Kritik, der Kritikerkanon, wird von den Laienkritiker/innen im Internet weitgehend ignoriert. Wieland Freud leitet aus dem Umstand, dass auf Rezensionsportalen vor Spoilern (vor Usern, die zu viel vom Inhalt eines Buchs verraten) gewarnt wird ab, der „Internet-Leser“ sei „vor allem anderen auf Spannung“ aus.39 Tatsächlich zeigt sich aber hier besonders deutlich die durch das Medium

39 Vgl. Freund, Wieland: Literaturkritik im Internet, 2009. www.welt.de/welt_print/ article3123232/Literaturkritik-im-Internet.html (Stand: 15.08.2012).

Literaturkritik im Medienwechsel

61

Internet ausgeweitete Auffassung von besprechungs- bzw. kritikwürdiger Literatur. Wer möchte schon in einer Rezension eines Krimis erfahren, wer der Mörder ist? Amazon versucht Spaßverderber durch eine Rezensionsrichtlinie fern zu halten: „Verraten Sie keine Auflösungen, entscheidenden Momente der Handlung oder andere Details, die einem entsprechend gearteten Produkt die Spannung nehmen.“40 Leser/innen, die ihr Geschmacksurteil abgeben, durch die Pseudomündlichkeit des Mediums in einem Lernprozess zu begründeten Urteilen und durch ihre Begeisterung für ein Genre oder die Werke eines Autors/einer Autorin zur fundierten Kenntnis über den Gegenstand gelangen, durchlaufen einen Aneignungsprozess, der sich im Ergebnis nicht kategorial vom gekonnten Hantieren mit dem „Sachwörterbuch der Literatur“ unterscheidet. Einen deutlichen Unterschied gibt es hingegen im Gegenstand der Kritik und im Weg zu dem besprochenen Werk. Wie bei Produkt- und Dienstleistungsbewertungen lässt sich auch bei Leserrezensionen eine Dynamik beobachten, in der euphorische und vernichtende Bewertungen auf einander reagieren.41 Eine Begründung für die häufigen ausgezeichneten Bewertungen gleich nach Erscheinen eines Buchs, besteht darin, dass die ersten Leserrezensionen von Leser/innen kommen, die dem Autor/ der Autorin gegenüber (aufgrund früherer Lektüreerfahrungen, Freundschaft, oder weil sie der Autor/die Autorin selbst sind) wohlwollend eingestellt sind. Die Bewertungen sind entsprechend positiv. Die vielen „Fünf-Sterne-Wertungen“ bringen andere Leser/innen dazu, zu dem Buch zu greifen, die Erwartungen sind hoch gesteckt, die Voraussetzung aber falsch: Die Bewertungen sind keine Empfehlungen unter Ansehen der Person, wie das bei einer Empfehlung durch einen Freund, die Buchhändlerin des Vertrauens oder die Kritikerin aus der Leibzeitung (online oder offline gelesen) der Fall ist.42 Die Leser/innen sind enttäuscht und „übernehmen als rechtschaffen empörte Ein-Punkt-Einstampfer das Bewertungsfeld.“43 In beiden Fällen ist die Voraussetzung, das Buch zu bewerten oder zu besprechen, die, dass der Laienkritiker/die Laienkritikerin das Buch von sich aus lesen will, eine Freiheit, in der der professionelle Leser/die professionelle Leserin durch redaktionelle Vorgaben, kommerzielle Zwänge (z. B. wenn ein Printmedium Anzeigenaufträge von einem bestimmten Verlag bekommt), persönliche Verbindungen (das trifft vor allem bei kleinen literarischen

40 amazon.de-Rezensionsrichtlinien. 41 Vgl. Staude: Nur das Beste. 42 Diese drei Wege sind nach meiner persönlichen Beobachtung auch bei technikaffinen Leser/innen und generationenübergreifend die häufigsten, wie ein Leser/eine Leserin zum Buch kommt. 43 Staude: Nur das Beste.

62

Karin S. Wozonig

Märkten zu) oder durch Sendungsbewusstsein eingeschränkt ist, das ihn oder sie dazu bringt, Bücher zu besprechen, die nicht leicht zugänglich sind und davon auszugehen, dass andere Lektüre von selbst ihre Leserschaft findet. Generell ist zu sagen, dass bis vor kurzem wenig gesicherte Aussagen über die Gedanken und Gefühle von Leser/innen von Unterhaltungs- und Trivialliteratur gemacht werden konnten, da das literaturwissenschaftliche Interesse sich meistens auf die sogenannte hohe Literatur konzentrierte, auch in der Leseforschung. Zwar kann das Leseverhalten dieser Lesergruppen quantitativ auch historisch gut nachvollzogen werden und durch die Fragestellungen der Cultural Studies und der Kulturwissenschaften wurden einige Lücken in der Erforschung des Phänomens Lesen geschlossen. Aber erst das massenhafte Schreiben darüber im Internet, die Selbstaussage, gibt ein realistisches Bild vom Stellenwert der Literatur jenseits von Schullektüre und offiziösen Kanonisierungsversuchen. Die Vermutung liegt nahe, dass die Anonymität oder die Verwendung von Nicknames nicht nur zur ungezwungenen Äußerung von Zustimmung oder Ablehnung führt, sondern dass durch sie das Eingeständnis, eine spezifische, nicht prestigeträchtige/kritikwürdige Lektüre zu bevorzugen, erleichtert wurde. In manchen Nischen des Internets ist im Reden über Bücher auch eine anti-intellektuelle Trotz-Haltung zu beobachten, um z. B. den Kritikerpapst Reich-Ranicki und seinen Kanon „blöd“ finden zu können, bedarf es aber schon einer gewissen Vorbildung. Die Abgrenzung gegenüber der professionellen Kritik – ganz ohne Anti-Intellektualismus – gehört zur Selbstdarstellung vieler Laienkritiker.44 Abgelehnt werden zumeist eine elitäre und autoritäre Attitüde und der belehrende Duktus, der in der professionellen Literaturkritik zu finden ist. Alle Schreiber/innen im Internet haben ihren schulischen Lektürekanon im Kopf und auch in der Laienkritik finden sich – so wie im persönlichen Umgang – gelegentlich Formulierungen wie „Ich weiß, das ist nicht hohe Literatur, aber ich finde das trotzdem gut.“ Auch das gehört zum internetspezifischen Selbstmanagement. Ein von vielen professionellen Kritiker/innen mit Geringschätzung bemerktes Element von Laienkritik ist der situative Umgang mit dem Buch.45 Oft erläutern Laienkritiker/innen und Leserrezensent/innen, wann sie auf das besprochene Buch aufmerksam wurden, wo sie es gekauft oder von wem sie es geschenkt bekommen haben und in welcher Lebenslage sie es gelesen haben. Das professionelle Lesen entfernt den Literaturkritiker/die Literaturkritikerin vom Gegenstand Buch, selbst wenn er oder sie eine private Leidenschaft für Bücher pflegt, 44 Vgl. Belz Nadine, Doreen Fräßdorf u. Felix Köther: Kunde, König, Kritiker, in Literaturkritik.de, 1. Januar 2010. www.literaturkritik.de/public/rezension.php?rez_id=13759 (Stand: 15.08.2012). 45 Elemente des situativen Umgangs mit dem Gegenstand Buch gehen durchaus auch in die professionelle Literaturkritik ein, sie sind aber Randerscheinungen.

Literaturkritik im Medienwechsel

63

sie sammelt. Sobald sein Urteil gefragt ist, tritt der situative Aspekt hinter den abstrakten Gehalt, die Sprache, die Machart, den literaturgeschichtlichen Kontext zurück. Das Internet ist ein Medium, das persönliche Äußerungen bis zur völligen Selbstentblößung unterstützt und so ist es nicht erstaunlich, dass sich digitale Literaturkritiken oft mit der Beschreibung von Lebenssituationen der Laienkritiker/in verbinden. Rachel Cooke stellt in ihrer durchaus differenzierten Kritik der Laienkritik im Internet nach der Analyse eines Literaturblogs die Frage: „Do we really need to know that Kazuo Ishiguro’s Never Let Me Go has been on her TBR (To Be Read) pile for a year, or that she bought it as part of a discounted set of Booker novels?“46 Tatsächlich ist die Information über die Lesesituation irrelevant für die Bewertung der literarischen Qualität, hier zeigt sich aber ein Missverständnis, das sich aus der mangelnden Berücksichtigung des Medienwechsels ergibt. Ein Weblog/Blog ist eine „tagebuchartig geführte, öffentlich zugängliche Website zu einem bestimmten Thema“ (Duden), die Mehrzahl der Blogger schreibt ,personal blogs‘, persönliche Gedanken und Erlebnisse. Blogs – auch Literaturblogs – dienen vorderhand dem digitalen Selbstmanagement, nicht das Buch/die Literatur ist das Thema, sondern der Leser/die Leserin, das heißt der Autor/die Autorin des Blogs. Da Laienkritiker/innen die Freiheit haben, sich Büchern zuzuwenden, die sie gerne lesen, werden Bücher, die kein Vergnügen bereiten und keinen Neuigkeitswert haben, schlecht bewertet.47 Dieser Befund gilt für Unterhaltungsliteratur, die den größten Anteil am belletristischen Buchmarkt hat. Dass unbezahlte Laienkritiker/innen ihre Zeit lieber mit angenehmer als mit deprimierender und anstrengender Lektüre verbringen, ist verständlich, hat aber auch einen interessanten Effekt auf die Wahrnehmung von Literatur. Für Amazon-Kundenrezensenten gibt es, so vermutet die Autorin Cynthia Ozick, zwei Prinzipien: First, a book, whether nonfiction or fiction, must supply „uplift“. Who wants to spend hours on a downer? And even more demandingly, the characters in a novel must be likeable. Uplift and pleasantness: is this an acceptable definition of what we mean by literature? If so, then King Lear and Hamlet aren’t literature, Sister Carrie isn’t literature, nearly everything by Chekhov isn’t literature, and on and on and on.48

Lesen wird, wie oben dargestellt, zunehmend zur sozialen Tätigkeit, und dem entspricht auch die Nutzung der technischen Möglichkeiten, sich gemeinsam

46 Cooke: Deliver us from these latter-day Pooters. 47 Vgl. Steiner: Private Criticism in the Public Space. 48 Cynthia Ozick zitiert in: Ciabattari, Jane: The Future of Book Reviews: Critics vs. Amazon Reviewers, 2011. www.thedailybeast.com/blogs-and-stories/2011-05-12/the-future-of-bookreviews-critics-versus-amazon-reviewers (Stand: 15.08.2012).

64

Karin S. Wozonig

über Bücher auszutauschen. Das gemeinsame Reden/Schreiben macht länger Spaß, wenn der Gegenstand des Gesprächs positiv bewertet wird. Die massenhafte Verbreitung des Diskurses über Literatur hat, auch wenn er ursprünglich kommerziell motiviert ist und literarische Maßstäbe unberücksichtigt lässt, den Effekt, dass mehr Menschen zum Lesen von Literatur gebracht werden. Und in dieser Dynamik weitet sich das Schreiben über Literatur auf Bücher aus, über die in der professionellen Literaturkritik nicht geschrieben wird, weil sie ihren Kriterien und Kategorien nicht entsprechen. Die Digitalisierung bringt also ein Schreiben über Bücher hervor, die zuvor kritisch vernachlässigt wurden; dass nur ein Teil dieses neuen Diskurses literaturkritisch zu nennen ist, ist naheliegend, eine Ausweitung des Gegenstandes der Literaturkritik bedeutet es aber allemal.

7 Nachhaltigkeit von digitaler und digitalisierter Literaturkritik Die Verallgemeinerung, Kritiken im Internet seien flüchtig, ist falsch, denn im Netz bleiben auch tagesaktuelle Wortmeldungen oft sehr lange auffindbar, selbst wenn sich die erste Adresse ändert: Die Referentialität sorgt dafür, dass Texte in Teilen oder ganz auf anderen Websites zitiert und damit gespeichert bleiben. Dieser positive Aspekt der digitalen und digitalisierten Literaturkritik wird in der Diskussion häufig unterschlagen, aber die Verfügbarkeit einzelner Rezensionen ist im Internet nachhaltiger als bei Printprodukten. Das Feuilleton verschwindet im Altpapier oder in ein Bibliotheksmagazin, das Online-Zeitungsarchiv bleibt auch nach Jahren noch durchsuchbar. Daher ist online auch jede Rezension „tagesaktuell“, selbst wenn sie sich auf Bücher bezieht, die vor vielen Jahren erschienen sind. Auch für Kritiken älterer oder gar alter Bücher ist im Netz Platz. Wer sich für das Echo auf ein (neues oder altes) Buch interessiert, findet es auf Portalen wie z. B. perlentaucher.de, lange nachdem der Ruf verhallt ist. Die Recherchekompetenz, die den/die Literaturwissenschaftler/in auszeichnet und die nötig ist, um gebundene Jahrgänge von Zeitungen zu nutzen, wird durch digitalisierte Literaturkritik beinahe überflüssig. Die Informationssuche unterscheidet den Profi nicht mehr maßgeblich vom Laien, eine weitere Quelle des Prestigeverlusts, falls man diese Kompetenz über jene der kritischen Sichtung und Bewertung der gefundenen Informationen stellt. Gegen die Nachhaltigkeit digitaler und digitalisierter Literaturkritik sprechen die Pseudomündlichkeit und der Umstand, dass Kritik durch die Privilegierung ihres Unterhaltungswerts affirmativ wird. Beide Trends hängen nicht ursächlich mit dem Medium Internet zusammen, sondern zeigen sich lediglich in diesem

Literaturkritik im Medienwechsel

65

besonders deutlich. Generell wird das Gespräch über Literatur immer breiter geführt, ein Ergebnis von allgemeiner Bildung, mehr Freizeit, ständig steigender Zahl an Büchern für jeden Geschmack, an Literatursendungen im Radio und im Fernsehen und an massentauglichen „Events“, bei denen Kritiker/innen und Autor/innen den Leser/innen Rede und Antwort stehen (müssen). Auch in der wirklichen Welt hat der Austausch, das Dialogische im Umgang mit Literatur in den letzten Jahren immer weiter zugenommen und das wirkt in die virtuelle Welt hinein, in der das Problem der körperlichen Anwesenheit wegfällt. Lese- oder Bücherrunden, gelegentlich unter Autorenbeteiligung (z. B. buechereule.de, leserunden.de) und Literaturfeste werden immer beliebter.49 Im Gegensatz zu diesem Trend hin zur Flüchtigkeit spricht die traditionelle professionelle Literaturkritik über das Buch, beurteilt es, begründet ihr Urteil, und für diesen Diskurs sind Print und Internet gleichermaßen geeignet, was eine erhöhte Nachhaltigkeit bedeutet.

8 Ausblick Bei dem digitalen und digitalisierten Schreiben über Literatur steht eine Masse an Kaufempfehlungen, die nicht mehr sein wollen als das bzw. emotionale Geschmacksurteile einigen wenigen Plattformen und Übertragungen aus dem Printbereich gegenüber, die literaturjournalistischen Anforderungen an Literaturkritik gerecht werden. Die literaturwissenschaftlich informierte Rede über Bücher, die nicht an Aktualität gebunden ist, hat im Internet ebenso ihren Platz wie die 5-Sterne-1-Satz-Bewertung. Wie für andere Tendenzen im Netz auch zeigt sich bei der Literaturkritik, dass traditionelle Formen (das literarische Feuilleton) in Frage gestellt und neue Kommunikationsformen entwickelt werden. Soweit dies zu überblicken ist, wird die Pseudomündlichkeit des Internets, die gepaart ist mit einer Dauerhaftigkeit und nichthierarchischen Speicherung,50 auch von der professionellen Literaturkritik aufgenommen. Voraussetzung dafür ist es, dass der Kritiker/die Kritikerin die technischen Möglichkeiten kennt, mit denen sich ein Austausch zwischen Kritiker/innen, Leser/innen und Autor/innen her-

49 Vgl. Particip@tions 5, (2008) H. 2 (Special issue: Beyond the book), www.participations. org/Volume%205/Issue%202/5_02_editorial_special.htm (Stand: 15.08.2012). 50 Das Netz vergisst nichts. Für das Wiederfinden liegen bislang allerdings nur unzulängliche Systeme vor, weshalb auch nicht von dem „Archiv“ Internet gesprochen werden kann. Dass die Daten lediglich für den Menschen temporär „unsichtbar“ gemacht werden können oder durch mangelnde Indizierung (noch) unauffindbar werden, wird von Techniker/innen gelegentlich mit „To upload data onto the internet is like pissing in a pool“ beschrieben.

66

Karin S. Wozonig

stellen lässt. Die Diskrepanz zwischen dem Dilettanten im Wortsinn: dem Liebhaber des Objekts und dem Kritiker, der neben seiner Begeisterung auch objektive Urteile auf der Basis einer rationalen Analyse in seine Kritik packt, die Kluft zwischen „Emphatikern wie Elke Heidenreich“51 und „Gnostikern“ wie Hubert Winkels, wird auch in Zukunft nicht verschwinden. Es wird aber durch den Lernprozess und das Selbstverständnis im Umgang mit dem Medium zunehmend Kritiker/innen geben, die sich nicht einer Seite zuschlagen lassen wollen. Zurzeit kann noch beobachtet werden, dass für viele professionelle Kritiker die Trennung zwischen den Medien sehr deutlich ist. So spricht John Sutherland vom „Planet Printed Word“, auf dem im Gegensatz zur Welt im Internet seriöse Kritiken verfasst würden.52 Auch Ann Steiner sieht nach ihrer Analyse von Laienkritik einen deutlichen Unterschied zwischen den Sphären: Das Internet sei „a world of views and opinions on the nature of good literature far from that expressed in the articles written by professional critics in daily press and literary journals.“53 Zu jenen, die Online- und Offline-Welt für kategorial unterschieden halten, zählen sowohl Verfechter der konventionellen Feuilletonkritik, für die die Kritik durch Laien ein „Paralleluniversum“54 darstellt, wie auch Blogger oder Laienrezensenten, die im Zeitungsfeuilleton nichts anderes sehen (wollen), als verschwurbeltes Gerede über Bücher, die niemanden interessieren. Sutherlands Auseinandersetzung mit Susan Hill und anderen Bloggern betrachtete Rachel Cooke im Jahr 2006 als ein Zeichen einer erst noch auszutragenden Auseinandersetzung mit der Frage, welche Auswirkungen das Internet auf die Kritik im Allgemeinen hat.55 Seit dieser Debatte sind viele Blogs verschwunden, auch der der Erfolgsautorin Susan Hill, andere haben sich etabliert, Amazon hat technisch nachgebessert, renommierte Printmedien haben ihre Literaturkritik vollständig ins Netz verlagert und es wächst eine Kritikergeneration heran, die bei unaufgeregten und manchmal auch visionären professionellen Kritikern und Literaturwissenschaftlerinnen lernt, die vielfältigen Stimmen zu hören, die sich im Internet über Literatur äußern. Durch die Leserbeteiligung kann heute jeder professionelle Literaturkritiker, jede professionelle Literaturkritikerin, wenn es ihm/ihr geraten scheint, sehr konkret auf die Erwartungen seiner/ihrer Leser/ innen eingehen.

51 Vgl. Winkels, Hubert: Mit Leidenschaft am kalten Material, 2010. www.buchreport.de/ nachrichten/buecher_autoren/buecher_autoren_nachricht/datum/0/0/0/mit-leidenschaft-amkalten-material.htm (Stand: 15.08.2012). 52 Vgl. Sutherland: john sutherland IS SHOCKED. 53 Steiner: Private Criticism in the Public Space. 54 Hugendick: Jeder spielt Reich-Ranicki. 55 Vgl. Cooke: Deliver us from these latter-day Pooters.

Literaturkritik im Medienwechsel

67

Auch wenn aufgrund der kurzen Aufmerksamkeitsspanne, die eine Folge des gerade erst geübten Umgangs mit den neuen Medien ist, kritische Texte im Netz generell kürzer werden sollten: Das Internet ist beinahe unendlich und hat Platz für Texte in jeder Länge. Ausführliche Rezensionen und literaturkritische Essays gehören schon jetzt zum selbstverständlichen Repertoire des Schreibens über Literatur im Internet und in Zukunft wird der Vorteil des Platzangebots wahrscheinlich noch wichtiger werden. Cooke beobachtet: „For the time being there is room enough for both sets of critics: the bloggers and the professionals.“56 Die Zahl professioneller Blogger wird aus ökonomischen Gründen, so steht zu vermuten, in Zukunft zunehmen und die Möglichkeit, Blogs in E-Books zu konvertieren und selbst zu verlegen, wird auch die Laienkritiker-Szene verändern. Aber auch dann stimmt die Grundaussage noch: Laienkritik und professionelle Kritik werden im Netz nebeneinander stehen können. Dass das Paradebeispiel für das Mitmachnetz – Amazon – in seinen „Produktbeschreibungen“ auch „Pressestimmen“, genauer: positive Literaturkritiken aus renommierten (Print-)Publikationen zitiert,57 deutet darauf hin, dass professionelle Literaturkritik auch im Netz noch einige Zeit als vertrauenswürdig und autoritativ gelten wird. Die digitale Literaturkritik wird durch die zu erwartende Verbreitung von E-Books an Bedeutung gewinnen. Wer Bücher auf einem elektronischen Lesegerät liest, hat – so steht zu vermuten – die Medienkompetenz, digitale Literaturkritik zu nutzen, eventuell auch auf seinem E-Reader. Immer mehr Verlage gehen außerdem dazu über, Vorabexemplare als E-Books an potentielle Rezensenten zu verschicken und für sie stellen Betreiber/innen von Literaturblogs eine wichtige Zielgruppe dar. Von der Literaturkritik aus dem Internet sind auf jeden Fall neue Impulse für die literarische Öffentlichkeit zu erwarten, aber eben auch aus den Marketingabteilungen von Verlagen und von Verkaufsplattformen. Das Internet bildet im größtmöglichen Maßstab die „reflexions- und kommunikationsstimulierende Funktion“ von Literaturkritik58 (wie auch von Literatur) ab, was durchaus als positive Folge von Digitalisierung gesehen werden kann, denn: „Die eigene Meinung zu formulieren schärft das Denken, etwas über Bücher zu sagen übt das Lesen, stärkt das Selbstbewusstsein, intensiviert die Lust am Buch und hebt die Wichtigkeit der Literatur.“59

56 Ebd. 57 Ein Beispiel: Zu Arno Geigers Der alte König in seinem Exil werden Auszüge aus Kritiken von NZZ, Tagesanzeiger und druckfrisch (ARD) wiedergegeben. 58 Vgl. Anz: „Theorien und Analysen zur Literaturkritik und zur Wertung“, S. 195. 59 Jung, Jochen: Auch Laien sind vom Fach, 2008. www.boersenblatt.net/188020 (Stand 15.08.2012).

68

Karin S. Wozonig

Literaturhinweise Giacomuzzi, Renate, Stefan Neuhaus u. Christiane Zintzen (Hg.): Digitale Literaturvermittlung. Praxis – Forschung – Archivierung. Innsbruck u. a. 2010. Baasner, Rainer u. Thomas Anz (Hg.): Literaturkritik. Geschichte – Theorie – Praxis. München 2004. literaturkritik.de, Ausgabe Nr. 12, Dezember 2010, Schwerpunkt: Verlage und Literaturkritik im Internet. Neuhaus, Stefan: Literaturvermittlung. Wien, Konstanz 2009. Nickel, Gunther (Hg.): Kaufen! statt Lesen! Literaturkritik in der Krise? Göttingen 2005.

Florian Hartling

Literarische Autorschaft 1 Die Debatte um Autorschaft Autorschaft als zentrales Phänomen zahlreicher kulturwissenschaftlicher Fachrichtungen sowie der Autor als Dispositiv der Wahrnehmung erlebten in der theoretischen Debatte der letzten beiden Jahrzehnte eine beeindruckende ‚Hochkonjunktur‘.1 Dabei ist es kein Zufall, dass seit den Anfängen des populärsten Internetdienstes „World Wide Web“ (WWW) Literaten und Literaturtheoretiker eine fruchtbare Verbindung zwischen Literatur und Netz sahen: Ihre Hoffnung war, dass mit der netzbasierten Literatur nun ‚endlich‘ bestimmte Experimente im traditionellen Buchmedium, wie etwa nonlineares Erzählen, tatsächlich adäquat umgesetzt werden könnten und solcherart experimentelle Literatur zu einer neuen Blüte geführt werden könnte. Dies bedeutete nicht zuletzt auch das Aufbrechen der traditionellen Trias Autor-Text-Leser, z. B. im Subgenre der kollektiven Literatur; damit stand und steht digitale Literatur auch für neue Formen einer digitalen Autorschaft. In der empirischen Literaturwissenschaft wird das Internet (Netz) als Literatursystem verstanden. Damit einher geht das Modell von literarischen Handlungen, die analytisch systematisiert werden können nach bestimmten Handlungsbereichen. Autoren digitaler Literatur werden im Bereich der Produktion verortet (1), ihre Leser bei der Rezeption (2). Die beiden weiteren Handlungsbereiche bilden Distribution (3) (etwa durch Verlage oder durch spezifische Aggregatoren) sowie literaturwissenschaftliche oder -kritische Verarbeitung (4). Für die Frage nach der literarischen Autorschaft im Internet ist vor allem der Handlungsbereich der Produktion von Bedeutung.2

1 Diese neuerwachte Debatte setzte dabei im englischsprachigen, internationalen Diskurs bereits Anfang der 1990er Jahre ein, vgl. Burke, Seán: The Death and Return of the Author. Criticism and Subjectivity in Barthes, Foucault and Derrida. Edinburgh 1992. Sie ist mit etwas Zeitverzögerung in die deutschsprachige Germanistik aufgenommen worden, vgl. dazu insbesondere Jannidis, Fotis, Gerhard Lauer u. a. (Hg.): Rückkehr des Autors: Zur Erneuerung eines umstrittenen Begriffs. Tübingen 1999; Detering, Heinrich (Hg.): Autorschaft. Positionen und Revisionen. Germanistische Symposien-Berichtsbände 24. Stuttgart, Weimar 2002; Bein, Thomas, Rüdiger Nutt-Kofoth u. a. (Hg.): Autor – Autorisation – Authentizität. Beihefte zu Editio 21. Tübingen 2004. 2 Vgl. dazu ausführlicher Hartling, Florian: Der digitale Autor. Autorschaft im Zeitalter des Internets. Bielefeld 2009, S. 143–154.

70

Florian Hartling

Das zweite theoretische Fundament bildet die Rekonstruktion des Netzes als Dispositiv. Mit dem Dispositiv-Konzept wird unter Bezugnahme auf Michel Foucault erfasst, dass Medien und gesellschaftliche Bezugssysteme intensiv miteinander verflochten sind: Was die Medien vermitteln – bzw. was seine Nutzer wahrnehmen können –, wird im Wesentlichen dadurch bestimmt, wie die Medien es vermitteln. Das Dispositiv wirkt durch seine machtvollen Strukturen auf die Gesellschaft in einem Wechselverhältnis. So wie es Effekte auf gesellschaftliche Prozesse hat, wirken die ausgelösten gesellschaftlichen Prozesse selbst auf das Dispositiv zurück und verändern dieses. Gleichzeitig bildet der Ansatz aber auch einen Rahmen für die Analyse solcher Prozesse.3 Es kann gezeigt werden, dass im Dispositiv Internet und bedingt durch das Dispositiv selbst gegenwärtig technisch sowie gesellschaftlich spezifisch neue Formen von literarischen Autorschaften möglich und auch realisiert werden. Diese Autorschaft ist nicht auf die einfache Formel ,Tod des Autors‘ zu bringen, wie seit dem gleichnamigen Essay von Roland Barthes4 pointiert die Kritik am traditionellen Autormodell zusammengefasst wird. Die neuen Formen setzen stattdessen in ganz signifikanter Weise einerseits eine progressive Entwicklung innerhalb der Kultur des 20. Jahrhunderts fort, was andererseits aber auch als evolutionärer Sprung angesehen werden muss, als genuin neues kulturelles Phänomen. Die Entwicklung dieser neuen Autorschaftsmodelle ist parallel zum dispositivitären Charakter des Internets als strategische Wiederauffüllung zu fassen, als Reaktion auf Veränderungen, die vom Dispositiv selbst erzeugt wurden.

2 Das WWW als literarisches (Träger-)Medium Zunächst gilt es, die Merkmale der netzbasierten Literatur zu charakterisieren und deren historische Entwicklung zu zeigen.

3 Michel Foucault hatte das Konzept erstmalig Ende der 1970er Jahre formuliert, vgl. insbesondere Foucault, Michel: „Ein Spiel um die Psychoanalyse“. In: Dispositive der Macht. Über Sexualität, Wissen und Wahrheit. Hg. v. Michel Foucault. Berlin 1978 [1977], S. 119–175. In den 1990er Jahren wurde der Ansatz in den Medienwissenschaften intensiv ausgearbeitet, vgl. dazu überblickend Hickethier, Knut: Einführung in die Medienwissenschaft. Stuttgart, Weimar 2003, S. 186–201. Die Modellierung eines „Dispositivs“ Autor, bezogen auf den literarischen Autor im Internet ist ausführlich ausgearbeitet in Hartling: Der digitale Autor. 4 Vgl. Barthes, Roland: „Der Tod des Autors“. In: Texte zur Theorie der Autorschaft. Hg. v. Fotis Jannidis, Gerhard Lauer u. a. Stuttgart 2000 [1968], S. 185–193.

Literarische Autorschaft

71

(1) Das Web selbst stellte die erste gelungene Implementierung des Hypertext-Paradigmas dar, einer nicht-linearen Textform, die schon vor seiner Aufschaltung bereits einige Jahrzehnte existierte. Sie versetzte Dichter technisch in die Lage, nicht-lineare Erzählungen und Poesie für ein wirklich dazu geeignetes Medium zu schreiben. Bis dahin konnten Autoren es nur im dafür eher untauglichen Buchmedium versuchen, wie es etwa E. T. A. Hoffmann,5 Arno Schmidt6 oder James Joyce mit ihren ‚Romanen‘ vorgeführt hatten.7 Darüber hinausgehend ermöglichte der sogenannte Hyperlink nicht nur rein praktisch ein einfaches ‚Springen‘ zwischen den einzelnen Textbausteinen eines Hypertextes, sondern schuf auch einen semantischen und ästhetischen Mehrwert: Ein Hyperlink verbindet eigentlich getrennte Textelemente und weist damit – ähnlich wie der Schnitt im Film – eine eigene Bedeutung auf. Indem auch auf andere Hypertexte im Datenraum verlinkt werden kann, wird der einzelne Text eingewoben in eine fiktive Bibliothek oder gar in ein Universum von Texten; auch dies waren bereits formulierte literarische und theoretische Annahmen. (2) Das Netz schloss an die Experimente mit computergenerierter Literatur an, die etwa in Deutschland seit den 1950er Jahren der Stuttgarter Kreis um Max Bense an Großcomputern durchführte.8 Hierbei wurde die Tatsache genutzt, dass grammatikalische Strukturen in Computer-Algorithmen übersetzt werden können, die auf Basis von Wort-Bibliotheken neue Texte zu generieren in der Lage sind. Die solcherart produzierten Texte waren als konkrete oder dadaistische Arbeiten verstehbar und somit auch anschlussfähig für eine literaturtheoretische bzw. weiterführend ästhetische Prozessierung. (3) Als weiteres Charakteristikum ist die Tatsache zu nennen, dass die bahnbrechenden Entwicklungen der Computertechnologie in den 1980er Jahren Geräte hervorgebracht hatten, die tatsächlich über den Text hinaus in der Lage

5 Vgl. Hoffmann, E. T. A.: „Lebens-Ansichten des Katers Murr. Nebst fragmentarischer Biographie des Kapellmeisters Johannes Kreisler in zufälligen Makulaturblättern. Herausgegeben von E. T. A. Hoffmann“. In: Poetische Werke. Fünfter Band. Klein Zaches. Lebensansichten des Katers Murr. Prinzessin Brambilla. Hg. v. E. T. A. Hoffmann. Berlin 1958 [1820–1822], S. 131–598. 6 Vgl. Schmidt, Arno: Zettels Traum. 1963–69. Faksimile-Wiedergabe des einseitig beschriebenen, 1334 Blatt umfassenden Manuskriptes, digitalisiert nach der 4. Auflage. Frankfurt/Main 2002 [1970]. 7 Vgl. insbesondere Joyce, James: Finnegans Wake. Deutsch. Gesammelte Annäherungen. Hg. v. Klaus Reichert und Fritz Senn. Frankfurt/Main 1989 [1939]. 8 Zur so genannten „Stuttgarter Gruppe“ bzw. „Schule“ vgl. Döhl, Reinhard u. Johannes Auer: „stuttgarter gruppe und netzprojekte. ein interview von roberto simanowski, dichtung digital“. In: $wurm = ($apfel>0)? 1: 0. Experimentelle Literatur und Internet. Memoscript für Reinhard Döhl. Hg. v. Johannes Auer. Zürich, Stuttgart 2004, S. 158–176.

72

Florian Hartling

waren, grafische, auditive und (wenngleich noch etwas eingeschränkt) audiovisuelle Inhalte darzustellen und diese mit dem Text zu kombinieren. Der so genannte ‚Personal Computer‘ setzte sich in der westlichen Welt als weitgehend normaler Gebrauchsgegenstand durch und sorgte damit für eine breite private Verfügbarkeit von digitaler Technologie. Dies hatte nicht zuletzt bereits in der ‚Prä-WWW‘-Zeit etwa Literaten an US-amerikanischen Hochschulen dazu inspiriert, auf Basis eigener Hypertext-Systeme digitale Literatur zu verfassen, die hier zumeist noch als Text-Bild-Konglomerate funktionierte.9 Der Boom des WWW in den 1990er Jahren war nicht zuletzt auch deshalb möglich, weil die weiter fortgesetzten technischen Revolutionen in der Computerbranche zu einer breiten Verfügbarkeit schneller sowie belastbarer Netzwerktechnologien führte und tatsächlich multimediafähige Rechner mit opulenten grafischen Möglichkeiten hervorbrachte: Das Wort des Jahres 1995 war „Multimedia“, die erste Version der bekanntesten Bildbearbeitungs-Software Photoshop (veröffentlicht 1990) war da bereits obsolet. Diese enormen multimedialen Fähigkeiten nutzten auch digitale Literaten, sodass ebenfalls seit Mitte der 1990er Jahre nicht nur hypertextuelle oder computergenerierte, sondern auch multimediale digitale Literatur boomt und sich tatsächlich eine Erzählform des multimedialen Storytelling10 (alternativ auch: digitales Storytelling) entwickelt hat. (4) Computer ermöglichen Interaktivität. Ohne an dieser Stelle in die durchaus reichhaltige Begriffsdiskussion einsteigen zu können,11 sei vermerkt, dass Interaktivität dabei hinausgeht über die reine Auswahl von Lesepfaden in einem Hypertext. Interaktivität meint, dass Texte (bzw. die jeweils dahinterliegenden Programmalgorithmen) tatsächlich auf die Eingaben, Mausklicks und Auswahlen der Leser reagieren, die Ausgaben entsprechend prozessieren und die Leser somit an den ‚Geschichten‘ tatsächlich teilhaben lassen. Je nach poetischer Konzeption können die interaktiven Möglichkeiten dabei recht eingeschränkt sein, sodass die Leser augenscheinlich nur eine festgelegte Konzeption des jeweiligen Autors ausführen. Die Interaktivität kann aber auch umfassend sein, wenn die Algorithmen sehr komplex auf die Nutzereingaben reagieren, diese aufgreifen und weiterverarbeiten. Digitale Literatur kann sich damit zum einen dem Computerspiel annähern, indem der Text immer mehr zugunsten der Ex-

9 Eines der ersten seriösen literarischen Hypertext-Projekte, das auch im literaturwissenschaftlichen Diskurs intensiv diskutiert wurde, ist Michael Joyce’ Arbeit Afternoon, a story aus dem Jahr 1987. Es wurde mit der Hypertext-Software Storyspace erstellt. 10 Vgl. Rose, Frank: The Art of Immersion. How the Digital Generation Is Remaking Hollywood, Madison Avenue, and the Way We Tell Stories. New York 2011. 11 Vgl. dazu sehr viel ausführlicher den Überblick in: Bieber, Christoph u. Claus Leggewie (Hg.): Interaktivität. Ein transdisziplinärer Schlüsselbegriff. Frankfurt/Main, New York 2004.

Literarische Autorschaft

73

plorierung einer computergenerierten Welt (in welcher Form auch immer) zurückgedrängt wird. Sie wird zum anderen aber auch zu einer performativen Kunst, indem sie die Nutzereingaben notwendig voraussetzt und indem die Algorithmen nur mit Hilfe des lesergenerierten Materials arbeiten können.12 (5) Leser werden zu Mit-Autoren an den Werken, in der Art, dass sie nicht nur die ästhetische Konzeption ausführen, sondern selbst zur Materialität der literarischen Werke beitragen, Passagen mitschreiben, umschreiben, löschen etc. Die digitale Literatur wurde mitten in die neu aufflammende AutorschaftDebatte ‚hineingeboren‘, und es kann kaum verwundern, dass – um im Bild zu bleiben – ihre blühende Kinderzeit eng verbunden ist mit dem Boom des WWW. Autoren waren fasziniert von den Möglichkeiten, nun ‚endlich‘ den Leser an der literarischen Produktion teilhaben lassen zu können und verbanden dies mit hypertextuellen, computergenerierten, multimedialen und interaktiven Elementen. Die strikte Trennung zwischen Autor und Leser wurde aufgehoben, die Leser zu Co-Autoren oder zu „schreibenden Lesern“ – je nach literarischer Konzeption. So lässt sich gerade für die 1990er Jahre in Deutschland ein regelrechter Boom von so genannten Mitschreibprojekten nachweisen,13 der flankiert war von einer entsprechenden internationalen Begeisterung. Auch die Theoretiker der frühen digitalen Literatur, die damals noch stark mit den Stichworten Hypertext oder Hyperfiction verbunden war, zeigten sich insbesondere von den kollektiven Produktionsmöglichkeiten des Netzes angetan. Sie hofften, dass das Netz den spätestens seit dem Poststrukturalismus problematisch erscheinenden ‚Autor‘ endgültig (und endlich) verabschieden würde. In den vielzitierten Worten Benjamin Woolleys klang dies 1993 so: „In cyberspace, everyone is an author, which means that no one is an author: the distinction upon which it rests, the author distinct from the reader disappears. Exit author …“14 George P. Landow beschwor zwei Jahre später den Durchbruch des ‚schreibenden Lesers‘ im Netz, des ‚Wreaders‘, der einen Großteil der auktorialen Verfügungsgewalt übernommen habe und Texte sowohl rezipieren als auch ‚lesend‘ produzieren würde.15 Zudem stellte Jay David Bolter noch am Beginn des neuen

12 Vgl. Hartling: Der digitale Autor, S. 321–323. 13 Vgl. dazu näher Porombka, Stephan: „[email protected]. Auch ein Beitrag zur Literaturgeschichte der 90er“. In: Neue Rundschau 111 (2000). H. 2, S. 49–64; Suter, Beat: Hyperfiktion und interaktive Narration im frühen Entwicklungsstadium zu einem Genre. Zürich 2000. 14 Woolley, Benjamin: Virtual worlds. A journey in hype and hyperreality. London 1993, S. 165. 15 Vgl. Landow, George P.: „What’s a Critic to Do? Critical Theory in the Age of Hypertext.“ In: Hyper/Text/Theory. Hg. v. George P. Landow. Baltimore, Md., London 1995, S. 14.

74

Florian Hartling

Jahrtausends begeistert fest: „Even today, when theoretical interest has largely gone elsewhere, it remains striking how well the post-structuralists did seem to be anticipating electronic writing.“16 Der entsprechende Diskurs erreichte die deutschsprachige Literatur mit etwas Verzögerung, aber auch hier klangen die Einschätzungen ähnlich euphorisch, wie zum Beispiel bei Heiko Idensen: Leser und Schreiber sind jetzt gleichermaßen mit denselben Maschinen und Tools angeschlossen, schreiben und lesen gleichzeitig an einer über die ganze Welt verteilten und zerstückelten Textur […]. […] Im Gebrauch digitaler Informationsnetzwerke bricht der für die abendländische Kultur konstitutive wesentliche Unterschied zwischen Schreiben und Lesen, Senden und Empfangen, Bezeichnen (Codieren), Interpretieren (Decodieren) zusammen: Produktion, Verbreitung, Interpretation, Kommentierung, Retrieval von Informationen spielen sich in einem hypermedialen Netzwerk offener Verweis-, Navigations- und Strukturierungsoperationen ab. Die Philosophen und Medientheoretiker haben die vernetzte Welt der Medien nur verschieden interpretiert. Jetzt kommt es darauf an, die Schaltung der Medien als interdisziplinäre Kulturtechniken zu entwenden.17

Mit dem Begriff ,digitale Literatur‘ kann man Literatur bezeichnen, die die „spezifische[n] Eigenschaften des Internets strukturell reflektiert.“18 Die Nutzung des Dispositivs Internet ist bei digitaler Literatur also selbstreferentiell zu sehen: Das Internet wird nicht nur zur Produktion, Verbreitung und Rezeption von Literatur benutzt, sondern es prägt sie strukturell und kann außerhalb nicht bestehen. ,Digitale Literatur‘ stellt kein vorgefertigtes Produkt mehr dar, das vom Rezipienten ‚durchgelesen‘ werden kann. Stattdessen ist es als Rohmaterial anzusehen, das ihn dazu anhält, selbst aktiv zu werden. Aus den vorgegebenen Elementen muss er durch seine eigene Leseentscheidung eine Textfolge herstellen und die Fragmente dabei kohärent verbinden19 oder er beteiligt sich sogar selbst als Autor an einer kollaborativen Textproduktion.20

16 Bolter, Jay David: Writing Space. The Computer, Hypertext and the Remediation of Print. Second Edition. Mahwah, New Jersey, London 2001, S. 171. 17 Idensen, Heiko: „Die Poesie soll von allen gemacht werden! Von literarischen Hypertexten zu virtuellen Schreibräumen der Netzwerkkultur“. In: Literatur im Informationszeitalter. Hg. v. Dirk Matejovski u. Friedrich Kittler. Frankfurt/Main, New York 1996, S. 143 u. 146. 18 Föllmer, Golo: Netzmusik. Elektronische, ästhetische und soziale Strukturen einer partizipativen Musik. Hofheim am Taunus 2005, S. 1. 19 Vgl. Wirth, Uwe: „Wen kümmert’s, wer spinnt?“ In: Hyperfiction. Hyperliterarisches Lesebuch: Internet und Literatur. Hg. v. Beat Suter u. Michael Böhler. Basel, Frankfurt am Main 1999, S. 31–33. 20 Vgl. Idensen: „Die Poesie soll von allen gemacht werden“.

Literarische Autorschaft

75

3 Zum Stand der literaturwissenschaftlichen Autorschaftsdebatte Woolley, Landow, Bolter, Idensen und weitere einflussreiche Theoretiker21 hatten in ihren Überlegungen zur Autorschaft bei digitaler Literatur eine Autorkritik aufgegriffen und fortgeführt, die in der traditionellen Literaturtheorie spätestens seit dem poststrukturalistischen Diktum vom „Tod des Autors“ lange Zeit die theoretische Debatte überformte.22 Der Autor, so waren sich eine ganze Reihe von Literaturtheoretikern einig, sei für die Interpretation eines Textes selbst völlig unwichtig und unnötig. Diese Kritik wurde von verschiedeneren literaturtheoretischen Strömungen vorgebracht. Poststrukturalisten wie Barthes oder Foucault betonten, dass der Autor abgelöst würde durch Intertextualität und es stattdessen nur noch Schreiber gäbe, die bereits vorhandene Texte neu verknüpften (Barthes). Oder sie stellten den Autor als überholte, kulturelle Kategorie heraus, die zwar gegenwärtig bestimmte Funktionen im literarischen Diskurs bündeln würde, zukünftig seien aber auch Diskurse ohne Autorkonstrukt möglich (Foucault). In der Autorkritik der Empirischen Literaturwissenschaft (Siegfried J. Schmidt) wurde vor allem die literarische Operation der Interpretation kritisiert und damit auch die Bedeutung des Autors bzw. seiner Autorintention für die Analyse eines literarischen Werkes angefochten.23 Seit den 1990er Jahren war im theoretischen Diskurs allerdings die machtvolle ‚Rückkehr des Autors‘ festzustellen. Damit verband sich stets die Frage, ob die vorgebliche ‚Rückkehr‘ nicht vielmehr eine ‚Wiederkehr‘ oder ‚Wiederentdeckung‘ darstelle, weil das Autorkonzept niemals wirklich zu den Akten gelegt worden war.24 Das Phänomen der Autorschaft wird also auch im deutschsprachigen Raum seit geraumer Zeit intensiv untersucht, wobei vor allem der literaturwissenschaftliche, aber auch der filmwissenschaftliche Diskurs recht produktiv sind. Allerdings wurde die Frage des ‚digitalen Autors‘ dort nur eingeschränkt thematisiert, 21 Im deutschsprachigen Raum sind in diesem Zusammenhang insbesondere noch Uwe Wirth und Roberto Simanowski zu nennen. Ich beziehe mich im Folgenden vor allem auf diesen deutschsprachigen Diskurs. 22 Vgl. Barthes, Roland: „Der Tod des Autors“; Foucault, Michel: „Was ist ein Autor?“ In: Schriften in vier Bänden. Dits et Ecrits. Band 1. 1954–1969. Hg. v. Daniel Defert u. François Ewald. Frankfurt/Main 2001 [1969], S. 1003–1041. 23 Vgl. Schmidt, Siegfried J.: „Der Radikale Konstruktivismus. Ein neues Paradigma im interdisziplinären Diskurs.“ In: Der Diskurs des Radikalen Konstruktivismus. Hg. v. Siegfried J. Schmidt. 8. Auflage. Frankfurt/Main 2000, S. 11–88. 24 Vgl. Wetzel, Michael: „Der Autor zwischen Hyperlinks und Copyright“. In: Autorschaft. Hg. v. Detering, S. 278–290.

76

Florian Hartling

allenfalls als Ausblick oder beispielhafte Anwendung in Monographien, Sammelbänden, Zeitschriftenbeiträgen oder Konferenzen.25 In den entsprechenden Aufsätzen erfahren die medialen Besonderheiten des Netzes zudem fast keine Reflexion, weswegen offen bleibt, wie die beobachteten Phänomene ursächlich aus der medialen Struktur zu erklären sind. Hier manifestiert sich also eine Forschungslücke auf Seiten der (klassischen) Literaturtheorie. Umgekehrt wurden Fragen des digitalen Autors bzw. digitaler Autorschaft im theoretischen Diskurs um digitale Literatur von Anfang an mit betrachtet, was mit der Rekonstruktion von Hypertext als quasi ‚poststrukturalistischer‘ Textform zusammenzuhängen scheint.26 Der deutschsprachige Diskurs rund um die Jahrtausendwende führte diese Fragen noch etwas untergeordnet mit, da die neuen Literaturformen zunächst analytisch erfasst werden mussten. Nach der Veröffentlichung der ersten Grundlagenwerke und Überblickssammelbände hatte sich der Diskurs seit etwa 2002 ausdifferenziert und widmete sich spezielleren Themen, eingeschränkt auch der Autorschaft. Dabei fiel allerdings auf, dass die theoretische Vorarbeit im literaturwissenschaftlichen Theoriediskurs bis auf wenige Ausnahmen zumeist ausgeblendet wurde und größere, systematische Untersuchungen bis vor kurzem noch vergleichsweise selten waren. Seit etwa zwei, drei Jahren scheint sich der Diskurs um Autorschaft aber allmählich intensiver den neuen Kulturtechniken in den digitalen Medien zuzuwenden. Wie ein solches Forschungsprogramm rund um die Autorschaft im Internet aussehen könnte, hatten Stephan Porombka, Ernst-Peter Schneck und Thomas Wegmann bereits 1996 in einem internetbasierten Seminar zur „Kollaborativen Autorschaft. Utopien der Buchkultur/Utopien der Netzkultur“ an der Freien Universität Berlin skizziert.27 Hierbei analysierten sie vor allem das Phänomen einer gemeinschaftlichen Autorschaft, indem sie auf Vorläufer in der traditionellen Literatur eingingen und indem sie frühe Schreibprojekte im Netz analysierten. Die zweite umfangreichere Studie zu digitalen Autorschaftsphänomenen legte im Jahr 2000 Anja Rau mit ihrer Dissertationsschrift vor.28 Sie untersuchte darin einen Korpus von Hypertexten, Hyperfiction und Computerspielen auf deren Autor- und Leserfunktionen. Diese Analyse basierte auf einer Auswertung

25 Vgl. etwa Winko, Simone: „Lost in Hypertext? Autorkonzepte und neue Medien“. In: Rückkehr des Autors. Hg. v. Jannidis, Lauer u. a., S. 511–533. Wetzel: „Der Autor zwischen Hyperlinks und Copyright“, S. 278–290. 26 Vgl. etwa in den entsprechenden Arbeiten von Roberto Simanowski und Uwe Wirth. 27 Inzwischen leider offline. 28 Vgl. Rau, Anja: What you click is what you get? Die Stellung von Autoren und Lesern in interaktiver digitaler Literatur. Berlin 2001.

Literarische Autorschaft

77

der einschlägigen Autortheorien von postmodernen Literaturwissenschaftlern bzw. die an diese anschließenden Autortheorien der frühen Hypertextforscher. Auch wenn systematische Analysen der digitalen Autorschaft noch selten sind, ist das Phänomen im Diskurs um digitale Literatur durchaus stets mitgeführt worden. Dabei muss allerdings kritisch bemerkt werden, dass diese Diskussionen kaum theoriegeleitet waren, sondern sich vor allem an den Phänomenologien der besprochenen Projekte orientierten und oft recht knapp ausgeführt waren. Für den englischsprachigen Diskurs sind wiederum vor allem die Arbeiten von George P. Landow zu Hypertext29 zu nennen, in jüngerer Zeit ist zudem Lev Manovich mit interessanten Thesen in Bezug auf die Kulturtechnik des Remixing30 hervorgetreten. Im deutschsprachigen Diskurs war es insbesondere Heiko Idensen, der sich spätestens seit 1995 intensiv mit Fragen der kollaborativen Autorschaft beschäftigte, die durch das Netz hervorgerufen und unterstützt werden.31 Uwe Wirth hat sich näher mit der Beziehung zwischen den poststrukturalistischen, autorkritischen Theorien und den Hypertexttheorien der 1990er Jahre auseinandergesetzt. An Barthes und Foucault anknüpfend formulierte er die These, dass die Verabschiedung des Autors gerade nicht mit der Geburt des Lesers einherginge, sondern stattdessen den Editor hervorbringe.32 Auch Roberto Simanowski diskutierte in seinen Analysen zur digitalen Literatur immer wieder die Rolle des Autors. Er nahm dabei eine (etwas polemisch formulierte) Gegenposition zum poststrukturalistischen Diskurs ein, indem er formulierte: „Tod des Autors? Tod des Lesers!“33 Schließlich ist das Thema mittlerweile auch in der akademischen Lehre angekommen, wie weitere Qualifikationsarbeiten der jüngeren Zeit zeigen.34 Damit ist eine gewisse Kanonisierung des Problems im literatur- und medienwissenschaftlichen Diskurs zu konstatieren und es steht zu hoffen, dass die

29 Vgl. etwa Landow: Hypertext 3.0. Critical Theory and New Media in an Era of Globalization. 30 Vgl. Manovich, Lev: „Wer ist der Autor? Sampling/Remixing/Open Source“. In: Black Box – White Cube. Hg. v. Lev Manovich. Berlin 2005, S. 7–28. 31 Vgl. insbesondere Idensen: „Die Poesie soll von allen gemacht werden!“. 32 Vgl. insbesondere Wirth, Uwe: „Der Tod des Autors als Geburt des Editors“. In: Digitale Literatur. Hg. v. Heinz Ludwig Arnold. Text und Kritik, Band 152. München 2001, S. 54–64. 33 Vgl. Simanowski, Roberto: „Tod des Autors? Tod des Lesers!/Death of the Author? Death of the Reader!“ In: p0es1s. Ästhetik digitaler Poesie. Hg. v. Friedrich W. Block, Christiane Heibach u. a. Ostfildern 2004, S. 79–91. 34 Vgl. Tuschling, Jeanine: Autorschaft in der digitalen Literatur. Bremen 2006; Ghoneim, Andrea: Literarische Publikationsformen im World Wide Web. Veränderungen in Produktion, Publikation und Vermittlung von Literatur am Beispiel ausgewählter österreichischer LiteraturMedien. Wien (Univ. Diss.) 2008.

78

Florian Hartling

aktuell noch vorhandenen Lücken in der systematischen Erforschung des Phänomens digitaler Autorschaft zukünftig geschlossen werden.

4 Der Begriff des Autors und seine Charakteristika Der Begriff Autor bezeichnet grundsätzlich den „[g]eistige[n] Urheber von (vorzugsweise literarischen) Texten, dann aber auch von Werken der bildenden Kunst und der Musik.“35 Bezogen auf das Internet wird der Terminus stärker die Künste übergreifend verwendet. Literarische Autoren im Internet ‚schreiben‘ nicht nur Texte, sondern kombinieren diese in ihrer künstlerischen Tätigkeit auch mit anderen digitalen und digitalisierten Medien: Audio, Video, Animationen. Dazu treten programmierte Bestandteile der Projekte sowie die notwendigen Codierungen der Dokumentauszeichnungssprachen. Mit Bezug auf die oben gegebene Definition von digitaler Literatur können digitale Autoren definiert werden „als Literaten, die in ihrer Arbeit strukturell die spezifischen Charakteristika des Internets reflektieren“.36 Eine weiterführende, präzisere Definition hat Paisley Livingston vorgeschlagen. Danach werden, kurz gesagt, „vom Autor als Handelndem intentionale Äußerungen erzeugt, die auf künstlerischen Selbstausdruck oder (Anschluss-) Kommunikation abzielen“.37 Livingstons Definition, die er in seinem Buch Art and intention sehr ausführlich entwickelt und durch ein Modell kollektiver Autorschaft ergänzt hat, ist recht allgemein gehalten, was sowohl eine Offenheit bei den genutzten Medien bedeutet, aber auch ganz unterschiedliche Autorschaftskonzepte einschließt, die Autoren erfüllen können. Damit wird evident, dass kein singuläres, allgemeingültiges Autormodell existiert. Stattdessen können sich Autoren – je nach ihrem poetischen Konzept – entscheiden, ob sie vergleichsweise starke Kontrolle über ihre Werke ausüben wollen oder ob sie dem Rezipienten größere Freiheiten einräumen. Die zahlreichen Autorschaftskonzepte im literaturtheoretischen Diskurs lassen sich zu drei Kategorien zusammenfassen:38

35 Kleinschmidt, Erich: Artikel „Autor“. In: Reallexikon der deutschen Literaturwissenschaft. Band I A-G. Hg. v. Klaus Weimar, Harald Fricke u. a. 3., neubearbeitete Auflage. Berlin, New York 1997, S. 176 36 Vgl. Föllmer: Netzmusik, S. 1 37 Vgl. Livingston, Paisley: Art and intention. A philosophical study. Oxford u. a. 2005, S. 69. 38 Diese Modellierung folgt Heinrich Deterings Vorschlag der Diskursstrukturierung, vgl. Detering: Autorschaft, S. 322–323.

Literarische Autorschaft

79

Bei dem Autorgenie handelt es sich – erstens – um ein starkes Autormodell. Diese Künstler haben eine sehr ausgeprägte Vorstellung der Bedeutung ihrer Arbeit, sie geben Interpretationsarten sogar vor und versuchen, jeden Aspekt der Literaturproduktion, -vermittlung und -rezeption zu kontrollieren. Ein gutes Beispiel dafür ist die amerikanische Autorin Ann Rice, deren Roman Interview with a vampire im Jahr 1994 sehr erfolgreich mit Tom Cruise und Brad Pitt in den Hauptrollen verfilmt wurde. Sie erlangte ein eher schlechtes Image, weil sie sich gegen die breite Praxis der Fan Fiction wandte, also untersagte, dass Fans ihrer Arbeit eigene Geschichten basierend auf ihren Charakteren schreiben. Dies ging angeblich sogar so weit, dass sie Fans auf Unterlassung verklagte. Auf ihrer Webseite findet sich ein entsprechender Warnhinweis, der gleichzeitig für ihren starken Kontrollanspruch steht: I do not allow fan fiction. The characters are copyrighted. It upsets me terribly to even think about fan fiction with my characters. I advise my readers to write your own original stories with your own characters. It is absolutely essential that you respect my wishes.39

Diese vergleichsweise strikte – aber formal legitime – Reaktion steht in deutlichem Widerspruch zur allgemein recht toleranten Sicht anderer Autoren, die die faktische Verletzung ihres Urheberrechts gleichmütig dulden. Am Umgang eines Autors mit Fan Fiction wird auch dessen künstlerisches Selbstverständnis deutlich. Je strikter die Kontrolle über die imaginierte Welt ausfällt, desto stärker ist auch das eigene Autorverständnis. Zweites Autorkonzept ist der Schreiber, den man sich im Hinblick auf Roland Barthes’ Essay als „Tod des Autors“ vorstellen kann.40 Der Autor bildet nicht mehr die singuläre Instanz von Textbedeutung, er weicht dem Text selbst und seinem Schreiber, der durchaus nicht auf ein einzelnes Individuum beschränkt sein muss. In diesem Modell versammelt der Schreiber nur Texte (Geschichten und anderes Material, das nicht originär geschaffen, sondern gefunden, erdacht, modifiziert wird) in einem Korpus, aus dem der Leser seine eigene Literatur generiert. Somit wird die Bedeutung des Lesers aufgewertet; der Schreiber des Textkorpus nimmt gegenüber den Lesern keine herausragende Position mehr ein. Seit der ‚Geburt‘ des Autorgenies im 18. Jahrhundert und aufgrund seiner Dominanz im kulturellen Diskurs bis heute lassen sich kaum Schriftsteller finden, die eine solche poetische Konzeption tatsächlich in aller Konsequenz ver39 Rice, Anne: Anne Rice Readers Interaction. o. J., www.annerice.com/ReaderInteractionMessagesToFans.html. (Stand: 21.04.2011). 40 Es ist allerdings wichtig zu vermerken, dass entsprechende literarische Konzeptionen auch schon vor Barthes existiert haben, das Schreiber-Modell ist sogar älter als das Genie-Modell.

80

Florian Hartling

treten. In der Geschichte gedruckter Literatur existieren nur wenige Werke, die – im Sinne Barthes’ – emergierten, von mehreren oder vielen Schreibern geschrieben wurden, ohne dass diese sich im Sinne von Co-Autoren vorher über den Plot und die Figuren verständigt haben. Sowohl ästhetisch gelungene als auch erfolgreiche Literatur braucht scheinbar einen starken Autor mit einem gut geplanten ästhetischen Konzept für das zu schreibende Werk oder zumindest nur eine begrenzte Anzahl von Autoren. Ein bekanntes Werk war der Roman der XII,41 der 1909 als gemeinsame Arbeit von zwölf etablierten und experimentierfreudigen deutschen Autorinnen und Autoren publiziert wurde. Etwa 60 Jahre vor Barthes verwirklichten sie damit ein ästhetisches Konzept, das seinen Ideen vergleichbar schien: Jeder Autor schrieb ein Buchkapitel, ohne dies besonders mit den anderen Co-Autoren abzustimmen. Auch wenn dieses Schreibkonzept damit noch vergleichsweise traditionell blieb und nur ansatzweise Schreibexperiment war, endete das Resultat in einem regelrechten Desaster. Auch wenn jeder einzelne der beteiligten Autorinnen und Autoren im zeitgenössischen, literaturkritischen Diskurs als literarisches Talent bekannt war, konnten sie als Gruppe kein ästhetisch ansprechendes Werk vorlegen. Die zeitgenössische Kritik fiel dementsprechend negativ aus. Das dritte Modell – oder vielmehr die Utopie – wurde von Michel Foucault entwickelt. Ein Jahr nach Roland Barthes konstatierte er in seinem Essay Was ist ein Autor?,42 dass der Autor als ganzheitliches Konzept obsolet sei; und er forderte einen literarischen Diskurs ohne dieses Phänomen. Stattdessen beschrieb er Autorfunktionen, die nicht allein von einer Person ausgefüllt werden sollten, sondern auf ganz verschiedene Personen oder sogar verschiedene Bestandteile des literarischen Systems verteilt seien. So verbinde die Autorfunktion den literarischen Text mit dem legalen System, wodurch Urheberrecht am und Verantwortlichkeiten für den Text adressiert werden könnten. Eine andere Funktion des Autors wäre, den literarischen Diskurs zu organisieren, indem Texte mit den Textproduzenten verbunden würden, usw. Es ist schwierig, ein gutes Beispiel für dieses Modell zu finden, denn Foucault hatte es explizit als noch nicht realisierbaren Entwurf für einen zukünftigen literarischen Diskurs beschrieben. Gleichzeitig bildet der traditionelle Autor im gegenwärtigen Diskurs ein sehr dominantes Modell; es scheint fraglich, ob und wann Foucaults Utopie tatsächlich eintrifft. Dies gilt auch für den Text

41 Vgl. Bahr, Hermann, Otto Julius Bierbaum u. a.: Der Roman der XII. Berlin 1909. Vgl. dazu auch Albrecht, Richard: „Vom Roman der XII zum Kollektivroman wir Lassen uns Nicht Verschaukeln: Aspekte Literarischer Gemeinschaftsproduktionen in der deutschen Literatur des 20. Jahrhunderts“. In: Neohelicon 14 (1987). H. 1, S. 269–285. 42 Vgl. Foucault: „Was ist ein Autor?“.

Literarische Autorschaft

81

Finnegans Wake,43 der 1939 von James Joyce unter der Gattungsbezeichnung Roman veröffentlicht wurde. Tatsächlich ist das Werk weit entfernt von allem, was Leser normalerweise unter einem Roman verstehen, und es waren somit vor allem die Mechanismen des Dispositivs Buch, die eine solche Verortung verlangten. Joyce bietet hier eine Sammlung von Worten aus über hundert verschiedenen Sprachen, sowohl natürlicher als auch künstlicher Art, die stark durchmischt sind. Jedes einzelne Wort deutet (‚linkt‘) auf eine ganze Reihe möglicher Bedeutungen, aus denen der Leser je eine auszuwählen hat. Somit ist es auch an dem Leser, aus der Kombination der Worte, Sätze und Absätze Sinn zu erschließen und die gesamte Erzählung zu deuten. Der Autor scheint hinter dem Text zu verschwinden, tatsächlich aber hatte Joyce in einem aufwändigen, mehrjährigen Prozess sehr sorgfältig die Worte ausgewählt und kombiniert. Die Autorfunktionen sind über verschiedene Personen verteilt: Übersetzer (des mehr oder weniger englischsprachigen Originals) und alle Literaturwissenschaftler und -kritiker, die je versucht haben, adäquate Lektüren anzubieten. Dazu gehören auch die Leser, die mehr noch als in jedem anderen gedruckten Werk gezwungen sind, ihre eigenen Deutungen des Textes zu entwickeln. Zusammengefasst kann man die wichtigsten Konzepte von Autorschaft in der Buchliteratur in einer dreiteiligen Typologie darstellen: Modelle traditioneller (Print-)Autor Autor-Genie Schreiber Autorfunktion Abb. 1: Modelle traditioneller Autorschaft im Printmedium

5 Der digitale Autor: Typologie Wie bereits dargestellt, wird in der jüngeren Forschung weiterhin von einer grundsätzlichen Tendenz zur Marginalisierung des Autors in der digitalen Literatur ausgegangen.

43 Vgl. Joyce: Finnegans Wake. Deutsch. Gesammelte Annäherungen. Hg. v. Klaus Reichert und Fritz Senn. Vgl. dazu auch Reichert, Klaus: Vielfacher Schriftsinn. Zu Finnegans Wake. Frankfurt/ Main 1989.

82

Florian Hartling

Diese These kann in dieser Zuspitzung jedoch widerlegt werden, betrachtet man die tatsächliche Literaturproduktion im Internet, die weiterhin von starken Autoren mit einem sehr traditionellen Autorschaftsverständnis geprägt ist. Das populärste Genre, das man als ‚genialistische digitale Literatur‘ bezeichnen könnte, arbeitet mit multimedialen und interaktiven Stilmitteln, die in hohem Maße vom einzelnen Künstler durchgearbeitet und kontrolliert sind. Auch gemeinschaftliche Projekte scheinen nur dann erfolgreich zu sein, wenn sie entweder von einem kleinen Team von Co-Autoren produziert wurden oder von einem Hauptautor sehr stark vorstrukturiert sind. Schließlich zeigen codebasierte und performative digitale Literatur, dass das Konzept hinter der Literatur immer wichtiger wird, je mehr Autorinstanzen an einem Projekt beteiligt sind. Für diese Konzepte zeichnen aber wiederum vor allem singuläre Autoren verantwortlich. Es ist nun interessant, was im Internet an tatsächlichen Veränderungen von Autorschaftskonzepten beobachtet werden kann. Ebenso wie in der traditionellen Literatur lässt sich zum einen ein Nebeneinander ganz unterschiedlicher Konzeptionen feststellen. Diese werden je nach künstlerischem Programm aktiviert. Dabei lassen sich gewisse ‚Moden‘ beobachten, also die Bevorzugung von stärker individualistischen oder von stärker kollaborativen Modellen. Anders als in der traditionellen Literatur sind die Extreme aber zugespitzter: Zum einen kann der Personenkult um Autoren noch größer sein, weil sehr viel umfassendere und komplexere Selbstinszenierungen möglich werden. Das gilt sowohl für einzelne Autoren als auch für kollaborativ arbeitende: Bei diesen werden die Texte oft recht traditionell autorisiert und deren Autoren inszeniert. Resultierend kommt es zu einer regelrechten ‚Namensfixiertheit‘. Dies wird mit dem Begriff der ‚starken‘ Autorschaft erfasst. Zum anderen kann die Marginalisierung des Autors sehr viel ausgeprägter sein: Technisch sind Konzeptionen möglich, in denen sich die Autoren stärker selbst zurücknehmen können oder vielmehr ihr Verschwinden besonders inszenieren. Auch dies ist im Netz ausgeprägter möglich, was als schwache Autorschaft bezeichnet wird. Die Marginalisierung vollzieht sich jedoch gerade nicht in der völligen Verabschiedung des Autorschaftskonzeptes, denn das ist ja – wie oben ausgeführt – im Internet überhaupt nicht möglich. Stattdessen fächern sich die Autorfunktionen auf viele verschiedene Instanzen auf. Wie lassen sich die unterschiedlichen Formen von Autoren im Dispositiv Internet systematisieren? Angelehnt an die traditionellen Autoren-Typen können drei zentrale Modelle rekonstruiert werden: (1) ‚Klassische‘ bzw. ‚genialistische‘ Autorschaft, die an eine traditionelle Konzeption des ‚Autors als Genie‘ anknüpft. (2) Kollaborative Autorschaftskonzepte, in denen Texte durch die Zusammenarbeit mehrerer bis vieler Schreiber entstehen.

Literarische Autorschaft

83

(3) Marginalisierte Autorschaft, bei der der traditionelle Autorbegriff besonders zurückgedrängt zu sein scheint, weil die Autorfunktionen auf mehrere Aktanten verteilt sind. (4) Dazu tritt als internetspezifisches, viertes Modell die dissoziierte Autorschaft. Hier wird regelrecht versucht, aus den Rahmenbedingungen des Netzdispositivs auszubrechen und eine tatsächliche Befreiung des Autors zu realisieren: An die Stelle des Autors treten Programmierer, Schreiber, Interpreten und Algorithmen, die teils koordiniert, teils zufällig an einem gemeinsamen Werk arbeiten, ohne sich über dessen Konzept genauer abzustimmen. Die Autorfunktionen werden so über zahlreiche und heterogene Instanzen verteilt.

Modelle traditioneller (Print-)Autor

Modelle digitaler Autor

Autor-Genie Schreiber Autorfunktion –

Singulärer Autor Kollaborative Autoren Marginalisierter Autor Dissoziierter Autor

Abb. 2: Gegenüberstellung Modelle traditioneller und digitaler Autorschaft

5.1 Genialistische Autorschaft Die bereits als ‚klassisch‘ zu bezeichnenden Genres von digitaler Literatur führten und führen die nonlinearen, hypermedialen und interaktiven Experimente der modernen Print-Literatur fort. Dies bedeutet jedoch keinesfalls nur alten Wein in neuen Schläuchen. Während im Buchmedium zwar immer schon die Möglichkeit bestand, gegen die Norm der linearen Lektüre zu verstoßen, wird diese Normverletzung im Netzdispositiv zur Regel. Der interaktive Eingriff des Lesers liefert die Grundlage der Poesie. Losgelöst vom Wort als alleinigem Bedeutungsträger sowie ergänzt um multimediale und interaktive Elemente formen sich neue Gestaltungsformen von Text. Allerdings werden hier weiterhin klassische Merkmale der Literatur fortgeführt. So vertreten diese Arbeiten ein starkes Konzept von Autorschaft, das sich z. B. in der Selbst-Inszenierung der Autoren niederschlägt und eine künstlerische Qualität der Arbeit sicherstellt. Auch kann der Leser bei aller Interaktivität nur die Wege einschlagen, die ihm der Autor vorgegeben hat. Die Bedeutung des Codes und des Maschinellen erfährt kaum eine künstlerische Reflexion. Schließlich orientieren sich die Arbeiten noch vornehmlich an Vorbildern aus der Off-

84

Florian Hartling

line-Welt: Gedicht, Roman, Theater, Film, Fernsehen und zunehmend am Computerspiel. Ein gutes Beispiel dafür ist das aufwendig und detailliert programmierte Projekt The Bubble Bath44 aus dem Jahr 2005. Die Autorin Susanne Berkenheger setzt vor allem ein inszenatorisches Erzählprinzip um: Texte, Bilder und Browserelemente haben ihren ‚Auftritt‘, die Stichworte dazu liefern das Programm und der Rezipient. Das ‚Hypertextspiel‘ versetzt den Leser in die Rolle eines Praktikanten in einer virtuellen Badeanstalt. In dieser gilt es, eine Reihe von Abenteuern zu bestehen, die dadurch erschwert werden, dass nicht der Spieler Herr des Geschehens ist. Irgendwann reißt der Computer das Heft des Handelns an sich: Ein zweiter Mauspfeil erscheint, lädt einen Virus herunter und installiert ihn. Der Spieler wird durch plötzlich auftauchende Warnfenster immer wieder direkt angesprochen. Schließlich muss er selbst den Virus – oder vielmehr Hai – mit einer Harpune erlegen, um in der Geschichte bzw. dem Spiel voranzukommen. Dadurch wird die Distanzierung zum Spielgeschehen immer wieder gebrochen, indem die Narration des Werkes auf die Lebenswirklichkeit des spielenden Nutzers verweist und ihn in das Geschehen einbezieht. Die Frustrationen des Spiels verweisen auf die Frustrationen des alltäglichen Computergebrauchs. Resultierend hat der Rezipient selbst kaum Gelegenheit, wirklich interaktiv in die Geschichte einzugreifen. Er vollzieht nur eine vorgegebene Programmierung. Dies bricht mit der Vorstellung vom ‚freien‘ Leser im Hypertext und stellt die ironische Wendung des Inszenierungsprinzips in Berkenhegers Projekt dar. Damit wird deutlich, dass Berkenheger in ihrer Arbeit ein sehr starkes Autorkonzept vertritt. Sie übt die absolute Werkkontrolle aus, der Rezipient ist der Autorin und dem Projekt scheinbar regelrecht ‚ausgeliefert‘.

5.2 Kollaborative Autorschaft Digitale Technik ermöglicht auch gemeinschaftliches Schreiben, also eine kollektive Autorschaft. Die Autorfunktionen werden dabei nicht mehr nur von einer einzigen Autorpersönlichkeit abgedeckt. Kollaborative Schreibprojekte verwenden das Internet neben der Publikation und Distribution vor allem als Kommunikations- und Interaktionsmedium im Schreibprozess. Aber auch darüber hinausgehend diskutieren die Mitschreiber oft auf einer Metaebene fortführende Themen,

44 Dabei handelt es sich um die englischsprachige Weiterentwicklung des vielfach preisgekrönten und im deutschen Diskurs sehr bekannt gewordenen Projektes „Die Schwimmmeisterin“ aus dem Jahr 2002.

Literarische Autorschaft

85

reflektieren etwa die Bedingungen ihrer Arbeit oder allgemeiner Themen digitaler Literatur etc. Kennzeichnend für diese Art von Literatur ist, dass sich in ihr konsequent die traditionelle Beziehung von Autor und Leser umzukehren, zu verwischen und am Ende sogar aufzulösen scheint. Ein näherer Blick zeigt aber, dass ausgerechnet kollaborative Projekte gerade nicht für ein Zurückdrängen der Autorbedeutung zu stehen scheinen. (1) Die erste gegenläufige Beobachtung ist, dass die meisten kollaborativen Projekte vor allem mit traditionellem Text arbeiten, der ebenfalls ohne Medienbruch in Buchform veröffentlicht werden könnte. Dies ist jedoch sehr untypisch für das Netzdispositiv. Zudem weisen die Beiträge meist einen deutlichen traditionellen Autorbezug auf und brechen mit den Erwartungen an ein Mitschreibprojekt. (2) Zweitens lässt sich feststellen, dass gemeinschaftliche Projekte scheinbar immer dann ästhetisch interessant und somit künstlerisch erfolgreich werden, wenn die Freiheit der Leser gebändigt und eingeschränkt wird. Gute Arbeiten werden gemeinhin von wenigen Co-Autoren produziert und weisen damit ein starkes Autorkonzept auf. Dabei handelt es sich eher um eine klassische Zusammenarbeit von Schriftstellern, die ein gemeinsames Werk veröffentlichen. Ein überzeugendes Beispiel dafür ist das crossmediale Projekt The Famous Sound of Absolute Wreaders, das als Zusammenarbeit von sechs etablierten deutschsprachigen digitalen Literaten konzipiert und ausgearbeitet wurde.45 (3) Eine dritte Beobachtung lässt den „Tod des Autors“ im Netz als fraglich erscheinen. Betrachtet man das Ausmaß kollaborativer Textproduktion im Internet näher, so wird deutlich, dass sie derzeit vor allem in nicht-künstlerischen, insbesondere informierenden Zusammenhängen stattfindet. Plattformen wie „Wikipedia“ stehen als prominente Beispiele stellvertretend für eine Vielzahl anderer Wikis oder Weblogs. Im Gegensatz dazu sind kollaborative literarische Arbeiten, die schwache Autorschaftskonzeptionen verwirklichen, nach ihrem Boom in den 1990er Jahren recht selten geworden. Es fällt auf, dass gerade Wikis oder Weblogs als die beliebtesten kollaborativen Schreibtools kaum benutzt werden, um literarische Projekte durchzuführen, schon gar nicht im deutschsprachigen Raum. Dies scheint nicht zuletzt mit künstlerischen und ökonomischen Gratifikationssystemen zu-

45 Vgl. näher Suter, Beat: „The Making of ‚The Famous Sound of Absolute Wreaders‘“. In: dichtung-digital 6 (2004). H. 1., www.dichtung-digital.org/2004/1-Suter.htm (Stand: 21.04.2011).

86

Florian Hartling

sammenzuhängen. Diese sind nämlich nach wie vor an den Autorennamen und zudem an das traditionelle Dispositiv Buch gebunden. Trotzdem zeigt sich in der – noch spärlichen – kollektiven literarischen Produktion das kommunikative Potential des Internets bereits deutlich. Kollektive Autormodelle nehmen die Kulturen der „Open Source“-Bewegung auf und nutzen konsequent die Methoden und Technologien aus der Softwareproduktion nach deren Eigen-Logik; diese war und ist notwendigerweise immer schon kollaborativ strukturiert. Im Internet haben sich in dieser Entwicklungslinie bereits etablierte Systeme und Plattformen für kollektive Literaturproduktion gebildet. Sie nutzen vor allem in journalistischen Zusammenhängen experimentell erprobte und verfeinerte Softwaretechnologien und Workflows für die künstlerische Produktion aus. Kollaborative Projekte bedienen sich Oberflächen, die für Kommunikations- oder Informationszwecke konzipiert wurden. In der „Wikipedia“ und ähnlichen Projekten werden Mechanismen zur Qualitätssicherung von kollaborativ und hierarchielos erarbeiteten Inhalten erprobt. Es steht zu hoffen, dass solche Praxen zukünftig zu anspruchsvollen künstlerischen, kollaborativen literarischen Arbeiten führen.

5.3 Marginalisierte Autorschaft Der marginalisierte Autor, der sich selbst nahezu abzuschaffen sucht, ist in Zusammenhang mit dem Genre der sogenannten ‚Codeworks‘ zu nennen. Diese Arbeiten reflektieren und heben hervor, dass digitale Literatur immer auf Software beruht. Somit wird der computertechnische Hintergrund von digitaler Literatur in den Mittelpunkt der Aufmerksamkeit gerückt. Codeworks referieren explizit auf das Digitale und ermöglichen Schlussfolgerungen für die Beziehung zwischen ‚Code‘ und ‚Interface‘. In ‚Codeworks‘ fließen Elemente aus Programmiersprachen und Netzwerkprotokollen mit natürlichen und künstlichen Sprachen in der Poesie zusammen. Diese hinterfragen die Bedeutung des Codes und die Rolle des Computers in der künstlerischen Produktion. Die vielfältigen, unsichtbaren Rechenvorgänge ‚im Computer‘ werden auf dem Bildschirm sichtbar gemacht. Florian Cramers Arbeit plaintext.cc aus dem Jahr 2005 zeigt eindringlich, wohin codeorientiertes ‚Erzählen‘ führen kann. In seiner Online-Installation werden aus einem heterogenen Fundus von geschriebenen Inhalten jeglicher Art immer wieder neue, verblüffende Texte generiert. Diese erinnern teilweise an konkrete und visuelle Poesie, indem die Wörter und Wortfragmente mit typografischen Zeichen zusammengeführt und zu optischen Einheiten geformt wer-

Literarische Autorschaft

87

den; somit verbinden sich Inhalte der erzeugten Texte mit ihrer Form. Tatsächlich stellen sie aber eben ‚Codekunst‘ dar. Was bedeuten ‚codebasierte‘ und ‚codereflektierende‘ Arbeiten für die Autorschaft? Ganz offensichtlich ist diese Kunstform wesentlich sperriger und weniger zugänglich als ‚traditionelle‘ oder kollaborative digitale Literatur. Der Autor als Programmierer ist nur noch im Hintergrund für einen meist nicht nachvollziehbaren Programmalgorithmus verantwortlich. Auf der Bildschirmoberfläche scheint sich der Computer förmlich ‚auszutoben‘. Im Zentrum dieser Kunstform steht eben nicht mehr das Endprodukt auf dem Bildschirm, das Sichtbare, sondern das darunter liegende Konzept, nämlich der ‚Code‘. Deutlich wird hier, dass der Programmierer nicht mehr die volle Autorschaft ausübt. Zu einem großen Teil überlässt er Autorfunktionen dem Code und den Lesern, sie fächern sich also auf. Trotzdem bleibt der Autor nach wie vor präsent: Wenn das Konzept so maßgeblich für das Projekt ist, muss der Programmierer hier gute vorstrukturierende Arbeit leisten. Wenngleich Codeworks vor allem für eine schwache, marginalisierte Autorschaft stehen, existieren aber auch hier Formen, die einen starken Autorbegriff aufweisen. Es handelt sich um die so genannten ‚broken codes‘: sorgfältig komponierte, jedoch funktionsunfähige Codes, die nur noch in Bruchstücken an Programme erinnern, ansonsten ebenfalls Versatzstücke vieler Sprachen benutzen. ‚Broken code‘-Autoren wie mez (Mary-Anne Breeze) stellen zumeist klassische Originalgenies dar, die sich als starke Autoren inszenieren und über ihr Werk absolute Kontrolle ausüben.

5.4 Dissoziierte Autorschaft am Beispiel von Johannes Auers Search Trilogie Das zuvor beschriebene Auffächern von Autorfunktionen kann so stark sein, dass die Autorschaft förmlich ‚dissoziiert‘. Dies geschieht bei einer vierten Gattung von digitaler Literatur, der digitalen, literarischen Konzeptkunst. Sie verknüpft technische und ästhetische Elemente der bislang diskutierten Gattungen, geht aber noch darüber hinaus. Noch stärker als bei den Codeworks dominiert bei dieser Konzeptkunst das dem Kunstwerk zugrunde liegende Konzept über das fertige Projekt. Nicht die Ausführung von Kunst, nicht deren Erscheinung ist von Relevanz, sondern allein deren Idee. Das Werk selbst wird entmaterialisiert und gleichzeitig wird der Rezipient zum Teil der Kunst. Die bisher besprochenen Literaturgattungen sind mehr oder weniger ‚fest‘ im WWW abgelegt und erlauben eine beständige ‚Lektüre‘, solange das Projekt im Netz publiziert ist. Konzept- und Performancekunst unterscheiden sich jedoch

88

Florian Hartling

gerade in diesem Punkt völlig von den traditionelleren Gattungen. Das Werk existiert nur während seiner Aufführung und verschwindet danach unweigerlich wieder. Übrig bleiben allenfalls Webinterfaces, Pressemitteilungen, Fotografien oder Mitschnitte. Hier wird der Versuch von Netzautoren deutlich, aus den Rahmenbedingungen des Netzdispositivs regelrecht ‚auszubrechen‘. Es wird gleichzeitig evident, dass diese ‚Befreiung‘ schlussendlich nicht vollständig gelingen kann, weil das Autorkonzept kulturell äußerst dominant ist. Mit der Konzept- und Performancekunst ist eine der jüngeren Entwicklungen in der digitalen Literatur angesprochen, die aber eine der bedeutsamsten und einflussreichsten darstellt. Ein bekannter deutschsprachiger Netzliterat, der sich nach hypermedialen Anfängen der digitalen, literarischen Konzeptkunst zugewandt hat, ist Johannes Auer. Mit seiner Literatur und seiner theoretischen Arbeit knüpft Auer stark an die Arbeit der bereits erwähnten „Stuttgarter Schule“ an. In den Jahren zwischen 2005 bis 2011 erarbeitete er mit der Search Trilogie ein umfangreiches Performance-Werk, das aus drei unabhängigen Teilen besteht: search lutz! (2006)46, searchSongs (2008, zusammen mit René Bauer und Beat Suter) sowie searchSonata 181 (2011, zusammen mit René Bauer und Beat Suter). Gemein ist den Projekten vor allem die Aufsplitterung der Autorfunktionen auf verschiedene Beteiligte sowie die Notwendigkeit ihrer tatsächlichen Aufführung. Für den Autor Auer bildet zudem die „Konstante dieser Trilogie“, dass in den Projekten Worte Verwendung fanden, „die gerade in Suchmaschinen wie Google & Co. eingegeben werden. Diese Suchworte werden algorithmisch verarbeitet.“47 In ihrer Medialität waren die drei Projekte etwas unterschiedlicher angelegt, so wurden im ersten Projekt Texte produziert, im zweiten Töne und im dritten Laute, die für den Autor „die akustische Brücke […] zwischen Text und Ton“48 bilden. Bei dieser Trilogie handelte es sich um (netz-)literarische Performances, die strukturell sehr komplex angelegt waren und Autorschaft auf vielschichtige Art und Weise verhandelten. Erstens ist wichtig, dass alle drei Projekte zunächst computergenerierte Kunst darstellten. Aus bereits vorhandenen Materialien (z. B. Texten) und aus Suchmaschinen gewonnenen Daten generierten Algorithmen neue Texte oder Töne. Auer bezog sich hier auf einen klassischen Algorithmus computergenerierter Literatur, er entwickelte die historische Konzeption in seiner Trilogie aber stark weiter, indem er die Nutzer einbezog, Technologien wie Suchmaschinen verwendete und die generierten Daten aufführen ließ. Betrachtet 46 Ein Vorläufer von search lutz! wurde unter dem Titel free lutz! im Jahr 2005 erstmalig aufgeführt. 47 Beschreibung Search Trilogie. 48 Ebd.

Literarische Autorschaft

89

man die Rolle des Autors, werden hier einige Parallelen zu den bereits diskutierten Codeworks deutlich. Der Programmierer Auer übernahm in Nachfolge nur einen Teil der Autorschaft, weil er den Algorithmus programmierte und die Regeln der Textgenese vorgab. Daran anschließend wurde der Computer selbst aktiv und arbeitete den Algorithmus entsprechend ab. Resultierend wurde also die Autorschaft nicht mehr vollständig vom Entwickler des Konzeptes ausgeübt. Stattdessen verlagerte sie sich hin zum ‚digitalen Autor‘ Computer und weiter noch zu den Mitschreibern, den Teilnehmern und den Sprechern. Zweites Projektcharakteristikum stellte das kollektive Mitschreiben dar, was durchaus als Referenz an die bereits diskutierten kollaborativen Projekte verstanden werden kann. Die bereits vorhandenen Textbestände der Algorithmen konnten über eine Webseite während der gesamten Laufzeit der Performances verändert werden. Dies war sowohl tatsächlich anwesenden Gästen als auch Netznutzern möglich. Die Algorithmen wurden aber nicht nur aufgrund von Daten aktiv, die schon vorgegeben waren oder die im Veranstaltungsverlauf eingegeben wurden. Regelmäßig wurden Lexeme aus der Live-Suche einer Suchmaschine nachgeladen, welche ebenso wie die Eingaben der Teilnehmer in den generierten Text einflossen. Johannes Auer begründete dieses Vorgehen bereits 2006 mit der Popularität von Suchmaschinen als Werkzeuge: „Mit tausenden von Wörtern wird in jeder Sekunde nach Antworten gesucht. Dieser Wortstrom ist quasi Ausdruck des rohen, ungefilterten kollektiven Begehrens der Menschen im Netz.“49 In der Verarbeitung erschienen die aus der Suchmaschine gewonnenen Lexeme als zusätzliche, von der Realität der Performance unbeeindruckte Datenquelle. Poetologisch interessant war die Nutzung von und damit die Auseinandersetzung mit Suchmaschinen – einem wichtigen Thema für die Netzkunst seit etwa der Jahrtausendwende. Als drittes maßgebliches Charakteristikum kann die besondere Live-Situation der Performances angesehen werden und somit die Frage, wie sich die Kunstprojekte als Veranstaltungen vollzogen. Bei allen drei Projekten war maßgeblich, dass sie tatsächlich von Sprechern oder Musikern aufgeführt bzw. interpretiert wurden. So formten etwa bei search lutz! die vortragenden Sprechkünstler die ursprünglich recht eintönigen und ähnlich strukturierten Wortkolonnen zu einem sinnlich erlebbaren Vortrag um. Darüber hinaus veränderten sie die Texte mehrfach, sowohl inhaltlich als auch kontextuell, etwa durch Fehler beim Vortrag oder unbeabsichtigte Kürzungen.

49 Auer, Johannes: „Search Lutz!“ In: RadioREVOLTEN. Festival zur Zukunft des Radios. Katalog. Hg. v. Sabine Breitsameter, Marold Langer-Philippsen u. a. Halle 2006, S. 41.

90

Florian Hartling

Durch die sprachlichen sowie stilistischen Interpretationen wurden die Daten der Algorithmen also zur eigentlichen Sprech- bzw. Musik-Kunst und ihre Interpreten zu Co-Autoren der fertigen Klangkunstwerke. Zudem wurde so jeweils eine besondere Produktions- und Rezeptionssituation erschaffen, die sich erheblich von den anderen Gattungen digitaler Literatur unterschied. Mit ihren Vorträgen verliehen die Künstler den Stücken bereits eine Vorab-Sinngebung, die die Rezeption der Teilnehmer jeweils vorstrukturierte. Analysiert man zusammenfassend die komplexe Autor-Struktur der performativen digitalen Literatur à la Search Trilogie, fällt eine Besonderheit auf, die man ‚dissoziierte Autorschaft‘ nennen könnte. Offensichtlich waren die Funktionen der Autorschaft bei diesen Performances sehr viel weiter und anders gestreut als bei kollaborativen Projekten. Die Autorfunktionen wurden von besonders heterogenen Personen und Dispositiven übernommen. Damit zeigt sich, dass noch extremere Ausformungen des Autors möglich sind und die Folgen einer solchen maximal gesplitterten Autorschaft für die Literatur im Dispositiv Internet vielfältig sind. Diese Autorfunktionen bauten aufeinander auf und können etwa folgendermaßen dargestellt werden: (1) Basale Funktionen übernahm Johannes Auer (bzw. später auch René Bauer und Beat Suter) als Programmierer, der die Algorithmen geschrieben hat und somit die Regeln festlegte, unter denen die Kunst entstand. Diese Funktion teilte Auer allerdings beispielsweise mit Theo Lutz, dem Programmierer des Vorläufer-Algorithmus aus dem Jahr 1959, wenn er sich bei search lutz! auf dessen Vorarbeit bezog und seine Programmierung zunächst recht streng am Vorbild ausrichtete. Einschränkend ist festzustellen, dass er als Programmierer zwar eine Autorfunktion innehatte, diese aber tatsächlich kaum mit dem Autor bei Codeworks zu vergleichen war. Im Gegensatz zu Codework-Autoren konnte Auer nur wenig Kontrolle über das Ergebnis der Gesamtprojekte ausüben. (2) Der Computer übernahm ebenfalls – sehr eingeschränkt – gewisse Autorfunktionen. Er konnte zwar nur aufgrund der in ihn einprogrammierten Regeln funktionieren und den Algorithmus abarbeiten. Aber da in das Programm bestimmte Freiheitsgrade eingebaut waren, spielt er als ‚digitaler Autor‘ zumindest eine untergeordnete Rolle bei der Generierung der Texte. Hierbei ist allerdings zu beachten, dass die Möglichkeiten der Algorithmen stets nur vom menschlichen Autor einprogrammiert sind, also auch das Generieren von Links oder die Reaktion auf Benutzereingaben keinesfalls ‚eigene‘ Leistungen allein darstellen. (3) Als aktive Mitschreiber an den Projekten agierten zum einen die Performance-Teilnehmer vor Ort, zum anderen auch die über Internet ‚zugeschal-

Literarische Autorschaft

91

teten‘ Mitschreiber, die räumlich getrennt waren. Beide Gruppen übernahmen in größerem Maße Autorfunktionen, weil sie den Algorithmen Lexembeiträge lieferten, die ihre Datenbasis erweiterten und auf deren Basis sie ‚kreativ‘ generieren konnte. Bei search lutz!, dessen Ausgabe als Text erfolgte, konnte zudem beobachtet werden, dass die Mitschreiber vor Ort jeweils versuchten, den Algorithmus zu ‚hacken‘. Ihre Eingaben beschäftigten sich dabei durchaus in ironischer und ‚manipulativer‘ Art mit dem Projekt selbst, und es wurde versucht, die Textgenerierung in ihrem eigenen Sinn zu beeinflussen. Allerdings ist festzuhalten, dass bei solchen Konzeptionen das ‚involvement‘ in das Kunstprojekt vor Ort wesentlich höher und damit eine größere Motivation zur Mitarbeit gegeben ist. (4) Die eingebundenen Suchanfragen aus der Suchmaschine veränderten ebenso wie die Lexemeingaben der menschlichen Teilnehmer den AlgorithmusDatenbestand und führten resultierend zu modifizierten Text- und Klangausgaben. Der zentrale Unterschied bestand in der Intention der solchermaßen hinzugefügten Lexeme. Die Suchmaschinenabfragen wurden in den drei Projekten ganz bewusst entgegen ihrer ursprünglichen Zielstellung verwendet, relevante Informationen zu finden. Die (anonym gebliebenen) Verfasser der Suchabfragen fungierten, wenn überhaupt, dann als unabsichtliche Mitschreiber. Damit sind ihre Beiträge auch im Hinblick auf deren Autorfunktion anders zu bewerten. (5) Besonders zentrale Autorfunktionen wurden von den Sprechern bzw. musikalischen Interpreten übernommen, die die generierten Daten als Sprechoder Klangkunst performten. Da die Regeln der Algorithmen relativ wenige Variationsmöglichkeiten boten, waren die generierten Ausgaben eher monoton und eintönig. Daraus erzeugten die Interpreten erst für das Publikum abwechslungsreich inszenierte Sprech- oder Klangaufführungen, die darüber hinaus die Texte interpretierten und damit ebenfalls intentional veränderten. Zusätzlich zu dieser absichtlichen interpretatorischen Bearbeitung wurden die Daten verändert, was vom Programmierer als systematischer Fehler in die Performances eingebaut worden war. Resultierend übernahmen Sprecher und Interpreten die wichtige Funktion, die abschließend gültige Fassung des Textes herzustellen und schlussendlich zu ‚autorisieren‘. Daraus ergab sich in dieser dissoziierenden Form eine starke Gemengelage von Autorfunktionen. Diese auf mehrere Ebenen verteilte Autorschaft spiegelte die mehrfache Autorschaft des originalen Algorithmus von Theo Lutz wider, bei dem auch neben das textgenerierende Programm der „Stichwortgeber“ Kafka und der editierende Mensch trat. Sie führte aber in Quantität und Qualität noch weit darüber hinaus. Es scheint, als ob diese Art von literarischer Konzeptkunst

92

Florian Hartling

im Netz eine neue ‚Version‘ von digitaler Autorschaft bildet. Die Autorenrolle dissoziiert maximal, trotzdem entsteht am Ende ein Kunstprodukt, das künstlerisch und ästhetisch in höchstem Maße interessant ist. So überrascht es nicht, dass neben den diskutierten Performance-Arbeiten von Johannes Auer noch eine ganze Reihe anderer konzeptueller Netzarbeiten existieren.50

6 Fazit: das Netz als Jungbrunnen literarischer Autorschaft Die Betrachtung der Search Trilogie und der anderen diskutierten Projekte legt vor allem eine Schlussfolgerung nahe: Bei aller Dissoziation von Autorfunktionen geht die Bedeutung und Wichtigkeit des Autors selbst keineswegs verloren; egal wie fremd und auf wie viele Akteure verteilt das Konzept auch zu sein scheint. Obwohl die künstlerischen Werke aus der Zusammenarbeit ganz verschiedener Personen, Algorithmen und Dienste entstehen und obwohl diese Zusammenarbeit absichtlich konzeptuell oft stark gestört ist, sind die Projekte eben nicht beliebig, sondern ästhetisch in hohem Maße anspruchsvoll. Damit steht diese Art von konzeptueller Kunst zwar für eine recht junge ‚Version‘ von digitalen Autorschaften. Allerdings zeigt sich auch, dass ein beachtlicher Teil der Netzliteraten konzeptuelle und performative Elemente in seine Arbeiten integriert. Literarische Konzeptkunst kann zweifellos als eine wichtige Tendenz in der digitalen Literatur angesehen werden. Diese Perspektivisierung auf eine maximal aufgefächerte Autorschaft bekräftigt die zentrale These zum digitalen Autor: Auch bei einer stark dissoziierten Autorschaft kann der Autor im Netz nicht verschwinden bzw. sich nicht ‚befreien‘, weil es das Dispositiv überhaupt nicht zulässt. Damit steht das Dispositiv Internet nicht für die Abschaffung des Autors. Es ist stattdessen zu erwarten, dass sich in diesem Dispositiv weiterhin neue künstlerische Ausprägungen von Autorschaft herausbilden werden.

50 Erwähnt seien etwa die bekannten Netzaktionen der Künstlergruppe „etoy“ bzw. der poetologisch ähnlich fundierten Gruppe „UBERMORGEN.COM“. Aber auch die InstallationsProjekte von Cornelia Sollfrank haben im deutschsprachigen Raum eine gewisse Aufmerksamkeit erlangen können.

Literarische Autorschaft

93

Primärliteratur Auer, Johannes: The Famous Sound of Absolute Wreaders (kollaboratives, intermediäres Projekt zusammen mit Reinhard Döhl, Sylvia Egger, Oliver Gassner, Martina Kieninger, Beat Suter), 2003. http://kunstradio.cyberfiction.ch (Stand: 01.04.2012). Auer, Johannes: Search Trilogie (dreiteiliges, netzliterarische Performanceprojekt zusammen mit René Bauer und Beat Suter), 2006–2011. Teil 1: search lutz! (2006). Teil 2: searchSongs (2008, zusammen mit René Bauer und Beat Suter). Teil 3: searchSonata 181 (2011, zusammen mit René Bauer und Beat Suter). http://searchsonata.netzliteratur.net/fiwi (Stand: 01.04.2012). Berkenheger, Susanne: The Bubble Bath (Hypermediaspiel), 2005. www.thebubblebath.de (Stand: 01.04.2012). Cramer, Florian: plaintext.cc (Codework), 2005. www.pleintekst.nl (Stand: 01.04.2012).

Literaturhinweise Detering, Heinrich (Hg.): Autorschaft. Positionen und Revisionen. Germanistische Symposien. Berichtsbände 24. Stuttgart, Weimar 2002. Giacomuzzi, Renate: „Zur Veränderung der Autorrolle im Zeichen des Internet“. In: LiLi. Zeitschrift für Literaturwissenschaft und Linguistik 154 (2009), S. 7–30. Hartling, Florian: Der digitale Autor. Autorschaft im Zeitalter des Internets. Bielefeld 2009. Jannidis, Fotis, Gerhard Lauer u. a. (Hg.): Rückkehr des Autors: Zur Erneuerung eines umstrittenen Begriffs. Tübingen 1999.

Digitales Publizieren

Ernst Fischer und Anke Vogel

Die digitale Revolution auf dem Buchmarkt Amazon, Apple, Google und die Folgen Literatur benötigt zu ihrer Entfaltung in modernen Gesellschaften ein ökonomisches System, einen Buchmarkt; die Formationen dieses Systems sind als wichtige Rahmenfaktoren und Determinanten des literarischen Marktes und auch der literarischen Kultur aufzufassen. Es hat daher eine weit über die Buchwirtschaft hinausreichende Bedeutung, wenn deren Strukturen, wie sie lange Zeit und bis ans Ende des 20. Jahrhunderts bestimmend gewesen sind, derzeit einem tiefgreifenden Umbau unterliegen: Die „digitale Revolution“ hat in den vergangenen Jahren auf allen Marktstufen, in der Produktion von Büchern ebenso wie in der Distribution, einen dynamischen Prozess des Wandels in Gang gesetzt, vor allem aber ist mit dem digitalen Buch eine Ausgabeform von Texten entstanden, mit deren Ausbreitung die traditionellen, auf nationale Märkte bezogenen Institutionen der Literaturvermittlung – die Buchverlage ebenso wie der Sortimentsbuchhandel – marginalisiert zu werden drohen. Die entscheidenden Impulse zu der aktuellen Transformation des Buchmarktes gehen dabei von den weltumspannend operierenden Unternehmen Amazon, Apple und Google aus, die auf der Basis nahezu unbeschränkter Finanzmittel laufend neue Geschäftsmodelle etablieren und Expansionsstrategien entwickeln, mit denen die Strukturen im kulturökonomischen Feld des Buch- und Literaturmarkts eine radikale Neuordnung erfahren könnten. Es ist ein bemerkenswertes Phänomen, dass mit den drei großen „Global Players“ ein Suchmaschinenbetreiber, ein Onlinehändler und ein Hardware-Hersteller auf den Markt für digitale Bücher drängen: Diese „neuen Intermediäre“ bringen mit ihren spezifischen Unternehmenskulturen und innovativen Geschäftsideen frischen Wind in die altehrwürdige Buchbranche – möglicherweise aber auch deren Gefüge zum Einsturz. Auch wenn diese Transformationsprozesse in einer konvergenten Medienumwelt noch längst nicht abgeschlossen sind, ja in manchen Bereichen noch in den Anfängen stehen dürften, so scheint es doch wichtig, sich nicht erst post festum mit den sich abzeichnenden Umgestaltungen kritisch auseinanderzusetzen. Im Folgenden soll daher zunächst ein Überblick über die Akteure, ihre Aktivitäten und ihre Strategien gegeben werden, um im Anschluss daran die Veränderungspotentiale zu identifizieren, die sich für einzelne Teilbereiche des Literaturmarktes abzeichnen.

98

Ernst Fischer und Anke Vogel

1 Die Akteure 1.1 Amazon Ein „Big Player“ entsteht Amazon ist nicht der Erfinder des Online-Buchhandels,1 dennoch stellte die 1995 in Seattle/USA erfolgte Gründung durch Jeff Bezos eine Zäsur dar: Mit Amazon. com hielt das „big business“ Einzug in die vergleichsweise beschauliche Welt des verbreitenden Buchhandels, vor allem aber gewann dieser eine internationale Dimension. Das Unternehmen arbeitete viele Jahre lang nicht profitabel, weil es – im Vertrauen auf die Richtigkeit seines Geschäftsmodells – rückhaltlos auf Expansion setzte; eben dadurch wurde es aber zum Pionier des Onlinehandels überhaupt.2 Seitdem Amazon im Jahr 2002 erstmals seit Gründung Gewinne vorzuweisen hatte (das waren 64 Mio. Dollar bei 3,9 Mrd. Dollar Umsatz), hat das Unternehmen seinen wirtschaftlichen Erfolg kontinuierlich ausbauen können.3 Das Tempo ist nach wie vor atemberaubend: Nachdem im Jahr 2009 18,5 Mrd. Euro umgesetzt werden konnten4 (Schätzungen zufolge wurden 1,65 Mrd. Euro davon in Deutschland erwirtschaftet5) und im dritten Quartal 2009 ein

1 Vgl. Riehm, Ulrich, Carsten Orwat u. Wingert, Bernd: Online-Buchhandel in Deutschland. Die Buchhandelsbranche vor der Herausforderung des Internet. Karlsruhe 2001. [E-Book-Fassung: www.itas.fzk.de/deu/projekt/pob/ebook.htm], S. 158–165, vgl. dazu auch: Janello, Christoph: Wertschöpfung im digitalisierten Buchmarkt. Wiesbaden 2010, S. 25–26. 2 Vgl. Heinemann, Gerrit: Der neue Online-Handel. Erfolgsfaktoren und Best Practices. Wiesbaden 2009, S. 179. 3 Vgl. „,Süchtig nach Veränderung‘. Amazon-Gründer Jeff Bezos über die Hysterie ums Web 2.0, seinen Online-Marktplatz für „mechanische Türken“ und den Traum von neuen Geschäftsmodellen im Weltall“. In: Der Spiegel 46/2007, S. 88. 4 Aufschlussreich auch ein Vergleich mit den großen US-amerikanischen Buchhandelsketten aus dem Jahr 2009: „Amazon reported $ 24 billion in annual revenue, from their 2009 year-end financial results. The Media/book category delivered $5.96 billion, or 1/4 of their total revenue. That’s considerably more than any of the largest companies in the traditional print or digital book business. Barnes and Noble/B Dalton collected $4.52 billion (2008), while Borders/ Waldenbooks combined revenue was $3.11 billion (2008). Amazon’s book revenue steadily increases, while Borders and Barnes and Noble continue to decrease.“ Vgl. Treanor, Ted: Amazon: „Love Them? Hate Them? Let’s Follow the Money“. In: Publishing Research Quarterly. Vol. 26, Nr. 2, S. 120. 5 Schlautmann, Christoph: Amazon baut Deutschland-Geschäft massiv aus, 2010. www. handelsblatt.com/unternehmen/handel-dienstleister/einstellungen-geplant-amazon-bautdeutschland-geschaeft-massiv-aus;2624114 (Stand: 09.08.2010). Zum Vergleich: Das Volumen des gesamten Onlinehandels (mit allen Waren) in Deutschland lag im Jahr 2010 bei 19 Mrd.

Die digitale Revolution auf dem Buchmarkt

99

Überschuss von 133 Millionen Euro erzielt wurde, betrug 2011 der Umsatz ca. 48 Mrd. Dollar. Dass der Gewinn unerwartet gering ausfiel, lässt sich mit der Verdoppelung der Investitionen (rund 900 Mio. Dollar in 2011!), mithin mit einer neuerlich sehr starken Expansionsausrichtung erklären: „Auch wenn die Marktkapitalisierung von Amazon mit rund 88,9 Milliarden Dollar im Vergleich zu Apple oder Google noch immer bescheiden ausfällt – es ist eines der großen und nachhaltig aufgestellten Wachstumsunternehmen der Medienbranche.“6

Vom Buchhandel zum E-Commerce Es ist erstaunlich, dass es das Medium Buch war, das den Ausgangspunkt für eine solche success story bildete. Als Wirtschaftsgut von begrenzter Bedeutung, erwies es sich aufgrund seiner Produkteigenschaften als ideal für die Etablierung eines ECommerce. Noch heute gehören Bücher zu den Waren, die sich über das Internet am besten verkaufen lassen – nicht nur in den USA, wo es kein dichtes Netz von Buchhandlungen gibt, sondern auch in verschiedenen europäischen Ländern, in denen sich Amazon, ungeachtet der hier gegebenen Buchhandelsdichte, sehr rasch und erfolgreich festsetzte. Um einen „Stützpunkt zur Eroberung des europäischen Marktes“ aufbauen zu können, kaufte Amazon.com im Jahr 1998 das Unternehmen Telebook Inc., zu dem das Regensburger Unternehmen ABC Bücherdienst gehörte.7 Die Aktivitäten blieben allerdings nur kurze Zeit auf Bücher beschränkt: Entsprechend dem Mission Statement „Our vision is to be earth’s most customer centric company; to build a place where people can come to find and discover anything they might want to buy online“8 baute Jeff Bezos Amazon.com durch die Besetzung immer neuer Produktfelder wie Musik-CDs, Videos und DVDs, Geschenkartikel, Spielzeuge, elektronische Geräte, Drogerieartikel, Software, Computer- und Videospiele, Heimartikel, Elektrogeräte sowie Lebensmittel über die Jahre hinweg zu einem fast universalen Online-Versandhaus aus.9 Nach und nach

Euro. Vgl. Duell im Netz, 2010 www.focus.de/finanzen/news/unternehmen/tid-20831/onlinehandel-duell-im-netz_aid_584150.html (Stand: 27.08.2011). 6 E-Books machen es möglich: Aktie von Amazon ist am Höhenflug, 2011. medienfabrikation. info/2011/04/28/e-books-machens-moglich-aktie-von-amazon-ist-am-hohenflug (Stand: 27.08.2011). 7 Vgl. Amazon kauft ABC Bücherdienst, 1998. www.horizont.net/aktuell/digital/pages/ protected/Amazon-kauft-ABC-Buecherdienst_3907.html (Stand: 13.02.2011). 8 amazon.com (Investor Relations, FAQ). http://phx.corporate-ir.net/phoenix.zhtml? c=97664&p=irol-faq#14296 (Stand: 17.01.2011). 9 Vgl. Heinemann: Der neue Online-Handel, S. 179.

100

Ernst Fischer und Anke Vogel

traten weitere innovative Geschäftsideen hinzu: Auf den Webseiten von Amazon werden gegen eine Grundgebühr sowie eine Provision auch Produkte fremder Händler angeboten, die Verkaufsplattform wurde zum allgemeinen Marketplace; die Infrastruktur des Unternehmens (Lager, Vertrieb, Zahlungsabwicklung und Speicherplatz in den Datenbanken) ist mittlerweile für unterschiedliche Zwecke als Dienstleister nutzbar.10 Der Anteil der Buch- und Medienprodukte reduzierte sich durch die Hinzunahme kooperierender Händler auf unter 50%.11

Marktmacht: Planmäßiger Ausbau des Buchgeschäfts Dessen ungeachtet baute Amazon seine Stellung auch im Buchhandel planmäßig aus und tut dies immer noch mit ungebrochener Intensität. Weitere Stufen waren die Etablierung eines in dieser Form und Dimension bis dahin nicht gekannten „Gebrauchtbuchhandels“, der sich technisch und logistisch problemlos an den Handel mit verlagsfrischen Büchern anlagern ließ und auf den Buchmarkt gravierende Auswirkungen hatte. Seit 2002 bietet Amazon mit dem Marketplace-Programm auch Privatpersonen die Möglichkeit, gebrauchte Bücher über die Plattform des Onlinehändlers zu verkaufen.12 Neben einer Verkaufsgebühr werden bei Büchern 15% Provision vom Verkaufspreis von Amazon einbehalten.13 Der Versuch der Durchsetzung einer Preisparität14 scheiterte am massiven Widerstand des Buchhandels.15 Der jüngste Coup besteht im Start von „Bücher Trade-In“, eines Eintauschprogramms für gebrauchte Bücher, das den Kunden die Möglichkeit einräumt, gebrauchte Bücher versandkostenfrei gegen einen Ein10 Vgl. „,Süchtig nach Veränderung‘. Amazon-Gründer Jeff Bezos über die Hysterie ums Web 2.0, seinen Online-Marktplatz für „mechanische Türken“ und den Traum von neuen Geschäftsmodellen im Weltall“. In: Der Spiegel 46/2007, S. 90. Heinemann, Gerrit: Der neue Online-Handel. Erfolgsfaktoren und Best Practices. Wiesbaden 2009. 11 Vgl. Heinemann: Der neue Online-Handel, S. 179. 12 Vgl. Gefahr für Gebrauchtbuchhandel durch Online-Börsen? Antiquariate fühlen sich bedroht, 2003. www.golem.de/0301/23430.html (Stand: 13.09.2010). 13 Vgl. Gebühren bei Amazon.de Marketplace. www.amazon.de/gp/help/customer/display. html?ie=UTF8&nodeId=200456520 (Stand: 13.09.2010). 14 Amazon verlangte zunächst von allen Verkäufern, „dass der Artikelpreis und der Gesamtpreis (insgesamt zu zahlender Preis, ohne Steuern) für alle Artikel, die ein Verkäufer auf Amazon.de anbietet, im Vergleich zu anderen nicht ladengeschäftgebundenen Vertriebskanälen dieses Verkäufers, grundsätzlich gleich günstig oder günstiger sein“ sein muss. Vgl. Amazon verlangt künftig von Verkäufern „Preisparität“, 2010. www.boersenblatt.net/375249 (Stand: 01.11.2010). 15 Vgl. Amazon.de schränkt Preisparität ein, 2010. www.boersenblatt.net/383881 (Stand: 13.09.2010).

Die digitale Revolution auf dem Buchmarkt

101

kaufsgutschein an Amazon zurückzuschicken.16 Wenn in Deutschland der Onlinebuchhandel 2011 rund 14% Umsatzanteil erreicht hat (der klassische Sortimentsbuchhandel hält nach kontinuierlichen Einbußen bei 50,6%),17 so dürften fast vier Fünftel dieses Anteils von 14% auf Amazon.de entfallen. Da das Internet für Buchkäufer inzwischen eine selbstverständliche Informationsplattform geworden ist – im Jahr 2010 gaben 30 Millionen deutsche Internetnutzer (58,8%) an, online Recherchen rund um Bücher zu betreiben18 –, ist das Potenzial an dieser Stelle zweifellos noch nicht ausgeschöpft. Auch der Antiquariatsbuchhandel im Internet wurde – abgesehen von einigen widerständigen genossenschaftlichen Plattformen – in die Amazon-Welt integriert. So übernahm das Unternehmen 2008 die kanadische Online-Antiquariats- und Gebrauchtbuch-Plattform AbeBooks,19 die wiederum 2011 das Zentrale Verzeichnis antiquarischer Bücher (ZVAB) übernahm, in dem über 3000 professionelle Antiquare aus 27 Ländern aktiv sind und insgesamt über 35 Mio. gebrauchte, antiquarische und vergriffene Bücher angeboten werden.20 Antiquare beklagen die marktbeherrschende Stellung, die Amazon durch die Übernahme ausbauen konnte, und fürchten um ihre wirtschaftliche Eigenständigkeit.21 Die großen Umsatzzuwächse, die Amazon.com schon in der Anfangszeit medienwirksam auswies, hatten rasch Begehrlichkeiten in der deutschen Buchbranche geweckt, was dazu führte, dass „Medienkonzerne, Großverlage und Barsortimente, […] in schneller Reihenfolge ihre Buchshops ins Internet, teilweise, dem Vorbild Amazon folgend, auch an die Börse“ brachten. Beispielhaft seien hier die Zwischenbuchhändler KNO/K&V (Koch, Neff & Oetinger/Koehler & Volck-

16 Amazon.de startet „Bücher Trade in“, 2011. www.boersenblatt.net/452399 (Stand: 27.08.2011). 17 Tabellenkompendium zum Wirtschaftspressegespräch des Börsenvereins des Deutschen Buchhandels e.V. am 8. Juli 2011. Frankfurt/Main: Börsenverein des Deutschen Buchhandels, S. 2. – Zum Vergleich: Der Reise- und Versandbuchhandel, dem der Internetbuchhandel zugerechnet wurde, hatte 1995 noch den vergleichsweise kleinen Umsatzanteil von 6,4%, der Sortimentsbuchhandel 60,2%. Vgl. Riehm, Orwat, Wingert: Online-Buchhandel in Deutschland, S. 158–165, vgl. dazu auch: Janello, Christoph: Wertschöpfung im digitalisierten Buchmarkt. Wiesbaden 2010, S. 32–33. 18 Vgl. AGOF Branchenbericht Spezial Bücher – Sonderauswertung zur Frankfurter Buchmesse 2010. Hg. von der Arbeitsgemeinschaft Online Forschung e.V. Frankfurt/Main 2010, S. 35. 19 Vgl. Amazon schließt Übernahme von Abebooks ab, 2008. www.boersenblatt.net/294413 (Stand: 02.03.2011). 20 Vgl. Abebooks übernimmt das ZVAB, 2011. www.boersenblatt.net/417386 (Stand: 02.03.2011). 21 Stimmen zur ZVAB-Übernahme: „Verlieren wir die betriebliche Eigenständigkeit?“, 2011. www.buchreport.de/nachrichten/online/online_nachricht/datum/2011/03/03/mehr-zulauffuer-die-nischen.htm (Stand: 03.03.2011).

102

Ernst Fischer und Anke Vogel

mar – heute KNV) und Libri, Mediantis sowie die Phönix-Gruppe (2001 mit Thalia zur Thalia Holding GmbH fusioniert) genannt.22 Alle diese deutschen Gründungen entfalteten jedoch nicht annähernd eine vergleichbare Entwicklungsdynamik (ebenso wenig wie die Online-Aktivitäten der mittelständischen Sortimentsbuchhandlungen), ein Umstand, der Amazon nicht bloß zum eindeutigen Marktführer werden ließ, sondern ihn im deutschen Onlinebuchhandel nahe an eine Monopolstellung rückt. Die Folgen spüren nicht nur die direkten Konkurrenten im Handel, sondern auch die Buchverlage, denen – ähnlich wie bei den großen Ketten wie Thalia und DBH – die Rabatte und sonstigen Konditionen diktiert werden, unter denen ihnen Zugang zu dieser Vertriebsschiene gewährt wird. Bereits im Frühjahr 2004 hatte Amazon in einer Auseinandersetzung mit dem Diogenes Verlag seine Marktmacht demonstriert. Der schweizerische Verlag wollte den immer höher werdenden Rabattforderungen des Onlinehändlers, die nach Schätzungen (die Verlage werden in Bezug auf die Konditionen üblicherweise mit einer Vertraulichkeitserklärung zum Schweigen verpflichtet) bei bis zu 57% liegen, nicht weiter nachkommen. Amazon listete daraufhin die Titel des Verlages aus seinem Sortiment aus, für Endkunden waren sie daraufhin nur noch über ,Marketplace‘-Anbieter bestellbar. Nach einer Einigung zwischen beiden Unternehmen, deren Inhalt allerdings nicht öffentlich bekannt wurde, nahm der Onlinehändler die Titel im Oktober des gleichen Jahres wieder in sein Sortiment auf. In diesem Zusammenhang wurden auch die Preise für Sonderpräsentationen in der Öffentlichkeit diskutiert. Für eine Platzierung in der Rubrik „Autor des Monats“ mit vierwöchiger Laufzeit mussten Verlage in diesem Jahr 7500 Euro bezahlen, in der Rubrik „Neuheit der Woche“ 5000 Euro und für einmalige Kundenmailings jeweils 2500 Euro.23 Im Frühjahr 2009 erregte ein weiterer Vorstoß von Amazon die Gemüter der Branche: Der Onlinehändler kündigte an, das bis dato vereinbarte Zahlungsziel um 30 Tage auszuweiten oder, wenn Verlage dem widersprechen, weitere 2% Skonto vom Rechnungsbetrag abzuziehen – ein Beleg mehr für die neuen Machtverhältnisse auf dem Buchmarkt.24

22 Riehm, Orwat, Wingert: Online-Buchhandel in Deutschland. Die jeweils aktuellen Aktienkurse von Amazon.com Inc. können bei der elektronischen Börse NASDAQ unter http:// nasdaqstockranking.com/x/AMZN eingesehen werden. 23 Vgl. „Diogenes traut sich was gegen Amazon“. In: FAZ, 01.06.2004, S. 49, sowie: Amazon und Diogenes einigen sich wieder, 2004. www.buchmarkt.de/content/14557-affaeren.htm (Stand: 02.03.2011). 24 Forderungen an Verlage. Amazon am Konditionendrücker, 2009. www.buchreport.de/ nachrichten/handel/handel_nachricht/datum////amazon-am-konditionendruecker.htm (Stand: 02.03.2011), sowie: Amazon steigert Kostendruck auf Verlage, 2009. http://www.boersenblatt. net/316691 (Stand: 02.03.2011).

Die digitale Revolution auf dem Buchmarkt

103

Kundenorientierung und Vernetzung als Strategien Der enorme Erfolg des Unternehmens lässt sich neben der Tätigkeit in unterschiedlichen Geschäftsfeldern vor allem durch die ebenfalls im Mission Statement festgeschriebene Orientierung auf den Konsumenten hin und auch durch die konsequente Einbindung technologischer Innovationen erklären. So sieht Bezos etwa im Community-Gedanken, der hinter den Kundenrezensionen und Produktempfehlungen steht, einen wichtigen Zusatznutzen für die Kunden.25 Wenn heute ein Bewusstsein dafür entstanden ist, dass über Social Media verbreitete Produktempfehlungen unter Kunden und Interessenten von enormer Bedeutung sind, so hat dies Amazon in den Hinweisen auf die Käufe anderer Kunden, auf private Lektürelisten sowie mit Kundenrezensionen und Foren schon seit langem exemplarisch vorgeführt. Schon früh – und sehr geschickt – bewegte sich der Onlinehändler dorthin, wo die Zielgruppe ohnehin im Netz unterwegs ist. „Nicht mehr die Shoppingseite des Händlers ist die zentrale Anlaufstelle, sondern die Produktangebote verteilen sich auf viele kleine Internetseiten und Blogs, die eine persönliche Beziehung zu ihren Nutzern aufgebaut haben.“26 Über das Partnerprogramm ist Amazon mit einer Vielzahl von Webangeboten vernetzt. Webseitenbetreiber können den Katalog des Onlinehändlers einbinden und dadurch z. B. Coverabbildungen in ihr Webangebot integrieren. Für Käufe, die aufgrund der Präsentation in diesem Webangebot getätigt werden, erhalten die Betreiber eine Provision, die bei der Finanzierung ansonsten werbefreier Seiten hilft. Über die Höhe der Provisionen ist offiziell nichts bekannt, da Amazon seine Partner zum Schweigen verpflichtet.27 Ferner nutzt Amazon wie zunehmend auch andere Onlineshops die aktive Mitgestaltung seitens der Konsumenten. Diese erfüllt „eine Orientierungs- und Empfehlungsfunktion, wie sie aus der klassischen Buchhandelsfiliale bekannt ist: Ein guter Buchhändler versteht die Bedürfnisse des Kunden und empfiehlt ein passendes Buch, da er dies im Idealfall selbst schon gelesen hat“.28

25 Vgl. „,Süchtig nach Veränderung‘. Amazon-Gründer Jeff Bezos über die Hysterie ums Web 2.0, seinen Online-Marktplatz für „mechanische Türken“ und den Traum von neuen Geschäftsmodellen im Weltall“. In: Der Spiegel 46/2007, S. 88. 26 „Web 2.0. Aus E-Commerce wird Social Commerce“. In: FAZ, 08.05.2006, S. 23. 27 Vgl. López, Carolina: „Leseratten im World Wide Web. Die Zahl der Nutzer bei OnlineCommunities steigt. Käufer, die dem stationären Buchhandel verloren gehen?“ In: BuchMarkt Juni 2009, S. 44–45. („Gleichzeitig finanziert sich manche privat betriebene, werbefreie Seite über die Provisionen, die sie von Amazon für jede Bestellung erhält.“ Ebd.) 28 Meyer, Arik/Treutler, Michael: Online-Distribution digitaler Bücher. In: Ökonomie der Buchindustrie. Herausforderungen in der Buchbranche erfolgreich managen. Hrsg. von Michel Clement, Eva Blömeke und Frank Sambeth. Wiesbaden: Gabler 2009, S. 241–258, hier S. 249.

104

Ernst Fischer und Anke Vogel

Mehr oder weniger offen hat sich Amazon auch im Bereich der buchbezogenen Social Networks (Shelfari und LibraryThing) engagiert.29 Einen weiteren Schritt in Richtung Social Shopping ist Amazon 2010 mit einer Kooperation mit Facebook gegangen: Die Accounts beider Webangebote können seither miteinander verbunden werden, um Informationen aus dem Social Network für den Einkauf im Onlineshop nutzbar zu machen. So wird etwa über anstehende Geburtstage informiert; die passenden Geschenkempfehlungen werden, basierend auf den Informationen über Vorlieben bei Büchern, Musik und Filmen, gleich mitgeliefert. Darüber hinaus werden Kaufempfehlungen für die Nutzer bei Amazon aufgrund der Präferenzen von deren Freunden generiert.30

Hardware + Content = Kindle Der enorme Unternehmenserfolg, der zwischen 2009 und 2011 fast zu einer Verdoppelung des Jahresumsatzes führte, hängt zu einem guten Teil mit der erfolgreichen Einführung und Vermarktung des E-Book-Readers Kindle zusammen.31 Denn mit dem Kindle und der Errichtung des Kindle-Stores in den USA im Jahr 2007 war es zum ersten Mal gelungen, eine auch die Konsumenten überzeugende Kombination von leicht zu bedienendem Endgerät mit einem einfachen Zugang zu digitalen Büchern zu realisieren. Über das WhisperNet, eine Mobilfunkverbindung, die über AT&T realisiert wird, können Amazon-Kunden nahezu weltweit kostenlos digitale Bücher auf ihren Kindle transferieren.32 Mit der problemlos handhabbaren Verknüpfung von Lesegerät und Content-Bereitstellung ist eine wichtige Bedingung für das Funktionieren des digitalen Buchmarkts erfüllt.33 Dementsprechend wurde die Einführung des Kindle von einem breiten und überwiegend positiven Medienecho begleitet; die Beobachter erwarteten nichts Geringeres als eine Umwälzung der gesamten Buchkultur:

29 Vgl. Treanor, Ted: Amazon: „Love Them? Hate Them? Let’s Follow the Money“. In: Publishing Research Quarterly (2010) 26, S. 119–128, hier S. 121–123. 30 Vgl. Cain Miller, Claire: An Amazon-Facebook Alliance to Make Shopping More Social, 2010. http://bits.blogs.nytimes.com/2010/07/27/an-amazon-facebook-alliance-to-make-shoppingmore-social (Stand: 27.07.2010). 31 Kindle lässt Kassen bei Amazon klingeln, 2009. http://www.spiegel.de/wirtschaft/ unternehmen/0,1518,656850,00.html (Stand: 10.08.2010). 32 Vgl. Rao, Leena: AT&T Already Has One Million eReaders On Its Network, Without The iPad, 2010. http://techcrunch.com/2010/01/28/att-already-has-one-million-ereaders-on-its-networkwithout-the-ipad (Stand: 02.03.2011). 33 Vgl. Meyer/Treutler: „Online-Distribution digitaler Bücher“. In: Ökonomie der Buchindustrie, S. 242.

Die digitale Revolution auf dem Buchmarkt

105

This week Bezos is releasing the Amazon Kindle, an electronic device that he hopes will leapfrog over previous attempts at e-readers and become the turning point in a transformation toward Book 2.0. That’s shorthand for a revolution (already in progress) that will change the way readers read, writers write and publishers publish.34

Die Zeitschrift Der Spiegel schrieb, dass der Kindle als „iPod für Bücherwürmer“ die Verlagsbranche umwälzen könne.35 In der Tat scheint Amazon der entscheidende Schritt für den Durchbruch des digitalen Buchs auf dem Massenmarkt gelungen zu sein und damit eine Leistung, die mit Apples iPod/ iTunes-System auf dem Musikmarkt verglichen werden kann. Allerdings ist nicht zu übersehen, dass dieser Durchbruch bislang hauptsächlich in den USA gelungen ist; Schätzungen zufolge wurden bis Ende 2009 drei Mio. und im Jahr 2010 weitere sechs Mio. Kindle-Geräte verkauft, wovon der größte Teil in den Vereinigten Staaten gelandet sein dürfte. Man rechnet weiterhin mit steigendem Absatz, denn nicht nur wird der Reader technisch laufend verbessert und gleichzeitig auch immer billiger, in den USA hat sich zuletzt die dritte Generation des Kindle (mit UMTS-Verbindung) als besonderer Renner erwiesen, weil sie auch werbefinanziert angeboten wird.36 Der internationale Kindle-Store bot im Herbst 2011 rund 950.000 E-Books und Presseerzeugnisse zum Download an, und schon im Sommer 2010 will Amazon USA mehr E-Books als Hardcover-Bücher verkauft haben. Im deutschsprachigen Raum ist man von einem solchen Verkaufserfolg noch sehr weit entfernt. Die Gründe dafür sind mindestens zum Teil nachvollziehbar und liegen u. a. in den Hindernissen, die Amazon bislang nicht restlos überwinden konnte. Dass der Kindle lange Zeit ausschließlich über den amerikanischen Amazon-Store vertrieben wurde und eine deutsche Version erst seit Herbst 2011 mit der vierten Gerätegeneration verfügbar ist, hing zum einen damit zusammen, dass sich die Verhandlungen mit deutschen Telekommunikationsanbietern hinzogen und schließlich scheiterten. Zum anderen aber

34 Levy, Steven: The Future of Reading, 2007. http://www.newsweek.com/2007/11/17/thefuture-of-reading.print.html (Stand: 17.01.2011). 35 Vgl. „Bibliothek in der Handtasche“. In: Der Spiegel, 27/2008, S. 114. 36 Gustin, Sam: Amazon Says New Kindle Is Its Top-Selling Product, 2010. hwww.wired.com/ epicenter/2010/12/amazon-kindle-sales (Stand: 27.08.2011); Dignan, Larry/Beiersmann, Stefan: Analyst: Amazon verkauft in diesem Jahr fünf Millionen Kindle-Lesegeräte, 2010. www. zdnet.de/news/41538497/analyst-amazon-verkauft-in-diesem-jahr-fuenf-millionen-kindlelesegeraete.htm (Stand: 27.08.2011); Amazon: 1 Million E-Books im Shop, Werbe-Kindle 3G als Verkaufsrenner, 2011. http://ebook-fieber.de/e-reader/amazon-1-million-e-books-im-shopwerbe-kindle-mit-3g-als-verkaufsrenner (Stand: 27.08.2011).

106

Ernst Fischer und Anke Vogel

sind auch die Rahmenbedingungen deutlich andere: In Deutschland und Österreich gilt nach Interpretation der Buchbranche bzw. ihrer Verbände die gesetzliche Buchpreisbindung auch für elektronische Bücher, damit auch das Prinzip der Verkaufspreis-Festsetzung durch den Verleger. Die Verleger aber zeigen sich hinsichtlich einer Zusammenarbeit mit Amazon (wie auch mit Google oder Apple) zurückhaltend, auch weil sie die Kontrolle über ihre Ware nicht verlieren wollen und – statt allein auf einen großen Vertriebspartner zu setzen – z. T. eine Kooperation mit kleineren, nationalen Distributoren oder den Aufbau eigener Vertriebsschienen (Bertelsmann) vorziehen. Generell gibt es einige Skepsis gegenüber dem digitalen Sektor, schon aufgrund der Bedrohung durch Piraterie, die besonders die Bestsellertitel betreffen könnte. Diese Skepsis wird zusätzlich geschürt etwa durch das Anbieten einer Funktion, mit der sich Konsumenten untereinander Titel ausleihen können (,Kindle Lending‘). Dazu wollen die deutschen Verleger kostendeckende Preise auch beim EBook durchsetzen (anders als Amazon diese auf dem amerikanischen Markt gehandhabt hat), wodurch konsequenterweise nicht entfernt jener „Hype“ und jene Marktdynamik entstehen können, wie sie das E-Book in den USA erlebt hat. Nicht zuletzt mag es in Europa auch ein Akzeptanzproblem beim Publikum geben, das sich auf eine Technisierung des Lesens durch elektronische Geräte trotz deren offen zutage liegender Vorteile nicht ohne Weiteres einlassen mag. Jedenfalls: Erst seit April 2011 ist der Kindle auch über Amazon.de erhältlich und erst seit diesem Zeitpunkt existiert auch ein deutschsprachiger KindleStore, mit derzeit (September 2011) „nur“ 42.000 lieferbaren Titeln.

Überschreitung der Systemgrenzen Das Prinzip des „proprietären Systems“, das Amazon mit Kindle und KindleStore zunächst konzeptionell – technisch und durch das spezielle Digital Rights Management – gleichsam mustergültig realisiert hat und manchen Verleger von der Teilnahme abgehalten haben dürfte, entspricht allerdings genau der Strategie, die auch Konkurrenten wie Apple durchgezogen haben. Um nun auch für dieses andere Publikum erreichbar zu sein, hat Amazon Maßnahmen gesetzt, mit denen solche Barrieren mindestens in einer Richtung überwunden werden können: Bereits 2009 wurde eine Kindle App für Apple-Geräte vorgestellt, und im Juni 2010 auch eine App für alle Android-Geräte. Da allerdings Apple mit Wirksamkeit vom 30. Juni 2011 ein generelles Verbot erließ, aus Apps extern auf Online-Shops mit eigenen Bezahlsystemen zu verlinken (Apple wollte in seinem App Store nur noch Verkäufe zulassen, an denen es selbst mit 30% partizipieren

Die digitale Revolution auf dem Buchmarkt

107

kann),37 musste Amazon – ebenso wie z. B. auch Google – in seiner Kindle-App den Verweis auf seinen E-Book-Store entfernen. Um dieses Verlinkungsverbot zu umgehen, erstellte der Online-Händler jedoch eine neue browser-basierte App, den Kindle Cloud Reader, der erneut auf den Kindle Store verweist. (Bei einem Cloud Reader handelt es sich um eine in HTML5-programmierte Webseite, die aktuell in den Browsern Chrome und Safari dargestellt werden kann.) Darüber hinaus können nun Kindle-E-Books innerhalb des Browsers, ganz ohne spezielle Kindle-App, gelesen werden – d. h. auch auf dem iPad des großen Konkurrenten Apple. Gerade der enorme Erfolg des iPads, das dem Kindle schnell Marktanteile abnehmen konnte, fordert Amazon zu entschiedener Reaktion heraus. Während ein Sprecher der Firma Ende 2010 noch darauf verwies, dass sich Touchscreen und Farbdisplay negativ auf die Lesbarkeit auswirkten und es sich beim Kindle primär um ein hochfunktionales Lesegerät und nicht um ein „Gadget“ handele,38 wurde im November 2011 Amazons Tablet „Kindle Fire“ in den USA ausgeliefert.39 All diese Vorgänge lassen erkennen, wie umkämpft der Markt für digitale Bücher ist und wie der Wettbewerb zwischen den großen Unternehmen als Treiber der technologischen und marktökonomischen Entwicklung wirkt.

1.2 Apple 1976 von Steve Gary Wozniak und Steve Paul Jobs gegründet, leistete der USamerikanische Hard- und Softwarehersteller mit Apple I und Apple II einen frühen Beitrag zur Verbreitung des Personal Computers, der mit dem Gerät Lisa erstmals auch eine grafische Benutzeroberfläche bekommen hatte.40 In den folgenden Jahren entwickelte das Unternehmen verschiedene Computermodelle und Peripheriegeräte, die insbesondere in der Druck- und Grafikbranche weite Verbreitung fanden. Die wirtschaftliche Situation des Unternehmens war lange Zeit jedoch nicht stabil. Im Jahr 1998 erregte der erste iMac, der über ein ausge-

37 Kindle geht eigene Wege, 2011. www.buchreport.de/nachrichten/online/online_nachricht/ datum/2011/08/10/kindle-geht-eigene-wege.htm (Stand: 27.08.2011). 38 Vgl. Exclusive: Amazon: why we won’t make a touchscreen Kindle. www.atarh.com/ exclusive-amazon-why-we-wont-make-a-touchscreen-kindle (Stand: 04.09.2011). 39 Amazon-Tablet: Keine Konkurrenz für Kindle, 2011. www.heise.de/mobil/meldung/AmazonTablet-Keine-Konkurrenz-fuer-Kindle-1266120.html (Stand: 28.08.2011). 40 Zur Geschichte von Apple vgl. Gartz, Joachim: Die Apple-Story. 2., überarb. und erw. Aufl. Kilchberg 2005, sowie Erdmann, Charlotte: One more thing: Apples Erfolgsgeschichte vom Apple I bis zum iPad. München 2011.

108

Ernst Fischer und Anke Vogel

fallen designtes All-in-One-Gehäuse und sowohl über ein integriertes Modem wie auch über Ethernet verfügte, großes Aufsehen. Der Zugang zum WWW, das sich in den 1990er Jahren ausbreitete, wurde dadurch recht einfach möglich. Die iMac Linie führte das Unternehmen Apple nach hohen Verlusten im Jahr 1997 schließlich wieder in die Gewinnzone. Der nächste Clou gelang Apple mit der Einführung des hochpreisigen Audioabspielgeräts iPod im Jahr 2001, das im Vergleich zu anderen Wiedergabegeräten durch deutlich größere Speicherkapazität, einfache Bedienung durch das neuartige Scroll-Rad und wiederum ein ausgefeiltes Design schnell sehr beliebt wurde. Die im Jahr 2001 eingeführte Musikverwaltungssoftware iTunes und der 2003 in den USA eröffnete iTunes Store haben in der Folge den Markt für digitale Musikprodukte oder allgemeiner für digitalen Content geprägt.41 Mit der Markteinführung des multifunktionalen Mobiltelefons iPhone im Jahr 2007 wurde das Eingabesystem Multitouch, das die Eingabe von Daten über Gesten mittels eines Touchscreens ermöglicht, etabliert.42 Mit dem Tablet-PC iPad hat Apple 2010 erneut, begleitet von einem enormen Marketingdruck, ein außerordentlich erfolgreiches Gerät auf dem Markt etabliert, das auch als Lesegerät für E-Books genutzt werden kann. Im Gegensatz zum Kindle, das auf der E-Ink-Technologie basiert, verfügt das iPad über ein Farbdisplay und wird, genauso wie iPhone und iPod-Touch, über die intuitive Gestensteuerung bedient. Mit dem ebenfalls 2010 gelaunchten iBook Store wurde von Apple, analog zu iTunes, eine Vertriebsplattform für digitale Bücher geschaffen, für die von Beginn an große Verlagsgruppen als Partner gewonnen werden konnten. Von dem Tablet-PC iPad, den der ehemalige Apple-Konzernchef Steve Jobs als „magisches und revolutionäres Produkt“ angepriesen hatte, wurden ein Jahr nach Einführung bereits über zehn Millionen Stück pro Quartal verkauft und das, obwohl bis dahin viele Me-too-Produkte43 von Mitbewerbern erhältlich waren.44

41 Vgl. Long, Tony: Oct. 23, 2001. Now Hear This … The iPod Arrives, 2008. www.wired.com/ science/discoveries/news/2008/10/dayintech_1023 (Stand: 28.02.2011), sowie pat: iTunes wird immer dominanter, 2009. www.spiegel.de/netzwelt/web/0,1518,643656,00.html (Stand: 02.03.2011). 42 Vgl. Sander, Ralf: Ein Handy zum Streicheln, 2007. www.stern.de/digital/telefon/appleiphone-ein-handy-zum-streicheln-579977.html (Stand: 27.08.2011). 43 Imitation am Markt bereits vorhandener Produkte. 44 Vgl. Neue Vertriebsplattform. „Magisches“ iPad bringt Apple ins Buchgeschäft, 2010. www. ftd.de/it-medien/computer-technik/:neue-vertriebsplattform-magisches-i-pad-bringt-apple-insbuchgeschaeft/50066704.html (Stand: 27.08.2011), sowie Whitney, Lance/Beiersmann, Stefan: Studie: Apple verkauft mehr mobile Systeme als Hewlett-Packard, 2011. www.zdnet.de/news/

Die digitale Revolution auf dem Buchmarkt

109

Die gezielte Ästhetisierung und Mythisierung von Produkten stellt eine wichtige Strategie der „Apfel-Ökonomie“ dar.45 Die Auratisierung der „Gadgets“ bildet eine wichtige Voraussetzung für die Positionierung der Produkte im Hochpreissegment. Auf diese Weise konnte der Markenwert in unglaubliche Höhen gesteigert werden – Apple verdrängte im August 2011 den Mineralölkonzern Exxon Mobil und wurde mit einem Börsenwert von 337 Mrd. Dollar (im Februar 2012 gesteigert auf 424 Mrd. Dollar) zum wertvollsten Unternehmen weltweit.46 Die Grundlagen für eine weitere Expansion und Eroberung von Märkten sind somit vorhanden.

Apps – kleine Programme mit großem Potenzial? Auch wenn Apps (Applications, also kleine Anwendungen) schon zuvor auf einer Vielzahl von mobilen Endgeräten zu finden waren, so stellten doch zunächst das iPhone und später das iPad entscheidende Treiber für die Verbreitung dieser Technologie dar. Im Jahr 2010 hatten deutsche Handynutzer bereits 900 Millionen Apps auf ihre Smartphones geladen und damit mehr als doppelt so viele wie im Jahr zuvor, wobei allerdings die meisten davon (90%) kostenlos waren.47 Es ist jedoch damit zu rechnen, dass sich die App-Nutzung nicht nur deutlich stärker verbreiten wird, sondern auch, dass sich die Umsätze, durch Verkäufe von Apps einerseits und durch Verkäufe innerhalb von Apps andererseits, weiterhin deutlich erhöhen werden. Einfluss auf Literatur kann die AppTechnologie auf zweifache Weise nehmen: Erstens stellen Apps einen neuen Vertriebskanal dar, über den Konsumenten sowohl gedruckte Bücher wie auch

41555771/studie-apple-verkauft-mehr-mobile-systeme-als-hewlett-packard.htm (Stand: 27.08.2011). 45 Apples nicht gerade bescheiden formuliertes Mission statement lautet: „Apple designs Macs, the best personal computers in the world, along with OS X, iLife, iWork, and professional software. Apple leads the digital music revolution with its iPods and iTunes online store. Apple reinvented the mobile phone with its revolutionary iPhone and App Store, and has recently introduced its magical iPad which is defining the future of mobile media and computing devices.“ Vgl. Apple Investor Relations. http://phx.corporate-ir.net/phoenix.zhtml? c=107357&p=irol-faq#corpinfo2 (Stand: 17.01.2011). 46 Vgl. Apple Börsenwert über 300 Milliarden Dollar, 2011. newsticker.sueddeutsche.de/list/ id/1091590 (Stand: 17.01.2011). Vgl. ferner: Apple überholt Exxon Mobil, 2011. www.faz.net/ artikel/C31151/wertvollstes-unternehmen-der-welt-apple-ueberholt-exxon-mobil-30483292. html (Stand: 29.08.2011). 47 Deutsche laden 900 Millionen Apps auf Smartphones, 2011. www.boersenblatt.net/414542 (Stand: 02.03.2011).

110

Ernst Fischer und Anke Vogel

digitale Buchprodukte erwerben können. Hier können exemplarisch die Unternehmen txtr oder textunes genannt werden, wobei Letzteres eine Verbindung von „eBook-Shop, Lesesoftware und Community“ darstellt.48 Zweitens können Apps selbst eine Form des digitalen Buchs darstellen, in der z. B. multimedial angereicherte Bücher (enhanced books) angeboten werden. Apple hat seinen App Store, der nur innerhalb des proprietären Systems nutzbar ist, im Frühjahr 2008 eröffnet. Immer wieder steht das Unternehmen jedoch aufgrund seiner Restriktionen bei der Aufnahme von Programmen in den App Store und der Konditionenpolitik in der Kritik von Entwicklern wie auch von Verlagen.49 Insbesondere die Forderung, dass Unternehmen Umsätze künftig direkt im App Store abwickeln und auf eine Weiterleitung auf eigene Shops verzichten sollen, hat Empörung bei deutschen Medienhäusern ausgelöst, die weder ihre Kundendaten noch eine 30-prozentige Umsatzbeteiligung an Apple weitergeben wollen.50 Neben Apple unterhalten mittlerweile auch einige Hersteller von mobilen Endgeräten sowie Google und Amazon jeweils eigene App Stores. Der Android Market von Google, der im Sommer 2008 gelauncht wurde, kann als eine Reaktion auf den Erfolg von Apple gewertet werden. Im Frühjahr 2011 stieg schließlich auch Amazon mit dem Appstore for Android in den AppMarkt ein. Ein Vorteil des Amazon-Stores ist es, dass das Look-and-Feel und auch die personalisierten Empfehlungen und zahlreiche weitere Features bereits bekannt und von den Nutzern gelernt sind und so den App-Verkauf unterstützen können. Genauso wie Apple kassiert das Unternehmen 30% der Erlöse aus dem App-Verkauf. Dass Apple sofort eine – zunächst erfolglos gebliebene – Klage gegen die Verwendung des Begriffs Appstore durch Amazon einreichte, zeigt einmal mehr, wie hart der Konkurrenzkampf zwischen den Unternehmen um die vorherrschende Stellung im Markt für digitale Contents geworden ist.51 Wie bereits erwähnt stellt Amazon seit 2009 eine Kindle App für Apple-Geräte zur Verfügung,52 die es ermöglicht, dass digitale Buchprodukte auch auf anderen Endgeräten als dem Kindle, aber dennoch im proprietären System von Amazon

48 Vgl. Webseite von textunes. Wir über uns. www.textunes.de/WebObjects/textunes.woa/ cms/1023124/UEber-textunes.html (Stand: 28.08.2011). 49 bsc: Programmierer kritisieren Apples App Store, 2008. www.heise.de/newsticker/ meldung/Programmierer-kritisieren-Apples-App-Store-205628.html (Stand: 02.03.2011). 50 Verlage im Clinch mit Apple, 2011. www.boersenblatt.net/413035 (Stand: 02.03.2011). 51 Software-Laden. Amazon öffnet Appstore – Apple klagt, 2011. www.spiegel.de/netzwelt/ gadgets/0,1518,752424,00.html (Stand: 28.08.2011), sowie App-Store-Klage. Apple verliert vorerst gegen Amazon, 2011. www.golem.de/1107/84788.html (Stand: 28.08.2011). 52 Vgl. Kumparak, Greg: Amazon launches Kindle application for the iPhone, 2009. www.mobilecrunch.com/2009/03/03/amazon-launches-kindle-app-for-the-iphone (Stand: 28.02.2011).

Die digitale Revolution auf dem Buchmarkt

111

gelesen werden können. Die derzeit neueste Entwicklung in dieser Richtung stellt die Kindle App für Geräte mit dem Android-Betriebssystem dar, die seit Juni 2010 verfügbar ist.53 Befürchtungen, dass Apple durch das iPad zum „Torwächter für alle Software-Programmierer, aber auch für Buchverlage, Musikanbieter, Medienhäuser und Filmstudios, die den iPad-Nutzern etwas verkaufen wollen“54 werden könnte, relativieren sich also vor dem Hintergrund dieser Entwicklungen. Die Nutzung von Kindle und iPad weist übrigens deutliche Unterschiede auf: Während 93% der Kindle-Nutzer auf ihren Geräten E-Books lesen, ist das nur bei 76% der iPad-Nutzer der Fall. Die Quote der Zeitungs- und Zeitschriftenleser ist dafür jedoch beim iPad etwa fünfmal so hoch wie beim Kindle, die Nutzung von Blogs und Newsfeeds sogar 15-mal so hoch.55

Preisgestaltung bei digitalen Büchern – Retail- und Agenturmodell Gleichzeitig mit der Etablierung neuer Vertriebsmodelle für digitale Bücher, die von neuen Intermediären wie Amazon, Apple und Google vorangetrieben wurden, brandete die Diskussion um die Preisgestaltung der E-Books auf. Amazon setzte in den USA zunächst auf ein Retailmodell, bei dem der Onlinehändler Titel zu einem Einkaufspreis von den Verlagen erwarb und zu einem selbst festgelegten, in der Regel niedrigen Endverkaufspreis an die Konsumenten abgab. Um einen Höchstpreis von 9,99 Dollar nicht zu überschreiten, verkaufte Amazon Titel in einigen wenigen Fällen sogar unterhalb des Einkaufspreises. Häufiger stützte sich das Unternehmen jedoch auf seine Monopolstellung und legte Preisgrenzen fest, an die sich die Verlage halten sollten – Autoren konnten dabei schnell zu Leidtragenden werden, da ihre Verdienstmöglichkeiten enorm beschnitten wurden. Dies rief in der Buchbranche einigen Unmut hervor:56 Nach-

53 Vgl. Newman, Jared: Amazon’s Kindle App for Android Comes at Crucial Time, 2010. www. pcworld.com/article/200065/amazons_kindle_app_for_android_comes_at_crucial_time.html (Stand: 28.02.2011). 54 Lischka, Konrad: Apple-Tablet: Darum kaufe ich Oma ein iPad (und mir keins), 2010. www.spiegel.de/netzwelt/gadgets/0,1518,674468,00.html (Stand: 02.03.2011). 55 Crothers, Brooke, Florian Kalenda: iPad schließt als E-Book-Reader zu Amazons Kindle auf, 2010. www.zdnet.de/news/mobile_wirtschaft_studie_ipad_schliesst_als_e_book_reader_zu_ amazons_kindle_auf_story-39002365-41541472-1.htm (Stand: 02.03.2011). 56 Vgl. Digitale Daumenschrauben. Amazon verteidigt eigenes Pricing-Modell für E-Books, 2010. www.buchreport.de/nachrichten/online/online_nachricht/datum/2010/03/22/digitaledaumenschrauben.htm (Stand: 28.08.2011), sowie www.epublizisten.de/2010/10/dasagenturmodell-und-die-ebooks-in-den-usa-und-warum-self-publishing-die-bessere-alternativeist/ (Stand: 29.08.2011)

112

Ernst Fischer und Anke Vogel

dem Apple im Rahmen der Einführung des iPads sein Agentur-Modell angekündigt hatte, bei dem der Verlag der Verkäufer bleibt, seine Verkaufspreise selbst festlegt und lediglich eine (mit 30% allerdings recht hohe) Verkaufsprovision zahlt, geriet Amazon in Zugzwang, da sich einige Verlage nicht länger unter Druck setzen lassen wollten. Schließlich musste auch der Onlinehändler das Agenturmodell zumindest für einige Verlage einführen, versuchte dafür aber an anderer Stelle, sich Vorteile gegenüber den Mitbewerbern zu sichern, indem die teilnehmenden Verlage sich verpflichten sollten, drei Jahre lang keinem Wettbewerber niedrigere Preise oder bessere Konditionen einzuräumen. Eine neue Dynamik gewann die Diskussion im Sommer 2011, als eine Klage gegen Apple und fünf der größten Verlage in den USA eingereicht wurde, die sich gegen das Agenturmodell richtet: Aus Sicht der Kläger ermöglicht es dieses Modell, die Preise für E-Books künstlich nach oben zu treiben, um Gewinne zu erhöhen, was u. a. daran abzulesen sei, dass Amazon seine zuvor vergleichsweise günstigen E-Book-Preise erhöhen musste.57 Da im deutschsprachigen Raum für einen großen Teil der digitalen Bücher die Buchpreisbindung gilt, ist diese Diskussion bisher nicht ohne Weiteres zu übertragen, sie zeigt aber dennoch, wie sich Märkte für Kulturgüter unter den Bedingungen der Digitalisierung teilweise gänzlich neu organisieren.

Abschottung der Marktbereiche: Technik als Hebel Soweit sie von den globalen Playern vorangetrieben wird, folgt die Neuorganisation des Buchmarkts immer wieder Mustern, die aus anderen Märkten für Medienprodukte stammen, hauptsächlich aus dem Musikmarkt. So hat Apple vergleichbar dem iTunes Store für Audio- und Videodateien parallel zur Auslieferung des Tablet-PCs mit dem iBook Store ebenfalls ein geschlossenes Shopsystem für digitale Buchprodukte etabliert. Den entscheidenden Hebel für die Abschottung gegenüber der Konkurrenz liefern hier Technologien, die auf einen Schutz der Urheber- und Verwertungsrechte gerichtet sind, im Nebeneffekt aber auch eine Kontrolle der Angebote ermöglichen, die entweder ausgeschlossen oder aber in die Distribution mit eingeschlossen werden sollen. Ähnlich wie

57 Vgl. Matthey, Florian: iBookstore: Klage gegen Apple und Verlage wegen Preisabsprachen, 2011. www.macnews.de/iphone/ibookstore-klage-gegen-apple-und-verlage-wegenpreisabsprachen-237038 (Stand: 28.08.2011) sowie Musil, Steven, Stefan Beiersmann: Apple und mehrere US-Verlage wegen E-Book-Preisabsprachen verklagt, 2011. www.zdnet.de/news/ 41555567/apple-und-mehrere-us-verlage-wegen-e-book-preisabsprachen-verklagt.htm (Stand: 28.08.2011).

Die digitale Revolution auf dem Buchmarkt

113

auch im Kindle Store von Amazon sind die Dateien im iBook Store mit einem harten Kopierschutz versehen, der gegen unrechtmäßige Vervielfältigung schützen soll. Nur wenigen, wirtschaftlich potenten Verlagen gelang es bisher, die künstlich aufgerichteten Schranken nach mehreren Seiten zu überwinden: Beispielsweise wurden über die Plattform BIC Media der Bertelsmann-Tochter arvato systems deutschsprachige Titel aus der Verlagsgruppe Random House schon seit Längerem an unterschiedliche E-Book-Distributionsplattformen wie etwa den iBook Store, Thalia.de oder auch libreka.de, in jüngster Zeit aber auch an den Kindle Store geliefert.58 Zunehmend treten nun jedoch Dienstleistungsunternehmen wie Bookwire in den Buchmarkt ein, die genau den Vertrieb über alle eBook-Plattformen ermöglichen wollen. Demarkationslinien quer durch den Buchmarkt sind auch durch die unterschiedlichen Standards oder Formate entstanden, in denen heute digitale Buchprodukte verfügbar sind. Diese Formatvielfalt stellt ein ernsthaftes Problem für die Buchbranche wie auch für die Konsumenten dar. Einerseits gibt es die proprietären, also geschlossenen, Systeme wie Amazon und Apple, andererseits hat sich mit dem EPUB-Format, das mit einem Kopierschutz versehen werden kann, allerdings nicht muss, ein weiteres E-Book-Format etablieren können. Nicht alle Formate können jedoch auf allen Geräten ausgegeben werden, ohne dass zumindest ein Konvertierungsprogramm eingesetzt werden muss. Im Kindle- wie auch im iBook-System können kopiergeschützte EPUB-Dateien derzeit überhaupt nicht genutzt werden. Die Einführung eines einheitlichen Standards scheitert bislang nicht nur an objektiven technischen Problemen (wissenschaftliche Texte mit Tabellen etc. lassen sich am besten als PDF darstellen, Formate für belletristische Texte sollten eine flexible Seitengestaltung ermöglichen), sondern auch an den von den maßgeblichen Unternehmen verfolgten Marktstrategien. Der daraus entstehende Wettbewerbsdruck forderte in den USA bereits einige prominente Opfer: Nachdem schon die Buchhandelskette Border’s 2010 Insolvenz anmelden musste, stand 2011 auch der führende Filialist Barnes & Noble (mehr als 700 Filialen und 600 College Bookstores) zum Verkauf; er hatte einen eigenen E-Book-Reader Nook herausgebracht, war aber – bei rückläufigen Print-Verkäufen – im Digitalgeschäft zu schwach, um es mit Amazon und Apple aufzunehmen.59

58 Vgl. roe: 2000 Titel im iBook Store, 2010. www.boersenblatt.net/384614 (Stand: 02.03.2011); acb: Deutsche Bestseller im US-Kindle-Store, 2011. www.heise.de/newsticker/ meldung/Deutsche-Bestseller-im-US-Kindle-Store-1196809.html (Stand: 02.03.2011). 59 Warner, Ansgar: E-Books wälzen US-Buchbranche um – Barnes & Noble vor der Übernahme, 2011. www.e-book-news.de/barnes-and-noble-vor-verkauf-e-books-amazon-krise-usbuchhandel (Stand: 29.08.2011).

114

Ernst Fischer und Anke Vogel

1.3 Google Als im September 1998 Google auf den Plan trat (ein Vorläufer namens BackRub war bereits seit 1996 in Betrieb),60 existierten bereits mehrere „search engines“ (seit 1994 WebCrawler, Infoseek, Lycos, seit 1995 Yahoo, seit 1996 Altavista), die dem Benutzer per Suchbegriff die damals explosiv zunehmende Menge an Internet-Seiten erschlossen. Google baute allerdings auf einer Suchmaschinen-Technologie auf, die sich gegenüber der Konkurrenz als so überlegen erwies, dass sich das Unternehmen binnen weniger Jahre an die Spitze setzen konnte (seit Mitte 2000 Marktführer). Der geheimnisvolle Such-Algorithmus, der diese Überlegenheit stiftete, wird übrigens von Zeit zu Zeit abgeändert, um die Treffergenauigkeit weiter zu verbessern, aber auch um die Optimierungsexperten zu düpieren, die mit speziellen Taktiken die Ergebnisse zu beeinflussen suchen.61 Nach der Einstellung einiger Suchmaschinen und trotz des Hinzutretens neuer Konkurrenten (wie MSN und Bing von Microsoft 2009) liefen im Jahr 2011 bereits knapp 90% aller Suchanfragen über Google. Das Unternehmen ist also von einer Monopolstellung nicht allzu weit entfernt.62 Google war, wie die meisten Suchmaschinen der ersten Generation (1994 bis 1997), an einer Universität – von den Informatik-Doktoranden Sergey Brin und Larry Page in Stanford – entwickelt worden; der Schwerpunkt lag anfänglich sogar eindeutig auf der Perfektionierung der technischen Funktionen. Danach aber wurde u. a. durch Übernahmen und strategische Partnerschaften mit vielen kleinen Anbietern, die mit Hilfe von Google (ohne Namensnennung) Suchfunktionen auf ihrer Seite anboten, zunächst eine finanzielle Konsolidierung und nachfolgend ein ökonomischer Höhenflug erreicht, der seinesgleichen sucht.

60 Zur Google-Geschichte vgl. die Selbstauskünfte auf www.google.at/intl/de/about/ corporate/company/history.html sowie Lehmann, Kai, Michael Schetschke (Hg.): Die GoogleGesellschaft. Bielefeld 2005; Vise, David/Malseed, Mark: Die Google-Story. Hamburg 2006; Kaumanns, Ralf, Veit Siegenheim: Die Google-Ökonomie: Wie Google die Wirtschaft verändert. Norderstedt 2007; Reppesgard, Lars: Das Google Imperium. Hamburg 2008; Jarvis, Jeff: What would Google do? New York 2010; Röhle, Theo: Der Google-Komplex. Über Macht im Zeitalter des Internets. Bielefeld 2010. 61 Was verbirgt sich hinter Googles Panda? 2011, www.boersenblatt.net/448297 (Stand: 29.08.2011). 62 Im August 2011 waren es 87,1%; ein relativ niedriger Wert. Der nächste Konkurrent, Bing, folgte mit 3,6%. Vgl. www.webhits.de/deutsch/index.shtml?/deutsch/webstats.html (Stand: 29.08.2011).

Die digitale Revolution auf dem Buchmarkt

115

Googles Geschäftsmodell Das seit 2004 an der Börse notierende Unternehmen, das im Jahr 2010 bei etwas mehr als 23 Mrd. Dollar Umsatz einen Gewinn von 8,5 Mrd. Dollar erzielte,63 generiert seine Erträge hauptsächlich über seine Werbeprogramme: Das Google AdWords-Programm bietet seinen Kunden die Möglichkeit, „messbare, kosteneffektive Online-Anzeigen zu schalten, die in Bezug zu den auf einer Website angezeigten Informationen stehen,“64 das Google AdSense-Programm erlaubt es Betreibern von Websites auf sehr einfache Weise, eine benutzerdefinierte Suchmaschine hinzuzufügen und zielgruppenadäquate Anzeigen zu platzieren, um an den Klicks und Page-Impressions der Besucher mitzuverdienen. Das Unternehmen hält sich viel darauf zugute, seine Angebote fairerweise so auszurichten, dass die Anzeigen unaufdringlich gestaltet sind, dass für sie nur bezahlt werden muss, sofern sie angeklickt werden, und dass Werbung stets in deklarierter Form stattfindet („Weder verkaufen wir die Platzierung in den Suchergebnissen selbst, noch erlauben wir Kunden, für eine höhere Platzierung dort zu bezahlen“).65 Google Inc. hat inzwischen Standorte in mehr als 60 Ländern aufgebaut und unterhält mehr als 180 Internetdomains; die Benutzeroberfläche der GoogleSuche ist in mehr als 130 Sprachen verfügbar, das Unternehmen beschäftigt mehr als 24.000 Mitarbeiter.66 2011 und 2012 erreichte der Börsenwert eine Höhe von rund 190 Mrd. Dollar, auf der Liste der weltweit bekanntesten Marken lag Google im Mai 2011 hinter Apple auf Platz 2.67 Es scheint bezeichnend, dass das Verb „googeln“ in den allgemeinen Sprachgebrauch eingegangen ist und offiziell als Synonym für die Suche im Internet in das Duden-Wörterbuch aufgenommen worden ist. Im Namen der Suchmaschine, der sich aus „Googol“ herleitet, dem mathematischen Fachbegriff für eine 1 gefolgt von 100 Nullen, spiegelt sich der Anspruch des Unternehmens auf Erfassung und Erschließung

63 boerse.ARD.de vom 21.01.2011. boerse.ard.de/content.jsp?key=dokument_505082 (Stand: 28.02.2011). Vgl. außerdem finanzen.net. www.finanzen.net/bilanz_guv/Google (Stand: 02.03.2011). Vgl. dazu auch: Lischka, Konrad: Umsatz, Besucher, Bewertung. So verdienen die Web-Riesen im Netz, 2011. www.spiegel.de/netzwelt/web/0,1518,745755,00.html (Stand: 02.03.2011). 64 Pressemeldung: Google Chrome ist jetzt noch schneller, 2010. www.themenportal.de/ithightech/google-chrome-ist-jetzt-noch-schneller-91490 (Stand: 27.08.2011). 65 Unter den „Zehn Grundsätzen“ zur Geschäftspolitik lautet Grundsatz 6: „Geld verdienen, ohne jemandem damit zu schaden“. www.google.com/about/corporate/company/tenthings. html (Stand: 29.08.2011). 66 boerse.ard.de/content.jsp?key=dokument_477162 (Stand: 28.02.2011). 67 Top 100 Global Brands, 2011. www.marketingweek.co.uk/Journals/2011/05/11/ TheBrandZTop100GlobalBrands.pdf (Stand: 29.08.2011).

116

Ernst Fischer und Anke Vogel

gewaltiger Datenmengen. Tatsächlich ist Googles expliziter Anspruch darauf, „die auf der Welt vorhandenen Informationen zu organisieren und allgemein zugänglich und nutzbar“68 zu machen, durchaus wörtlich zu nehmen.

Expansion in immer neue Geschäftsfelder Google versteht sich als Informationsanbieter im umfassendsten Sinn und setzt seine Marktmacht und Finanzkraft gezielt ein, um in immer neue Geschäftsfelder vorzustoßen, teils durch Unterhalt einer aufwendigen und gleichsam experimentell verfahrenden Entwicklungsabteilung, teils durch Firmenaufkäufe. Zu Letzteren gehört der Erwerb der Videoplattform YouTube oder (2011) des Smartphoneherstellers Motorola (für 12,5 Mrd. Dollar). Auch GoogleEarth oder GoogleMaps beruhen letztlich auf Zukäufen kleiner Firmen, deren Erfindungen nachfolgend in großem Stil ausgebaut wurden. Ein nicht unbeträchtlicher Teil der Energie fließt in Initiativen, mit denen man den großen Konkurrenten wie Apple, Amazon oder zuletzt auch Facebook entgegentreten will. So etwa hat der Konzern im Frühjahr/Sommer 2011 das soziale Netzwerk Google+ gestartet, um auch im Bereich von Social Media bzw. des Social Web mitzumischen. Die gesamte Palette der von Google kreierten Produkte ist inzwischen so differenziert und ausgedehnt, dass es an dieser Stelle nicht möglich ist, sie in ihrer Gesamtheit auszubreiten. Dass das Unternehmen sein Wirken als eines zum Wohle der Menschheit versteht und in der Öffentlichkeitsarbeit seine wirtschaftlichen Interessen gerne ausblendet, stellt ein eigenes Problem dar. Üblicherweise strebt der Google-Konzern auf seinen Betätigungsfeldern nicht nur die Innovations-, sondern stets auch die Marktführerschaft an, und nicht selten gelingt ihm die Errichtung von Monopolen. Alles dies in einem globalen Maßstab; auf nationale oder gar regionale Spezifitäten wird keine Rücksicht genommen, außer wenn dies durch die Anwendung nationalen Rechts erzwungen wird. Die Gefahren, die sich daraus ergeben, sind evident. Sie liegen hauptsächlich in der Verdrängung ganzer Firmenlandschaften, die auf „Offline“-Geschäftsmodellen aufbauen, die im digitalen Zeitalter nicht mehr durchgesetzt werden können. So etwa kann sich Google aufgrund seiner Werbefinanziertheit einen entscheidenden Wettbewerbsvorteil überall dort verschaffen, wo es – im Gegensatz zu konventionellen Anbietern – die „Gratis-Mentalität“ der Internet-Nutzer bedienen kann. Für Konkurrenten mit traditionellen, auf Produktverkauf abgestellten Geschäftsmodellen können sich daraus ernsthafte Überlebensprobleme

68 Unternehmensprofil von Google. www.google.com/corporate (Stand: 17.01.2011).

Die digitale Revolution auf dem Buchmarkt

117

ergeben – gerade auch auf dem Buchmarkt, auf dem in den bisher praktizierten Formen kaum Einkünfte aus Werbung erzielt werden konnten und der durch das Eindringen von umsatz- und ertragsstarken, ökonomisch nach anderen Mechanismen funktionierenden Unternehmen wie Google ernsthaft destabilisiert werden kann. Zudem sind hier die wirtschaftlichen Größenordnungen in Betracht zu ziehen: Während der Google-Gesamtumsatz für das Jahr 2011 zwischen 35 und 40 Mrd. Dollar beträgt, setzt etwa die gesamte deutsche Buchbranche im Jahr 2010 knapp 10 Mrd. Euro um,69 und selbst in den USA bleibt der mit Büchern erzielte Umsatz nach den Angaben der Association of American Publishers (AAP) unterhalb von 24 Mrd. Dollar.70 Da Google auch gigantische Gewinne erzielt und sich damit enorme finanzielle Spielräume verschafft, kann das Unternehmen großzügige Projekte auf die Beine stellen, mit denen die gesamte Welt des Buches in Bewegung gerät.

Google Books Das weitaus bedeutendste dieser Projekte ist das seit 2005 als Google Books bekannte Programm, mit dem das in Büchern gespeicherte Welt-Wissen in digitaler Form hauptsächlich für Zwecke der Volltextsuche verfügbar gemacht werden soll. Genauer betrachtet, handelt es sich um zwei Programme unter einem Dach: Um ein „Partnerprogramm“ (auch Google Print) und ein „Bibliotheksprogramm“ (Google Library). Google Print stellt ein weltweites Angebot an Verlage dar, die ihre Bücher oder PDF-Dateien davon einsenden können, um sie scannen und nach OCR-Behandlung als elektronische Texte in Google Books aufnehmen zu lassen. Dort können definierte Teile jedes Buches von Google Books-Nutzern kostenfrei (nach Maßgabe eines Tageskontingents) eingesehen werden: „Die Inhalte der Verlage werden dabei von Google ‚gehostet‘ und nach dem gleichen System und mit der gleichen Technik katalogisiert und angezeigt, wie sie Google auch für die Suche nach Websites benutzt“.71 Neben den Suchergebnissen, bei denen abhängig von der Rechtesituation entweder Auszüge („Snippets“), eine Vorschau („Limited Preview“) oder sogar das gesamte Werk im Volltext angezeigt werden, präsentiert Google jeweils Links zu Verlagen und Buchhandlungen, bei denen die entsprechenden Bücher gekauft werden kön-

69 9,691 Mrd. Euro (BuBiZ 2010, S. 5). 70 Vgl. Börsenblatt 35/2010, S. 17. 71 Becht, Stefan: „Statt VlB: Google Print & Amazon. Warum Google nicht mehr nur InternetSuchmaschine ist, und warum Buchhändler das interessieren sollte“. In: BuchMarkt 8/2004, S. 38.

118

Ernst Fischer und Anke Vogel

nen, oder Bibliotheken, die sie im Bestand haben. Zusätzlich können Anzeigen von werbetreibenden Unternehmen, wie auch bei den übrigen Suchergebnissen, kontextsensitiv platziert werden.72 Google verspricht den Teilnehmern an diesem Programm (dies können neben Verlagen auch Autoren im Selbstverlag sein), dass sie damit kostenfrei das Publikum für ihre Bücher stark erweitern und den Absatz steigern können, indem die gesamte Nutzerbasis von Google weltweit erreicht wird; darüber hinaus ließen sich relevante Zugriffe auf die eigene Website generieren und durch content-bezogene Anzeigen, die neben den Buchseiten erscheinen, eine neue Einnahmequelle erschließen.73 Tatsächlich hat Google eine große Menge von „Partnern“, darunter namhafte Fach- und Wissenschaftsverlage wie de Gruyter (Berlin) gefunden, die sich dieser Möglichkeit bedienen, über eine Volltextsuche Interesse an ihren Büchern zu erzeugen.

Googles Bibliotheksprogramm Während die im Partnerprogramm angebotene Dienstleistung als unproblematisch angesehen werden kann, weil die Zugänglichmachung der Bücher in jedem Fall im Einverständnis mit den Verlagen bzw. Rechteinhabern erfolgt, hat das Bibliotheksprogramm weltweit für große Aufregung gesorgt. Google hat sich in diesem Rahmen nichts Geringeres vorgenommen als die Digitalisierung möglichst aller jemals gedruckten Bücher und ist zur Verwirklichung dieses Vorhabens Kooperationen mit großen Bibliotheken auf der ganzen Welt eingegangen – mit den bedeutendsten amerikanischen Universitätsbibliotheken und der New York Public Library, in Europa mit der Bodleian Library, spanischen Bibliotheken ebenso wie mit der Bayerischen Staatsbibliothek oder der Österreichischen Nationalbibliothek. Mehr als 15 Millionen Bücher vom 15. Jahrhundert bis zur unmittelbaren Gegenwart hat Google auf dieser Basis in den zurückliegenden Jahren bereits digitalisiert und in seine Buchsuche integriert – ein bemerkenswerter Schritt zur Erschließung des menschheitlichen Wissens, soweit es in Büchern niedergelegt ist. Auch wenn die maschinell durchgeführte Scan- und OCR-Prozedur keineswegs fehlerlos funktioniert, so ist damit doch der bisher wichtigste Schritt in Richtung einer digitalen Weltbibliothek gelungen, die Einlösung einer seit dem antiken Alexandria verfolgten Utopie nahe gerückt. In der wissenschaftlichen Arbeit bewährt sich Google books inzwischen als hilfreiches

72 Vgl. Rath, Michael, Torben Swane: „Google Buchsuche – digitale Weltbibliothek und globale Buchhandlung“. In: Kommunikation & Recht. 12. Jg., April 2009. S. 225–228, hier S. 225. 73 books.google.de/intl/de/googlebooks/book_search_tour

Die digitale Revolution auf dem Buchmarkt

119

Forschungsinstrument in unterschiedlichsten Zusammenhängen, so auch für Zwecke einer quantitativen Kulturanalyse.74 Der Begeisterung für diese von Google – wenn auch nicht uneigennützig – finanzierte75 Erschließung und „Demokratisierung“ des Welt-Bücherwissens standen von Anfang an auch Skepsis und Ablehnung gegenüber, besonders in Europa. Dafür gab es vielfältige, auch kulturpolitische Gründe: Mit Jean-Noël Jeanneney, dem Direktor der Bibliothèque Nationale de France an der Spitze, warnten die Kritiker vor der US-amerikanischen Kulturhegemonie, die mit der von Google ausgeübten Herrschaft über das Buchkulturerbe einher gehe, und sie warnten auch vor der damit verbundenen schleichenden Aushöhlung des Urheberrechts.76 Verleger- und Autorenorganisationen verwiesen darauf, dass Google auch urheberrechtlich geschützte Werke digitalisiert habe und diese ausschnittsweise anzeigt, ohne vorher das Einverständnis der Rechteinhaber einzuholen. Denn erst im Nachhinein sollte es diesen möglich sein, Titel im Rahmen einer „Opt-Out“-Regelung entfernen zu lassen. Der Suchmaschinenanbieter berief sich bei dieser Praxis auf eine Ausnahmeregelung im US-Recht, den sogenannten „fair use“, der eine „angemessene Nutzung“ geschützter Werke zulässt.77 Im September 2005 reichte die US-amerikanische Autorenvereinigung Authors Guild (mit rund 8000 Mitgliedern) deswegen eine Sammelklage gegen Google ein, führende amerikanische Verlage sowie die Association of American Publishers folgten mit einer weiteren Klage im Oktober desselben Jahres.

74 Vgl. Fischer, Ernst: „Culturomics. Digitale Bibliotheken als Basis für quantitative Kulturanalysen“. In: Kodex. Jahrbuch der Internationalen Buchwissenschaftlichen Gesellschaft, Bd. 1: Digitale Bibliotheken. Wiesbaden 2012, S. 59–82. 75 Der Börsengang von Google, den übrigens auch Jeff Bezos von Amazon als „initial investor“ öffentlich unterstützte, brachte dem Unternehmen erhebliche finanzielle Ressourcen ein, die den Aufbau der Buchsuche und die Digitalisierung von Bibliotheksbeständen begünstigt haben dürften. Vgl. Becht, Stefan: „Statt VlB: Google Print & Amazon. Warum Google nicht mehr nur Internet-Suchmaschine ist, und warum Buchhändler das interessieren sollte“. In: BuchMarkt 8/ 2004, S. 38. 76 Vgl. z. B. Jeanneney, Jean-Noël: Googles Herausforderung. Für eine europäische Bibliothek. Berlin 2006. Jeanneneys Streitschrift fasst viele der Bedenken zusammen, die gegen das dominante Auftreten der Weltfirma vorgebracht werden können. 77 Vgl. Köver, Chris: Ruckzuck gescannt. Seit Google und andere Internetfirmen Bücher digitalisieren wollen, planen Verlage selbst den Schritt ins Netz, 2006. www.zeit.de/2006/46/ C-Buecher (Stand: 28.02.2011).

120

Ernst Fischer und Anke Vogel

Google Settlement Im Anschluss an jahrelange außergerichtliche Verhandlungen wurde am 28. Oktober 2008 von Google und den genannten Verbänden das Google Book Settlement unterzeichnet, ein Vergleich, der u. a. eine Entschädigung der Rechteinhaber in der Höhe von 60 Dollar pro Buch vorsah und im Januar 2009 vom New Yorker Bundesgericht vorläufig genehmigt wurde.78 Die von Google geplante kommerzielle Nutzung von Werken, deren Urheber nicht ohne Weiteres ermittelbar sind („orphan works“), blieb umstritten. Kurz vor Ende der Einspruchsfrist gegen das Settlement am 8. September 2009 legten der Börsenverein des Deutschen Buchhandels und die deutsche Bundesregierung Schriftsätze beim zuständigen US-Gericht vor, in denen sie ihre Bedenken gegenüber dem Vergleich geltend machten; fast gleichzeitig erfolgte auch eine kartellrechtliche Prüfung durch das US-Justizministerium. Eine Anhörung durch Richter Denny Chin am 7. Oktober 2009 endete mit der Auflage, dass das Settlement noch einmal überarbeitet werden muss. Dieses Amended Settlement Agreement wurde am 13. November 2009 eingereicht und beschränkte sich auf Werke, die in den USA, Kanada, Australien und Großbritannien, also Ländern mit angelsächsischer Rechtstradition, publiziert bzw. beim US-Copyright Office registriert wurden. Trotzdem wurde es am 22. März 2011 von Richter Chin zurückgewiesen: der strittige Gegenstand habe sich weit von der ursprünglich angestrebten ungenehmigten Anzeige von Bücher-„Snippets“ entfernt und ziele inzwischen darauf ab, unter Umgehung der Rechteinhaber privatrechtliche Regelungen zu treffen, die tief ins Urheberrecht eingriffen und somit in die Kompetenz des Gesetzgebers fielen. Aber auch kartellrechtliche Bedenken wurden geltend gemacht. Tatsächlich ging es nicht mehr bloß um die Volltextsuche in digitalisierten Büchern, sondern längst auch schon um die Frage des Vertriebs von E-Books, mit dem Google in Wettbewerb zu Amazon und Apple treten wollte. Konkret dazu äußerte der Richter die Befürchtung, Google könne sich bei der kommerziellen Verwertung von digitalisierten Büchern eine Monopolstellung sichern. Er schlug deshalb für eine weitere Überarbeitung des Settlements eine „Opt-in“Regelung vor: Jeder Rechteinhaber müsse vor jeder Nutzung eines geschützten Werks – dies beträfe zwei Millionen der bisher eingescannten 15 Millionen Titel – um sein Einverständnis gebeten werden. Für eine einvernehmliche Regelung wurden immer wieder neue Fristen gesetzt. 78 Vgl. Hess, Burkhard: „Das Google Book Search Settlement. Gefahr einer weltweiten Amerikanisierung und Monopolisierung des Urheberrechts?“ In: Reuß, Roland u. Volker Rieble (Hg.): Autorschaft als Werkherrschaft in digitaler Zeit. Frankfurt/Main 2009, S. 67–90, hier S. 68.

Die digitale Revolution auf dem Buchmarkt

121

Die richterliche Stellungnahme wurde besonders in Deutschland mit Genugtuung zur Kenntnis genommen: Damit sei nun klar, dass sich kein noch so großer „Player“ über Urheber- und Kartellrecht hinwegsetzen und sich insbesondere auch nicht ein de facto-Monopol in der Onlinenutzung vergriffener und verwaister Werke verschaffen dürfe.79 Hervorgehoben wurde, dass das deutsche bzw. kontinentaleuropäische Rechtsverständnis ernstgenommen wurde und jedenfalls eine Annäherung der angelsächsischen Copyright-Tradition denkbar geworden sei. Erwartet wurde, dass Google bei der Zugänglichmachung digitalisierter Bücher – wie schon beim Google-Partnerprogramm und bei Google E-Books – zu Lizenzmodellen übergehen werde (eine „friedliche“ Zusammenarbeit mit Google ist von Seiten der Verlage im Prinzip nicht ausgeschlossen, wie das Pilotprojekt der Digitalisierung von zehntausenden vergriffenen Titeln, sogenannter „dormant out-of-print works“ aus der Backlist von Hachette Livres zeigt).80 Ob mit dieser Entscheidung – wie verschiedentlich behauptet – tatsächlich bereits Rechtsgeschichte geschrieben wurde, muss dahingestellt bleiben. Während sich Verlage und Google in verschiedenen Status Konferenzen im Jahr 2011 angenähert haben, gibt es auf Seiten der Autoren nach wie vor eine breite Ablehnung, die Author’s Guild reichte mittlerweile Klage gegen Google ein. In jedem Fall handelte es sich bei der Auseinandersetzung um Google Books um ein Lehrbeispiel hinsichtlich der Gefahren, die von einem derart mächtigen Unternehmen in der Welt der Bücher ausgehen können, und gleichzeitig ein Lehrbeispiel für Globalisierungsfolgen: Indem Google unter Einsatz seiner Marktmacht von amerikanischen bzw. angelsächsischen Rechtstraditionen ausging, die mit dem Rechtssystem der meisten europäischen Staaten unvereinbar waren, drohte weltweit eine Entwertung der Autoren- und Verlegerrechte. Hätte der New Yorker Richter Denny Chin in seinem Spruch nicht weitgehend die Argumentation der Settlement-Gegner übernommen, hätten sich die Spielregeln für die digitale Veröffentlichung geschützter Inhalte weltweit entscheidend verändert – in erster Linie zugunsten Googles.81

79 Michael Roesler-Graichen: „Der Autor bestimmt die Spielregeln. Der Google-BuchsucheVergleich ist gescheitert, jetzt sind Alternativen gefragt“. In: Börsenblatt 13/2011, S. 16–18. Vgl. auch das Interview mit dem Börsenvereinsjustiziar Christian Sprang in: www.boersenblatt.net/ 433510 (Stand: 15.08.2011). 80 Verträge besiegelt: Hachette und Google kooperieren, 2011. www.boersenblatt.net/451562 (Stand: 27.08.2011). 81 Hess, Burkhard: „Das Google Book Search Settlement. Gefahr einer weltweiten Amerikanisierung und Monopolisierung des Urheberrechts?“ In: Reuß, Roland u. Volker Rieble (Hg.): Autorschaft als Werkherrschaft in digitaler Zeit. Frankfurt/Main 2009, S. 67–90, hier S. 68.

122

Ernst Fischer und Anke Vogel

Volltextsuche: Gegenmodelle Die Bedeutsamkeit des Themas „digitale Erschließung der Buchinhalte“ wird nicht zuletzt aus den zahlreichen Parallel- oder Gegeninitiativen deutlich, die auf diesem Feld zu beobachten waren oder sind. Den Stein ins Rollen gebracht hat eigentlich Amazon mit dem Volltextsuche-Projekt „Search Inside the Book“, das im Oktober 2003 startete – ein Marketing-Instrument, das bei seinem Launch in Deutschland im Jahr 2005 von der Buchbranche zunächst sehr kritisch aufgenommen wurde.82 Verlage und Autoren befürchteten, dass Amazon wie auch Google die digital in einer Datenbank verfügbaren Volltexte für Endkunden nicht nur durchsuchbar machen und in Auszügen – bei Amazon bis zu fünf Seiten des Textes oder 20% des Inhalts – anzeigen, sondern weit darüber hinausgehen könnten. Ferner wiesen Verleger darauf hin, dass sie vielfach nicht über das Recht verfügten, Texte in einer weltweit zugänglichen Datenbank einzustellen.83 Wie bei Google Books waren es neben kultur- auch marktpolitische Erwägungen, die damals die Branchenorganisation des deutschen Buchhandels zur Initiierung des Projekts „Volltextsuche online“ veranlasst haben. Dieses Projekt, das seit 2007 unter dem Namen libreka! als ein Tochterunternehmen der MVB (Marketing- und Verlagsservice des Buchhandels GmbH), des Wirtschaftsunternehmens des Börsenvereins des deutschen Buchhandels, geführt wird, sollte ganz gezielt der Gefahr entgegentreten, dass Amazon und Google (aus heutiger Sicht müsste auch Apple dazu gerechnet werden) durch ihre Marktdominanz bestimmenden Einfluss auf die Wahrnehmung des Buchangebots durch die Konsumenten haben könnte. Denn was in deren Katalogen nicht verzeichnet ist, wird von den Nutzern auch kaum gefunden – eine klare Bedrohung der Angebotsvielfalt in der Buchhandelslandschaft. Die im Sinne einer Abwehr gegen die Übermacht der „big player“ geschaffene Plattform „Volltextsuche online/libreka!“ entwickelte sich allerdings zu einem klassischen Beispiel für das Scheitern von (mit unzureichenden Mitteln vorgetragenen) Gegeninitiativen. Trotz unermüdlicher Werbearbeit nahmen in der Buchbranche selbst bald Kritik und Ablehnung überhand. Hatten Beobachter zunächst massive Sicherheitsmängel registriert, so wurde im Oktober 2009 in einem anonym verfassten, aber eindeutig von einem Brancheninsider stammenden Brief ein vernichtendes Urteil gefällt: Technische Mängel und Missmanagement hätten zu einem Desas-

82 Beckmann, Gerhard: Beckmanns Meinung: Bei „Search Inside the Book“ spielt Amazon Wildwest mit Verlegern und Autoren, 2005. http://www.buchmarkt.de/content/16207beckmanns-meinung.htm (Stand: 02.03.2011). 83 Vgl. ebd., sowie: „Brot für die Buchwelt. Google will auch stationären Buchhandel unterstützen“. In: buchreport.express Nr. 16 vom 21.04.2005, S. 8.

Die digitale Revolution auf dem Buchmarkt

123

ter geführt. So sei etwa der Zugriff von Suchmaschinen auf die bei libreka! eingestellten Bücher nicht möglich, weshalb das Angebot den Charakter einer Insellösung habe. Die Besucherzahlen seien dementsprechend niedrig, auch fehle ein klar umrissenes Profil.84 In der Tat war die als Volltextsuche konzipierte libreka!-Plattform inzwischen zu einem Onlineshop für E-Books ausgebaut worden, der nun auch Ambitionen in Richtung einer Buchcommunity hegte und den deutschen Verlagen einen unabhängigen Vertriebskanal für digitale Bücher sichern sollte. Da auch die Verkaufszahlen der E-Books von Anfang an wenig ermutigend waren, dürfte sich auch dieser Strategiewechsel letztlich als erfolglos erweisen.85 Das Schicksal dieser Initiativen lässt die Frage aufkommen, ob es in der Welt des Buches überhaupt noch möglich ist, der übermächtigen Amazon-, Google- und Apple-Konkurrenz entgegenzutreten. An Versuchen fehlt es nicht; beispielsweise versteht sich die Open Content Alliance als ein non-profit PrivatePublic-Partnership-Gegenunternehmen zu Google Books. Um das Problem der Zugänglichmachung „verwaister Werke“ unabhängig von Google einer Lösung näher zu bringen, hat in Deutschland die Verwertungsgesellschaft Wort mit Unterstützung der Deutschen Nationalbibliothek für alle vor 1965 erschienenen vergriffenen Werke in ihrem Wahrnehmungsvertrag die Möglichkeit zur Vergabe von Nutzungslizenzen aufgenommen.86 Und um den Traum einer digitalen Universalbibliothek auch ohne Google realisieren zu können, sind Initiativen wie das europäische Portal Europeana oder, als zukünftige Bausteine davon, die Deutsche Digitale Bibliothek und das französische Projekt Gallica auf den Weg gebracht worden.87

84 Vgl. Libreka: Kritik an Management, Technik, Strategie. Blauer Brief aus den eigenen Reihen? 2009. www.buchreport.de/nachrichten/online/online_nachricht/datum/2009/10/14/ blauer-brief-fuer-mvb.htm (Stand: 02.03.2010). 85 Vgl. „,Heute die Kunden von morgen finden‘. MVB-Geschäftsführer Ronald Schild verteidigt die Branchenplattform libreka! gegen Kritiker, die ihr schwache Verkäufe vorwerfen.“ In: Börsenblatt (2009) 44, S. 30. 86 Vgl. Elisabeth Niggemann: „Das ‚Schwarze Loch‘ des 20. Jahrhunderts oder Wie bringt man Kultur und Wissenschaft des 20. Jahrhunderts in das Bewusstsein einer SuchmaschinenInformationsgesellschaft?“ In: Estermann, Monika, Ernst Fischer u. Reinhard Wittmann (Hg.): Parallelwelten des Buches. Beiträge zu Buchpolitik, Verlagsgeschichte, Bibliophilie und Buchkunst. Festschrift f. Wulf-D. v. Lucius. Wiesbaden 2008, S. 155–165. 87 Lucke, Bettina: Die Google Buchsuche nach deutschem Urheberrecht und US-amerikanischem Copyright Law. Frankfurt/Main 2010, S. 47–48.

124

Ernst Fischer und Anke Vogel

Google als E-Book-Distributor Es entspricht ökonomischer Logik und war daher seit längerem erwartet worden, dass Google auch als E-Book-Anbieter in Erscheinung tritt. Am 6. Dezember 2010 startete Google eBooks in den USA (ursprünglich unter der Bezeichnung Google Editions vorgestellt) – mit mehr als drei Millionen Titeln (neben Büchern auch Magazinen und Zeitschriften), von denen 280.000 kostenpflichtig waren. Der größte Teil davon war bereits im Rahmen von Google Books digitalisiert oder von Partnerverlagen in digitalisierter Form eingebracht worden. Der späte Einstieg ermöglichte technische Lösungen, die den letzten Stand der Entwicklung repräsentierten: Google eBooks verkauft statt E-Books die „Lizenz zum Lesen“ und setzt erstmals die Cloud-Technologie für den Vertrieb digitaler Bücher ein, d. h. es können zwar Sicherungskopien auf den eigenen Rechner geladen werden (als PDF oder im E-Pub-Format), im Prinzip aber wird in der „Datenwolke“, von den Google-Servern also, gelesen.88 Auch Kauf und Verwaltung laufen virtualisiert, d. h. standort- und geräteunabhängig; das vom Kunden erworbene E-Book wird im persönlichen „Book Shelf“ abgelegt und kann mit dem Google E-Books Web Reader von jedem Rechner, jedem Tablet oder sonstigem Lesegerät, das einen Webbrowser nutzen kann, gelesen werden. Das bedeutet: Alle E-Books, die von Google vertrieben werden, sind kompatibel mit verschiedenen Webbrowsern und mobilen Endgeräten von Apple und solchen mit Android-Betriebssystemen und können als Download auch auf Geräten, die Adobes Digital Rights Management unterstützen, dargestellt werden, bislang jedoch nicht im System von Amazon. Auch nach Wechsel des Geräts landet man sofort wieder genau bei der Stelle, an der man die Lektüre unterbrochen hat, im Gegensatz zum Kindle sogar mit stabiler Paginierung.89 Bei der Cloud-Technologie, die von Google auch in anderen Zusammenhängen verfolgt wird (z. B. mit dem schnell startbaren, auf Cloud-Betrieb abgestellten Betriebssystem Chrome OS), handelt es sich zweifellos um eine zukunftsträchtige Strategie, gerade auch im Bereich des digitalen Buchs. Sie entspricht ganz dem Trend zum mobilen Internet, konkret auch der Annahme, dass der User der Zukunft künftig rund um die Uhr online sein wird und sich dadurch auch von eigener Software und z. B. einer Festplatte unabhängig machen kann. Überraschenderweise schienen die deutschen Verleger Googles E-Book-Store

88 Vgl. dazu und zum Folgenden: Google eBooks – Konkurrenz für Kindle und iBooks, 2010. winfuture.de/news,60014.html (Stand: 17.01.2011), sowie Michael Roesler-Graichen: Lesezimmer in der Datenwolke, 2010, www.boersenblatt.net/407180 (Stand: 02.03.2011). 89 Vgl. Pegoraro, Rob: „Google enters e-book market, with few hiccups“. In: The Washington Post, 07.12.2010, S. 20.

Die digitale Revolution auf dem Buchmarkt

125

sehr positiv aufzunehmen. Tatsächlich bringt allein schon die Minimierung der Hardware-Problematik große Vorteile mit sich; alles in allem betrachtete man den Eintritt des Unternehmens in dieses Geschäft als durchaus erwünschte Erweiterung der gesamten Vertriebswege-Palette für E-Books, zumal unter Berücksichtigung der enormen Reichweite Googles und der Tatsache, dass die Suchmaschine Treffer auch in Google Books und Google E-Books anzeigt. Dass Google an einen Ausbau dieser Aktivitäten denkt und speziell auch den Tablet-Markt nicht Apple überlassen möchte, deutete sich im Januar 2011 mit dem Kauf der darauf spezialisierten Firma eBook Technologies an.90 Analysten sehen aber auch die derzeit noch deutliche Vormachtstellung Amazons im Bereich digitaler Bücher als bedroht an,91 da das Suchmaschinenunternehmen bereits im Anfangsstadium 125 unabhängige Buchhändler des Sortimenterverbands American Booksellers Association zur Integration von Google E-Books in ihre Internet-Auftritte bewegen konnte; dem Beispiel folgend, bot auch Amazon den Händlern die Einbettung des Kindle Stores in deren Webangebote an.92 Und im deutschsprachigen Raum verschärfen sich die Wettbewerbsverhältnisse dadurch, dass immer mehr Unternehmen in den Markt für digitale Bücher eintreten. So etwa auch die Bertelsmann Direct Group in Zusammenarbeit mit Gruner + Jahr, die zur Frankfurter Buchmesse 2010 ihren Online-Kiosk Pubbles gelauncht haben. Neben digitalen Zeitungen und Zeitschriften werden auch Buchinhalte vertrieben.93

90 Quandt, Roland Übernahme: Google kauft E-Book-Spezialisten auf, 2011. winfuture.de/ news,60799.html (Stand: 27.08.2011). 91 Vgl. Graham, Jefferson: „Google eBooks takes on Kindle; Could search giant rob Amazon of a happy ending?“ In: USA Today vom 07.12.2010, S. B. 1: „Amazon will sell an estimated $ 248 million in digital books this year [2010], according to a projection by Credit Suisse Group, and it holds a 72% share of digital book sales. But that could drop to 35% by 2015, estimates Credit Suisse, because of competition from Apple and Google.“ 92 „Auf Tuchfühlung mit Google“. In: buchreport.express Nr. 50, 16.12.2010, S. 15 93 „Pubbles“: Bertelsmann Direct Group und G+J eröffnen ihren Onlinekiosk schrittweise, 2010. www.horizont.net/aktuell/digital/pages/protected/Pubbles-Bertelsmann-Direct-Group-und-G% 2BJ-eroeffnen-ihren-Onlinekiosk-schrittweise_94564.html (Stand: 13.09.2010).

126

Ernst Fischer und Anke Vogel

2 Veränderungspotentiale: Auswirkungen der digitalen Buchwirtschaft auf einzelne Felder des Literaturbetriebs 2.1 Zwischen Marktkontrolle und Zensur Informelle Zensur durch neue Inhalteanbieter? Das dominante, vielfach auf Monopolbildung angelegte Auftreten globaler Player in der Medienwirtschaft erzeugt regelmäßig Ängste vor den Folgen – in wirtschaftlicher Hinsicht, nicht weniger aber auch in Bezug auf Meinungsfreiheit und Meinungsvielfalt. Bezeichnenderweise werden etwa in Unternehmensporträts zu Google Probleme im Bereich von Ergebnisfilterung und Datenschutz besonders akzentuiert.94 In der Tat sind einem Unternehmen, das weite Teile der Informationsströme weltweit kontrolliert, bedenkliche Machtmittel an die Hand gegeben – bedenklich trotz des inoffiziellen Firmenmottos „Don’t be evil.“95 Dass Google bestimmte Ergebnisse aufgrund nationaler gesetzlicher Bestimmungen aus den Rankings entfernt, kann kaum kritisiert werden, vor allem wenn es um die Verbreitung von Inhalten geht, die den Tatbestand der Volksverhetzung erfüllen. Problematischer sind schon die Beschränkungen, die Google in nichtdemokratisch regierten Ländern im Sinne der Machthaber vornimmt; das Unternehmen setzt sich hier dem Vorwurf aus, durch Unterdrückung oppositioneller Positionen gegen das Menschenrecht auf Informationsfreiheit zu verstoßen. Aber alleine schon die technisch gegebene Möglichkeit, solche Filterungen durch Sperrung von Suchbegriffen jederzeit auch global vorzunehmen und dadurch eine konkrete Form von Kommunikationskontrolle auszuüben, wird mit einiger Berechtigung als problematisch angesehen. Dazu kommt, dass Google als eine „Datenkrake“ und von mancher Seite sogar als der größte Datensammler im Internet angesehen wird. Der Suchmaschinenriese hat, auch durch die Vielzahl seiner an die Suchmaschine angeschlossenen Dienste, vielfältige Gelegenheiten, die Nutzer auszuspionieren, und nützt diese auch. Beobachter sehen in diesem konsequent durchgeführten Sammeln, Speichern und Analysieren von personenbezogenen Daten eine Bedrohung Orwellscher Dimension und die Gefahr totaler Überwachung.96

94 Als ein Beispiel: de.wikipedia.org/wiki/Google_Inc. 95 investor.google.com/corporate/code-of-conduct.html (Stand: 27.08.2011). 96 Vgl. de.wikipedia.org/wiki/Google_Inc.

Die digitale Revolution auf dem Buchmarkt

127

Aber nicht nur Search Engines bieten die Möglichkeit des Datenmissbrauchs und der Einschränkung der Informationsfreiheit. An Ostern 2009 kam es zu einem empörten Protest und zu Boykottaufrufen von Autoren gegen Amazon und zu einer erregten Diskussion bei Twitter, als bekannt wurde, dass zahlreiche Titel von homosexuellen Autoren oder zu homosexuellen Themen (Bücher wie Brokeback Mountain von Annie Proulx, das als Vorlage für den gleichnamigen Film diente, und der Coming-Out-Roman Der geschlossene Kreis von Gore Vidal) aus den Bestsellerlisten des Onlinehändlers verschwunden waren und zudem auch ihren Verkaufsrang verloren hatten.97 Auf Autoren und Verlage wirkte sich dies insofern negativ aus, als ihre Bücher „nicht mehr so leicht über Suchmaschinen gefunden werden konnten und auch in der Ergebnisliste der regulären Amazon-Produktsuche nicht auffindbar waren“. Auf Rückfrage erhielt einer der Autoren die Auskunft, dass Amazon „Adult“-Inhalte („Adult“ wird häufig synonym für pornographisch verwendet) aus den Bestsellerlisten entfernen wollte, weil diese nicht zur Kernzielgruppe des Unternehmens passten.98 Dem Onlinehändler wurde daraufhin die Ausübung von Zensur vorgeworfen, und tatsächlich kann in diesem Vorgang eine Form der informellen Zensur durch ein Wirtschaftsunternehmen gesehen werden.99 Der Autor Larry Kramer forderte seine Kollegen in diesem Zusammenhang auf: “We have to now keep a more diligent eye on Amazon and how they handle the world’s cultural heritage.”100 Die von Amazon in einer offiziellen Stellungnahme als ‚Katalogfehler‘ bezeichneten Maßnahmen wurden in der Folge wieder rückgängig gemacht.101 Das bekannteste und zugleich peinlichste und alarmierendste Beispiel für die neuen Möglichkeiten der Kommunikationskontrolle im digitalen Zeitalter lieferte Amazon mit den berühmten antitotalitären Orwell-Titeln Animal Farm und 1984, die im Handstreich aus den Kindle-Readern der Kunden gelöscht wurden, weil der anbietende Verlag die Vertriebsrechte dafür nicht hatte.102 Ungeachtet der

97 Vgl. Hung, Jochen: Wütende Proteste gegen Amazon, 2009. www.zeit.de/online/2009/17/ amazon-empoerung (Stand: 26.11.2010). 98 Vgl. Marth, Michael: Amazon. Bestseller oder Porno? 2009. www.focus.de/digital/internet/ amazon-bestseller-oder-porno_aid_389651.html (Stand: 26.11.2010). 99 Vgl. Plachta, Bodo: Zensur. Stuttgart 2006, S. 19. 100 Rich, Motoko: „Amazons Says Error Removed Listings“. In: The New York Times, 13.04.2009. www.nytimes.com/2009/04/14/technology/internet/14amazon.html (Stand: 26.11.2010). 101 Hung, Jochen: Wütende Proteste gegen Amazon, 2009. www.zeit.de/online/2009/17/ amazon-empoerung (Stand: 26.11.2010). 102 Stone, Brad: „Amazon Erases Orwell Books From Kindle“. In: The New York Times, 18.07.2009, S. B1. www.nytimes.com/2009/07/18/technology/companies/18amazon.html? _r=1 [02.03.2011].

128

Ernst Fischer und Anke Vogel

rechtlich-formalen Begründung bestätigten sich hier die schlimmsten Befürchtungen der Kritiker: Wenn es dem Händler möglich war, bereits verkaufte Bücher nachträglich zurückzuziehen oder auch in Teilen zu verändern, dann könnte dies in Zukunft dazu führen, dass Personen und Institutionen oder auch Staat und Regierungen die Beseitigung bestimmter Passagen erzwingen; es sei offenbar geworden, dass der elektronische Buchvertrieb neue Dimensionen der Zensur und politischen Kontrolle ermögliche.103 Nach massiven Protesten und Klagen gegen Amazon wurden die betroffenen Titel samt den Anmerkungen, die manche Leser bereits in ihre digitalen Titel eingetragen hatten, wieder verfügbar gemacht und der Onlinehändler zahlte Betroffenen eine Entschädigung in Höhe von 30 US-Dollar. Es gibt aber noch andere Hinweise darauf, dass Amazon bereit ist, Zensurmaßnahmen zu setzen, besonders auch in eigener Sache. In seinem Buch The Day the Kindle Died beschreibt der Autor Thomas Hertog, wie er den Verkaufsrang bei Amazon so manipulieren konnte, dass eines seiner Bücher in der entsprechenden Kategorie auf dem ersten Platz landete. Nach Angaben des Autors nahm der Onlinehändler dieses Enthüllungsbuch kurzzeitig aus seinem Programm. Als es schließlich wieder auffindbar war, waren die Kundenrezensionen dazu gelöscht worden.104 Aber auch Apple übt in Wahrnehmung seines „Hausrechts“ eine strikte Kontrolle über iTunes und seinen Appstore aus – nicht nur durch technische Prüfung, sondern auch durch Prüfung der Inhalte, vor allem unter Sittlichkeitsaspekten. Wenn Anbieter mit ihren Apps Inhalte pornographischen, illegalen oder die Privatsphäre verletzenden Charakters zugänglich machen, greift das Unternehmen ein und löscht diese von sich aus.105 Im Bereich erotischer Inhalte ergeben sich natürlicherweise immer Grenzbereiche, nicht zuletzt auch durch interkulturelle Unterschiede: Nach im Februar 2010 verschärften Regeln, die in erster Linie US-Maßstäben entsprachen, durften z. B. keine Männer oder Frauen in Badekleidung gezeigt werden, und in Deutschland stellten die Abonnenten der Bild-Zeitungs-App fest, dass die Nacktfotos und Kontaktanzeigen des im Druck massenhaft verbreiteten Boulevardblattes überblendet waren; darüber

103 Gieselmann, Hartmut: Amazon gibt elektronische Orwell-Romane zurück, 2009. www. heise.de/newsticker/meldung/Amazon-gibt-elektronische-Orwell-Romane-zurueck-754809. html (Stand: 02.03.2011). 104 Vgl. Page, Benedicte: Amazon withdraws ebook explaining how to manipulate its sales rankings, 2011. www.guardian.co.uk/books/2011/jan/05/amazon-ebook-manipulate-kindlerankings (Stand: 02.03.2011). 105 Zensur-Vorwürfe gegen Apple, 2010. www.heise.de/newsticker/meldung/ZensurVorwuerfe-gegen-Apple-897582.html (Stand: 17.01.2011).

Die digitale Revolution auf dem Buchmarkt

129

hinaus wurden im Februar in einer großen Aktion 5000 Apps entfernt.106 Das Kamasutra fiel einer zeitweisen Sperre ebenso zum Opfer wie Lady Chatterleys Lover, doch waren es keineswegs nur pornographieverdächtige Anwendungen, die ins Visier der Apple-Kontrolleure gerieten; auch politische Satire war betroffen – die App zur TV-Serie South Park wurde und wird nicht akzeptiert.107 Gerade die restriktive, letztlich intransparente Politik von Apple gibt Anlass zur Sorge, die Maßnahmen könnten sich, insbesondere im Zusammenhang mit einer marktbeherrschenden Stellung, zu veritablen Formen der Zensur auswachsen.108 Dass die Möglichkeiten dazu durch die digitalen Telekommunikations- und Netzwerktechnologien mit ihren zentralen Steuerungsinstrumenten und Methoden der „Fernwartung“109 gegenüber dem Printzeitalter entscheidend gewachsen sind und dass neben der Meinungsvielfalt auch die noch vorhandenen Bereiche einer kritischen Öffentlichkeit davon betroffen sein könnten, wird mit jedem solchen Eingriff – wie begründet er im Einzelfall auch sein mag – deutlich. Neben den (häufig spektakulären) Beschränkungen der Informationsfreiheit sind aber auch die schleichend, vielleicht sogar unmerklich verlaufenden Prozesse zu bedenken, die auf unsere Kommunikationskultur deformierend einwirken.

2.2 Märkte Zwischen Mainstream und Nischenbildung Rückkoppelungseffekte zugunsten des Populären In dem Maße, in welchem Literaturproduktion und -konsum von den großen international agierenden Unternehmen bestimmt werden, steigt die Gefahr eines kulturellen Mainstreamings. Gemeint ist eine Lenkung z. B. der Literaturrezeption durch die speziellen Technologien, deren sich diese Unternehmen bedienen. Das bekannteste Beispiel dafür ist der bereits erwähnte, geheimnisumwitterte Algorithmus, der den Nimbus der Suchmaschine von Google gestiftet hat und

106 Vgl. (sli): Zu viel Sex: Apple löscht 5.000 Apps bei iTunes, 2010. www.chip.de/news/Zuviel-Sex-Apple-loescht-5.000-Apps-bei-iTunes_41650490.html (Stand: 02.03.2011). 107 Klaus Wedekind: Nicht nur nackte Tatsachen. Was Apple alles zensiert, 2010. www.n-tv.de/ technik/Was-Apple-alles-zensiert-article904627.html (Stand: 27.08.2011). 108 Gebauer, Matthias; Patalong, Frank: Aufstand gegen Apples App-Zensur, 2010. www. spiegel.de/netzwelt/web/0,1518,679750,00.html (Stand: 27.08.2011). 109 Google löschte im März 2011 per Fernwartung mehr als 50 Anwendungen von den Smartphones der Nutzer, die als Schadsoftware erkannt worden waren. Vgl. Bösartige Apps gelöscht. Google greift durch, 2011. www.n-tv.de/technik/Google-greift-durch-article2771956. html (Stand: 06.03.2011).

130

Ernst Fischer und Anke Vogel

die umfangreiche Trefferliste auf der Basis hochkomplizierter Berechnungen produziert. Es ist bekannt, dass der PageRank darauf basiert, wie oft die gesuchten Inhalte auf Webseiten verlinkt sind, und damit ist auch klar, dass die Suchergebnisse den Grad an Popularität abbilden, den ein Thema repräsentiert. Die daraus entstehenden Rückkoppelungseffekte lassen Bekanntes immer bekannter werden, während wenig Bekanntes immer weiter in den Hintergrund rückt.110 Bedenkt man, dass in den meisten Fällen nur die zehn Einträge auf der ersten Seite wirklich Beachtung finden, so ist der Selektionseffekt dieser Ergebnislisten – die zudem, ungeachtet der Gegenmaßnahmen von Google, immer wieder von außen manipuliert werden können – mit Händen zu greifen. Nach ganz ähnlichen Regularitäten funktioniert auch Google News, das nicht-populäre Randthemen erst gar nicht in den Horizont der Nutzer gelangen lässt. Über die Folgen für kulturelle Inhalte, etwa für die Wahrnehmung von literarischen Neuerscheinungen, gibt es keine gesicherten Erkenntnisse, doch können aus dem bloßen Faktum, dass die weltweit weitaus meistverwendete Suchmaschine generell und also auch in solchen Zusammenhängen unvermeidlich eine Filterwirkung entfaltet, entsprechende Schlüsse gezogen werden. Deutlicher noch zeichnen sich die hier unter den Begriff Mainstreaming gefassten Wirkungen in den Onlineshops ab. Amazon z. B. studiert das Kaufund Surfverhalten des Kunden (Cluster, Warenkorbanalyse) und leitet daraus automatisierte Empfehlungen ab, welche „Produkte Ihnen noch gefallen könnten“. Auch informiert der Online-Händler den Kunden darüber, was andere noch erworben haben, die dasselbe Produkt wie er gekauft haben. Es liegt auf der Hand, dass solche automatisch generierten Hinweise eine Verstärkerwirkung in Richtung eines Massengeschmacks entwickeln, auch und gerade wenn es sich um Bücher und namentlich um Belletristik handelt, also um einen Bereich, in welchem der durchschnittliche Kunde solcher Onlineshops für Tipps besonders empfänglich ist. In ähnlicher Weise kennt auch Apples iTunes den Musikgeschmack seiner Nutzer sehr genau und integriert mittlerweile auch Social Shopping-Elemente.111 Es ist wahrscheinlich, dass der iBook-Store nach genau den gleichen Mechanismen funktioniert. Ein intensives Data Mining, wie es solchen Marketinginstrumenten zugrunde liegt, die mindestens statistisch betrachtet ihre Lenkungswirkung nicht verfehlen dürften, kann in dieser Intensität schon aus Kostengründen nur von sehr großen

110 Vgl. Gross, Sara: „Wie das Internet für uns bestimmt. Mit den Algorithmen von Facebook, Amazon, Google News und Co. dringt die automatische Ordnung immer tiefer ins Privatleben ein“. In: Die Presse am Sonntag, 31.07.2011, S. 29. 111 Vgl. Jakat, Lena: Ping und „Ka-Ching“! iTunes sozial, 2010. www.sueddeutsche.de/digital/ itunes-sozial-ping-und-ka-ching-1.995334 (Stand: 29.08.2011).

Die digitale Revolution auf dem Buchmarkt

131

Unternehmen betrieben werden und führt auch erst bei großen Nutzermengen zu verwertbaren Daten. Inzwischen werden im Internet in vielen Bereichen Algorithmen genutzt, die den User in seinen Gewohnheiten und Vorlieben analysieren sollen, um ihm auf dieser Grundlage Entscheidungen abzunehmen oder ihn mit Neuigkeiten zu versorgen. So etwa berücksichtigt in Facebook ein kompliziertes „EdgeRank“ mehrere Faktoren – darunter auch die Nähe sozialer Beziehungen – und bewertet diese punktemäßig mit einem „affinity score“, bevor das Netzwerk die als „wichtig“ identifizierten Nachrichten anbietet. Durch die Vernetzung mit der Literatur- und Verlagsszene, mit der Online-Welt der Bücher, spielen indirekt auch diese Netzwerkpraktiken eine nicht unbeträchtliche Rolle. Hauptsächlich mit den weltumspannenden Aktivitäten der OnlineRiesen dringt eine Maschinenordnung in unser privates und auch in unser kulturelles Leben ein, deren Langzeitfolgen noch nicht abzusehen sind.

Die Entstehung von Nischenmärkten im Zeichen des „Long Tail“ Indessen scheint die Internetökonomie für die von ihr erzeugten Probleme und Verwerfungen immer wieder auch die Remedien bereit zu halten. Denn es zeichnet sich bereits seit einiger Zeit ab, dass E-Commerce nicht einseitig den Konzentrationstendenzen und den Interessen der Großunternehmen Vorschub leistet, sondern auch den entgegengesetzten Formen einer Nischen-Ökonomie neue Möglichkeiten eröffnet. Chris Anderson hat dies ausführlich anhand der Musik- und der Buchbranche in seinem populären Buch bzw. Blog The long tail112 thematisiert. Die Internetökonomie bietet seiner Einschätzung nach den Vorteil eines virtuellen Verkaufsraums, der es – im Gegensatz zum stationären Handel – ermöglicht, auch solche Titel zu präsentieren, die nur „langsam drehen“, sich also nur selten verkaufen. Diese Titel bilden den Long Tail. Anders als in Buchläden und selbst in großen Buchkaufhäusern, die – besonders als Kettenläden – ein eingeschränktes Sortiment aufweisen, kann so den Kunden ein „Paradise of Choice“ geboten werden. Damit die große Vielfalt des Angebots jedoch wiederum keine negativen Auswirkungen in Form von Kaufhemmungen entfaltet, sind verschiedene Formen von Filtern notwendig. Im World Wide Web und neuerdings auch im Social Web stehen vielfältige Formen zur Verfügung: Einerseits gibt es technische Filtermöglichkeiten wie z. B. die Volltextsuche, andererseits wird der Mensch immer stärker zum Filter, indem er Bewertungen

112 Anderson, Chris: The long tail. Why the future of business is selling less of more. New York 2006.

132

Ernst Fischer und Anke Vogel

in verschiedenen Formen (vom einfachen Sternchen bis zur komplexen Rezension) im Internet hinterlässt. Neuerdings werden im Rahmen von Social Commerce auch Produktempfehlungen in den sozialen Netzwerken der Konsumenten platziert. Der Tatsache, dass sich Konsumenten häufig auf das Urteil von Freunden und Bekannten verlassen, wird damit bestens Rechnung getragen. Tatsächlich zeigt sich, dass insbesondere durch die Möglichkeiten der Volltextsuche eine Belebung der Backlists von Verlagen durch den E-Commerce stattgefunden hat. Dass sich mit dem Long Tail Geld verdienen lässt, ist längst auch den Verlagen klar geworden: Random House startete 2007 mit der hauseigenen Volltextsuche Insight.113 Bemerkenswert ist in diesem Zusammenhang auch ein Projekt des Verlags de Gruyter, der über 50.000 Titel aus seiner 260jährigen Verlagsgeschichte wieder verfügbar macht. Titel, die nicht bereits digitalisiert vorliegen, werden auf Anfrage retrodigitalisiert und können dann entweder als E-Book oder als Print-on-demand-Buch verkauft werden.114 Nicht zuletzt sind es aber die Klein- und Kleinstverlage sowie Anbieter von Spezialliteratur, die vom Long Tail-Effekt profitieren können, weil über gezielte Suche von Interessenten und Liebhabern auch jene Produkte gefunden werden können, für die kein Werbeaufwand betrieben wurde. An dieser Stelle wird die Ambivalenz oder auch Dialektik der Entwicklung offenbar: Die Errungenschaften der neuen Informationstechnologien und die oft beschworenen „Netzwerkeffekte“ stehen allen offen, dem multinationalen Konzern ebenso wie dem ideenreichen Individuum. Wenn es manchmal auch aussichtslos erscheint, gegen die Macht der marktbeherrschenden Unternehmen anzukämpfen, so zeigt sich doch, dass im Social Web auch „Independents“ aller Art ihre Chance haben. Wie es z. B. in der Musikszene Sänger/innen, Bands und kleinen Labels gelingt, über das WWW eine Fangemeinde zu sammeln und sich damit auch eine ökonomische Nische schaffen, so haben sich auch publizistische und literarische Mikroöffentlichkeiten herausgebildet, die auf Selbstorganisation,115 User Generated Content und vielfach auf erfolgreichem Autorenselbstmarketing beruhen. Dieses kulturelle Graswurzelgeflecht bildet aufgrund seiner

113 Random House startet Volltextsuche Insight, 2007. www.boersenblatt.net/150088/ (Stand: 02.03.2011). 114 Vgl. de Gruyter e-dition. Up to date since 1749. www.degruyter.com/cont/glob/ebooks.cfm (Stand: 02.03.2011). 115 Als ein Beispiel unter vielen: euryclia, „die Plattform im Internet, auf der der Leser entscheidet, was zum Buch wird!“ www.euryclia.de. Der Plattform ist aufgrund ihres innovativen Konzepts der „Virenschleuderpreis“ 2011 verliehen worden, für den Aufbau einer Community rund um das per Crowdfunding finanzierte Buch Universalcode. Journalismus im digitalen Zeitalter. Für ein anderes Beispiel siehe www.scribd.com.

Die digitale Revolution auf dem Buchmarkt

133

Kreativitätspotentiale ohne Frage ein wichtiges Gegengewicht zu den perfekt organisierten Stores und App-Welten von Amazon, Apple und Co.

2.3 Mash Up – Neue Literatur- und Darstellungsformen Multimedialisierung der Literatur und narrative Experimente Das Stadium des Übergangs vom Printmedium Buch zum digitalen Medium fordert zu Experimenten unterschiedlichster Art heraus; als Avantgardisten treten dabei immer wieder einzelne Autoren sowie Verlage hervor, die auf diese Weise ihren Pioniergeist unterstreichen wollen. So etwa erschien 2009 als erste „Digi-Novel“ (eine geschützte Bezeichnung) im Lübbe Verlag Anthony E. Zuikers Thriller Level 26, der am Ende jedes Kapitels über einen Webcode – nach Registrierung des Users und Zusendung des Aktivierungscodes – auf eine Website mit einem auf die Erzählhandlung bezogenen Kurzvideo führte.116 Diese „Cyber-Bridge“ verlängert die Form des gedruckten Buches in Multimedia-Welten hinein, insofern neben den Videos auch ein Online-Forum angeboten wurde, in welchem sich Leser auf Fotos täter- oder opfergerecht kostümiert präsentieren konnten. Weniger umständlich sollten die Verbindungen sein, die das erste „Hyperlivre“ ermöglichte: Das ebenfalls im Jahr 2009 im Verlag Robert Laffont erschienene, gemeinsam mit Orange-innovation.tv entwickelte Buch von Jacques Attali Le sens des choses enthielt an bestimmten Stellen Flashcodes, die man mit Smartphones einlesen konnte, um so auf Gedichte, Opernausschnitte und andere themenbezogene Erweiterungen des Buchtextes zu gelangen. Es liegt aber auf der Hand, dass solche Hybridformen des Buches vom eigentlichen Digitalbuch mühelos überholt werden können. Während nun das klassische, für die Lektüre auf dem Kindle oder vergleichbaren Geräten gedachte E-Book noch entschieden textbezogen ist und in dieser Hinsicht direkt an das Printmedium Buch anknüpft (schon weil auf den E-InkSchirmen bunte (Bewegt-)Bilder – vorerst – nicht gezeigt werden können), eröffnet sich mit iPhone, iPad und deren sich täglich vermehrenden Konkurrenzprodukten die Möglichkeit, Texte mit anderen medialen Darstellungsformen wie Audio und Video zu verbinden. Da sich sehr rasch die Überzeugung ausbreitet, dass das digitale Buch nicht bei einer 1:1-Kopie des gedruckten stehenbleiben dürfe, sondern einen erfahrbaren Mehrwert bieten müsse, um sich beim breiten

116 Roesler-Graichen, Michael: „Geballtes Grauen auf allen Kanälen“. In: Börsenblatt 46/ 2009, S. 24–26.

134

Ernst Fischer und Anke Vogel

Publikum durchzusetzen, ist seit 2010 immer öfter vom „Enhanced eBook“ oder „Enriched eBook“ oder auch vom „Digitalbuch Plus“ die Rede. Es geht dabei zum einen um die Anreicherung mit zusätzlicher Information über den Autor und die Entstehungsumstände des Werkes, um Hintergrundinformation zum Thema oder Stoff des Buches, alles auch in Bildern oder Bewegtbildern, in Interviews oder Filmausschnitten, zum anderen aber kann es auch darum gehen, die Lektüre auf akustischer Ebene zu begleiten oder die Handlung in Videosequenzen fortzuspinnen, eventuell interaktive Elemente und Animationen einzubauen, letztlich aus dem Buch einen multimedialen Hypertext zu machen – der Phantasie sind hier kaum Grenzen gesetzt, denn es sind hier sogar Brückenschläge zur Welt der Computerspiele denkbar (und wahrscheinlich). Das Enhanced E-Book entspricht damit ganz jener Text, Bild und Ton integrierenden Konvergenzströmung, die als Signum der aktuellen Medienentwicklung angesehen werden kann. Die Konsequenzen liegen auf der Hand. Digitale Bücher dieses Typs werden im Grunde nicht mehr von einem Autor geschrieben, sondern von Teams erstellt. Soweit es den Autor noch gibt, der einen Geschichtenkern liefert, wird er sich tendenziell zum Drehbuchschreiber entwickeln; eine Kontrolle über sein Werk wird er aber trotzdem nur begrenzt ausüben können. Denn bei der Erzeugung von Enhanced E-Books werden, bedingt durch die technische Komplexität des Produkts, die Herstellungsabteilungen der Verlage oder wahrscheinlicher noch externe Dienstleister, Medienproduktionsfirmen mit ihren Programmierern und Designern, das Sagen haben.117 Dies trifft auch die Lektoratsabteilungen, die bisher damit befasst waren, ein Manuskript zum Druck vorzubereiten und die Herstellung zu überwachen; die Lektoren und Redakteure der Zukunft, die Inhalte für Tablets optisch aufbereiten müssen, werden sich zu Multi-ChannelExperten wandeln.118 Überhaupt werden Verlage sich neu organisieren müssen, um den neuen Anforderungen – dem technischen Upgrading der Produkte, der Entwicklung multimedialer Contents und deren kreative Rekombination in unterschiedlichen Produktformen – zu entsprechen. Ein frühes Beispiel lieferte in den USA der Verlag Simon & Schuster, der mit seinem „Vook“-Konzept („a vook blends text and video into a single, complete story“) eine systematische Integra-

117 Albers, Markus/Meier, Christian: Bloß nichts verpassen. Noch ist das iPad nicht zu kaufen, doch die Verlage sind längst aktiv. Vier Fragen zum beginnenden Wandel, 2010. www.zeit.de/ 2010/06/Beistueck-iPad (Stand: 02.03.2011). 118 Stühr, Michael/Artmann, Andreas: Dossier iPad – Chancen und Risiken durch neue Lesegeräte (V. 2.0). Hochschule Bonn-Rhein-Sieg in Zusammenarbeit mit der MarkStein Software Entwicklungs- und VertriebsGmbH. 18.08.2010. fb03.h-bonn-rhein-sieg.de/emtmedia/ Dossier_iPad.pdf (Stand: 02.03.2011).

Die digitale Revolution auf dem Buchmarkt

135

tion von Text und Video anpeilt, die auch bei iPhone und iPod touch funktioniert und über Video- und Web 2.0-Links auch in Social networks eingebettet ist.119 Aber auch eine Reihe deutscher Verlage hat sich dem Konzept des Enhanced E-Book (Bastei-Lübbe, Gräfe und Unzer u. a. m.) oder Digitalbuch Plus (Rowohlt120) geöffnet.

Mobile Textkulturen Bedenkt man, dass es in Japan wie auch in China und Südkorea über Jahre hinweg bereits eine (inzwischen abflauende) Begeisterung an Handy-(Fortsetzungs-)Romanen gegeben hat121 und dass auch eine spezifische Twitter-Literatur122 entstanden ist, liegt die Vermutung nahe, dass technische Lesegeräte die Tendenz haben, sich ihren eigenen Literaturmarkt zu schaffen und dass insbesondere die „App-Kultur“ der Smartphones die Formen der Literaturrezeption bei einem jungen Publikum entscheidend beeinflussen könnte. Denn jenseits aller rasch vergänglichen Moden schreitet der Ausbau des mobilen Internet weiter fort; dass wir in naher Zukunft bereits permanent online sein werden, wird Einfluss auf unsere gesamte kulturelle Praxis haben und zweifellos auch den Umgang mit Literatur verändern – das Stichwort „mobile Textkulturen“ wird heute bereits angelegentlich diskutiert.123

Gegenströmungen Moderne, technisch konvergente Medien, in denen textliche, auditive und bildhafte Information gleichzeitig dargeboten werden, bedingen (oder erzwingen?) auch ein Lese- bzw. Rezeptionsverhalten neuen Typs. Diese Anpassungsprozesse verlaufen aber überraschenderweise durchaus widersprüchlich. Der Begeisterung über die bunte Multimedialität des iPads, auf dem auch digitale Hochglanzmagazine eine gute Figur machen, stehen im Publikum Tendenzen gegenüber, die auf ganz konventionelle Formen des Lesens zurückgehen. Auch die

119 promo.simonandschuster.com/vook (Stand: 02.03.2011). 120 www.rowohlt.de/digitalbuchplus-de (Stand: 02.03.2011). 121 Yuri Kageyama: Mein Handy, mein Lesewerkzeug, 2005. www.spiegel.de/netzwelt/web/ 0,1518,356788,00.html (Stand: 27.08.2011); www.mobilebooks.com. 122 So wird seit 2009 jährlich ein Twitter-Lyrik-Wettbewerb abgehalten: www.twitter-lyrik.de. 123 Vgl. etwa das Symposium „Mobile Textkulturen“ in Berlin im Oktober 2010; berlinergazette.de/symposium/mobile-textkulturen.

136

Ernst Fischer und Anke Vogel

global agierenden „Big Player“ haben diese Trends entdeckt: Seit Februar 2011 werden von Amazon „Kindle Singles“ angeboten, ein neues Textformat, das in seiner Benennung erkennbar in Anlehnung an die Auskopplung aus Musikalben angelehnt ist.124 Mit diesen höchstens 60 Seiten umfassenden, für Preise zwischen 0,99 und 4,99 Dollar verkauften Texten (neben Kurzgeschichten auch Reportagen, Essays, Ratgeber sowie Konferenzbeiträge) wird der Tatsache Rechnung getragen, dass sich umfangreichere Textmengen nicht so gut für die Rezeption auf elektronischen Lesegeräten eignen und dass es ohnehin viele Textformen gibt, die für einen Zeitschriftenbeitrag zu lang und für ein Buch zu kurz sind. Ob sich die Kindle Singles, die übrigens auch auf dem iPhone oder dem iPad gelesen werden können, als ein neues literarisches oder eher als journalistisches Format durchsetzen werden (wie das Magazin Wired vermutet), bleibt abzuwarten; in jedem Falle handelt es sich um einen entwicklungsfähigen Ansatz, mit dem den verkürzten Lesespannen des digitalen Zeitalters entsprochen wird. Das Kürzel „tl;dr“, das im Web für „too long; didn’t read“ steht, ist bezeichnend für die Veränderung der Rezeptionsgewohnheiten, auf die mit solchen Angeboten reagiert wird. Bemerkenswerterweise existiert im Netz auch eine Bewegung, die eine Erweiterung der Lesezeit für wünschenswert hält. Websites wie longform.org oder longreads.com verlinken gezielt auf Texte, die eine bestimmte Mindestlänge aufweisen – ein Indiz dafür, dass digitale Lesegeräte das Stadium des LeseZappings überwinden und sich den traditionellen Lektüregewohnheiten annähern könnten. Dazu stehen inzwischen auch hilfreiche Software-Tools zur Verfügung wie Readability, das alle Bilder, Videos und Sound entfernt („Read Comfortably – Anytime, Anywhere. Return to distraction-free reading while supporting writers & publishers“), oder Instapaper („A simple tool to save web pages for reading later“). Diese als Apps installierbaren Programme richten sich an Smartphone- und Tablet-Nutzer, besonders aber auch an Kindle-Fans. So treibt die Amazon/Apple/Google-Technikwelt nicht nur eine Diversifizierung des Leseverhaltens, sondern auch ihre Widersprüche hervor, und es erscheint daher mehr als wahrscheinlich, dass – den Milliarden-Investitionen der Großunternehmen zum Trotz – die Zukunft nicht einseitig vom digitalen Buch bestimmt sein wird, sondern von einer Koexistenz innovativer und traditioneller Formen des Lesens und der Buchkultur.

124 Vgl. Franziska Schwarz: „Nachrichten aus dem Netz“. In: Süddeutsche Zeitung, Nr. 30, 07.02.2011, S. 11.

Die digitale Revolution auf dem Buchmarkt

137

3 Ausblick Wenn es darum geht, technikinduzierte und globalökonomisch bedingte Veränderungen in der Buchwirtschaft und Lesekultur zu beobachten, fällt der Blick heute zuallererst auf Amazon, Apple und Google. Vorzugsweise mit den Aktivitäten dieser Unternehmen hat es zu tun, dass, entlang der Wertschöpfungskette betrachtet, inzwischen nahezu alle Akteure im buchmedialen Feld von einem strukturellen Wandel betroffen sind: dass also die Autoren ihre bisherige Publikationspraxis überdenken und ihre Rolle neu interpretieren müssen; dass Buchverlage aller Sparten rasch auf technische Innovationen reagieren und sich auf den Eintritt branchenfremder Konkurrenten in den Markt vorbereiten müssen; dass der Buchhandel sich mit bedrohlicher Konkurrenz von außen konfrontiert sieht und dass Leser und Kunden sich mit neuartigen Produkten und neuen Lektüreformen auseinandersetzen müssen. Stärker noch als gesellschaftlicher und kultureller Wandel hat in den vergangenen zwei Jahrzehnten der technologische Wandel auf Buchmarkt, Buchkultur und die Literaturverhältnisse eingewirkt. Waren davon zunächst nur Herstellung und Vertrieb, Satz- und Drucktechnik, Bestellwesen und Logistik betroffen, so ergaben sich mit dem neu entstandenen Onlinehandel Umwälzungen auch in den Distributionsverhältnissen – es war Amazon, das über den Handel mit Büchern den E-Commerce großen Stils recht eigentlich erst erfunden hat. Wie es mit seiner Verkaufsplattform vorführte, konnten Handelsfunktionen wie Recherche oder Beratung, die traditionell vom stationären Buchhandel wahrgenommen wurden, rasch im Internet abgebildet und teilweise – vor allem durch Kundenkommunikation – sogar ausgebaut werden. Inzwischen legt es Amazon darauf an, die gesamte Verwertungskette zu besetzen: von der Autorenakquise über den Verlag, Druck und Vertrieb bis zum Verkauf. Insbesondere die verlegerischen Aktivitäten wurden in der jüngsten Vergangenheit maßgeblich ausgebaut: Für das Selfpublishing wurden Tools und innovative Vergütungsmodelle entwickelt. Als absoluter Marktführer im Online-Buchhandel hat sich Amazon eine hervorragende Ausgangsposition geschaffen, um mit dem elektronischen Lesegerät Kindle und einem dazugehörigen E-Book-Angebot den Erfolg in den Digitalbuchmarkt hinein zu verlängern. Im gleichen Zeitraum hat Google über seine Suchmaschine und vielfältige damit assoziierte Aktivitäten seine Strategie der globalen Beherrschung von Informationsmärkten verfolgt und im Zusammenhang mit dem Prinzip der Verfügbarmachung von Informationen aller Art über eine Bücher-Volltextsuche auch neue Zugangsmöglichkeiten zum Medium Buch erschlossen. Auf der Grundlage eines auf die Kombination von Werbung und Informationszugang aufgebauten Geschäftsmodells hat sich Google optimale Bedingungen geschaf-

138

Ernst Fischer und Anke Vogel

fen, die Regeln der Internetökonomie, die stark auf werbefinanzierten Gratisangeboten aufgebaut sind, zu seinen Gunsten anzuwenden. Dies nutzt das Unternehmen nun auch zum Aufbau einer E-Book-Distribution, in der die (immer bereitwilliger akzeptierte) Zusammenarbeit mit herkömmlichen Buchverlagen eine ebenso wichtige Säule ist wie der inzwischen gigantisch große Fundus an digitalisierten Büchern aus fünf Jahrhunderten. Auf wieder anderen Wegen gelangte der Hardware-Hersteller Apple auf den Buchmarkt; er suchte das Erfolgskonzept von iPod und iTunes-Store für den Buchsektor zu adaptieren. Dabei verzichtete er darauf, einen eigenen EBook-Reader zu entwickeln, und setzte vielmehr auf das iPhone und schließlich auf das iPad, die über AppStore und iBookstore mit Content versorgt werden. Obwohl der Tablet-PC längst erfunden war, konnte Apple mit dem iPad einmal mehr ein in Ästhetik und Funktionalität faszinierendes Gerät vorstellen, an dem sich nicht nur die Begeisterung von Millionen Käufern, sondern auch die Phantasie der Printverleger (vor allem auch der Zeitungs- und Magazinverleger) entzündete. Wie Amazon punktet auch Apple im E-Book-Geschäft mit der Kombination von „Gadget“ und Store, konkret auch mit der Verfügbarkeit von attraktivem Lektürestoff und dem direkten, umstandslosen Zugriff darauf. Dieser Digitalbuchmarkt versprach, nach gescheiterten Anläufen mit ungeeigneten E-Book-Readern am Beginn des Jahrtausends, ein großes Geschäft zu werden; kommerzielle Erfolge lassen sich jedoch erst seit Kurzem realisieren und bleiben vorerst auf den US-amerikanischen Markt beschränkt, während im deutschsprachigen Raum E-Book-Verkäufe bis 2011 über einen Marktanteil von 0,5% nicht hinauskamen. Im Grunde geht es also um einen Hoffnungsmarkt. Allgemein wird erwartet, dass mit gesteigerter Usability sowie verbesserten Darstellungsmöglichkeiten der Geräte, auch auf Farb-Displays mit elektronischer Tinte, mit Beseitigung des Formatwirrwarrs, Minimierung der DRM-Probleme sowie mit medienadäquat gestalteten E-Books und allgemeinen Preisrückgängen ein Massenmarkt für digitale Bücher entsteht. Wer wird diesen neuen Markt beherrschen, und welche Rolle spielen das traditionelle Verlagswesen und der traditionelle Buchhandel auf diesem Zukunftsmarkt? Amazon behauptet nach allgemeinen Schätzungen mit seinem proprietären Kindle-System derzeit rund ein Drittel des Marktes. Zusammen mit Apple und Google wird in mittel- und längerfristiger Betrachtung nur ein kleines Stück dieses Kuchens übrig bleiben. Denn wenn sich die Verlagsbranche, auch in Deutschland, durchaus der Herausforderung stellt, auf die digitale Revolution zu reagieren, so hat sie der Übermacht der globalen Player doch wenig entgegenzusetzen. Diese neuen Akteure bringen mit ihren andersgearteten, den Spielregeln der Netzökonomie viel besser entsprechenden Unternehmenskulturen,

Die digitale Revolution auf dem Buchmarkt

139

aber auch mit ihren innovativen Geschäftsmodellen und aggressiven Strategien die Buchbranche derzeit gehörig ins Wanken. Dass Apple und Co. auf ihren Geschäftsfeldern viel bewegen können, ergibt sich schon aus ihrer schieren Größe und Finanzkraft; in den Börsenwert- und Markenwert-Rankings liegen sie weit vorne bzw. an der Spitze, vorneweg die „Kult“-Marke Apple. In diesen Positionen drückt sich die Erwartung der Märkte aus, dass diese Unternehmen ihren Expansionskurs erfolgreich fortsetzen können. Diese Erwartung hat gute Gründe: Die Möglichkeit zur großzügigen Marktkapitalisierung schafft entsprechend große ökonomische Spielräume, die Unternehmen können von Skaleneffekten („Economies of scale“) ebenso wie von Verbund- und Netzwerkeffekten („Economies of Scope“) in einer Weise profitieren, die ihnen – wie es im Moment aussieht – einen faktisch uneinholbaren Wettbewerbsvorteil verschafft. Darüber hinaus verbindet sich in allen drei Fällen die exzeptionelle Finanzkraft mit exzeptioneller Innovationskraft – eine Konstellation, die zur Eroberung von Märkten und zur Schaffung neuer Märkte förmlich einlädt. Die meisten der von den Unternehmen angestoßenen Entwicklungen stehen erst in den Anfängen, und so können auch die Auswirkungen ihres Engagements auf dem Buchmarkt erst in Ansätzen beobachtet und nur mit größter Zurückhaltung bewertet werden. Viele Fragen bleiben vorerst offen: Welchen Einfluss haben Suchmaschinentechnologien, auch im Rahmen der Bücher-Volltext-Suche, langfristig auf die Wahrnehmbarkeit von Literatur, welchen auf die Kanonisierung kultureller Werte? Wie wirken sich Eigenschaften der (Lese-)Hardware auf die Gestaltung von Inhalten aus („das Medium ist die Botschaft“)? Werden z. B. die Kindle- und iPad-Welten auf der Basis neuer Lesegeräte eher zusammenwachsen oder werden zukünftige Gerätegenerationen und Softwareinnovationen (z. B. Betriebssysteme wie bei Apple oder bei Googles Android) weiterhin zur Abschottung von Marktsphären benutzt werden? Wird die Zerklüftung des Digitalbuchmarkts durch unterschiedliche (proprietäre) Formate und DRM-Konzepte aufrecht bleiben, oder kommt es zu einer Homogenisierung? Wird die Verknüpfung von Ausgabegeräten mit Contents ein starker Hebel im Konkurrenzkampf bleiben? Wird es im Zeichen der Enhanced/Enriched E-Books zur nachhaltigen Ausbildung neuer Formen von Literatur kommen, oder bleiben dies Experimente, die das große Publikum nicht erreichen? Ähnliche Überlegungen lassen sich hinsichtlich der zukünftigen Rolle der Autoren anstellen: Wie erfolgreich wird das Autorenmarketing von Amazon, Google und Apple sein; werden Autorenkarrieren wie bisher in Buchverlagen beginnen, oder werden diese zur Sackgasse, zum Abstellgleis? Muss in erster Linie eine Internet-Fangemeinde erobert werden, sind Apps- oder Kindle-Publikationen zukünftig der Schlüssel zum Erfolg? Lösen die „neuen Intermediäre“

140

Ernst Fischer und Anke Vogel

(paradoxerweise) Prozesse der Disintermediation aus, indem sie SelfpublishingModelle propagieren und so nicht nur die Verlage, sondern auch den konventionellen Buchhandel aus der Wertschöpfungskette eliminieren? Können sie ein Publikationssystem aufbauen, in welchem sie den Autoren nicht nur wesentlich höhere Honorare bieten, sondern auch eine bessere Absicherung der Urheberrechte? Die Veränderungen in den Rahmenbedingungen für literarisches Schaffen würden in solchen Fällen sowohl Autoren mit hohem Bekanntheitsgrad (die in Sozialen Netzwerken direkt mit ihrem Publikum in Kontakt stehen könnten) wie auch die wachsende Zahl von literarischen Newcomern und Amateurschriftstellern betreffen, die unter Umgehung von Verlagen und deren Qualitätssicherungsfunktion den Weg in die Öffentlichkeit suchen. Mit einem solchen, über das Social Web organisierten Selfmarketing der Autoren, das im literarischkulturellen Feld zur Herausbildung unzähliger Nischen führen könnte, würden neue Kommunikationsräume geschaffen und die Zugänge zu Literaturinformation und zum Literaturbetrieb mehr noch als bisher durch neue Gatekeeper reguliert. Auch zeichnet sich bereits ab, dass mit der Entstehung neuer Literatur- und Darstellungsformen auch neue Inhalteproduzenten auf den Plan treten. Dies gilt besonders dort, wo Texte mit audiovisuellem Material angereichert werden sollen, um – der Innovationslogik der technischen Potenziale folgend – digitale Bücher zu maximal attraktiven Produkten zu machen. Daraus ergeben sich neue, technikbetonte Produktionsformen, mit denen sich die gewohnten Rollen von Autor, Lektor und Verlag verändern und die Kooperation mit Mediengestaltern unvermeidlich wird. Es geht dabei auch um die Bereitstellung von neuen multimedialen Paratexten (Buchtrailer, Leseproben, Interviews etc.) und deren Einschleusung in die Kommunikationskreisläufe der Social Networks, Twitter oder Communities – eine Aufgabenstellung, die möglicherweise von den neu in den Markt eingetretenen branchenfremden, global operierenden Konkurrenten (ein Beispiel dafür hat schon in den ausgehenden 1990er Jahren Microsoft mit der erfolgreichen Einführung der Encarta-Enzyklopädie geliefert) besser gemeistert werden kann als von den etablierten Unternehmen, die bei der Durchsetzung von radikalen Innovationen nachweislich systematische Nachteile haben. Sollte sich die Übertragung von Geschäftsmodellen aus anderen Medienbereichen in die Buchwirtschaft als Schlüssel zum Erfolg erweisen, auch weil das Medium Buch seine relative Autonomie verliert und sich mit Angeboten der Presse-, Musik-, Film-Industrie u. a. m. amalgamiert, sind fundamentale Umwälzungen im Bereich der Anbieterszene mehr als wahrscheinlich. Noch mehr Wahrscheinlichkeit hat allerdings ein Szenario, das keine derartig radikalen Veränderungen kennt und im digitalen Buch eben nicht jenen Faktor oder Katalysator sieht, der alle vertrauten Strukturen aufsprengt. Danach

Die digitale Revolution auf dem Buchmarkt

141

könnte sich im Zeichen des E-Books ein zusätzlicher Markt von begrenzter Größe (vielleicht 10% des derzeitigen Print-Marktvolumens) herausbilden, während – aufgrund nur geringer Kannibalisierungstendenzen zwischen Print- und E-Produkt – der konventionelle Buchmarkt in bisheriger Größenordnung erhalten bleibt. Der E-Book-Markt könnte also (wie früher das Taschenbuch) ein zusätzliches Element der Verwertungskette sein, das vor allem für Bestseller oder jedenfalls überdurchschnittlich gut verkäufliche Titel in Frage kommt, daneben auch für Special-Interest-Angebote für kleinere Zielgruppen, z. B. im Markt für Sachinformationen. Wenn der Digitalbuchmarkt in Zukunft nun auch von Amazon, Apple, Google, vielleicht auch Sony und anderen internationalen Konzernen kontrolliert wird, so könnten dabei doch die Strukturen der nationalen Buchindustrien erhalten bleiben und damit auch die Funktion der Verlage als eigentliche Content-Lieferanten. Auch in der Autorenschaft gibt es ja bislang nur eine geringe Bereitschaft, sich völlig dem Digitalmarktmodell anzuvertrauen; ganz überwiegend ist sie noch an einer Zusammenarbeit mit einem Verlagshaus interessiert, das – anders als Google und Co., die keine tiefer gehende Affinität zu Buch und Literatur entwickeln – sich mit seinem Programm ein Profil gibt und sich mit den produzierten Titeln identifiziert. Gerade vor dem Hintergrund elektronischer Massenware wird der Druck eines Buches als Auszeichnungsform eines Werkes wahrgenommen werden, auf die Schriftsteller besonderen Wert legen. Im Medienverhalten des Publikums wiederum könnten gesellschaftliche Tendenzen eine Rolle spielen, wie sie etwa im Wunsch nach „Entschleunigung“ des Lebens zum Ausdruck kommen und im gedruckten Buch ihre nachgerade zeichenhafte Entsprechung finden könnten. Die von technischen Novitäten angefachte Praxis des Lesezappings würde dann dialektisch wieder die konzentrierte Lektüre von Langtexten befördern. Die Beliebtheit von Tausend-SeitenSchmökern auf den Bestsellerlisten gibt einen Hinweis darauf. Schließlich gilt es zu bedenken, dass das Engagement der hier betrachteten Unternehmen auf den Buchmärkten mit enormen Unsicherheitsfaktoren behaftet ist: Heute müssen sie als die entscheidenden Agenten des Wandels betrachtet werden, morgen könnte sich die Situation aber bereits wieder in verändertem Licht darstellen. Die kapitalistisch organisierte Marktwirtschaft hat zwar längst schon auch die Kulturgüterproduktion vereinnahmt; Unternehmen dieses Zuschnitts lassen jedoch Geschäftsfelder ohne weiteres wieder fallen, wenn die erhofften Renditen nicht erreicht werden, wenn die angestrebten Ziele wie Marktführerschaft oder Monopolstellung nicht verwirklichbar erscheinen oder andere Gründe (unternehmensgefährdende Rechtsunsicherheiten, gesellschaftliche Widerstände u. a. m.) gegen die Fortführung einzelner Aktivitäten sprechen. Die auf Internationalisierung der Buchmärkte ausgelegte Geschäftspolitik der Big Global Player ist zwar schon ein gutes Stück voran gekommen, besonders im Bestseller-

142

Ernst Fischer und Anke Vogel

bereich, doch könnte alleine schon die Erkenntnis, dass Literaturmärkte mühsam zu bearbeitende Sprach- und Übersetzungsmärkte sind, dazu führen, dass sie ihr Interesse verlieren und sich aus diesen Märkten wieder zurückziehen. Damit würden die vertrauten Strukturen der Buchwirtschaft und des Literaturbetriebs – sofern sie dann noch existieren – zwar nicht unverändert, aber doch in ihrer Substanz erhalten bleiben.

Literaturhinweise Janello, Christoph: Wertschöpfung im digitalisierten Buchmarkt (Markt- und Unternehmensentwicklung/Markets and Organisations). Wiesbaden 2010. Clement, Michel, Eva Blömeke u. Frank Sambeth (Hg.): Ökonomie der Buchindustrie. Herausforderungen in der Buchbranche erfolgreich managen. Wiesbaden 2009. Vogel, Anke: Der Buchmarkt als Kommunikationsraum. Eine kritische Analyse aus medienwissenschaftlicher Perspektive. Wiesbaden 2011.

Wolfgang Straub

Die deutschsprachige Verlagsbranche und die digitalen Bücher 1 Die Diskussion um digitale Bücher aus Verlagssicht: Zurückhaltung vs. Innovation Seit Jahren wird die Medienberichterstattung zur größten internationalen Buchmesse im herbstlichen Frankfurt am Main vom Thema E-Books bestimmt – das E-Book sei, so etwa die Frankfurter Allgemeine Zeitung im Oktober 2010, das „große Thema der Buchmesse“1 oder, laut Süddeutscher Zeitung, „ein Star auf der Frankfurter Buchmesse“.2 Dieses mediale Getöse korrespondiert nicht mit der wirtschaftlichen Bedeutung des E-Books: Der prozentuelle Anteil am Gesamtumsatz der Branche lag 2010 unter einem Prozent.3 Die Aufregung scheint aufs Erste eine rein mediale zu sein. Werden in diesem Bereich Prognosen für die nächsten Jahre gewagt, übersteigen diese nicht die 10-Prozent-Marke: „,Mittelfristig werden etwa sechs bis sieben Prozent der Belletristik-Umsätze auf E-Books entfallen‘, prognostiziert Werner Ballhaus, Leiter des Bereichs Technologie, Medien und Telekommunikation bei PwC [PriceWaterhouseCoopers, W. S.] in Deutschland.“4 In konkreten Zahlen: „Wurden 2009 hierzulande gerade einmal drei Millionen Euro mit digitalen Büchern umgesetzt, wird es bis 2015 das Hundertfache sein, so eine Prognose des Statistikportals ,statista‘.“5 Neben der Tatsache, dass die Medien für die Buchmesse einen „Aufhänger“ brauchen, könnten sich hinter den Zukunftsszenarien einer rasanten Zunahme des Handels mit digitalen Büchern Ängste vor einem „Überrolltwerden“ von Digitalisaten verbergen, Ängste auch vor einem Einbruch des traditionellen Buchhandels – dem wichtigsten Distributor der Verlage –, wie er sich in den 1 Bopp, Lena: „Komm, spiel mit mir! Die E-Books sind das große Thema der Buchmesse“. In: Frankfurter Allgemeine Zeitung, 06.10.2010, S. 31. 2 Müller, Lothar: „Lesegeräte mit Flügeln“. In: Süddeutsche Zeitung, 15./16.10.2011, S. 13. 3 „Der Umsatz mit dem elektronischen Buch lag 2010 bei einem Marktanteil von lediglich 0,5 Prozent.“ dpa: „Wer kauft wo Bücher? Der Online-Buchhandel wächst, das E-Book ist noch Außenseiter.“ In: Süddeutsche Zeitung, 11.07.2011, S. 11. 4 Buchmarkt: Print wächst verhalten, Umsatz mit E-Books legt deutlich zu, 2011. www. presseportal.de/pm/8664/2127373/buchmarkt-print-waechst-verhalten-umsatz-mit-e-bookslegt-deutlich-zu (Stand: 01.02.2012). 5 Prognose: Bis 2015 100-facher E-Book-Umsatz gegenüber 2009, 2011. www.teltarif.de/ e-books-buecher-e-book-reader-buchmesse/news/44293.html (Stand: 01.02.2012).

144

Wolfgang Straub

USA durch die Insolvenz der zweitgrößten Buchhandelskette Borders 2011 und in den anhaltenden wirtschaftlichen Problemen des Marktführers Barnes and Nobles abzeichnet. All das suggeriert, dass, wer die Digitalisierung versäumt, das Nachsehen habe. 2009 schreibt Rüdiger Wischenbart in einem Online-Feuilleton von Trägheit, Versäumnissen und Ängsten der Verlagsbranche bezüglich der Digitalisierung: Was mich wieder und wieder verblüfft ist, wie diese ganze Debatte von Ängsten getrieben ist, statt von Selbstbewusstsein einer der wichtigsten Kulturindustrien, die wir haben. Wie wenig sie der Zukunft zugewandt geführt wird. Wie sehr stattdessen mit immer wilderen Verfolgungs- und Untergangsmetaphern hantiert wird.6

Jürgen Neffe, einer der vehementesten Befürworter des digitalen Wandels in der Buchbranche und Autor einer multimedialen Darwin-Biographie, kritisiert noch 2011, dass die deutsche Verlagsbranche „mut- und kopflos“ in eine neue Zeit stolpere, die sie vollständig umkrempeln werde. Neffe zieht einen drastischen Vergleich aus der Literatur heran: „Der deutschen Buchbranche geht es ähnlich wie Biedermann mit den Brandstiftern. Man lässt sie ins Haus, und sie sprechen – Wahrheit ist die beste Lüge – treuherzig über ihre Absichten.“7 Aber die Vertreter der deutschsprachigen Verlagsbranche allein als Technologieverweigerer darzustellen, die ihre Köpfe in den Sand stecken und durch die technologische Entwicklung bald links liegen gelassen werden, greift zu kurz. Das geht an der Vielseitigkeit der Verlagslandschaft vorbei. Im Vergleich zum „innovativen Amerika“ ist die Branche viel kleinteiliger und vielfältiger, die Backlists der Verlage sind viel umfangreicher. Zudem muss bedacht werden, in welcher Form neue digitale Formen für das jeweilige Produkt überhaupt sinnvoll einsetzbar sind, da die Ansprüche zwischen wissenschaftlicher Literatur, Sachbüchern, Belletristik, Ratgebern, Schulbüchern, Reiseführern und Kinder- und Jugendliteratur divergieren. Im zweiten Jahrzehnt des 21. Jahrhunderts scheint sich ohnehin Pragmatismus breit zu machen. 2010 meinte etwa Michael Hofner, Spezialist für Print- und Online-Automatisierung in einer bayerischen Kommunikationsagentur, mit Blick auf seine Erfahrungen bei Seminaren zum Thema Digitalisierung und Verlage, dass „das Missionarische“ zu Ende gehe, niemand in der Verlagsbranche müsse davon überzeugt werden, dass es wichtig ist, sich

6 Rüdiger Wischenbart: Die Strukturbrüche sind hausgemacht, 2009. www.perlentaucher.de/ artikel/5351.html (Stand: 07.01.2011). 7 Neffe, Jürgen: Gutenberg und die Brandstifter, 2011. www.perlentaucher.de/artikel/7286. html (Stand: 02.02.2012).

Die deutschsprachige Verlagsbranche und die digitalen Bücher

145

Strategien zu überlegen, wie auf einen zunehmend digitalisierten Buchmarkt zu reagieren sei.8 Für eine Studie der Münchner Managementberatung Mücke, Sturm & Company gaben 2010 44 Prozent der befragten Verlage an, „innerhalb des Zeitraumes Oktober 2009 bis Oktober 2010 digitale Printmedien auf den Markt gebracht zu haben oder einen Markteintritt zu planen.“9 Ein Jahr später meldet der Börsenverein des deutschen Buchhandels, dass 35 Prozent der Verlage „bereits mit E-Books aufgestellt“ seien und 80 Prozent der Verlage nach eigenen Angaben in den kommenden Jahren E-Books anbieten würden.10 Innerhalb der großen Bandbreite der verschiedensten Verlagstypen gibt es die „Digitalisierungsverweigerer“ – Verleger, die sich bewusst dagegen entscheiden, digitale Produkte anzubieten. Zu ihnen gehört etwa Rainer Groothuis, der 2010 in Hamburg den Corso Verlag gründete, der sich mit bibliophilen Reisebüchern profilieren will. Er setzt bewusst auf das „Anfassbare, das Dingliche, das Sinnliche, das Authentische“, in Groothuis’ Sinn das „Gegenteil von digital“. In einem Interview zur Verlagsgründung meint er, erst einmal die Entwicklung abwarten zu wollen: „Man muss auch nicht sofort auf jeden Zug springen, der vorbeitingelt.“11 Ähnlich sieht dies Jochen Jung, Verleger eines kleinen österreichischen Literaturverlags, dem mit dem Deutschen Buchpreis 2010 ein unerwarteter Erfolg beschieden war, indem er meint, weiterhin auf Papier setzen zu wollen; sollte das E-Book einschlagen, könne man „innerhalb eines Jahres nachziehen“.12 Zwischen diesen beiden Polen changiert also die Diskussion über die Verlagsbranche in den Medien und der Literatur: zwischen der pragmatischen, eher abwartenden Position vieler Verleger, die nicht in eine Technologie investieren wollen, deren Zukunft ungewiss und deren Umsätze noch gering sind, und der Forderung nach Investitionen und mehr Engagement, um die Zukunft selbst bestimmen zu können und nicht das gleiche Schicksal wie die Musikbranche zu erleiden.

8 Michael Hofner im Gespräch mit dem Autor, Frankfurt/Main, 07.10.2010. 9 Mücke, Sturm & Company: Strategic Insight – E-Books. Wie Verlage von der Digitalisierung profitieren können. Paper (Juli 2010), S. 6. 10 Börsenverein: Buchbranche erwartet Durchbruch für das E-Book, 2011. www.boersenblatt. net/431688 (Stand: 01.02.2012). 11 Wilking, Thomas: Das Gegenteil von digital? Anfassbar und authentisch. Interview mit Rainer Groothuis über sein erstes Buchprogramm, 2010. www.buchreport.de/nachrichten/ verlage/verlage_nachricht/datum/2010/10/27/das-gegenteil-von-digital-anfassbar-undauthentisch.htm (Stand: 01.02.2012). 12 Klauhs, Harald: „Was liegt auf dem Präsentierteller? Die Presse am Sonntag sprach auf der Frankfurter Buchmesse mit österreichischen Verlegern.“ In: Die Presse am Sonntag, 10.10.2010, S. 42.

146

Wolfgang Straub

2 Die deutschsprachige Verlagslandschaft 2.1 Marktkonzentration Buchverlage sind Unternehmen, die Produkte herstellen, die durch ihren immateriellen Wert bestimmt sind. Zu den zentralen Aufgaben eines Verlages zählen Programmentwicklung und -planung für die spezifische Zielgruppe, Autorenkontakt und -betreuung, Auswahl und redaktionelle Betreuung von Manuskripten, Herstellung, Vertrieb, Rechtemanagement und Wirtschaftlichkeitsrechnung. Für diese komplexen Prozesse müssen die Tätigkeiten von Autoren und/ oder Herausgebern, Lektoren und Redakteuren, Grafikern, Herstellern und Druckern, Elektronikspezialisten und Vertriebsexperten koordiniert werden. Verlage sind – und das wird in unserem Zeitalter der Informationsflut immer mehr betont – Institutionen der Filtration und der Orientierung.13 Ob analoge oder digitale Bücher produziert werden, hat keinen Einfluss auf diese Grundlagen. Dass die ,Ware Buch‘ kein herkömmliches, sondern ein unkalkulierbares Produkt ist, versuchte Hans Magnus Enzensberger in einer feuilletonistischen Definition des Verlags darzulegen. Er spricht von einem „sonderbaren Gewerbe“ mit hohem persönlichen Engagement, „rührend, ehrgeizig und vollkommen unkalkulierbar. Die Bezahlung ist meistens schlecht, die Renditen sind minimal und die Risiken mörderisch. Das ist nicht neu, das war fast immer so.“ Die großen Konzerne, die in die Branche eingestiegen seien, hätten erkennen müssen, dass Erfolge hier nicht vorhersehbar, nicht planbar seien und dass „mit Büchern das große Geld nicht zu machen“ sei.14 Man kann sich zwar mit Enzensberger freuen, dass der „Anachronismus“ des Buchverlegens in Zeiten der Profitmaximierung lebt, was aber nicht die Tatsache abschwächt, dass die Branche seit längerer Zeit einer massiven Marktkonzentration ausgesetzt ist, die bei den Programmverantwortlichen den Druck hin zu einer höheren Marktgängigkeit verstärkt. Folgt man André Schiffrin, eine der großen Verlegerpersönlichkeiten der USA, und seiner Streitschrift Verlage ohne Verleger (2000), so ist dieses Phänomen verstärkt seit Beginn der 1990er Jahre auszumachen: „Mit Fug und Recht läßt sich sagen, daß die Verlagswelt überall auf der Welt im Laufe der letzten zehn Jahre [1990–2000, W.S.] tiefgreifendere Veränderungen durchlaufen hat als 13 Vgl. Heinold, Wolfgang Ehrhardt: Bücher und Büchermacher. Verlage in der Informationsgesellschaft. Heidelberg 2001, S. 18 f. 14 Enzensberger, Hans Magnus: „Bücher à la carte. Der Verlag, verglichen mit dem Restaurant.“ In: ders.: Über Literatur. Frankfurt/M. 2009, S. 259–263, hier: S. 260.

Die deutschsprachige Verlagsbranche und die digitalen Bücher

147

in den hundert Jahren zuvor.“15 Dass Schiffrin den Beginn dieser Umwälzungen ausgerechnet 1990 ansetzt, mag mit eigenen Erfahrungen zu tun haben: In diesem Jahr trat er als Geschäftsführer des New Yorker Pantheon Verlages zurück und gründete einen kleinen, unabhängigen Verlag, weil er sich – so seine eigene Darstellung – weigerte, auf die Forderungen des Eigentümers Random House nach Reduzierung des Programms und Personalstands einzugehen. Bernhard von Becker weist zwar darauf hin, dass im Verlagsgewerbe die starke Konzentrationstendenz sowie „das Dilemma des Widerspruchs zwischen den Postulaten der anspruchsvollen Literatur und der gewünschten Massenwirkung“ schon in der Gründerzeit vor dem Ersten Weltkrieg vorhanden gewesen seien,16 doch stelle die Internationalisierung und das Ausmaß der Konzentration seit dem Ende der 1980er Jahren zweifellos eine neue Qualität dar: „Zwischen 1988 und 1997 waren etwa 90 Übernahmen zu verzeichnen. Wenige Unternehmen der Branche bestreiten den Hauptteil des Umsatzes: etwa 7% der Verlage verbuchen über 80% der Umsätze.“17 Eine der Folgen dieser Entwicklung war (und ist) die Tendenz, mit weniger Titeln mehr Umsatz zu machen. Das erhöht(e) den Druck innerhalb der Verlage, aber nicht zuletzt auch in den Buchhandlungen, wo die auflagenstärksten Titel in den Mittelpunkt (bzw. die verkaufsträchtigsten Positionen) gerückt werden. Dabei wurde es in Buchhandelsketten Usus, die Verlage an den Werbemaßnahmen und an der Positionierung innerhalb der Geschäfte finanziell zu beteiligen.18 Der Verleger Klaus Wagenbach verweist in seinem Nachwort zu Schiffrins Buch darauf, dass mit der Marktkonzentration die „gute alte Quersubventionierung (Typus: Schmonzes finanziert Lyrik)“ auszusterben drohe, am Ende müsse „nicht nur jede Sparte, sondern jedes Buch seine Kosten decken“; er hält den Verfechtern eines Marktliberalismus entgegen, dass in der Buchbranche Qualität keine hohen Auflagen erziele, sie werde „in der Regel nicht erkannt, schon gar nicht vom Markt“.19

15 Schiffrin, André: Verlage ohne Verleger: über die Zukunft der Bücher. Berlin 2000, S. 9. (Im Original im selben Jahr erschienen unter dem Titel The Business of Books: How the International Conglomerates Took Over Publishing and Changed the Way We Read.) 16 Becker, Bernhard von: „Die Verlagswirtschaft in der Informationsgesellschaft“. In: Ludwig Delp (Hg.): Das Buch in der Informationsgesellschaft. Ein buchwissenschaftliches Symposion. Wiesbaden 2006, S. 109–130, hier: S. 113. 17 Niemeier, Sabine: Funktionen der Frankfurter Buchmesse im Wandel – von den Anfängen bis heute. Wiesbaden 2001, S. 62. 18 Vgl. Schiffrin: Verlage ohne Verleger, S. 91. 19 Wagenbach, Klaus: „Nachwort“. In: Schiffrin: Verlage ohne Verleger, S. 114–125, hier: S. 120.

148

Wolfgang Straub

2.2 Größenordnung Aber wer Qualität sucht, findet sie nach wie vor. Die ,Verlagskultur‘ ist durch die Herrschaft des Mainstreams und die Marktkonzentration nicht am Ende. Es entstehen immer wieder neue, engagierte Verlage, die in die von den Konzernen nicht bedienten Nischen vorstoßen. Auch die statistischen Daten lassen ein baldiges Ende der ausdifferenzierten Verlagswelt unwahrscheinlich erscheinen, spricht doch allein die schiere Anzahl der Buchverlage dagegen: Wulf D. von Lucius führt für das Jahr 2005 die Zahl von 2812 deutschen Buchverlagen an. Davon sind rund die Hälfte Kleinst- und Kleinverlage mit einem jährlichen Umsatz unter 250.000 Euro.20 Diese Verlage machen nur einen geringen Teil des Umsatzes aus – die oberen 6% der Umsatzstatistik vereinen 83% des Umsatzes auf sich –, aber sie repräsentieren einen großen Teil der ,Verlagskultur‘. Der umsatzstärkste Buchverlag im deutschsprachigen Raum ist „Springer Science+Business Media“, seit 2010 im Besitz des Stockholmer Private EquityUnternehmens EQT Partners, also einer Finanzbeteiligungsfirma. Auch die nächstgrößeren Verlagsgruppen verdienen ihr Geld nicht mit Literatur, sondern vornehmlich mit Weiterbildung und Schulbüchern: Klett, Cornelsen und Westermann.21 Die größte Unternehmensgruppe, die Belletristik verlegt, ist Random House – zum Bertelsmann-Konzern gehörend und insgesamt 45 Verlage mit deutschsprachigen Titeln unter ihrem Dach vereinend. Ein Großteil der bekannten deutschen ,Publikumsverlage‘ gehört zu Verlagsgruppen: Holtzbrinck (u. a. S. Fischer, Rowohlt, Kiepenheuer), Bonnier (u. a. Carlsen, Piper, Econ, Ullstein), Ganske (u. a. Hoffmann und Campe). Der laut Selbstdarstellung „größte rein belletristische Verlag Europas“22 ist allerdings ein selbständiges Unternehmen: Der Zürcher Diogenes Verlag firmiert als Aktiengesellschaft. Auch weitere wichti-

20 Wulf D. von Lucius: Verlagswirtschaft. Ökonomische, rechtliche und organisatorische Grundlagen. Konstanz 2005, S. 46. Die Anzahl dürfte in etwa über die Jahre gleich bleiben. Es geht hier nur um ein Abschätzen der Dimensionen, eine Angabe von exakten Zahlen ist schwierig. Die Zahlen des Börsenvereins können nicht herangezogen werden, sind doch nicht alle Verlage Mitglieder dieses Gremiums, und das statistische Bundesamt dürfte einen engeren Begriff des ,Buchverlags‘ haben, führt es etwa in einer Broschüre aus dem Jahr 2009 an, dass 27,5% der deutschen Verlage ,Buchverlage‘ seien (1870 an der Zahl), 25% fallen unter „sonstiges Verlagswesen“. Statistisches Bundesamt: Strukturerhebung im Dienstleistungsbereich Verlagswesen. Wiesbaden 2011, S. 6. (Abrufbar unter: www.destatis.de; Stand: 02.02.2012). 21 Vgl. Hanreich, Hanspeter, Hermann Kuschej u. Günther Grohall: Buchpreisbindung in Europa. Kulturpolitik und ökonomische Bedeutung. Wien, Graz 2010, S. 40 f. 22 www.diogenes.ch/leser/verlag/geschichte (Stand: 02.02.2012).

Die deutschsprachige Verlagsbranche und die digitalen Bücher

149

ge Literaturverlage wie etwa Suhrkamp, Hanser, C. H. Beck, Wagenbach, Wallstein, Aufbau oder Schöffling sind in privater Hand. Um sich einen Eindruck von der Größenordnung des Verlagsgeschäfts machen zu können, greift man am besten auf die jährlichen Umsatzzahlen des Börsenvereins des Deutschen Buchhandels zurück. Der gesamte Umsatz der Buchbranche hat sich seit einigen Jahren bei knapp 10 Milliarden Euro eingependelt (2010 waren es 9,7 Milliarden Euro zu Endverbraucherpreisen). Einzelne Bereiche stagnieren, Verlagsumsätze weisen ein leichtes Plus auf, der OnlineBuchhandel verzeichnet starke Gewinne, der Sortimentsbuchhandel Verluste. 10 Milliarden Euro sind für einen Kulturbereich eine gewichtige Größe, im Vergleich dazu lag etwa der Umsatz der deutschen Filmindustrie im Jahr 2009 bei rund 2,63 Milliarden Euro.23 Rund die Hälfte der Bücher werden über den Sortimentsbuchhandel verkauft (der 2010 ein Umsatzminus von 2,8 Prozent verzeichnete), an zweiter Stelle der Vertriebswege folgt der Direktverkauf der Verlage an den Endkunden mit 18,5 Prozent Marktanteil. Der Online-Buchhandel wies 2010 einen Umsatzanteil von 13,8 Prozent auf (geschätzte 1,35 Milliarden Euro Umsatz), das entsprach einer jährlichen Steigerung von 14,1 Prozent. Die Gesamtumsätze der deutschen Verlage konnten 2010 eine Steigerung von 1,5 Prozent gegenüber dem Vorjahr verzeichnen, wobei die Umsätze mit Büchern nahezu gleich blieben, das Anzeigengeschäft mit einem Prozent wuchs und die Onlinedienste – in ihrer bescheidenen Gesamtdimension – ein Umsatzplus von 17,2 Prozent aufwiesen.24

2.3 Subventionierung Zwei Spezifika der deutschsprachigen Verlagsbranche müssen gesondert hervorgehoben werden: Zum einen ergreift man in der Schweiz und Österreich kulturpolitische Maßnahmen, das kleinteilige nationale Verlagsleben, das am Buchmarkt durch die marktbeherrschende Rolle deutscher (und internationaler) Verlage marginalisiert ist, durch Subventionen zu unterstützen. In der Schweiz unterstützen die Kantone, die vom Bund finanzierte Stiftung ,Pro Helvetia‘, Kommunen sowie der Nationalfonds die Drucklegung von Büchern, Letzterer in erster Linie Wissenschaftspublikationen. Die „Beiträge für öffentliche Massnahmen [von Bund, Kantonen, Städten; W. S.] zugunsten von Verlegerinnen und Verle-

23 Zahlen lt. Wirtschaftsprüfungsgesellschaft PricewaterhouseCoopers. de.statista.com/ statistik/faktenbuch/77/a/branche-industrie-markt/filmindustrie/filmindustrie-umsatz (Stand: 14.02.2012). 24 Börsenverein des deutschen Buchhandels: Wirtschaftszahlen, 2011. www.boersenverein.de/ de/portal/Wirtschaftszahlen/158286 (Stand: 02.02.2012).

150

Wolfgang Straub

gern“ betrugen 2007 3,4 Mio. Franken.25 In Österreich fördert der Staat die Verlagsbranche jährlich mit rund 2,7 Mio. Euro.26 Diese bescheidenen Maßnahmen können am gesamten deutschsprachigen Buchmarkt nur wenig Niederschlag finden. Das Wiener Institut für Höhere Studien etwa gab 2008 in einer Studie an, dass der Anteil von Büchern aus Österreich am deutschen Markt 1,2 Prozent betrage, während Bücher aus Deutschland 69 Prozent Anteil am österreichischen Buchmarkt hätten.27 Die Verlagsförderung der Schweiz und Österreich mag marktwirtschaftlich betrachtet wenig „effizient“ sein, sie ist dennoch eine wichtige Unterstützung der nationalen Buchproduktion, und in Zeiten von Monopolisierungstendenzen und eklatanter Marktkonzentration eine Möglichkeit zum Erhalt der kulturellen Vielfalt, um ein Schlagwort aus Feuilletons und Politikerreden zu verwenden. In der Schweiz starteten Verleger eine Initiative zur Schaffung eines erfolgsabhängigen Förderprogramms („Succès livre et littérature“), das die Strukturen der Branche stärken sollte. Eine Verlagsförderung wäre in Zeiten, in denen die Verleger mit dem ungünstigen Wechselkurs zu kämpfen haben, zupass gekommen. Aber im September 2011 erteilte der Nationalrat der Errichtung einer speziellen Verlagsförderung eine Abfuhr. Die Neue Zürcher Zeitung spricht denn auch von einem „eisigen Wind“, der dem Buchmarkt in der Schweiz entgegenblase.28

2.4 Buchpreisbindung Das andere Spezifikum stellt die Buchpreisbindung dar.29 Die Verlage setzen den Preis fest, zu dem der Handel den Artikel dann verkaufen muss. Die Buchpreis-

25 Bundesamt für Kultur: „Panorama der öffentlichen Massnahmen zur Buchförderung“ (Broschüre), 2008, S. 10 (PDF abrufbar unter: www.bak.admin.ch/kulturschaffen/04240/ 04242/index.html?lang=de; Stand: 02.02.2012). 26 „Die Ausgaben der Literaturabteilung im Bereich Verlagsförderung insgesamt (Verlage, Buchpräsentationen, Buchprojekte und -ankäufe) beliefen sich 2009 auf € 2,69 Mio.“. Bundesministerium für Unterricht, Kunst und Kultur: Kunstbericht 2010. Wien 2011, S. 9 (PDF abrufbar unter: www.bmukk.gv.at/medienpool/20914/kunstb_2010.pdf; Stand: 02.02.2012). 27 Hanreich, Hanspeter u.a: Buchpreisregelungen in Europa als Mittel der Kulturpolitik. Wirksamkeit und wohlfahrtsökonomische Bedeutung (Projektbericht). Wien 2008, S. 57. (PDF abrufbar unter: www.ihs.ac.at/publications/eco//recent_publ/buchpreisbindung_eb_241108. pdf; Stand: 28.02.2012). 28 Roman Bucheli: Versäumte Chancen, offene Fragen, 2011. www.nzz.ch/nachrichten/kultur/ literatur/versaeumte_chancen_offene_fragen_1.13168576.html (Stand: 02.02.2012). 29 Zur Buchpreisbindung vgl. u. a.: Hanreich u. a.: Buchpreisbindung in Europa. Wien, Graz 2010; Kühnert, Jürgen: Zur Geschichte der Buchpreisbindung in Deutschland. Von ihren

Die deutschsprachige Verlagsbranche und die digitalen Bücher

151

bindung umfasst Bücher (also auch E-Books), Musiknoten, kartographische Produkte und CD-ROM und gilt mindestens 18 Monate ab Erscheinungsdatum des Werkes. Hörbücher, Kalender sowie Multimedia-Produkte unterliegen keiner Preisbindung. Hauptargument für die Fixierung des Verkaufspreises war und ist der Erhalt des ,Kulturgutes Buch‘, die Vermeidung von Preisdumping, das zu einer weiteren Verstärkung der Marktkonzentration führen würde. In Österreich wurde der feste Ladenpreis im Laufe des 20. Jahrhunderts zu einem Handelsbrauch, der sich legistisch durchsetzte und zu ständiger Rechtssprechung wurde. In Deutschland bestand ein sogenannter Sammelrevers, also die Bündelung einzelner Preisbindungsverträge zwischen den Verlagen und den Händlern. Mit dem Beitritt Österreichs zum Europäischen Wirtschaftsraum wurde – die deutschsprachige Schweiz inkludiert – 1993 ein Dreiländer-Sammelrevers nach dem Muster des deutschen installiert. Nachdem die 1996 eingebracht Klage eines österreichischen Diskonters vor dem Europäischen Gerichtshof die grenzüberschreitende Preisbindung beinahe zu Fall gebracht hätte, wurde sie schließlich legistisch geregelt. Seit 2000 ist das österreichische, seit 2002 das deutsche Buchpreisbindungsgesetz in Kraft. In der Schweiz sind die Buchpreise seit 2007 allerdings frei. 2011 wurde das „Bundesgesetz über die Buchpreisbindung“ beschlossen, aber bei der Volksabstimmung im März 2012 lehnten 56 Prozent eine Preisbindung bei Büchern ab. Um seinen Mitgliedern möglichst klare Richtlinien zur Preisbindung bei EBooks zur Verfügung stellen zu können, veröffentlichte der Vorstand des Börsenvereins des Deutschen Buchhandels 2008 eine Stellungnahme, die zeigt, wie stark man sich hier am gedruckten Buch orientiert (orientieren muss) und wie schwierig eine eindeutige Eingrenzung des preiszubindenden Digitalisats ist: Preiszubinden sind solche E-Bücher, die einem gedruckten Buch im Wesentlichen entsprechen. Das setzt zwar keine vollständige Identität der Inhalte voraus, schließt aber z. B. die Preisbindungspflicht beim Handel mit einzelnen Buchkapiteln aus. E-Books im Sinne von § 2 Abs. 1 BuchPrG sind beispielsweise in ihrer Gesamtheit zum Download bestimmte oder auf Datenträgern jeglicher Art handelbare Werke, die geeignet sind, in ähnlicher Form genutzt zu werden wie gedruckte Werke. Nicht als E-Book i. S. d. § 2 BuchPrG sind unter anderem zu verstehen: Zugriffsberechtigungen auf Online-Datenbanken, Mehrfachnutzungen von Inhalten in Netzwerken [oder] Online-Nutzung von vernetztem Content.30

Anfängen bis ins Jahr 1945. Wiesbaden 2009; Goldschmitt, Regina: Grenzüberschreitende Buchpreisbindung und internationaler Buchmarkt. Wiesbaden 2000. 30 Preisgebundene E-Books. Börsenverein verfasst Stellungnahme, 2008. www.boersenblatt. net/260478 (Stand: 02.02.2012).

152

Wolfgang Straub

Gilt die Preisbindung für das gedruckte Buch als jahrzehntelanger Usus und Errungenschaft, so wird sie für das E-Book immer wieder zur Diskussion gestellt. Dagegen wird ins Treffen geführt, dass sich der globale Datenverkehr nicht an nationale Grenzen oder Regeln halte und den deutschsprachigen Verlagen mit der Preisbindung ein erhebliches Handelshindernis in Zeiten des Internets im Weg stünde.31 Wie virulent dieses Thema ist, zeigte die mediale Aufregung Anfang 2012 wegen der Ermahnung des Preisbindungstreuhänders der Verlage, die der Werbeaussendung eines Verlags für Berlinensia galt. Darin kündigte der Verlag an, bei einem seiner E-Books die Kunden bestimmen zu lassen, wie viel sie für das Produkt zahlen möchten. Der Treuhänder wies daraufhin den Verlag darauf hin, dass dies der gesetzlichen Regelung der Buchpreisbindung widerspreche – verschenken wäre rechtskonform gewesen.32

3 Der digitalisierte Verlag und die E-Books Der digitalisierte Verlag ist längst Realität. Alle Arbeitsabläufe innerhalb der Verlage sind seit langem digitalisiert – wenn auch noch viel auf Papier (Stichwort „Fahnenkorrektur“) gearbeitet wird. Am Ende der Arbeitsprozesse steht ein Digitalisat, das an die Druckerei geschickt wird oder in ein E-Book-Format umgewandelt wird. Um die verschiedenen digitalen und analogen Endprodukte sowie die unterschiedlichen Arbeitsschritte und -prozesse optimal in einen digitalen ,workflow‘ eingliedern zu können und die Anhäufung von Dateiversionen und vielerlei Konvertierungen zu vermeiden, empfehlen Experten (und Dienstleister, die damit ihr Geld verdienen) die Umsetzung des Schlagworts ,XML first‘. Diese Empfehlung meint, die Datei zum Buch sowie die daran anschließenden Verknüpfungen zuerst im XML-Format zu bearbeiten, in der „Extensible Markup Language“, einer Auszeichnungssprache für plattformunabhängige Verwendung von Textdaten. Von der XML-Basis aus können alle Formen von Büchern, ob online, im EPUB-Format, gedruckt oder als Hörbuch, formatiert und gelayoutet werden und müssen später nicht mehr konvertiert werden. Die Umstellung auf

31 Vgl. u. a.: Patalong, Frank: E-Books und Buchpreisbindung. Schuss in den eigenen Fuß, 2010. www.spiegel.de/netzwelt/web/0,1518,674757,00.html (Stand: 02.02.2012). 32 Vgl. u. a.: Preisbindungstreuhänder zur E-Book-Affäre von Berlin Story: „Wir haben nicht abgemahnt“, 2012. www.buchreport.de/nachrichten/verlage/verlage_nachricht/datum/2012/ 02/17/wir-haben-nicht-abgemahnt.htm (Stand: 17.02.2012); Knoke, Felix: Verlag wegen kostenlosem E-Book ermahnt, 2012. www.spiegel.de/netzwelt/web/0,1518,815659,00.html (Stand: 17.02.2012).

Die deutschsprachige Verlagsbranche und die digitalen Bücher

153

dieses Format dürften jedoch noch nicht viele Verlage vorgenommen haben, sie gestaltet sich aufwendig und kostenintensiv. Das Drucken des Buches ist – abgesehen von den Papierausdrucken (und den wenigen Manuskripten, die, wie von Peter Handke, tatsächlich mittels Handschrift hergestellt werden) – der einzige analoge Vorgang während der Buchproduktion. Es war vor allem die Einführung des Desktop Publishing in den 1980er Jahren, die Digitalisierung der Druckvorstufe, die zu einem massiven Umbruch in der Verlags- und Druckbranche führte: Der Beruf des Setzers wurde obsolet, die „Herstellung“ der Bücher, wie das verlagsintern genannt wird, also die Layoutierung und Druckvorbereitung, passiert seitdem innerhalb der Verlage oder wird an Grafiker außer Haus vergeben. Digitaler Druck spielt in der gesamten Buchproduktion eine untergeordnete Rolle, den Großteil der Auflagen lassen die Verlage nach wie vor im Offsetdruck herstellen – höhere Auflagen sind wegen der Fixkostendegression in herkömmlichen Druckverfahren günstiger. Digitaldruck, also die direkte Übertragung des Druckbilds aus dem digitalen Datenbestand auf Papier,33 ist für Verlage aber bei kleinen Auflagen interessant. Das betreffende Buch kann schnell nachgedruckt werden, die Lagerkosten werden minimiert. Mit dem Aufkommen des Digitaldrucks wurde Print on Demand als ,the next big thing‘ gehandhabt, mittlerweile zeigt sich, dass Verlage nicht oft ,on demand‘ drucken und diese Druckmethode eher für den Self Publishing-Bereich (s. u.) wichtig ist. Für individualisierten Bedarfsdruck, wo ein direkter Kontakt zwischen Verlag und Endverbraucher hergestellt wird, ist Print on Demand jedoch eine gute Lösung. Ernst Fischer und Anke Vogel weisen in ihrem Beitrag für dieses Buch auf das bemerkenswerte Projekt des Verlags de Gruyter hin, über 50.000 Titel aus seiner 260-jährigen Verlagsgeschichte auf Anfrage hin zu retrodigitalisieren und als E-Book oder als Print-on-demand-Buch zur Verfügung zu stellen. Die Verlage leisten die Herstellung von digitalen Produkten meist nicht selber, sondern lagern diese Arbeitsschritte aus. Hier hat sich ein eigener Markt an Dienstleistern entwickelt, Marktführer ist die auch im deutschsprachigen Raum aktive französische Jouve-Gruppe. Die Zusatzkosten für die Herstellung von E-Books waren anfänglich schwierig zu kalkulieren, da sich die Wertschöpfung durch den geringen Verkaufspreis und die geringen Umsätze schwer „darstellen“ ließ. Mit zunehmenden Erfahrungen ist es mittlerweile für die Verlage

33 Ernst-Peter Biesalski weist darauf hin, dass keine einheitliche Definition des Begriffs Digitaldruck besteht, es gebe vier Technologien – Computer to Film, Computer to Plate, Computer to Press, Computer to Print –, von denen einzig Letztere als „wirklicher“ Digitaldruck bezeichnet werden könne. Biesalski, Ernst-Peter: „Print on Demand – Verlegen ohne Risiko?“ In: Delp: Das Buch in der Informationsgesellschaft, S. 237–261, hier: S. 239.

154

Wolfgang Straub

leichter, kostendeckend oder gewinnbringend digital zu publizieren. An die Herstellung von digitalen Büchern schließen sich für den Verlag in erster Linie drei Fragen an: Wie soll das Buch bepreist, welche Vertriebswege sollen gewählt und welches Digital Rights Management soll angewandt werden? Bei der Preisgestaltung hat sich von Anfang an ein niedrigerer Preis als bei Printprodukten eingebürgert, der Branchenriese Amazon setzte in den USA einen Einheitspreis von 9,99 Dollar durch, an dem sich alle Mitbewerber orientieren.34 Auch in Deutschland und Österreich orientieren sich viele Verlage an der 10Euro-Marke. Für den Verlag ist der Vertrieb seiner digitalen Produkte über die eigene Homepage natürlich am gewinnbringendsten, aber er erreicht damit nur eine geringe Kundenzahl. Wie bei den gedruckten Büchern, wo Auslieferungen für die Verlage den Transport zwischen der Druckerei und der einzelnen Buchhandlung bewerkstelligen, haben sich digitale Auslieferungen etabliert, die die E-Books an die vom Verlag ausgewählten Online-Buchhandlungen „liefern“ (und die Abrechnungen abwickeln). Oftmals bieten Digitaldienstleister den Verlagen die Konvertierung der Buchdaten in das EPUB-Format – denn um etwas anderes handelt es sich derzeit bei den meisten E-Books nicht – sowie Vertrieb und Auslieferung gemeinsam an. In die Vertriebsentscheidung inkludiert ist die Frage nach der Haltung gegenüber proprietären Systemen wie Amazons Kindle-Store oder dem App-Store von Apple, denn die Großkonzerne haben kein Interesse an offenen Formaten. Für Verlage ist es aber wichtig, dass ihre Produkte von möglichst allen Systemen lesbar sind. Daher ergeht an das IDPF, das International Digital Publishing Forum (das auch für das EPUB-Format verantwortlich zeichnet)35, immer wieder die Forderung nach der Durchsetzung einer internationalen Standardisierung. Schließlich muss sich der Verlag entscheiden, wie er mit dem Problem des illegalen Downloads seiner Digitalisate umgeht, Schätzungen sprechen davon, dass 60% der genutzten elektronischen Bücher illegal heruntergeladen werden.36 Die meisten Verlage verwenden Schutzmaßnahmen und entscheiden sich für eine „weiche“ statt einer „harten“ Lösung – Nicole 34 Der US-Buchhändler Barnes & Noble hob im Februar 2010 die Preise für E-Books kräftig an (mitunter über den Preis für Printausgaben hinaus): „Schnell mobilisierte sich eine Widerstands- und Protestwelle, die erkennen ließ, dass sich der 9,99-Dollar-Einheitspreis von Amazon allem Anschein nach als Grenzpreis bei den Kunden manifestiert hat.“ Eckstein, Aline, Martin Hubert: Dem E-Book erfolgreich begegnen, 2010. www.ecc-handel.de/lesereihe_dem_ebook_erfolgreich_begegnen.php#99163101 (Stand: 22.02. 2012). 35 Zur Definition von ,EPUB‘ vgl. idpf.org/epub (Stand: 22.02. 2012). 36 Diese Zahl nannte Gottfried Honnefelder, Vorsitzender des Börsenvereins des Deutschen Buchhandels, im Rahmen der Frankfurter Buchmesse 2011. Stackl, Erhard:Dichter in Zeiten der Habsucht, 2011. derstandard.at/1317020059985/Dichter-in-Zeiten-der-Habsucht (Stand: 22.02.2012).

Die deutschsprachige Verlagsbranche und die digitalen Bücher

155

Zorn führt das am Abschnitt „Technische Schutzmaßnahmen – ,Digital Rights Management‘“ ihres Beitrag für dieses Buch näher aus. Mag der Marktanteil von E-Books im deutschsprachigen Raum noch gering sein, zwei Entwicklungen sind zu beobachten, die die Verlagsbranche nachhaltig beeinflussen könnten: Zum einen verstärkt sich die Tendenz zur Umgehung der Verlage durch die vermehrten Möglichkeiten des Self Publishing (s. u.) sowie das Eindringen der Big Player Amazon und Google in das verlegerische Kerngeschäft, zum anderen werden ,digitale Buchverlage‘ immer mehr Realität, entweder durch die verlegerische Tätigkeit digitaler Dienstleister oder durch das Entstehen von Unternehmen, die sich explizit als solche verstehen (wie z. B. der kleine österreichische Verlag mcpublish). Ernst Fischer und Anke Vogel führen in ihrem Beitrag für dieses Buch aus, wie sich der Internethändler Amazon Schritt für Schritt alle Abschnitte der Verwertungskette des Buchgeschäfts aneignet und seit 2011 auch Bücher verlegt. Dass Amazon dies massiv im digitalen Bereich tun wird, machte die Eigenmeldung im Mai 2011 klar, in der verkündet wurde, nun mehr E-Books als gedruckte Bücher zu verkaufen.37 (Interessanterweise wurde diese strategische Meldung in Deutschland für bare Münze genommen, etwa vom Wirtschaftsmagazin Brand eins: „die Fakten sprechen für sich: In den USA verkauft Amazon bereits mehr elektronische als gedruckte Bücher“38.) Amazon Publishing, derzeit auf den englischsprachigen Markt beschränkt, umfasst sechs Sparten, die auf Bewährtes am Bestsellermarkt setzen, von Liebesromanen über Thriller zu Science-Fiction. Amerikanische Verlage klagen darüber, dass ihnen Amazon die lukrativsten Autoren abwerbe und dadurch ihre Kalkulation zusammenbreche. Amazon sieht das vordergründig anders und erklärt die Verlage (wie zuvor die Buchhandlung) als obsolet: Russell Grandinetti, ein Manager bei Amazon Publishing, meinte 2011 gegenüber den New York Times: „The only really necessary people in the publishing process now are the writer and reader“.39 Dass sich Amazon mit klassischen Verlagsaufgaben wie Programmauswahl, Qualitätssicherung oder Pressearbeit in den „direkten Kontakt“ von Autor und Leser einschaltet, unterschlägt diese Beschlagwortung. Dass Amazon mit seiner Finanzkraft auch für deutsche Verlagshäuser und ihre Bestsellerautoren zu einer Konkurrenz werden könnte, ist aber evident.

37 Vgl. Amazon.com Now Selling More Kindle Books Than Print Books, 2011. phx.corporate-ir. net/phoenix.zhtml?c=176060&p=irol-newsArticle&ID=1565581&highlight (Stand: 19.02.2012). 38 Wann kommt der E-Book-Durchbruch?, 2011. www.brandeins.de/magazin/rechnen/gutefrage-wann-kommt-der-e-book-durchbruch.html (Stand: 01.02.2012). 39 David Streitfeld: Amazon Signs Up Authors, Writing Publishers Out of Deal, 2011. www. nytimes.com/2011/10/17/technology/amazon-rewrites-the-rules-of-book-publishing.html? pagewanted=all (Stand: 13.02.2012).

156

Wolfgang Straub

4 Digitale Verlagsprodukte „Elektronisches Publizieren“, wie man das noch vor einiger Zeit nannte, kann mittlerweile auf eine längere Geschichte zurückblicken. Produkte mit dem Namen ,E-Books‘ gibt es seit den 1950er Jahren, 1971 startete das vom amerikanischen Unternehmer Michael Hart gegründete Projekt Gutenberg, seit Mitte der 80er Jahre gibt es Online-Datenspeicher.40 Verlage beschäftigten sich seit Beginn der 90er Jahren mit digitalen Produkten und brachten Publikationen auf Disketten oder CD-ROM auf den Markt: „Elektronisches Publizieren“ meinte 1996 „die Verbreitung (und damit ,Publikation‘) von traditionell den Medien Buch oder Zeitschrift vorbehaltenen Inhalten auf Diskette oder CD-ROM“.41 In der Wissenschaftswelt waren E-Books früher verbreitet als im Handel. Ein Zur-VerfügungStellen von Inhalten in digitaler Form (etwa im PDF-Format) wurde im Laufe der 90er Jahre Usus, 1998 startete in den USA mit NetLibrary der erste kommerzielle E-Book-Dienst (für den Wissenschaftsbetrieb). Von Anfang an war für die Verbreitung von E-Books das Vorhandensein von benutzerfreundlichen Lesegeräten zentral. 1991 kam ein erster Vorläufer heutiger E-Reader auf den Markt, der Sony Data Discman, dem aber außerhalb Japans wenig Erfolg beschieden war.42 1998 wurde zu einem wichtigen Jahr in der Entwicklung der E-Reader: Auf der Frankfurter Buchmesse präsentierte das Konsortium NuvoMedia (unter Beteiligung von Bertelsmann) das „Rocket E-Book“, das vorerst nur in den USA erhältlich war; Microsoft brachte gemeinsam mit Warner Books das „SoftBook“ auf den Markt, ein 1,3 Kilogramm schweres Lesegerät mit Ledereinband im Din-A4-Format; das „SoftBook“ war wie das ebenfalls 1998 lancierte „Everybook“, das erstmals über ein Farb-Display und ein integriertes Modem verfügte, für ein elitäres Zielpublikum vorgesehen, das „SoftBook“ setzte zudem darauf, dass sich PDF als Standardformat durchsetzen wird. Die Lesegeräte haben sich mittlerweile, nicht zuletzt dank E-Ink, entscheidend verbessert. Aber noch ist nicht absehbar, ob E-Reader nicht eine historische Erscheinung bleiben werden und die Entwicklung nicht gänzlich hin zu multifunktionalen und -medialen Geräten gehen wird, wie sie mit Smartphones und Tablets eingeleitet wurde.

40 Vgl. Bennett, Linda: E-books: the options. A manual for publishers. London 2006. 41 Rey, Enno: „Elektronisches Publizieren“. In: Bollmann, Stefan (Hg.): Kursbuch Neue Medien. Trends in Wirtschaft und Politik, Wissenschaft und Kultur. Mannheim 1996, S. 130–136, hier: S. 130. 42 Zur Geschichte der E-Reader vgl. u. a. Hauffe, Heinz: „Die elektronische Revolution und ihre Auswirkungen auf Verlage und Bibliotheken“. In: Ebd., S. 137–147.

Die deutschsprachige Verlagsbranche und die digitalen Bücher

157

Bislang hat sich die Digitalisierung inhaltlich wenig auf die deutschsprachigen E-Books ausgewirkt, das Gros stellt die Konvertierung des Bekannten in Digitalisate dar. Es gibt jedoch Versuche einer strukturellen Annäherung in sogenannten SMS-, Twitter- oder Handy-Romanen; einige Verlage versuchen sich in elektronischen Groschenromanen, sogenannten Mini-E-Books (Amazon mischt auch hier mit seinen „Kindle Singles“ mit, und der auf Sci-Fi- und Fantasy-Literatur fokussierte Blanvalet-Verlag, Teil der Random House-Gruppe, ediert erotische Kurzgeschichten um 99 Cent); der deutsche Fantasy-Bestsellerautor Wofgang Hohlbein entwickelte aus seinem Roman Wyrm die, laut Eigendarstellung, „erste E-Book- und Handynovelle Europas“,43 einzelne Episoden, die man sich wie in einem Abonnement für das Handy oder den E-Reader herunterladen kann; seit Mitte der 2000er Jahre wurden (zuerst in Japan und den USA) die sogenannten Blooks zu einer eigenen verlegerischen Kategorie, also analoge Bücher, die sich aus Weblogs zusammensetzen, quasi die Chatrooms literarisch erschließen. Diese Formen des E-Books sind auf die Textform konzentriert und nutzen nicht die Multimedialität, wie sie etwa Tablets anbieten. Seit der Frankfurter Buchmesse 2010, auf der der Rowohlt Verlag sein „Digitalbuch Plus“ und BasteiLübbe eine „angereicherte“ Version von Ken Folletts Sturz der Titanen vorstellte, ist auch im deutschsprachigen Raum das „enhanced“ oder „enriched“ E-Book in aller Munde (Ernst Fischer und Anke Vogel explizieren diese E-Books im Abschnitt 2.3 ihres Beitrags näher). Da es aber in der Produktion aufwendig ist und eines Teams, nicht mehr eines einzelnen Autors bedarf, bleibt das „angereicherte“ Digitalbuch Domäne großer Verlagshäuser. Der eingangs erwähnte Autor und Journalist Jürgen Neffe brachte 2010 den Prototyp eines neuen E-Book-Formats heraus, den er „Libroid“ nannte.44 Er entwickelte ein dreigeteiltes Layout, in dem in der Mitte der Text läuft (gescrollt wird), den links und rechts eine Bildspalte sowie eine Spalte mit Zusatzinformationen (Internetressourcen, Klängen etc.) einrahmen; dem Leser wird die Möglichkeit geboten, Kommentare (an andere Leser) zum Gelesenen zu schreiben. Mit dem ,Content Management‘ der Dreispaltentechnik und den ,Social Reading‘-Tools nähert sich der Libroid ein wenig jenen Forderungen an, die Münchner Managementberater 2010 in einer Studie, die die Voraussetzungen für ein Profitieren der Verlage von der Digitalisierung untersuchte, aufstellten. Dort ist davon die Rede, dass Verlage vermehrt auf „Content Management Systeme“, „Customer Relationship Management“ (Gestaltung der Kundenbeziehungsprozesse) und „Recommender Systeme“ (Empfeh-

43 Vgl. www.hohlbein.de/wyrm_the_secret_evolution.html (Stand: 01.03.2012). 44 Vgl. libroid.com (Stand: 03.03.2012).

158

Wolfgang Straub

lungsdienste) setzen müssten, um nicht der Gefahr ausgesetzt zu sein, bloße Content-Lieferanten zu werden.45 An diese Forderung nach vermehrtem Investment in IT-Technik schließt sich jene nach innovativerer Gestaltung der E-Books an: „Wann fangen die Gestalter der neuen E-Books an, mit den digitalen Formen zu spielen?“46

5 Self Publishing Werden Verlage im Zeitalter des WWW, in dem jeder jederzeit publizieren kann, zusehens obsolet? Diese Frage taucht immer wieder auf, Enno Rey etwa stellte sie 1996 in seinem Aufsatz über elektronisches Publizieren, als er konstatierte, dass durch das Desktop-Publishing jeder zu seinem eigenen Verleger werden könne.47 Diese Frage ist auch nicht an digitale Bücher gebunden, Bezahl- bzw. Zuschussverlage, die sich die Publikationen von den Autoren, die keinen „richtigen“ Verlag fanden, finanzieren lassen, bilden schon seit vielen Jahren einen Nebenmarkt der Verlagsbranche. Das WWW vereinfacht das eigene Publizieren fraglos. Und auch hier mischen die „Großen“ mit, Amazon und Apple wollen via Kindle Direct Publishing und iBooks an dieser „Vereinfachung“ partizipieren. Und dass sich auch dieser Sparte Geld verdienen lässt, zeigen einzelne Erfolgsgeschichten, deren bekannteste die Altenpflegerin Amanda Hocking aus Minnesota schrieb, die 2010 mehrere Vampirromane veröffentlichte, die über eine Million mal verkauft wurden. Seither gilt sie als Vorbild auch für deutschsprachige „Indie-Autoren“.48 In Deutschland bietet die Verlagsgruppe Holtzbrinck mit der Plattform ePubli eine Möglichkeit zum Selberpublizieren an, der Autor bestimmt den Preis selbst und kann bei einem E-Book eine Tantieme von bis zu 80 Prozent des Nettoverkaufspreises bekommen. Eine Mischform aus Literaturplattform, wie sie Gesine Boesken in ihrem Beitrag beschreibt, E-Book-Vertrieb und Bezahlverlag bietet BookRix – gegen Entgelt wird das E-Book vertrieben oder eine Print-on-

45 Mücke, Sturm & Company: Strategic Insight – E-Books. Wie Verlage von der Digitalisierung profitieren können [Zusammenfassung]. Paper (Juli 2010), S. 5. 46 Hofmann, Niklas: „Nachrichten aus dem Netz“. In: Süddeutsche Zeitung, 30.01.2012, S. 11. 47 Rey: „Elektronisches Publizieren“, S. 130. 48 Vgl. Warner, Ansgar: Self-Publishing im Kindle-Store: Auf der Suche nach der deutschen Amanda Hocking, 2012. www.e-book-news.de/self-publishing-im-kindle-store-auf-der-suchenach-der-deutschen-amanda-hocking (Stand: 15.02.2012).

Die deutschsprachige Verlagsbranche und die digitalen Bücher

159

Demand-Version hergestellt, über das Buch kann in verschiedenen Zirkeln diskutiert werden.49 Aber es sind nicht nur verlagslose Autoren und „Hobbyautoren“, die sich dem Self publishing verschreiben. Auch bekannte Autoren umgehen – aus unterschiedlichen Motiven – Verlage. Im Jahr 2000 sorgte Stephen King für Aufsehen, als er seine Kurzgeschichte Riding the Bullet zum kostenlosen Herunterladen ins Internet stellte. Andere Bestsellerautoren erwarten sich durch die Ausschaltung der Verlage höhere Erträge. J.K. Rowling vertreibt die E-Book-Version der Harry Potter-Serie selbst.50 Der einflussreiche britische Literaturagent Andrew Wylie, der hunderte Autoren, darunter Philipp Roth, Salman Rushdie oder Antonio Tabucchi vertritt, drohte 2010 aus Unzufriedenheit mit den Konditionen bei E-Books mit einem laut Guardian apokalyptischen Bild für Verleger: „Publishers came face to face with their own vision of apocalypse yesterday, as Andrew Wylie announced that he and his authors would be cutting publishing houses out of the future and teaming up with Amazon to sell their own electronic editions.“51 Die Drohung zeigte Wirkung, die Verlage, auch der Branchenriese Random House, ließen sich auf höhere Honorare bei den E-Books ein. Die deutschsprachige Buchbranche dürfte weiter entfernt von dieser Apokalypse sein als die britische. Die Self-publishing-„Szene“ ist hier genauso aktiv, aber es handelt sich um andere Umsatzgrößen als im englischsprachigen Raum. Hier entscheiden sich bekannte Autoren auch aus künstlerischen Gründen zum Eigenverlag: Elfriede Jelinek veröffentlichte ihren Roman Neid vom Frühjahr 2007 weg ein Jahr lang kapitelweise im WWW.52 Dieser „Privatroman“ (Untertitel) war als reiner Online-Text konzipiert, die Umgehung des Verlags und die Verhinderung einer Wertschöpfung aus ihrem künstlerischen „Produkt“ nimmt Jelinek dabei sehr bewusst in Kauf: „Von Anfang an war der Roman, wie die Autorin […] mitteilt, als reines Netzwerk geplant, ein ästhetisches Experiment, aber schon auch ein Ausfallschritt gegen den Literaturbe-

49 BookRix will zwar eine Art demokratisches MySpace für Autoren sein, interessanterweise formuliert der Gründer Gunnar Siewert als lockendes Fernziel doch, bei einem „richtigen Verlag“ unterzukommen: „Erst letzte Woche hat einer unserer Nachwuchsautoren seinen Vertrag bei einem wirklich großen und namhaften Verlag unterschrieben“. Jan Tißler: 5 Fragen an … Gunnar Siewert, Bookrix, 2009. upload-magazin.de/buch-zukunft/gunnar-siewert-bookrix275 (Stand: 02.02.2012). 50 Vgl. Goldman, David: J.K. Rowling to release Harry Pottere-books herself, 2011. money.cnn. com/2011/06/23/technology/pottermore_harry_potter_ebook/index.htm (Stand: 02.02.2012). 51 Lea, Richard: Wylie’s Amazon deal brings the end of the publishing world nigh, 2010. www.guardian.co.uk/books/booksblog/2010/jul/23/authors-amazon-deal-publishing (Stand: 15.03.2012). 52 Vgl. www.elfriedejelinek.com (Stand: 15.03.2012).

160

Wolfgang Straub

trieb“.53 Natürlich ließe sich ins Treffen führen, dass Jelinek zu diesem Zeitpunkt – nach dem Gewinn des Nobelpreises 2004 – nicht mehr auf Einkünfte aus ihren Buchveröffentlichungen angewiesen war, aber man sollte den Schritt zur Eigenpublikation als ästhetische Entscheidung rezipieren. Und auf Einkünfte aus dem Verkauf von E-Books ist J.K. Rowling noch weniger angewiesen – durch den Verbleib bei Bloomsbury hätte sie den Verlag mit seinem breiten literarischen Programm weiterhin unterstützt.

6 Ausblick Die oben angeführten Forderungen nach vermehrter Investition in IT-Technik sowie nach mehr Innovation, nach einer Abkehr von der 1:1-Abbildung des analogen Buches werden in absehbarer Zeit nicht verstummen. Die technologischen Investitionen können von Großkonzernen am leichtesten bewerkstelligt werden – und die Verleger sind sich alle darin einig, dass in der Monopolisierung des digitalen Buchmarkts eine große Gefahr für die Vielfalt der deutschsprachigen Buchbranche liegt. Zugleich sind in einem so dynamischen Bereich wie dem digitalen Publizieren und Kommunizieren Prognosen schwierig – die ungenaue Prognose ist mittlerweile ein Topos der Rede über den digitalen Buchmarkt. Dass Bücher weiterhin eine bedeutende Rolle für die kulturelle Identität und den intellektuellen Diskurs spielen werden, bezweifelt in der Verlagsbranche niemand. Welche Rolle E-Books spielen werden, ist den Beteiligten weniger klar. Vieles hängt dabei von der Entwicklung der Hardware ab. Der Verleger des Unionsverlags, der in Sachen Digitalisierung seit langem umtriebige Lucien Leitess, bezeichnete bereits 2009 E-Reader als „Vorformen“ von Geräten zum Lesen digitaler Bücher.54 Von denjenigen, die sich neben Leitess an Prognosen wagen, verweist Jürgen Neffe darauf, dass sich das Internet voraussichtlich stark verändern wird, dass Apparate, Sprache und Gesten zu verstehen beginnen, „statt getippt wird getoucht und gewischt, die Schrift löst sich in Bilder auf, international verständliche Piktogramme und Symbole ersetzen zusammenhängende Texte, das Lesen droht von einer allgemeinen zur speziellen Fähigkeit zu werden.“

53 Daniela Strigl: Das Buch, das keines sein will, 2007. derstandard.at/2834572 (Stand: 15.03.2012). 54 Interview mit Lucien Leitess für die Sendung „Das E-Book – Jungbrunnen oder tödliche Bedrohung des Buches?“ im Rahmen der Reihe Reflexe, Schweizer Radio DRS, Sendetermin: 08.12.2009.

Die deutschsprachige Verlagsbranche und die digitalen Bücher

161

Neffe prognostiziert auch, dass die „Megaseller“ an Bedeutung weiter zunehmen werden, dass immer weniger Urheber von ihren Rechten werden leben, nur die ‚happy few’ auf einem „Weltmarkt der Bücher“ werden gut verdienen können.55 In diesem Szenario zunehmender Konzentrationen und einer Entwicklung hin zu vermehrten Konvergenzen, hin zu ,crossmedia‘, die die Trennlinien zwischen Büchern, Zeitschriften und audiovisuellen oder digitalen Medien verschwinden lässt, sehen etwa die Branchenvertreter Gottfried Honnefelder und Claudia Paul den Verlag in einer wichtigen Funktion: „Immer noch stehen [in diesem Szenario, W.S.] verlegerisch aufbereitete Inhalte im Zentrum, denn Verlage stehen für Verlässlichkeit der Information und Sorgfalt bei ihrer Zusammenstellung.“56 1999 schrieb Ernst Fischer über „Die Zukunft der Verlage“ und meinte, der Verleger werde im 21. Jahrhundert nach wie vor wichtig, wenn nicht wichtiger sein, weil er in der „anonymen Massenproduktion“ für eine „persönliche Beglaubigung“ stehe und „als Repräsentant des Widerstandes gegen die Beliebigkeit von Information eine Schlüsselrolle“ einnehme. Seine Zukunftsvision hat über die Jahre nichts an Aktualität (und Optimismus) verloren: Der „Verleger der Zukunft“ werde das sein, was „er im Glücksfall immer schon war“: „Der souveräne Analytiker des Buchmarktes; der psychologisch begabte Freund der Autoren; der mutig kalkulierende Unternehmer; der geniale Kommunikationspolitiker im Literaturbetrieb; der unverdrossene Investor.“57

55 Neffe: Gutenberg und die Brandstifter. 56 Honnefelder, Gottfried, Claudia Paul: „Medienwechsel – Verlegen in digitalen Zeiten“. In: ApuZ [Aus Politik und Zeitgeschichte] 42–43/2009, S. 6–8, hier: S. 8. 57 Fischer, Ernst: „Die Zukunft der Verlage. Visionen von der Welt des Buches morgen.“ In: Hierl, Tobias (Hg.): Gutenbergs Zukunft: Buch und Lesen im 21. Jahrhundert. Wien 1999, S. 68–77, hier: S. 77.

Nicole Zorn

Urheberrechtliche Grenzen Jede Weiterentwicklung der Kommunikationsstrukturen erleichterte die Veröffentlichung und Verbreitung von geistigen Inhalten und Werken aller Art. Nach der Erfindung des Buchdrucks brachte die Digitalisierung ohne Zweifel die zweite grundlegende Veränderung für den Literaturmarkt mit sich. Die Vorteile digital verfügbarer Werke für den Nutzer liegen auf der Hand: Sekundenschneller Zugriff, unkomplizierte Vervielfältigung und Verbreitung. Gerade diese Parameter stellen jedoch ein Problem für die durch das Urheberrecht geschützten Rechte des Autors dar. Die Kontrolle über die Verbreitung seines Werkes droht ihm auf diesem Wege ebenso schnell zu entgleiten. Während die Problematik der als Internetpiraterie bezeichneten unerlaubten Verwendung von Ton- und Textdarbietungen zunächst vor allem ein Problem der Musikindustrie zu sein schien, sieht sich heute in zunehmenden Maße auch die Buchbranche davon bedroht. Juristisch problematische Tauschbörsen und illegale Downloads stellen die Rechteinhaber vor bisher ungelöste Probleme. Die größte Gefahr sieht man in den ,Sharehostern‘ – diese Diensteanbieter werden auch als ,Filehoster‘ oder ,One-Click Hoster‘ bezeichnet –, deren Geschäftsmodell es ist, kostenlosen Speicherplatz zur Verfügung zu stellen, auf den die Nutzer ihre Inhalte einstellen und andern zugänglich machen können. Über Plattformen, wie z. B. Rapidshare, werden in erheblichem Maße urheberrechtlich geschützte Inhalte hochgeladen. Laut Börsenverein des deutschen Buchhandels ist nahezu jede wissenschaftliche Publikation, aber auch Hörbücher und E-Books über diese Dienste kostenfrei zu haben.1 Selbst wenn der Nutzer eine Abogebühr auf diesen Plattformen bezahlt, weil die Inhalte dann schneller und bequemer zu haben sind, kommt diese nur dem Plattformanbieter und nicht den Urhebern der heruntergeladenen Werke zugute. Dem Nutzer dieser Angebote ist die Bedeutung für die Urheber häufig nicht bewusst. Während der Durchschnittsverbraucher in der analogen Welt mit dem Urheberrecht nur wenige Berührungspunkte hatte und in der Regel nicht in Konflikt kam, laufen im digitalen Zeitalter inzwischen viele Nutzer Gefahr, eine strafbare Handlung zu begehen. Der Erfolgszug des Internet war seit jeher von frei verfügbaren und kostenlosen Inhalten bestimmt. Auch wenn heute OnlineVersandhändler und Internet-Auktionshäuser boomen, ist die kostenlose Nut-

1 Börsenverein des Deutschen Buchhandels e.V.: „Buchhandel – Kulturdiebstahl im Internet – Die Politik muss handeln“. In: Rechtsverstöße im Internet. Hg. v. Bundesverband der Dienstleistungswirtschaft e.V. (BDWi). Berlin 2010, S. 6 f.

Urheberrechtliche Grenzen

163

zung von frei verfügbaren Inhalten eine Selbstverständlichkeit und die Unterscheidung, wann ein frei verfügbares Angebot legal und wann illegal ist, nicht offensichtlich und teilweise schwer vermittelbar. Allerdings sehen sich auch Bibliotheken, die ihren Nutzern kostenlos digitale Literatur zur Verfügung stellen möchten, urheberrechtlichen Problemen gegenüber, durch die die Möglichkeiten, die die Digitalisierung für den Literaturkonsum bietet, noch nicht vollständig ausgeschöpft werden können. Während klassische öffentliche Bibliotheken der Bevölkerung ein möglichst umfassendes Literatur- und Bildungsangebot kostenlos zur Verfügung stellen wollen, in ihrem Angebot jedoch stets beschränkt durch räumliche Kapazitäten, könnte eine digitale Bibliothek heute theoretisch die gesamte Bevölkerung gleichzeitig mit dem Weltwissen und der Weltliteratur versorgen. Die Digitalisierung stellt jedoch eine Vervielfältigung dar, die nicht jedem erlaubt ist, sondern grundsätzlich der Zustimmung des Rechteinhabers bedarf. Auch Projekten, die Literatur digitalisieren wollen, um sie als Teil des Kulturguts zu erhalten, stehen daher derzeit noch größere ungelöste urheberrechtliche Probleme entgegen. Mit der Digitalisierung der Inhalte ist das Urheberrecht damit insofern in den Fokus gerückt, als es nicht so recht zu den Bedürfnissen der Internetgesellschaft zu passen scheint. Von Befürwortern des Open Access wird es als ein Hindernis für Wissenschaft, Fortschritt und den Nutzen der Allgemeinheit gesehen. Sinn und Zweck der geschützten Rechte sind insbesondere dem Durchschnittsverbraucher nicht bewusst. Das Unverständnis oder gewandelte Verständnis führte zu Diskussionen darüber, ob und wie weit das Urheberrecht sich an eine veränderte technische Realität anpassen muss – oder umgekehrt die technischen Gegebenheiten im Hinblick auf das Urheberrecht gesteuert werden müssen. Wie komplex die Materie ist, zeigt sich daran, dass auf internationaler, europäischer und deutscher Ebene inzwischen seit Jahren mit zahlreichen Initiativen und Gesetzesänderungen daran gearbeitet wird, urheberrechtlich mit den technischen Entwicklungen Schritt zu halten. Das Urheberrecht befindet sich hierbei in einem ständigen Spannungsfeld zwischen dem berechtigten Interesse des Urhebers am Schutz seines geistigen Eigentums und dem der Allgemeinheit an einem „free flow of information“.

1 Zur Entwicklung des Urheberrechts Das Urheberrecht wird häufig als noch recht junges Rechtsgebiet bezeichnet. Der Gedanke, dass die geistige Schöpfung eines Autors respektiert werden sollte, findet sich jedoch schon in der Antike: So wird der Begriff des Plagiats auf den

164

Nicole Zorn

römischen Dichter Martial zurückgeführt, der einen anderen Dichter einen „plagiarius“ (Menschenräuber) nannte, weil dieser seine Gedichte, die Martial als „freigelassene Sklaven“ bezeichnete, als eigene ausgab.2 Im Mittelalter wurde der Leser im Vorwort eines Buches mit einem „Bücherfluch“ bedroht, falls er den Text nicht nur lesen, sondern „kopieren“ sollte.3 Einen Meilenstein für die Geschichte der Literatur bedeutete die Erfindung des Buchdrucks durch Johannes Gutenberg im 15. Jahrhundert, die es ermöglichte, Schriftwerke in größerer Auflage zu produzieren und somit zu verbreiten. Urheberrechte kannte man damals nicht; das Recht, Bücher zu drucken wurde als Privileg verliehen, allerdings nur in selteneren Fällen an die Autoren. Die sogenannten Druckerprivilegien sprachen einzelnen Druckern für einen begrenzten Zeitraum und räumlichen Bereich das ausschließliche Recht zum Druck einer bestimmten Schrift zu. Als erstes Urhebergesetz, das dem Autor ein Kopierrecht (copyright) an seinem Werke zusprach, gilt das „Statute of Anne“ von 1709. Ziel dieser Regelungen war es allerdings, durch die erleichterte Verbreitung mithilfe von Kopien das Lernen zu fördern und damit einem öffentlichen Interesse zu dienen.4 Die Idee eines Urheberpersönlichkeitsrechts, dem die Vorstellung zugrunde liegt, dass der Urheber in einer besonderen Beziehung zu seinem Werk steht, die ihm bestimmte Rechte verleiht, die geschützt werden müssen, entwickelte sich in Frankreich Ende des 18. Jahrhunderts.5 In Deutschland – und die Situation ist von den Grundzügen her mit Österreich und der Schweiz vergleichbar, wodurch hier allein das deutsche Beispiel im Mittelpunkt steht – entstanden die ersten Urheberrechtsgesetze im 19. Jahrhundert. Direkte Vorläufer des heutigen Urhebergesetzes waren zwei Gesetze, die jeweils nur für bestimmte Werkarten galten: Das Gesetz betreffend das Urheberrecht an Werken der Literatur und der Tonkunst vom 19. Juni 1901 (LUG) und das Gesetz betreffend das Urheberrecht an Werken der bildenden Künste und der Photographie vom 9. Januar 1907 (KUG). Im Rahmen der Urheberrechtsreform von 1965 gingen diese in dem heute geltenden Gesetz über Urheberrecht und verwandte Schutzrechte/Urheberrechtsgesetz (UrhG) auf, das den Urheberschutz von allen Werken nun in einem Gesetz zusammenfasst. Das Urheber-

2 Loewenheim, Ulrich: § 8 Rn. 24. In: ders. (Hg.): Handbuch des Urheberrechts. München 2010; zur Geschichte des Urheberrechts siehe u. a.: Ulmer, Eugen: Urheber- und Verlagsrecht. Berlin 1980, S. 50, § 8 Rn. 24; Vogel, Martin: Einleitung Rn. 50. In: Loewenheim, Ulrich, Gerhard Schricker (Hg.): Urheberrecht. München 2010. 3 Nordemann, Wilhelm: Einl. UrhG Rn. 24. In: Fromm, Friedrich, Wilhelm Nordemann (Hg.): Urheberrecht. Stuttgart 2008. 4 Gehring, Robert A.: „Einführung ins Urheberrecht“. In: Valie Djordjevic u. a. (Hg.): Urheberrecht im Alltag. Bonn 2008, S. 241. 5 Ebd., S. 242.

Urheberrechtliche Grenzen

165

rechtsgesetz wurde seitdem, insbesondere im Hinblick auf die technische Entwicklung und zur Angleichung an das internationale und das europäische Recht mehrfach geändert. Vor allem die Jahre seit 2000 waren von den Diskussionen um die Reform des Urheberrechts bestimmt.

2 Der Schutz des Urhebers durch internationale Kodifikationen Der Geltungsbereich einer nationalen Rechtsordnung ist grundsätzlich auf das Gebiet des jeweiligen Staates beschränkt (Territorialitätsprinzip). Das deutsche Urhebergesetz kann danach nur in Deutschland Wirkung entfalten.6 Dass die Beschränkung der räumlichen Wirkung des Urheberrechts angesichts des internationalen Handels und der alle Grenzen überschreitenden Kommunikation nicht befriedigend ist, hat man bereits früh erkannt. Um auch über die eigenen Staatsgrenzen hinaus bestimmte Standards zu sichern, wurden völkerrechtliche Verträge geschlossen. Erster und wichtiger völkerrechtlicher Vertrag ist die am 9. September 1886 unterzeichnete Berner Übereinkunft zum Schutz von Werken der Literatur und Kunst (heute Revidierte Berner Übereinkunft – RBÜ), mit der bereits eine Weiche für den internationalen Schutz des geistigen Eigentums gestellt wurde. Während der Übereinkunft ursprünglich nur zehn Staaten angehörten, hat sich bis heute die überwiegende Zahl aller Staaten angeschlossen.7 Durch diese Konvention sichert jeder Staat den Angehörigen der anderen Verbandsstaaten denselben Schutz zu, den seine Gesetze den eigenen Urhebern gewähren. (Art. 5 RBÜ, Grundsatz der Inländergleichbehandlung).8 Daneben werden bestimmte Mindestrechte gewährt, die immer wieder ergänzt wurden. Durch das 1970 in Kraft getretene Stockholmer Übereinkommen zur Errichtung der Weltorganisation für geistiges Eigentum (WIPO-Satzung) sind der Berner Verband und der Pariser Verband (Pariser Verbandsübereinkunft zum Schutz des gewerblichen Eigentums – PVÜ) in der World Intellectual Property Organisation (WIPO) aufgegangen.9 Der WIPO gehören derzeit 185 Mitgliedstaaten an. Ihr

6 Wandtke, Artur-Axel: Einleitung Rn. 81. In: Wandtke, Artur-Axel, Winfried Bullinger (Hg.): Urheberrecht. München 2009. 7 Heute 165 Länder, vgl.: www.wipo.int/export/sites/www/treaties/en/documents/pdf/berne. pdf (Stand: 14.12.2011). 8 Rehbinder, Manfred: Urheberrecht. 16. Auflage, München 2010, § 71 Rn. 985. 9 Fink, Udo, Cole, Mark D., Keber, Tobias: Europäisches und Internationales Medienrecht. Heidelberg 2008, S. 255 Rn. 400.

166

Nicole Zorn

Zweck ist es, den Schutz des geistigen Eigentums durch Zusammenarbeit, Harmonisierung der nationalen Rechtsvorschriften und den Abschluss internationaler Vereinbarungen weltweit zu fördern (Art. 3 WIPO-Satzung). Der WIPO-Urheberrechtsvertrag (WIPO Copyright Treaty – WCT) vom 20. Dezember 1996 ist ein Sonderabkommen zur Berner Übereinkunft, der der Anpassung der Urheberrechtsgesetze an das digitale Zeitalter dienen soll. Ihm gehören derzeit 89 Vertragsparteien, unter anderem alle europäischen Länder, die Europäische Union und die USA an.10 Seine Bestimmungen wurden in den USA mit dem Digital Millennium Copyright Act (DMCA), in Europa in der InfoSoc-Richtlinie11 umgesetzt. Daneben sind Aspekte des Urheberrechts auch im TRIPS-Abkommen (Abkommen über handelsbezogene Aspekte der Rechte des geistigen Eigentums) vom 15. April 1994 berücksichtigt. In der Allgemeinen Erklärung der Menschenrechte der Vereinten Nationen vom 10. Dezember 1948 ist das Urheberrecht von den Vereinten Nationen auch als Menschenrecht anerkannt. Nach Art. 27 Nr. 2 der Erklärung hat jeder Mensch das Recht auf Schutz der moralischen und materiellen Interessen, die sich aus jeder wissenschaftlichen, literarischen oder künstlerischen Produktion ergeben, deren Urheber er ist. Eine entsprechende Regelung findet sich auch im Internationalen Pakt über wirtschaftliche, soziale und kulturelle Rechte vom 19. Dezember 1966, nach der jeder Staat verpflichtet ist, das Recht eines jeden anzuerkennen, den Schutz der geistigen und materiellen Interessen zu genießen, die ihm als Urheber von Werken der Wissenschaft, Literatur oder Kunst erwachsen (Art. 15 Abs. 1 lit c).

3 Urheberrecht in der Europäischen Union Sowohl die internationalen Abkommen als auch das Europarecht machen inzwischen im Hinblick auf den internationalen Markt auch für das Urheberrecht Vorgaben, die berücksichtigt oder in deutsches Recht transformiert werden müssen, so dass dem deutschen Gesetzgeber nur ein eingeschränkter Spielraum bei der Ausgestaltung verbleibt.

10 www.wipo.int/treaties/en/ShowResults.jsp?lang=en&treaty_id=16 (Stand: 14.12.2011). 11 Richtlinie 2001/29/EG des europäischen Parlaments und des Rates vom 22. Mai 2001 zur Harmonisierung bestimmter Aspekte des Urheberrechts und der verwandten Schutzrechte in der Informationsgesellschaft ABl. L 167/10 vom 22.06.2001 (wird abgekürzt als InfoSocRichtlinie, Informations-Richtlinie oder Urheberrechtsrichtlinie bezeichnet).

Urheberrechtliche Grenzen

167

Im Hinblick auf den gemeinsamen Markt sind die Vorschriften der Mitgliedstaaten der EU durch mehrere Richtlinien in einigen Punkten inzwischen harmonisiert. Den technischen Entwicklungen und den damit verbundenen Belangen des geistigen Eigentums trägt insbesondere die Richtlinie zur Harmonisierung bestimmter Aspekte des Urheberrechts und der verwandten Schutzrechte in der Informationsgesellschaft (InfoSoc-Richtlinie)12 Rechnung. Sie musste bis zum 22. Dezember 2002 in nationales Recht umgesetzt werden. In Deutschland erfolgte die Umsetzung etwas verspätet. Das Gesetz zur Regelung des Urheberrechts in der Informationsgesellschaft vom 10. September 2003 setzte zwingende Vorgaben der Richtlinie um. Da die Umsetzung der Richtlinie in mehreren Schritten erfolgte, wird dieses erste Gesetz auch als „Erster Korb“ der Reform des Urheberrechtsgesetzes bezeichnet. Wichtigste Neuerung war u. a. die Einfügung des § 19 a UrhG, der erstmals das Recht des öffentlichen Zugänglichmachens, insbesondere im Internet (Ins-Netz-Stellen), regelt. Außerdem wurde das Verbot, den Kopierschutz digitaler Datenträger zu umgehen, festgeschrieben (§§ 95a–95 d UrhG). Der „Zweite Korb“ folgte 2007 mit dem Zweiten Gesetz zur Regelung des Urheberrechts in der Informationsgesellschaft. Er enthält u. a. Regelungen, die für Bibliotheken von Bedeutung sind, so das Recht zur Wiedergabe der Bestände an elektronischen Leseplätzen (§ 52 b UrhG) und die Regelung zum Kopienversand (§ 53 a UrhG). Ein drittes Gesetz zur Regelung des Urheberrechts in der Informationsgesellschaft, der „Dritte Korb“, ist 2012 in Vorbereitung und wird noch viel diskutiert. Eine weitere Richtlinie, die „Enforcement-Richtlinie“ von 200413, soll Verfahren und Rechtsbehelfe, die erforderlich sind, um die Durchsetzung der Rechte des geistigen Eigentums sicherzustellen, harmonisieren (Art. 1). Sie wurde 2008 mit dem Gesetz zur Verbesserung der Durchsetzung von Rechten des geistigen Eigentums vom 7. Juli 2008 in deutsches Recht umgesetzt.

12 Richtlinie 2001/29/EG, vgl. Fn. 1. 13 Richtlinie 2004/48/EG des europäischen Parlaments und des Rates vom 29. April 2004 zur Durchsetzung der Rechte des geistigen Eigentums, ABl. EU L 157/45 vom 30.04.2004.

168

Nicole Zorn

4 Der Schutz des Urhebers im deutschen Recht 4.1 Das Urheberrecht und die Verfassung Das Urheberrecht basiert auf zwei grundlegenden Prinzipien: Dem Schutz der persönlichkeitsrechtlichen, ideellen Komponente, der sich aus der persönlichen Beziehung des Urhebers zu seinem Werk ergibt, und dem Schutz der wirtschaftlichen Interessen, das Interesse einen Ertrag aus seiner Arbeit zu erzielen. Diese sind auch in der deutschen Verfassung verankert. Das Urheberrecht ist als Eigentum im Sinne von Art. 14 GG anerkannt, die persönlichkeitsrechtlichen Komponenten sind Ausfluss des in den Art. 2 Abs. 1 in Verbindung mit Art. 1 GG geschützten Persönlichkeitsrechts.14 Die vermögensrechtlichen Bestandteile des Urheberrechts werden durch die Eigentumsgarantie des Art. 14 GG geschützt, da unter Eigentum verfassungsrechtlich nicht nur Sacheigentum, sondern jedes vermögenswerte Gut verstanden wird. Man spricht in Zusammenhang mit dem Urheberrecht vom „geistigen Eigentum“. Das vom Urheber geschaffene Werk und die darin verkörperte geistige Leistung genießen in vermögensrechtlicher Hinsicht als geistiges Eigentum den Schutz der Eigentumsgarantie.15 Der Begriff des geistigen Eigentums ist nicht unumstritten, wird jedoch überwiegend, auch international („intellectual property“), verwendet. Kritisiert wird, dass mit dieser Terminologie bestimmte Forderungen nach gesetzgeberischen Inhaltsbestimmungen verbunden seien, die damit als gegeben vorausgesetzt würden.16 Der Schutz des Eigentums ist jedoch keinesfalls absolut, sein Inhalt und Umfang werden vom Gesetzgeber definiert und durch Gesetze bestimmt. Außerdem ist in Art. 14 Abs. 2 GG die Sozialpflichtigkeit des Eigentums festgeschrieben: „Sein Gebrauch soll zugleich dem Wohle der Allgemeinheit dienen.“ Der Gesetzgeber ist daher von Verfassung wegen verpflichtet, das geistige Eigentum grundsätzlich zu schützen, kann jedoch den Umfang genauer bestimmen und Einschränkungen, sogenannte Schranken, aus Gründen des Gemeinwohls festlegen. Das Bundesverfassungsgericht hat in ständiger Rechtsprechung festgestellt, dass der Urheber aus der Eigentumsgarantie grundsätzlich einen Anspruch darauf hat, dass ihm der wirtschaftliche Nutzen seiner Arbeit zugeordnet wird, soweit nicht Gründen des gemeinen Wohls Vorrang vor den Belangen des

14 Nordemann, Wilhelm: Einl. UrhG Rn. 64. In: Fromm, Nordemann (Hg.): Urheberrecht. 15 Papier, Hans-Jürgen: Kommentar, Art. 14 Rn. 197, 62. Ergänzungslieferung 2011. In: Maunz, Theodor, Günter Dürig: Grundgesetz. Kommentar (Loseblattsammlung). München 1958 ff. 16 Vgl. Rehbinder: Urheberrecht, § 10 Rn. 97, der den Begriff als „ideologischen Kampfbegriff“ bezeichnet.

Urheberrechtliche Grenzen

169

Urhebers zukommt.17 Dies bedeute jedoch nicht, dass ihm jede denkbare Verwertungsmöglichkeit unbeschränkt zugewiesen werden müsse. Die gesetzlichen Bestimmungen des Urheberrechts sollen einen angemessenen Ausgleich zwischen den Interessen des Urhebers und denen der Allgemeinheit schaffen. Für die Urheberrechtsregelungen ergibt sich damit ein grundsätzliches Ausschließlichkeitsrecht, das heißt, der Urheber kann selbst entscheiden, wer sein Werk in welchem Umfang und zu welchen Bedingungen nutzen darf. In bestimmten Fällen, in denen der Gesetzgeber das Gemeinwohl als höherrangig ansieht und den Zugang zu urheberrechtlich geschützten Werken erleichtern möchte, hat er das Ausschließlichkeitsrecht durch Schrankenbestimmungen begrenzt. Im Rahmen dieser gesetzlich festgelegten Schranken sind die Nutzungen dann ohne Einwilligung des Urhebers bzw. Rechteinhabers zulässig. Allerdings bleibt ihm dann in der Regel ein Anspruch auf Vergütung. Nur in Ausnahmefällen, für die besonders gewichtige Gemeinwohlinteressen gegeben sein müssen, entfällt auch dieser Vergütungsanspruch. Mögliche Schrankenbestimmungen hat der europäische Gesetzgeber in der InfoSoc-Richtline vorgegeben. Die Ausgestaltung der Urheberrechte, insbesondere auch nach den Vorgaben der Richtlinie, hat der deutsche Gesetzgeber im Urheberrechtsgesetz vorgenommen.

4.2 Das deutsche Urheberrechtsgesetz Das Recht des Urhebers ist im Urhebergesetz (UrhG)18 geregelt. Der Gesetzgeber hat hierin die Rechtspositionen des Urhebers und die Schranken seiner Rechte festgelegt. Daneben bestimmt das Urheberrechtswahrnehmungsgesetz (UrhWG)19 die Rechtewahrnehmung durch Verwertungsgesellschaften; das Verlagsgesetz (VerlG)20 regelt das Verhältnis zwischen Autor und Verlag. Das UrhG schützt die Urheber von Werken der Literatur, Wissenschaft und Kunst (§ 1). Schutzgegenstand ist das jeweilige Werk, das eine persönliche geistige Schöpfung darstellt. Das Urhebergesetz nennt beispielhaft unter anderem Sprachwerke, Filmwerke

17 BVerfGE 31, 229, 243 – Kirchen und Schulgebrauch; so auch BVerfG, 1 BvR 2760/08 vom 21.12.2010 – Geräteabgabe für Drucker und Plotter. 18 Im vollen Wortlaut: „Gesetz über Urheberrecht und verwandte Schutzrechte – Urheberrechtsgesetz (Urhebergesetz – UrhG) vom 9. September 1965 zuletzt geändert durch Gesetz vom 17. Dezember 2008“, BGBl. I S. 2586. 19 Im vollen Wortlaut: „Gesetz über die Wahrnehmung von Urheberrechten und verwandten Schutzrechten“. 20 Im vollen Wortlaut: Gesetz über das Verlagsrecht vom 19. Juni 1901.

170

Nicole Zorn

und Werke der Musik. Unter die geschützten Sprachwerke fallen insbesondere auch alle literarischen Werke wie Romane, Gedichte und Novellen, wie auch Fachliteratur, wissenschaftliche Aufsätze und Ähnliches. Auch Übersetzungen und andere Bearbeitungen eines Werkes, die persönliche geistige Schöpfung eines Bearbeiters sind, werden daneben wie selbständige Werke geschützt (§ 3 UrhG). Ebenso werden Sammlungen von Werken, die aufgrund der Auswahl oder Anordnung der Elemente eine persönliche geistige Schöpfung sind (sogenannte Sammelwerke) wie selbständige Werke geschützt (§ 4). Die Anforderungen an die Gestaltungshöhe werden im Allgemeinen durch die Rechtsprechung sehr niedrig angesetzt, so dass auch Werke, die einen geringen Grad an Individualität aufweisen, geschützt werden (sog. „Schutz der kleinen Münze“).21 Um die Probleme zu verstehen, die im Hinblick auf die technischen Veränderungen zur Diskussion über eine Reform des Urheberrechts geführt haben, muss man sich zunächst die grundlegenden Rechtspositionen verdeutlichen, die die Rechtsordnung dem Urheber zuspricht. Das Urheberrechtsgesetz unterscheidet zwischen den ideellen Belangen des Urhebers, dem Urheberpersönlichkeitsrecht, und den wirtschaftlichen Interessen, den Verwertungsrechten.22 Der persönlichkeitsrechtliche Kern ist nicht übertragbar und umfasst zum einen das grundlegende Recht zu entscheiden, ob und wie das eigene Werk veröffentlicht wird (§ 12 UrhG), als Urheber anerkannt zu werden (§ 13 UrhG) sowie eine Entstellung oder andere Beeinträchtigung des Werkes zu verbieten (§ 14 UrhG). Zur Verwirklichung seines wirtschaftlichen Interesses steht dem Urheber daneben das ausschließliche Recht zu, sein Werk zu verwerten. Die für literarische Werke relevanten Verwertungsrechte umfassen insbesondere das Recht der Vervielfältigung (§ 16), das Verbreitungsrecht (§ 17), das Vortragsrecht (§ 19) z. B. im Rahmen einer Lesung und das Recht der öffentlichen Zugänglichmachung (§ 19 a), das insbesondere eine Veröffentlichung im Internet umfasst. Bearbeitungen oder andere Umgestaltungen dürfen nur mit Einwilligung des Urhebers veröffentlicht oder verwertet werden. Bei einer Verfilmung eines Buches ist bereits für die Herstellung die Einwilligung des Urhebers erforderlich. Zulässig ohne Zustimmung des Urhebers ist lediglich die Veröffentlichung oder Verwertung eines selbständigen Werkes, das in sog. freier Benutzung des Werkes eines anderen geschaffen wurde. Hierzu muss sich das neue Werk so weit vom Origi-

21 Nordemann, Wilhelm: § 2 Rn. 30, 59. In: Fromm, Nordemann (Hg.): Urheberrecht. 22 Anschaulich bei Nordemann, Wilhelm, Urheberrecht, in: Schiwy, Peter, Walter Schütz u. Dieter Dörr (Hg.): Medienrecht. Köln 2010, S. 645, 647.

Urheberrechtliche Grenzen

171

nal unterscheiden, dass dieses nur als Anregung zum eigenen Schaffen gedient hat. Die Abgrenzung ist häufig schwierig.23 Das Urheberrecht als solches kann aufgrund seiner persönlichkeitsrechtlichen Komponente niemals vollständig auf einen anderen übertragen werden, es kann lediglich vererbt werden (§ 29 UrhG). Der Urheber kann jedoch Nutzungsrechte einräumen. In der Regel verwertet der Autor sein Werk nicht selbst, sondern räumt einem Verlag durch einen Verlagsvertrag die Nutzungsrechte gegen Entgelt ein.24 Der Verleger, dem die Nutzungsrechte übertragen wurden, ist verpflichtet, diese auch auszuwerten (§ 1 Satz 2 VerlG). Er kann auch bestimmte Rechte an andere Verwerter weiterverkaufen, z. B. für eine bestimmte Ausgabenart wie die Taschenbuchausgabe oder eine Sonderedition. Der Verlagsvertrag ist der einzig gesetzlich geregelte Vertragstyp urheberrechtlicher Nutzungsverträge. Neben den Vorschriften des Urheberrechtsgesetzes stellt das Verlagsgesetz hierfür den Regelungsrahmen. Der Urheber kann einzelne oder alle Nutzungsarten übertragen, diese müssen explizit im Vertrag genannt werden. Sofern die einzelnen eingeräumten Rechte nicht ausdrücklich festgelegt sind, werden nach der sog. Zweckübertragungslehre (die sich in § 31 Abs. 5 UrhG manifestiert) nur diejenigen Rechte übertragen, die der mit dem Vertrag verfolgte Zweck unbedingt erfordert. In dieser Auslegungsregel kommt zum Ausdruck, dass die urheberrechtlichen Befugnisse die Tendenz haben, soweit wie möglich beim Urheber zu verbleiben, damit dieser in angemessener Weise an den Erträgnissen seines Werkes beteiligt wird.25 Für den Verlagsvertrag bedeutet dies, dass der Verlag nur zu einer Auflage von 1000 Exemplaren berechtigt ist, sofern nichts anderes festgelegt wurde (§ 5 VerlG). Auch noch nicht bekannte, in Zukunft möglicherweise neu entstehende Nutzungsmöglichkeiten stehen automatisch dem Urheber zu,26 auch dann, wenn er alle Nutzungsrechte pauschal (sog. „Buy-Out“ Verträge) übertragen hatte.

Schutzdauer Im Gegensatz zum Sacheigentum gewährt der Gesetzgeber das geistige Eigentum nur zeitlich begrenzt. Dem liegt die Überlegung zugrunde, dass ein in die Öffent-

23 Bekanntes Beispiel, bei dem eine freie Benutzung verneint wurde, war die Fortsetzung des Romans Dr. Shiwago, BGH, 29.04.1999 – I ZR 65/96 – GRUR 1999, 984 ff. (Laras Tochter). 24 Nordemann, Wilhelm: vor §§ 31 ff. Rn. 1. In: Fromm, Nordemann (Hg.): Urheberrecht. 25 Ständige Rspr., BGH, GRUR 2002, 248, 251 (Spiegel-CD-Rom). 26 Wiebe, Andreas: § 2 Rn. 1; BGHZ 17, 266, 278 (Grundig-Reporter). In: Spindler, Gerald, Fabian Schuster (Hg.): Recht der elektronischen Medien. München 2011.

172

Nicole Zorn

lichkeit entlassenes geistiges Gut auch ein Teil des allgemeinen Kulturgutes wird. Grundsätzlich sind die Befugnisse des Urheberrechts ihrem Wesen nach daher Rechte auf Zeit und darauf angelegt, nach einiger Zeit frei zugänglich zu werden. Die Einräumung einer Schutzfrist soll den Interessen des Urhebers Rechnung tragen und eine angemessene wirtschaftliche Verwertung der Leistung sicherstellen.27 Die zeitliche Begrenzung entspricht aber eben auch dem Interesse der Allgemeinheit, um des Kulturlebens willen nach einer gewissen Zeit Anspruch auf freie unentgeltliche Benutzung der geistigen Güter zu haben.28 Dies nicht zuletzt auch deshalb, weil man davon ausgeht, dass jeder Werkschöpfer auf der Vorarbeit anderer aufbaue und das Kulturgut somit benutze.29 Außerdem wird die persönliche Verbindung des Urhebers mit der Zeit immer schwächer. Im deutschen, Schweizer und österreichischen Recht erlischt das Urheberrecht 70 Jahre nach dem Tod des Urhebers (§ 64 UrhG).30 Der Festlegung der Schutzdauer auf 70 Jahre liegt daher auch zugrunde, dass bis zu diesem Zeitpunkt noch nähere Angehörige des Urhebers vorhanden sind, denen die Einkünfte aus der Nutzung des Werkes billigerweise nicht entzogen werden sollen.31 Gibt es mehrere Miturheber, richtet sich die Schutzdauer nach dem Tod des Längstlebenden (§ 65 Abs. 1 UrhG). Wurde ein Werk anonym oder unter einem Pseudonym veröffentlicht, erlischt die Schutzdauer 70 Jahre nach der Veröffentlichung oder nach der Schaffung des Werkes, wenn es nicht veröffentlicht wurde (§ 66 Abs. 1 UrhG). Die Schutzdauer ist weltweit noch nicht einheitlich geregelt. Mit 70 Jahren gewährten die deutschsprachigen Länder eine der längsten Fristen im internationalen Vergleich. Nachdem der europäische Gerichtshof 1989 beanstandet hatte, dass durch unterschiedliche Schutzfristen Beschränkungen des innergemeinschaftlichen Wirtschaftsverkehrs und Wettbewerbsverzerrungen entstünden, wurde 1993 mit der sogenannten Schutzdauer-Richtlinie die urheberrechtliche Schutzfrist in den Vertragsstaaten harmonisiert und wie schon in Deutschland auf 70 Jahre nach dem Tod des Urhebers (post mortem auctoris) festgelegt. Die gleiche Frist gilt inzwischen auch in den USA. Nach Ablauf dieser Zeit wird das Werk gemeinfrei, d. h. jedermann kann es nun ohne Zustimmung frei benutzen, vervielfältigen, verbreiten, verwerten, z. B. auch in das Internet einstellen.

27 28 29 30 31

BVerfGE 31, 275, 287. Rehbinder: Urheberrecht, § 8 Rn. 104. Ebd., § 8 Rn. 105. Die Schutzfrist endet mit Ablauf des Jahres, in dem der Todestag war, § 69 UrhG. Lüft, Stefan: § 64 Rn. 1. In: Wandtke, Bullinger (Hg.): Urheberrecht. 2009.

Urheberrechtliche Grenzen

173

Schrankenbestimmungen Grundsätzlich bedarf jede Nutzung des Werkes der Einwilligung des Urhebers. Die Ausschließlichkeitsrechte des Urhebers werden allerdings begrenzt durch sogenannte Schrankenbestimmungen, die die Rechte des Urhebers einschränken (§§ 44 a ff. UrhG). Diese Schranken werden im Interesse der Allgemeinheit gesetzt, um bestimmte Nutzungen auch ohne Zustimmung des Urhebers zu gestatten und damit den Zugang zu den Werken zu erleichtern. In der Regel sind diese vergütungspflichtig, es gibt allerdings auch einzelne Nutzungen, vor allem das Zitatrecht, die ohne Vergütung gestattet werden. Wie sich die Digitalisierung hier ausgewirkt hat, haben die Skandale um wissenschaftlich nicht korrekte Dissertationen anschaulich gezeigt: Die – unlautere – Praktik, fremde Texte teilweise oder ganz zu übernehmen und als eigene auszugeben, ist keine Erfindung des 21. Jahrhunderts. Allerdings macht es die Digitalisierung sehr viel einfacher. Der schnelle, direkte Zugang zu Inhalten im Internet „verführt“ geradezu zum Zugriff auf bereits verfügbare Inhalte, die sozusagen als „Bausteine“ zur Verfügung stehen.32 In Zeiten der Digitalisierung ist es sehr viel leichter geworden, fremde Textpassagen durch ,copy and paste‘ in eigene Texte einzufügen. Die Technik ermöglicht es, binnen Sekunden mit wenigen Klicks ganze Textpassagen zu übernehmen, ohne diese Wort für Wort abschreiben zu müssen. Ebenso ist es jedoch auch mithilfe bestimmter Programme (und über Netzkommunikation) einfacher geworden, nicht gekennzeichnete Zitate und die Übernahme fremder Textpassagen aufzufinden. Man muss sich die Frage stellen, ob diese Erleichterung dazu führt, dass heute tatsächlich mehr fremdes geistiges Eigentum kopiert wird als früher, oder ob es häufiger entdeckt wird. So wäre die als Guttenberg-Plagiat 2011 viel diskutierte Doktorarbeit im analogen Zeitalter vermutlich nicht bekannt geworden.

4.3 Vervielfältigungs- und Verbreitungsrecht Fragen und Probleme, die sich mit der Digitalisierung für die Urheberrechte auch hinsichtlich der Literatur ergeben haben, hängen vor allem mit zwei Nutzungs-

32 So in eher positivem Zusammenhang die schriftliche Stellungnahme von Prof. Dr. KarlNikolaus Peifer im Rahmen der öffentlichen Anhörung zum Thema „Entwicklung des Urheberrechts in der digitalen Gesellschaft“ der Enquete-Kommission Internet und digitale Gesellschaft des Deutschen Bundestages vom 29. November 2010, Online abrufbar unter: www.bundestag.de/internetenquete/dokumentation/Sitzungen/20101129/index.jsp (Stand: 18.01.2012).

174

Nicole Zorn

und Erscheinungsformen zusammen: den Möglichkeiten des digitalen Vervielfältigens von Werken und dem anschließenden digitalen Zur-Verfügung-Stellen und Weiterverbreiten im oder über das Internet. Während die Problematik illegaler Kopien urheberrechtlich geschützter Werke über „Tauschbörsen“33 wie Napster und Co. vor allem in Bezug auf Musikangebote bekannt wurde, hat sie in den letzten Jahren zunächst eher unbemerkt auch den Literaturmarkt erfasst. Die zugrundeliegenden urheberrechtlichen Regelungen sind im Wesentlichen die gleichen.

Vervielfältigung zum eigenen Gebrauch Grundsätzlich ist das Vervielfältigen eines urheberrechtlich geschützten Werkes nur mit Zustimmung des Rechteinhabers erlaubt. Eingeschränkt wird dieses Ausschließlichkeitsrecht jedoch durch die „Privatkopieschranke“. Die Herstellung einzelner Vervielfältigungen zum privaten Gebrauch wird im Rahmen der Schrankenregelung des § 53 UrhG auch ohne Zustimmung des Rechteinhabers gestattet (gesetzliche „Lizenz“). Danach ist es zulässig, einzelne Vervielfältigungen eines Werkes zum privaten Gebrauch anzufertigen. Das elektronische Speichern eines Werkes bzw. der betreffenden Datei auf einer Festplatte eines Computers stellt immer eine Vervielfältigungshandlung gem. § 16 UrhG dar. Mit der ergänzenden Formulierung „auf beliebigen Trägern“ im Rahmen der Urheberrechtsänderung 2003 stellte der Gesetzgeber klar, dass § 53 auch für die digitale Vervielfältigung gilt.34 Voraussetzung ist allerdings, dass die Kopie zum privaten eigenen Gebrauch bestimmt ist und dass nur einzelne35 Kopien hergestellt werden, zum Beispiel um einen Musikträger gleichzeitig in der Wohnung und im Auto nutzen zu können. Der Begriff des Privatgebrauchs bezieht sich dabei auf den Gebrauch durch die eigene Person oder eng verbundener Personen des Familien- oder

33 Der Begriff der Tauschbörse wird zwar allgemein verwendet, ist allerdings insofern nicht korrekt, als hier nicht getauscht, sondern vervielfältigt wird. Die Datei wechselt nicht den Besitzer, wie dies beim Tausch üblicherweise der Fall ist, sondern der Anbieter behält in der Regel seine Datei und ermöglicht lediglich eine bzw. mehrere (weitere) Kopien. 34 BT-Drucks. 15/38, S. 20; Anpassung an die Formulierung in Artikel 5 Abs. 2 Buchstabe b der InfoSoc-Richtlinie. 35 Die genaue Anzahl ist gesetzlich nicht festgelegt, nach der Rechtsprechung des BGH sind dies jedenfalls nicht mehr als sieben Exemplare (BGH GRUR 1978, 474,476), teilweise werden drei Exemplare als Obergrenze angesehen, vgl. Nordemann, Wilhelm: § 53 Rn. 13 mit weiteren Nachweisen. In: Fromm, Nordemann (Hg.): Urheberrecht.

Urheberrechtliche Grenzen

175

engen Freundeskreises. Die Vervielfältigung darf außerdem weder mittelbar noch unmittelbar Erwerbszwecken dienen. Darüber hinaus darf nur eine nicht „offensichtlich rechtswidrig hergestellte oder öffentlich zugänglich gemachte Vorlage“ verwendet werden. Problematisch war hierbei, dass die Tatsache, ob eine Vorlage rechtswidrig hergestellt wurde oder im Rahmen der Privatkopieregelung rechtmäßig erstellt wurde, für einen Dritten in der Regel nicht erkennbar ist. Außerdem liegt die Urheberrechtsverletzung häufig nicht in der Herstellung der Vorlage, sondern in deren unerlaubter öffentlicher Zugänglichmachung. Daher hat der Gesetzgeber mit dem „Zweiten Korb“ der Urheberrechtsreform das Verbot ausdrücklich auch auf unrechtmäßig online angebotene Vorlagen ausgedehnt, um die Nutzung illegaler Tauschbörsen klarer zu erfassen.36

Vervielfältigung ganzer Bücher und Zeitschriften Bestimmte Werke hat der Gesetzgeber von der Privatkopieregelung ausgenommen. So ist die Vervielfältigung von graphischen Aufzeichnungen von Werken der Musik (Noten) und (im Wesentlichen) ganzer Bücher und Zeitschriften nur mit Zustimmung des Berechtigten zulässig. Dieses grundsätzliche Vervielfältigungsverbot war nach Ansicht des Gesetzgebers notwendig, um unzumutbare Eingriffe in das Vervielfältigungs- und Verbreitungsrecht der Berechtigten zu verhindern. Die Zunahme von Vervielfältigungen ganzer Werke, insbesondere teuerer Fachliteratur zog unweigerlich eine Reduzierung und Verteuerung der Auflagen nach sich, was das Kopieren eher noch fördert und so langfristig unweigerlich zu einer Schädigung der Primärliteratur führen würde.37 Zulässig sind für diese Werke daher lediglich Vervielfältigungen durch Abschreiben; das Einscannen eines Buches ohne Einwilligung des Berechtigten ist grundsätzlich verboten.38 Inwieweit diese Regelung auch digitale Werke erfasst, ist zumindest nicht offensichtlich. Die Kommentierungen der Urheberrechtsgesetze sind hier noch eher zurückhaltend. Das Urheberrechtsgesetz definiert das Buch nicht. Unter einem Buch oder einer Zeitschrift wird im Allgemeinen die jeweils vom Verlag gelieferte abgeschlossene Einheit verstanden. Die Regelung berücksichtigt die

36 BT-Drucks. 16/1828, S. 26; www.bmj.de/DE/Recht/HandelsWirtschaftsrecht/ UrheberVerlagsrecht/Abgeschlossene%20Gesetzgebungsverfahren/_doc/ Neuregelungen_2Korb.html?nn=1619900 (Stand: 18.01.2012). 37 Vgl. Amtl. Begründung, BT-Drucks. 10/837, Urheberrecht, S. 17; Loewenheim, Ulrich: § 53 Rn. 72. In: Loewenheim, Schricker (Hg.): Urheberrecht. 38 Lüft, Stefan: § 53 Rn. 40. In: Wandtke, Bullinger (Hg.): Urheberrecht.

176

Nicole Zorn

bei der Herstellung und dem Vertrieb von Büchern und Zeitschriften entstehenden Druck- und Lagerkosten. Verhindert werden soll, dass das Anschaffen von Büchern oder Zeitschriften durch Kopien ersetzt wird.39 Gegen eine Anwendung auf E-Books wird daher angeführt, dass die Norm auf die besondere Interessenlage der Printprodukte zugeschnitten sei und daher nicht angewandt werden könne, wenn Buch- und Zeitschrifteninhalte über andere Medien, z. B. CD-Rom oder Rechnernetze, zugänglich gemacht werden.40 Zumindest bei ausschließlich auf elektronischem Wege vertriebenen E-Books bliebe eine Privatkopie im Rahmen des § 53 Abs. 1 UrhG danach grundsätzlich zulässig.41 Das Buchpreisbindungsgesetz fasst unter den Begriff Bücher allerdings auch Produkte, die Bücher, Musiknoten oder kartographische Produkte reproduzieren oder substituieren – das ist bei E-Books der Fall42 – und bei Würdigung der Gesamtumstände als überwiegend verlags- oder buchhandelstypisch anzusehen sind (§ 2 Abs. 1 Ziff. 3 BuchPrG). Ob dies bei einem rein elektronischen Werk der Fall ist, kann man diskutieren. Die Frage ist weiterhin, ob es möglicherweise zu einer unterschiedlichen rechtlichen Beurteilung führen würde, je nachdem, ob ein „Buch“ ausschließlich auf elektronischem Wege verbreitet wird oder parallel dazu als gedrucktes Verlagsprodukt erscheint. Ein Einfluss auf den Absatz der Printprodukte und dadurch verursachte Umsatzeinbußen durch verfügbare (möglicherweise sogar kostenlose) digitale Versionen ist sicher nicht von der Hand zu weisen. Wenn das Kopierverbot zum Schutz der Verlagsbranche und eines breiten Printangebots schon für analoge Kopien gilt, müsste dies erst recht für digitale Kopien gelten, da die Möglichkeit der Beeinträchtigung des Absatzes der Printprodukte hier sicher noch größer ist. Unabhängig davon, dass die Vervielfältigung von „Büchern“ grundsätzlich der Einwilligung des Berechtigten bedarf, beschränkt sich die zulässige Nutzung von Privatkopien in jedem Fall auf den persönlichen oder eigenen, jedenfalls internen Gebrauch außerhalb der Öffentlichkeit.43 Eine Verbreitung der Vervielfältigung oder Benutzung zur öffentlichen Wiedergabe ist nach § 53 Abs. 6 UrhG ausdrücklich untersagt.

39 Loewenheim, Ulrich: § 53 Rn. 74. In: Loewenheim, Schricker (Hg.): Urheberrecht. 40 Decker, Ute: § 53 Rn. 46. In: Möhring, Philipp, Käte Nicolini (Hg.): Urheberrechtsgesetz. München 2000. 41 Stieper, Malte: Big Brother is watching you – Zum ferngesteuerten Löschen urheberrechtswidrig vertriebener E-Books, AfP 2010, 217, 219. 42 So Russ, Christian: E-Book-Preisbindung, 2010. www.preisbindungsgesetz.de/content/faq/ 1082-e-book-preisbindung.htm (Stand: 31.01.2012). 43 Nordemann, Wilhelm: § 53 Rn. 40. In: Fromm, Nordemann (Hg.): Urheberrecht.

Urheberrechtliche Grenzen

177

Das Recht der öffentlichen Zugänglichmachung Das Bereitstellen der Datei zum Abruf im Internet, z. B. durch andere Teilnehmer eines Filesharingnetzes bedeutet ein öffentliches Zugänglichmachen im Sinne des § 19 a UrhG. Dieses Recht steht jedoch allein dem Urheber oder den von ihm Berechtigten zu. Für die Problematik der Verbreitung von digitalen Kopien von Büchern über Tauschbörsen und ähnliche Plattformen ist es daher letztlich unerheblich, ob eine digitale Kopie nach § 53 Abs. 4 UrhG verboten oder nach § 53 Abs. 1 UrhG erlaubt wäre. Eine Vervielfältigung, die dazu genutzt wird, um das Werk einer unbestimmten Vielzahl Nutzern zur Verfügung zu stellen, ist nicht mehr von der Schranke der zulässigen Privatkopie gedeckt. Das Zur-Verfügung-Stellen über das Internet ohne Einwilligung des Berechtigten ist in jedem Fall unzulässig, entweder bereits als unzulässige Vervielfältigung oder, falls die Vervielfältigung im Rahmen der Privatkopieschranke gedeckt ist, als unzulässige öffentliche Zugänglichmachung. Damit sind alle Angebote von digitalen Kopien ganzer Bücher, die nicht mit Zustimmung des Berechtigten eingestellt wurden, grundsätzlich illegal, sofern es sich nicht um Bücher handelt, deren Urheberschutz abgelaufen und die damit gemeinfrei geworden sind.

Wirtschaftlicher Schaden Auch zur Zeit der analogen Kopiermöglichkeiten kam es hierdurch zu Umsatzeinbußen bei den Rechteinhabern. Nichtsdestotrotz setzte der finanzielle und zeitliche Aufwand gewisse Grenzen. Im Bereich der teureren Fachliteratur spielten legale oder illegale Vervielfältigungen sicher eine Rolle. Im Bereich der Unterhaltungsliteratur dürfte der Schaden durch Kopien jedoch eher gering gewesen sein. Im digitalen Zeitalter hat die wirtschaftliche Bedeutung der Kopiermöglichkeiten deutlich zugenommen. Die Digitaltechnik ermöglicht es, innerhalb kürzester Zeit Kopien zu erstellen, die sich vom Original nicht unterscheiden. Zwar ist eine digitale Version nicht mit einem gedruckten Buch vergleichbar, und es wird weiterhin Buchliebhaber geben, die eine gedruckte Version vorziehen. Viele werden jedoch die jederzeitige Verfügbarkeit großer Mengen von Literatur und die weiteren Funktionalitäten der elektronischen Lesegeräte durchaus zu schätzen wissen. Ein E-Book oder ein Hörbuch lassen sich ebenso wie eine Musikdatei ohne Qualitätsverlust vervielfältigen und innerhalb von Sekunden an unzählige Leser, potentielle Käufer, weiterverbreiten. Mit einer Vorlage können theoretisch alle daran Interessierten gleichzeitig versorgt werden.

178

Nicole Zorn

Wie bereits Jahre zuvor für den Musikmarkt bereiten die unzähligen Tauschbörsen und Filehoster im Internet auch dem Literaturmarkt zunehmend Probleme.44 Der Börsenverein des Deutschen Buchhandels spricht davon, dass 60 Prozent aller derzeit genutzten elektronischen Bücher illegal heruntergeladen seien.45 Die Tatsache, dass derzeit viele legal zu erwerbenden E-Books nicht oder nur unwesentlich günstiger sind als die Printausgabe, trägt möglicherweise auch nicht dazu bei, diesen Umstand zu ändern. Ob allerdings durch illegale Downloads ein wirtschaftlicher Schaden entsteht und wie hoch der tatsächlich zu beziffern ist, lässt sich nicht zuverlässig feststellen, da die Anzahl der illegal erworbenen Werke nicht deckungsgleich mit den dadurch nicht legal erworbenen Werken ist. Nicht jeder, der sich ein Buch (oder eine CD oder ein Musikstück) kostenlos heruntergeladen hat, hätte dies ohne diese Möglichkeit auch zum regulären Preis erworben. Fraglich ist, inwieweit es für den Nutzer ersichtlich ist, ob es sich bei im Internet angebotener Literatur um illegale Angebote handelt. Das analoge Aufnehmen von Musiktiteln aus dem Radio war früher eine Selbstverständlichkeit, das Kopieren von Schriften – zumindest in Teilen – in Copy-Shops legal. Der Internetnutzer ist es gewohnt, dass er im Internet frei verfügbare Inhalte nutzen kann. Ein Unrechtsbewusstsein ist daher nicht immer vorhanden. Hinzu kommt, dass es inzwischen viele legale Angebote digitaler Bücher gibt, zum einen von gemeinfreien Werken, zum anderen von Autoren, die entweder aus Überzeugung ihre Werke kostenlos zur Verfügung stellen oder die durch eine möglichst weite Verbreitung bekannt werden möchten. Als erkennbar durfte man voraussetzen, dass eine digitale Version eines noch nicht erschienenen Harry Potter-Bandes mit Sicherheit nicht legal im Internet zur Verfügung gestellt wurde. Schwieriger wird es jedoch bei digitalen Versionen von seit längerem vergriffenen Büchern oder von Autoren, die seit langem tot sind.

44 Der Anfang 2012 geschlossene Filehoster „Megaupload“, über den Daten aller Art, insbesondere auch illegal kopierte Musik, Filme und digitale Bücher hochgeladen werden konnten, soll Rechteinhabern von urheberrechtliche geschützten Werken dadurch einen Schaden von 500 Millionen Dollar zugefügt haben. US-Justiz schließt Internetbörse ,Megaupload‘, 2012. www.spiegel.de/netzwelt/netzpolitik/0,1518,810254,00.html (Stand: 20.01.2012). 45 So der Börsenvereinsvorstand Gottfried Honnefelder in der Buchmessen-Eröffnungsrede, vgl. Schröder, Christoph: Die digitale Debatte, die keiner versteht, 2011. www.zeit.de/kultur/ literatur/2011-10/digitalisierung-buchmarkt (Stand: 18.01.2012).

Urheberrechtliche Grenzen

179

Technische Schutzmaßnahmen – ,Digital Rights Management‘ Einer urheberrechtswidrigen Nutzung und Verbreitung von urheberechtlich geschützten Werken versucht man daher auch mit dem Einsatz von technischen Maßnahmen entgegenzuwirken. Teilweise werden Dateien mit einem ,Digital Rights Management‘ (DRM) versehen, das das Kopieren und Weitergeben verhindern soll. Nutzer müssen sich registrieren und erhalten einen Identifizierungscode, mit dem sie Zugang zu dem geschützten Inhalt bekommen.46 Geschäftsmodelle von Apple und Amazon setzten auf geschlossene Systeme, bei denen Shop-System, Content und Endgerät aus einer Hand kommen und die auf diese Weise gleichzeitig Kunden binden. Die Möglichkeiten der Nutzung sind dabei teilweise zeitlich oder im Speichern auf eine bestimmte Anzahl von Datenträgern beschränkt. Viele halten eine solche technische Schranke für sinnlos. DRM lasse sich überlisten und könne wie jedes Computersystem gehackt werden. Im Internet findet man diverse Anleitungen, wie der Kopierschutz zu umgehen ist.47 Hiergegen wird zwar eingewandt, dass es ausreiche, wenn ein Großteil der Menschen von unautorisierten Nutzungen abgehalten werde.48 Allerdings befürchtet man auch, dass eine mit einem DRM versehene Datei möglicherweise gerade dazu führen kann, dass Nutzer eher auf eine illegale Version zugreifen, mit der sie nach Belieben verfahren können. Raubkopierte E-Books unterliegen keinem Kopierschutz. Sie können frei von jeden Beschränkungen genutzt und ohne Installations- bzw. Kompatibilitätsprobleme auf jedem Lesegerät gelesen werden. Und sie sind kostenlos.49 Die Möglichkeiten, einen solchen Kopierschutz zu umgehen, und die mangelnde Akzeptanz bei vielen Nutzern haben bereits dazu geführt, dass viele Anbieter im Musikbereich wieder davon abgekommen sind.50 Technische Maßnahmen zu umgehen (zu „knacken“), ist allerdings, trotz der urheberrechtlichen Schranke der Privatkopie, verboten. Das Verbot, einen

46 Erläuterung der verschiedenen technischen Maßnahmen bei Roesler-Graichen, Michael: „Copyright und Rechtemanagement im Netz“. In: APuZ 42–43/2009, S. 18 f. 47 Anwender umgehen Kindle-Einschränkungen, 2009. heise.de/-892283; www.boersenblatt. net/311780 (Stand: 18.01.2012). 48 Grassmuck, Volker: „Wissenskontrolle durch DRM“. In: Hoffmann, Jeanette (Hg.): Wissen und Eigentum. Bonn 2006, S. 164, 181. 49 Piraten lieben DRM, 2009. www.boersenblatt.net/327651 (Stand: 18.01.2012). 50 Ausführlicher hierzu: Hansen, Katja: 6 B Rn. 9. In: Ensthaler, Jürgen, Stefan Weidert (Hg.): Handbuch Urheberrecht und Internet. Frankfurt/Main 2010; Kremp, Matthias: Apple startet Musikverkauf ohne Kopierschutz, 2007. www.spiegel.de/netzwelt/web/0,1518,475214,00.html (Stand: 18.01.2012).

180

Nicole Zorn

Kopierschutz zu umgehen, ist im internationalen Recht bereits im WIPO-Urheberrechtsvertrag von 199651 vereinbart und 2001 mit der Richtlinie zum Urheberrecht in der InfoSoc-Richtlinie auch durch EU-Recht vorgeschrieben. In Deutschland wurde die Regelung mit dem Ersten Korb der Urheberrechtsreform ins deutsche Recht umgesetzt. Auch die zulässige Privatkopie findet somit dort ihre Grenze, wo technische Kopierschutzmaßnahmen eingesetzt werden. Die Rechteinhaber dürfen ihr geistiges Eigentum auf diese Weise selbst schützen. Der Einsatz von DRM sowie das Verbot, einen solchen Kopierschutz zu umgehen, sind allerdings umstritten. Zum einen wird bemängelt, dass das Verbot eben auch gilt, wenn die Vervielfältigung eigentlich nach der urheberrechtlichen Privatkopieschranke des § 53 UrhG erlaubt wäre. Zum anderen kann der Zugang zu einem eigentlich gemeinfreien Werk von einem Anbieter wieder beschränkt werden. Durch den Einsatz von ,Digital-Rights Management‘-Systemen können die Anbieter die Vervielfältigung zum eigenen Gebrauch verhindern und so eine gesetzlich zulässige Nutzung unterbinden. Die Privatkopie ist zwar unter bestimmten Voraussetzungen grundsätzlich zulässig, aber eben auch nur das. Ein durchsetzbares Recht auf die Privatkopie zu Lasten des Rechteinhabers gibt es nicht. Eine andere Strategie verfolgt man mit Markierungsmöglichkeiten wie dem ,Digital Object Identifier‘52 oder „digitalen Wasserzeichen“. In der Datei, z. B. einem E-Book, wird hierbei ein nicht sichtbarer Identifizierungscode eingebettet. Die Möglichkeit, die Datei zu kopieren, wird dadurch nicht eingeschränkt, allerdings lässt sich eine Vervielfältigung oder Weitergabe nachverfolgen und das gekennzeichnete Werk im Internet auffinden. Man spricht daher auch vom psychologischen Kopierschutz.53

Vergütungsanspruch Um die Interessen und Rechte der Urheber und Rechteinhaber, die durch die Privatkopieregelung gesetzlich eingeschränkt werden, auszugleichen, führte der Gesetzgeber eine Vergütungspflicht ein. Für die Werke, die im Rahmen des § 53 UrhG vervielfältigt werden dürfen, steht dem Rechteinhaber ein Anspruch auf Vergütung zu. Dieser Anspruch besteht allerdings nicht gegen denjenigen, der

51 Art. 11 (WCT), ABl. EG L 89/8 vom 11.04.2000. 52 Hansen, Katja: 6 B Rn. 10. In: Ensthaler, Weidert (Hg.): Handbuch Urheberrecht und Internet. 53 Roesler-Graichen: Copyright und Rechtemanagement im Netz, S. 18, 19; libreka! unterstützt ab sofort auch „harten“ Kopierschutz, 2009. www.boersenblatt.net/325607 (Stand: 18.01.2012).

Urheberrechtliche Grenzen

181

die Vervielfältigung vornimmt, sondern gegenüber den Herstellern, Importeuren und Händlern der Vervielfältigungsgeräte und Speichermedien (§§ 54 ff. UrhG). Auf den Verkauf von Geräten und Speichermedien wie Kopiergeräte, Videokassetten, CD-Rohlinge usw. wird eine Pauschalabgabe erhoben (die wiederum über den Preis auf die Nutzer umgelegt wird) und über die Verwertungsgesellschaften ausgeschüttet.54 Bei Geräten, die in bestimmten Bildungseinrichtungen wie Schulen, Hochschulen, Bibliotheken u.ä. für entgeltliche Ablichtungen bereitgestellt werden, hat der Urheber auch gegen die Betreiber des Geräts einen Anspruch auf angemessene Vergütung. Noch nicht abschließend geklärt ist, für welche Geräte eine solche Abgabe erhoben wird, hinsichtlich neuer Geräte kam es zu Rechtsstreitigkeiten.55

Kulturflatrate Um das Problem der massenhaften illegalen Nutzung von im Internet angebotenen Werken zu umgehen und einen legalen Zugriff auf alle im Netz kostenlos angebotenen Inhalte zu ermöglichen, gibt es Befürworter einer sogenannten Content- oder Kulturflatrate, mit der die nicht kommerzielle Nutzung, Vervielfältigung und Weitergabe digitaler urheberrechtlich geschützter Werke gewissermaßen durch eine monatliche Pauschalgebühr, die von jedem Inhaber eines Internetanschlusses erhoben würde, abgegolten werden soll. Problematisch hierbei ist, dass sich schon eine Unterscheidung von kommerzieller und nicht kommerzieller Verbreitung nicht eindeutig einordnen lässt. Auch wenn die Nutzer keine kommerziellen Zwecke verfolgen, finanzieren sich Tauschbörsen über Werbung. Sharehoster verdienen an den für die Nutzer komfortableren Premium-Accounts. Diese Anbieter verdienen damit indirekt an den über ihre Plattformen illegal verbreiteten urheberrechtlich geschützten Werken. Hinzu kommt, dass das urheberrechtliche Ausschließlichkeitsrecht missachtet würde. Dem Urheber wird das Selbstbestimmungsrecht über sein Werk entzogen, privates geistiges Gut wird praktisch in öffentliches Gut verwandelt. Nutzer, die legale kostenpflichtige Angebote abrufen, müssten doppelt bezahlen. Außerdem werden die Inhalte gleichgesetzt, das Schaffen von hochwertiger Kultur wird pauschal ver-

54 Die Verwertungsgesellschaft für Autoren und Verleger ist in Deutschland die VG Wort, in Österreich die Literar-Mechana, in der Schweiz die ProLitteris. 55 Eine Verfassungsbeschwerde der VG Wort gegen eine Entscheidung des Bundesgerichtshofs (BGH) von 2007, wonach für Drucker und Plotter keine gesonderte Urheberrechtsvergütung zu zahlen ist, war insofern erfolgreich, als das BVerfG die Sache an den BGH zurückverwiesen hat. BVerfG, 1 BvR 2760/08 vom 21.12.2010.

182

Nicole Zorn

gütet und lohnt sich damit – zumindest finanziell – nicht mehr. Der Börsenverein des Deutschen Buchhandels lehnt eine solche Flatrate daher als Alternative zur Durchsetzung der Urheberrechte ab.56

5 Die Auseinandersetzung um digitale Bibliotheken und die Massendigitalisierung gedruckter Werke Während unzählige literarische Werke, die vor vielen Jahren erschienen sind, inzwischen nicht mehr im Handel verfügbar, teuer oder selten sind und Bibliotheken aus Platzmangel stets ältere Bestände immer wieder aussortierten, eröffnete die Digitalisierung die theoretische Möglichkeit, die gesamte Weltliteratur der gesamten Weltbevölkerung verfügbar zu machen. Die technischen Möglichkeiten werden jedoch u. a. dadurch beschränkt, dass für jedes Werk, bei dem der Urheberschutz noch nicht abgelaufen ist, grundsätzlich die Einwilligung des Rechteinhabers zur Vervielfältigung und öffentlichen Zugänglichmachung vorliegen muss. Für großen Aufruhr in der Buchbranche sorgte in den letzten Jahren das Projekt des Internetunternehmens Google, in Zusammenarbeit mit mehreren großen amerikanischen Bibliotheken deren komplette Buchbestände einzuscannen, um eine digitale Bibliothek zu schaffen (library programme). Da neben gemeinfreien Werken auch Bücher digitalisiert wurden, die noch urheberrechtlich geschützt waren, wurde von der amerikanischen Authors Guild, der Association of American Publishers und von einzelnen Autoren und Verlagen 2005 eine Sammelklage gegen Google Inc. wegen Verletzung von Urheberrechten eingereicht, was 2008 zum sogenannten Google-Book-Settlement führte. (Genaueres dazu im Beitrag von Ernst Fischer und Anke Vogel in diesem Band.) Bei der Berichterstattung über die Problematik rund um das Google-BookSettlement konnte man den Eindruck gewinnen, man habe deutschsprachige Werke vor dem Zugriff der „Krake“ Google „gerettet“. Die Meinungen hierzu gehen jedoch auseinander. Die Tatsache, dass urheberrechtliche Regelungen derzeit einer Digitalisierung vieler Werke entgegenstehen, wird durchaus kritisch

56 Vgl. Börsenverein des Deutschen Buchhandels, Stellungnahme zu den Fragen zur öffentlichen Anhörung Urheberrecht der Enquete-Kommission Internet und digitale Gesellschaft am 29.11.2010, S. 9.

Urheberrechtliche Grenzen

183

gesehen. Sowohl vergriffene als auch verwaiste Werke stellen wertvolle Inhalte und Bestandteile des kulturellen Erbes dar, „Archivschätze“,57 die derzeit jedoch aus rechtlichen Gründen nicht zugänglich gemacht werden können, obwohl es technisch möglich wäre. Der Aufbau einer digitalen Bibliothek, in der auch nicht mehr oder schwer zugängliche Werke, wie eben insbesondere auch vergriffene oder verwaiste Werke wieder verfügbar sind, ist ohne Zweifel von großem Interesse für den Erhalt des Kulturerbes und für die Informationsfreiheit der Bevölkerung. Die Digitalisierung der Bibliotheksbestände ist jedoch auch mit erheblichem finanziellem Aufwand verbunden, den ein privates Unternehmen wie Google leichter aufbringen kann. Die im Partnerprogramm beteiligten Bibliotheken (u. a. die Bayerische Staatsbibliothek und die Österreichische Nationalbibliothek) erhalten von Google jeweils eine Version der digitalisierten Bücher ihrer Bestände, die sie somit nicht mehr selbst digitalisieren müssen. Auch in Europa gibt es Digitalisierungsvorhaben: Die digitale Bibliothek „Europeana“ ist ein Projekt der Europäischen Union, das die Bestände von Bibliotheken, Archiven, Museen, Mediatheken (z. B. Musik- und Filmarchiven) sowie Kulturdenkmale online zugänglich machen soll. Die „Deutsche Digitale Bibliothek“ soll die Bestände an digitalen Objekten aus ca. 30.000 Kultur-/ Wissenschaftseinrichtungen über ein nationales Portal für jedermann zugänglich machen und in die Europäische Digitale Bibliothek „Europeana“ integrieren.58 Begonnen wird hier mit gemeinfreien Werken. Der Börsenverein des deutschen Buchhandels hat das Projekt „libreka!“ entwickelt, das eine Volltextsuche in den von den Verlagen angebotenen Werken ermöglicht. Das „Projekt Gutenberg-DE“ digitalisiert und veröffentlicht urheberrechtsfreie deutschsprachige Werke. Auch „Gallica“, das Digitalisierungsprojekt der französischen Nationalbibliothek digitalisiert urheberrechtsfreie Bücher. Problematisch und ungeklärt ist nach wie vor der Umgang mit älteren noch urheberrechtlich geschützten Werken, deren Rechteinhaber nicht bekannt oder nicht auffindbar sind (verwaiste Werke). Hier entsteht eine „Lücke“. Schätzungen gehen davon aus, dass es in Europa etwa drei Millionen verwaiste Bücher gibt (ca. 13 Prozent aller urheberrechtlich geschützten Titel).59 Durchaus nach-

57 So Peifer, Karl-Nikolaus: „Vergriffene und verwaiste Werke: Gesetzliche Lösung in Sicht?“ In: GRUR-Prax 2011, S. 1. 58 Deutsche Digitale Bibliothek – Rahmenbedingungen zur Anforderungsanalyse aus politischer, rechtlicher und funktionaler/technischer Sicht, Finale Fassung, 21.05.2010, abrufbar unter www.deutsche-digitale-bibliothek.de/dokumente.htm (Stand 18.01.2012). 59 Vgl. Vuopala, Anna: Assessment of the Orphan works issue and Costs for Rights Clearance. Luxemburg 2010, S. 5. Die British Library geht davon aus, dass sogar 40 Prozent aller urheberrechtlich geschützten Werke verwaist sind, vgl. www.eblida.org/uploads/eblida/1/

184

Nicole Zorn

vollziehbar erscheint zwar die Argumentation, dass es auch im Interesse der Urheber liege, dass ihre Werke nicht in Vergessenheit geraten, sondern erhalten werden. Diese Vermutung kann aber nicht unterstellt werden. Nach derzeitiger Rechtslage ist eine solche Vervielfältigung ohne Einwilligung des Rechteinhabers nicht zulässig. Da die Unsicherheiten im Umgang mit verwaisten Werken ein großes Hindernis für den Aufbau digitaler Bibliotheken sind, sucht man auf europäischer und deutscher Ebene derzeit nach Regelungsmöglichkeiten, die dies ermöglichen und gleichzeitig den Rechten der Urheber gerecht werden.

6 Nutzung digitalisierter Literatur in Bibliotheken Für Bibliotheken eröffnet die Digitalisierung der Literatur die Möglichkeit, einen wesentlich größeren Bestand an Literatur verfügbar zu halten und der Öffentlichkeit zugänglich zu machen. Räumliche Kapazitäten spielen theoretisch keine Rolle mehr. Das Digitalisieren und Zugänglichmachen steht auch hier unter dem Vorbehalt der Einwilligung des Berechtigten. Allerdings gibt es im Interesse von Bildung, Wissenschaft und Forschung gewisse Schrankenregelungen, die eine Nutzung in begrenztem Umfang auch ohne Zustimmung der Urheber erlauben. Diese Nutzungen sind allerdings vergütungspflichtig.

6.1 Öffentliche Zugänglichmachung für Unterricht und Forschung (§ 52 a UrhG) Im Rahmen der „Wissenschaftsschranke“ ist es auch ohne Zustimmung des Rechteinhabers erlaubt, für den Gebrauch im Unterricht und für die wissenschaftliche Forschung einem bestimmten abgegrenzten Personenkreis kleine Teile von Werken, Werke von geringem Umfang und einzelne Beiträge aus Zeitschriften oder Zeitungen öffentlich zugänglich zu machen (§ 52 a UrhG). Für Schulbücher und neuere Filmwerke bleibt es allerdings beim Zustimmungserfordernis. Die Regelung soll den Interessen von Unterricht und Forschung dienen. Im Rahmen des § 53 Abs. 2 Nr. 1, Abs. 3 UrhG ist entsprechend der Privatkopie auch eine Möglichkeit der Vervielfältigung der o. g. Werkteile für den eigenen wissenschaftlichen Gebrauch und für den Unterricht eingeräumt. Die Regelung

1193909947.pdf (Stand: 03.02.2012); Hoffmann, Jeanette: „Zukunft der digitalen Bibliothek“. In: APuZ 42–43, 2009, S. 25–26.

Urheberrechtliche Grenzen

185

des § 53 a UrhG soll es ermöglichen, die entsprechenden Werkteile nicht nur zu kopieren, sondern den Schülern und Studenten auch in Onlinemedien über das Intranet zugänglich zu machen.60 Die Vorschrift war und ist umstritten. Ursprünglich erlaubte der Gesetzesentwurf sogar, ganze Werke zu Zwecken des Unterrichts einzuscannen und online zu stellen. Hiergegen wehrten sich jedoch erfolgreich die Schulbuch- und Wissenschaftsverlage, die sich dadurch massiv in ihren Urheberrechten verletzt sahen. Die Vorschrift wurde 2003 ins Gesetz aufgenommen und ist befristet bis zum 31. Dezember 2012. Im Rahmen der Befristung sollen Erfahrungen über die wirtschaftlichen Auswirkungen gesammelt werden.61 Wie problematisch die Vervielfältigung und Verbreitung von Unterrichtmaterialien für die Schulbuchverlage ist, zeigt der geplante Einsatz von Plagiatssoftware in Schulen. Mit einer besonderen Software sollen Schulrechner nach illegalen Digitalkopien durchsucht werden.62 Der Umfang der zulässigen Kopien und die Vergütungsregelungen wurden zwischen den Ländern und den Verwertungsgesellschaften im Gesamtvertrag zur Einräumung und Vergütung von Ansprüchen nach § 53 UrhG63 vereinbart.

6.2 Wiedergabe von Werken an elektronischen Leseplätzen in öffentlichen Bibliotheken, Museen, Archiven (§ 52 b UrhG) Ebenfalls zu Erleichterung des Bildungsauftrags und zur Förderung der Medienkompetenz ist mit dem „Zweiten Korb“ eine weitere Schrankenregelung in Kraft getreten, die die Wiedergabe von Werken an elektronischen Leseplätzen in öffentlichen Bibliotheken, Museen und Archiven, die keinen wirtschaftlichen oder Erwerbszweck verfolgen, regelt. Diese Einrichtungen dürfen nun digitale Versionen ihrer Bestände an Terminals im Lesesaal zugänglich machen, ohne hierfür die Erlaubnis des Rechteinhabers einzuholen. Hierfür zahlen sie eine angemessene Vergütung an die Verwertungsgesellschaften. Voraussetzung ist, dass keine vertraglichen Regelungen entgegenstehen. Die Zahl der elektro-

60 Dunstmann, Andreas. § 52 a Rn.1 ff. In: Fromm, Nordemann (Hg.): Urheberrecht. 61 Die Vorschrift war gem. § 137 k UrhG zunächst bis zum 31.12.2006 befristet, die Frist wurde aber zweimal verlängert; Loewenheim, Ulrich: § 31 Rn. 82. In: Ders. (Hg.): Handbuch des Urheberrechts. 62 Böhm, Markus: Lehrer als Raubkopierer – Verlage wollen Schulserver durchsuchen lassen, 2011. www.spiegel.de/schulspiegel/wissen/0,1518,795100,00.html (Stand: 31.01.2012). 63 Gesamtvertrag Schule vom 30.10.2008, www.bibliotheksverband.de/dbv/vereinbarungenund-vertraege/urheberrecht-gesamtvertraege.html (Stand 31.01.2012).

186

Nicole Zorn

nischen Leseplätze darf allerdings die der im Bestand befindlichen Exemplare nicht übersteigen. Die Regelung dient ersichtlich nicht dazu, über digitale Vervielfältigungen den Einrichtungen Kosten zu sparen oder mehr Nutzer gleichzeitig versorgen zu können. Nur in Zeiten der Belastungsspitzen dürfen ausnahmsweise und zeitlich sowie quantitativ begrenzt mehr Exemplare gleichzeitig an den Leseplätzen zugänglich gemacht werden als der Bestand der jeweiligen Einrichtung umfasst. So wird in diesen Ausnahmefällen die gleichzeitige Nutzung eines Exemplars aus dem Bestand der Einrichtung an bis zu vier elektronischen Leseplätzen als zulässig angesehen.64 An der Regelung wurde kritisiert, dass die Auswahl der privilegierten Einrichtungen hinter den Möglichkeiten, die die InfoSoc-Richtlinie (die nur allgemein von „Bildungseinrichtungen“ spricht) einräumt, zurückbleibt.65 Auch die Regelung der zulässigen Anschlussnutzung, d. h. ob an den digitalen Leseplätzen Ausdrucke gefertigt werden dürfen oder die Vervielfältigung auf einen USBStick ermöglicht werden darf, wird kontrovers diskutiert.66 Die Schranke wird im Rahmen des „Dritten Korbes“ erörtert.

6.3 Kopienversand auf Bestellung (§ 53 a UrhG) Damit die Nutzung von öffentlichen Bibliotheken nicht nur jenen offen steht, die vor Ort Einsicht nehmen können, wird – auch im Interesse der Forschung und Wissenschaft – in beschränktem Maße der Versand von Kopien durch öffentliche Bibliotheken erlaubt. Mit dem Zweiten Korb wurde die Regelung des § 53 a UrhG eingefügt, nach der öffentliche Bibliotheken auf Einzelbestellung hin Vervielfältigungen einzelner Beiträge aus Zeitungen und Zeitschriften oder kleinere Teile von Werken per Fax und Post verschicken dürfen, sofern die Nutzung durch den Besteller im Rahmen der Privatkopieschranke zulässig wäre.67 Die Versendung in sonstiger elektronischer Form (z. B. per E-Mail) darf nur unter ganz bestimmten Voraussetzungen erfolgen. Sie darf nur als grafische Datei (z. B. pdf-Datei) versendet werden und ausschließlich für bestimmte nicht

64 BT-Drucks. 16/75939, S. 44. 65 Werner, Matthias: 4 D Rn. 88. In: Ensthaler, Weidert (Hg.): Handbuch Urheberrecht und Internet. 66 Differenziert zur Frage der zulässigen Ausdrucke Jani, Ole, Eingescannte Literatur an elektronischen Leseplätzen – Was dürfen Bibliotheken?, GRUR-Prax 2010, 27 ff.; Steinbeck, Anja, Kopieren an elektronischen Leseplätzen in Bibliotheken, NJW 2012, 2852, 2854 ff. 67 So bereits BGH GRUR 1999, 707 ff. – Kopienversanddienst.

Urheberrechtliche Grenzen

187

gewerbliche Zwecke (zur Veranschaulichung des Unterrichts und für die wissenschaftliche Forschung). Außerdem ist der elektronische Versand nur zulässig, wenn die Beiträge der Öffentlichkeit nicht bereits auf anderem Wege zugänglich sind. Damit sollen die im Internet verfügbaren Datenbankangebote der großen wissenschaftlichen Verlage Vorrang haben, sofern diese Zugang zu angemessenen Bedingungen ermöglichen.68 Für die Vervielfältigung und die Übermittlung der Kopien ist eine angemessene Vergütung an die Rechteinhaber zu zahlen. Der Vergütungsanspruch kann nur durch eine Verwertungsgesellschaft geltend gemacht werden.

7 Aktuelle Entwicklungen und Gesetzesinitiativen Die Diskussionen um die Wahrung der Urheberrechte im digitalen Zeitalter gründen maßgeblich auf der Tatsache, dass den durch den technischen Fortschritt erreichten Erleichterungen in der Kommunikation und Verbreitung von geschützten Inhalten und Werken die Erschwernis gesetzlicher Grenzen entgegensteht. Dies wird von den Verfechtern eines freien Zugangs kritisiert. Aus ökonomischer Sicht handelt es sich bei immateriellen Gütern gewissermaßen um sogenannte „Öffentliche Güter“, d. h. Güter, die sich durch die Merkmale der Nicht-Ausschließbarkeit und Nicht-Rivalität auszeichnen. Sie könnten gleichzeitig überall zugänglich sein und zur gleichen Zeit von verschiedenen Personen genutzt werden. Hierdurch unterscheiden sie sich von Gegenständen, die im Besitz des einen für einen anderen in dem Moment nicht verfügbar sind. Immaterielle Güter verbrauchen sich nicht.69 Urheberrechtliche Einschränkungen oder ein Kopierschutz begrenzen die Nutzbarkeit eines literarischen (oder anderen) Werkes damit künstlich, da eine digitale Vervielfältigung und Nutzung durch eine unbegrenzte Anzahl von Lesern bzw. Konsumenten ohne weiteres möglich wäre, und – so scheint es – ohne dass dem Berechtigten damit etwas weggenommen würde. Gesellschaftlich wäre die effizienteste Lösung, wenn diejenigen, die die Information besitzen, diese gratis oder zu dem Preis, den die Kommunikation kostet, weitergeben würden.70 Dadurch werden dem Urheber allerdings die Möglichkeiten der wirtschaftlichen

68 Nordemann-Schiffel, Anke: § 53 a Rn. 16. In: Fromm, Nordemann (Hg.): Urheberrecht. 69 Goldhammer, Klaus: „Wissensgesellschaft und Informationsgüter aus ökonomischer Sicht“. In: Hofmann (Hg.): Wissen und Eigentum, S. 81, 85. 70 Ausführlich Dritter Zwischenbericht der Enquete-Kommission „Internet und digitale Gesellschaft“ vom 23.01.2011, BT-Drucks. 17/7899, S. 28.

188

Nicole Zorn

Verwertung, die von der Verfassung grundsätzlich zugesprochen werden, genommen. Die wirtschaftliche Grundlage und der monetäre Anreiz müssen erhalten bleiben, um die Schöpfung von neuen Werken und damit eine breite und qualitativ hochwertige Kulturlandschaft zu ermöglichen, zu fördern und attraktiv zu machen. Ziel ist es, im Bereich der digitalen Medien einen Ausgleich zwischen dem Schutz und den Interessen der Urheber, der Verwerter und den Interessen der Nutzer zu finden. Sowohl auf internationaler, auf europäischer als auch auf deutscher Ebene werden derzeit Regelungen und Gesetzesänderungen vorbereitet, die darauf gerichtet sind, das Urheberrecht besser dem digitalen Zeitalter anzupassen.

7.1 Maßnahmen zur Eindämmung der Urheberrechtsverstöße über Tauschbörsen und Sharehoster Zur Ahndung und Verhinderung von Urheberrechtsverletzungen über das Internet, der „Internetpiraterie“, gab es in den letzten Jahren verschiedene Gesetzesinitiativen, mit denen die Verbreitung urheberrechtlich geschützter Inhalte auf die eine oder andere Weise unterbunden bzw. sanktioniert werden soll.

Three-Strikes-Verfahren Kontrovers diskutiert wird ein sanktioniertes Warnmodell, das „Three-StrikesVerfahren“. Das Verfahren, auch als Graduated Response bezeichnet, ist ein abgestuftes Sanktionssystem, bei dem man den Verletzer zunächst nur verwarnt, bevor eine Strafe verhängt wird. Bei den ersten beiden Urheberrechtsverletzungen werden zwei Warnungen an den Inhaber des betroffenen Internetanschlusses verschickt. Beim dritten Verstoß kann ein Gericht eine Geldstrafe oder die Sperrung des Internetanschlusses für eine bestimmte Zeit verhängen. (Das Three-Strikes-Verfahren wird in Frankreich seit einiger Zeit angewandt.) Kritiker sehen in der Sperrung des Internetzugangs einen schweren Eingriff in die Kommunikationsfreiheit. Hinzu komme, dass ein Anschluss nicht selten von mehreren Personen genutzt wird und dann nicht feststellbar ist, von wem die Verletzungshandlung ausging. Die Maßnahme kann auch folgenlos bleiben, wenn der Betroffene auf andere Internetzugänge ausweicht. Die Möglichkeiten, mit diesem Verfahren Urheberrechtsverletzungen zu verfolgen, sind auf die Fälle beschränkt, die über die klassischen Tauschbörsen vorgenommen werden. Nut-

Urheberrechtliche Grenzen

189

zer im Rahmen der Sharehoster oder Streaming-Dienste können auf diese Weise nicht erreicht werden.71

Die amerikanischen Anti-Pirateriegesetze Zwei Gesetzesinitiativen in den USA – die Anti-Pirateriegesetze SOPA (Stop Online Piracy Act) und PIPA (Protect IP Act), mit denen man das Sperren von illegalen Inhalten im Internet erleichtern wollte – führten zu heftigen Protesten. Hier sollten nicht einzelne Internetanschlüsse, sondern der Zugang zu Internetseiten gesperrt werden. Internetprovider und Suchmaschinen sollen den Zugriff auf „Schurkenseiten“ unterbinden. Kritiker befürchten, dass die Möglichkeiten, die das Gesetz bei Urheberrechtsverletzungen wie dem Anbieten von Raubkopien vorsieht, z. B. die Sperrung des Zugangs zu Web-Seiten, letztlich zur Zensur im Netz führen könnten. Die Bedingungen, mit denen ein solcher Beschluss erwirkt werden könne, seien sehr vage und unklar formuliert.72 Die geplante Vorabstimmung über die Gesetze hat das US-Repräsentantenhaus auf unbestimmte Zeit verschoben.73

Anti-Counterfeiting Trade Agreement (Acta-Abkommen) Auf weltweite Kritik stößt auch das Acta-Abkommen (Anti-Counterfeiting Trade Agreement), ein internationales Handelsabkommen gegen Produktpiraterie im Internet, bei dem auch über Internetsperren für Tauschbörsennutzer verhandelt wurde. Gegner des Abkommens befürchten „eine Privatisierung der Rechtsdurchsetzung mit schädlichen Nebenwirkungen für Meinungsfreiheit, Datenschutz und den Zugang zu Kultur“.74 Die Verhandlungen zu dem internationalen Abkommen, an dem 39 Staaten beteiligt sind, waren von der EU-Kommission geführt worden. Kritisiert wurde

71 Dritter Zwischenbericht der Enquete-Kommission „Internet und digitale Gesellschaft“ vom 23.01.2011, BT-Drucks. 17/7899, S. 52. 72 Biermann, Kai: USA debattieren Netzsperrgesetze, 2011. www.zeit.de/digital/internet/201111/sopa-urheberrecht-usa (Stand: 17.01.2012). 73 Umstrittenes Sopa Gesetz muss pausieren, 2012. www.spiegel.de/netzwelt/netzpolitik/ 0,1518,809442,00.html (Stand: 17.01.2012). 74 Warum ACTA in den Papierkorb gehört, 2012. http://www.spiegel.de/netzwelt/netzpolitik/ 0,1518,811808,00.html (Stand: 28.01.2012).

190

Nicole Zorn

die lange Geheimhaltung der Verhandlungen.75 Inzwischen ist der Text des Handelsübereinkommens im Internet auf den Seiten der Europäischen Kommission abrufbar. Abschnitt fünf des Abkommens beschäftigt sich mit der Durchsetzung der Rechte des geistigen Eigentums im digitalen Umfeld und sieht in Art. 27 auch die Möglichkeit von Anordnungen gegenüber Online-Diensteanbietern vor, um wirksam gegen Urheberrechtsverletzungen vorzugehen. Außerdem sind Rechtschutzmaßnahmen gegen die Umgehung technischer Kopierschutzmaßnahmen vorgesehen. Der unterschiedliche Umgang der EU-Mitgliedstaaten mit der Ratifizierung des Acta-Abkommens zeigt die Unsicherheit – hervorgerufen auch durch Proteste – auf diesem Gebiet.76

Regelungsansätze in Deutschland Zentrale Frage bei der Diskussion um die Verhinderung der Verbreitung urheberrechtlich geschützter Werke über das Internet ist, inwieweit die Zugangsvermittler bei der Rechtedurchsetzung in Anspruch genommen werden sollen oder können. Diensteanbieter, die Dritten eine Plattform bieten, um Inhalte zu veröffentlichen, sind nach dem Telemediengesetz davor geschützt, für die von ihnen transportierten Inhalte zur Verantwortung gezogen zu werden. Sie können nur dann haftbar gemacht werden, wenn sie nichts unternehmen, nachdem sie über die Urheberrecht verletzende Veröffentlichung in Kenntnis gesetzt wurden (§ 10 TMG). Könnten diese generell für Urheberrechtsverletzungen zur Verantwortung gezogen werden, wären sie gezwungen, den Datenverkehr zu kontrollieren und rechtlich zu beurteilen. Während derzeit die Löschung oder Blockierung von illegalen Inhalten auf juristischem Wege durchgesetzt werden muss, wären die Provider verpflichtet, eigenständig zu handeln. Hierin wird die Gefahr einer Vorzensur gesehen.77 Sowohl auf deutscher als auch auf europäischer Ebene kamen die Gerichte bisher zu dem Ergebnis, dass Provider keine Prüf-

75 Verbraucherschutz- und Bürgerrechtsorganisationen wie Reporter ohne Grenzen hatten in einem offenen Brief die mangelnde Transparenz der Acta-Verhandlungen kritisiert (ebd.); ebenso der Vorsitzende des Deutschen Journalistenverbandes Michael Konken, ww.djv.de, Pressemitteilung vom 08.02.2012. 76 Vgl. Reißmann, Ole: Justizministerin will Acta-Abstimmung abwarten, 2012. www.spiegel. de/netzwelt/netzpolitik/0,1518,814307,00.html (Stand: 10.02.2012); Auch Lettland setzt ActaRatifizierung aus, 2012. www.spiegel.de/netzwelt/netzpolitik/0,1518,814237,00.html (Stand: 10.02.2012). 77 Ausführlich Dritter Zwischenbericht der Enquete-Kommission „Internet und digitale Gesellschaft“ BT Drs. 17/7899 vom 23.11.2011, S. 31.

Urheberrechtliche Grenzen

191

pflichten haben und auch keine Filtersysteme installieren müssen, um Urheberrechte zu schützen.78 Damit der Urheber Ansprüche auf Unterlassung und Schadensersatz geltend machen kann, steht ihm nach § 101 Abs. 2 UrhG ein Auskunftsanspruch gegen den Internetprovider zu. Vor Einleitung eines gerichtlichen Verfahrens soll der Verletzer gem. § 97 a UrhG abgemahnt werden, das heißt, er erhält die Möglichkeit, durch Abgabe einer mit einer Vertragsstrafe verbundenen Unterlassungserklärung ein Verfahren zu vermeiden. Die Praxis der Abmahnung wurde in der Vergangenheit allerdings häufig als missbräuchlich kritisiert.79 Während man die Möglichkeit der Sperrung des Internetanschlusses in Deutschland ablehnt, wird ein vorgeschaltetes Warnsystem von vielen befürwortet. Eine oder mehrere solcher zunächst sanktionslosen Warnungen würden bei denjenigen zu Erfolgen führen, denen ihr urheberrechtswidriges Handeln nicht bewusst ist. Eine Studie zeigte 2011, dass sich die Mehrheit derer, die sich der Rechtswidrigkeit bewusst sind, davon abschrecken lassen würde: 81 Prozent derjenigen, die Medieninhalte illegal herunterladen, glauben, dass die Versendung von Warnhinweisen dazu führen würde, dass die Menschen das illegale Filesharing einstellen.80 Das Bundesministerium für Wirtschaft und Technologie hat eine Studie über Modelle zur Versendung von Warnhinweisen durch Internet-Zugangsanbieter an Nutzer bei Urheberrechtsverletzungen in Auftrag gegeben. Die im Januar 2012 veröffentlichte Studie kommt zu dem Ergebnis, dass ein solches Modell, das ein aufklärendes Warnhinweismodell mit einer Effektivierung des Auskunftsanspruchs (unter Voraussetzung einer richterlichen Anordnung) verbindet, rechtlich zulässig ist. Auch die in Frage stehende Inpflichtnahme der Zugangsanbieter sehen die Verfasser als verfassungsrechtlich nicht zu beanstanden, sie stelle mit einer Kombination aus Aufklärung und Warnhinweisen ein verhältnismäßiges Mittel beim Vorgehen gegen Urheberrechtsverletzungen im Internet dar. Daten-

78 OLG Düsseldorf, Urt. v. 27.04.2010 – I-20 U 166/09; Rechtssache C-70/10, EuGH, Urteil vom 24.11.2011 – RS. C‑70/10 (Scarlet Extended SA gegen Sociéte belge des auteurs, compositeurs et éditeuers SCRL (SABAM). 79 Ausführlich Solmecke, Christian, Dierking, Laura: „Die Rechtsmissbräuchlichkeit von Abmahnungen“. In: MMR 2009, S. 727 ff. 80 Studie zur digitalen Content-Nutzung (DCN-Studie) 2011, GfK im Auftrag von dem Bundesverband Musikindustrie e. V. (BVMI), der Gesellschaft zur Verfolgung von Urheberrechtsverletzungen e.V. und dem Börsenverein des Deutschen Buchhandels, Presseversion, S. 37, www.musikindustrie.de/studien (Stand: 01.02.2012).

192

Nicole Zorn

schutzrechtliche Aspekte müssten bei der konkreten Ausgestaltung der Maßnahmen beachtet werden.81 Auch hier ist die Zuordnung einer Rechtsverletzung zu einer bestimmten IPAdresse – und damit zum Inhaber des Anschlusses – nur im Rahmen von Tauschbörsen (Peer-to-Peer-Netzwerken/Filesharing-Diensten) möglich, da hier die Teilnehmer eine wechselseitige Verbindung herstellen, über die Daten sowohl anderen bereitgestellt als auch heruntergeladen werden. Das Problem der Sharehoster kann damit allerdings nicht gelöst werden. Der Verein „Digitale Gesellschaft“ etwa kritisiert solche Modelle als „unsinnig“. Die Kritiker der Warnmodelle sehen erhebliche datenschutzrechtliche Probleme. Die „Digitale Gesellschaft“ erläutert ihre Kritikpunkte in einem zur Studie des Bundesministeriums herausgegebenen „Schattenbericht“.82 Grundsätzlich ist fraglich, inwieweit nationale Regelungen überhaupt langfristig sinnvoll sind, um Spielregeln in einem internationalen Kommunikationsnetz festzulegen.

7.2 Die zukünftige Regelung des Umgangs mit verwaisten Werken Auch in der Frage der Buchdigitalisierung drängt man, nicht zuletzt aufgrund der Google-Projekte, in Deutschland und auf europäischer Ebene auf eine Regelung, die es ermöglicht, verwaiste Werke für die Deutsche und die Europäische Digitale Bibliothek nutzbar zu machen. Es ist vorgesehen, im Rahmen des „Dritten Korbs“ der Urheberrechtsreform eine gesetzliche Regelung zu schaffen. Die Deutsche Literaturkonferenz und die von ihr eingesetzte AG Digitale Bibliotheken haben eine zeitnahe gesetzliche Regelung gefordert und Gesetzgebungsvorschläge erarbeitet.83 Die SPD-Fraktion hatte einen Entwurf vorgelegt, der die Nutzung von vergriffenen und verwaisten Werken durch eine Änderung des Urheberrechtswahrnehmungsgesetzes auf eine gesetzliche Grundlage stellen

81 Schwartmann, Rolf: Vergleichende Studie über Modelle zur Versendung von Warnhinweisen durch Internet-Zugangsanbieter an Nutzer bei Urheberrechtsverletzungen im Auftrag des Bundesministeriums für Wirtschaft und Technologie, Januar 2012, www.bmwi.de/BMWi/ Navigation/Service/publikationen,did=474202.html (Stand: 03.02.2012). 82 Vgl. Schattenbericht der Digitalen Gesellschaft e.V. zur „Vergleichenden Studie über Modelle zur Versendung von Warnhinweisen durch Internet-Zugangsanbieter an Nutzer bei Urheberrechtsverletzungen“ des Bundesministeriums für Wirtschaft und Technologie, digitalegesellschaft.de/2012/02/schattenbericht-zur-warnhinweis-studie-warnmodelle-sindunsinnig-und-gefahrlich (Stand: 09.02.2012). 83 MMR Aktuell 2011, 323956, beck-online.beck.de/Default.aspx?words=+MMR+Aktuell +2011%2C+323956&btsearch.x=42&btsearch.x=29&btsearch.y=17.

Urheberrechtliche Grenzen

193

soll.84 Im September 2011 diskutierten in einer Anhörung vor dem Rechtsausschuss Sachverständige im Bundestag über die Frage der Digitalisierung verwaister und vergriffener Werke. Einigkeit bestand darin, dass eine Vergütungspflicht für alle urheberrechtlich geschützten Werke, also auch für vergriffene und verwaiste Werke, bestehen muss.85 Die Europäische Kommission hat am 24. Mai 2011 einen „Vorschlag für eine Richtlinie über bestimmte zulässige Formen der Nutzung verwaister Werke“ verabschiedet,86 mit der ein Rechtsrahmen geschaffen werden soll, der einen grenzüberschreitenden Onlinezugang zu verwaisten Werken ermöglicht. Der Anwendungsbereich der Richtlinie umfasst näher bestimmte Schrift-, Ton- und Filmwerke, die zuerst in einem Mitgliedstaat veröffentlicht oder gesendet wurden. Ermöglicht werden soll die Nutzung durch öffentlich zugängliche Bibliotheken, Bildungseinrichtungen, Museen, Archive, bestimmte Filminstitute und öffentlich-rechtliche Rundfunkanstalten. Ein Werk gilt nach der Richtlinie dann als verwaist, wenn nach einer sorgfältigen Suche kein Rechteinhaber ermittelt oder ausfindig gemacht werden konnte. Die Suche muss über bestimmte Quellen durchgeführt werden, die von jedem Mitgliedstaat festgelegt werden. Im Anhang sind die grundsätzlich zu konsultierenden Quellen für jede Werkkategorie aufgeführt. Die Ergebnisse der Suche sollen in einer öffentlich zugänglichen Datenbank dokumentiert werden. Ist ein Werk nach sorgfältiger Suche in dem betreffenden Mitgliedstaat als verwaist eingestuft, gilt dieser Status für alle Mitgliedstaaten. Das als verwaist geltende Werk kann dann von den in Art. 1 festgelegten Einrichtungen in bestimmtem Umfang und zur Erfüllung ihrer im öffentlichen Interesse liegenden Aufgaben genutzt werden. Diese umfassen insbesondere das Zugänglichmachen sowie das Vervielfältigen zum Zwecke der Digitalisierung, Zugänglichmachung, Indexierung, Katalogisierung, Bewahrung und Restaurierung. Die Mitgliedstaaten können den genannten Einrichtungen unter bestimmten Umständen auch eine Nutzung zu Zwecken gestatten, die über die Erfüllung ihrer im öffentlichen

84 Entwurf eines Gesetzes zur Änderung des Gesetzes über die Wahrnehmung von Urheberrechten und verwandten Schutzrechten (Urheberrechtswahrnehmungsgesetz – UrhWahrnG), BT-Drucks. 17/3991 vom 30.11.2010. 85 MMR-Aktuell 2011, 322785, beck-online.beck.de/Default.aspx?words=+MMR-Aktuell+2011% 2C+322785&btsearch.x=42&btsearch.x=42&btsearch.y=28 86 Vorschlag für Richtlinie des Europäischen Parlaments und des Rates über bestimmte zulässige Formen der Nutzung verwaister Werke, KOM(2011) 289 eng. vom 24.05.2011; ausführlich hierzu: de la Durantaye, Katharina: „Ein Heim für Waisenkinder – Die Regelungsvorschläge zu verwaisten Werken in Deutschland und der EU aus rechtsvergleichender Sicht“. In: ZUM 2011, S. 777 ff.

194

Nicole Zorn

Interesse liegenden Aufgaben hinausgehen (Art. 7). In diesen Fällen sollen Rechteinhaber, die erst später bekannt werden, Vergütungsansprüche für die bereits erfolgte Nutzung haben. Ein später bekannt gewordener Rechteinhaber soll die Möglichkeit haben, den „Waisenstatus“ jederzeit zu beenden. Ergänzt wurde der Richtlinienvorschlag durch eine am 21. September 2011 unterzeichnete gemeinsame Absichtserklärung, mit der Bibliotheken, Verlage, Autoren und ihre Verwertungsgesellschaften mit dem EU-Kommissar für Binnenmarkt und Dienstleistungen, Michel Barnier, zentrale Grundsätze über die Bereitstellung vergriffener Bücher und Zeitschriften in europäischen Bibliotheken und ähnlichen kulturellen Einrichtungen vereinbart haben. Durch diese Grundsätze werden freiwillige Lizenzvereinbarungen gefördert und unterstützt; das Urheberrecht wird jedoch in vollem Umfang anerkannt, und es ist festgelegt, dass die Rechteinhaber immer als Erste die Möglichkeit haben sollten, ein vergriffenes Werk zu digitalisieren und zugänglich zu machen.87

7.3 Die Vorbereitungen eines Dritten Gesetzes zur Regelung des Urheberrechts in der Informationsgesellschaft Das Bundesministerium der Justiz erarbeitet derzeit den Referentenentwurf für das Dritte Gesetz zur Regelung des Urheberrechts in der Informationsgesellschaft („Dritter Korb“), mit der das Urheberrecht weiter an das digitale Zeitalter angepasst werden soll.88 Bereits mit Verabschiedung des „Zweiten Korbs“ begannen die Überlegungen für den dritten Teil der Urheberrechtsreform. Kritisiert wird in der Diskussion u. a., dass das deutsche Urheberrecht aus Sicht eines Laien viel zu kompliziert ausgestaltet sei und daher vom breiten Publikum nicht verstanden und somit auch nicht ernst genommen werden könne.89 Insbesondere Jugendliche, die mit dem Medienkonsum über das Internet aufgewachsen sind und für die das „Teilen“ und Weiterleiten von Informationen eine Selbstverständlichkeit sei, würden zu kriminellen „Raubkopierern“, weil sie die Grundstruktur des Netzes befolgten.90 Auch bei der Thematik der Wissenschaftsschran-

87 Europäische Kommission, IP/11/1055 vom 20.09.2011. 88 Modernes und zukunftsfähiges Urheberrecht – Stand „Dritter Korb“ Urheberrecht, BT-Drucks. 17/6678, S. 2. 89 Vgl. Otto, Philipp: Jürgen Oechsler: Urheberrecht muss verständlicher werden, 2011. 83.169.2.118/irights/?q=node/2035 (Stand: 31.01.2012). 90 Was zu tun wäre. Ein Urheberrecht für das 21. Jahrhundert, Gemeinsames Positionspapier von Wikimedia Deutschland e.V., Digitale Gesellschaft e.V., Open Knowledge Foundation Deutschland e.V.

Urheberrechtliche Grenzen

195

ken, die Urheberrechte einschränken, aber den Bildungseinrichtungen nicht die Möglichkeiten bieten, die sie im digitalen Zeitalter für sinnvoll und notwendig erachten, ist man noch weit von einer für alle befriedigenden Lösung entfernt. Die betreffende Kommission des deutschen Bundestags spricht sich für eine Vereinfachung der urheberrechtlichen Vorschriften aus. Angesichts eines veränderten Nutzerverhaltens müssten die urheberrechtlichen Bestimmungen auf Verständlichkeit und Anwendbarkeit überprüft werden. Der grundsätzliche Schutz der ideellen und wirtschaftlichen Interessen des Urhebers stehe aber nicht in Frage. Immaterialgüter müssten zum einen durch Ausschließlichkeitsrechte der Urheber marktfähig gemacht werden und hierüber auch der Anreiz, neue Werke zu schaffen, erhöht werden. Allerdings sollte das geltende Recht in einigen Punkten an die digitale Welt angepasst werden. Das Verständnis der Nutzer für die Bedeutung des Urheberrechts müsse durch Aufklärungskampagnen, nutzernahe Informationsplattformen und bereits in der Schule gestärkt werden.91 Auf Anfrage zum Stand des „Dritten Korbes“ hat die Bundesregierung deutlich gemacht, dass das Urheberrecht auch im digitalen Zeitalter einen gerechten Ausgleich aller betroffenen Interessen gewährleisten muss. Es gelte gleichermaßen im Online- und im Offline-Bereich. Das Prinzip, dass grundsätzlich der Urheber allein entscheiden solle, ob, auf welche Art und Weise und für welches Entgelt sein Werk genutzt werden dürfe, gelte auch in der digitalen Welt. Das vorgeschlagene Modell einer Kulturflatrate trage diesem Verständnis zum Beispiel nicht ausreichend Rechnung.92 Der Referentenentwurf wird sich, neben der geplanten Regelung für den Umgang mit verwaisten Werken, insbesondere mit der gesetzlich zulässigen privaten Vervielfältigung (§ 53 Abs. 1 UrhG), den Regelungen zur Wiedergabe an elektronischen Leseplätzen in öffentlichen Bibliotheken, Museen, Archiven, (§ 52 b UrhG) und dem Kopierversand auf Bestellung (§ 53 a UrhG) befassen. Themen, die diskutiert werden, sind zum einen die Einführung eines Zweitverwertungsrechtes für wissenschaftliche Publikationen, zum anderen eine allgemeine Wissenschaftsschranke, die die bestehenden, teilweise unklaren und umstrittenen Schranken ersetzt. Der Referentenentwurf soll 2012 vorgelegt werden. Es ist jedoch zu erwarten, dass auch mit dem Dritten Korb lange nicht alle Fragen zum Urheberrecht im digitalen Zeitalter gelöst werden. Die im Spannungsverhältnis stehenden Interessen von Urhebern, Nutzern und Verwertern werden den Gesetzgeber vielmehr 91 Abrufbar unter: www.bundestag.de/internetenquete/dokumentation/Sitzungen/20101129/ index.jsp (Stand: 31.01.2012). 92 Modernes und zukunftsfähiges Urheberrecht – Stand „Dritter Korb“ Urheberrecht, BT-Drucks. 17/6678 vom 26.07.2011.

196

Nicole Zorn

noch längere Zeit beschäftigen. Insbesondere die Frage, inwieweit Provider in die Verhinderung und Ahndung von Urheberrechtsverstößen im Internet einbezogen werden können und sollen, wird voraussichtlich noch länger kontrovers diskutiert werden.

Abkürzungen AfP APuZ GRUR-Prax MMR NJW Rn ZUM

Zeitschrift für Medien- und Kommunikationsrecht Aus Politik und Zeitgeschichte Gewerblicher Rechtsschutz und Urheberrecht. Praxis im Immaterialgüter und Wettbewerbsrecht Multimedia und Recht. Zeitschrift für Informations-, Telekommunikations- und Medienrecht Neue Juristische Wochenschrift Randnummer Zeitschrift für Urheberrecht und Medien

Sandra Rühr

Literatur im Hörbuch 1 Das Hörbuch als akustisches Medium 1.1 Inhaltliche Ebene Die Bezeichnung „Hörbuch“ kam erstmals 1954 in Verbindung mit Literatur für blinde und sehbehinderte Personen auf. Blindenbibliotheken stellen seit dem ausgehenden 19. Jahrhundert Literatur zur Verfügung, die den Bedürfnissen dieser Zielgruppe gerecht wird. Die Bücher und Zeitschriften wurden anfänglich in Braille-Schrift und Großdruck angeboten, ab 1954 auch als akustische Version. Die Deutsche Blindenbibliothek Marburg war dabei die erste Blindenbibliothek mit Hörmedien im Bestand. Unter Hörbüchern wurden somit Bücher zum Hören verstanden. Diese wurden unverändert eingelesen und auf Schallplatte aufgenommen. Erst die MusiCassette, MC, und gegenwärtig das DAISY-Format1 konnten ein nutzerfreundliches Abspielen gewährleisten. Auch im kommerziellen Bereich gab es akustisch präsentierte Literatur. Solche Schallplattenaufnahmen mit wortbasierten Inhalten wurden als Sprechplatten bezeichnet. Im Gegensatz zu den Tonträgern für Blinde wird hier auf das den Inhalt repräsentierende Trägermedium (Platte) Bezug genommen. „Hörbuch“ hingegen rekurriert auf das Medium, woraus die Literatur entnommen wurde (Buch). Literatur, präsentiert in Form des Hörbuchs, kommt scheinbar nicht ohne das zugrunde liegende gedruckte Buch aus. Die Sprechplatte hingegen ist vordergründig schlicht als Gegenteil der Musikschallplatte anzusehen: Ihre Inhalte „sprechen“, anstatt dass sie Musik darbieten. In den USA gab es eine deutliche begriffliche Trennung zwischen den beiden Segmenten: Hörbücher für Blinde wurden ‚talking books‘, solche für den kommerziellen Vertrieb ‚audio books‘ genannt. In Deutschland setzte sich „Hörbuch“ erst 1987 durch, als die Schallplattenfirma Deutsche Grammophon eine Reihe auf MC anbot, die so hieß. Die Reihe „Hörbuch“ bot „große Romane und Erzählungen der Weltliteratur, gelesen von großen Schauspielern auf Langspiel-Cassetten“2 an. Die Bezeichnung „Hörbuch“ erstreckte sich damit auf die inhaltliche, sprechkünstlerische und technische Ebene. An Inhalten fanden Klassiker der Weltliteratur Eingang in die Reihe. Nicht der Laie oder der Autor las das zugrunde liegende Werk, sondern bekannte

1 DAISY steht für digital accessible information system. 2 Diese Angaben fanden sich auf der Oberseite der die MCs umschließenden Pappschuber.

198

Sandra Rühr

Schauspieler. Hieran zeigt sich zweierlei: Der „große“ Schauspieler wirbt zum einen mit seinem Bekanntheitsgrad und zum anderen verbürgt er sich für einen gewissen Qualitätsstandard. Langspielplatten weichen der „Langspiel-Cassette“. Dies zeugt von technischem Fortschritt3 und dieses Speichermedium ermöglicht theoretisch ungekürzte und damit unverfälschte Wiedergabe der Inhalte. So verstanden waren Hörbücher akustische Medien, deren qualitativ herausragende Vorlagen von einem Sprecher ebenso qualitativ hochwertig für das akustische Medium aufbereitet werden. Das zugrunde liegende Speichermedium sorgte dafür, dass die Vorlage ohne Kürzungsverluste in das akustische Medium wechselte. Ab 1996 wurde das Hörbuch als Medium der Literaturvermittlung neben dem gedruckten Buch anerkannt, was sich an der Herausgabe eines eigenen Katalogs für den Buchhandel zeigte (Titel: HörBuch. Die ganze Welt der Bücher auf MC und CD). Dies lässt den Schluss zu, dass jegliches Buch akustisch präsentiert werden kann. Im ersten Katalog wird jedoch eine definitorische Einschränkung getroffen: „Beim Hörbuch handelt es sich […] in der Regel um die Lesung eines Sprechers oder Autors, eventuell auch um Mitschnitte von Theateraufführungen, Interviews oder Gesprächen.“4 Dies grenzt das Hörspiel als eigene Kunstform des Hörfunks aus. Eingeschlossen hingegen sind Inhalte, die nicht zwangsläufig buchbasiert sein müssen, die aber in Form der Lesung unverändert an die Zuhörer vermittelt werden. Das Hörbuch als „Buch zum Hören“ wird hier verstanden als akustisches Medium, das schriftlich fixierte Texte mittels Lesung präsentiert. In der Folgezeit, ab Beginn des neuen Jahrtausends, gründete sich eine Vielzahl an spezifischen Hörbuchverlagen oder Verlagen mit eigenen Hörbuchimprints. Je nach Selbstverständnis des Anbieters gab es ein sich immer stärker ausdifferenzierendes Angebot, das sich zunehmend der inhaltlichen Bandbreite des gedruckten Buchs annäherte.5

3 Wenngleich der technische Fortschritt zu dieser Zeit schon weiter vorangeschritten war: Seit Anfang der 1980er Jahre war das Aufnehmen und Abspielen auf CD möglich. 4 Eckardt, Hans: „Hörbuchkäufer sind Leser“. In: HörBücher. Die ganze Welt der Bücher auf MC und CD. 1996, S. 20. 5 Vgl. hierzu ausführlich: Rühr, Sandra: Hörbuchboom? Zur aktuellen Situation des Hörbuchs auf dem deutschen Buchmarkt. Erlangen 2004, S. 41–57 (online-Version: www.alles-buch.unierlangen.de/Ruehr.pdf) und Rühr, Sandra: Tondokumente von der Walze zum Hörbuch. Geschichte – Medienspezifik – Rezeption. Göttingen 2008, S. 121–137.

Literatur im Hörbuch

199

1.2 Präsentationsbezogene Ebene Dass die Lesung jedoch nicht die einzige Möglichkeit ist, Inhalte auditiv zu vermitteln, zeigt die 2006 getroffene Einteilung des Hörverlags. Dort wird die Bezeichnung „Hörbuch“ als Oberbegriff für Lesung, Hörspiel, Feature und Tondokument verwendet.6 Diese vier Präsentationsweisen sind zum einen in technologischer Hinsicht zu begründen. Zum anderen zeigen sie, gerade im direkten Vergleich mit dem Hörfunk, wie akustische Inhalte generell darzubieten sind. Tondokumente gelten als ursprünglichste Form der akustischen Vermittlung. Danach folgen Lesung und Hörspiel. Gerade Letzteres gilt als Kunstform des Hörfunks. Dort suchte man von Anfang an nach medienspezifischen Präsentationsweisen. Vermittlung von Literatur war zunächst vor allem geräuschhaft, um Schriftsprache akustisch zu präsentieren. Daneben wurden die Inhalte so aufbereitet, dass in erster Linie der Sprachklang zur Geltung kam. Dies bedeutete, dass die Stimme den poetischen Gehalt eines Werks übersetzte, während Musik und Geräusche eine untergeordnete Rolle spielten. Eine dritte Tendenz ist die Orientierung an anderen Kunstformen wie experimenteller Kunst oder konkreter Poesie. Dieses Ausprobieren eigenständiger Ausdrucksmöglichkeiten des Mediums Hörfunk ist charakteristisch für das Hörspiel im Radio.7 Hörspiele auf Schallplatten der 1960er Jahre hingegen waren Übernahmen solcher Hörfunk-Hörspiele. Im gegenwärtigen Hörbuchsegment finden sich neben Originalhörspielen auch Hörspiel-Adaptionen von Romanvorlagen. Das Feature stammt ebenfalls aus dem Hörfunk. Als „Montage-Kunst par excellence“8 setzt es zunächst das kunstvolle Zusammenfügen akustischer Informationen generell und zugleich das Zusammenschneiden der verschiedenen Einzelelemente zu einem Klangteppich voraus. Akustische Ausdrucksformen vermitteln puzzleartig ein spezifisches Thema. Innerhalb des Hörfunks setzte dies verstärkt ab 1947 mit Arbeiten von Axel Eggebrecht, Ernst Schnabel und Peter von Zahn ein. Bei den Vorformen des Hörbuchs gab es dies bereits mit den phonographischen Walzen. Allerdings wurden hier die Inhalte linear mittels so genannter Hörbilder präsentiert.9 Experimentellere Formen waren erst mit Erfindung des Tonbands möglich.

6 Vgl. Schallwelten. Magazin und Gesamtverzeichnis des Hörverlags. 2006, S. 5. 7 Vgl. Rühr, Sandra: „Geschichte und Materialität des Hörbuchs“. In: Jürg Häusermann, Korinna Janz-Peschke u. Sandra Rühr: Das Hörbuch. Medium – Geschichte – Formen. Konstanz 2010, S. 77 f. 8 Schallwelten, S. 7. 9 Vgl. Rühr: Tondokumente, S. 236–238; Rühr: Geschichte und Materialität, S. 69–72.

200

Sandra Rühr

Was bedeutet all dies in letzter Konsequenz für den Hörbuch-Begriff? Er birgt Komponenten unterschiedlicher Ebenen in sich. Aus technologischer Perspektive umfasst das Hörbuch vor allem wortbasierte Inhalte, die medial gespeichert auf spezifischen Aufzeichnungstechnologien vorliegen. Diese Speichermedien lassen sich in phonographische Walzen, Schallplatten, MCs und Compact Discs, CDs, unterscheiden. Die Trägermaterialien beeinflussen Inhalte und ästhetische Aufbereitung. Damit einher geht, dass nicht allein buchnahe Inhalte präsentiert werden. Doch nicht nur die technologische Ebene spielt eine Rolle, sondern auch die an der Verbreitung beteiligten Unternehmen. Bereits die Gleichzeitigkeit von Musik- und Sprechschallplatte hat gezeigt, dass das Hörbuch zunächst vor allem Teil der Musikbranche war, seit Ende der 1980er Jahre jedoch als Medium von der Buchbranche entdeckt wurde. Nach der vom Zwischenbuchhandel des deutschen Buchhandels festgesetzten Warengruppensystematik unterscheidet sich das Hörbuch vom gedruckten Buch vor allem durch sein Trägermaterial, die Inhalte hingegen können deckungsgleich sein.10 Da aber ein wesentliches Merkmal des Hörbuchs dessen Intermedialität ist, das Übernehmen oder Übersetzen anderer medialer Inhalte,11 greifen sowohl der Begriff „Hörbuch“ als auch die Warengruppensystematik zu kurz. Denn wenn ein Titel wie Das Boot als Hörbuch im Handel zu erwerben ist, stellt sich die Frage, ob es sich um den Filmspurmitschnitt oder um die Lesung der Buchgrundlage handelt. Und wie ist die TV-Krimiserie Derrick als Hörbuch zu handhaben? Im Zusammenhang mit den Präsentationsweisen und deren Einsatzbereichen zeigt sich ein Konnex zwischen Sprechkunst und produktionstechnischem Hintergrund. Warum klingt Faust I als Sprechplattenproduktion aus dem Jahr 1954 in der stimmlichen Interpretation durch Gustaf Gründgens, Paul Hartmann und Käthe Gold gänzlich anders als ein Rufus Beck in seiner Darbietung der Harry Potter-Bände? Warum muten Hörspielproduktionen der 1970er Jahre anders an als opulente Hörspielaufnahmen der Gegenwart wie Otherland und Dr. Faustus?

10 Die Warengruppensystematik setzt sich aus vier Ziffern zusammen. Die erste Ziffer, der so genannte Warengruppen-Index, bestimmt die Trägermaterialien Hard- und Softcover, Taschenbuch, Zeitschrift und Loseblatt-Ausgabe, DVD und Video, Audio-CD und Kassette, CDROM und DVD-ROM, Kalender, Karten und Globen sowie Nonbooks. Die drei folgenden Ziffern beschreiben zunächst die Hauptwarengruppen Belletristik, Kinder- und Jugendbücher, Reise, Ratgeber, Geistes-, Natur- und Sozialwissenschaften, Schule und Lernen sowie Sachbuch und gehen dann näher auf die Inhalte ein. Damit lässt sich darstellen, dass es sich beispielsweise um ein Hardcover aus den Naturwissenschaften und hierbei aus der Allgemeinmedizin handelt. 11 Vgl. die differenzierte Auseinandersetzung Matthias Schwethelms zu den intermedialen Bezügen zwischen Buch und Hörbuch: Schwethelm, Matthias: Bücher zum Hören. Intermediale Aspekte von Audioliteratur, 2010. www.buchwiss.uni-erlangen.de/AllesBuch/38_Schwethelm. pdf (Stand: 01.04.2012).

Literatur im Hörbuch

201

Was das Hörbuch somit im Kern ausmacht, sind seine auf Akustik bezogene Produktion und Rezeption. Dass die Distribution vor allem über Organisationsformen des Buchhandels geschieht, führt zur begrifflichen Einengung.

2 Tonaufzeichnung und Literatur 2.1 Gedächtnis Die Geschichte des Hörbuchs ist „auch eine Geschichte seiner technischen Bedingungen.“12 Diese sind aufs Engste mit der Entwicklung der Tonaufzeichnung verknüpft und setzen nicht erst mit der CD, sondern bereits mit den phonographischen Walzen 1877 ein. Die technologischen Möglichkeiten bedingen und formen die Inhalte, sodass bis zur Einführung der CD ein Wandel akustisch dargebotener Inhalte zu bemerken war. Damit ist die Frage verbunden, ob die Digitalisierung der Inhalte zu einer Qualitätsveränderung führte, die näher zu beschreiben wäre. Als Thomas Alva Edison 1877 den Phonographen zum Patent anmeldete, wollte er damit einen Aufschreibemechanismus zur Verfügung stellen, der in der Lage ist, Töne dauerhaft zu konservieren. Er stellte dazu Analogien zum menschlichen Gehör und Gehirn her: Der Phonograph hatte einen Trichter, der Schallwellen aufnahm, über eine Membran weiterleitete und auf eine Nadel übertrug. Diese schrieb die akustische Nachricht auf eine mit Stanniolpapier überzogene Walze. Beim Abspielvorgang las die Nadel die eingekerbte Information ab und verwandelte sie wieder in Klang.13 Im Unterschied zum menschlichen Hör- und Verarbeitungsvorgang funktioniert der Phonograph als Speichermedium, das Informationen in unveränderter Form nieder„schreibt“. Es gibt damit keine Verknüpfungen und Vernetzungen zwischen Informationen. Jede neue Information ist gleichermaßen ein Unikat. Der Phonograph und seine phonographischen Walzen dienten der Speicherung akustischer Informationen. Diese waren noch nicht auf literarische Inhalte festgelegt.

12 Lehmkuhl, Tobias: „Akustische Schatzkammer“. In: Süddeutsche Zeitung 60 (2004) Nr. 207, S. 18. 13 Vgl. Rühr: Tondokumente, S. 45.

202

Sandra Rühr

2.2 Vervielfältigung 1887 entwickelte Emile Berliner das Grammophon und die Schallplatte. Damit gingen mehrere Veränderungen einher: Der Tonträger war nicht mehr walzen-, sondern scheibenförmig, sodass die akustischen Impulse in seitlichen Auslenkungen aufgezeichnet werden mussten. Die Wachswalze wurde durch eine Platte ersetzt, die zunächst aus Hartgummi, dann aus Schellack bestand. Eine wesentliche Neuerung war zudem, dass die Schallplatte Vervielfältigungen zuließ.14 Dies war vor allem durch die etwa zeitgleich stattfindenden Überlegungen zur Tonaufzeichnung mittels Magnetismus möglich. So konnten von einer Ur-Aufnahme, einer Patrize, mehrere, qualitativ nicht differierende Matrizen erstellt werden. Auch mit der Schallplatte sollte die Tradition des Aufzeichnens fortgeführt werden. Das veränderte Aufzeichnungsverfahren und die Möglichkeit zur Vervielfältigung eröffneten neue Variationen zur Dokumentation von Inhalten. Der erste wortbasierte Schallplattentitel, der innerhalb eines Nischenprodukts Erfolge verzeichnen konnte, war die drei Schallplatten umfassende Aufnahme Der Hauptmann von Köpenick der Beka aus dem Jahr 1906. Die reine Dokumentation wich der Inszenierung. Allmählich fanden sich literarische Inhalte auf Schallplatte. Bedingt durch die kurze Wiedergabedauer von etwa vier Minuten waren nur einzelne Szenen oder Monologe aus Dramen möglich. Dadurch eröffnete sich für die Plattenindustrie jedoch eine Form der Zweitverwertung von Theaterschauspielern. Das Image von Schallplatten war allerdings vor allem in der frühen Phase schlecht. Man verband damit Jahrmarktgaudi. Demzufolge stellten Theatergrößen wie Joseph Kainz oder Alexander Moissi hohe Honorarforderungen, um die persönlich betriebene Rufschädigung zu kompensieren.15 Doch das Unterhaltungsmedium Schallplatte bot gegenüber dem Theater als Kulturvermittler den Vorteil, dass vergängliche Inszenierungen dauerhaft aufgezeichnet werden konnten und dass eine selbstbestimmte und unabhängig von Spielzeiten und -orten stattfindende Form der Rezeption möglich wurde. Beides dürfte der Grund dafür gewesen sein, dass ab Beginn des 20. Jahrhunderts zunehmend Leseabende von Schauspielern auch auf Schallplatte erhältlich waren. Damit eröffnet sich eine sprechkünstlerische Dimension. Man konnte die melodische Darbietungsweise eines Joseph Kainz vernehmen und das Psalmodieren eines Ludwig Wüllner.16 14 Ebd., S. 46. 15 Vgl. Rühr: Tondokumente, S. 52 f. und S. 369–372; Amann: Die Töne, S. 8. 16 Die einstigen Schallplattenaufnahmen liegen teilweise digitalisiert vor. Beispielsweise Splanemann, Frank (Hrsg.): N. 1. Historische Aufnahmen von Kainz bis von Winterstein.

Literatur im Hörbuch

203

2.3 Speicherkapazität Die Speicherkapazität bei Schallplatten wurde weiter ausgedehnt. Zugleich wurde mit neuen Trägermaterialien experimentiert. 1904 präsentierte Odeon beidseitig bespielbare Platten, womit knapp zehn Minuten Spielzeit möglich waren. Die 1948 entwickelte Langspielplatte aus Vinyl ließ Aufnahmen von bis zu 60 Minuten zu. Zudem wurden die seit 1888 andauernden Versuche mit magnetisierten Tonbändern verfeinert. Die 1963 von Philipps entwickelte MC – ein Tonband in einem Plastikgehäuse – baute auf diesen Errungenschaften auf und ermöglichte zweimal 45 Minuten Abspieldauer.17 Langspielplatte und MC verbesserten die Speicherkapazität von Tonaufnahmen. Sie unterschieden sich jedoch im Aufzeichnungsverfahren: Bei Schallplatten war seit den 1920er Jahren das elektronische Aufnehmen mittels Mikrophon und Verstärker üblich, das Tonband nutzte das Prinzip der Magnettonaufzeichnung. Ein weiterer Unterschied war der Stellenwert beider Trägermedien, resultierend aus Zuschreibungen zu deren Inhalten: Schallplatten boten hohe Literatur, MCs hingegen Aufnahmen für Kinder. Nach dem Erfolg von Faust I, herausgegeben 1954 von der Deutschen Grammophon, folgten weitere Klassiker der Weltliteratur und 1957 das „Literarische Archiv“. Die Deutsche Grammophon setzte damit einen Trend, den auch andere Plattenfirmen wie Ariola, Electrola und Philipps fortführten und ein literarisches Segment aufbauten.18 Trotzdem blieben Sprechplatten mit literarischen Inhalten ein Nischenprodukt. Besonders Titel von Goethe und Schiller wurden bevorzugt und auch über viele Jahre im Programm gehalten, ohne neue Titel hinzuzunehmen. MusiCassetten wurden in den 1970er Jahren vor allem für Kinderhörspielserien verwendet.19 Am Beispiel von Miller International zeigt sich, dass der Absatz mit Schallplatten ab den 1980er Jahren deutlich zurückging.20 In dieser Umbruchphase fanden verschiedene Versuche mit literarischen Inhalten auf Kassette statt. Den Anfang markiert der Verlag „Schumm sprechende Bücher“, heute „Steinbach sprechende Bücher“, der 1978 gegründet wurde und „Literatur, die in’s Ohr geht“21, präsentierte. Erich Schumm hatte nach einem USA-Aufenthalt die Idee, Literaturtonträger in Deutschland zu produzieren. Eine inhaltliche Fest-

Deutsches Theater und Kammerspiele o.J., 1 CD; Starz, Ingo: Theaterstimmen. Der Hörverlag 2007, 2 CDs; Müller, Lothar: Tondokumente zu Die zweite Stimme. Wagenbach 2007, 1 CD. 17 Vgl. Rühr: Tondokumente, S. 47–49 und S. 58 f. 18 Vgl. ebd., S. 70–74. 19 Vgl. ebd., S. 79 f. und Bastian, Annette: Das Erbe der Kassettenkinder. Brühl 2003. 20 Vgl. Bastian: Das Erbe der Kassettenkinder, S. 141. 21 Schumm sprechende Bücher: Katalog [1980], U 2.

204

Sandra Rühr

legung gab es nicht, stattdessen wurde ein umfangreiches Programm vorgelegt: Unterhaltungsliteratur, Mundartdichtung, Klassiker der Weltliteratur, zeitgenössische Literatur, historische und zeitgeschichtliche Titel, Titel für Kinder und Jugendliche, Biographien, Reisetitel und Übungsanleitungen bei Sprechschwierigkeiten.22 Schumm sprechende Bücher gilt, noch ohne die Bezeichnung im Namen zu tragen, als der erste reine Hörbuchverlag. Auch belletristische Verlage wie Klett-Cotta und Rowohlt präsentierten ab 1986 Literaturaufnahmen, die sie in eigenen Reihen anboten: „Literatur für Kopfhörer“ gab es bei Rowohlt, „Cottas Hörbühne“ repräsentierte Klett-Cotta. Während Rowohlt vor allem Ausschnitte aus zeitgenössischer Literatur, gelesen von bekannten Schauspielern, anbot, war „Cottas Hörbühne“ eine Möglichkeit der Zweitverwertung von Hörspielen, die ursprünglich für den SWF produziert worden waren. Erprobte man bei Rowohlt einen modernen Umgang mit Literatur, konzentrierte man sich bei Klett-Cotta wieder auf die ursprünglichste Funktion von Tonaufzeichnungen: das Speichern von Vergänglichem und damit Zugänglichmachen für weite Rezipientenkreise. Beide Versuche hatten keinen Erfolg, da die Produktionskosten nicht gedeckt werden konnten. 1987 präsentierte die Deutsche Grammophon ihre Reihe „Hörbuch“. Ähnlich wie bei Schumm sprechende Bücher ging man von den positiven Entwicklungen in den USA aus, die ‚audio books‘ als ungekürzte akustische Variante von gedruckten Büchern führten. Besonders die hohe Speicherkapazität von Kassetten wurde als förderlich erachtet, um ungekürzte Klassiker wie Madame Bovary, Die Wahlverwandtschaften, Berlin Alexanderplatz und Der Steppenwolf anzubieten. Insgesamt wurden in Kooperation mit dem NDR und teilweise alleine 28 Werke der Weltliteratur auf 400 Kassetten produziert.23

2.4 Digitalisierung Das Ende der „Kassetten-Ära“24 setzte bei der Deutschen Grammophon 1997 an. Seitdem werden die Titel auf CD veröffentlicht. Die CD war 1983 in Europa eingeführt worden und orientierte sich in ihrer Speicherkapazität an der Länge der Furtwängler-Aufnahme der 9. Sinfonie. Damit konnten zunächst 74 Minuten wiedergegeben werden, mittlerweile sind es bis zu 88 Minuten. Das digitale Aufzeichnungsverfahren hatte den Vorteil der geringeren Abnutzung. Der Laser liest die in Zahlenkombinationen übersetzten und in Form von Erhebungen auf-

22 Vgl. Schumm sprechende Bücher: Katalog. 23 Vgl. Rühr: Tondokumente, S. 93–96; Deutsche Grammophon: Geschichte. 24 Deutsche Grammophon: Geschichte.

Literatur im Hörbuch

205

gebrachten Toninformationen nahezu berührungslos ab. Wie bei den vorherigen Tonträgerwechseln gab es anfänglich vergleichbare Probleme: Die Klangqualität, die eigentlich das ausschlaggebende Argument für die CD sein sollte, war noch nicht zufriedenstellend und im Vergleich zur MC war die CD teurer und bot eine etwas geringere Speicherkapazität. Durch das Setzen von Tracks ließen sich allerdings Inhalte gezielt anspielen.25 Besonders der Aspekt der Ausdehnung des Wiedergabevolumens wurde weiter verbessert. Seit Mitte der 1990er Jahre bestehen zusätzliche Tonträger, die, zumindest kurzzeitig, auch für Hörbücher Verwendung fanden. Das MP3Verfahren, seit 1994 in standardisierter Form, verlängert die Speicherkapazität, indem Daten komprimiert und akustisch nicht wahrnehmbare Informationen entfernt werden. Die 1995 von Sony präsentierte Digital Versatile Disc, DVD, hat das siebenfache Fassungsvermögen einer CD. Das Klangerleben sollte mittels der Super Audio CD noch weiter gesteigert werden, und das aus dem Bereich der Hörbücher für Blinde bekannte DAISY-Format durch seine Zusatzfunktionen auch beim kommerziellen Hörbuch Vorteile wie besseres Ansteuern von Kapiteln bieten. Trotz dieser weiteren Tonträger wird im Hörbuchbereich nach wie vor in erster Linie die CD eingesetzt. Einige der Tonträger benötigen spezielle Abspielgeräte oder werden von Rezipienten nicht mit Hörbüchern in Verbindung gebracht. Dennoch ist die CD nicht konkurrenzlos: Seit 2004 gibt es HörbuchDownloadportale, die das Herunterladen von MP3-Dateien ermöglichen. Damit einher geht der Wunsch nach der bequemen Verfügbarkeit von akustischer Literatur, zumindest an Orten mit Internetzugang.26 Die Deutsche Grammophon konzentrierte sich bei ihren Titeln auf CD zunächst auf Aufnahmen aus ihrem Archiv. Klassiker der Weltliteratur standen damit im Vordergrund, sodass die dem „Literarischen Archiv“27 zugrunde liegende Idee einer „akustische[n] Handbibliothek der Weltliteratur“ realisiert werden konnte. Gleichzeitig gab und gibt es Neuproduktionen, und seit 2002 wird der Bereich an Sachliteratur und zeitgenössischer Literatur ausgebaut.28 Der Hörverlag, 1993 mit acht Gesellschaftern gegründet, präsentierte 1995 sein erstes Programm. Dabei setzte er auf anspruchsvolle Literatur im neuen Medium. Weitere Kriterien zur Aufnahme ins Programm waren der Bekanntheitsgrad von Autor und Werk und die hochwertige Umsetzung von Hörspielen durch Personen aus Radio, Fernsehen und Film.29 So wurde beispielsweise der erste

25 26 27 28 29

Vgl. Rühr: Tondokumente, S. 60 f. Vgl. Rühr: Tondokumente, S. 116–120 und S. 176–187. Deutsche Grammophon: Geschichte. Vgl. Rühr: Geschichte und Materialität, S. 102–104. Vgl. Der Hörverlag: „Qualität ist der beste Verkäufer“. München 1995, S. 2.

206

Sandra Rühr

Bestseller des Verlags, Sofies Welt, von Richard Hey als Hörspiel bearbeitet, Regie führte Hartmut Kirste, für die musikalische Umsetzung war Peter Zwetkoff verantwortlich und als Sprecher traten unter anderem Christoph Bantzer, Gunda Aurich, Matthias Habich und Peter Fitz auf. Die Titel wurden vorrangig auf MC angeboten. Im Katalog wurde dies damit erklärt, dass die MC die Gegenwart, die CD hingegen die Zukunft sei. Der Grund hierfür war die Hochpreisigkeit von CDAufnahmen. Der Preis für die MC-Ausgabe von Der Herr der Ringe lag 1995 bei 219 DM, die CD-Ausgabe kostete 268 DM.30 Der Hörverlag bereitete wesentliche Strukturen vor, die das heutige Hörbuchangebot charakterisieren: Neben Klassikern der Weltliteratur werden zeitgenössische Werke berücksichtigt wie der Erfolg mit den Harry Potter-Bänden zeigt. Einen wichtigen Stellenwert hat Lyrik inne, daneben Hörspiele, die aus den Archiven der Hörfunksender stammen und Originalproduktionen. Der 1999 gegründete Audio Verlag, ein Imprint der Aufbau-Verlagsgruppe, setzte das, was beim Hörverlag noch als in der Zukunft liegend erachtet worden war, konkret um: Dort präsentierte man das erste Programm komplett auf CD, um ein Gegengewicht zum mobilen MC-Konsum zu schaffen. Ähnlich wie anfänglich zwischen Schallplatte und MC gab es nun eine Differenzierung zwischen CD und MC: Die CD wurde mit dem genussvollen Hören von anspruchsvoller Literatur zu Hause verbunden, die MC hingegen erfüllte den Wunsch nach mobil rezipierter, kostengünstiger Unterhaltungsliteratur.31 Diese beiden Pole, allerdings nicht mehr festgemacht am Trägermedium, prägen die Hörbuchrezeption nach wie vor. Auf der einen Seite wird akustisch präsentierte Literatur neben der Verrichtung anderer Dinge gehört, was unter dem Schlagwort „double your time“ zusammengefasst wird, auf der anderen Seite gibt eine Vielzahl an Hörbuchrezipienten jedoch an, Hörbücher ausschließlich zu hören.32

3 Hörbücher als Formen sekundärer Oralität Im Feuilleton wurde bereits 2002 festgestellt: „Doch im Buchhandel behauptet sich die alte Mündlichkeit erst jetzt wieder – im Gewand des multimedialen 30 Vgl. ebd. S. 2 und S. 15. Hieran zeigt sich jedoch auch, dass Hörbücher, verglichen mit der heutigen Preisstruktur, generell teuer waren. 31 Vgl. Christen, Jürgen: „Ein sperriges Medium“. In: BuchMarkt. Das Ideenmagazin für den Buchhandel 34 (1999) Nr. 7, S. 120. 32 Vgl. Rühr: Tondokumente, S. 347–351.

Literatur im Hörbuch

207

Rauschens mit neuer Kraft.“33 Im Feuilleton wie in der wissenschaftlicher Analyse – etwa in Korinna Janz-Peschkes Darstellung von Mündlichkeit im Hörbuch –34 wird also im Hörbuch eine neue Form der Mündlichkeit erkannt. Doch worin unterscheiden sich alte und neue Mündlichkeit? Diese Differenzierung geht auf Walter J. Ong zurück. Er sprach mit Aufkommen technologischer Neuerungen wie Telefon, Radio und Fernsehen von der so genannten sekundären Oralität. Dabei handelt es sich um die elektronisch gestützte Wiedergabe von Sprache, die vor ihrer Reproduktion jedoch schriftlich fixiert werden musste.35 Dass zunächst von primärer, dann von sekundärer Oralität die Rede ist, verdeutlicht die Bezugnahme aufeinander: Sekundäre Oralität baut auf der vorherigen Form auf und fügt ihr Neues hinzu. Primäre Oralität zeichnet sich durch die folgenden Merkmale aus: Kollektivismus, Körperlichkeit, Originalität und Charakterskizze. Orale Kulturen waren auf das Gegenüber von Redner und Publikum angewiesen. Der Redner memoriert das Gedachte, der Zuhörer „vervollständigt“ es, indem er es rezipiert und weitererzählt. „Das gesprochene Wort verwandelt menschliche Wesen in zusammengehörige Gruppen. Wenn sich ein Redner an ein Publikum wendet, dann bilden die Zuhörer normalerweise eine Einheit, untereinander und mit dem Redner.“36 Jeder Redner zeichnete sich durch eine individuelle Präsentation von bekannten Themen und das Integrieren neuer Materialien aus. „Originalität zeigt sich nicht im Erfinden von neuem Material, sondern in der Anpassung traditioneller Materialien an die individuelle, einzigartige Situation und/oder das Publikum.“37 Bei der primären Oralität wurden vor allem idealtypische Charaktere präsentiert, solche, deren Handeln der Zuhörer nachvollziehen konnte. Dies ändert sich mit der Einführung des Buchdrucks. Der „runde“ Charakter, der sehr realistisch abgebildet wurde, entstand.38 Übertragen auf das Hörbuch zeigt sich, wie sich diese Kriterien verändern: Kollektivität wandelt sich in kollektive Einsamkeit. Körperlichkeit wird zu Stimmklang, Originalität steht der Bearbeitung gegenüber und die Charakterskizze verändert sich in die variantenreiche Charakterzeichnung.39

33 Scherer, Sigrid: „Beim Putzen ‚Effie Briest‘“. In: Die Zeit 57 (2002) Nr. 11, S. 24. 34 Janz-Peschke, Korinna: „Hörbuch und Mündlichkeit“. In: Häusermann u. a.: Hörbuch, S. 233–347. 35 Vgl. Ong, Walter J.: Oralität und Literalität. Die Technologisierung des Wortes. Opladen 1987, S. 18. 36 Ebd., S. 77. 37 Ebd., S. 64. 38 Vgl. ebd., S. 150. 39 Um den Punkt „variantenreiche Charakterzeichnung“ belegen zu können, wäre eine detaillierte Hörbuchanalyse notwendig, die an dieser Stelle nicht erfolgen kann. Wie sich jedoch die Darstellung der Hauptfigur allein durch die Inszenierung als Lesung oder Hörspiel

208

Sandra Rühr

3.1 Kollektive Einsamkeit Beim Hören von Hörbüchern handelt es sich nicht um ein kollektives Erlebnis. Stattdessen werden Hörbücher üblicherweise alleine rezipiert. Gleichzeitig wendet sich das einzelne Hörbuch an eine zahlenmäßig nicht näher bestimmte Masse. Diese wiederum ist heterogen und verstreut. Jeder einzelne Hörer geht mit individuellen Voraussetzungen an das Hörbuch heran, passt es an seine Erwartungen und Wünsche an und integriert es in sein Wissensgefüge. Damit wird die kollektiv hörende Masse mit identischen Empfindungen obsolet. Wie lässt sich trotz räumlicher Trennung analog zu einstigen homerischen Gesängen eine Nähe zwischen Sprecher und Hörer aufbauen? Hierzu sind Überlegungen aus der Anfangsphase des Radios hilfreich. Um eine Verbindung zwischen „dem einsamen Darsteller im Senderaum und dem einsamen Hörer“40 herstellen zu können, wurde die Relevanz des Mikrophons erkannt. Dieses repräsentierte das Ohr des Hörers. Damit sollte im Radiosprecher die Vorstellung geweckt werden, dass er nicht isoliert im Aufnahmeraum ist, sondern dass er das kollektive Ohr einer Masse vor sich hat, zu der er spricht. Das Mikrophon als Bindeglied zwischen Sprecher und Hörer verlangt allerdings eine andere Art und Weise zu sprechen als es die freie Rede erlaubt. Wo ein Homer seine Epen lautstark vortrug oder ein Gustaf Gründgens auf der Theaterbühne deklamierte, ist mit dem Mikrophon eine stärker nuancierte Sprechweise notwendig, da es alle Klanginformationen verstärkt und damit sensibel für eigentlich ungewollte Nebengeräusche ist. Dies ist einerseits ein hemmender Faktor beim Sprechen, andererseits ist hiermit jedoch eine Form der Interaktion, ein Spielen mit den technologischen Mitteln möglich.41 Damit auch der Hörer das Gefühl der Einsamkeit überwinden kann, lässt sich dies auf Lautsprecher und Kopfhörer über-

verändern kann, zeigen zwei Versionen von Berlin Alexanderplatz. Die Hörspielversion, 2007 von Patmos herausgegeben, basiert auf Alfred Döblins Funktyposkript aus dem Jahr 1930. Dieses stellt die akustische Übersetzung des ein Jahr zuvor erschienenen Romans dar. Die Vielschichtigkeit der äußeren Einflüsse auf die Hauptfigur Franz Biberkopf kommt hier zum Ausdruck. Bei der Lesung, 2003 ebenfalls von Patmos herausgegeben, geht es um die Fokussierung einer geradlinig erzählten Geschichte. Biberkopf, gelesen von Ben Becker, der die Figur auch am Maxim Gorki Theater gespielt hatte, verschmilzt mit dem Sprecher und den anderen Figuren. Dadurch kommt es zu einer Verschiebung, die der Figur zugesprochen wird. 40 Gethmann, Daniel: „Technologie der Vereinzelung“. In: Sound. Zur Technologie und Ästhetik des Akustischen in den Medien. Hg. von Harro Sägeberg und Frank Schätzlein. Marburg 2005, S. 253. 41 Schnickmann, Tilla: „Vom Sprach- zum Sprechkunstwerk. Die Stimme im Hörbuch: Literaturverlust oder Sinnlichkeitsgewinn?“ In: Das Hörbuch – Stimme und Inszenierung. Hg. von Ursula Rautenberg. Wiesbaden 2007, S. 39.

Literatur im Hörbuch

209

tragen: Hieraus empfängt der Zuhörer die Stimme, die zu ihm spricht, er ist nicht allein.

3.2 Stimmklang Die Stimme, die der Hörer vernimmt, muss zugleich die abwesende Person, die sie repräsentiert, ersetzen. Das gelingt, indem aus der Stimme Alter und Geschlecht herauszuhören sind. Andere Informationen wie bestimmte körperliche Merkmale lassen sich nur bedingt übersetzen. So verdeutlicht die Stimme, ob es eine Zahnfehlstellung gibt oder ob es sich um eine beleibte Person handelt. Gesundheitliche Aspekte und Gewohnheiten sind am ehesten in Negativausprägungen vernehmbar. So kann man vielleicht hören, ob es sich bei der sprechenden Person um einen Raucher handelt, ob die Person heiser ist oder unter Kurzatmigkeit leidet. Über die Stimme werden Herkunft des Sprechers und seine Gefühle deutlich. „Die Stimme ist ein ‚index mentis‘ und Abbildungssystem individueller Persönlichkeitsmerkmale. Sie vereint abstrakte lexikalische Botschaften mit intimen Informationen über einen Menschen.“42 Die Stimme ist damit in der Lage, Körperlichkeit zu transportieren. Zugleich muss sie jedoch alles, was eine Person mittels Mimik und Gestik ausdrücken kann, in Stimmklang übersetzen. Hierfür stehen Tonhöhe, Lautstärke, Klangfarbe, Tempo und Modulation zur Verfügung. Ihr Zusammenspiel steht für ein spezifisches Stimmklangrepertoire.

3.3 Bearbeitung Geht man von der augenfälligsten Definition des Hörbuchs aus, so übersetzt es schriftsprachliche Elemente einer gedruckten Buchvorlage in akustische Zeichen. Der Leser wird zum Hörer. Schon dieser Wechsel setzt gewisse Anpassungen an die medialen Gegebenheiten des Hörbuchs voraus. Technologische, ökonomische, inhaltliche und rezipientenbezogene Aspekte bedingen einander wechselseitig, sodass folgende Fragestellungen relevant werden: Auf welche Länge käme das Hörbuch, wenn es als Komplettfassung produziert werden würde? Welche Produktionskosten ergeben sich daraus und wie muss der Verkaufspreis kalkuliert werden? Diese Fragen hängen eng damit zusammen, auf welches Speichermedium die akustische Version aufgebracht wird. Je nach Spei-

42 Ebd., S. 26 f.

210

Sandra Rühr

cherkapazität werden somit mehr oder weniger Trägermedien notwendig. Sind die Kosten zu hoch, sind Kürzungen unausweichlich. Diese sind auch dann notwendig, wenn Handlungsstränge für den Zuhörprozess zu kompliziert sind. Welche Textteile lassen sich somit streichen oder leicht umändern, sodass weder die Geschichte noch der Verstehensprozess des Zuhörers darunter leiden? Nicht jede ausführliche Landschaftsbeschreibung entfaltet ihre Wirkkraft auch im akustischen Medium, nicht jede Nebenhandlung ist tatsächlich für den Nachvollzug der Handlung unabdingbar.43 In produktionstechnischer Hinsicht stehen beim Bearbeitungsprozess mehrere Grundüberlegungen im Vordergrund: Baut das Hörbuch auf einer bestehenden medialen Grundlage auf? Welche Präsentationsweise soll gewählt werden? Die Lesung wird vor allem dann eingesetzt, wenn das zugrunde liegende Werk möglichst unverändert zum Ausdruck kommen soll. Zugleich ist die Lesung im Vergleich zum Hörspiel kostengünstiger. Wird das Hörbuch ungekürzt oder gekürzt produziert? Hier wird entschieden, ob eher die Sprache oder die Handlung im Vordergrund stehen. Oftmals erlauben Autoren das Kürzen ihrer Werke nicht. Wer soll das Hörbuch einlesen: ein Schauspieler oder der Autor selbst? Der Schauspieler ist in der Lage, durch seine ausgebildete Stimme weitere Dimensionen in die Geschichte zu legen, der Autor aber verleiht seinem Werk eine persönliche Note. Ist ein Filmstar oder ein Bühnenkünstler zu wählen? Erstere sind oftmals durch ihre Medienpräsenz bekannter, Bühnenkünstler können dem Text literarische Tiefe verleihen. Die Frage danach, ob ein oder mehrere Sprecher lesen sollen, hängt von der Vielschichtigkeit der zugrunde liegenden Handlung ab. Der Sprecher muss der gewählten Erzählperspektive entsprechen.44 Das Hörbuch ist jedoch auch in der Lage, andere mediale Inhalte zu transportieren. Damit dies optimal gelingen kann, reicht es nicht, den zugrunde liegenden Inhalt von einem ins andere Medium zu übertragen, sondern die jeweiligen medienspezifischen Besonderheiten sind zu berücksichtigen. Funktioniert damit die Präsentation eines Filmklassikers wie Das Boot in der akustischen Version? Lässt sich die zugrunde liegende Intention transportieren oder geht sie mit dem Wechsel ins andere Medium verloren?45

43 Vgl. Häusermann, Jürg: „Zur inhaltlichen Analyse von Hörbüchern“. In: Häusermann u. a.: Hörbuch, S. 177–183. 44 Ich beziehe mich hier auf die Punkte, die Stephanie Häger, zuständig für Rechte und Lizenzen, während ihres Vortrags Von Künstlern und Piraten. Die Rechtssituation im Hörbuchmarkt im Rahmen der Vortragsreihe „Alles Buch“, Alles was Recht ist, Januar 2011 der Erlanger Buchwissenschaft genannt hat (online-Version: www.alles-buch.uni-erlangen.de/ AllesBuch/43_ruehr.pdf, S. 46 f.). 45 Vgl. hierzu ausführlich: Schwethelm: Bücher zum Hören, S. 27–63.

Literatur im Hörbuch

211

4 Diskurs Auch wenn die Möglichkeit des Nebenbeikonsums zu Beginn der Etablierung der Hörbuchreihe der Deutschen Grammophon noch gar nicht im Vordergrund stand, fand eine kritische Auseinandersetzung damit statt. Im Börsenblatt für den Deutschen Buchhandel vertrat Alexander Schmitz eine kritische Meinung, die sich bereits im Titel des Beitrags ankündigte: Bücher zum (Weg)Hören.46 Seine weiteren Ausführungen sind nicht minder wertend. Er sieht den kulturellen Verfall, da seiner Meinung nach die hörende Aneignung von Literatur nicht in Frage komme und da sich die Einführung der Reihe Hörbuch in den generellen Trend des schnellen und kurzlebigen Konsums einfüge: […] das allerneueste Ungemach, das Bibliophilen drohen kann, das sogenannte ‚Hörbuch‘. Und dieser Erfindung liegt die vage Spekulation zugrunde, dass ein mündiger deutscher Kulturbürger selbstverständlich eher neun Kassetten, sprich: zwölf Stunden lang Döblins ‚Berlin Alexanderplatz‘ zu hören, jawohl: zu hören bereit sei, als sich das Werk gedruckt zu kaufen und zu lesen. […] Heute, mittendrin in einer Gesellschaft, die durch eine perfekt funktionierende Appetizerindustrie vorderhand dem schnellen Konsum huldigt und an ihm ihren Wohlstand mißt, ist schon längst jede audiovisuelle Information zur leichtverderblichen Ware verkommen[.]47

Auch beim Hörverlag war man mit Vorurteilen konfrontiert. Gegner sahen in Hörbüchern das Ende der Lesekultur und verorteten das Medium bei blinden oder faulen Personen sowie bei Analphabeten.48 Wie aber regierte das Feuilleton auf die Entwicklung? Wie begegnete man dort dem Hörbuch?

4.1 Das Hörbuch im Feuilleton 4.1.1 Akustische Literatur als Kunst? Bedingt durch weitere Marktteilnehmer innerhalb des Hörbuchsegments, die Einführung der Hörbuch-Bestenliste und die Gründung der Arbeitsgemeinschaft Hörbuchverlage zeichnete sich ab, dass das Hörbuch eine zunehmende Relevanz erfuhr. Dies lässt sich auch an der gesteigerten Auseinandersetzung im Feuilleton

46 Schmitz, Alexander: „Bücher zum (Weg-)Hören“. In: Börsenblatt für den Deutschen Buchhandel 154 (1987) Nr. 53, S. 1882. 47 Ebd., S. 1883. 48 Ernst-Motz, Antje: „Das Potenzial ist riesig“. In: Wirtschaft. Das IHK Magazin für München und Oberbayern 59 (2003) Nr. 11, S. 46.

212

Sandra Rühr

ab Ende der 1990er Jahre ablesen. Zumeist handelte es sich dabei um Rezensionen, die jedoch erkennen lassen, welche Möglichkeiten und zugleich welche Probleme in der akustischen Literaturvermittlung gesehen wurden. Wollschläger benennt das erste Manko, die begriffliche Nähe zum gedruckten Buch, die das Hörbuch in eine gewisse Abhängigkeit drängt und es zum bloßen Zweitverwertungsorgan bestimmt: „Dass sich Hörbücher seit gut zehn Jahren immer besser verkaufen, liegt bestimmt nicht am Namen. Bücher zum Hören? Wer, der selbst lesen kann, braucht das schon?“49 In einem anderen Artikel wurde gemutmaßt, dass sich der Hörverlag nur aus diesem Grund eine andere Bezeichnung für Hörbücher einfallen ließ. Doch die englische Übersetzung Audiobooks klingt zwar modern, kann jedoch die Nähe zum Buch nicht leugnen. Dies umso weniger, als in den Programmvorschauen damals wie heute mit dem Bezug zur Buchvorlage geworben wird.50 Damit einher geht die nächste Assoziation vom vorgelesenen Buch, was die Bandbreite des Hörbuchs auf Lesungen beschränkt. Die Rezensionen verdeutlichen jedoch, dass es mehr akustische Inszenierungsmöglichkeiten gibt und dass die gedruckte Buchvorlage durch die sprecherische Interpretation eine zusätzliche Dimension gewinnen kann. Die Einbettung historischer Tondokumente in moderne Hörbuchproduktionen zeigt, dass die Geschichte des Hörbuchs älter ist als in der Regel angenommen. Dass das hörende Aneignen von Literatur ein sinnliches Erlebnis sein kann, wurde zunächst nicht anerkannt. Stattdessen sah man in Hörbüchern Bücher für Dumme und Lesefaule51 und titulierte das Medium als „Totengräber des Buches“.52 Erst allmählich wurde die besondere Leistung des Hörbuchsprechers gesehen, indem Namen wie Gert Westphal oder Rufus Beck herausgestellt wurden: „Wer sich der Stimme etwa eines Gert Westphal, Rufus Beck oder Ulrich

49 Wollowski, Sabine: Was sprechen sagen kann, 2001. www.yasni.de/ext.php?url=http%3A% 2F%2Fwww.freitag.de%2F2001%2F36%2F01361402.php&name=Jochen+Geers&cat=news (Stand: 14.12.2010). Vgl. auch: Ungerer, Klaus: „Hör zu, zahl drauf“. In: Frankfurter Allgemeine. Zeitung 51 (1999) Nr. 237, S. 57. 50 Vgl. Ungerer, Klaus: „Ein Medium sucht sich selbst“. In: Frankfurter Allgemeine Zeitung 51 (1999) Nr. 195, S. 46. Der Bezug zur Buchvorlage wird vor allem dann hergestellt, wenn diese oder Vorgängerwerke bereits erfolgreich waren: „Wochenlang auf den Spiegel-Bestsellerlisten“ oder wenn es darum geht, den Inhalt zu charakterisieren: „Spannend, emotional, atmosphärisch dicht.“ Vgl. Lübbe Audio: „Jedem seine Welt“. Köln 2010, S. 3 u. S. 19. 51 Vgl. Wollowski, Sabine: Mehr als Bücher für Faule, 2001. www.freitag.de/kultur/0114allgemeinen-trend (Stand: 14.12.2010) und Schmitz, Rainer: „Balsam für die Ohren“. In: Focus. Das moderne Wochenmagazin 11 (2003) H. 16, S. 74. 52 Ernst-Motz, Antje: „Double your time“. In: Wirtschaft. Das IHK-Journal für München und Oberbayern. 54 (1998), H. 2, S. 66.

Literatur im Hörbuch

213

Matthes überlässt, dem öffnen die intonierten Buchstaben und Silben, die Melodie und der Rhythmus des Erzählstroms eine ganze Welt.“53 Westphal und Beck werden hier nicht ohne Grund genannt: Westphal als „Vorleser der Nation“ und Beck als Stimmenimitator der Harry Potter-Figuren. Damit kommen zwei wesentliche Faktoren des Hörbuchs zusammen: Sprechkunst und Tradition auf der einen Seite sowie Sprechkunst in Verbindung mit kommerziellem Erfolg auf der anderen. Mit der Wahl des Sprechers geht zugleich die Entscheidung für oder gegen die eigens vom Autor gelesene Version einher. Die authentische und möglicherweise intensivere Leseweise des Autors steht dabei einer in der Regel größeren sprechkünstlerischen Ausdrucksvarianz gegenüber. Gleichwohl erschafft das Hörbuch durch die stimmliche Ausgestaltung des Sprechers eine innere Bühne – ein Schlagwort, das bereits im Zusammenhang mit dem Hörspiel des Radios thematisiert worden war. Deren Entstehung wird noch dadurch begünstigt, dass die Aufnahme der gesprochenen Sprache mehr Zeit benötigt als die lesende Aneignung von Literatur, sodass ein „literarischer Tagtraum“54 entstehen kann. Trotz oder gerade wegen des Sprechers wurde als kritisch erachtet, dass dieser nur so tat „als ob“. Er wahrte den Schein, dass hier eine reale Person etwas stimmlich intoniert, in Wahrheit jedoch handelt es sich um die konservierte Stimme.55 Der kritischen Haltung begegneten die Hörbuchanbieter selbstbewusst. Um die Eigenständigkeit des Mediums zu betonen, wurde Bernd Plagemann von der Deutschen Grammophon sinngemäß zitiert, dass er keine Inhalte von Büchern, sondern eine neue Dimension der Gestaltung verkaufe.56 In eine ähnliche Richtung gehen die Ausführungen Schlaffers, die Hörbüchern eine spezifische Wirkungsintensität zugesteht und sogar davon ausgeht, dass Hörbücher in der Lage seien, Literatur generell zu verändern: Der Bildungsbürger – konservativ, wie er ist – neigt dazu, die Übersetzung von Literatur in ein akustisches Medium gering zu achten. Tatsächlich aber macht sie erst so recht bewusst, dass der Klang eines der wichtigsten Genussmittel ist, die dem geschriebenen Wort und jedem gedichteten zur Steigerung seiner Wirkung auf den Leser zur Verfügung stehen. Das Medium Hörbuch selbst erlaubt eine lustvolle Einstellung dem Ernst der Literatur gegenüber. Wie man sich zu Beginn der massenhaften Romanproduktion endlich beim Lesen auf dem Sofa ausstrecken konnte, so lockert sich nun auch durch das Hörbuch die Lesehaltung: Das Sich-Fallen-Lassen in den Text befördert es noch mehr als das Buch. […] Das

53 Schmitz: Balsam für die Ohren, S. 74. 54 Schlaffer, Hannelore: „Stephen King ist nicht gerade ein Schlummerlied“. In: Frankfurter Allgemeine Zeitung 54 (2002) Nr. 9, S. 48. 55 Vgl. Schlaffer: Stephen King, S. 48. 56 Vgl. Theobald, Willy: „Faust im Fond“. In: Manager Magazin 23 (1993) H. 6, S. 249.

214

Sandra Rühr

Hörbuch wird, wenn sein Markt weiterhin so wächst, den Stil der geschriebenen Literatur verändern.57

Die Kritik, die dem Hörbuch entgegengebracht wurde, war eine generelle Abwehrhaltung gegenüber dem neuen Medium. Sie bezog sich nicht auf die Tatsache des Digitalisierens von Literatur.

4.1.2 Technik-Determinismus? Die Fürsprecher des Hörbuchs erkannten an, dass dessen Etablierung erst durch technologische Entwicklungen begünstigt worden sei: „Schallplatten und Magnetkassetten weichen den leicht handhabbaren CDs und speicherintensiven Formaten.“58 2002 schien die Digitalisierung von Literatur vollzogen, da seitdem Hörbücher mit dem Trägermedium CD gleichgesetzt wurden. Deren Speicherkapazität bedingte jedoch häufig gekürzte Versionen der Buchvorlage, was als „amputierte Version des Buches“59 erachtet wurde. Eine positive Lesart des Kürzens sah darin die Möglichkeit, Literatur auf das Prägnante hin festzuschreiben. Die damit einhergehende Loslösung von der gedruckten Vorlage hatte jedoch zur Folge, dass nicht alle paratextuellen Möglichkeiten, die dem Buch innewohnen, für das Hörbuch übernommen wurden: Überschriften oder auch Zusammenfassungen von ausgelassenen Textstellen ebenso wie Kommentare fanden sich im so genannten Hörkunstwerk eher nicht.60 Gleichzeitig bewog dies Hörbuchverlage wie den Hörverlag dazu, alte Schallplatten- und MC-Aufnahmen zu digitalisieren, um sie aus den Hörfunkarchiven heraus wieder zugänglich machen zu können. Die Digitalisierung ermöglichte so eine Wiederbelebung der Stimmen aus der Vergangenheit.61 Technologische Faktoren beförderten auch den so genannten double-your-time-Effekt. Die Möglichkeit, mittels miniaturisierter und mobiler Gerätschaften unterwegs und neben dem Verrichten anderer Tätigkeiten Literatur zu rezipieren, wurde als entschei-

57 Schlaffer, Hannelore: Revolution im Ohr, 2002. www.nzz.ch/2002/09/04/fe/article89U2D. html (Stand: 22.12.2010). 58 Ebd. 59 O.V.: Gegen den Branchen-Trend – Der Hörbuchmarkt wächst stetig, 2002. www.lvz-online. de/sup_print-html (Stand: 04.11.2002). Vgl. hierzu auch: Hieber, Jochen: „Die Zweitverwertung“. In: Frankfurter Allgemeine. Zeitung 53 (2001) Nr. 113, S. 59. 60 Vgl. Schlaffer: Stephen King, S. 48. 61 Vgl. Ernst-Motz: Double your time, S. 66.

Literatur im Hörbuch

215

dender Vorteil des Hörbuchs erachtet. Dieses Phänomen wird mit Schlagwörtern wie „zeitsouveräne[s] Verhalten“62 oder „[d]oppelte Zeit“63 umschrieben. Eine eher kulturpessimistische Haltung gegenüber dem Hörbuch lässt sich am Rückblick auf eine Tagung im Jahr 2010 in Bochum feststellen. Der Vortragstitel des Referenten Manfred Schneider, Lyrik im Zeitalter des Ohrschnullers auf der Tagung Die Matrix des Hörbuches verdeutlicht eine negative Einstellung gegenüber der Möglichkeit des mobilen Hörens mittels MP3-Playern. Hörbuchhören sei vor allem „akustische[r] Eskapismus“,64 das Einlassen auf Literatur gehe damit verloren. Unter Bezugnahme auf konkrete Titel bezeichnete Schneider Hörbücher als „Popmusikliteratur“.65 Von Musik untermalte Lyrik auf CD, zu erwerben als Hörbuch, sei die seichte Variante von Literatur. Eine solche literaturwissenschaftliche Geringschätzung des Hörbuchs, auch noch 2010, kommt unerwartet. Handelt es sich hierbei um eine verbreitete Sichtweise? Teilen andere Germanisten diese Ansicht? Die angesprochene Tagung zeugt eher vom Gegenteil. Erklärtes Ziel war „das Hörbuch als einen spezifisch medialen Ort zu identifizieren, an dem sich in der Literatur der Gegenwart komplexe Beziehungsverhältnisse und Hybridformen zwischen den beiden Medien, Schrift und Mündlichkeit aufzeigen und historisch kontextualisieren lassen.“66

4.2 Das Hörbuch in der Literaturwissenschaft Wie Literaturwissenschaftler mit der stärkeren Aufmerksamkeit, die dem Hörbuch ab Ende der 1990er Jahre entgegengebracht wurde, umgingen, zeigt der Band mit dem Titel Allgemeine Literaturwissenschaft – Grundfragen einer besonderen Disziplin aus dem Jahr 2001. Rüdiger Zymner setzt sich darin mit dem akustischen Medium auseinander. Er stellt eingangs die Frage, wie Literatur tradiert werde und beantwortet diese damit, dass literarische Tradierung in erster Linie lesend erfolge, seit einiger Zeit jedoch zunehmend durch das „Lesen Hören.“67 Dem

62 Schäfer, Barbara: „Ungetrübter Ohrenschmaus“. In: Spiegel Special 1 (2002) H. 4, S. 140. 63 Siedenberg, Sven: „Doppelte Zeit“. In: Der Spiegel 53 (1999) H. 47, S. 310. 64 Jungen, Oliver: „Neo-Oralität“. In: Frankfurter Allgemeine Zeitung 62 (2010) Nr. 292, S. N 3. 65 Ebd., S. N 3. 66 Epping-Jäger, Cornelia: Konferenz. Die Matrix des Hörbuches, 2010. hsozkult.geschichte.huberlin.de/termine/id=15267 (Stand: 23.12.2010). 67 Zymner, Rüdiger: „Lesen hören“. In: Allgemeine Literaturwissenschaft – Grundfragen einer besonderen Disziplin (Allgemeine Literaturwissenschaft – Wuppertaler Schriften 1). Hg. von Rüdiger Zymner. 2., durchges. Aufl. Berlin 2001, S. 208.

216

Sandra Rühr

„Verfall grundlegender Kulturtechniken“68 durch das Hörbuch widerspricht Zymner. Vielmehr sieht er die Möglichkeit, dass die Rezeption von Hörbüchern eine Form kulturellen Zugangs neben Buch oder Theater sein könne. Die Funktionen des Hörbuchs sind seiner Meinung nach vielfältig: „Das Hörbuch ist eine Form des Umgangs mit Literatur, eine Form ihrer […] Auswahl, eine Form ihrer […] Produktion, ihrer […] Interpretation, ihrer […] Rezeption sowie ihrer Vermarktung als ‚event‘ einer Medien-Popkultur. Nicht zuletzt wird mit Hörbüchern eben auch ‚herkömmliche‘ Literatur sozusagen im neuen Gewand tradiert […].“69 Damit ist das Hörbuch in der Lage, der Tradition des mündlichen Vortrags zu folgen, muss sich aber gleichzeitig technologischen Bedingungen unterordnen. Diese bedingen eine Reihe von Nachteilen. So hat der Hörbuchsprecher gerade kein anwesendes Publikum um sich versammelt, sondern bei den Hörern handelt es sich um vereinzelte Personen, die sich nicht zu einer identischen Masse zusammenfassen lassen, weshalb die Rede vom dispersen Publikum ist. Die Möglichkeit, überall und jederzeit zu hören, führt außerdem dazu, dass die Auseinandersetzung mit Literatur weniger tiefgründig ist. Stattdessen findet allgegenwärtig eine „Beschallung mit Hör-Literatur“70 statt. Nach Meinung Zymners gibt es bei Hörbüchern Abweichungen von der Buchvorlage, unsauberes Einlesen und Kürzungen, was ihn zu Äußerungen wie „Schrumpfbuch“71 und „Fast-Food-Hörbuch“72 veranlasst. Besonders das Herausstellen des Sprechers von Seiten der Hörbuchanbieter empfindet er als Herabwürdigung von Literatur. Die Inszenierung durch den in der Regel bekannten Sprecher macht die Textgrundlage zum Nebenprodukt. Eine solche „defizitäre Vermittlung durch das Hörbuch“73 sei nun Grund für Kulturpessimisten, gleichzeitig macht Zymner darauf aufmerksam, dass diese so genannten Substanzveränderungen in literaturhistorischer Perspektive gängig waren. Das Hörbuch übersetzt lediglich etablierte Klassiker und Bestseller in akustische Zeichen. Neue Möglichkeiten in künstlerischer Hinsicht werden damit (noch) nicht erprobt. Dennoch lässt das Hörbuch „die Teilhabe an dieser mainstream-Kultur [zu], ohne […] den Preis anstrengender lesender Aneignung von Literatur bezahlen [zu müssen].“74 Literaturkonsum wird somit leicht gemacht, man muss nicht selbst lesen, sondern der Sprecher, der „ghost reader“75, über-

68 69 70 71 72 73 74 75

Ebd., S. 209. Ebd., S. 210. Ebd., S. 211. Ebd. Ebd. Ebd., S. 213. Ebd., S. 214. Ebd., S. 215.

Literatur im Hörbuch

217

nimmt dies. Das Fazit Zymners ist ernüchternd: Hörbücher seien „Literatur light“.76 Ob sie in der Lage sind, Literatur zu tradieren, darauf möchte er sich nicht festlegen lassen. In eine gänzlich andere Richtung geht Katja Hachenberg, die zwar zunächst eine Nähe zum gedruckten Buch herstellt, indem sie Hörbücher als akustische Bücher bezeichnet. Zugleich liegt ihr Fokus jedoch auf der Stimme als wesentlichem Element, was eine stärkere Emanzipation vom Buch zulässt. Im Gegensatz zu Zymner wird hier der Stimme des Sprechers eine besondere klangliche Qualität zugesprochen. Sie ist nicht Teil eines „ghost readers“, sondern Übermittlerin verschiedenster akustischer Informationen wie Lautstärke, Klangfarbe, Sprechduktus und -geschwindigkeit, Rhythmus und Deutlichkeit. „Im Hörbuch gewinnt Sprache qua Stimmlichkeit als ‚verkörperte‘ Sprache Gestalt. ‚Verkörperte Sprache‘ wiederum ist in ihrem unauflöslichen Bezug zur Mündlichkeit und zu den die Mündlichkeit auszeichnenden Merkmale zu beschreiben.“77 Damit kommt es mit dem Hörbuch zu einem Mehrwert, wie Doris Moser feststellt. Dieser Mehrwert führt allerdings zugleich dazu, dass Hörbuchrezeption mitnichten die leichtere Variante gegenüber dem Lesen darstellt, müssen doch variable flüchtige Informationen zugleich decodiert werden.78 Den bei Zynmer als Substanzveränderung beschriebenen Medienwechsel fasst Hachenberg genauer. Ohne ein Werturteil abzugeben, stellt sie die Veränderungen beim Übergang von geschriebener in akustische Literatur dar: In dieser Transformation, in diesem Prozess der Umwandlung und Übertragung, vermischen sich mediale Wechsel verschiedenster Art: Visuelles wird umgesetzt in Auditives, Schriftlichkeit in […] Mündlichkeit, optisch zu lesende geschriebene in akustisch zu ‚lesende‘ gesprochene Textualität, die Zweidimensionalität der Buchseite in die Mehrdimensionalität des Stimm- und Hörraums, das Statische des gedruckten in die Dynamik des stimmlich entfalteten und rhythmisierten Textes.79

Moser bezieht hierbei eindeutig Stellung, indem sie Buch und Hörbuch als ein Sowohl als auch von Literatur sieht.80

76 Ebd. 77 Hachenberg, Katja: „Hörbuch. Überlegungen zu Ästhetik und Medialität akustischer Bücher.“ In: Der Deutschunterricht 20 (2004) H. 4, S. 32. 78 Vgl. Moser, Doris: „Bonustrack, oder Warum das Hörbuch kein Literaturkiller ist“. In: Informationen zur Deutschdidaktik. Zeitschrift für den Deutschunterricht in Wissenschaft und Schule 32 (2008) H. 1, S. 76 f. und S. 80. 79 Hachenberg: Hörbuch, Überlegungen, S. 35. Der angedeutete Bezug zur sekundären Oralität wird in Kapitel 4 vertieft. 80 Vgl. Moser: Bonustrack, S. 84.

218

Sandra Rühr

Einen weiteren Aspekt spricht Gerd Ueding an, indem er davon ausgeht, dass durch das Hörbuch Weltliteratur re-oralisiert sowie zugleich neu aufbereitet und damit teilweise überhaupt wieder zugänglich gemacht werde: Wie Dante auf seinem Weg durch die Hölle zum Paradies des Führers Vergil, dann der Leiterin Beatrice bedarf, so brauchen auch wir den Vermittler, der uns die zu Schatten ihrer selbst verblassten Großwerke der Weltliteratur in akustisch frischer, lebendiger Gestalt vorführt, sie erneut zum Sprechen bringt.81

5 Das Hörbuch: kein Anlass für Kulturpessimisten Als das Hörbuch durch die eigene Reihe der Deutschen Grammophon eine Bezeichnung erhielt und Einzug in den Buchhandel fand, wurde kultureller Verfall und ein Ende des gedruckten Buchs befürchtet. Nach der zunehmenden Etablierung des Hörbuchs Ende der 1990er Jahre und Anfang des neuen Jahrtausends, erkannte man zugleich auch dessen Potential. Dass das Hörbuch nicht allein auf das „Buch zum Hören“ zu reduzieren ist, wurde in diesem Beitrag gezeigt. Dieses akustische Medium kann und will keine Eins-zu-eins-Kopie des gedruckten Buchs sein, sondern übersetzt buchnahe und andere Inhalte im besten Falle medienspezifisch. Es erfüllt damit andere nutzerseitige Erwartungen als das Buch, sodass ein Nebeneinander beider Medien möglich ist. Das Hörbuch hat das gedruckte Buch nicht verdrängt, sein Umsatzanteil am Gesamtbuchmarkt liegt nach wie vor lediglich bei knapp vier Prozent. Das Hörbuch und seine weitere Entwicklung sind abhängig von den Möglichkeiten der Tonaufzeichnung. Diese nahmen ihren Anfang im Jahr 1877 mit Erfindung des Phonographen. Vom analogen Aufschreibemechanismus ging es über das Magnettonverfahren zur Digitalisierung. Die technologischen Bedingungen beeinflussten die Möglichkeiten zur Präsentation literarischer Inhalte. Die Einbettung in die Geschichte der Tonaufzeichnung zeigt jedoch auch, dass die Vorläufer des Hörbuchs als Speichermedien von äußeren Begebenheiten konzipiert waren. Erst allmählich wurden sie auch als Chance gesehen, Inhalte anderer Medien zu dokumentieren. Obwohl mit der stärkeren Durchsetzung des Hörbuchs zu Beginn des neuen Jahrtausends, ähnlich wie in den Anfängen des Rundfunks, eine Rückbesinnung auf die mündliche Tradierung von Literatur gesehen wurde, eine neue Form der

81 Ueding, Gerd: „Rettung der Literatur durch lebendige Rede.“ In: Der Deutschunterricht 20 (2004) H. 4, S. 27 f.

Literatur im Hörbuch

219

Mündlichkeit, steht die Hörbuchrezeption zugleich unter eigenen Vorzeichen. Auch wenn die Literatur wieder zum Klingen gebracht wird, findet das Zuhören vereinzelt statt. Jedes Hörbuch stellt eine Form der Bearbeitung eines Stoffs dar, der entweder für ein anderes Medium oder das Hörbuch selbst konzipiert wurde. Das immer neue Verweben bekannter Einzelelemente findet somit nicht statt. Stattdessen werden jeweils andere Stoffe akustisch übersetzt. Die Digitalisierung von Literatur, wie es sie beim Hörbuch auf CD gibt, ist nur ein Element unter vielen, das die literarische Produktion und Rezeption beeinflusst. Als momentaner Endpunkt von Aufzeichnungsmöglichkeiten hat sie mit Sicherheit zu einer besseren Verbreitung akustisch dargebotener Literatur beigetragen. Mobiles und selbstbestimmtes Hören sind dabei wesentliche Aspekte. Ein weiteres, nicht zu vernachlässigendes Element ist die sprechkünstlerische Darbietung auf Hörbüchern, die einen anderen Zugang zu Literatur eröffnen kann. Ein kultureller Verfall durch das Hörbuch lässt sich somit bislang nicht ausmachen.

Literaturhinweise Gethmann, Daniel: „Technologie der Vereinzelung“. In: Sound. Zur Technologie und Ästhetik des Akustischen in den Medien. Hg. von Harro Sägeberg u. Frank Schätzlein. Marburg 2005, S. 249–265. Janz-Peschke, Korinna: „Hörbuch und Mündlichkeit“. In: Jürg Häusermann, Korinna JanzPeschke u. Sandra Rühr: Das Hörbuch. Medium – Geschichte – Formen. Konstanz 2010, S. 233–347. Rühr, Sandra: Hörbuchboom? Zur aktuellen Situation des Hörbuchs auf dem deutschen Buchmarkt, 2004. www.alles-buch.uni-erlangen.de/Ruehr.pdf (Stand: 01.04.2012). Rühr, Sandra: Tondokumente von der Walze zum Hörbuch. Geschichte – Medienspezifik – Rezeption. Göttingen 2008. Schwethelm, Matthias: Bücher zum Hören. Intermediale Aspekte von Audioliteratur, 2010. www.buchwiss.uni-erlangen.de/AllesBuch/38_Schwethelm.pdf (Stand: 01.04.2012).

Lesen im Zeichen des Medienwechsels

Martina Ziefle

Lesen an digitalen Medien 1 Mediale Veränderungen Die fortschreitende Digitalisierung von Information hat gravierende gesellschaftliche Veränderungen in Bezug auf den Umgang mit und die Anforderungen an eine flexible, lesbare und zeitkritische Informationsdarstellung mit sich gebracht. Ebenso hat diese Entwicklung grundlegende Änderungen bezüglich organisationaler Arbeitsstrukturen nach sich gezogen (Flexibilisierung der Arbeit, Mobilität der Information) und eine tiefgreifende Verzahnung digitaler Informationen mit persönlichen Lebensbereichen verursacht.1 Nicht zuletzt ist unser wahrgenommener Bedarf nach digitaler Information und ihrer ubiquitären Verfügbarkeit gestiegen. Die heute flächendeckende Nutzung digitaler Information hat dabei nicht nur die Art und Weise der Informationsdarstellung auf digitalen Medien verändert, sondern auch zu einer Vielzahl neuer Medientypen und kommunikativen Praktiken geführt, wie beispielsweise die Konvergenz von öffentlicher Massenkommunikation mit privater computervermittelter Kommunikation oder die Flexibilisierung von Raum-Zeit-Bezügen durch Mobilkommunikation. Die im letzten Vierteljahrhundert entstandenen technischen Innovationen in der Weiterentwicklung der Displaytechnologie, der Miniaturisierbarkeit der Geräte sowie leistungsfähiger (Energie-)Speichertechnologien haben zu einer stetig wachsenden Informationsflut geführt2 und die Frage nach einer visuell, kognitiv und sozial bewältigbaren Informationsdarstellung auf digitalen Medien aufgebracht. Gleichzeitig hat sich auch die Bildqualität der digitalen Medien im Verlaufe der technischen Weiterentwicklung verbessert. Interessanterweise ist – trotz der Universalität und der unbestrittenen Leistungsfähigkeit digitaler Medien – das traditionelle Darstellungsmedium Papier aus unserem Alltag nicht verschwun-

1 Vgl. Arning, Katrin, Sylvia Gaul u. Martina Ziefle: „,Same same but different‘. How service contexts of mobile technologies shape usage motives and barriers“. In: HCI in Work & Learning, Life & Leisure. Hg. v. Gerhard Leitner, Michael Hitz u. Andreas Holzinger. Berlin 2010, S. 34–54; Ziefle, Martina u. Eva-Maria Jakobs: „New challenges in Human Computer Interaction: Strategic Directions and Interdisciplinary Trends“. In: 4th International Conference on Competitive Manufacturing Technologies. Stellenbosch/South Africa 2010, S. 389–398. 2 Vgl. Schlick, Christopher M., Carsten Winkelholz u. a.: „Visual Displays“. In: The Human Computer Interaction Handbook: Fundamentals, Evolving Technologies and Emerging Applications. Hg. v. Julie A. Jacko u. Andrew Sears. Boca Raton/Florida 2012.

224

Martina Ziefle

den,3 obwohl das „papierlose Büro“ bereits im Jahr 1975 von George E. Pake, einem der damalig führenden Köpfe bei Xerox im amerikanischen Palo Alto Research Center prognostiziert worden ist. Die Nutzer digitaler Medien sind heute nicht mehr mit früheren Computernutzungsgenerationen zu vergleichen.4 War die Nutzung digitaler Information an Computerbildschirmen noch vor 25 Jahren vor allem jüngeren und im Arbeitsleben stehenden Arbeitnehmern vorbehalten, ist die heutige Nutzergeneration digitaler Information so divers wie die Menschheit an sich. Nutzer unterschiedlichen Alters, Geschlechts, Bildungsniveaus und/oder kultureller Zugehörigkeit bedienen zu jeder Zeit an unterschiedlichsten Medien digitale Informationen.5 Die Veränderung der Information und ihres Durchsatzes, die heute via digitaler Medien dargestellt wird, die Veränderung der Art des digitalen Mediums, die zunehmende Beschränktheit des Interaktionsraums mit dem Nutzer und die Miniaturisierung des Sichtfensters, über das Information transportiert wird, aber auch die diverse Nutzergruppe und die sehr unterschiedliche Art der Nutzungssituation und des Nutzungszugriffs (stationäre vs. mobile Nutzung) werfen die grundsätzliche Frage auf, welche Anforderungen an eine nutzergerechte Informationsdarstellung gestellt werden müssen.

3 Vgl. Gibbs, Wayt W.: The reinvention of paper, 1998. www.sciam.com/1998/0998issue/ 0998techbus1 (Stand: 30.09.2008); Holzinger, Andreas, Markus Baernthaler u. a.: „Investigating paper vs. screen in real-life hospital workflows: Performance contradicts perceived superiority of paper in the user experience“. In: International Journal of HumanComputer Studies (2011) H. 69, S. 563–570. 4 Vgl. Oetjen, Sophie u. Martina Ziefle: „The effects of LCD anisotropy on the visual performance of users of different ages“. In: Human Factors 49 (2007) H. 4, S. 619–627; Ziefle, Martina: „Visual ergonomic issues in LCD-Displays. An insight into working conditions and user characteristics“. In: Methods and Tools of Industrial Engineering and Ergonomics for Engineering Design, production, and Service- Traditions, Trends and Vision. Hg. v. Christopher M. Schlick. Berlin 2009, S. 561–572; Kline, Donald W. u. Charles T. Scialfa: „Sensory and Perceptual Functioning: Basic Research and Human Factors Implications“. In: Handbook of Human Factors and the Older Adult. Hg. v. Arthur D. Fisk u. Wendy A. Rogers. San Diego 1997, S. 27–54. 5 Vgl. Brodie, Jacqueline, Jarinee Chattratichart u. a.: „How age can inform the future design of the mobile phone experience“. In: Universal Access in HCI: Inclusive design in the information society. Hg. v. Constantine Stephanidis. Mahwah 2003, S. 822–826; Holzinger, Andreas, Gig Searle u. a.: „Informatics as semiotics engineering: Lessons learned from design, development and evaluation of ambient assisted living applications for elderly people“. In: Universal Access in HCI, Part III, HCII 2011. Hg. v. Constantine Stephanidis. Heidelberg 2011b, S. 183–192; Kothiyal, Kamal u. Samuel Tettey: „Anthropometry for design for the elderly“. In: International Journal of Occupational Safety and Ergonomics 7 (2001) H. 1, S. 15–34.

Lesen an digitalen Medien

225

2 Visuelle Performanz beim Lesen von digitalen Medien Unstrittig ist, dass eine reibungslose und rasche Informationsentnahme von der Art der Informationspräsentation und der visuellen Qualität des Mediums abhängt.6 Die Beurteilung, wie ‚gut‘ ein digitales Medium im Hinblick auf die Informationsentnahme und visuelle Leistung ist, steht mit einer ganzen Reihe sich gegenseitig beeinflussender Faktoren in Zusammenhang. Zentral in diesem Kontext sind Faktoren der Textdarstellung (Schrift- und Bildfaktoren), die entscheidend darüber mitbestimmen, wie schnell und fehlerfrei Information aufgenommen und verarbeitet werden kann. Bei den Schriftfaktoren sind die Informationsdichte (Zeilen, Buchstabenabstand), die Schriftart oder auch die Textformate (Flatter- vs. Blocksatz; Zeilenlänge) von Bedeutung. Bei den Bildfaktoren sind Helligkeit und Kontrast der Zeichen und des Bildhintergrundes sowie die Umgebungsbeleuchtung von großer Bedeutung, aber auch die Auflösung des Zeichens und des Displays (Konturschärfe). Jenseits der Wirkung von Text- und Bildfaktoren sind jedoch modulierende kognitive Faktoren auf Nutzerseite wirksam, die die Leseeffizienz bedeutsam beeinflussen. Die Aufnahme von Information hängt nämlich nicht nur von der Bildqualität – der Lesbarkeit digital dargestellter Information – ab (sogenannte ‚Bottom up‘-Faktoren), sondern auch von kognitiven Fähigkeiten der Lesenden und ihren Wahrnehmungs-, Aufmerksamkeits- und Gedächtnisfähigkeiten sowie den Eigenschaften der Leseanforderung (sogenannte ‚Top-down‘-Faktoren). Zu solchen Top-down-Faktoren ist die Art und Schwierigkeit der Leseanforderung (1) zu zählen. So kann man sich leicht vorstellen, dass beispielsweise das oberflächliche Überfliegen eines Textes und eine Lesesituation, in der ein Text auf Verständnis gelesen wird, mit unterschiedlich schwierigen Anforderungen verbunden sind, auf die sich suboptimal gestaltete Text- und Bildfaktoren in unterschiedlichem Ausmaß auswirken.7 Ein zweiter Faktor in diesem Zusammenhang stellt die Lesedauer (2) dar. Müssen sich Leser über längere Zeit mit einem schlecht lesbaren Text auseinandersetzen, hat dies deutlich gravierendere Fol-

6 Vgl. Aarås, Arne, Gunnar Horgen u. a.: „Musculosceletal, visual and psychosocial stress in VDU operators before and after multidisciplinary ergonomic interventions“. In: Applied Ergonomics 29 (1998) H. 5, S. 335–354; Dillon, Andrew: „Reading from paper versus screens: a critical review of the empirical literature“. In: Ergonomics 35 (1992) H. 10, S. 1297–1326; Çakir, Ahmet, David.J. Hart u. Thomas F.M. Stewart: The VDT manual – ergonomics, workplace design, health and safety, task organization, Darmstadt 1979; Schlick u. a.: Visual Displays. 7 Vgl. Tinker, Miles: The Legibility of Print. Ames 1963.

226

Martina Ziefle

gen für die Leseeffizienz, als wenn solche Texte nur über eine kurze Zeitspanne gelesen werden müssen.8 Ein dritter kognitiv wirksamer Faktor ist die Lesemotivation (3) eines Nutzers, die maßgeblich die visuelle Performanz beeinflussen kann. Ein Text kann trotz einer schlechten visuellen Gestaltung aus Sicht eines Viellesers ‚gut‘ lesbar sein, einfach deshalb, weil die hohe Lesemotivation die Effekte einer schlechten Lesbarkeit kompensieren kann. Zum vierten haben die Sinnhaftigkeit eines Textes sowie Kontexteffekte (4) Einfluss auf die Leseeffizienz. Anhand des Sinnzusammenhangs kann ein Text auch dann noch zufriedenstellen erschlossen werden, wenn er hinsichtlich seiner Lesbarkeit schlecht gestaltet ist.9 Des Weiteren kann die Präferenz für oder gegen ein Medium und seine hedonische Bewertung10 durch den Nutzer mit entscheiden, wie gut und zufriedenstellend das Lesen bei unterschiedlichen Darstellungsmedien bewertet wird – man denke etwa an einen Computerfreak und einen Buchliebhaber und ihre unterschiedlichen Medienpräferenzen. Schließlich sind in diesem Zusammenhang individuelle Eigenschaften und Fähigkeiten der Lesenden zu nennen, wie beispielsweise die vorhandene Lesefähigkeit, die Leseerfahrung, die Lesebegeisterung, visuelle Voraussetzungen, das Vorwissen oder auch intellektuelle Fähigkeiten.11 Man könnte zum voreiligen Schluss kommen, dass visuelle Bottom-up-Faktoren (also die Darstellungsqualität der Texte auf elektronischen Medien an sich) für die Informationsentnahmeleistung von untergeordneter Bedeutung sind, da die Leseeffizienz durch kognitive Funktionen des Lesenden (Top-down) beeinflusst und möglicherweise kompensiert werden können. So wissen wir aus eigener Erfahrung, dass wir selbst unter sehr eingeschränkten Bedingungen Informationen mehr oder weniger rasch und fehlerfrei aufnehmen können (z. B. Lesen eines spannenden Buchs im Dämmerlicht; Entziffern einer in einer kleinen Schrift abgedruckten Medikamentenbeschreibung auf Beipackzetteln). Andererseits lassen sich jedoch eine ganze Reihe alltäglicher Situationen anführen, die deutlich machen, wie kritisch bestimmte Lesebedingungen für eine erfolgreiche und reibungslose Informationsentnahme sind, vor allem, wenn solche suboptimalen Lesegegebenheiten in Kombination oder für einen längeren Zeitraum vorkommen. Solche Lesegegebenheiten finden sich in der realen Arbeitswelt recht häufig und sind deshalb für eine leistungsoptimale Arbeitsumgebung von zentraler Bedeutung, denkt man beispielsweise an die Schwierigkeiten, die Personen

8 Vgl. Ziefle, Martina: „Effects of display resolution on visual performance“. In: Human Factors 40 (1998) H. 4, S. 554–568. 9 Vgl. Ziefle, Martina: Lesen am Bildschirm. Münster 2002. 10 Vgl. Holzinger, Baernthaler u. a.: „Investigating paper vs. Screen.“ 11 Vgl. Tinker: The Legibility.

Lesen an digitalen Medien

227

mit (altersbedingten) verringerten Sehfähigkeiten haben, die Informationen auf dem Mobiltelefon nur sehr schwer lesen können (kleine Displayfläche, kleiner Schrifttyp und suboptimaler Kontrast) oder aber Arbeitnehmerinnen, die über längere Zeit Zahlenkolonnen an der elektronischen Supermarktkasse kontrollieren müssen (Aufgabe ohne Textzusammenhang, lange Expositionszeit und suboptimaler Kontrast). Aus kognitiv ergonomischer Sicht ist es zentral zu verstehen, welche Faktoren bei digitalen Medien zu berücksichtigen sind, unter welchen Bedingungen sie sich gegenseitig ausgleichen oder auch verstärken und welche Bewertungsparameter unter welchen Darstellungsbedingungen sensitiv sind.

2.1 Aufgabenanforderungen bei der Informationsentnahme Will man die kognitive Belastung beim Lesen elektronischer Texte bewerten, ist die Identifikation der unterschiedlichen Aufgabenanforderungen essentiell. Die bei der Evaluation der Bildqualität digitaler Medien verwendeten Aufgaben sind unterschiedlich sensitiv für die Abschätzung der realiter vorhandenen Lesbarkeit eines Textes. Die in der Fachliteratur für die Abschätzung der Lesbarkeit eingesetzten Aufgabentypen umfassen einfache Erkennungsaufgaben (wenn beispielsweise ein falscher Buchstabe in einem Wort erkannt werden muss), Aufgaben, in denen Information erinnert und wiedergegeben werden muss, und visuelle Suchaufgaben bis hin zu (Korrektur-)Leseaufgaben.12 Der grundsätzliche Unterschied zwischen diesen Aufgabentypen ist das Vorliegen eines Sinnzusammenhangs, eines semantischen Kontextes (wie beispielsweise beim Korrekturlesen) im Gegensatz zu sinnfreien Aufgaben (z. B. bei visuellen Suchaufgaben, in der zuvor definierte Zeichen oder Elemente in einer Suchliste gefunden werden müssen). Diese Unterscheidung hat nicht nur Auswirkungen auf die Empfindlichkeit, mit der Effekte suboptimaler Lesebedingungen nachgewiesen werden können, sondern auch auf die Beurteilung der Realitätsnähe der Evaluation und der Generalisierbarkeit der Ergebnisse. Werden zur Evaluation der visuellen Darstellungsqualität Aufgaben mit einem semantischen Kontext (Leseaufgaben) verwendet, sind die Befunde und die Lesesituation „ökologisch valide“, d. h., sie weisen eine hohe Generalisierbarkeit auf realweltliche Anwendungsszenarien auf. Auf der anderen Seite sind semantische Aufgaben nicht besonders sensitiv, um visuelle Degradierungsef-

12 Vgl. Schlick u. a.: Visual Displays; Ziefle: Effects of display resolution; Ziefle: Lesen am Bildschirm.

228

Martina Ziefle

fekte nachzuweisen:13 Für geübte Leser stellt die Verarbeitung visueller Information ein über viele Jahre trainiertes und daher hoch überlerntes Verhalten dar, bei dem das Verständnis des Textes und die dadurch ermöglichte Top-downKomponente suboptimale Bildfaktoren durch Lesestrategien überdecken kann, zumindest in kurzzeitigen Leseepisoden. Beim Korrekturlesen passiert es beispielsweise häufig, dass orthographische Fehler (ausgelassene, zusätzliche, vertauschte oder fehlende Buchstaben) nicht entdeckt werden, trotz mehrmaligem und ‚genauem‘ Lesens. Durch die starke Führung, die der Lesekontext und der Sinn des Textes bietet, übersehen wir häufig Fehler und lesen stattdessen das ‚richtige‘ Wort. Werden also zur Evaluation der visuellen Qualität Leseaufgaben mit sinnhaften Texten verwendet, kann es vorkommen, dass die Effekte der suboptimalen Gestaltung des Textes und der (digitalen) Information nicht entdeckt und damit unterschätzt werden.14 Für eine kritische Prüfung der visuellen Qualität und der Lesbarkeit digital dargestellter Information sind dann sinnfreie Aufgaben angezeigt, wenn sie visuelle Suchaufgaben oder einfache Erkennungsaufgaben (visuelle Detektion) darstellen. Zwar muss bei einfachen Detektionsaufgaben grundsätzlich von einer geringeren Realitätsnähe ausgegangen werden. Sie eignen sich aber sehr gut zur Prüfung der visuellen Qualität einer Darstellung oder eines Darstellungsmediums, da die Aufgabenbearbeitung eine sehr genaue Enkodierung visueller Textmerkmale erforderlich macht, die in sehr viel geringerem Ausmaß von kognitiven Top-down-Effekten profitieren kann.15

2.2 Maße für die Evaluation der Güte visueller Darstellungsmedien Um die Qualität einer visuellen Darstellung auf den Informationsentnahmeprozess und die daraus resultierende Leseeffizienz zu beurteilen, wurden in den einschlägigen Arbeiten eine ganze Reihe von Maßen und Indikatoren verwendet. Sie reichen von der Effektivität und Effizienz der Informationsentnahme bis hin zu einer Beurteilung der erlebten Anstrengung und visuellen Ermüdung bis hin zu qualitativen Maßen, wie beispielsweise die Beurteilung des Lesekomforts

13 Vgl. Ziefle: Effects of display resolution. 14 Vgl. ebd. 15 Vgl. Oetjen, Sophie, Martina Ziefle u. Thomas Gröger: „Work with visually suboptimal displays – in what ways is the visual performance influenced when CRT and TFT displays are compared?“ In: Proceedings of the HCI International 2005. Vol. 4: Theories, Models and Processes in Human Computer Interaction. St. Louis 2005.

Lesen an digitalen Medien

229

oder die Erfassung der Präferenz für ein Medium.16 Die verwendeten Indikatoren lassen sich grundsätzlich in Maße der globalen oder lokalen Verhaltensebene einteilen.

2.2.1 Globale Maße Als globale Verhaltensindikatoren wird die Leseeffizienz oder auch die visuelle Performanz bezeichnet. Sie wird anhand der Geschwindigkeit (Wörter pro Minute, Sekunden pro Zeile oder Normseite) und der Genauigkeit (Anzahl richtig entdeckter Fehler, Verhältnis richtig wiedergegebener Information, Prozentsatz richtig identifizierter Zielreize, je nach Aufgabe) des Informationsentnahmeprozesses festgestellt. Die Beurteilung der Geschwindigkeit kann nur bei gleichzeitiger Betrachtung der Genauigkeit der Informationsentnahme sinnvoll interpretiert werden. Die Tatsache, dass sich beide Parameter beeinflussen und die Geschwindigkeit zugunsten der Genauigkeit (oder umgekehrt) vernachlässigt wird, beschreibt man mit dem Ausdruck Geschwindigkeits-Genauigkeits-Austausch (engl. „speedaccuracy trade off“).17 Unter suboptimalen visuellen Darstellungsgegebenheiten (beispielsweise bei niedrigem Leuchtdichtekontrast an elektronischen Medien) kann es – vor allem bei längeren Expositionszeiten – vorkommen, dass Geschwindigkeit und Genauigkeit nicht über die gesamte Zeit auf einem konstant hohen Niveau beibehalten werden können, sondern dass der eine oder andere Indikator zugunsten des anderen vernachlässigt wird. Speed-Accuracy-Trade-offs können innerhalb einer Leseperiode variieren (im Verlauf einer längeren Leseperiode wird die Lesestrategie gewechselt); sie spiegeln aber auch persönliche Lesestile wider. So konnte gezeigt werden, dass ältere Leser eher dazu neigen, die Lesegenauigkeit auf einem konstant hohen Level beizubehalten, während die Lesegeschwindigkeit über die Zeit abnimmt.18 Um eine ganzheitliche Betrachtung des Leseverhaltens zu erreichen, sind beide Indikatoren, Geschwindigkeit und Genauigkeit, miteinander in Beziehung zu setzen. So plastisch eine Veränderung der Leseeffizienz in Abhängigkeit von der visuellen Qualität der Informationsdarstellung auch sein mag, sie gibt nur darüber Auskunft, ob und in welchem Ausmaß sich bestimmte Bedingungen der Informationsdarstellung auswirken. Sie lassen jedoch keine Aussage darüber zu,

16 Vgl. Schlick u. a.: Visual Displays. 17 Vgl. Pachella, Robert: „The interpretation of reaction time in information processing research“. In: Human information processing. Hg. v. Daniel Kantowitz. Potomac, Md. 1974, S. 41–82. 18 Vgl. Oetjen, Ziefle u. Gröger: Work with visually suboptimal displays.

230

Martina Ziefle

welche detaillierten Prozesse der Informationsentnahme für die Leistungsverschlechterung verantwortlich sind. In diesem Kontext spielt die Messung von Augenbewegungen eine maßgebliche Rolle, anhand derer eine raumzeitliche Detailanalyse des Informationsentnahmeprozesses vorgenommen werden kann.19

2.2.2 Lokale Maße Während des Lesens führen die Augen ruckartige Bewegungen (Augensprünge, sogenannte Sakkaden) in Leserichtung aus, um neue Textinformation in den schärfsten Bereich unserer Augen (Fovea centralis, auf der Netzhaut des Auges) zu rücken. Sakkaden gehören zu den schnellsten Bewegungen unseres Körpers. Normale Inspektionssakkaden beim Lesen dauern zwischen 20 und 80 Millisekunden und sind annähernd proportional zu ihrer Amplitude (entspricht der Sakkadenlänge). Die Amplitude von Lesesakkaden umfasst ungefähr 7–9 Buchstabenpositionen (je nach Textschwierigkeit und Fontgröße). Sakkaden werden von kurzen Pausen unterbrochen, in denen sich das Auge nicht bewegt (Fixationen). Typische Fixationszeiten beim Lesen dauern – wieder in Abhängigkeit von der Textschwierigkeit und den visuellen Gegebenheiten – im Mittel zwischen 200 und 500 Millisekunden. Gewöhnlich werden Informationen nur während der Fixationen aufgenommen, während des sakkadischen Blickwechsels besteht eine funktionelle Blindheit. Jenseits der Sakkaden, die während des Lesens in Leserichtung ausgeführt werden, werden auch rückwärtsgerichtete Sakkaden – also solche gegen die Leserichtung – beobachtet (sogenannte Regressionen). Hier wird zu bereits durchmusterten bzw. gelesenen Passagen im Satz zurückgeblickt. Regressionen werden als Korrekturbewegungen des Augenbewegungssystems interpretiert, die umso häufiger auftreten, je schlechter die visuellen Gegebenheiten sind und je schwieriger der zu lesende Text ist. Das gehäufte

19 Vgl. Owens, D Alfred u. Karen Wolf-Kelly: „Near work, visual fatigue, and variations of oculomotor tonus“. In: Investigative Ophthalmology and Visual Science 28 (1987) H. 4, S. 743– 749; Iwasaki, Tsuneto u. Shinji Kurimoto: „Eye-strain and changes in accomodation of the eye and in visual evoked potential following quantified visual load“. In: Ergonomics 31 (1988) H. 12, S. 1743–1751; Jaschinski, Wolfgang, Matthias Bonacker u. Ewald Alshuth: „Accommodation, convergence, pupil and eye blinks at a CRT-display flickering near fusion limit“. In: Ergonomics (1996) H. 19, S. 152–164; Best, P. Scot, Matthew Littleton u. a.: „Relations between individual differences in oculomotor resting states and visual inspecting performance, and reports of visual fatigue“. In: Ergonomics 39 (1996) H. 1, S. 35–40; Piccoli, Bruno, Marco D’Orso u. a.: „Observation distance and blinking rate measurement during on-site investigation“. In: Ergonomics 44 (2001) H. 6, S. 668–676; Ziefle: Effects of display resolution;

Lesen an digitalen Medien

231

Auftreten von Regressionen kann auch den Ermüdungs- bzw. Konzentrationszustand einer Person kennzeichnen.20 In Abhängigkeit von typographischen Merkmalen, der Textschwierigkeit und der Güte der visuellen Lesebedingungen zeigt sich eine Veränderung des Augenbewegungsverhaltens. Bei suboptimaler Darstellung – beispielsweise bei einem schlechten Zeichenkontrast, bei einer ungenauen Auflösung (Abbildungsbzw. Konturschärfe eines Zeichens) oder bei ungenügender Beleuchtung – werden mehr und kleinere Sakkaden ausgeführt, in Kombination mit einer signifikanten Verlängerung der Fixationszeiten.21 Ebenfalls kommt es unter suboptimalen visuellen Gegebenheiten zu einer erhöhten Ungenauigkeit der Sakkade beim Zeilenwechsel. Bei engen Zeilenabständen in Verbindung mit kleinen Schriftgrößen kommt es vor, dass beim Zeilenrücksprung der Beginn der neuen Zeile in vertikaler Richtung verfehlt wird und das Auge in eine falsche Zeile rutscht,22 was zu einer Unterbrechung des Leseprozesses führt und in der Regel von Korrekturbewegungen begleitet wird. Jenseits der Analyse sakkadischer Augenbewegungen wurden als weitere okulomotorische Indikatoren Veränderungen der Pupillen, Vergenzbewegungen,23 Blinzelraten oder auch die Komplexität visueller Suchpfade analysiert.24 Der bei einer nicht optimalen visuellen Darstellung auftretende höhere Aufwand des Augenbewegungsapparates wird als physische Basis für visuelle Ermüdungsphänomene betrachtet.25 Eine weitere Möglichkeit, Effekte der Darstellungsqualität visueller Medien zu erfassen, ist die Erfassung von Nutzerurteilen, beispielsweise hinsichtlich der während des Lesens entstandenen visuellen Ermüdung. Mit visueller Ermüdung wird ein Symptomkomplex bezeichnet, der auf das subjektiv beurteilte Auftreten brennender, trockener, schmerzender und/oder tränender Augen basiert. Eben-

20 Vgl. Ziefle: Lesen am Bildschirm. 21 Vgl. Baccino, Thierry: „Exploring the flicker effect: the influence of in-flight pulsations on saccadic control“. In: Ophthalmologic and Physiological Optics 19 (1999) H. 3, S. 266–273; Ziefle: Effects of display resolution; Ziefle, Martina: „CRT screens or TFT displays? A detailed analysis of TFT screens for reading efficiency“. In: Usability evaluation and interface design. Hg. v. Michael Smith, Gavriel Salvendy, Don Harris u. Richard Koubek. Mahwah 2001a, S. 549–553; Ziefle, Martina: „Aging, visual performance and eyestrain in different screen technologies“. In: Proceedings of the Human Factors and Ergonomics Society 45th annual meeting. Santa Monica 2001, S. 262–266. 22 Vgl. Ziefle: Aging. 23 Bei Vergenzbewegungen verschieben sich die Augachsen horizontal relativ zueinander bzw. relativ zur Mitte der Blickrichtung. 24 Vgl. Schlick u. a.: Visual Displays. 25 Vgl. Wilkins, Arnold, Ian Nimmo-Smith u. a.: „A neurological basis for visual discomfort“. In: Brain (1984) H. 107, S. 989–1017.

232

Martina Ziefle

falls damit in Zusammenhang steht die Beobachtung, dass der Text vor den Augen verschwimmt, die Buchstaben unscharf werden und die Leser das Gefühl erhöhten Augendrucks haben und vermehrt blinzeln müssen.26 Nutzerurteile stellen eine wertvolle Ergänzung zur Messung der visuellen Performanz und spiegeln einen nützlichen Zugang zur Beurteilung der visuellen Qualität eines Darstellungsmediums sowie der Nutzerakzeptanz wider.27 Einschränkend muss jedoch angemerkt werden, dass die Validität von Nutzerurteilen im Hinblick auf die alleinige Beurteilung der visuellen Qualität des Mediums nicht ausreicht. Zum einen unterscheiden sich Nutzer in ihrer Sensitivität für visuelle Ermüdung,28 zum anderen ist nicht ohne Einschränkung davon auszugehen, dass alle Nutzer bereit sind, solche Ermüdungseffekte zuzugeben und solche Urteile häufig als Eingeständnis von Schwäche missverstehen (wiederum tritt dies insbesondere bei älteren Nutzern auf, die im Experiment ihre hohe Bereitschaft zur Mitarbeit zeigen möchten und möglicherweise alterskorrelierte Sehbeeinträchtigungen oder Ermüdungserscheinungen nicht angeben).29 Drittens verläuft die Entstehung visueller Ermüdungssymptome nicht notwendigerweise symmetrisch zu einer messbaren Veränderung der Leseeffizienz.30 Um eine ganzheitliche Abbildung des Lesekomforts und die Güte der digital dargestellten Information zu erhalten, ist es deshalb notwendig, die visuelle Qualität von Darstellungsmedien anhand objektiver und subjektiver Messungen vorzunehmen.

26 Vgl. Piccoli u. a.: Observation distance; Hung, George K., Kenneth J. Ciuffreda, u. John L. Semmlow: „Static vergence and accomodation: population norms and orthopic effects“. In: Documenta Ophthalmologica (1986) H. 62, S. 165–179; Owens u. Wolf-Kelley: Near Work. 27 Vgl. Oetjen u. Ziefle: The effects of LCD anisotropy. 28 Vgl. Wolf, Ernst u. Angela M. Schraffa: „Relationship between critical flicker frequency and age in flicker perimetry“. In: Archives of Ophthalmology (1964), H. 72, S. 832–843. 29 Vgl. Oetjen u. Ziefle: The effects of LCD anisotropy. 30 Vgl. Chen, Ming-Te u. Chin-Chiuan Lin: „Comparison of TFT-LCD and CRT on visual recognition and subjective preference“. In: International Journal of Industrial Ergonomics 34 (2004) H. 3, S. 167–174; Lin, Yu-Ting, Po-Hung Lin u. a.: „Investigation of legibility and visual fatigue for simulated flexible electronic paper under various surface treatments and ambient illumination conditions“. In: Applied Ergonomics 40 (2009) H. 5, S. 922–928; Yeh, Yei-Yu u. Christopher D. Wickens: „Why do performance and subjective workload measures dissociate?“ In: Proceedings of the 28th Annual meeting of the Human Factors Society. Santa Monica 1984, S. 504–508; Howarth, Peter Alan u. Howell O. Istance: „The association between visual discomfort and the use of visual display units“. In: Behaviour & Information Technology (1985) H. 4, S. 131–149.

Lesen an digitalen Medien

233

2.3 Textfaktoren und ihre Auswirkungen auf die Leseeffizienz 2.3.1 Schrifttyp Auch Textfaktoren bestimmen in starkem Ausmaß die kognitiven Anforderungen bei der Informationsverarbeitung. Der Schrifttyp ist ein Textparameter, der in der Regel nur einen schwachen Effekt auf die Lesbarkeit hat, es sei denn, es werden sehr ungebräuchliche Schrifttypen verwendet.31 Insgesamt scheint es hinsichtlich der Lesbarkeit auf Papier eine Überlegenheit von Serifenschriften (z. B. Times) im Vergleich zu serifenlosen Schriften (z. B. Helvetica) zu geben. Die Überlegenheit der Serifen32 wird darauf zurückgeführt, dass durch die Serifen geschlossenere und prägnante Buchstaben- und Wortgestalten entstehen, die die Lesbarkeit erleichtern. Bei digitaler Darstellung konnte die Überlegenheit von Serifenschriften gegenüber serifenlosen Schriften nicht nachgewiesen werden. Kursivschrift ist, wenn sie nicht nur zur Hervorhebung einzelner Satzteile verwendet wird, im Vergleich zu einer nicht-kursiv gesetzten Schrift schlechter lesbar.33 Texte, die ausschließlich in Großbuchstaben geschrieben sind, werden um 11,8% langsamer gelesen.34 Dadurch, dass alle Buchstaben gleich groß sind, entfallen die leseunterstützenden Hinweise auf Wortform, Wortart und Position im Satz (Top-down-Effekte), was die Orientierung im Text nachhaltig erschwert.35 Obwohl für die Fettdruckschreibweise keine Nachteile in der Leseeffizienz gefunden wurden, zogen 70% der Probanden die Normalschreibweise gegenüber dem Fettdruck vor.36

2.3.2 Schriftgröße und Zeilenlänge bzw. Zeilenabstand Im Hinblick auf die Schriftgröße wurde die höchste Leseeffizienz bei Schriftgrößen von 10 Punkten (3,55 mm) und der von den Probanden am höchsten beurteilte Lesekomfort bei einer Schriftgröße von 11 Punkten gefunden. Hier

31 Vgl. Tinker: The Legibility. 32 Als Serifen bei einer Schrift werden die geschwungenen bzw. rechteckigen Enden der Striche bezeichnet. 33 Vgl. Tinker: The Legibility; Ziefle: Lesen am Bildschirm. 34 Vgl. Morrison, Robert u. Albrecht Inhoff: „Visual factors and eye movements in reading“. In: Visible Language, 15 (1981), S. 129–146. 35 Vgl. Tinker: The Legibility; für einen Überlick Morrison u. Inhoff: Visual factors. 36 Vgl. Wendt, Dirk: „Lesbarkeit von Druckschriften“. In: Schrifttechnologie. Hg. v. Peter Karow S. Berlin: Springer 1992, S. 271–306.

234

Martina Ziefle

waren, im Vergleich mit kleineren (8 und 9 Punkt) und größeren Schriftgrößen (12 Punkt) ein effizienteres Augenbewegungsverhalten (weniger und kürzere Fixationen) zu verzeichnen. Die optimale Zeilenlänge und der Zeilenabstand hängen von der Buchstabengröße ab.37 Für eine 10-Punkt-Schrift werden Zeilenlängen von 6,5 cm und einem Zeilenabstand zwischen 0,7 und 1,3 mm empfohlen. Eine zusätzliche Vertikaltrennung von 2 Punkten erhöhte die Lesbarkeit aller Schriften. Im Hinblick auf den Buchstabenabstand zeigt sich, dass bei Leseaufgaben ein enger Schriftsatz dem weiteren überlegen ist. Die enggesetzte Schrift führt zu einem ökonomischeren Augenbewegungsverhalten, bei dem mit einer Fixation mehr Information aufgenommen werden kann. Bei sinnfreien Aufgaben, wie beispielsweise bei der Durchmusterung sinnloser Buchstabenketten, bringt ein erweiterter Buchstabenabstand die bessere Informationsentnahmeleistung. Wenn also einzelne Buchstaben aus einem „Hintergrund“ herausgelöst werden müssen, dann ist ein weiter Buchstabenabstand einem engeren überlegen.38 Ein zentraler Faktor für die Lesbarkeit ist darüber hinaus die Bildschirmgröße bzw. das Sichtfenster und die darauf darstellbare Menge an Information in Verbindung mit der Buchstaben- bzw. Fontgröße.39 Je kleiner die Schrift und je mehr Text auf kleiner Bildschirmfläche dargestellt wird, desto gravierender fallen die Einbußen in der Informationsentnahmeleistung aus (visuelle Maskierung).

2.4 Bildfaktoren und ihre Auswirkungen auf die Leseeffizienz Drei zentrale Bildfaktoren spielen bei der Informationsdarstellung auf elektronischen Medien eine zentrale Rolle: Die Bildauflösung, die Bildwiederholfrequenz (das Bildschirmflimmern) und der Helligkeitskontrast auf einem Medium.

37 Vgl. Tinker: The Legibility. Heller, Dieter: „Typographical factors in reading“. In: Eye Movements: From Physiology to Cognition. Hg. v. Kevin O’ Reagon, Ariane Levy-Schoen. NorthHolland 1987, S. 487–498. 38 Vgl. Morrison u. Inhoff: Visual factors. 39 Vgl. Duncan, John u. Glenn Humphreys: „Visual search and stimulus similarity“. In: Psychological Review 96 (1989) H. 3, S. 433–458; Ziefle, Martina, Olaf Oehme u. Holger Luczak: „Information presentation and visual performance in head-mounted displays with augmented reality“. In: Zeitschrift für Arbeitswissenschaft 59 (2005) H. 3–4, S. 331–344; Ziefle, Martina: „Instruction format and navigation aids in mobile devices“. In: Usability and Human Computer Interaction for Education and Work. Hg. v. Andreas Holzinger. Berlin 2008, S. 339–358; Ziefle, Martina: „Information presentation in small screen devices: The trade-off between visual density and menu foresight“. In: Applied Ergonomics 41 (2010) H. 6, S. 719–730.

Lesen an digitalen Medien

235

Effekte der Bildwiederholfrequenzen sind an heutigen Flachbildschirmen (LCDTechnologie) nicht mehr vorhanden, sondern waren ein bauartbedingtes Merkmal von Kathodenstrahlröhren, die heutzutage fast vollständig aus den Arbeitsräumen verschwunden sind. Um jedoch zeigen zu können, wie stark sich bildschirmbedingte Faktoren auf die Informationsentnahme auswirken, werden – aus Vollständigkeitsgründen – Effekte der Bildwiederholfrequenz auf die Informationsentnahmeleistung berücksichtigt.

2.4.1 Bildauflösung Technisch gesprochen versteht man unter der Auflösung eines Displays die Anzahl der Pixel pro Raumeinheit (dots per inch, dpi), mit denen Buchstaben und Objekte auf einem elektronischen Medium dargestellt werden können. Aus psychophysischer bzw. kognitiv-ergonomischer Sicht ist das perzeptuelle Korrelat der Bildauflösung die wahrgenommene Konturschärfe eines Zeichens und die Klarheit, mit der Buchstaben, Texte oder Objekte gegenüber dem Bildschirmhintergrund wahrgenommen werden können. Je höher die Bildauflösung, je höher also die Anzahl der Pixel, aus denen Buchstaben bestehen, desto kleiner sind die Buchstaben und desto mehr Information kann auf einer gegebenen Bildschirmfläche dargestellt werden. Dies mag auf der einen Seite vorteilhaft sein, besonders auf Miniaturdisplays (wie bei Mobiltelefonen), bei denen das Sichtfenster begrenzt ist, da relativ zur kleinen Bildschirmfläche viel Information dargestellt werden kann. Andererseits ist dies aus wahrnehmungspsychologischer Sicht kontraproduktiv, da die dargestellten Informationen klein sind und die Informationsentnahme erschwert wird, weshalb sich eine höhere Bildschirmauflösung nur dann positiv auf die Informationsentnahme auswirkt, wenn der Größennachteil bei hohen Auflösungen entsprechend kompensiert wird.40 Experimentelle Untersuchungen zur Auflösung zeigen, dass sich hohe Bildauflösungen positiv auf die Informationsentnahmeleistung auswirken. Abbildung 1 zeigt Effekte unterschiedlicher Bildauflösungen (60 und 90 dpi) auf die Leseleistung im Vergleich zum Lesen auf Papier. Dargestellt sind auf der rechten Seite die Lesegeschwindigkeit (Wörter pro Minute) in Korrekturleseaufgaben, auf der linken Seite die Korrekturlesegenauigkeit. Deutlich wird, dass elektronisch dargestellte Information unabhängig von der erreichten Bildauflösung nicht an die Leseleistung auf Papier heranreichen.

40 Miyao, Masaru, Selim Hacisalihzade u. a.: „Effects of VDT resolution on visual fatigue and readability: an eye movement approach“. In: Ergonomics 32 (1989) H. 6, S. 603–614.

236

Martina Ziefle

Abb. 1: Links: Effekte der Bildauflösung auf die Lesegeschwindigkeit im Vergleich zu Papier; rechts: Effekte der Bildauflösung auf die Lesegenauigkeit

Effekte der Bildauflösung zeigen sich jedoch nicht nur in Korrekturleseaufgaben, sondern sind auch in visuellen Suchaufgaben (Abb. 2) beobachtbar, bei denen die Probanden in sinnfreien Buchstabenreihen nach zuvor definierten Zielbuchstaben zu suchen hatten. Die Verbesserung der Leistung in visuellen Suchaufgaben bei jungen Erwachsenen betrug 20% bei einer Bildauflösung von 90 dpi gegenüber einer Kontrollbedingung mit 60 dpi (Abb. 2). Die Verbesserung der Leseleistung basierte dabei auf einer sehr viel effizienteren Augenbewegungskontrolle. Die Fixationszeiten waren um 11% reduziert und es wurden darüber hinaus 5% weniger Sakkaden pro Zeile ausgeführt.41 Überdies waren die beurteilten visuellen Ermüdungssymptome signifikant stärker in der Bedingung mit der niedrigen Auflösung (60 dpi) im Vergleich mit der hochauflösenden Bedingung (90 dpi). Je länger die Probanden die Suchaufgaben in der Bedingung mit der niedrigen Auflösung bearbeiteten, desto stärker fielen die visuellen Ermüdungssymptome aus. Die visuelle Ermüdung war zudem ungleich stärker, je länger die Probanden unter der schlechten Auflösungsbedingung arbeiten mussten.42 Aus Abbildung 2 wird deutlich, dass nicht nur die Suchgeschwindigkeit in Abhängigkeit von der Bildschirmauflösung variiert, sondern auch, in welchen okulomotorischen Parametern die Informationsentnahme durch suboptimale Auflösungen beeinträchtigt ist. 41 Ziefle: Effects of display resolution. 42 Vgl. Huang, Ding-Long, Pei-Luen Patrick Rau u. Ying Liu: „Effects of font size, display resolution and task type on reading Chinese fonts from mobile devices“. In: International Journal of Industrial Ergonomics (2009) H. 39, S. 81–89; Ziefle: Effects of display resolution.

Lesen an digitalen Medien

237

Abb. 2: Links: Effekte der Bildauflösung auf die Suchgeschwindigkeit; Mitte: Effekte der Bildauflösung auf die Fixationsdauer; rechts: Effekte der Bildschirmauflösung auf die Anzahl der pro Zeile ausgeführten Sakkaden

2.4.2 Bildwiederholfrequenz Ein zweiter – nur für Kathodenstrahlröhren charakteristischer Faktor – ist die ,Bildwiederholfrequenz‘, die dadurch gekennzeichnet ist, dass das Bild mehrmals in der Sekunde aufgebaut wird (Hertz, Hz) und das in einer mehr oder weniger ausgeprägten Flimmersensation resultiert. Das Bildschirmflimmern wurde in seiner Wirkung auf die Informationsentnahmeleistung häufig untersucht.43 Lesen von einem Bildschirm mit einer niedrigen Bildwiederholfrequenz (50 Hz) ist extrem belastend für den Lesenden und erhöht das Risiko für die Entstehung visueller Beschwerden, selbst nach nur kurzen Leseperioden (von unter einer halben Stunde). Mit steigender Bildwiederholfrequenz (>70 Hz) nimmt die wahrgenommene Flimmerwirkung ab, aber natürlich besteht die intermittierende Beleuchtung und der Bildschirmaufbau auch bei höheren Bildwiederholfrequenzen und beeinträchtigt die Leseleistung. Interessanterweise zeigt sich keine lineare Verbesserung bei höheren Bildwiederholfrequenzen (140 Hz), sondern wieder eine Verschlechterung, was auf einen kurvenlinearen Verlauf zwischen visueller Leistung und der Höhe der Bildwiederholfrequenz hindeutet.44 Dies zeigt, dass die visuelle Leistung tatsächlich eine Funktion der physikalischen und nicht der wahrgenommenen Beeinträchtigung darstellt.

43 Vgl. Menozzi, Marino, Felicitas Lang u. a.: „CRT versus LCD: effects of refresh rate, display technology and background luminance in visual performance“. In: Displays 22 (2001) H. 3, S. 79–85; Wolf u. Schraffa: Relationship; Jaschinski, Bonacker u. Alshuth: Accommodation, convergence. 44 Vgl. Ziefle: CRT screens.

238

Martina Ziefle

2.4.3 Leuchtdichte und Kontrast Der dritte markante Bildfaktor, der die visuelle Leistung an digitalen Medien beeinflusst, ist die Leuchtdichte und der Kontrast zwischen Zeichen und Bildhintergrund.45 Der Kontrast stellt immer ein Verhältnis zwischen zwei unterschiedlichen Leuchtdichteverteilungen dar (Buchstaben/Hintergrund). Niedrige Kontraste führen zu beträchtlichen Leseeinbußen in der Größenordnung von 10– 20%. Jedoch ist zu berücksichtigen, dass Kontrastangaben (wie z. B. 1:10) zwar anzeigen, dass das Zeichen zehn Mal heller ist im Vergleich zum Bildhintergrund, jedoch keine Angaben darüber zulassen, welche absoluten Helligkeiten bzw. Leuchtdichten in das Kontrastverhältnis eingeflossen sind. Hier müssen also noch zusätzliche Informationen über die absolute Helligkeit eingeholt werden.

2.4.4 Darstellungspolarität Neben dem Leuchtdichtekontrast, der durch die unterschiedlichen Helligkeiten zwischen Text und Bildhintergrund entsteht, sind weitere Beleuchtungsfaktoren von Bedeutung. Ein solcher Faktor stellt zum einen die Polarität der Darstellung dar, also die Frage, ob weiße Buchstaben auf dunklem Untergrund oder dunkle Buchstaben auf hellem Untergrund gelesen werden müssen. Im Allgemeinen gilt, dass Darstellungen mit positiver Polarität (dunkle Buchstaben auf hellem Untergrund) zu einer besseren Leseleistung führen im Vergleich zu Negativdarstellungen.46 Die Überlegenheit der positiven über die negative Polarität ist nicht auf unterschiedliche Kontrastverhältnisse zurückführbar. Denn der Leuchtdichtekontrast ist bei beiden Polaritäten identisch – gehen doch dieselben Helligkeiten des Zeichens und des Hintergrundes in die Kontrastberechnung ein. Die Überlegenheit der Leistung bei positiver Polarität wird auf die

45 Vgl. Van Schaik, Paul u. Jonathan Ling: „The effects of frame layout and differential background contrast on visual search performance in web pages“. In: Interacting with Computers (2001) H. 13, S. 513–525; Ziefle, Martina, Thomas Gröger u. Dietmar Sommer: „Visual costs of the inhomogeneity of contrast and luminance by viewing TFT-LCD screens off-axis“. In: International Journal of Occupational Safety and Ergonomics 9 (2003) H. 4, S. 507–517; Oetjen, Ziefle u. Gröger: Work with visually suboptimal displays; Schlick u. a.: Visual Displays. 46 Vgl. Bauer, Dieter u. Carl Richard Cavonius: „Improving the legibility of visual display units through contrast reversal“. In: Ergonomic aspects of visual display terminals. Hg. v. Etienne Grandjean u. Enrico C. Vigliani. London 1980, S. 137–142; Buchner, Axel, Susanne Mayr u. Martin Brandt: „The advantage of positive text-background polarity is due to high display luminance“. In: Ergonomics 52 (2009) H. 7, S. 882–886.

Lesen an digitalen Medien

239

einfache Tatsache zurückgeführt, dass das menschliche Auge über Licht integriert und die relative Verfügbarkeit an Beleuchtungsstärke bei hellem Untergrund höher ist als bei dunklem Untergrund. Die Darstellung digitaler Information in positiver Polarität ist mit der hellen Umgebung in Arbeitsräumen kompatibel. Hingegen muss bei Negativdarstellungen das Auge bei Blickwechseln vom Bildschirm auf die Umgebung umadaptieren, was mit visuellen Ermüdungserscheinungen einhergeht.

2.4.5 Umgebungsbeleuchtung Daneben spielt die Umgebungsbeleuchtung des Raumes eine zentrale Rolle.47 Bei selbstleuchtenden Medien verringert eine helle Umgebungsbeleuchtung den Zeichenkontrast (durch überlagernde Beleuchtungscharakteristiken), in abgedunkelten Räumen ist der Zeichenkontrast maximal.48 Aber auch hier stellen sich schnell negative Effekte auf die Leseleistung ein.49 Ist der Kontrast zwischen Umgebungsbeleuchtung und Bilduntergrund auf elektronischen Medien zu groß, stellt sich Kontrastblendung ein.50

2.4.6 Anisotropie Gerade bei der Darstellung digitaler Information auf LCD-Bildschirmen spielen der Kontrast zwischen Zeichen und Hintergrund und die Leuchtdichte eine zent47 Vgl. Shen, I-Hsuan, Kong-King Shieh u. a.: „Lighting, font style, and polarity on visual performance and visual fatigue with electronic paper displays“. In: Displays 30 (2009) H. 2, S. 53–58; Shieh, Kong-King u. Chin-Chiuan Lin: „Effects of screen type, ambient illumination, and color combination on VDT visual performance and subjective preference“. In: International Journal of Industrial Ergonomics 26 (2000) H. 5, S. 527–536; Wang, An-Hsiang, Hui-Tzu Kuo u. Shie-Chang Jeng: „Effects of ambient illuminance on users’ visual performance using various electronic displays“. In: Journal of the Society for Information Displays 17 (2009) H. 8, S. 665– 669. 48 Vgl. Sheedy, James E.: „Office Lighting for Computer Use“. In: Visual Ergonomics Handbook. Hg. v. Jeffrey Anshel. Boca Raton 2005, S. 37–51. 49 Vgl. Kokoschka, Siegfried u. Peter J. Haubner: „Luminance ratios at visual display workstations and visual performance“. In: Lighting Research & Technology 17 (1986) H. 3, S. 138–144. 50 Vgl. Kubota, Satoru: „Effects of Reflection Properties of Liquid-Crystal Displays on Subjective Ratings of Disturbing Reflected Glare“. In: Journal of Light & Visual Environment (1997) H. 21, S. 33–42; Schenkman, Bo, Tadahiko Fukuda u. Bo Persson: „Glare from monitors measured with subjective scales and eye movements“. In: Displays 20 (1999) H. 1, S. 11–21.

240

Martina Ziefle

rale Rolle.51 Zwar hat diese Bildschirmtechnologie einen enormen Fortschritt in der Darstellungsqualität gebracht (durch den Verzicht auf Bildwiederholfrequenzen). Allerdings hat die LCD-Darstellung ebenfalls einen charakteristischen Nachteil. Die elektronisch dargestellte Information ist nur dann ‚perfekt‘ sichtbar, wenn Nutzer sich direkt vor dem Bildschirm befinden und zentral auf die Bildschirmmitte blicken. Wann immer diese zentrale Blickposition nicht eingenommen werden kann (wie dies in realen Nutzungssituationen recht häufig der Fall ist), nimmt die Sichtbarkeit der Bilddarstellung ab (Abb. 3).

Abb. 3: Beispiel für einen Arbeitsplatz in einer Verkehrsleitzentrale. Die Bildschirmarbeiter sitzen vor mehreren Monitoren und sind durch unterschiedliche Betrachtungswinkel auf verschiedene Bildschirme mit Effekten der Anisotropie konfrontiert.

Diese der LCD-Bildschirmtechnologie eigene Charakteristik nennt sich Anisotropie.52 Ein Display ist anisotrop, wenn Leuchtdichte und Kontrast um mehr als 10% zwischen dem zentralen und dem seitlichen Betrachtungswinkel variieren (ISO 13406‑2 2001). Diese Schwankungen liegen in den photometrischen Eigenschaften der Technologie begründet. Leuchtdichte und Kontrast sind bei LCDMonitoren nicht konstant über der Bildschirmoberfläche, sondern sie nehmen mit ansteigendem seitlichen Betrachtungswinkel ab.53

51 Vgl. Hollands, Justin G., Herbert Parker u. a.: „LCD versus CRT Displays: A Comparison of visual search performance for colored symbols“. In: Human Factors 44 (2002) H. 2, S. 210–221; Ziefle, Gröger u. Sommer; Visual costs; Oetjen, Sophie u. Martina Ziefle: „Effects of anisotropy on visual performance regarding different font sizes“. In: Work with computing systems. Hg. v. Halimahtun M. Khalid, Martin G. Helander u. Alvin Yeo. Kuala Lumpur 2004, S. 442–447; Oetjen, Sophie u. Martina Ziefle: „A visual ergonomic evaluation of different screen technologies“. In: Applied Ergonomics (2009) H. 40, S. 69–81. 52 Altgriechisch bedeutet Anisotropie „nicht an allen Stellen gleich“. 53 Vgl.Ziefle, Gröger u. Sommer: Visual costs.

Lesen an digitalen Medien

241

Die Schwankungen der photometrischen Werte bei anisotropen Bildschirmen sind beträchtlich. Die empirisch quantifizierten Kontrast- und Leuchtdichteveränderungen bei verschiedenen Bildschirmen in Abhängigkeit vom Betrachtungswinkel sind in Abbildung 4 dargestellt.

Abb. 4: Veränderungen von Leuchtdichten und Kontrast als Funktion des Betrachtungswinkels bei verschiedenen Bildschirmtypen

Visuell ergonomische Untersuchungen zur Leseleistung zeigen, dass die durch Anisotropie verursachten Kontrastvariationen über der Bildschirmoberfläche zu nachweisbaren und beachtlichen Leistungseinbußen führen können.54 Bei jungen Erwachsenen liegen die durch Anisotropie verursachten Performanzeinbußen zwischen 10 und 20%. Effekte der Anisotropie lassen sich jedoch nicht nur bei jungen Erwachsenen beobachten, sondern sind bei Nutzern aller Altersgruppen grundsätzlich beobachtbar (Abb. 5). Sie zeigen sich besonders ausgeprägt bei Jugendlichen zwischen 10 und 16 Jahren und bei Erwachsenen mittleren und höheren Alters (40–60 Jahre).

54 Vgl. Oetjen u. Ziefle: The effects of LCD anisotropy; Oetjen u. Ziefle: A visual ergonomic evaluation.

242

Martina Ziefle

Abb. 5: Links: Anisotropieeffekte auf die Erkennungsgeschwindigkeit in visuelle Suchaufgaben am Kathodenstrahlmonitor (links) und LCD (rechts). Dargestellt sind Leistungskurven in Abhängigkeit verschiedener Blickpositionen in drei Altersgruppen.

Obwohl Notebook-Computer inzwischen stationäre Rechner und Bildschirme nahezu ersetzt haben,55 muss als visuell ergonomischer Nachteil konstatiert werden, dass die Anisotropie an den Bildschirmen mobiler Computer stärker ausgeprägt ist. Dies hat damit zu tun, dass andere LCD-Technologien bei mobilen Computern aufgrund des im Vergleich zu stationären Computerbildschirmen erhöhten Energiebedarfs56 verwendet werden. Experimentelle Untersuchungen zur visuellen Leistung belegen die stärkere Anfälligkeit von Notebook-Computer im Hinblick auf anisotropiebedingte Leistungseinbußen.57 Unter einer solchen kritischen Prüfung der visuellen Leistung erweist sich der Notebook-Computer als das Medium, an dem die visuelle Leistung im Vergleich zu einem stationären Kathodenstrahlmonitor und einem LCD-Monitor am schwächsten ausfällt. Dies zeigt sich sowohl in der Zeit, die Probanden benöti-

55 Vgl. Kirsch, Christian: „Laptops als Ersatz für Desktop-PCs. Überall im Büro [Laptops as a replacement for desktop PCs. The office is everywhere]”. In: iX (2004) H. 12, S. 40–45; King, Christopher N.: „Electroluminescent displays, SID 96 Seminar Lecture Notes“. In: Soc. For Information Display (1996) H. 9, S. 1–36. 56 Schlick u. a.: Visual Displays. 57 Vgl. Oetjen u. Ziefle: A visual ergonomic evaluation; Ziefle: Visual ergonomic issues.

Lesen an digitalen Medien

243

gen, um in visuellen Suchaufgaben einen Zielreiz zu entdecken als auch in der Genauigkeit, mit der Zielbuchstaben richtig erkannt werden (Abb. 6). Jedoch muss in diesem Kontext darauf hingewiesen werden, dass der hier belegte visuell ergonomische Nachteil des mobilen Computers natürlich nicht berücksichtigt, dass es bei einer mobilen Nutzung eines Laptops von Vorteil sein kann, dass Informationen während der Fahrt von anderen Mitfahrern nicht gut eingesehen werden können (Schutz der Privatsphäre, Datenschutz). Zudem hat die durch Laptops ermöglichte Unabhängigkeit des Zugriffs und Bearbeitung digitaler Information für viele Nutzer so viele andere Vorteile (Flexibilität, Unabhängigkeit von Zeit und Ort), dass visuell ergonomische Nachteile in der Leseeffizienz in Kauf genommen werden.

Abb. 6: Effekte der Anisotropie auf die Erkennungsgeschwindigkeit an drei verschiedenen Bildschirmtypen (CRT, LCD, Notebook) und in Abhängigkeit von fünf Blickwinkelpositionen (eine zentrale und vier seitliche Blickwinkel).

2.5 Informationsdarstellung bei Small Screen Devices Die Durchdringung heutiger Gesellschaften mit mobilen Endgeräten (sogenannte Small Screen Devices) stellt eine der schnellsten und raumgreifendsten technologischen Entwicklungen in den vergangenen 15 Jahren dar. Aktuelle Statistiken weisen darauf hin, dass momentan bereits die stattliche Summe von vier Billionen GSM-Verbindungen (Global System for Mobile Communications) existieren, die über verschiedene Gerätetypen abgerufen werden (Mobiltelefone, Smartphones, Communicators oder Smart Pads). Die Aktualität und die hohe Akzeptanz dieser Geräte und der Nutzen digitaler Information ist nicht nur dem ubiquitären und schnellen Zugriff geschuldet, sondern auch der Aktualität der Information, ihrer raumzeitlichen Verfügbarkeit und der Attraktivität mobiler Dienste. Geschätzt wird, dass im Jahr 2012 mehr als 445 Millionen Menschen mobile Dienstleistungen in allen Bereichen des Lebens nutzen werden (Kauf von Konsumarti-

244

Martina Ziefle

keln, mobile Dienstleistungen in den Bereichen Lebenshaltung, Sport, Kommunikation, Gesundheit etc.).58 Solche mobilen Endgeräte unterscheiden sich im Hinblick auf ihre physikalischen Abmessungen, der (farbigen) Informationsdarstellung, ihrer Helligkeit oder der Art und Weise wie Nutzer mit ihrem Gerät interagieren (Stift, Tastatur, Touchinput). Ein Merkmal ist jedoch allen Geräten gemeinsam: Das Sichtfenster, mit dem der Nutzer Information abruft, ist beschränkt (Miniaturisierung), und dies hat einen beträchtlichen Einfluss auf die Sichtbarkeit der Information und die Effizienz, mit der diese Geräte bedient werden können. Jenseits der bereits diskutierten visuellen Bild- und Textfaktoren – (Farb-)Kontrast, Leuchtdichte, Auflösung – unterscheiden sich die Geräte darin, wie viele Textzeilen und Menüfunktionen pro Sichtfenster dargestellt werden können, bevor der Nutzer ‚scrollen‘ muss und ein weiteres Fenster sehen kann. Momentan erhältliche Mobiltelefone (Nokia, Motorola, Samsung, Sony Ericsson) haben Displaygrößen zwischen 5 und 6 cm (Länge) und 2,5–5 cm (Breite). Auf den Sichtfenstern können gleichzeitig zwischen zwei und acht Zeilen dargestellt werden. Die Buchstabengrößen variieren ebenfalls (zwischen 2 und 5 mm). Aus visuell-ergonomischer Sicht ist eine gut lesbare Informationsdarstellung sehr schwierig, denn es muss ein sensibler Trade-off zwischen der Buchstabengröße und der Zeilendichte gefunden werden. Nun könnte argumentiert werden, dass solche Trade-offs zunehmend an Wichtigkeit verlieren, weil momentan ein positiver Trend zu wieder größeren Sichtfenstern bei Smartphones zu verzeichnen ist (z. B. beim I-Phone, das bis zu 20 Zeilen auf seinem Multitouch Display darstellen kann). Eine begrenzte Darstellungsfläche stellt im Hinblick auf eine leistungsoptimale Informationsverarbeitung aus ergonomischer Sicht also eine besondere Herausforderung dar. Auf den ersten Blick scheint diese Herausforderung vornehmlich visuell-ergonomischer Natur zu sein. Demnach muss im visuellen Interface-Design darauf geachtet werden, dass dargestellte Objekte und Zeichen groß genug sind, um leicht und problemlos erkannt zu werden, und die Textdichte nicht zu hoch ist, um Maskierungseffekte zu vermeiden. Dies ist für alle Nutzer von großer Wichtigkeit, aber ungleich stärker für ältere Nutzer, deren visuelle Funktionen altersbedingt nachlassen.59 Aber es sind eben nicht nur visuelle Aspekte, die in diesem Kontext berücksichtigt werden müssen. Es geht

58 Informa Telecoms and Media Global mobile forecasts, 2008. www.intomobile.com/2008 (Stand: 31.12.2008). 59 Brodie, Chattratichart u. a.: Future design of mobile phone experience; Omori, Masako, Tomoyuki Watanabe u. a.: „Visibility and characteristics of the mobile phones for elderly people“. In: Behaviour & Information Technology 21 (2002) H. 5, S. 313–316.

Lesen an digitalen Medien

245

auch darum, dass Nutzer bei der Kommunikation und Interaktion mit dem kleinen Sichtfenster einen Überblick über die vorhandenen Funktionen und Menüebenen erhalten müssen, um eine kognitive Orientierung beizubehalten und sich nicht im ‚Dschungel‘ der Funktionen zu verlieren.60 Dadurch, dass man durch ein komplexes Menü von Funktionen navigieren muss, das die meiste Zeit nicht sichtbar oder nur fragmentarisch abgebildet ist (kleines Sichtfenster), sind viele Nutzer kontinuierlich auf der Suche nach Funktionen oder verirren sich zunehmend während der Gerätebedienung. Um das Problem der Informationsdarstellung auf kleinen Displays zu lösen, sind verschiedene Techniken entwickelt worden. Eine dieser Techniken ist die schnelle serielle Darbietung von Information (‚Rapid Serial Visual Presentation‘, RSVP). Sie beruht auf der Idee, Information zeitlich anstatt räumlich zu portionieren.61 Mit dieser Technik werden verschiedene Wörter (oder Funktionen) an einem bestimmten Ort im Display dargestellt und kurz darauf abgelöst durch die nächste Gruppe von Wörtern usw. Nutzer haben also die Aufgabe, die seriell dargestellten Textfragmente zusammenzusetzen und auf diese Weise nachzuvollziehen. Eine vergleichbare Technik ist die ‚Times Square Methode‘ (TSM), die nicht mit statischer Information arbeitet, sondern den Text in einer bestimmten Geschwindigkeit am Auge des Betrachters „vorbeifahren“ lässt (Wort für Wort bzw. Satz für Satz). Natürlich lässt sich mit einiger Übung eine passable Leseleistung erreichen, aber solche Darstellungsformen stellen für unser informationsverarbeitendes System eine enorme Aufmerksamkeits- und Gedächtnisbelastung dar. Jenseits dessen sind solche Techniken gänzlich ungeeignet für Notfall- oder Stresssituationen, in denen die auf dem Mobiltelefon dargestellte Information (über)lebenswichtig ist (wie beispielsweise bei Small Screen Devices im medizinischen Kontext).62

60 Vgl. Ziefle, Martina u. Susanne Bay: „How older adults meet cognitive complexity: Aging effects on the usability of different cellular phones“. In: Behavior & Information Technology 24 (2005) H. 5, S. 375–389; Ziefle, Martina u. Susanne Bay: „How to overcome disorientation in mobile phone menus: a comparison of two different types of navigation aids“. In: Human Computer Interaction 21 (2006) H. 4, S. 393–433; Ziefle: Instruction format; Ziefle, Martina: „Modelling mobile devices for the elderly“. In: Advances in Ergonomics Modeling and Usability Evaluation. Hg. v. Halimahtun Khalid, Alan Hedge u. Tareq Z. Ahram. Boca Raton 2010, S. 280– 290. 61 Vgl. Rahman, Tarjin u. Paul Muter: „Designing an interface to optimize reading with small display windows“. In: Human Factors 41 (1999) H. 1, S. 106–117; Goldstein, Mikael, Gustav Öqvist u. a.: „Enhancing the reading experience: Using adaptive and sonified RSVP for reading on small displays“. In: Proceedings of the Mobile HCI. Berlin 2001, S. 1–9. 62 Vgl. Calero Valdez, André, Martina Ziefle u. a.: „Task performance in mobile and ambient interfaces. Does size matter for usability of electronic diabetes assistants?“ In: Proceedings of

246

Martina Ziefle

Somit kann festgehalten werden, dass visuelle und kognitive Anforderungen gleichzeitig zu bewältigen sind, die sich darüber hinaus gegenläufig verhalten. Die eine Strategie wäre, auf Sichtbarkeit zu setzen, große Fonts, wenig Textdichte (visuelle Komponente). Die andere Strategie wäre, so viel wie möglich in einem Display darzustellen, um Nutzern die maximal mögliche Vorschau auf die weiteren Funktionen zu geben und ihnen damit eine kognitive Orientiertheit über die Menüfunktionen zu ermöglichen. Frage ist, ob es einen sensiblen Punkt gibt, an dem die Vorteile der einen Anforderung (visuell) die Nachteile der anderen Anforderung (kognitiv) überwiegen. Solche Fragen können nur experimentell gelöst werden. Eine erste Studie untersuchte die Rolle der „Vorschaugröße“ im kleinen Sichtfenster eines Mobiltelefons.63 Junge Erwachsene hatten die Aufgabe, gewöhnliche Aufgaben an einem Mobiltelefon zu lösen. Experimentell variiert wurde die Anzahl der pro Display verfügbaren Textzeilen bzw. Anzahl der Funktionen (eine, drei und sieben). Die besten Ergebnisse wurden mit dem mittleren Display erreicht, in dem drei Funktionen pro Display dargestellt waren. In der Bedingung mit nur einer Funktion pro Display (die eine sehr gute Sichtbarkeit, aber eine geringe Vorschau ermöglichte) führten die Probanden 40% mehr Umwegschritte aus – einfach weil ihnen die Orientierung im Menü verlorenging. Dies verdeutlicht die Wichtigkeit der Vorschau (kognitive Orientierung). Bei einer hohen Informationsdichte (sieben Zeilen pro Display) zeigte sich wieder eine Leistungsverschlechterung (30%), woraus sich schließen lässt, dass die visuelle Komponente für die leistungsoptimale Aufgabenbearbeitung ebenfalls eine Rolle spielt. Eine weitere Studie thematisierte den Trade-off zwischen Lesbarkeit einerseits (Fontgröße) und Vorausschau (Anzahl der Zeilen pro Display) andererseits.64 Variiert wurden zwei Fontgrößen (8 pt und 12 pt) sowie die Darstellung von einer bzw. fünf Textzeilen, die gleichzeitig auf dem Display des Mobiltelefons zu sehen waren. Da wir nicht immer davon ausgehen können, dass junge, gutsichtige Nutzer ein Mobiltelefon bedienen, wurden in diesem Experiment Erwachsene mittleren und höheren Lebensalters (40–65 Jahre) untersucht, die aufgrund visueller Einschränkungen und einer geringeren technischen Vorer-

the International Conference on Information Society (i-Society 2010/IEEE). Hg. v. Charles Shoniregun u. Galyna Akmayeva. London 2010, S. 526–533. 63 Vgl. Bay, Susanne u. Martina Ziefle: „Effects of menu foresight on information access in small screen devices“. In: 48th annual meeting of the Human Factors and Ergonomic Society. Santa Monica 2004, S. 1841–1845; Ziefle, Martina u. Susanne Bay: „How to overcome disorientation in mobile phone menus: a comparison of two different types of navigation aids“. In: Human Computer Interaction 21 (2006) H. 4, S. 393–433. 64 Vgl. Ziefle: Information presentation in small screen devices.

Lesen an digitalen Medien

247

fahrung ohnehin mehr Schwierigkeiten im Umgang mit technischen Artefakten zeigen.65 Die Probanden hatten wiederum mehrere gewöhnliche Aufgaben am Mobiltelefon zu lösen. Gemessen wurden in Abhängigkeit von der variierten Fontgröße und der Menüvorschau die Effektivität der gelösten Aufgaben, aber auch die Zeit, die die Probanden dafür benötigten. Darüber hinaus wurden Verirrungsmaße ermittelt, wie die Anzahl unnötiger Menüaktionen und die Anzahl der Rücksprünge zum Startmenü, die immer dann ausgeführt werden, wenn Nutzer sich komplett verirrt haben und mitten in der Aufgabenbearbeitung wieder von ganz vorne anfangen. Abbildung 7 zeigt die Ergebnisse. Deutlich wird, dass es bei einer nutzergerechten Darstellung digitaler Information auf einem Small Screen Device um eine Kombination visueller und kognitiver Anforderungen geht, die gleichzeitig berücksichtigt werden muss. Die beste Navigationsleistung wurde in der Bedingung erreicht, in der ein großer Font (12 pt) und eine große Vorschau (5 Funktionen) vorhanden ist. Wenn man eine Gewichtung vornehmen muss, also darüber entscheiden, welche der beiden Facetten wichtiger als die andere ist, dann ist es für ältere Nutzer wichtiger, dass sie sich orientieren können (kognitive Vorschau), allerdings natürlich nur, wenn die grundsätzliche Lesbarkeit der Zeichen gegeben ist (und das ist bei 8-Punkt-Schriften auf einem selbstleuchtenden Medium wie dem Mobiltelefon der Fall).

Abb. 7: Effekte der Fontgröße und der Menüvorschau im Mobiltelefon. Von links nach rechts: Anzahl gelöster Aufgaben, Bearbeitungszeit, Anzahl der unnötigen Rückschritte im Menü, Anzahl der kompletten Neustarts.

65 Vgl. Ziefle: Instruction format; Ziefle, Martina u. Susanne Bay: „Transgenerational Designs in Mobile Technology“. In: Handbook of Research on User Interface Design and Evaluation for Mobile Technology. Hg. v. Joanna Lumsden. Hershey 2008, S. 122–140.

248

Martina Ziefle

3 Interaktion: neue Formen des Umgangs mit Information bei digitalen Medien Der beschriebene Zugang der Bewertung digital dargestellter Information – die Messung der Effektivität und der Effizienz der Leseleistung – ist natürlich ein sehr spezifischer und – berücksichtigt man zukünftige Anwendungsgebiete digitaler Information und Kommunikation – ein sehr eingeschränkter. Der traditionelle Bewertungszugang geht davon aus, dass wir digitale Information ‚entnehmen‘ und ‚verarbeiten‘ und dass sich dieser Prozess möglichst reibungslos, schnell und fehlersicher vollziehen soll, richtet sich somit auf pragmatische Facetten einer Technologie. Er geht weiterhin davon aus, dass es sich beim Computer und anderen digitalen Darstellungsmedien um sichtbare, von uns und unserer Raumumgebung unabhängige Artefakte handelt, die isoliert voneinander genutzt werden, ohne dass die Geräte untereinander verbunden sind oder gar eine regelhafte Verbindung zu anderen Lebenswelten haben. Bereits jetzt zeichnet sich jedoch ab, dass zukünftige Anwendungsszenarien von elektronischen Displays und die Verwendung digitaler Information Menschen und Technik in einer völlig anderen Form konzeptualisieren.66 Digitale Informationen sind nicht auf sichtbare Artefakte beschränkt. Sie werden in Alltagsgegenstände, in Raumumgebungen oder in Kleidung integriert. Gerade bei der Vorstellung, dass – bedingt durch den demographischen Wandel – immer mehr ältere Menschen alleine leben und nicht genügend familiäres oder professionelles Pflegepersonal zur Verfügung steht, damit die Älteren in Würde daheim alt werden können, sind technische Lösungen bzw. Assistenzsysteme gefragt, die holistisch und nutzerzentriert in Wohnumgebungen „unsichtbar“ integriert werden. So ist es denkbar, grundsätzlich technisch machbar und bereits handwerklich in experimentellen Szenarien umgesetzt, dass Wände und Fußböden einer Wohnumgebung intelligent sind, also digitale Information „aufnehmen“ können: Der Fußboden registriert beispielsweise, dass ein Bewohner gefallen ist.67 Solche Wohnumgebungen können darüber hinaus Informationen „verarbeiten“: Der Bewohner kann beispielsweise seine Lebensmittelbestellung

66 Brown, Stuart F.: „Hands-On Computing: How Multi-Touch Screens Could Change the Way We Interact with Computers and Each Other“. In: Scientific American Magazine 2008; Heidrich, Felix, Martina Ziefle u. a.: „Interacting with Smart Walls: A Multi-Dimensional Analysis of Input Technologies for Augmented Environments“. In: Proceedings of the ACM Augmented Human Conference (AH’11). New York 2011, S. 1–8. 67 Leusmann, Philipp, Christian Möllering u. a.: „Your Floor Knows Where You Are: Sensing and Acquisition of Movement Data“. Full paper at the Workshop on Managing Health Information in

Lesen an digitalen Medien

249

beim Supermarkt über ein multitouchfähiges digitales Display, das gleichzeitig seine Wohnzimmerwand ist, aufgeben, genauso wie die Wand ein Kommunikationsfenster darstellen kann. So könnte beispielsweise eine digitale Sprechstunde mit dem Arzt – zusätzlich zur normalen persönlichen Sprechstunde – dazu führen, dass der Bewohner in kürzeren Intervallen als dies normalerweise üblich ist, medizinische Beratung einholen kann.68 Abbildung 8 zeigt eine Umsetzung eines digitalisierten Wohnzimmers im Future Care Lab an der RWTH Aachen.69 Nicht nur der Fußboden, sondern auch die Wand oder das Sofa sind Ein- und Ausgabegeräte, mittels derer Bewohner den Umgang mit digitaler Information in ihr Leben integrieren können.

Abb. 8: Fotoimpressionen aus verschiedenen Nutzungsszenarien in der intelligenten Wohnumgebung im Future Care Lab (Bilder: Kai Kasugai)

Klar ist, dass in solchen Zukunftsszenarien nicht nur die Effektivität und die Effizienz der Informationsentnahmeleistung das Benchmark-Kriterium für die Gestaltung technischer Geräte sein kann. In solchen realweltlichen und holistisch konzeptualisierten Umgebungen, die Teil des Lebensraumes von Menschen sind, gelten ungleich komplexere Anforderungen. So müssen neue Interaktionsformen und Kommunikationsetiketten untersucht werden, wie beispielsweise

Mobile Applications (HIMoA 2011). IEEE 12th International Conference on Mobile Data Management (MDM 2011). 68 Heidrich u. a.:Interacting with Smart Walls; Klack, Lars, Thomas Schmitz-Rode u. a.: „Integrated Home Monitoring and Compliance Optimization for Patients with Mechanical Circulatory Support Devices (MCSDs)“. In: Annals of Biomedical Engineering 39 (2011) H. 12, S. 2911–2921. 69 Ziefle, Martina, Carsten Röcker u. a.: „A Multi-Disciplinary Approach to Ambient Assisted Living“. In: E-Health, Assistive Technologies and Applications for Assisted Living: Challenges and Solutions. Hg. v. Röcker, Carsten u. Martina Ziefle. Hershey, P.A. 2011, S. 76–93.

250

Martina Ziefle

Gesten als Eingabemodalitäten.70 Ebenfalls spielen die unterschiedlichen Wünsche und Bedürfnisse der Bewohner an eine angenehme und die Privatsphäre respektierende Gerätegestaltung eine Rolle.71

Literaturhinweise Holzinger, Andreas, Markus Baernthaler u. a.: Investigating paper vs. screen in real-life hospital workflows: Performance contradicts perceived superiority of paper in the user experience”. In: International Journal of Human-Computer Studies (2011a) H. 69, S. 563–570. Morrison, Robert u. Albrecht Inhoff: Visual factors and eye movements in reading. In: Visible Language, 15 (1981), S. 129–146. Tinker, Miles: The Legibility of Print. Ames/Iowa 1963. Schlick, Christopher M. u. a.: „Visual Displays“. In: S. A. Jacko (Hg.): The Human Computer Interaction Handbook: Fundamentals, Evolving Technologies and Emerging Applications. 3rd edition. Boca Raton 2012, S. 157–191. Ziefle, Martina: Lesen am Bildschirm [Reading from screens]. Münster 2002.

70 Brown: Hands-On Computing; Saffer, Dan: Designing Gestural Interfaces: Touchscreens and Interactive Devices. O’Reilly Media 2008; Heidrich u. a.: Interacting with Smart Walls. 71 Wilkowska, Wiktoria u. Martina Ziefle: „User diversity as a challenge for the integration of medical technology into future home environments“. In: Human-Centred Design of eHealth Technologies. Concepts, Methods and Applications. Hg. v. Ziefle, Martina u. Carsten Röcker. Hersehy, P.A. 2011, S. 95–126.

Simone C. Ehmig und Lukas Heymann

Die Zukunft des Lesens 1 Lesen als Basiskompetenz Die 2011 veröffentlichte „leo. Leve-one-Studie zur Alphabetisierung“1 in Deutschland zeigt, dass 7,5 Millionen der Deutsch sprechenden Erwachsenen zu den funktionalen Analphabeten zu zählen sind, weil sie Texte nur unzureichend verstehen und nicht richtig schreiben können. Das entspricht 14,5 Prozent der erwachsenen deutschsprachigen Bevölkerung. Das Problem des Analphabetismus wird in allen deutschsprachigen Ländern Europas diskutiert. Bereits die Zahl der von funktionalem Analphabetismus Betroffenen alarmiert und motiviert viele Akteure, sich in der Förderung von Grundbildung und Alphabetisierung zu engagieren.2 Das Ausmaß, die bildungspolitische Brisanz und Relevanz mangelnder Lesekompetenz wird noch einmal mehr deutlich, wenn man sich vergegenwärtigt, dass es sich nicht um ein aussterbendes, sondern kontinuierlich nachwachsendes Problem handelt. Dies belegen die PISA-Erhebungen seit dem Jahr 2000. Die Befunde der jüngsten PISA-Studien zeigen für 2009: Im Durchschnitt aller OECD-Staaten haben 18,8 Prozent der 15-Jährigen Schwierigkeiten beim Lesen und Schreiben. In der Schweiz sind es 16,9 Prozent, in Deutschland 18,5 Prozent, in Österreich 27,5 Prozent. Mit diesen Jugendlichen wächst bereits die nächste Generation möglicher funktionaler Analphabeten heran.3 Die PISA- und Alphabetisierungsbefunde verdeutlichen den Stellenwert des Lesens als Basiskompetenz und Voraussetzung für gute Bildung und Ausbildung, selbstbestimmte gesellschaftliche und politische Teilhabe. Das Bewusstsein für die Notwendigkeit, gut lesen zu können, hat das Themenfeld Lesen in der Öffentlichkeit zu einem bildungs- und gesellschaftspolitischen Gegenstand von kontinuierlichem Interesse werden lassen. Während das Bewusstsein bildungspolitischer und gesellschaftlicher Akteure, pädagogischer Fachkräfte und alarmierter Eltern im Gefolge der PISA- und Alphabetisierungszahlen zugenommen hat, geht die Bedeutung des Lesens in der öffentlichen Wahrnehmung eher

1 Die Untersuchung wurde unter Leitung von Prof. Dr. Anke Grotlüschen an der Universität Hamburg durchgeführt. Zentrale Ergebnisse enthält das Presseheft: leo. – Level-One Studie. Literalität von Erwachsenen auf den unteren Kompetenzniveaus. Hamburg 2011. 2 Beispielhaft können aktuell die Bemühungen der deutschen Bundesregierung gesehen werden, die dem Problem mit Förderschwerpunkten, Aktionsbündnissen und politischen Maßnahmen begegnen. 3 Klieme, Eckhard u. a.: PISA 2009. Bilanz nach einem Jahrzehnt. Münster u. a. 2010.

252

Simone C. Ehmig und Lukas Heymann

zurück. Diese Sichtweise stützt sich auf Entwicklungen in der Nutzung von Lesemedien, die Untersuchungen der vergangenen Jahre nahelegen.

2 Gesamtgesellschaftlicher Bedeutungswandel des Lesens durch Veränderung im Printmarkt Empirische Erhebungen zeigen einen kontinuierlichen Wandel in der Nutzung von Printmedien. Dieser Wandel manifestiert sich in Deutschland beispielhaft in – einem kontinuierlichen Rückgang der Gesamtreichweiten von Tageszeitungen,4 – einem steigenden Anteil Erwachsener, die keine (25% 2008 vs. 20% 1992) oder nur wenige Bücher lesen (44% haben 2008 1 bis 5 Bücher gelesen, 1992 waren es 38%),5 – einem sinkenden Anteil Erwachsener, die im Jahresdurchschnitt viele Bücher lesen (11% lasen 2008 mehr als 20 Bücher, 1992 waren es 15%), – einem zunehmenden Anteil von Lesern, die Texte in kleinen Portionen über längere Zeit lesen (37% 2008 vs. 29% 1992), die in Büchern „surfen“, sie überfliegen und nur das Interessanteste lesen (21% 2008 vs. 14% 1992), – einem zunehmenden Anteil von Lesern, die nur in freien Zeiten, z. B. im Urlaub, Bücher nutzen (19% 2008 vs. 10% 1992). Die Befunde legen auf den ersten Blick nahe, dass die Bedeutung des Lesens gesamtgesellschaftlich abnimmt. Die Veränderungen betreffen Häufigkeit, Intensität und Strategie der Nutzung klassischer Printmedien. Die bereits erwähnten Ergebnisse zur Lesekompetenz von Jugendlichen und Erwachsenen zeigen auf nationaler und internationaler Ebene, dass neben mangelnder Motivation häufig auch die unzureichende Lesefähigkeit eine Hemmschwelle darstellt, zu Buch oder Tageszeitung zu greifen.6

4 Dies zeigen z. B. Daten der Arbeitsgemeinschaft Mediaanalysen, die die Zeitungs Marketing Gesellschaft und der BDZV mit Blick auf ihre Bedeutung für den Zeitungsmarkt regelmäßig veröffentlichen. Analog sind Daten für die Auflagenentwicklung in den Publikationen der IVW (Informationsgemeinschaft zur Feststellung der Verbreitung von Werbeträgern e.V.) relevant. 5 Vgl., auch zu den drei folgenden Punkten: Stiftung Lesen (Hg): Lesen in Deutschland 2008. Eine Studie der Stiftung Lesen. Mainz 2009. 6 EACEA P9 Eurydice (Hg.): Teaching Reading in Europe: Contexts, Policies and Practices. Brüssel 2011.

Die Zukunft des Lesens

253

Entgegen der genannten Trends ist der Umsatz im deutschen Buchhandel über die vergangenen Jahre weitgehend stabil und konnte phasenweise sogar Anstiege verzeichnen, v. a. beim Internetvertrieb.7 Auch erreichte etwa die Wochenzeitung Die Zeit im Herbst 2010 die höchste verkaufte Auflage seit 18 Jahren. Die Zahl der Presseverkaufsstellen blieb 2011 auf einem hohen Niveau stabil. Darüber hinaus hat der Pressehandel weiter investiert und rückt durch neue, hochwertige Präsentationsflächen Printprodukte stärker in den Fokus der Käufer.8 Im Jahr 2008 meinten 59 Prozent der Erwachsenen in Deutschland, sie würden auf gedruckte Bücher nie verzichten wollen.9 Diese Wertschätzung brachten Befragte aller Altersgruppen mehrheitlich zum Ausdruck. Die Beispiele zeigen, dass der häufig mit pessimistischem Blick betrachtete Bedeutungswandel gedruckter Medien nicht flächendeckend wahrzunehmen ist.

3 Digitaler Markt für Leseangebote Eine rein buch- und printzentrierte Betrachtung lässt außer Acht, dass das Lesen und der Markt der Lesemedien aufgrund von Veränderungen in Mediensystem und Medienangebot nicht mehr auf gedruckte Produkte zu beschränken sind. Die Anbieter klassischer Printmedien selbst reagieren auf sinkende Nutzungszahlen mit digitalen Angeboten wie Online-Tageszeitungen, Zeitungs- und Zeitschriften-Apps für Tablet-PCs und Smartphones, Kinderbuch-Apps usw. Sie erreichen damit zum Teil eine Klientel, die mit digitaler Prägung veränderte Medieninteressen und -gewohnheiten zeigt und sich vom klassischen Printprodukt abwendet. Dieselben Inhalte werden auf andere Trägermedien verlagert, die zum Teil – wie im Falle der Tageszeitungen – Ausfälle bei den Auflagen im klassischen Printbereich kompensieren, nicht aber bei den Erlösen.10 Eine amerikanische Marktstudie prognostiziert, dass der Umsatz mit elektronischen Büchern bis 2015 weltweit um 34,7 Prozent pro Jahr zulegen und 2015 12,3 Milliarden US-Dollar betragen wird. Das wäre ein Marktanteil von 10,3 Prozent, ein deutlicher Anstieg gegenüber den 2,6 Prozent im Jahr 2010. Die Untersuchung sieht elektronische Bücher und Tablet-PCs immer beliebter, E-Reader

7 Vgl. Börsenverein des Deutschen Buchhandels (Hg.): Buch und Buchhandel in Zahlen 2011. Frankfurt/Main 2011. 8 Bundesverband Presse-Grosso (Hg.): EHASTRA 2011. Köln 2011. 9 Stiftung Lesen (Hg.): Lesen in Deutschland 2008. Eine Studie der Stiftung Lesen. Mainz 2009. 10 Vgl. aktuelle Meldungen des BDZV, nach denen die Reichweiten von Tageszeitungen im Print-, Online- und App-Bereich zusammen einen Zuwachs verzeichnen.

254

Simone C. Ehmig und Lukas Heymann

durch sinkende Preise attraktiver werden. Positiv auswirken werde sich das Wachstum der Bevölkerung über 45 Jahre, die im Durchschnitt mehr Bücher kauft als die Jüngeren.11 Mit der Verfügbarkeit der Trägermedien eröffnen sich potenziellen Lesern Möglichkeiten, ihre bisherigen Printprodukte elektronisch zu nutzen. Hier dürfte nur ein Teil der Leser komplett vom gedruckten zum elektronischen Angebot wechseln. In einer Studie des Verbands Deutscher Zeitschriftenverleger aus dem Jahr 2011 gaben 67,5 Prozent von 3300 iPad-Nutzern an, Zeitschriften auf dem Gerät zu lesen. 41 Prozent lesen weiterhin (auch) gedruckte Zeitschriften. Die elektronischen Angebote werden zumindest von der hier befragten Klientel, die überdurchschnittlich viele Hochgebildete umfasst, eher als Ergänzung gesehen, weniger als Ersatz.12 So wie Print- und digitale Produkte bisher als parallele Angebote zu sehen sind, erwarten Verlage auch innerhalb des digitalen Markts überwiegend eine Angebotsvielfalt. Dies spiegeln Daten einer Untersuchung des Börsenvereins des Deutschen Buchhandels zum „Umbruch auf dem Buchmarkt“. Der Hauptgeschäftsführer des Börsenvereins in einem Interview: „Verlagsexperten sind sich […] einig […] darin, dass es nicht nur ein Gerät, sondern verschiedene Alternativen beim elektronischen Lesen gibt: Ganz vorne sind Tablet-PCs – das sagen 83 Prozent der Befragten. Gleich danach folgen Laptops und PCs (68 Prozent). Smartphones und spezielle E-Reader stehen ebenfalls mit deutlich mehr als der Hälfte da. Bei den Formaten sind zwar 44 Prozent der Meinung, dass verschiedene Formate parallel existieren werden – ein knappes Drittel ist aber davon überzeugt, dass sich nur ein Format durchsetzen wird. Die größten Chancen werden hier dem E-Pub-Format eingeräumt, das sich vor allem durch seine flexible Darstellung auf verschiedenen Endgeräten auszeichnet.“13 Dabei verschmelzen Verkaufsplattformen sowie die Märkte für Trägermedien und elektronische Bücher bzw. Lesemedien zunehmend miteinander. Beispielhaft hierfür steht der Kindle Fire von Amazon, der mit niedrigem Preis für das Endgerät, Integration der Amazon-Verkaufsfläche und (Android-) App-Markt neue Nutzer gewinnen will. Der niedrige Gerätepreis soll mit den Gewinnen über die Inhalte – Bücher, Zeitschriften, Musik und Filme – ausgeglichen werden.

11 PricewaterhouseCoopers: Global Entertainment and Media Outlook: 2011–2015 Digital Forecasts and Trends. New York 2011. 12 Verband Deutscher Zeitschriftenverleger (Hg.): Zeitschriftennutzung auf dem iPad. Berlin 2011. 13 Börsenverein des Deutschen Buchhandels: Umbruch auf dem Buchmarkt? Das E-Book in Deutschland. Frankfurt/Main 2011. Zum Interview vgl. www.dokmagazin.de/wie-lesen-wirheute-print-oder-digital (Stand: 03.02.2012).

Die Zukunft des Lesens

255

Analysten schätzen die Verkaufszahlen in den USA nach kurzer Zeit auf etwa sechs Millionen Stück. Jedes dritte Android-Tablet ist demnach bereits ein Kindle Fire. Im Dezember 2011 verkaufte Amazon pro Woche ca. eine Million Geräte aus der Kindle Serie.14 Die Zahlen belegen beispielhaft das Marktpotenzial entsprechender Geräte und verdeutlicht die Dimensionen, in denen Medien und Märkte konvergieren. (Siehe auch den Beitrag von Fischer/Vogel in diesem Band.)

4 Neue Formen und Funktionen des Lesens durch digitale Medien Zur digitalen Nutzung von Texten, die originär aus dem Printbereich stammen, kommen andere Formen und Funktionen des Lesens, die sich spezifisch im Onlinebereich ausgebildet haben. Menschen lesen, wenn sie über Suchmaschinen recherchieren und wenn sie im Internet surfen. Sie lesen SMS- und E-MailNachrichten, Einträge in Chatrooms, Blogs und auf den Seiten der sozialen Netzwerke. Jenseits jeden qualitativen Blicks auf Sprachniveau, grammatikalische und inhaltliche Aspekte wird man feststellen, dass Menschen bei der Nutzung von Mobiltelefon, Smartphone, Computer, Internet und z. T. auch Spielkonsolen mit beträchtlicher Häufigkeit und Intensität lesen (und schreiben) – auch wenn sie selbst diese Aktivitäten nicht als „Lesen“ bezeichnen würden. Dies zeigen Ergebnisse von Studien mit Kindern und Jugendlichen.15 Der Stellenwert des Lesens als Vorgang, der im Alltag faktisch einen breiten Raum einnimmt, hat sich in den vergangenen Jahrzehnten auch durch Veränderungen in den Arbeitsbedingungen und im (Frei-)Zeitbudget erhöht. Mit der Verlagerung der Wirtschaftssektoren auf Schwerpunkte im Dienstleistungs- und Informationsbereich ist der Anteil der Arbeitnehmer, die lesende und schreibende Tätigkeiten ausüben, gewachsen. Mit der Veränderung von Wochenarbeitszeiten und Gleitzeitregelungen sind die individuell für Freizeitaktivitäten nutzbaren Zeitbudgets gestiegen, die sehr häufig mit der Nutzung von OnlineMedien – und damit lesend und schreibend – verbracht werden. Dies zeigen Untersuchungen zur Mediennutzung.16 Faktisch ist der Anteil der Tätigkeiten,

14 www.heise.de/newsticker/meldung/Jedes-dritte-Android-Tablet-ist-ein-Kindle-Fire-1425318. html (Stand: 01.02.2012). 15 So z. B. Stiftung Lesen (Hg.): Zeitschriftenlektüre und Diversität. Mainz 2011. 16 So z. B. für das Mediennutzungsverhalten von Familien: Medienpädagogischer Forschungsverbund Südwest (Hg.): FIM-Studie 2011. Familie, Interaktion & Medien, S. 59.

256

Simone C. Ehmig und Lukas Heymann

die im Alltag mit Lesen und Schreiben verbunden sind, beträchtlich. Lesen ist notwendige Voraussetzung und integraler Bestandteil vieler Aktivitäten im Arbeitsleben und in der Freizeit. Lesen ist Bedingung für Partizipation in Alltag, Beruf und gesellschaftlichem wie politischem Leben. Gerade weil das Lesen mit elektronischen Medien eine unabdingbare Voraussetzung für die Teilhabe an Bildungsangeboten, Arbeitsprozessen, Freizeitaktivitäten und anderen Lebensvollzügen ist, sind die Anforderungen an Lese- und Sprachkompetenz gewachsen und werden mit der noch zunehmenden Digitalisierung weiter ansteigen. Umso größer ist angesichts der eingangs referierten Zahlen zur Alphabetisierung Erwachsener und zum Textverständnis Heranwachsender die politische und gesellschaftliche Notwendigkeit, Lesekompetenz, Lesemotivation und Lesefreude zu wecken und zu fördern. Die rein quantitative Betrachtung von Lesevorgängen und Nutzungsgewohnheiten greift zu kurz, würde dabei nicht auch die Frage nach den Auswirkungen der Nutzung digitaler Lesemedien eine Rolle spielen. In der öffentlichen Diskussion erscheinen Digitalisierung und Lesen häufig als unvereinbare Gegensätze.17 Besorgte Eltern und Pädagogen fürchten, dass Lesekompetenz und -motivation ihrer Kinder durch die Nutzung digitaler Angebote leiden.18 Die skeptischen Sichtweisen sind verständlich. Ob sie berechtigt sind, lässt sich nur mit nüchternem Blick auf Forschungsergebnisse entscheiden, die den Zusammenhang zwischen Lesen auf digitalen Trägermedien und Lesekompetenz bzw. -motivation überprüfen.

5 Digitale Trägermedien und Lesekompetenz – ein Forschungsthema Digitale Trägermedien spielen in Untersuchungen zur Mediennutzung seit Mitte/ Ende der 90er Jahre eine Rolle. Seit 1995 liefern die „W3B-Studien“ Daten über Profile und Verhaltensweisen von Internetnutzern.19 1997 wurde die erste ARD/

17 www.hr-online.de/website/specials/buchmesse2011/index.jsp? rubrik=69462&key=standard_document_39887639 (Stand: 07.02.2012). 18 Entsprechende Anfragen von Eltern erreichen beispielsweise häufig die Stiftung Lesen. Der Tenor: Wenn die Kinder am Bildschirm sitzen, lesen sie nicht. Computerspiele, Internet usw. bringen Kinder vom Lesen ab. Dies mag mit Blick auf gedruckte Bücher nicht falsch sein. Es berücksichtigt jedoch nicht, dass für die Nutzung der Websites, Spiele usw. Lesevorgänge notwendig sind. 19 Vgl. www.fittkaumaass.de/stories/storyReader$119 (Stand 29.02.2012).

Die Zukunft des Lesens

257

ZDF-Online-Studie durchgeführt.20 Im selben Jahr begann das Institut für Demoskopie Allensbach mit der jährlichen „Allensbacher Computer- und TechnikAnalyse“.21 Seit 2001 bildet der (N)onliner-Atlas die Internetnutzung in den Bundesländern ab und liefert Daten zum Online-Verhalten unterschiedlicher Bevölkerungsgruppen.22 Die 2002 gegründete Arbeitsgemeinschaft Online Forschung e. V. veröffentlicht seit 2009 die „internet facts“ und seit 2010 die „mobile-facts“-Studien.23 Die Untersuchungen betrachten die Nutzung digitaler Medien auf verschiedenen Ebenen. Sie fragen nach Merkmalen der Nutzer (z. B. Soziodemografie, Themeninteressen, Freizeit- und Konsumverhalten) und nach der Nutzung verschiedener Endgeräte (z. B. PCs, Smartphones, Tablets), die Zugangswege zum Internet und anderen Anwendungen darstellen. Bei der Nutzung des Internets fragen sie, was Nutzer dort tun (z. B. surfen, chatten, mailen) und welchen Inhalten sie sich zuwenden (z. B. Informationen über Politik oder Sport, Spielen usw.). Studien zur Nutzung digitaler Medien erfassen in der Regel nicht explizit die Lesevorgänge beim Kommunizieren, Surfen oder bei der Nutzung von Spiel- und Lernsoftware. Welche Rolle das Lesen bei der Nutzung digitaler Medien spielt, lässt sich aus entsprechenden Daten meist implizit erschließen, die beispielsweise zeigen, dass im Frühjahr 2012 36,3 Prozent der regelmäßigen Internetnutzer ihre Zeitung im Web lesen.24 Bis zur Markteinführung von E-Readern und der Möglichkeit, Bücher digital auch auf Smartphones oder Tablet-PCs zu nutzen, spielt das Lesen von Büchern auf elektronischen Trägermedien keine nennenswerte Rolle. Über lange Zeit war das Lesen von Texten auf digitalen Endgeräten keine realistische Vorstellung. Dies zeigt eine Aussage, die noch 2001 im Handbuch Lesen unter dem Stichwort „Elektronische Medien“ zu finden war: Kaum jemand kommt heute auf die Idee, einen Roman, ein Gedicht, eine Erzählung auf dem Bildschirm zu konsumieren. […] Jede elektronische Information ist an technische Vorrichtungen gebunden und hat deshalb eine wesentlich eingeschränkte Gebrauchsfähigkeit. Außerdem ist das Entscheidende, dass Lesevergnügen und didaktische Aufnahme überhaupt nur beim Lesen eines Buches entstehen können. […] Der didaktische Vorgang

20 Vgl. www.ard-zdf-onlinestudie.de (Stand 29.02.2012). 21 Vgl. www.acta-online.de/ (Stand 29.02.2012). 22 Vgl. www.nonliner-atlas.de (Stand 29.02.2012). 23 Vgl. www.agof.de/internet-facts.987.de.html und www.agof.de/mobile-facts.988.de.html (Stand 29.02.2012). 24 Vgl. www.bdzv.de/aktuell/pressemitteilungen/artikel/detail/zeitungsreichweiten_wachsen (Stand 29.02.2012).

258

Simone C. Ehmig und Lukas Heymann

des Lernens und des Verstehens, des Weiterentwickelns, des logischen Denkens geschieht immer nur dann, wenn ein gedruckter Text aufgenommen wird.25

Seit der Markteinführung von E-Readern und den vielfältigen Möglichkeiten, Bücher, Zeitungen und Zeitschriften auch auf elektronischen Endgeräten zu nutzen, spielen Lesevorgänge zunehmend eine Rolle in der Forschung. Dabei sind mindestens drei Fragen relevant: Welchen Einfluss nehmen digitale Trägermedien auf die Lesekompetenz und das Leseverhalten? Wie werden Texte und ihre Inhalte kognitiv verarbeitet, die gedruckt bzw. digital gelesen werden? Wie können digitale Medien zur Lesemotivation und Leseförderung eingesetzt werden? Drei Untersuchungen sollen exemplarisch das noch neue Forschungsfeld illustrieren. Die PISA-Studie 2009 betrachtete in einer Sonderauswertung das „Lesen im elektronischen Zeitalter“. Als einziges deutschsprachiges Land beteiligte sich Österreich an der Erhebung, die wie für gedruckte Medien auch für das Lesen am Bildschirm das Textverständnis erfasste. Bemerkenswert ist, dass zwischen der Lesekompetenz bei klassischen Printmedien und beim Lesen elektronischer Medien ein enger Zusammenhang besteht.26 Je besser die Jugendlichen in einem Land Texte verstehen, die ihnen gedruckt vorliegen, desto besser verstehen sie auch Texte, die sie am Bildschirm lesen. Der Befund legt nahe, dass der erfolgreiche Erwerb der Basiskompetenz Lesen weitgehend unabhängig vom Trägermedium – ob digital oder analog – ist. Nicht die digitale oder gedruckte Darreichungsform ist ausschlaggebend, sondern andere Faktoren, die für Bildungssysteme, Erziehungsstile und Konzepte der Vermittlung von Medienkompetenz stehen – so lässt der Ländervergleich zumindest schließen. Eine Gruppe von Wissenschaftlern im Forschungsschwerpunkt Medienkonvergenz der Universität Mainz untersuchte das Lesen von Texten auf unterschiedlichen Trägermedien: auf Papier, auf einem E-Ink-Reader und auf dem iPad. Die Studie zeigt mit physiologischen Messungen an einer kleinen Zahl von Probanden tendenziell, dass Informationen beim Lesen auf dem Tablet-PC besser verarbeitet werden als auf dem E-Reader und auf Papier. Subjektiv empfinden Leser allerdings die Papierversion angenehmer als die elektronischen Varianten.27 Die Be-

25 Saur, Klaus Gerhard: „Elektronische Medien“. In: Bodo Franzmann, Klaus Hasemann, Dietrich Löffler, Erich Schön (Hg.): Handbuch Lesen. Baltmannsweiler 2001, S: 281–287, hier S. 286. 26 Schwandtner, Ursula, Claudia Schreiner (Hg.): PISA 2009. Lesen im elektronischen Zeitalter. Die Ergebnisse im Überblick. Salzburg o.J., S. 16. 27 Foschungsschwerpunkt Medienkonvergenz (Hg.): Unterschiedliche Lesegeräte, unterschiedliches Lesen? (Studienpapier). Mainz 2011 (abrufbar unter: www.medienkonvergenz. uni-mainz.de/forschung/forschungsfragen; Stand: 29.02.2012).

Die Zukunft des Lesens

259

funde verweisen auf das mögliche Potenzial digitaler Lesemedien für den pädagogisch-didaktischen Einsatz, z. B. in Gestalt digitaler Schulbücher. In diesem Kontext sind Pläne der Firma Apple zu sehen, die im Januar 2012 eine Erweiterung des iBook-Marktes ankündigte.28 Das Unternehmen will mittels digitalisierter Schulbücher auf dem Schul- und Lehrbuchmarkt expandieren und wird damit einen entscheidenden Schritt in die Zukunft einer primär digital geprägten Lernwelt machen. Die Ergebnisse der Studie verweisen aber ebenso auf die kulturpessimistisch-kritischen Perspektiven, die die öffentliche Diskussion um digitales Lesen häufig prägen. Hier können nur weitere, differenziertere Untersuchungen auf breiterer Basis dazu beitragen, den Diskurs zu versachlichen und die Chancen zu nutzen, die in den technologischen Möglichkeiten liegen. Eine quasi-experimentelle Studie der Stiftung Lesen zum Einsatz von E-Readern in der Leseförderung zeigt, dass E-Reader besonders für leseferne Jugendliche ein Türöffner zum Umgang mit Büchern sein können. Im Rahmen der Untersuchung erhielten sechste Klassen von Gesamtschulen im Rhein-MainGebiet jeweils eine Bibliothek von rund 90 Titeln entweder als reine Print-Ausgaben, als E-Books oder in beiden Produkt-Formen. Eine weitere Klasse diente als Vergleichsgruppe und erhielt keine zusätzlichen Leseanreize. Das Angebot stand zur freien Nutzung zur Verfügung und war nicht in den Unterricht einbezogen. Die Studie beobachtete die Vorstellungen der Kinder und Jugendlichen vom Lesen, ihren Umgang mit den Leseanreizen und ihr Lese- und Medienverhalten. Ein zentrales Ergebnis zeigt, dass E-Reader und E-Books eine große Anfangsbegeisterung bewirken: Sie werden Gesprächsthema auf dem Pausenhof. Darüber hinaus verändern elektronische Bücher das Image vom Lesen: Das von lesefernen Jugendlichen als altmodisch wahrgenommene Medium Buch erscheint auf dem E-Reader als moderne und damit attraktivere Alternative. Zudem wurden E-Book-Titel vier Mal häufiger heruntergeladen als die identischen Texte in Printform ausgeliehen. Besonders bemerkenswert ist, dass die Schüler bei E-Readern andere Auswahlstrategien anwenden als am Bücherregal: Insbesondere umfangreiche Bücher werden digital häufiger heruntergeladen als in Printform ausgeliehen. Die Hemmschwelle, die ein dicker Buchrücken im Regal insbesondere für Ungeübte bedeutet, wird gesenkt – lange Texte erscheinen digital besser beherrschbar.29 Die beispielhaft referierten Befunde legen nahe, dass digitale Trägermedien ein großes Potenzial als Leseanreiz und für die Vermittlung von Lesekompetenz 28 Vgl. www.sueddeutsche.de/digital/ibooks-apple-will-den-schulbuchmarkt-erobern1.1262365 (Stand: 06.02.2012). 29 Stiftung Lesen: Das Potenzial von E-Readern in der Leseförderung, 2011. www.stiftunglesen. de/ereaderstudie (Stand 06.02.2012).

260

Simone C. Ehmig und Lukas Heymann

bieten. Sie verweisen aber auch auf die Vielfalt der Perspektiven und die Ambivalenz der Schlussfolgerungen zum digitalen Lesen. Lesbarkeit und Verständlichkeit von Texten und Möglichkeiten der Lesemotivation durch den Einsatz digitaler Trägermedien sind nicht losgelöst zu sehen vom Verständnis des Lesebegriffs und von der gesamtgesellschaftlichen Bedeutung des Lesens. In diesem Zusammenhang müssen die Ursachen für den Bedeutungs- und Funktionswandel im Lesen differenziert betrachtet und in ihren Auswirkungen analysiert werden.

6 Veränderungen im Medienangebot und Generationswechsel Ursachen für die veränderte Bedeutung des Lesens stellen technischer Wandel und – damit verbunden – Wechsel von Mediengenerationen dar. Die technische Entwicklung der letzten Jahrzehnte hat die Zahl der digitalen und multimedialen Angebote vervielfacht, die um die für Mediennutzung verfügbare Zeit konkurrieren. Mit Computer und Internet sind gegenüber klassischen Printmedien veränderte Nutzungsstrategien und Gewohnheiten entstanden, die wiederum auf den Lesevorgang zurückwirken. So erinnert das Überfliegen von Büchern, die in „Häppchen“ gelesen werden, deutlich an das „Surfen“ im Internet und die gezielte Nutzung von Links zu Inhalten, die interessant scheinen, während anderes nur „quergelesen“ wird. Die verfügbaren Medien und technischen Angebote prägen Mediengenerationen in ihrem spezifischen Nutzungsverhalten. Kinder und Jugendliche wachsen aktuell mit einem völlig anderen Medienangebot auf als Kinder und Jugendliche in den 60er, 70er, 80er und 90er Jahren. Alle Untersuchungen zum Leseund Medienverhalten zeigen charakteristische Unterschiede zwischen Alterskohorten: Ältere lesen häufiger und intensiver als Jüngere klassische Printmedien. Jüngere sehen häufiger und intensiver fern, sie nutzen stärker Computer und Internet – auch und v. a. mit Anwendungen, die das Lesen zwingend erfordern. Viele Unterschiede zwischen Altersgruppen sind linear und verdeutlichen damit den Wandel in der gesamtgesellschaftlichen Bedeutung des Lesens.30

30 So Befunde zum Leseverhalten der erwachsenen Bevölkerung in Deutschland aus den Jahren 1992, 2000 und 2008. Vgl. Stiftung Lesen (Hg.): Lesen in Deutschland 2008. Eine Studie der Stiftung Lesen. Mainz 2009.

Die Zukunft des Lesens

261

Untersuchungen, die einzelne Altersgruppen über längere Zeiträume begleiten, lassen zwar Veränderung der Mediennutzung im Lebensverlauf erkennen, diese sind jedoch weitaus geringer als die charakteristischen Unterschiede zwischen den Altersgruppen.31 Mit den älteren, überwiegend mit Büchern und klassischen Printmedien aufgewachsenen Generationen brechen somit zunehmend lesebegeistere (im Sinne von buchbegeisterte) Bevölkerungsgruppen weg. Sie werden von Altersgruppen abgelöst, die mit elektronischen und digitalen Medien sozialisiert sind. Diese Generationen werden sich seltener und in anderer Weise als die Eltern- und Großelterngenerationen Büchern zuwenden, aber in den digitalen Angeboten in einem anderen Sinne lesend aktiv sein.

7 Technische Veränderungen und demografische Entwicklung Eine besondere Dynamik erhalten die genannten Veränderungen dadurch, dass technischer Wandel und Wechsel der Mediengenerationen sich nicht stetig, sondern mit stetig wachsender Geschwindigkeit vollziehen. In immer kürzeren Abständen kommen Weiter- und Neuentwicklungen von Hard- und Software auf den Markt. Damit wechseln auch Mediengenerationen – im Sinne von medienspezifisch geprägten Alterskohorten – einander in immer kürzeren Zeitabständen ab. Eine von Büchern und klassischen Lesemedien geprägte ältere Generation umfasst somit wesentlich mehr Geburtsjahrgänge als jüngere Mediengenerationen. Hier wird man schon innerhalb der Gruppe der Kinder und Jugendlichen – obwohl nur wenige Jahre jünger oder älter – mehrere unterschiedlich geprägte Kohorten unterscheiden können, so z. B. die Generationen vor und nach Etablierung von Facebook und anderen sozialen Netzwerken, vor und nach Einführung von iPad bzw. Tablet-PCs usw. Die Dynamik im Wechsel der Mediengenerationen besitzt Konsequenzen für die Lese- und Mediensozialisation von Kindern und Jugendlichen durch Erwachsene. Umso schneller die Entwicklung auf der Angebotsseite verläuft, desto geringer die Schnittmengen der gemeinsam genutzten Medien und der gemeinsamen Erfahrungen v. a. mit neuen Medien. Eltern können nur schwer Schritt halten mit der Anwendung von Technologien und Programmen, die für ihre Kinder selbstverständlich sind. Die Lern- und Bildungskette zwischen den Gene-

31 Beispielhaft die Daten der Arbeitsgemeinschaft Mediaanalysen zur Nutzung von Tageszeitungen.

262

Simone C. Ehmig und Lukas Heymann

rationen kehrt sich teilweise um, wenn Jugendliche beispielsweise älteren Menschen ihren PC einrichten, ihnen zeigen, wie man E-Mail-Programme nutzt, oder ihnen das Internet erklären. Zu den Verschiebungen im Gefüge der (Medien-)Generationen kommen Veränderungen im Zuge der demografischen Entwicklung. Sie hat in Deutschland innerhalb weniger Jahrzehnte zu einer Umkehrung der Alterspyramide geführt. Dies gilt gleichermaßen für Österreich und die Schweiz. Eine wachsende Zahl älterer Menschen steht einer rückläufigen Zahl von Kindern und Jugendlichen gegenüber.32 In den nächsten 10 bis 20 Jahren werden immer mehr Menschen in den Ruhestand gehen, die (im Vergleich zur Kriegs- und Nachkriegsgeneration) formal immer besser ausgebildet sind, über differenzierte und spezialisierte Fähigkeiten und Berufserfahrungen verfügen. Die nachwachsende ältere Generation begreift die Zeit nach ihrer Erwerbstätigkeit immer häufiger als eine aktive Lebensphase, in der sie sich – z. B. mit ehrenamtlichem Engagement – neuen Aufgaben zuwendet. Studien zur Mediennutzung lassen erwarten, dass die zukünftigen Ruheständler mehr und mehr mit elektronischen Medien vertraut und im Umgang mit Computer, Internet, Software, Smartphones usw. erfahren sind.33 Bereits jetzt sind zahlreiche ältere Menschen in der Leseförderung aktiv, etwa als ehrenamtliche Vorlesepaten. Sie stehen für das Potenzial, das die demografische Veränderung im Bereich der generationenübergreifenden Mediensozialisation bietet – ein konstant hohes Maß an entsprechender Motivation zu entsprechendem Engagement vorausgesetzt. Andererseits wächst mit immer mehr älteren Menschen, deren Zugang zu Medien altersbedingt durch Beeinträchtigungen in Motorik, geistigen Fähigkeiten und Sehvermögen eingeschränkt ist, der Bedarf an Unterstützung durch jüngere Personen. Der Generationenvertrag ist im Fluss. Sozialisations- und Unterstützungsprozesse verlaufen reziprok, wobei zwischen den (noch überwiegend) Buch- bzw. Printmedien-affinen älteren und der wachsenden Zahl (irgendwann möglicherweise nahezu ausschließlich) digital geprägter junger Menschen eine zunehmende Asymmetrie besteht. Jüngere Generationen lesen faktisch und in Zukunft vermutlich mindestens ebenso

32 Das Statistische Bundesamt weist in einer Pressemeldung vom 3. August 2011 darauf hin, dass Deutschland international zu den kinderärmsten Ländern gehört. www.destatis.de/ jetspeed/portal/cms/Sites/destatis/Internet/DE/Presse/pm/2011/08/PD11__285__122, templateId=renderPrint.psml (Stand: 29.02.2012). 33 Dies zeigen alle bevölkerungsrepräsentativen Studien zur Mediennutzung. Vgl. exemplarisch: ARD-Werbegesellschaften (Hg.): Massenkommunikation VIII. Eine Langzeitstudie zur Mediennutzung und Medienbewertung 1964–2010 (2011); Institut für Demoskopie Allensbach (Hg.): Allensbacher Computer- und Technik Analyse.

Die Zukunft des Lesens

263

häufig wie ältere. Das Lesen hat für die Generationen aber zum Teil unterschiedliche Funktionen und wird von Jüngeren immer seltener als „Lesen“ wahrgenommen, weil der Begriff gesamtgesellschaftlich überwiegend mit Büchern und klassischen Printprodukten wie Zeitungen und Zeitschriften in Verbindung gebracht wird.

8 Relevanz der Veränderungen Die skizzierten Veränderungen besitzen Relevanz und weitreichende Konsequenzen für Leseforschung und Leseförderung. Mit Blick auf die Zukunft des Lesens stellt sich die zentrale Frage nach der Bedeutung von Generationswechsel, demografischem und technischem Wandel sowie dem Wandel in Mediensystem und -angeboten für das Verständnis des Begriffs „Lesen“, für die Erforschung des Leseverhaltens und die Förderung des Lesens und der Medienkompetenz. Mit Blick auf die Öffentlichkeit fällt auf, dass in vielen Umgebungen eher skeptische bis ablehnende Stimmen gegenüber digitalen Medien im Kontext des Lesens wahrzunehmen sind. Aus der Erfahrung, die die Autoren seitens der seit Jahrzehnten in der Leseförderung aktiven Stiftung Lesen im Umgang mit Eltern, Erzieherinnen und Lehrkräften besitzen, vermitteln sich Ängste und Befürchtungen, die digitale Medien eher als Konkurrenten zum „wertvollen“ und guten Lesen gedruckter Bücher sehen denn im Sinne komplementärer oder unterstützender und motivierender Angebote – v. a. im Umfeld Leseferner. Hier besteht Klärungsbedarf, welche Faktoren im öffentlichen Diskurs, bei Entscheidern und Akteuren im Bildungsbereich und in den Familien Einfluss auf Wahrnehmung und Handeln besitzen. Es besteht darüber hinaus Forschungsbedarf, um Chancen digitaler Angebote, z. B. in der Leseförderung, besser kommunizieren und nutzen, unbegründete Ängste effektiv ausräumen sowie begründeten Befürchtungen mit bildungspolitischen und konkreten didaktisch-pädagogischen Maßnahmen begegnen zu können. Die Verlagerung des Lesens, v. a. in der Altersgruppe kleinerer Kinder, auf digitale Trägermedien wirft Fragen nach der kognitiven und emotionalen Verarbeitung sowie Wirkungen der Texte auf die lesenden und betrachtenden Kinder auf. (Siehe auch den Beitrag von Martina Ziefle in diesem Band.) Kinder, die aktuell mit digitalen Trägermedien aufwachsen, erwerben als Mediennutzer eine eigene Identität, die sich von der früherer Lese- und Mediengenerationen unterscheiden dürfte. Mit Blick auf den schnellen technischen Wandel und die starken demografischen Veränderungen lässt sich grundlegend fragen, welche Lese- und Mediengenerationen sich in Deutschland und anderen

264

Simone C. Ehmig und Lukas Heymann

Ländern identifizieren lassen, welche medienspezifischen Prägungen sie haben und welche Lese- und Medienkompetenzen sie besitzen. Aus bildungspolitischer Perspektive ist zu fragen, was die Veränderungen im Lesebegriff für die Qualität und den Erfolg von Maßnahmen in der Leseförderung bedeuten. Die Frage verweist auf die Notwendigkeit, standardisierte und den aktuellen Lese-Realitäten angepasste, aber in eine digitale Zukunft hinein auch flexible Angebote und Maßnahmen zu entwickeln – sowohl im Bereich der Grundbildung und Lesekompetenzvermittlung als auch in der Motivation Leseferner und in der Vermittlung eines positiven Lese-Images und von Lesefreude, die nach Befunden der jüngsten PISA-Studie eng mit Lesekompetenz zusammenhängt. Die wenigen Studien, die dazu bereits vorliegen,34 zeigen, dass digitale Trägermedien und entsprechende Lesestoffe hierfür offensichtlich ein großes Potenzial bieten, das mit der weiteren technischen Entwicklung möglicherweise noch wachsen wird. Es ist Aufgabe der praktischen Erprobung und empirischen Überprüfung auszuloten, wie weit dieses Potenzial reicht und wie es konkret zu nutzen ist.

34 Vgl. die Zusammenfassung in diesem Beitrag.

Wissenschaft und Archiv

Jan Christoph Meister

Computerphilologie vs. ,Digital Text Studies‘ By computation I mean the mathematical theorizing at the heart of computer science and its philosophical extensions into cognitive science. By computing I mean what we do with the computers we have and the philosophical extensions of these doings into all aspects of our cultural life. Willard McCarty1

In seinem Beitrag im Handbuch der Literaturwissenschaft stellt Fotis Jannidis 2007 fest: „Der Begriff ‚Computerphilologie‘ hat sich seit Anfang der 1990er Jahre als Sammelbegriff für die Einsatzmöglichkeiten des Computers in der Literaturwissenschaft etabliert“.2 Das geläufige Verständnis des Terminus lässt sich nicht prägnanter umreißen; unklar bleibt bei dieser pragmatischen Definition jedoch, was „der Einsatz des Computers in der Literaturwissenschaft“ – sprich: die Digitalisierung unserer Philologien – eigentlich konzeptionell bedeutet oder zumindest bedeuten könnte. Um diesen Aspekt soll es im nachfolgenden Beitrag vorrangig gehen. Die Rede von einer ‚Digitalisierung der Philologien‘ zielt nicht gleich darauf, einen neuerlichen philologischen Paradigmenwechsel zu deklarieren – die Konjunktur programmatischer Verlautbarungen in den Literaturwissenschaften zu bedienen mag anderen vorbehalten bleiben. Andererseits ist fraglich, ob die vorherrschende Beschränkung auf eine primär instrumentelle Auffassung von Computerphilologie – und das der Computerphilologie anhaftende Image einer Hilfswissenschaft – der Akzeptanz und Verbreitung digitaler Forschungsmethoden innerhalb der Philologien im deutschsprachigen Raum zuträglich gewesen ist. Auch wenn es hierzulande eine ganze Reihe wichtiger digitaler Vorzeigeprojekte und Ressourcen gibt – das eigentliche Potenzial der sogenannten Digital Humanities haben die Philologien in Deutschland, Österreich und der Schweiz bislang nur ansatzweise realisiert. Dafür ist im deutschsprachigen Wis-

1 McCarty, Willard: „The imaginations of computing“. Lyman Award Lecture. National Humanities Center, North Carolina, 6. November 2006, S. 4. Für die kursivierten Terme steht im Original „the former“ (= computation) und „the latter“ (= computing). 2 Jannidis, Fotis: „Computerphilologie.“ In: Handbuch Literaturwissenschaft. Bd. 2, Theorien und Methoden. Hg. v. Thomas Anz. Stuttgart, Weimar 2007, S. 27–40; Zitat S. 27. Siehe auch: Jannidis, Fotis: „Computerphilologie.“ In: Metzler Lexikon Literatur- und Kulturtheorie. Hg. v. Ansgar Nünning. Stuttgart, Weimar 1998, S. 70–72.

268

Jan Christoph Meister

senschaftsraum jedoch weiterhin die Rede von etwas, das andernorts kein terminologisches Äquivalent findet: eben von „Computerphilologie“. Betrachtet man die eigentümliche Semantik und Genese des Terminus genauer, dann wird deutlich, welche Problematik er eigentlich birgt. Beide verraten einen Versuch, das Neue auf seinen technologischen Aspekt zu reduzieren, um es bruchlos in alten disziplinären Kategorien denken zu können. Mit ,Philologie‘ behauptet der Terminus Computerphilologie so zunächst die systematische Anbindung an die im 19. Jahrhundert entstandenen traditionsmächtigen Disziplinen, die sich der Erforschung und Bewahrung von nationalem Kulturerbe widmeten. Dem hehren Konzept wird dann jedoch ein Term vorangestellt, der genau besehen weder Idee noch Programmatik bezeichnet, sondern schlicht: eine Sorte von Maschine. Das ist in etwa so, als wenn Soziologen zu Beginn des 20. Jahrhunderts, als das Flugzeug als neues Transportmittel gesteigerte Mobilität und damit eine reaktionsschnellere Feldforschung im geographischen wie kulturellen Lebensraum der Menschheit ermöglichte, den Beginn einer „Aerosoziologie“ proklamiert hätten. Den eigentümlichen Kategorienmix „Computerphilologie“ versuchen wir meist dadurch zu heilen, dass wir den Begriff Computer metonymisch auffassen und ihn als Symbol für eine tiefgreifende technologische Innovation auffassen. Aber das hat umgekehrt leicht zur Konsequenz, dass implizit selbst die trivialste und methodisch unreflektierteste Verwendung von Computern im Umgang mit Literatur unter der Hand zur Computerphilologie avanciert. In der Perspektive der 1980er Jahre, als die ersten PCs verfügbar wurden, mag dies seine Berechtigung gehabt haben; heute indes mutet eine derartige Idolisierung naiv an. Je verfügbarer digitale Technologie und je geringer ihre Verwendung von technischem Expertenwissen abhängig geworden ist, umso nichtssagender ist der bloße Hinweis auf ihren Einsatz geworden. In einer Welt, deren Alltag von digitaler Technik durchdrungen ist, taugt der PC des Philologen zum Symbol methodischer Innovation im gleichen Maße wie das Diagnoseterminal des Automechanikers, das Laserskalpell des Chirurgen oder die satellitengesteuerten Boden-Luft-Rakete des Militärs: Auch und gerade wenn Experten die neue Technologie einsetzen, betreiben sie konzeptionell und im Kern doch nur „business as usual“ – z. B. Autos reparieren, Menschen operieren, Krieg führen und nicht zuletzt: philologische Forschung. Ein methodischer Traditionalismus, der nur das als genuine Computerphilologie ansieht, was als präzise Emulation traditioneller philologischer Verfahren ausweisbar ist, hat u. a. zu der unangemessen verkürzten Vorstellung vom Computer als purem ‚Leseknecht‘ geführt. Computerphilologen untersuchen, so die scheinbar selbstevidente Folgerung, den Gegenstand ,Text‘ so, wie Computerlinguisten den Gegenstand ,Sprache‘ – entlang traditioneller Fragestellungen,

Computerphilologie vs. ,Digital Text Studies‘

269

aber mit Hilfe des neuen ‚Werkzeugs‘ Computer. Diese Sicht auf Computer als probate Wortfindemaschinen blendet jedoch vollkommen die konzeptionelle und epistemologische Dimension aus, die allen neuen Technologien als Erkenntniswerkzeugen inhärent ist. Mehr noch, das Bekenntnis zum instrumentellen Reduktionismus handelt einem als Philologen nur umso schneller den Vorwurf ein, mit Computerphilologie ein intellektuell beschränktes, im Kern aporetisches und dem Gegenstand Literatur grundsätzlich unangemessenes Unterfangen zu betreiben – eben keine richtige Philologie. Im Sinne, aber durchaus nicht im Geiste der ja immerhin als Appell zur Überwindung des Hiat formulierten ‚Zwei-Welten‘These C. P. Snows, attestiert solch wohlfeile Kritik dann genüsslich die wesensmäßige Unvereinbarkeit von intuitiv-assoziativ schöpfendem menschlichem Geist und stringent algorithmisch operierendem Rechner; um es überspitzt zu formulieren: von Poesie und Logik. Literatur wird so unter der Hand zur letzten Bastion des Menschlichen erhoben, „der Computer“ hingegen als Antagonist aller wirklichen Wortfreunde gebrandmarkt – Ausdruck einer (in Deutschland noch immer salonfähigen) intellektuellen Technophobie, die schon C.P. Snow in Rage brachte und zu der Mercedes Bunz unlängst zutreffend festgestellt hat: Das Ereignis einer neuen Technologie schafft neues gesellschaftliches Potential, das durch die Figur der Aporie – die Maschine als Feind oder als Retter des fehlerhaften Menschen – nur verrätselt, nicht aber produktiv gemacht wird. Diesen liebgewonnenen Gegensatz von Mensch und Maschine gilt es dringend loszulassen.3

Eine dritte irreführende Folgerung, zu der die in Analogie zu „Computerlinguistik“ gebildete Nominalisierung „Computerphilologie“ angeregt hat, ist schließlich die, es handele sich auch hier um eine wissenschaftliche Disziplin oder zumindest um eine Praxis, die sich letztlich als Disziplin werde etablieren müssen, um ihre wissenschaftliche Dignität überzeugend unter Beweis zu stellen. Die Idee, Computerphilologie in diesen Status zu erheben, war Anfang des neuen Jahrtausends nun allerdings in der Tat durchaus diskussionswürdig.4 Auch sie stellt aber heutzutage allenfalls noch eine Eigenart der deutschen Universitätslandschaft dar, die sich grundsätzlich schwer tut, methodische Querschnittsinnovationen außerhalb des etablierten Fächersystems zu denken.

3 Bunz, Mercedes: Das Denken und die Digitalisierung, 2011. www.faz.net/s/ RubCEB3712D41B64C3094E31BDC1446D18E/Doc~EE02A72F17D3B4618 B681D61F32C75F65~ATpl~Ecommon~Scontent.html (Stand: 15.03.2011). 4 Siehe Meister, Jan Christoph: „Think Big: Disziplinarität als wissenschaftstheoretische Benchmark der Computerphilologie.“ In: Jahrbuch für Computerphilologie 4. Hg. v. Georg Braungart, Karl Eibl u. Fotis Jannidis. Paderborn 2002, S. 19–50.

270

Jan Christoph Meister

Das damit in dreierlei Hinsicht thematisierte Unbehagen am Begriff Computerphilologie ist nicht notwendig schon ein Plädoyer für seine Abschaffung: Begriffe legitimieren sich ja nicht zuletzt durch ihren Gebrauch, und der steht außer Frage. Aber es ergeben sich aus der Begriffskritik Konsequenzen für die zu leistende Explikation des Begriffs und die Bestimmung der Sache. An den Anfang dieses Beitrags sei daher eine alternative Definition gestellt. Sie blendet die Dimension der literaturwissenschaftlichen Praxis zwar nicht aus, setzt den Akzent in der Bestimmung von Computerphilologie jedoch anders: Computerphilologie ist ein methodologisch definiertes, fächerübergreifendes Arbeitsfeld. Kennzeichen der zunehmend interdisziplinären Forschungsansätze der Computerphilologie ist die Anwendung und Entwicklung digitaler (computergestützter) Werkzeuge sowie webbasierter Dienste und Verfahren, die in den klassischen philologischen Arbeitsfeldern Textedition, Textanalyse, Textinterpretation, Texttheorie und Literaturgeschichtsschreibung als ‚Werkzeuge‘ eingesetzt werden. Die Begegnung mit digitalen Verfahren und Gegenstandsmodellen zieht dabei […] ein gewandeltes Konzept vom traditionellen Gegenstand ‚Text‘ nach sich.5

Diese Gegenüberstellung von pragmatischer und methodologischer Definition trägt dem Spannungsverhältnis zwischen Begriffs- und Sachexplikation Rechnung, das Sammelbegriffen inhärent ist. Auflösen lässt es sich nur im Zuge einer umfassenderen Gegenstandsdeskription. Sie soll vor dem Hintergrund einiger Anmerkungen zur unterschiedlichen Genese und Extension des Begriffs in der deutschsprachigen und der angloamerikanischen Tradition unternommen werden.

1 Zur Begriffsgeschichte: Computerphilologie vs. ,Literary Computing‘ Der Terminus „Computerphilologie“ ist zwar erst Mitte der 1980er Jahre im deutschen Sprachraum aufgekommen, hat dann jedoch erstaunlich schnell Verbreitung gefunden. Googles Ngram-Viewer plottet bei einer Analyse des Wortgebrauchs zwischen 1950 und 2008 im deutschsprachigen Google Books-Korpus (März 2011) die historische Karriere des Wortes wie aus Abb. 1 ersichtlich.

5 Meister, Jan Christoph: „Computerphilologie“. In: Reclam Literaturlexikon. Hg. v. Gerhard Lauer. Stuttgart 2011.

Computerphilologie vs. ,Digital Text Studies‘

271

Abb. 1: Historische Wortgebrauchsanalyse von „Computerphilologie“ mit Googles „Books Ngram Viewer“6

Das erste Mal erwähnt wird der Begriff vermutlich von Rolf Bräuer im Rahmen eines Symposiums 1986; sein Beitrag trägt den programmatischen Titel: „Zu den Aufgaben und Möglichkeiten der Computerlinguistik und Computerphilologie an den Universitäten und Hochschulen der DDR.“7 Die DDR geht kurz darauf unter, der von einem Mediävisten aus der Taufe gehobene Begriff hingegen macht Karriere. Seit 1999 erscheint das gleichnamige Jahrbuch für Computerphilologie8, dessen Beiträge zugleich online in dem umfangreiche Zusatzinformationen bietenden Forum Computerphilologie publiziert werden, das seinerseits unter der Adresse www.computerphilologie.de firmiert.9 Seit fünfundzwanzig Jahren also

6 Analyse vom 30.07.2012. Aufgrund der laufenden Erweiterung des Korpus wird sich dieser Graph kontinuierlich ändern. Die Ngram-Analyse wird durch Aufruf dieser URL mit identischen Parametern aktualisiert: http://books.google.com/ngrams/graph? content=Computerphilologie&year_start=1950&year_end=2008&corpus=8&smoothing=3. Das deutsche Google Books-Korpus enthält bislang nur Bücher bis Erscheinungsdatum 2008. 7 Bräuer, Rolf: „Zu den Aufgaben und Möglichkeiten der Computerlinguistik und Computerphilologie an den Universitäten und Hochschulen der DDR.“ In: Neue Forschungsperspektiven durch Computereinsatz in den Gesellschaftswissenschaften. 1. Tagung „Sprache und Computer“am 18. und 19. November 1986 in Greifswald. Hg. v. Ernst-Moritz-ArndtUniversität Greifswald. Greifswald 1988, S. 9–12. 8 Deubel, Volker, Karl Eibl u. Fotis Jannidis: Jahrbuch für Computerphilologie. Paderborn 1999 (sowie Braungart, Georg, Karl Eibl und Fotis Jannidis: Jahrbuch für Computerphilologie. Paderborn 2000–2005 und Braungart, Georg, Peter Gendolla u. Fotis Jannidis: Jahrbuch für Computerphilologie. Paderborn 2006–2010). 9 Braungart, Georg, Peter Gendolla u. Fotis Jannidis (Hg.): Forum Computerphilologie. www. computerphilologie.de (Stand 25.03.2011). Das Jahrbuch Computerphilologie dürfte damit

272

Jan Christoph Meister

reden wir von Computerphilologie; seit ca. zehn Jahren gibt es sie an einigen wenigen deutschen Universitäten auch in der einen oder anderen Form, von der institutionalisierten Arbeitsstelle bis zum Lehrstuhl. Einschlägige Lexika und Handbücher weisen das entsprechende Lemma mittlerweile ebenso aus wie die deutschsprachige Version von Wikipedia;10 Google findet den Zungenbrecher in seinem Gesamtindex 6700 Mal (März 2011), und im deutschsprachigen wissenschaftlichen Diskurs sind es schon seit einiger Zeit nicht mehr nur die bekennenden Computerphilologen, die von Computerphilologie reden und über sie diskutieren. Lässt man den Blick indes über den deutschsprachigen Bereich hinaus schweifen, so stellt man verwundert fest: es gibt gerade im englischen und amerikanischen Raum, dem wir ja die meisten der technologischen und methodischen Innovationen verdanken, durch die überhaupt erst eine breite Anwendung von rechnergestützten Verfahren und Modellen auf geisteswissenschaftliche Gegenstände ermöglicht worden ist, kein Gegenstück zu dem einprägsam anmutenden Term. Während als Äquivalent zur deutschen ,Computerlinguistik‘ der Terminus ,Computational Linguistics‘ durchaus gebräuchlich ist, insofern es sich bei beiden um bereits in den 1970er Jahren institutionell etablierte Disziplinen handelt, hat das Englische oder Amerikanische kein semantisches Pendant gebildet. Statt von einer ,Computational Philology‘ ist dort vielmehr die Rede von ,Literary Computing‘. Die damit bezeichnete wissenschaftliche Praxis galt bis Mitte der 1990er Jahre als exemplarisch für die durch den Computer ermöglichten neuen Verfahren und Ansätze in der geisteswissenschaftlichen Forschung, die unter den Begriff ,Humanities Computing‘ fielen. Der Blick nach Italien ist hier aufschlussreich: Dort wird in den 1960er Jahren das „Centro Automazione Analisi Linguistica“ (CAAL) gegründet; es geht hervor aus dem weltweit ersten computerphilologischen Pionierprojekt von Pater Roberto Busa.11 Das CAAL wird 1983 abgelöst von der neuen, ebenfalls an der Philosophischen Fakultät Aloisianum in Gallarate beheimateten „Associazione per la Computerizzazione delle Analisi Ermeneutiche e Lessicologiche“ (CAEL), deren Namensgebung statt der Automatisierung nun bereits eine „Computerisierung“ von hermeneutischer und lexikologischer Analyse ankündigt. 2011 erfolgte die

übrigens eines der frühesten deutschsprachigen Open Access-Journale sein, die in Kooperation mit einem kommerziellen wissenschaftlichen Verlag realisiert worden sind. 10 Siehe u. a.: Ruhrberg, Christine u. Gerhard Lauer (Hg.):Lexikon Literaturwissenschaft. Hundert Grundbegriffe. Stuttgart 2011; Anz, Thomas (Hg.):Handbuch Literaturwissenschaft, Bd. 2. Stuttgart, Weimar 2007; de.wikipedia.org/wiki/Computerphilologie (Stand: 25.03.2011). 11 Mehr dazu siehe unter Abschnitt 2 sowie unter www.allc.org/about/people/honorarymembers#FatherBusa (Stand: 18.03.2011).

Computerphilologie vs. ,Digital Text Studies‘

273

Gründung der „Associazione Informatica Umanistica e Cultura Digitale“.12 Vorangegangen ist ihr eine Abstimmung über mögliche Namensgebungen; sie erbrachte folgende Resultate: AISU („Associazione Informatica e Scienze Umane“; 38%, 10 Stimmen); ADSUM („Associazione per il Digitale nelle Scienze Umane“; 31%, 8 Stimmen); RICUD („Rete Italiana per la Cultura Umanistica Digitale“; 23%, 6 Stimmen); UD („Umanistica Digitale“; 4%, 1 Stimme); „Associazione di informatica per le scienze umanistiche“ (4%, 1 Stimme). Keine Stimmen entfielen auf die Vorschläge „Associazione per le Scienze Umane Digitali“; „Associazione Scienze Umane Digitali del Mediterraneo“ und „Società Italiana di Umanistica Digitale“.13 In welchem Umfang nun bereits der englische Terminus ,Literary Computing‘ eine andere Konzeption anzeigt als der deutsche Term ,Computerphilologie‘, ist eine Frage der Auslegung seiner Wortbedeutung; inwieweit diese Auslegung ihrerseits Forderungen an die Praxis nach sich ziehen kann, eine der Programmatik. Solcherart philologisch-philosophische Reflektion steht im Zentrum der Überlegungen des prononciertesten Theoretikers des ,Humanities Computing‘, Willard McCarty, der zugleich der Begründer des seit 1987 existierenden elektronischen Diskussionsforums „Humanist“ ist.14 McCarty hält es für eine unzulässige Verkürzung, das Projekt „Humanities Computing“ als vermeintliche methodische Objektivierung der Geisteswissenschaften zu propagieren, und weist auf die in den Natur- wie den Geisteswissenschaften weiterhin unumgängliche Notwendigkeit hin, die wahrgenommenen Daten zu interpretieren. Das gelte gerade für die mit dem neuartigen Beobachtungsinstrument Computer gewonnenen Daten: Observation und Interpretation stellten auch im Arbeitsfeld des ,Humanities Computing‘ wechselseitig bezogene Verfahren dar, die den hermeneutischen Zirkel zum erkenntnisproduktiven Prozess machten. Ebendiesem Prozesscharakter der Erkenntnis trägt nach Ansicht McCartys nun der Terminus Literary Computing bereits Dank seiner sprachlichen Form Rechnung: [T]he fundamental problem raised by all observational instruments is that we „don’t just peer” through them to newly visible objects that are as we see them to be, independently of the viewing. We must also „interfere“ with the incoming data based on what we know of what we are trying to observe. We must make sense with these data, sometimes by intervening in the observational process, sometimes by altering the object of study. This we simply cannot do, or do well, without a good idea of what we are looking at. In literary studies such knowing interference is not, as in the sciences, so much a preliminary step toward consensus about the object in view as it is an ongoing, never‐ending process. The

12 Siehe dazu www.umanisticadigitale.it/?p=179 (Stand: 28.03.2011). 13 Siehe www.umanisticadigitale.it/?p=195 (Stand: 28.03.2011). 14 Siehe www.digitalhumanities.org/humanist (Stand: 25.03.2011).

274

Jan Christoph Meister

literary object in view is hardly an object at all but the contingent, interactive, emergent outcome we wisely use a gerund to name: reading. For centuries, of course, the codex book has functioned as such an observational instrument – I. A. Richards named it a „machine to think with” in 1926 – encouraging interpretative interference with the flow of language, even (e.g. in critical editions and commentaries) providing optional sequences of interfering moves. […] Computing foregrounds book‐as‐machine, especially in the design and construction of digital reference works. But „computing” is also significantly a gerund, not a name for an action or set of actions but a name for acting. It is […] fundamentally a modelling machine. Hence its introduction into literary studies implicitly shifts emphasis from representation to intervening, and so implies that theorizing of text at the fundamental level of tool design and use is essential.15

,Humanities Computing‘ und insbesondere ,Literary Computing‘ begreift McCarty mithin als eine theoriebildende Aktivität, als Modellierung. Anspruch und Skopus dieses Projekts sind, wie nicht zuletzt McCartys eigene, umfangreiche Überlegungen zu dem Thema zeigen, weitreichend.16 Grundsätzlich zeigt sich bei einer vergleichenden Betrachtung des angloamerikanischen und des deutschsprachigen Forschungssektors, dass die näherungsweise korrespondierenden Benennungen ,Literary Computing‘ und ,Computerphilologie‘ auf zwei Formen wissenschaftlicher Praxis verweisen, die in einem wesentlichen Punkt markant unterschiedlich ausgeprägt sind: nämlich hinsichtlich ihrer Disposition zur Theoriebildung. Unter den Begriff ,Computerphilologie‘ fallen (bislang) im Wesentlichen recht konkrete, textbezogene Arbeitsfelder und Praktiken, die zwar die durch die technologische Innovation Computer und die rasant voranschreitende Digitalisierung von Objekten bereitgestellten Möglichkeiten nutzen, konzeptionell jedoch als entlang der tradierten Achse von Edition, Textkritik und Textauslegung gereiht gedacht werden.17 Im Bereich des ,Literary Computing‘ dagegen gehen philologisch motiviertes ,Word Crunching‘ in Einzelprojekten, der Aufbau von Datenrepositorien und das Ent-

15 McCarty, Willard: „Digitising is questioning, or else.“ Long Room Hub Lecture Series. Trinity College Dublin, 16 April 2008. www.mccarty.org.uk/essays/McCarty,%20Digitising%20is% 20questioning.pdf (Stand: 23.02.2011). 16 Siehe insbesondere sein Buch Humanities Computing. New York, London 2005. 17 Vgl. die Sachbeschreibung von Jannidis (siehe Fußnote 2), der zunächst abstrakte Grundprinzipien der Computerphilologie skizziert, um dann auf drei Kernarbeitsbereiche der Computerphilologie einzugehen: Erstellung und Verwendung digitaler Texte sowie Erarbeitung digitaler Editionen. Vor diesem Hintergrund wird abschließend aufgelistet, was für ihn eher am Rande des Spektrums genuiner CP liegt: Hypertexttheorie; literaturwissenschaftliches Programmieren; kollaborative und multimodale Textedition, Visualisierung und schließlich E-Learning/E-Science.

Computerphilologie vs. ,Digital Text Studies‘

275

wickeln von Tools und Services Hand in Hand mit ambitionierter theoretischmethodologischer Reflexion und Spekulation. Ein Beispiel mag dies illustrieren: 1999 führten Jerome McGann und Alan Renear eine vielbeachtete Kontroverse über den der neuen Praxis zugrundeliegenden Textbegriff. Der Computerlinguist Renear trat dabei als Advokat des sogenannten OHCO-Modells („text is an Ordered Hierarchy of Content Objects“) auf, der Poststrukturalist McGann als Fürsprecher einer subjektzentrierten Hermeneutik, als deren Leitkonzept er später die Idee einer ,radiant textuality‘ in die Diskussion eingeführt hat. Ort der inszenierten Konfrontation war die jährliche Konferenz der beiden damals führenden ,Humanities Computing‘-Verbände, der nordamerikanischen ACH und der europäischen ALLC.18 Was auf den ersten Blick wie eine recht abstrakte Debatte anmutet, wurde von den Diskutanten vor dem Hintergrund einer wichtigen, für die Praxis des ,Literary Computing‘ nach wie vor zentralen Fragestellung unternommen: wie muss eine computergestützte, formale Auszeichnung von Texten (sogenannte „MarkUp“; s. u.) konzeptionell angelegt sein, damit diese Beschreibung für das, was wir Menschen mit Texten machen, auch wirklich relevant ist und funktional gemacht werden kann? Die Antwort: Das hängt erstens ab von dem zugrunde gelegten Konzept von ,Text‘ und zweitens davon, welche Rückwirkungen die formale Beschreibung auf eben dieses Konzept hat. Auch und vielleicht gerade weil dem angloamerikanischen ,Literary Computing‘ deutlicher philosophische Ambitionen eingeschrieben sind als der deutschsprachigen ,Computerphilologie‘, werden sowohl der Terminus wie die Zuschreibung wissenschaftlicher Praxis zu einer quasi-disziplinären Kategorie im angloamerikanischen Raum in jüngster Zeit erkennbar obsolet – dies umso mehr, als mittlerweile der ehemalige deskriptive Leitbegriff ,Humanities Computing‘ seinerseits durch die programmatische Bezeichnung ,Digital Humanities‘ abgelöst worden ist, die Anfang des neuen Jahrtausends aufkam.19 Sie drückt einen

18 Zu ACH/ALLC siehe Fußnote 20. Die Konferenz fand 1999 statt an der University of Virginia; weitere Informationen zur Debatte Renear vs. McGann siehe unter www2.iath.virginia.edu/achallc.99/proceedings/hockey-renear2.html (Stand: 25.02.2011) – Renear selbst hatte das OHCOModell zuvor bereits mehrfach problematisiert, so in dem wichtigen, gemeinsam mit Nancy Ide und David Durand verfassten Artikel „Refining our Notion of What Text Really Is: The Problem of Overlapping Hierarchies“. In: Research in Humanities Computing 4: Selected Papers from the 1992 ALLC/ACH Conference. Oxford 1996, S. 263–280, sowie www.stg.brown.edu/resources/ stg/monographs/ohco.html (Stand: 25.02.2011). 19 Die Kennzeichnung ,Literary Computing‘ hat sich als etablierte trade mark allerdings erhalten im Namen der führenden Fachzeitschrift Literary and Linguistic Computing (OUP) und der Bezeichnung des europäischen Fachverbandes als „Association for Literary and Linguistic Computing“ (ALLC). Die von der ALLC in Zusammenarbeit mit dem amerikanischen

276

Jan Christoph Meister

erheblich umfassenderen Anspruch aus als ihre Vorgänger, nämlich den eines Paradigmenwechsels in den Geisteswissenschaften quer durch alle Disziplinen. Hinfällig wird damit nun allerdings auch die klare Abgrenzung zwischen computergestützter Forschungspraxis in einer definierten Wissenschaftsdomäne wie etwa den Textwissenschaften einerseits und einer übergreifender Medientheorie andererseits. Ein gutes Beispiel dafür liefert Johanna Druckers luzide Rezension zu McCartys Monographie ,Humanities Computing‘, die sie wie folgt beschließt: [T]he shape of knowledge as we will know it is being modeled in digital environments and instruments. The tools for understanding the interpretive force of choices made in structuring these environments will come from every field of critical, cultural, media, and visual studies. But only for those sensitive to the basic condition of all knowledge as mediated representation. You would think that would include all humanist scholars, as well as administrators – wouldn’t you? That it doesn’t shows how far we have to go with the crucial social tasks ahead – to make the arguments within the culture of academia that will make clear to the current and next generation of humanists the extent to which the mediated condition of all knowledge is now shifted into digital frames – and that any humanist encounter with such knowledge has to begin with a critical understanding of how the very modeling on which artifacts appear to us in digital form works to constitute the objects of our collective inquiry.20

2 ,Literary Computing‘ und Computerphilologie: Entwicklungslinien und Impulse21 Die Geschichte der Computerphilologie ist bis zum Anfang des neuen Jahrtausends in weiten Teilen auch die des umfassenderen Gebiets ,Humanities Compu-

Schwesterverband „Association for Computing in the Humanities“ (ACH) und der kanadischen „Society for Digital Humanities/Société pour l´étude des médias interactifs“ (SDH-SEMI) seit 1989 jährlich veranstaltete internationale Fachkonferenz trägt indes mittlerweile ebenfalls den Titel „Digital Humanities“. Zur Geschichte des Dachverbandes „Alliance of Digital Humanities Organisations“ (ADHO), der seit 2004 besteht, siehe www.digitalhumanities.org/about (Stand: 10.03.2011). 20 Drucker, Johanna: „Philosophy and Digital Humanities: A review of Willard McCarty, Humanities Computing (London and NY: Palgrave, 2005)“. In: Digital Humanities Quarterly (DHQ), Jahrgang 1 (2007), Nr. 1. www.digitalhumanities.org/dhq/vol/1/1/000001/000001.html (Stand: 25.03.2011). 21 Der nachfolgende Abschnitt greift partienweise auf meinen andernorts publizierten, stärker historisch orientierten Abriss zurück: vgl. Meister, Jan Christoph: „Projekt Computerphilologie. Über Geschichte, Verfahren und Theorie rechnergestützter Literaturwissenschaft“. In: Literarität

Computerphilologie vs. ,Digital Text Studies‘

277

ting‘, das sich seinerseits in den letzten Jahren von einem anwendungsorientierten, technologisch definierten zu dem methodisch-konzeptionell definierten Forschungsparadigma der ,Digital Humanities‘ zu wandeln begonnen hat. Die heutige, weitgehend praxisorientierte Computerphilologie steht damit ihrerseits an der Schwelle zu einer methodologischen Neubewertung als qua Digitalisierung entstandenem, neben traditionell-philologischen auch völlig neue textbezogene Fragestellungen bearbeitendem Forschungsfeld, das damit letztlich den Textbegriff selbst neu zu fassen beginnt. Diese Rekonzeptualisierung von ,Text‘ scheint nun in der Tat in die von Drucker angedeutete Richtung zu gehen: das Phänomen ,Text‘ wird in diesem Forschungsfeld in zunehmendem Maße als ein medial modelliertes Artefakt behandelt, das sich erst dem kollaborativen Zugriff mehrerer Forscherindividuen wirklich erschließt. Die Entwicklung von den ersten computergestützten Textanalysen bis zur gegenwärtigen modernen Computerphilologie lässt sich zum Einen in – partiell überlappende – historische Phasen gliedern. In einer systematischen Perspektive kann man zum Anderen erkennen, wie die Befassung mit verschiedenen Problemfeldern und Arbeitsbereichen im Schnittfeld von Philologie und angewandter Informatik bzw. Computertechnologie konzeptionelle Impulse für die Herausbildung der Forschungspraxis und -methodik geliefert hat, die wir heute (noch) als Computerphilologie bzw. ,Literary Computing‘ bezeichnen. Nachfolgend werde ich versuchen, diese beiden Perspektiven – die historische und die systematische – zu integrieren.

2.1 Delegation philologischer und linguistischer Grundoperationen an den Computer Die Pionierphase der Computerphilologie beginnt kurz nach dem Ende des Zweiten Weltkriegs mit einem theologischen Projekt. Roberto Busa – Namenspatron eines Preises, den die ADHO heute alle zwei Jahre für herausragende Leistungen in der ,Digital Humanities‘-Forschung vergibt – fängt 1949 mit der Arbeit an einer Konkordanz zu den Werken Thomas von Aquins an, einem Korpus von 10,6 Millionen Wörtern. Er erfasst in mehrjähriger Arbeit die Lemmata zunächst manuell auf rund 10.000 Karteikarten. Thomas J. Watson, Chef von IBM, regt 1951 an, diese Sammlung auf Lochkarten zu übertragen, damit die nächsten Arbeitsschritte im Zuge der Indexerstellung von einem IBM-Großrechner geleistet

und Digitalität. Zur Zukunft der Literatur. Hg. v. Harro Segeberg u. Simone Winko. München 2005, S. 315–341.

278

Jan Christoph Meister

werden können; Watson stellt dazu dem Jesuiten Busa den IBM-Experten Paul Tasman zur Seite.22 Das Beispiel macht Schule: mit John William Ellisons Dissertation The use of electronic computers in the study of the Greek New Testament text (1957) und der 1959 von Stephen Maxwell Parish herausgegebenen Cornell Concordance to the poetry of Matthew Arnold werden schon bald weitere computerphilologische Pionierprojekte realisiert. 1974 erscheint schließlich Busas Index Thomisticus, an dem letztendlich nicht nur ein Großrechner, sondern auch über sechzig Forscher mitgearbeitet haben, in gedruckter Form in sechsundfünfzig Bänden, später dann auch als Hypertext-CD. Ein zweites traditionelles Arbeitsfeld erschließen sich die Vorläufer mit rechnergestützten Analysen zur Stylometrie und Autorschaftsattribution, so z. B. MacGregor und Morton mit ihrer 1961 publizierten Untersuchung The Structure of the Fourth Gospel. In dem Projekt wird die Länge von Sätzen und Absätzen im Johannesevangelium per Computer auf Mittelwerte und signifikante Abweichungen analysiert, um anhand des so erstellten Profils zu klären, ob der Text einem oder mehreren Autoren zuzuschreiben ist. Ende 60er Jahre erscheinen dann erstmals umfassendere deutschsprachige Stilanalysen, die mit Hilfe von Computern erarbeitet wurden, so etwa Winfried Lenders Untersuchungen zur automatischen Indizierung mittelhochdeutscher Texte (1969) oder Peter Schmidts Wortschatzanalyse zu Goethes Iphigenie (1970).23 Für die computergestützte Stilanalyse prägen Sally und Walter Sedelow 1965 den Begriff „Computational Stylistics“, der die konzeptionelle Nähe der rechnergestützten Stylometrie zur linguistischen Stilistik verdeutlicht. In der forensischen Linguistik gilt die computergestützte Autorschaftsattribution heute als ein Standardverfahren; die positive Aussagekraft der Methode in Bezug auf literarische Texte blieb allerdings noch bis vor kurzem insofern recht begrenzt, als die verlässliche Zuschreibungen eines problematischen Textes ein hinreichend großes Vergleichskorpus voraussetzt. Der Aufbau von umfassenden digitalen Textrepositorien – darunter nicht zuletzt das ambitionierte Google-Books-Projekt – und die Entwicklung neuer stochastischer Modelle haben dem Verfahren jedoch in den letzten Jahren auch hier Relevanz verliehen.

22 Zur Geschichte des Projekts siehe: Busa, Roberto: „The Annals of Humanities Computing: the Index Thomisticus“. In: Computers and the Humanities, Bd. 14, Nr. 2. New York 1980, S. 83–90. 23 Schmidt, Peter: Der Wortschatz von Goethes ,Iphigenie‘. Analyse der Werk und Personensprache mit EDV-Hilfe. Mit Wortindex, Häufigkeitswörterbuch und Wortgruppentabellen (Indices zur deutschen Literatur). Frankfurt/Main, Bonn 1970.

Computerphilologie vs. ,Digital Text Studies‘

279

2.2 Einbeziehung qualitativer Problemstellungen und Modellierung komplexerer philologischer Arbeitsabläufe in Softwareanwendungen Gilt die Pionierphase damit weitgehend quantitativen linguistischen Fragestellungen, die noch als eindeutig definierter Arbeitsauftrag an einen Computer übergeben werden konnten, insofern sie weitgehend auf Grundoperationen des Suchens, Findens, Sortierens und Zählens von Wörtern rückführbar sind, so zeichnet sich die zweite Entwicklungsphase durch eine methodische Erweiterung computerphilologischer Verfahren aus. Computergestützt bearbeitete Problemstellungen werden nun um zwischengeschaltete Arbeitsschritte der Selektion und Definition erweitert, die dem menschlichen Nutzer vorbehalten bleiben. Neben die autonome Umwandlung von Input in Output durch den Rechner tritt damit die Interaktion zwischen Forscher und Computer. Diese Erweiterung hat zwei wichtige Konsequenzen: Konzeptionell bereitet sie eine Öffnung der Computerphilologie für qualitative Fragestellungen vor; technologisch wie verfahrenstechnisch zieht die gesteigerte Komplexität interaktiver Arbeitsabläufe die Entwicklung erster computerphilologischer Softwareprogramme nach sich. An die Stelle der computertechnischen Operationalisierung von isolierten linguistischen und philologischen Analyseschritten tritt so die Modellierung umfassenderer philologischer Arbeitsabläufe, in denen Analyse, Deklaration und Interpretation verknüpft sind. Eines der bekanntesten der ersten linguistisch-philologischen Softwareprogramme ist das 1967 von Donald Russel entwickelte COCOA („Count and Concordance Generation on ATLAS“).24 Mit COCOA kann man nicht nur Wörter zählen und nach bestimmten Kriterien sortierte Wortlisten und Konkordanzen generieren: der Nutzer hat die Möglichkeit das Programm selbst zu modifizieren, indem er dessen Alphabet je nach Forschungsgegenstand um sprachspezifische Zeichen erweitert. Mit COCOA wird jedoch noch eine zweite, noch wichtigere konzeptionelle Neuerung eingeführt: das Programm kann nämlich auch erläuternde Anmerkungen oder Wort- bzw. Satzdefinitionen des Lesers verarbeiten, sofern diese in einem definierten Format als sogenannte „COCOA-Tags“ in den

24 ATLAS ist der Name des verwendeten Rechnersystems. Nachdem die Firma ATLAS die Entwicklung von COCOA nicht länger unterstützt, wird die Software 1970 am Oxford University Computing Centre von Susan Hockey und Ian Marriott re-implementiert. Unter dem Namen Oxford Concordance Program (OCP) findet sie schnell weitreichende Verbreitung und wird später auch für den PC als DOS-Programm entwickelt. Siehe hierzu „History of Digital Humanities at Oxford“, digital.humanities.ox.ac.uk/about/history.aspx (Stand: 18.03.2011).

280

Jan Christoph Meister

Objekttext eingefügt werden – womit die Annotation in Form des sogenannten „Tagging“ in die Computerphilologie Einzug nimmt.25 Die Möglichkeit zur Ergänzung des Objekttextes um beschreibende oder interpretierende Metatexte (sogenannte „MarkUp“) mag technisch gesehen trivial erscheinen; konzeptionell jedoch bedeutet sie für die Computerphilologie einen Quantensprung in Richtung Komplexität und hermeneutische Relevanz. Diese Entwicklung gewinnt noch an Dynamik, als in den 1980er-Jahren der PC aufkommt und Geisteswissenschaftler nicht länger gezwungen sind, Naturwissenschaftlern und Ingenieuren Rechenzeit auf den teuren Großrechnern abzuringen. John Bradley und Lidio Presutti entwickeln an der University of Toronto mit TACT (Textual Analysis Computing Tools) gleich eine ganze Programmsuite für die neuen DOS-Rechner. Diese Suite ermöglicht erstmals die schrittweise, auch rekursive Verknüpfung von vollautomatisierten Prozessen wie der Kollation (d. h. Erstellung eines sortierten Wortindex zu einem Text) mit interaktiven Verfahren des MarkUp und der Textanalyse. TACT unterstützt damit erstmals einen umfassenden philologischen Arbeitsprozess am Text oder Textkorpus. Ähnlich wichtig wird für den Bereich der Editionsphilologie das seit 1978 an der Universität Tübingen von Wilhelm Ott entwickelte Programm TUSTEP („TUebinger System von TExtverarbeitungsProgrammen“), das den gesamten editorischen Arbeitsablauf von der Texteingabe über den Variantenvergleich, die Textkorrektur, die Kommentierung und Indexerstellung bis hin zum Satz und Layout einer elektronischen Druckvorlage unterstützt. Wie im Falle von COCOA und TACT versteht sich die bis heute andauernde Entwicklung sogenannter Tools zwar selbst oft nur als Beitrag zur computergestützten Emulation herkömmlicher Routinen; sie bedeutet dabei jedoch nicht selten eine prinzipielle, konzeptionelle Erweiterung digitaler Verfahren um qualitative Dimensionen geisteswissenschaftlicher Praxis, die uns erst nachträglich als eigentliche Konsequenz der umfassenden Digitalisierung bewusst wird. Heute ermöglichen webbasierte Arbeitsumgebungen wie TAPoR (Textual Analysis Portal for Research) und logisch wie ergonomisch stringent am traditionellen Arbeitsablauf von Philologen orientierte Programme wie CATMA (Computer Assisted Textual Markup and Analysis)26 in der Regel nicht nur die Verknüpfung

25 Die Relevanz der Annotation unterstreicht John Bradley mit seinem neuesten Softwareentwicklungsprojekt PLINY: „The Pliny project aims to promote some thinking that looks broadly at the provision of tools to support scholarship. One of its products is a piece of software, also called Pliny, which facilities note-taking and annotation – a key element of Humanities research for many scholars.“ Bradley, John: Pliny. A note manager. pliny.cch.kcl.ac. uk (Stand: 16.03.2011). 26 Zu CATMA siehe www.catma.de (Stand: 27.03.2011).

Computerphilologie vs. ,Digital Text Studies‘

281

von Einzelroutinen wie Indexing, Parsing, MarkUp oder Visualisierung, die auf die jeweiligen Forschungsfragen eines Projekts zugeschnitten sind. Mindestens ebenso bedeutsam ist die nahezu unbeschränkte Möglichkeit zum Import, Export und Austausch von Primärtexten wie Sekundärdaten über System- wie Programmgrenzen, die mit der Vereinbarung verbindlicher Standards für den Datenaustausch möglich geworden ist. Computerphilologie bedeutet mithin seit der Entwicklung der ersten Softwareprogramme im Prinzip nicht mehr nur eine Effizienzsteigerung isolierter editorischer oder analytischer Operationen: sie zielt im Kern nun auf die Unterstützung des gesamten philologischen Workflow.

2.3 Aufbau von Textarchiven und Vereinbarung von Standards Die Bearbeitung von linguistischen und philologischen Fragestellungen per Computer setzt naturgemäß voraus, dass der Gegenstand Text bzw. Sprache im computerlesbaren, digitalen Format vorliegt. Das erscheint uns heute, wo nahezu alle Gebrauchstexte und in zunehmendem Maße auch literarische Texte ohnehin ,born digital‘ sind, d. h. bereits per Computer verfasst und als Dateien übermittelt werden, als ein vergleichsweise triviales Problem, das allenfalls noch historische Texte betrifft, die weiterhin ausschließlich in gedruckter Form vorliegen. Für die Mehrzahl der Philologen stehen allerdings gerade diese historischen Texte und weniger die alltagssprachlichen, journalistischen oder sonstigen nicht-literarischen Gegenwartsprodukte im Zentrum des Interesses. Die Möglichkeit zum Zugriff auf digitalisierte Texte, und im weiteren Sinne auf digitale Repräsentationen von kulturellen Artefakten verschiedenster medialer Gestalt, erscheint uns im Zeitalter des WWW als Selbstverständlichkeit und Großprojekte wie die vom Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme betreute Deutsche Digitale Bibliothek (DDB)27 werden mittlerweile massiv gefördert. Sie alle stehen in der Tradition der elektronischen Textarchive, deren Aufbau in den späten 1960er Jahren beginnt. Eine Vorreiterrolle spielt hier die Katholische Universität Louvain, an der Paul Tombeur 1968 das „Centre for the Electronic Processing of Documents“ (CETEDOC) gründet, das mit der „Library of Christian Latin Texts“ und dem „Archive of CelticLatin Literature“ zwei wichtige elektronische Textarchive erstellt. Ein Jahr später ruft die American Philological Society am Dartmouth College in New Hampshire das „Repository of Greek and Latin machine-readable texts“ ins Leben; 1972 nehmen Forscher an der University of California, Irvine die Arbeit am „Thesaurus

27 Zur DDB siehe www.iais.fraunhofer.de/ddb.html (Stand: 18.03.2011).

282

Jan Christoph Meister

Linguae Graeca“ auf, der zur Jahrtausendwende ein elektronisches Korpus von über 8200 griechischen Texten von beinahe 3000 Autoren umfasst und daraus einen gigantischen Thesaurus von 69 Millionen Wörtern Umfang generiert. In England begründet 1976 Lou Burnard das „Oxford Text Archive“, das sich schnell zu einem der größten elektronischen Textarchive moderner Sprachen entwickelt. Philologisch deutlich hemdsärmeliger, dafür aber von einem visionären Elan beseelt, der vierzig Jahre später umso stupender wirkt, ruft schon 1971 ein amerikanischer Student ein Projekt ins Leben, das sich folgendes Ziel setzt: „We want to provide as many e-books in as many formats as possible for the entire world to read in as many languages as possible.“28 Es handelt sich um das von Michael Hart an der University of Illinois begründete „Project Gutenberg“, in dem digitalisierte Fassungen von Printtexten gesammelt werden.29 „Project Gutenberg“ gilt heute nicht nur als erste digitale Bibliothek überhaupt, sondern nimmt vor allen Dingen bereits moderne, webbasierte Arbeitsformen des sogenannten ,crowd sourcing‘ und der interessegeleiteten Kooperation von kompetenten Laien wie Fachleuten vorweg, wie sie etwa bei Wikipedia praktiziert werden. Die zusammengetragenen sogenannten Retro-Digitalisierungen werden teils manuell – d. h. durch Abtippen – teils mit Scannern hergestellt und anfangs auf einem der ersten fünfzehn Großrechner gespeichert, die später als Vorläufer des modernen WWW miteinander vernetzt werden. „Project Gutenberg“ praktiziert nun allerdings wie viele andere frühe Textarchive eine Methode, die Lou Burnard in anderem Zusammenhang als „dustbin policy of archiving“ bezeichnet hat,30 d. h. das möglichst umfassende Sammeln von Texten ohne Rücksicht auf Format und Codierung. Die Notwendigkeit einer Standardisierung sowohl der verwendeten Zeichensätze zur Darstellung des Textes wie der Annotationscodes zur Beschreibung typographischer, layouttechnischer und sonstiger Merkmale bis hin zu interpretierenden Anmerkungen wird mit der massenhaften Verbreitung von PCs in den 1980er Jahren, in deren Folge auch Philologen nun erheblich leichter individuelle Forschungsfragen rechnergestützt bearbeiten können, umso dringender. 1986 wird die „Standard Generalized Markup Language“ (SGML) als erster internationaler MarkUp-Standard für elektronische Texte definiert. SGML dient allerdings im wesentlichen der forma-

28 Hart, Michael: Project Gutenberg Mission Statement by Michael Hart, 2004 (2007). www. gutenberg.org/wiki/Gutenberg:Project_Gutenberg_Mission_Statement_by_Michael_Hart (Stand: 25.03.2011). 29 Siehe die ausführliche Darstellung unter en.wikipedia.org/wiki/Project_Gutenberg sowie die Projektwebsite http://www.gutenberg.org/wiki/Main_Page (beide Stand: 17.03.2011). 30 Zit. nach Fraser, Michael: A Hypertextual History of Humanities Computing, 1996. users.ox. ac.uk/~ctitext2/history/ (Stand: 21.03.2011).

Computerphilologie vs. ,Digital Text Studies‘

283

len und typographischen Textauszeichnung; grammatische, syntaktische, semantische und rhetorische Kategorien spielen hier keine Rolle. 1987 etablieren daher die drei führenden Verbände ALLC, ACH und die „Association for Computational Linguistics“ (ACL) die „Text Encoding Initiative“ (TEI),31 um Richtlinien für eine standardisierte Textauszeichnung in den Geisteswissenschaften auf der Grundlage von SGML zu erarbeiten. 1992 erscheint die erste Version des Regelwerks, das mittlerweile in diversen Auflagen auf über eintausend Seiten angeschwollen ist, jedoch auch in einer nutzerfreundlicheren Kurzfassung (sogenannten ,TEI Lite‘) angeboten wird. Zusätzlich steht heute mit XML („Extendable Markup Language“) eine Metasprache zur Verfügung, die festlegt, wie Textauszeichnungssprachen prinzipiell strukturiert und speziellen Auszeichnungsbedürfnissen angepasst werden können. Fast alle elektronischen Textarchive der Welt haben mittlerweile den TEI-XML-Auszeichnungsstandard übernommen. Die Bedeutung, die der TEI-Initiative in konzeptioneller Hinsicht zukommt, ist kaum zu überschätzen. Die Verfechter des von Lou Burnard und Michael SperbergMcQueen begründeten TEI-Projekts, das heute von einem internationalen Konsortium betrieben wird, weisen zu Recht darauf hin, dass gerade die für Philologen so wichtigen Meta-Informationen zu einem Text – und dazu zählt von der einfachsten typographischen Kennzeichnung über die systematische Klassifikation der Textsorte bis zur komplexen hermeneutischen Interpretation des Gesamttextes im Prinzip alles, was über die reine Buchstabenfolge in einem Text hinausgeht! – erst mit der Etablierung von Auszeichnungsstandards stabil und innerhalb der Forschungscommunity zum gegenseitigen Nutzen austauschbar werden. Für TEI und die Vereinbarung von Auszeichnungsstandards sprechen nach Ansicht der „Oxford University Computing Services“ deshalb folgende Argumente: Why would you want those things? – because we need to interchange resources – between people – (increasingly) between machines – because we need to integrate resources – of different media types – from different technical contexts – because we need to preserve resources – cryogenics is not the answer! – we need to preserve metadata as well as data.32

31 Siehe www.tei-c.org/index.xml (Stand: 18.03.2011). 32 Siehe Live long and prosper! Lessons from the TEI, Abschnitt 7. projects.oucs.ox.ac.uk/ ENRICH/Deliverables/Training/tei-intro.xml?ID=body.1_div.7 (Stand 25.03.2011).

284

Jan Christoph Meister

Was damit unter dem augenzwinkernden Titel Live long and prosper! Lessons from the TEI von dem „good digital citizen“ erwartet wird, nämlich eine standardkonforme Praxis des ,intelligent markup‘, steht allerdings in einem fundamentalen Spannungsverhältnis zu neueren Verfahren des sogenannten ,data mining‘, die schon seit längerem nicht mehr auf die intelligente Systematisierung und Kategorisierung von Information setzen, sondern ausschließlich auf mathematisch-stochastische Modelle und praktisch unbegrenzt große Datenspeicher. Das vollkommene Austreiben von Semantik und Kognition aus dem Handel mit Informationen mag zwar gerade Philologen erschauern lassen, nur dürfen wir darüber nicht vergessen: beinahe jeder von uns verlässt sich tagtäglich auf einen solchen non-intelligenten Ansatz, nämlich bei der Verwendung von Internet-Suchmaschinen wie Google. In einer konzeptionellen Perspektive gesehen stehen digitale Textarchive und vereinbarte Standards zur Texterfassung und Textauszeichnung damit vielleicht exemplarisch für das, was an der Computerphilologie philologisch ist: für das Bewusstsein, dass die Bedeutung eines Textes als Ganzes historisch und von Menschen kontextabhängig konstruiert und insofern auch nur im Modus der sinnorientierten Interpretation und des Abgleichs mit anderen Texten zu erschließen ist. Dieses Konzept von Bedeutung ist ein prinzipiell anderes als das mathematisch formalisierte der Suchmaschinen, die menschliche Relevanzzuschreibungen zwar zu beobachten und mit oftmals verblüffender Genauigkeit zu simulieren, aber nicht kognitiv nachvollziehen, geschweige denn antizipieren können. Textmarkup bleibt daher konzeptionell vielleicht die wichtigste computerphilologische Praxis überhaupt – oder um es mit Lou Burnard zu sagen: „Text markup is currently the best tool at our disposal for ensuring that the hermeneutic circle continues to turn, that our cultural tradition endures.”33

2.4 Institutionalisierung des ,Humanities Computing‘, Einrichtung von ,Humanities Computing‘-Servicezentren und Entwicklung von ,Digital Humanities‘-Curricula Neben technischen, methodischen und konzeptionellen Entwicklungen trägt zur internationalen Etablierung der Computerphilologie die Gründung von Verbänden und Zentren bei, die erst in den späten 1990er Jahren auch im deutsch-

33 Burnard, Lou: „On the hermeneutic implications of text encoding“. Abstract für Literature, Philology and Computers, University of Edinburgh, September 1998. users.ox.ac.uk/~lou/wip/ herman_abstract.htm (Stand: 18.03.2011).

Computerphilologie vs. ,Digital Text Studies‘

285

sprachigen Raum einsetzt. Mit der „Association for Literary and Linguistic Computing“ (ALLC) wird 1972 der erste Fachverband gegründet, dessen offizielle Verbandszeitschrift Literary and Linguistic Computing. The Journal of Digital Scholarship in the Humanities (LLC; vormals: Journal of Literary and Linguistic Computing) seitdem bei der Oxford University Press erscheint.34 Die ALLC ruft ihrerseits 2004 mit ihren amerikanischen und kanadischen Schwesterverbänden den internationalen Dachverband „Alliance of Digital Humanities Organizations“ (ADHO) ins Leben, der nun auch Ausrichter der führenden, jährlich ausgetragenen Fachkonferenz „Digital Humanities“ wird. In Italien und Japan wurden Anfang 2011 ebenfalls Regionalverbände gegründet, im deutschsprachigen Raum wird dies im Rahmen der an der Universität Hamburg ausgetragen Konferenz „Digital Humanities 2012“ angestrebt. Im Kontext von ADHO formieren sich seit 2007 auch die diversen ,Humanities Computing‘-Zentren zu dem Interessenverband Centernet.35 Diesem Verbund gehören derzeit in Deutschland und Österreich insgesamt zehn Zentren an.36 Die seit Anfang der 1970er-Jahre eingerichteten ,Humanities Computing‘Zentren unterstützen in der Regel digitale Projekte in verschiedenen Disziplinen und sind zunächst als universitäre Serviceeinrichtungen zumeist den Rechenzentren oder Bibliotheken von Universitäten angegliedert. Ein typisches Beispiel ihrer Genese liefert das „Oxford e-Research Centre“, das aus dem „Oxford University Computing Centre“ hervorgeht, nachdem dort Forschungsprojekte in diversen Fächern einen Bedarf an kompetenter IT-Unterstützung anmelden: By 1975 there were a number of projects mostly in Classics, History and Oriental Studies where concordances and databases were being used. In an attempt to create a focus for these and to promote more awareness the University created a post initially called Teaching Officer for Computing in the Arts based in the Computing Service (OUCS), which was taken up by Susan Hockey in early 1975. In 1976 the Computing Service appointed Lou Burnard as a programmer for humanities computing.37

Die größeren dieser Zentren gewinnen bald eigenständigen Status, so das international renommierte Centre for Computing in the Humanities am King’s College, London oder das Kompetenzzentrum für elektronische Erschließungs- und

34 Zur ALLC siehe www.allc.org; zu ADHO digitalhumanities.org (beide Stand: 18.03.2011). 35 Siehe digitalhumanities.org/centernet (Stand: 18.03.2011). 36 Anstelle einer schnell überholten Aufzählung sei hier der Link zur laufend aktualisierten Liste auf der Centernet-Website angeführt; die Liste kann dort nach Bedarf auch regionalspezifisch generiert werden: digitalhumanities.org/centernet/centers (Stand: 18.03.2011). 37 Siehe digital.humanities.ox.ac.uk/about/history.aspx (Stand: 18.03.2011).

286

Jan Christoph Meister

Publikationsverfahren in den Geisteswissenschaften38 an der Universität Trier. Gemeinsam mit dem Göttinger Digitalisierungszentrum (GDZ)39 ist dieses Kompetenzzentrum heute führend bei der digitalen Erschließung des deutschsprachigen literarischen Kulturerbes.40 Parallel zur Institutionalisierung in Fachverbänden und der Einrichtung von Servicezentren für digitale Forschungsprojekte an Universitäten, die bis auf wenige Ausnahmen auch heute vorrangig im anglo-amerikanischen Raum zu finden sind, setzt in der Scientific Community gegen Ende der 1980er Jahre eine rege Debatte über das methodische und disziplinäre Selbstverständnis des ,Humanities Computing‘ ein. Sie wird bis in die Gegenwart maßgeblich befördert von dem E-Mail-Diskussionsforum „Humanist“, das (s. o.) Willard McCarty 1987 ins Leben ruft und bis heute moderiert.41 Seit den Gründerjahren oszilliert die internationale Debatte in „Humanist“ zwischen der Erörterung technologischer Neuerungen und aktueller Forschungsprojekte und der Diskussion methodologischer und philosophischer Grundsatzfragen, die um den Status von ,Humanities Computing‘ und neuerdings ,Digital Humanities‘ kreisen. Zwei große Themen stehen dabei im Mittelpunkt: erstens die Frage, inwieweit durch das elektronische Medium eine Veränderung des Textbegriffes notwendig wird; zweitens ob die digitale Forschungspraxis in den Geisteswissenschaften einen Anspruch auf epistemologischen und methodologischen Eigenwert erheben kann. Ein drittes, seit kurzem auch im deutschsprachigen Raum Dank einer Initiative des Kölner Historikers Manfred Thaller intensiv diskutiertes Thema betrifft die Frage der Gestaltung und Verankerung eines ,Digital Humanities‘-Curriculums in den Fachwissenschaften bzw. als eigenständiges Lehrangebot.42 In Deutschland bietet die Universität Würzburg seit dem Wintersemester 2009/2010 einen solchen BA-Studiengang „Digital Humanities“ an.43

38 Siehe www.kompetenzzentrum.uni-trier.de (Stand: 18.03.2011). 39 Siehe gdz.sub.uni-goettingen.de (Stand: 18.03.2011). 40 Einen Gesamtüberblick über laufende Digitalisierungsprojekte im deutschsprachigen Raum gibt die Website www.kulturerbe-digital.de (Stand: 18.03.2011). 41 „Humanist“ verfügt über ein komplettes Web-Archiv aller Diskussionsbeiträge und Anfragen seit seiner Gründung und ist so eine der wichtigsten wissenschaftshistorischen Ressourcen. Siehe digitalhumanities.org/humanist (Stand: 18.03.2011). 42 Siehe „Cceh-dhcurricular – Digital Humanities Curricularentwicklungen“, lists.uni-koeln.de/ mailman/listinfo/cceh-dhcurricular (Stand: 18.03.2011). 43 www.uni-wuerzburg.de/fuer/studierende/angebot/faecher/digihum (Stand: 18.03.2011).

Computerphilologie vs. ,Digital Text Studies‘

287

3 Von der Computerphilologie zu neuen Formen kollektiver Forschung in den digitalen Textwissenschaften Im ersten Band des Jahrbuchs Computerphilologie gibt Fotis Jannidis 1999 eine Auflistung computerphilologischer Arbeitsfelder, die auch heute noch Gültigkeit hat: Insbesondere gehören dazu das (1) Erstellen und (2) Verwenden elektronischer Texte, einschließlich (2.1) der Lektüre und des (2.2) Information Retrievals, (3) die Hypertexttheorie und -praxis mit Berücksichtigung von Hyperfiction und (4) das Programmieren von Anwendungen für Literaturwissenschaftler.44

In Jannidis’ eingangs zitiertem Beitrag wird die Liste aktualisiert und um die Aspekte Visualisierung, multimodale und kollektive Edition sowie E-Learning, E-Science und E-Publishing ergänzt.45 Damit sind die wesentlichen Felder gegenwärtiger computerphilologischer Praxis benannt; wer Genaueres über die Arbeitsverfahren und konkrete Beispiele für Forschungsprojekte in diesen Anwendungsgebieten sucht, der sei ebenfalls auf Jannidis’ Beitrag verwiesen. Blickt man auf die grundlegenden Änderungen der Computerphilologie zwischen 1999 und 2010, so zeigt sich, dass ohne Zweifel die rasante technologische Transformation von isolierten Desktop-Applikationen zu über das WWW vernetzten Anwendungen und virtuellen Arbeitsumgebungen den nachhaltigsten und tiefgreifendsten Effekt auf die computerphilologische Praxis gehabt hat. Diese Transformation läuft nun allerdings nicht nur auf eine Effizienzsteigerung der traditionellen Philologie, sondern vor allen Dingen auf eine neue soziale Praxis philologischer Forschung hinaus. Computerphilologie wird heute zunehmend nicht mehr als philologische Einzelforschung mit Hilfe des Werkzeugs Computers praktiziert, sondern als Teamwork. Sie wird nämlich nicht nur von einer massiven Erweiterung der Speichermöglichkeiten, einer vielfachen Steigerung der Recheneffizienz und dem Ausbau einer extrem leistungsstarken Internetarchitektur unterstützt, sondern partizipiert auch an Folgephänomenen wie

44 Jannidis, Fotis: Was ist Computerphilologie? In: Jahrbuch für Computerphilologie 1. Hg. v. Volker Deubel, Karl Eibl und Fotis Jannidis. Paderborn 1999, S. 39–60. Zugleich als elektronische Publikation unter der folgenden Adresse: computerphilologie.uni-muenchen.de/ jahrbuch/jb1/jannidis-1.html (Stand: 18.03.2011). Die Nummerierung in dem Zitat ist hier von mir dem Kontext angepasst worden. 45 Jannidis: „Computerphilologie.“ In: Handbuch Literaturwissenschaft. Hg. v. Anz., S. 27–40, Zitat S. 39.

288

Jan Christoph Meister

dem Paradigmenwechsel zu dem auf Personalisierung, Interaktivität und ,social networks‘ setzenden Web 2.0 und profitiert nicht zuletzt von der De-Hierarchisierung des Zugangs zu Wissens- wie Entwicklungsressourcen, für die Stichworte wie ,open access‘ und ,open source‘ stehen. In avancierten Forschungsprojekten wird zudem die disziplinübergreifende Kooperation mit Informatikern, Systementwicklern, Visualisierungsexperten immer wichtiger – und das umso stärker, je mehr sich die Aufmerksamkeit auch auf „weiche“, schwerer formal zu operationalisierende geisteswissenschaftliche Fragestellungen richtet, bei denen es weniger um eine reine Analyse von Daten als vielmehr um heuristische und hermeneutische Annäherungen an den Gegenstand geht, also eher um seine Modellierung. Was sind die Konsequenzen für unser (Selbst-)Verständnis von ,Literary Computing‘ und Computerphilologie? So wie sich das umfassendere Forschungsfeld des ,Humanities Computing‘ von dem instrumentell aufgefassten „Einsatz von Computern in den Geisteswissenschaften“ abwendet und sich methodologisch definiert als ,Digital Humanities‘ – d. h. als eine Form geisteswissenschaftlichen Forschens, der sich infolge der digitalen Verfasstheit ihrer Objekte prinzipiell neue, spezifische Möglichkeiten des Fragens und Forschens bieten – laufen die gegenwärtigen Entwicklungen hinaus auf etwas, das mehr ist, als die Anwendung von Computern durch Philologen. Was dies konkret heißt, sei an drei aktuellen Projekten skizziert, die Kernbereiche dieser Praxis betreffen, nämlich Textedition, Interpretationsheuristik und Textannotation. Das vom deutschen Bundesministerium für Bildung und Forschung (BMBF) geförderte Verbundprojekt TextGrid46 verfolgt den Aufbau einer räumlich verteilten, aber über das Internet zu einem Netz (,Grid‘) verknüpften Infrastruktur, die Werkzeuge und Dienste für die Auswertung von textbasierten Daten in unterschiedlichen digitalen Archiven bereitstellt und dabei neben Standortunabhängigkeit größtmögliche Flexibilität hinsichtlich Datenform und verwendeter Software garantiert. TextGrid hat zwei Kernkomponenten, (1) ein fachwissenschaftliches Langzeitarchiv (TextGrid Repository), das die langfristige Verfügbarkeit und Zugänglichkeit geisteswissenschaftlicher Forschungsdaten sowie die Möglichkeit zu deren Vernetzung garantieren soll, und (2) eine laufend erweiterte Sammlung (TextGrid Laboratory) von Softwareanwendungen und Funktionsmodulen (Tools and Services), die dem Nutzer in einer Art Werkzeugkasten (Toolkit) zur Verfügung stehen. Um seinen je spezifischen Arbeitsablauf zu unterstützen, kann der Nutzer diese Tools nach Bedarf kombinieren und mit ihnen dann auf die im Archiv erfassten bzw. dort abgelegten Daten zugreifen.

46 www.textgrid.de (Stand: 21.03.2011).

Computerphilologie vs. ,Digital Text Studies‘

289

Ein konkretes fachwissenschaftliches Anwendungsszenario für einen solchen Arbeitsablauf stellt dabei die Textedition dar; im Kontext eines Editionsvorhabens wären z. B. die folgenden TextGrid-Dienste relevant: Services fulfil functionalities such as word stemming or text comparison. These atomic tasks are coordinated in a workflow management component and integrated into tools tailored to the needs of a specific research initiative. An editor may, for instance, analyse a set of historic texts with dedicated services using dictionaries from that time, and contrast the results in a single view.47

Die hier angeführten Arbeitsschritte können in der TextGrid-Architektur sowohl von einem Einzelforscher ausgeführt werden wie von einem Forscherteam; die von TextGrid unterstützten philologischen Projekte sind also hinsichtlich ihrer Komplexität frei skalierbar. Auf diesen konzeptionell besonders wichtigen Aspekt macht Andrea Rapp aufmerksam: Zusammenfassend lässt sich sagen, dass dezentrale und kollaborative Arbeitsweisen immer dann sinnvoll anwendbar sind, wo Aspekte der Bereitstellung, Erschließung und Kommentierung von Primärquellen zum Tragen kommen und wo Massendaten bearbeitet werden müssen. Die Fülle und Vielfalt unseres kulturellen Erbes sowie die Anforderungen bei dessen Bewahrung, Erschließung und Erforschung machen demnach eine neue wissenschaftliche Kultur der Zusammenarbeit sowie den Einsatz von Spitzentechnologie nicht allein wünschenswert, sondern dringend erforderlich.48

Unser zweites Beispiel ist das schon eingangs erwähnte Textanalyseportal TAPoR (Textual Analysis Portal for Research), das im Rahmen eines von Geoffrey Rockwell geleiteten Kooperationsprojekts von sechs kanadischen Universitäten aufgebaut wurde und ein „gateway to tools for sophisticated analysis and retrieval, along with representative texts for experimentation“ bereitstellt.49 Das Portal stellt eine ganze Reihe von sog. Tools zur Verfügung, die wie bei TextGrid nicht heruntergeladen und lokal installiert werden müssen, sondern direkt auf dem TAPoR-

47 Aschenbrenner, Andreas, Peter Gietz u. a.: „TextGrid – a modular platform for collaborative textual editing.“ In: Proceedings of the International Workshop on Digital Library Goes e-Science (DLSci06), Alicante, September 21, 2006, S. 33. 48 Rapp, Andrea: „Das Projekt ‚TextGrid. Modulare Plattform für verteilte und kooperative wissenschaftliche Textdatenverarbeitung – ein Community-Grid für die Geisteswissenschaften‘. Chancen und Perspektiven für eine neue Wissenschaftskultur in den Geisteswissenschaften.“ In: Jahrbuch der historischen Forschung in der Bundesrepublik Deutschland: Berichtsjahr 2006. Hg. v. der Arbeitsgemeinschaft historischer Forschungseinrichtungen in der Bundesrepublik Deutschland. München 2007, S. 65. 49 http://portal.tapor.ca/portal/portal (Stand: 30.07.2012).

290

Jan Christoph Meister

Server ausgeführt werden können – man lädt also umgekehrt den zu analysierenden Text auf den Server und bekommt von diesem dann die Analysen im Internet angezeigt und zum Download bereitgestellt. Abgesehen von der Möglichkeit, die mit einem TAPoR-Tool ausgeführte Analyse im WWW öffentlich zu machen und anderen zur Verfügung zu stellen, ist die TAPoR-Architektur nun zwar (noch) nicht in der Lage, echte kollaborative Prozesse in „real time“ zu unterstützen. Aber die Tools selbst sind in einem konzeptionell-methodischen Sinn durchweg auf einen kollektiven Prozess hin orientiert, insofern sie heuristischer Natur sind. Das derzeit interessanteste Spin-Off-Produkt von TAPoR ist das von Rockwell und Stéfan Sinclair programmierte Tool VOYANT,50 mit dem man auf einen Klick einen Text oder ein Textkorpus auf möglicherweise interessante Phänomene wie z. B. Wortverteilung oder auffällige Wortgruppierung untersuchen kann. „Füttert“ man VOYANT z. B. mit unserem gegenwärtigen Beitrag bis zum Ende dieses Satzes, dann bekommt man folgenden Blick auf den Text geboten:

Abb. 2: VOYANT-Analyse des gegenwärtigen Artikels bis zum Ende des letzten Absatzes

50 http://voyeurtools.org/ (Stand: 30.07.2012).

Computerphilologie vs. ,Digital Text Studies‘

291

Bei der VOYANT-Analyse, deren Ergebnis hier nur in einem Aspekt grafisch dargestellt werden kann, ist u. a. die Verteilung des Terms „Computerphilologie“ – er kommt im ganzen Text insgesamt siebzig Mal vor – über das Textkontinuum untersucht worden. Diese Verteilung wird in Form eines Graphen dargestellt; ein Beispiel für einen Prozess digital unterstützter Interpretationsheuristik, deren Ergebnis nun sowohl individuell wie kollektiv nutzbar gemacht werden kann. Unser drittes Beispiel ist ein Projekt, das in Hinsicht auf den kollektiven Forschungsmodus gleich zwei Schritte weiter geht. Zielsetzung ist hier (…) to supplement Google Books with a web based collaborative text exploration, markup and analysis environment, hereafter referred to as CLÉA (Collaborative Literature Éxploration and Annotation). The development of CLÉA builds on our open source desktop application CATMA which already supports high-level semantic annotation through TEI compliant, non-deterministic stand off markup. Development of the CLÉA system will be supported by a pilot study in which a Google Books subcorpus of approx. 15-20 German pre-20th Century literary texts are tagged for specific narratological phenomena. The crowd sourced markup will then be analysed with a view to augmenting existing automated preprocessing in CLÉA via machine learning.51

Die Grundidee des von Google geförderten Projekts CLÉA ist: nicht nur die literarischen Primärtexte, die in stetig zunehmendem Umfang in Google Books und digitalen Bibliotheken zur Verfügung stehen, sowie die ihnen zugeordneten wissenschaftlichen Sekundärtexte müssen grundsätzlich in digitaler Form und im Modus des open access frei zugänglich gemacht werden. Auch das im Zuge textwissenschaftlicher Forschung vorgenommene MarkUp bis hin zur idiosynkratischen Annotation sollte – unabhängig von projektspezifischer Orientierung und Funktion – idealiter im WWW verfügbar sein, um als Basismaterial in die kollaborative Erschließung von Texten einfließen und so in neuen Forschungskontexten verwendet werden zu können. Insbesondere freiformatige Annotationen als wichtige Vorstufe philologischer Textexploration bleiben bislang ja in der Regel verborgen; sie können allenfalls noch aus dem synthetischen Gesamtresultat des Forschungsprozesses, der Sekundärpublikation, erschlossen werden. Das hat zur Folge, dass von Philologen bei der Neubefassung mit einem

51 Meister, Jan Christoph: „CLÉA – Literature Éxploration and Annotation Environment for Google Books corpora. Application for a Google Digital Humanities Research Award (Europe).“ CLÉA wurde zweifach mit einem Google Digital Humanities Award gefördert und ist eine Fortentwicklung der MarkUp und Textanalyse-Software CATMA, die von einem Team von Philologen, Linguisten und Systementwicklern an der Universität Hamburg entwickelt wurde und die besonders zur Bearbeitung philologischer Problemstellungen geeignet ist. Details zu CATMA und CLÉA siehe unter http://www.catma.de (Stand: 30.07.2012).

292

Jan Christoph Meister

von anderen Forschern bereits bearbeiteten Text in aller Regel das Rad immer wieder neu erfunden wird, denn die eigentlichen Basisdaten aus dem „philologischen Labor“ – die Annotationen selbst – bleiben im Privaten, es sei denn, sie finden Niederschlag in einem publizierten, autoritativen Textapparat. CLÉA will dem mit einer webbasierten Arbeitsumgebung abhelfen, mit der Literaturwissenschaftler einen Zyklus von fünf Arbeitsschritten je nach Wahl kollektiv oder individuell durchlaufen können: (1) Zusammenstellung eines Korpus digitaler Primärtexte aus Google Books oder anderen Internetquellen; (2) Einlesen bereits existierender, für die jeweilige Forschungsfrage relevanter TEI/ XML-basierter Annotationsschemata (sog. Tag-Sets) und/oder konkreter Annotationsdokumente zu jedem beliebigen Korpustext; (3) standardkonforme Erweiterung der Textauszeichnungsschemata je nach Bedarf; (4) eigene Textauszeichnung und freiformatige Textannotation; (5) Speicherung der erweiterten Annotationsschemata sowie der Auszeichnungs- und Annotationsdokumente. Indem das CLÉA-System die Verknüpfungen zwischen Primärtexten und zugeordneten Annotationen – die untereinander durchaus variieren, ja selbst widersprechend sein dürfen – verwaltet und speichert, ergibt sich so zudem die Möglichkeit, die anonymisierten Annotate in Kombination mit ihren Bezugstexten mittels Maschinenlernverfahren auf Regelmäßigkeiten zu prüfen. Dieser Aspekt steht im Zentrum des BMBF-geförderten, ambitionierteren Anschlussprojekts heureCLÉA, das in Kooperation mit Informatikern der Universität Heidelberg ab 2013 durchgeführt werden soll und auf die Entwicklung einer sog. „digitalen Heuristik“ abzielt. Mit ihr können dann einige der zeitaufwändigen manuellen Textauszeichnungen automatisiert werden, was nachfolgende Forschungsprojekte von dieser Aufgabe entlasten würde.

4 Schluss: Von der Computerphilologie zu den ,Digital Text Studies‘ Viele der „Einsatzmöglichkeiten des Computers in der Literaturwissenschaft“, die vor einer Dekade als bahnbrechende Neuentwicklungen galten, sind heute selbstverständlicher Bestandteil philologischer Alltagspraxis geworden; sie genießen breite Akzeptanz und sind nicht länger die Domäne einer technologischen Avantgarde. Indem sich dieser Prozess der Aneignung digitaler Forschungsverfahren fortsetzen und womöglich noch beschleunigen wird, stellt sich die Frage, inwieweit „Computerphilologie“ als Sammelbegriff für eine spezifische methodische Praxis nicht obsolet geworden ist. Andererseits macht insbesondere die gegenwärtige Debatte über die Einführung von ,Digital Humanities‘-

Computerphilologie vs. ,Digital Text Studies‘

293

Curricula und -Studiengängen deutlich, dass die Sammlung, Erstellung, Aufbereitung und Pflege digitaler Ressourcen und die laufende Entwicklung neuer, philologisch relevanter Software eine Kompetenz voraussetzen, die ‚normale‘ Philologen ebenso wenig besitzen wie ‚normale‘ Informatiker, eben weil sie im Schnittbereich von angewandter Informatik, webbasiertem Informationsmanagement und Textwissenschaften angesiedelt ist. Computerphilologie und ,Literary Computing‘ sind insofern zwar Arbeitsbereiche, deren methodische Relevanz sich von der philologischen Peripherie zunehmend in den literaturwissenschaftlichen Zentralbereich hinein ausgeweitet hat. Wer aber mehr als nur bereits vorhandene Texte benutzen und vorhandene Software auf sie anwenden will, braucht besondere Kenntnisse und Fertigkeiten, die wir systematisch vermitteln müssen, wenn wir voranschreiten wollen. Aber – warum sollten wir denn eigentlich noch mehr an digitalen Ressourcen und Anwendungen wollen, als uns heute bereits zur Verfügung gestellt wird? Die Antwort lautet: weil Computerphilologie und ,Literary Computing‘ jenseits des Anwendungs- und Serviceaspekts auch die Rolle von methodischen Impulsgebern für die Literaturwissenschaften zukommen. Ihr innovatives Potenzial war und ist dabei nur vordergründig „dem Computer“ und einer Anwendung von Software zu verdanken, mit der philologische Basisaufgaben schneller und auf breiterer Materialbasis erledigt werden können. Innovativ in einem essentiellen Sinne ist an der Computerphilologie vielmehr die Re-Konzeptualisierung des Phänomens Text als solchem. Wie andere medial basierte, sinntragende Artefakte – Bilder, materiale Objekte, Musik etc. – werden heute auch Texte rückübersetzt in eine elementare, binäre ,lingua franca‘. Dieser Rückübersetzung, dem Kernprinzip der Digitalisierung, verdanken sich nicht nur die neuen technischen Möglichkeiten zur Herstellung, Speicherung, Übermittlung und Analyse von Texten, sondern auch die ihrer Einbettung in multimodale Kontexte und Verfahren. Eine erste, grundsätzlichere methodische Chance, die daraus für die Philologie erwächst, ist die Öffnung gegenüber anderen Disziplinen. Sie liegt weniger in der Natur der jeweiligen disziplinenspezifischen ‚Sache‘, als vielmehr in der Natur des disziplinübergreifend genutzten digitalen Verfahrens. Das betont auch das aktuelle Mission Statement der „Association for Literary and Linguistic Computing“, die zwar an ihrem Namen festhält, sich aber durchaus nicht länger auf linguistische und philologische Forschungen beschränkt: The Association for Literary and Linguistic Computing was founded in 1973 with the purpose of supporting the application of computing in the study of language and literature. As the range of available and relevant computing techniques in the humanities has increased, the interests of the Association´s members have necessarily broadened, to

294

Jan Christoph Meister

encompass not only text analysis and language corpora, but also history, art history, music, manuscript studies, image processing and electronic editions.52

Das oben erwähnte Beispiel des TextGrid-Projekts zeigt, welche Bedeutung in dieser Hinsicht der Entwicklung und Bereitstellung einer robusten, flexiblen, nachhaltigen Service-Infrastruktur zuzumessen ist, die eben nicht spezifisch und in einem traditionellen Verständnis „philologisch“ sein sollte, sondern so angelegt ist, dass sie die verschiedensten disziplinären wie interdisziplinären Forschungsszenarien in den Geistes- und Kulturwissenschaften bedienen kann, die sich auf den Objekttypus ,Text‘ beziehen. Eine zweite methodische Konsequenz, die wir der Einführung digitaler Verfahren in die Textwissenschaften verdanken, ist die partielle Empirisierung unserer Praxis und eine kritische Prüfung literaturwissenschaftlicher Begrifflichkeit und Modelle gewesen. Wer eine philologische Fragestellung mit einem Computer bearbeiten will, muss sie zunächst entsprechend operationalisieren. Das ist in sehr vielen Fällen leichter gesagt als getan – denn die traditionellen literaturwissenschaftlichen Beschreibungsbegriffe und theoretischen Konzepte sind in der Regel zu vage oder zu abstrakt, als dass man sie eindeutig formalisieren könnte. Allerdings: wo dies gelingt, ist der Gewinn eminent – denn nun kann der Computer seine Stärke ausspielen. An die Stelle der für die traditionelle Philologie typischen exemplarischen Einzeltextanalyse tritt die computergestützte, empirische Korpusanalyse, die Literaturwissenschaftlern gerade für historisch-genetische Fragestellungen völlig neue Perspektiven eröffnet. Im Rahmen der Empirisierung lässt sich insofern eine weitere konzeptionelle Erweiterung digitaler Forschungsmethoden an Tools wie dem oben angeführten Beispiel „Voyeur“ ausmachen: Neben die empirische Analyse von Daten tritt in jüngster Zeit zunehmend die synthetische Modellierung des ‚Output‘ insbesondere in Form von Visualisierungen. Was die digitale Analyse uns liefert, versteht sich damit nicht länger als ein objektives Ergebnis, sondern als eine heuristisch nutzbar zu machende, transitorische Reformulierung des ursprünglichen philologischen Objekts. Je interaktiver die Softwareanwendungen werden und je vielgestaltiger die Hinsichten sind, die sie auf die jeweiligen generierten Ergebnisse bereitstellen, umso mehr nähert sich das maschinelle Output damit dem alten Paradigma des Analogen an, dessen Stärke ja gerade nicht in der Eindeutigkeit lag, sondern in der Evozierung von Assoziationen und Bedeutungsvielfalt. Neben die Objektivierung durch digitale Empirie tritt eine neue Form subjektiver Aneignung qua digitaler Modellierung – bis hin zu den bewusst auf Verfrem-

52 www.allc.org (Stand: 21.03.2011).

Computerphilologie vs. ,Digital Text Studies‘

295

dung gewohnter Hinsichten setzenden Verfahren, die Johanna Drucker unter den Begriff des ,speculative computing‘ gefasst hat: Speculative computing extends the recognition that interpretation takes place from inside a system, rather than from outside. Speculative approaches make it possible for subjective interpretation to have a role in shaping the processes, not just the structures, of digital humanities. When this occurs, outcomes go beyond descriptive, generative, or predictive approaches to become speculative. New knowledge can be created.53

CLÉA, unser letztes oben angeführtes Projektbeispiel, steht schließlich für einen dritten zukunftsweisenden Trend in der digitalen Forschungspraxis, der unsere Auffassung davon, was (Computer-)Philologie ist oder sein könnte, nachhaltig verändern dürfte: kollaborative Forschung, die nicht länger nur fertige Ergebnisse austauscht, sondern als work in progress transparent wird und nicht einen autoritativ-synthetischen, sondern einen kollektiv-modularen Modus von Wissensproduktion praktiziert. Vielleicht ist es damit tatsächlich an der Zeit, dass wir den Begriff „Computerphilologie“ auch im deutschsprachigen Raum ad acta legen, um die instrumentelle Perspektive auf den „Einsatz des Computers in der Literaturwissenschaft“ hinter uns zu lassen. Und vielleicht sollte man das Neue, was derzeit entsteht, in Analogie zu den ,Digital Humanities‘ taufen und von einer ,Digital Philology‘ oder, weniger prätentiös und leichter anschlussfähig für den internationalen, englischsprachigen Wissenschaftsdiskurs,von ,Digital Text Studies‘ sprechen. Einer Computerphilologie, die zu ,Digital Text Studies‘ avancieren will, kann es dabei nicht darum gehen, dem Menschen seine natürlichsprachliche Intelligenz und seine Lust an der Uneindeutigkeit auszutreiben und Literaturwissenschaftler auf eine restringierte Kommunikation in Einsen und Nullen zu verpflichten. Ihr Ziel muss es vielmehr sein, ein grundlegendes Spannungsverhältnis fruchtbar zu machen: das zwischen der menschlichen Konzeptualisierung von ,Text‘ als einem synthetischen, sinnstiftenden Kommunikationsphänomen einerseits, und andererseits der digitalen Konzeptualisierung von Text als einem Informationsphänomen. Die informations- und kognitionstheoretische Vision wäre dabei, dass sich selbst komplexe literarische Texte – entsprechendes Auflösungs- und Speichervermögen der Systeme und noch sehr viel theoretische und mathematische Feinarbeit vorausgesetzt – so wie jedes andere informations53 Drucker, Johanna u. Bethanie Nowiskie: „Speculative Computing: Aesthetic Provocations in Humanities Computing.“ In: A Companion to Digital Humanities, Teil 3, Kapitel 29. Hg. v. Susan Schreibman, Ray Siemens u. John Unsworth. Oxford 2004. www.digitalhumanities.org/ companion (Stand: 21.03.2011).

296

Jan Christoph Meister

haltige Artefakt restfrei digital abbilden, übermitteln, manipulieren und analysieren lassen. Die philologische Mission der ,Digital Text Studies‘ indes wäre, dass wir die Verwirklichung dieser technologischen Vision durch die gemeinsame Formulierung neuer, intelligenter Hypothesen und Fragestellungen an Texte und ihre Geschichte immer wieder aufs Neue suspendieren und zu einer Utopie machen, die weitere innovative Forschungsansätze und -Methoden stimuliert.

Literaturhinweise McCarty, Willard: Humanities Computing. New York, London 2005. Meister, Jan Christoph: „Projekt Computerphilologie. Über Geschichte, Verfahren und Theorie rechnergestützter Literaturwissenschaft“. In: Literarität und Digitalität. Zur Zukunft der Literatur. Hg. v. Harro Segeberg u. Simone Winko. München 2005, S. 315–341. Susan Schreibman, Ray Siemens u. John Unsworth (Hg.): A Companion to Digital Humanities. Oxford 2004. Jannidis, Fotis: Was ist Computerphilologie? In: Jahrbuch für Computerphilologie 1. Hg. v. Volker Deubel, Karl Eibl u. Fotis Jannidis. Paderborn 1999, S. 39–60.

Roland S. Kamzelak

Digitalisierung in Literaturarchiven Die Aufgabe von Literaturarchiven lässt sich mit fünf Es zusammenfassen: Erwerben, Erhalten, Erschließen, Erläutern und Erforschen der Bestände, die dem Sammlungsprofil des Archivs entsprechen. Dieses kann regional oder inhaltlich geprägt sein, wobei die Definition von Literatur einmal enger, einmal weiter gefasst sein kann, also etwa auch die Philosophie und andere (Rand-) Disziplinen einschließt. Das Literaturarchiv unterscheidet sich vom Autorenarchiv darin, dass Bestände verschiedener Autoren, aber etwa auch von Verlagen, Zeitschriften oder Redaktionen versammelt sind, wodurch sich Querverbindungen leichter erforschen lassen. Im Reallexikon der deutschen Literaturwissenschaft ist die Definition zugespitzt auf eine nicht private Einrichtung als „Wissenschaftliche Institution für Nachlässe und Sammlungen von Schriftstellern und Gelehrten.“1 Diese öffentliche Ausrichtung spiegelt sich in den fünf Es wider, denn sowohl Erhaltung als auch Erschließung zielen auf ein öffentliches Interesse in der Gegenwart und der Zukunft. Darauf hat 1823 bereits Goethe im Zusammenhang mit seinem eigenen und dem Archiv Lessings hingewiesen: Die Hauptsache war eine Sonderung aller der bey mir ziemlich ordentlich gehaltenen Fächer, die mich mehr oder weniger früher oder später beschäftigten; eine reinliche ordnungsgemäße Zusammenstellung aller Papiere, besonders solcher, die sich auf mein schriftstellerisches Leben beziehen, wobey nichts vernachlässigt noch unwürdig geachtet werden sollte.2

Auffällig ist hier, dass das Archiv auch gleich als Nachlass gedacht ist, mit dem Anfragen zum Werk beantwortet werden und aus dem weitere Werke des Autors entstehen können, sei es durch den Schriftsteller selbst oder durch ‚Freunde‘. Erschließung und Erläuterung gehen dabei Hand in Hand, denn erst die Ordnung und Verzeichnung stellt den chronologischen und gattungsbezogenen Überblick über die vielen unterschiedlichen Materialien her, der zur Beantwortung von Anfragen notwendig ist.

1 Christoph König: „Literaturarchiv“, in: Reallexikon der deutschen Literaturwissenschaft, Bd. II H–O. Berlin, New York 2000, S. 448–451. 2 Johann Wolfgang von Goethe: „Archiv des Dichters und Schriftstellers“, in: Sämtliche Werke. Briefe, Tagebücher und Gespräche, hg. v. Friedemar Apel u. a., Bd. 21, Ästhetische Schriften 1821–1824. Über Kunst und Altertum III–IV, hg. v. Stefan Greif und Andrea Ruhlig. Frankfurt/ Main 1998, S. 396–398.

298

Roland S. Kamzelak

Der deutsche Philosoph und Begründer der „Geisteswissenschaften“, Wilhelm Dilthey (1833–1911), verallgemeinert die Ansicht Goethes weiter und stellt den wissenschaftlichen Wert von Handschriftensammlungen heraus: Genuß und Verständnis unserer Literatur empfängt aus diesen Handschriften eine unberechenbar werthvolle Bereicherung, und die wissenschaftliche Erkenntnis ist an ihre möglichst ausgiebige Benutzung schlechthin gebunden […] Zugleich sind Erhaltung, Sammlung und zweckmäßige Anordnung der Handschriften für das wissenschaftliche Studium der Literatur ganz unentbehrlich. Wir verstehen ein Werk aus dem Zusammenhang, in welchem es in der Seele seines Verfassers entstand, und wir verstehen diesen lebendigen seelischen Zusammenhang aus den einzelnen Werken. Diesem Zirkel in der hermeneutischen Operation entrinnen wir völlig nur da, wo Entwürfe und Briefe zwischen den vereinzelt und kühl dastehenden Druckwerken einen inneren lebensvollen Zusammenhang herstellen. Ohne solche handschriftliche Hülfsmittel kann die Beziehung von Werken aufeinander in dem Kopfe des Autors immer nur hypothetisch, und in vielen Fällen gar nicht verstanden werden.3

Dilthey fordert neben den bereits existierenden Staatsarchiven die Einrichtung von eigenen Literaturarchiven für die historische Forschung, die diesen Prämissen gerecht werden. Damit meint er keine Dichterhäuser, wie es sie damals bereits gab, keine Dichtermuseen. Es geht Dilthey gerade nicht um einen Dichterkult, wie er im ausgehenden 19. Jahrhundert Konjunktur hatte, sondern um historische Forschung. Seine Forderung richtet sich demnach nach Forschungsinstitutionen, wie sie erst im Anschluss und als Reflex auf Diltheys Forderungen entstehen, auch innerhalb ursprünglicher Dichterkultstätten. Neben dem Erwerb sind – die Ansicht setzt sich von Goethe über Dilthey bis heute fort – das Herstellen der Übersicht und die Bereitstellung von Findmitteln Basisaufgabe eines Literaturarchivs. Spätestens seit 1908 galten in den meisten wissenschaftlichen Bibliotheken die Preußischen Instruktionen (PI) als Katalogisierungsstandard.4 An diesen Standard haben sich Literaturarchive zumindest angelehnt oder haben ihn gänzlich übernommen. In den siebziger Jahren wurden die PI von RAK, den Regeln für die alphabetische Katalogisierung,5 abgelöst. RAK trug dem Desiderat Rechnung, dass es nur einen Standard für die Katalogisierung von Büchern gab, diese spezialisiert auf wissenschaftliche Bibliotheken. RAK führte also eine Unterscheidung zwischen RAK-WB für wissenschaftliche

3 Wilhelm Dilthey: „Archive für Literatur“, in: Deutsche Rundschau (Berlin) 58 (1889), S. 360– 375, hier S. 363 u. S. 364. 4 Instruktionen für die alphabetischen Kataloge der preuszischen Bibliotheken vom 10. Mai 1899. – 2. Ausg. in der Fassung vom 10. August 1908, Berlin 1909. 5 Siehe für RAK-WB www.allegro-c.de/regeln/rwb.htm (Stand: 26.04.2011).

Digitalisierung in Literaturarchiven

299

und RAK-ÖB für öffentliche Bibliotheken ein. Für andere Medien gibt es weitere Differenzierungen, nicht aber für Nachlässe. Erst Ende der 1990er Jahre folgten die RNA (Regeln für die Erschließung von Nachlässen und Autographen),6 die nun mehr und mehr zur Norm werden. Die Digitalisierung der Forschungslandschaft hat auch in Literaturarchiven Änderungen in Gang gesetzt. Digitalisierung ist dabei nicht gleichzusetzen mit computerlesbaren Kopien von Handschriften oder Buchseiten; das wäre verkürzt.7 Vielmehr ist Digitalisierung die Konstruktion oder Rekonstruktion analoger Techniken im digitalen Medium. Digitalisierung meint also eine Bandbreite von den Findmitteln über digitale Zweitformen bis hin zu genuin digitalen Archivalien (digitally born). Zu unterscheiden sind hier die Datenhaltung einerseits, die Datenverarbeitung (Algorithmen) andererseits. Für beide Seiten der Digitalisierung gibt es spezielle Anforderungen an Literaturarchive.

1 Erschließen Seit den achtziger Jahren werden Bibliotheks- und Archivbestände in Datenbanken erfasst, die an die Stelle der Zettelkataloge treten. Die Vorteile eines datenbankgestützten Katalogs sind auf der Eingabeseite die leichtere Erfassung, vor allem mit den Korrekturmöglichkeiten, und die strukturierte Datenerfassung. Die der Datenbank hinterlegten Tabellen folgen dem Regelwerk, wie die Zettel auch, doch kann die Funktionalität der Datenbank die Einhaltung der Regeln erleichtern oder sogar erzwingen. Die Folge ist ein stringenterer, regelgerechterer und damit für das Suchen verlässlicherer Datenpool. Die Transformation der RAK wurde zunächst in MAB (Maschinelles Austauschformat für Bibliotheken)8, ab den neunziger Jahren im Standardformat MARC9 umgesetzt. Mit der universellen Verfügbarkeit des WWW10 wandeln sich die digitalen Zettelkataloge in den einzelnen Bibliotheken zu Onlinesystemen, die weltweit abrufbar sind. Diese

6 Siehe kalliope.staatsbibliothek-berlin.de/verbund/ rna_berlin_wien_mastercopy_08_02_2010.pdf (Stand: 26.04.2011). 7 Vgl. die „DFG-Praxisregeln ‚Digitalisierung‘“. (www.dfg.de/download/pdf/foerderung/ programme/lis/praxisregeln_digitalisierung.pdf), die eben ausschließlich diese Abbilder meinen. 8 Siehe www.d-nb.de/standardisierung/formate/mab.htm (Stand: 26.04.2011). 9 Siehe www.loc.gov/marc (Stand: 26.04.2011). 10 World Wide Web; die vom Erfinder Tim Berners Lee verwendete Abkürzung W3 hält sich nur in sehr fachspezifischen Kontexten. Siehe das W3C unter www.w3.org (Stand: 26.04.2011).

300

Roland S. Kamzelak

weltweite Verfügbarkeit von Metadaten gilt jedoch nur für die elektronisch erfassten Daten. Um das duale System der Findmittel (analog und digital) zusammenzuführen, wurden und werden aufwändige Retrokonversionsverfahren notwendig. Im einfachsten Falle werden die Zettel gescannt und suchbar in eine Datenbank eingestellt. Zur Suche werden z. B. die Autoren- oder Titelinformationen elektronisch erfasst. Neben dem Vorteil der schnellen Online-Verfügbarkeit der Zettel besteht ein großer Nachteil dieser Digitalisierung darin, dass die Uneinheitlichkeit der Erschließung erhalten bleibt. Karten nach PI oder RAK bestehen nebeneinander und können Benutzer sehr verwirren. Auch sind erweiterte Suchmöglichkeiten, die auf MARC aufbauen, nur für eine Teilmenge des Bestandes möglich (eben nur in den Autoren- oder Titelinformationen). Benutzer könnten den Eindruck bekommen, im gesamten Bestand gesucht zu haben, während sie jedoch nur in einem Teilbestand gesucht haben. Die Ergebnismenge ist nicht verlässlich. Eine bessere Methode stellt die Neubearbeitung der Zettelkataloge dar, indem diese entweder komplett abgeschrieben werden oder eine OCR-Fassung der gescannten Karten verbessert wird. Diese Methode ist zeitintensiver durch die notwendigen Angleichungsarbeiten, aber auch deshalb, weil fehlende Angaben auf den Zetteln gegebenenfalls nachrecherchiert werden müssen. Am Ende steht jedoch ein einheitlicher Datenpool, der für den Benutzer verlässliche Ergebnisse liefert, und mit dem später notwendige Transformationen rationell durchgeführt werden können. Die Retrokonversion der Zettel ist bisher in Literaturarchiven nicht abgeschlossen. Die Digitalisierung der Metadaten, also der Findmittel bzw. der für die Suche standardisierten Beschreibungen von literarischen Dokumenten, stellt ein hohes Gut dar, da sie die wissenschaftliche Recherche erleichtert, einen Fernzugriff auf die Metadaten zulässt (OPAC11) und weil sich weitere Operationen anschließen lassen. Es ist die erste wichtige, großangelegte Digitalisierung jenseits der reinen Images. Metadaten stellen einen Wert an sich dar, während das Abbild einer Handschrift oder einer Buchseite ohne Metadaten meist wertlos ist, weil die Einordnung in notwendige Zusammenhänge nicht gelingt. So geben Metadaten Auskunft über die Entstehungszeit, den Verfasser, das Veröffentlichungsorgan und -datum und vieles mehr. Metadaten lassen bereits Schlüsse zu wie etwa über die Vernetzung eines Autors durch die Liste der Korrespondenzpartner oder der erwähnten Personen in Briefen, Notizen oder Tagebucheintragungen. Die Verwendung von Normdaten, also zentral standardisierte und gesicherte Namen, bei der Erschließung erhöht den Wert der

11 Online Public Access Catalogue.

Digitalisierung in Literaturarchiven

301

Daten, da die Treffsicherheit von Suchen über verschiedene Bestände vergrößert wird. Für die Digitalisierung von Büchern gibt es im Format METS/ MODS12 einen Metadatenstandard, der eine einheitliche Suche durch Aggregation der Metadaten erlaubt. In der Regel werden Metadaten aus den Bestandskatalogen in dieses Format ausgespielt, selten erst in diesem Format erstellt. Da das Aggregationsinstrument alle Bestände in Archiven, Bibliotheken und Museen bedienen können muss, handelt es sich beim Austauschdatenset um eine Schwundstufe des Katalogeintrags, um ein Minimalset, welches die Suche über alle Bestände erlaubt, aber keine vollständige Erschließung ersetzt. Ein Rücklink vom gefundenen Digitalisat auf den Katalog muss daher die Verfügbarkeit auf sämtliche Metadaten sicherstellen. Für die Handschriftendigitalisierung gibt es noch kein einheitliches Format. Literarische Nachlässe finden sich ja nicht nur in Literaturarchiven, sondern auch in Bibliotheken, Museen (Gedenkhäusern) oder städtischen und staatlichen Archiven. Anders als im bibliothekarischen Bereich, wo es einen einheitlichen Standard für die Verzeichnung von Medieneinheiten gibt, unterscheidet sich die Verzeichnung im Bereich Handschriften zwischen staatlichen und nichtstaatlichen Archiven erheblich. Staatliche Archive verzeichnen grob gesprochen nach Sachakten, während nichtstaatliche eher nach Personen oder Institutionen (Körperschaften) verzeichnen. Die Verzeichnung nach Personen und Körperschaften legt die Verwendung von Normdaten sehr nahe.13 Diese Normdaten sind als Anker für die Aggregation sehr geeignet, weil alle Bestände mit den einheitlichen Identnummern dieser Normdateien verknüpfen, also eine hohe Übereinstimmung garantieren. In staatlichen Archiven werden Namen nicht in dieser Konsequenz normiert, da sie nicht primäre Ordnungsquelle sind. Trotz dieser Unterschiede gibt es Bemühungen, auch für die Digitalisierung von Handschriften ein gemeinsames Minimalset zu finden. Dabei stehen Austauschformate wie METS in Verbindung mit MODS, TEI oder EAD14 zur Verfügung. Gelingt diese Vereinheitlichung, wird es erstmals möglich werden, Bestände virtuell, auch jenseits der Bemühungen um Portale wie z. B. dem Heine Portal zusammenzu-

12 METS = Metadata Encoding and Transmission Standard, siehe www.loc.gov/standards/ mets; MODS = Metadata Objects Description Model, siehe www.loc.gov/standards/mods (Stand: 26.04.2011). 13 Siehe Personennormdatei (PND) unter www.d-nb.de/standardisierung/normdateien/pnd. htm (Stand: 26.04.2011), Gemeinsame Körperschaftsdatei (GKD) unter www.d-nb.de/ standardisierung/normdateien/gkd.htm bzw. Gemeinsame Normdatei (GND) unter www.d-nb. de/standardisierung/normdateien/gnd.htm (beide Stand: 26.04.2011). 14 Text Encoding Initiative, siehe http://www.tei-c.org bzw. Encoded Archival Description, siehe www.loc.gov/ead (Stand: 26.04.2011).

302

Roland S. Kamzelak

führen.15 Portale müssen aktiv betrieben und erhalten werden, während die Zusammenführung über Aggregation automatisch ermöglicht wird: Jede Institution sammelt nach seinem Sammelprofil, stellt dem Aggregationsinstrument die Metadaten zur Verfügung, so dass die Benutzer durch eine Suchoperation im aggregierten Pool alle Metadaten über die Archivgrenzen hinaus angezeigt bekommen. Es gibt jedoch neben der Einigung auf ein geeignetes Minimalset gegenüber der Buchdigitalisierung noch mehr Hindernisse vor der Veröffentlichung zu überwinden: Das Urheber- und das Persönlichkeitsrecht stehen einer Veröffentlichung außerhalb der Räumlichkeiten eines Archivs oft im Wege. Bei der Abgabe von literarischen Nachlässen an Archive bleiben die Verwertungs- und Persönlichkeitsrechte unberührt. Die Rechteinhaber können bei einer Veröffentlichung von analogen oder digitalen Abbildern der Handschriften oder Fotos Gebühren erheben, die dem Open-Access-Gebot zuwiderlaufen und ein entsprechendes Abrechnungssystem bedingen, welches von den Archiven aufgesetzt und betrieben werden müsste. Oft gibt es auch ein Veröffentlichungsverbot innerhalb einer bestimmten Frist, das nur im Einzelfall zu genehmigende Ausnahmen zulässt. Das Persönlichkeitsrecht betrifft auch erwähnte Personen in unveröffentlichtem Material oder abgebildete Privatpersonen auf Bildern. Diese Rechte verhindern in der Regel eine Veröffentlichung als Digitalisat. Bei den verfügbaren digitalisierten Nachlässen handelt es sich deshalb meist um ältere Bestände, bei denen solche Rechte erloschen sind.16 Hinzu kommt noch ein Problem, das eine weitere Erschließung von Handschriftendigitalisaten notwendig oder zumindest sinnvoll macht: Die Handschriften älterer Bestände können nicht mehr gelesen, teilweise kaum entziffert werden. Während die Typen des Buchdrucks trotz großer Unterschiede recht universell lesbar sind, gibt es vor 1911 keine Norm für Handschriften.17 Für die Volltextsuche und für das Textverständnis sollten deshalb Transkriptionen der Texte beigegeben werden, evtl. von bereits publizierten Editionen. Die reine Digitalisierung bleibt Fragment und dient nur wenigen Spezialisten, die sowieso Archivbenutzer sind. Der Kosten-Nutzen-Abgleich wird in den meisten Fällen gegen eine kostspielige editorische Digitalisierung sprechen müssen. Umso mehr steigt der Wert der digitalisierten Metadaten, die – wie bereits erwähnt – einen Wert an sich

15 Siehe www.hhp.uni-trier.de (Stand: 26.04.2011). 16 Das Urheberrecht erlischt in Deutschland 70 Jahre nach dem Tod des Verfassers. Das Persönlichkeitsrecht ist sehr umfassend und gilt zu Lebzeiten der betroffenen Person. 17 1911 entwickelte Ludwig Sütterlin seine deutsche Kurrentschrift, die, da staatlich unterstützt, zur Normschrift wurde. Wenn Schriften vor 1911 als Sütterlin bezeichnet werden, handelt es sich um eine in den Umgangssprachgebrauch übergegangene Sprechweise.

Digitalisierung in Literaturarchiven

303

darstellen. Die vollständige Digitalisierung der Zettelkataloge ist daher vordringlichstes Ziel aller Literaturarchive oder aller Archive und Bibliotheken überhaupt.

2 Erläutern und Erforschen Literaturarchive dienen nicht nur der Wissenschaft und Forschung, sondern verfolgen auch Bildungsziele. Das Erläutern des eigenen Tuns, die Vermittlung der Notwendigkeit historischer Forschung an literarischen Handschriften, wie sie Dilthey eingeführt hat, gehört zu den Kernaufgaben. Viele Literaturarchive richten deshalb eigene Ausstellungen aus.18 Um die Originale zu schützen und sie nicht der Forschung zu entziehen, werden oft Faksimiles ausgestellt. Ins WWW verlagert sind digitalisierte Bilder der Exponate, wobei keine Platzbeschränkungen bestehen. Was in der Vitrine unmöglich ist, wird im WWW möglich: Komplette Briefwechsel lassen sich durchblättern und Gänge durch einen ganzen Bestand lassen sich inszenieren. Ausstellungen werden durch moderne Führungssysteme auf Basis von Handhelds, E-Readern, Tablet-PCs oder sogar Webbooks ergänzt, auf denen das Original der Ausstellung, das z. B. nur eine Seite eines Briefes zeigen kann, vollständig zu sehen ist. Diese bestandsschonende Erweiterung der Ausstellung lässt sich nahtlos ins WWW verlängern, so dass das Museumserlebnis nachbereitet werden kann. Die Vermittlung von Schriftstellernachlässen durch digitale Bilder birgt auch Nachteile: Sie nimmt das auratische Erlebnis beim Betrachten von Originalen zurück. Der Ausstellungsbesucher sucht doch gerade das Originäre, das Authentische, das Individuelle, welches nur das Original vermitteln kann. Zwar dienen die Möglichkeiten des digitalen Mediums zweifelsohne dem besseren kognitiven Verstehen, doch das geht zu Lasten des emotionalen Verstehens durch das Original. Literaturarchive müssen hier einen Mittelweg finden, der das Authentische mit der an sich sterilen Kopie zu vermitteln vermag. Die Anforderungen an die digitale Kopie sind daher anders als bei der dokumentarischen Digitalisierung. Es kommt eine künstlerische Komponente hinzu, die bewusst Schatten, Freistellung, Ausschnitte oder Kombination mit anderen Exponaten wählt. Entsprechend müssen die Metadaten ausgerichtet werden und lassen sich daher durch die Katalogdaten höchstens unterstützen. Beschreibungen dieser Digitalisate können aus didaktischen Gründen bewusst

18 Siehe auch das dem Deutschen Literaturarchiv Marbach zugehörige Literaturmuseum der Moderne, www.dla-marbach.de.

304

Roland S. Kamzelak

irreführen, rätselhaft sein oder ganz fehlen, je nach Zweck der Ausstellung. Die so entstehenden Digitalisate sind keine Zweitformen der Originale, sondern eigene, ephemere Objekte, die nach dem Gebrauch wieder gelöscht werden können, sofern sie nicht im WWW-Archiv der Ausstellung bestehen bleiben. Die Vermittlungsarbeit in Literaturarchiven, wie in Museen überhaupt, bekommt bei schrumpfenden Haushalten durch die Möglichkeit der kostengünstigen digitalen Präsentation im WWW ein wachsendes Betätigungsfeld. Durch die Vermittlungsarbeit in Ausstellungen, aber auch bereits durch den digitalen Bestandskatalog wird Forschung angeregt. Im Idealfall führt die archivalische Forschung zu neuen Quellenveröffentlichungen, also Editionen. Dabei stellt die Veröffentlichung eines digitalen Faksimiles im WWW eine nicht ideale Minimalstufe einer solchen Quellenveröffentlichung dar, da die Einordnung in literaturgeschichtliche Zusammenhänge am bloßen Abbild nicht erkennbar ist. Um eine Suche innerhalb der Quelle zu ermöglichen, muss eine maschinenlesbare Transkription beigegeben werden, und wenn die Quelle aus mehreren Seiten besteht, benötigt man zusätzlich eine Navigation durch den digitalen Bestand. Elektronische Editionen, die im Literaturarchiv entstehen, sollten wissenschaftlich fundierte Quelleneditionen sein, die den grundsätzlichen Zielen des verlässlichen Archivs folgen, also auch dem Ziel der Erhaltung. Systemunabhängigkeit ist dabei keine erstrebenswerte, sondern für ein Literaturarchiv essentielle Forderung. Digitale Daten sind durch eine Vielzahl verschiedener Datenträger, verwendeter Hardware, Betriebs- und Anwendersoftware in verschiedenen Versionen noch sensibler als Handschriften und Tinten,19 weil sie jeweils miteinander korrespondieren müssen, um lauffähig zu sein. Die Anzahl der möglichen Kombinationen ist unübersehbar. Ein Archiv alleine kann die Voraussetzungen für alle diese möglichen Kombinationen nicht vorhalten. Bei der eigenen Produktion lassen sich für die Archivierbarkeit störende Faktoren fast vollkommen ausschließen: Mit XML liegt ein systemunabhängiges Dateiformat vor, das noch weiter universalisiert werden kann durch die Verwendung von Konventionen wie den TEI. Über XSLT20-Prozeduren lassen sich aus den codierten Quelldateien Ableitungen herstellen für die Publikation im WWW, für den Druck oder für beide parallel als Hybrid-Veröffentlichung. Um den Kommentar von umständlichen Handschriftenbeschreibungen zu entlasten21 und die editorischen Entscheidungen überprüfbar zu halten, ist das

19 Siehe Gerhard Banik und Irene Brückle: Paper and Water. A Guide for Conservators. Oxford 2011. 20 Siehe www.w3.org/TR/xslt20. 21 Es gibt auch keine Norm für die Verwendung von diakritischen Zeichen bei der Beschreibung von Schreibbefunden.

Digitalisierung in Literaturarchiven

305

Hinterlegen von digitalen Abbildern üblich geworden. Beilagen, eingeklebte Bilder oder Zettel lassen sich ohne die im Abdruck notwendige Beschränkung beigeben. Die Auflösung richtet sich dabei nach dem zu erfüllenden Zweck. Alle digitalen Bilder sollten jedoch neben der Verknüpfung zum Editionstext über eigene Metadaten verfügen, die im Idealfall aus den Katalogdaten abgeleitet werden.

3 Erhalten Eine der Hauptaufgaben jedes Archivs ist die Erhaltung der Sammlung. Dabei kann die Sammlung durchaus durch Selektion geformt sein. Zur Profilbildung gehört eben auch die Kassation, das Vernichten von Archivalien, die als wertlos angesehen werden. Diese Praxis ist ebenso problematisch wie notwendig, will man der Aufgabe gerecht werden, zweifelsfrei Wertvolles zu erhalten. Geeigneter Archivraum ist besonders in Industriestaaten durch die urbane Verdichtung rar und die notwendige Klimatisierung, die geeigneten Regalsysteme, Boxen und Mappen sind teuer (und deshalb in finanzschwächeren Staaten als Daueraufgabe oft nicht finanzierbar). Erhalten heißt in erster Linie Originalerhalt, also Schutz des Originals. In zweiter Linie geht es erst um die Sicherung des Inhalts der Archivalien. Seit den fünfziger Jahren wird diese Sicherung durch die ‚Haager Konvention zum Schutz von Kulturgut bei bewaffneten Konflikten‘ als staatliche Aufgabe angesehen und vom ‚Bundesamt für Bevölkerungsschutz und Katastrophenhilfe (BBK)‘22 entsprechend unterstützt. Seit den siebziger Jahren wird die Sicherung des schriftlichen Kulturgutes auf Mikrofilmen betrieben, die im Barbarastollen bei Freiburg i. Br. gelagert werden. Mikroformen haben eine Haltbarkeit von mindestens 500 Jahren und können fast ohne Hilfsmittel gelesen werden, wodurch sie sich besonders für die Langzeitsicherung eignen.23 Für die Benutzung werden für die Bibliotheken und Archive Benutzungskopien angefertigt, die die Originale weiter schützen, da für den normalen Gebrauch auf diese Mikroformen zurückgegriffen wird. Da Filme durch die lineare Anordnung auf 50 Meter langen Filmrollen in der Handhabung schwerfällig sind, werden sie oft auf Fiches, also auf etwa DIN-A5 große Microfilmkarten, umkopiert. Somit entsteht ein weiteres Medium, für das Präsentationsmittel und Aufbewahrungssysteme angeschafft werden müssen. Da die Film- und Fotoindustrie jedoch zuneh-

22 Siehe www.bbk.bund.de, auch zum Barbarastollen. 23 Siehe das European Register of Microfilm Masters (EROMM), www.eromm.org.

306

Roland S. Kamzelak

mend auf digitale Techniken setzt, nimmt die Produktion von analogem Filmmaterial ab. Gleichzeitig steigt die Nachfrage nach digitalen Kopien für die Benutzung, sodass die Benutzungsfilmkopien zunächst zusätzlich digitalisiert wurden, anstatt Filmkopien herzustellen oder auf Fiches umzukopieren. Für Archive und Bibliotheken stellt diese Praxis noch lange vor dem Open-AccessGebot die erste große Welle von Bestandsdigitalisierung dar. Doch die doppelte Sicherungsarbeit ist kosten- und personalintensiv, sodass eine Wende unausweichlich war.24 Inzwischen dreht sich die Technik um: Mikroformen werden bei Bedarf von Digitalisaten ausbelichtet. Dies ist dem Umstand geschuldet, dass die Digitalisierungstechnik fortschreitet, während die analoge Filmtechnik in seinen Möglichkeiten ausgeschöpft zu sein scheint. So lässt sich durch Digitalisierung eine vielfach höhere Auflösung erzielen als beim Film, was für die Benutzung sehr hilfreich sein kann (zoomen). Dennoch werden zur Langzeitsicherung weiterhin Mikrofilme von den Digitalisaten hergestellt und gelagert. Für die Benutzung entstehen jedoch hochwertige digitalisierte Zweitformen von unikalem Material, die bei einem geschickt aufgesetzten Arbeitsablauf sogar Metadaten aus dem Bestandskatalog im Tiff-Header, dem Metadatenfeld der Bilddatei, mitführen. Das tiff-Format gilt als langzeitarchivierbar, weshalb ihm der Vorzug gegenüber etwa jpg oder anderen komprimierten Bildformaten gegeben wird. Auch PDF-A, als offenes und offen dokumentiertes Format, kann als langzeitarchivierbar gelten. Archive müssen Dateien allerdings migrieren, d. h. jeweils auf die neueste Hardware überspielen, da zwar die Dateiformate als langzeitarchivierbar gelten, jedoch die Leseprogramme und die Datenträger sich fortentwickeln und somit einer Alterung unterliegen. Diese Migration auf die jeweils neuesten Trägermaterialien übernehmen in der Regel automatisierte Systeme.25

4 Erwerben Bei Archivalien denkt man zunächst an unikale Materialien bzw. an handschriftliche Zeugnisse von Autoren oder Philosophen und verbindet damit auratische Erlebnisse. Dabei wird verkannt, dass ein Nachlass neben handschriftlichen Zeugnissen zu einem großen Teil aus Materialien besteht, die nicht von ihrem

24 Vgl. Stäcker, Thomas: „Umstellung von analoger auf digitale Technik an der Herzog August Bibliothek – eine Ära geht zu Ende“. In: Bibliotheksdienst 43 (2009), H. 2, S. 183–187. 25 RAID-Systeme (Redundant Array of Independent Disks).

Digitalisierung in Literaturarchiven

307

Besitzer hergestellt wurden: Bücher, Bilder/Fotos, Kleidung, Erinnerungsstücke, Alltagsgegenstände, in jüngster Zeit auch digitale Materialien. Sie werden zu unikalem Archivgut durch den Besitzer, erhalten auratische Bedeutung durch das Wissen um den Besitzer. Findet man z. B. ein Computerspiel im Nachlass eines Schriftstellers, so hat dieses Spiel einen anderen Wert, als wenn man es in einem Spielemuseum findet.26 Das auratische Erlebnis stellt sich durch den Kontext her, so auch bei Büchern oder Musikalien. Unikal werden diese Archivalien, wenn Autorenspuren auf oder in ihnen zu finden sind: Marginalien, Lesespuren, „gehighlightete“ Stellen in einem digitalen Text. Literaturarchive verlieren deshalb durch die Digitalisierung unserer Welt nicht an Wert oder Qualität, sondern erweitern nur ihr Sammelspektrum. Nachlässe werden in der Regel hinterlassen.27 Von der Möglichkeit, die Goethe aufzeigte, seine Materialen zu Lebzeiten bereits professionell ordnen zu lassen, wird jedoch immer häufiger Gebrauch gemacht. Solche Nachlässe zu Lebzeiten werden heute Vorlässe genannt. Aber auch wenn sie zu Lebzeiten der Autoren an Literaturarchive abgegeben werden, sind sie für das Computerzeitalter in der Regel „alt“. Heute arbeiten alle Autoren mit dem Computer. Selbst wenn die erste Fassung noch per Hand geschrieben wird, gibt es doch Bearbeitungsstufen, die digital bearbeitet werden. Korrespondenzen werden auch über E-Mail geführt. Manche, aber nicht alle Autoren bedienen sich der digitalen Technik weitergehend, zum Beispiel um die Figurenkonstellation eines Romans per Ablaufdiagramm zu verwalten. Jüngere Autoren veröffentlichen Romane parallel mit MUDs28, also Multiple User Dungeons, digitalen Adventure Games im WWW. Mit ihrem Vor- oder Nachlass erhält das Archiv dann auch die Dateien dieser MUDs, inklusive der Ablaufdiagramme, mit denen sie Roman und MUD entwickelt haben. Die entscheidende Frage wird sein, ob diese Autoren auch die verwendete Bearbeitungssoftware aufbewahren. Falls nein, wird die Entschlüsselung zum Detektivspiel.29 Hilfreich wäre der ursprünglich verwendete Computer mit dem Originalbetriebssystem, auf dem alles lauffähig war. Die nächste Frage wird sein, ob Archive nach vielleicht zwanzig Jahren noch mit der Software und der vielleicht dreißig Jahre alten Hardware umgehen können.

26 Vgl. im Deutschen Literaturarchiv Marbach den Nachlass von Thomas Strittmatter mit dem Computerspiel „Leasure Suit Larry“. 27 Heute werden Nachlässe selten gestiftet. Sie werden in den meisten Fällen von den Erben an Literaturarchive verkauft oder über Auktionshäuser versteigert. 28 Siehe u. a. www.mud.de. 29 Manche sprechen von einem neuen Forschungszweig, der digitalen Forensik. Siehe Ries, Thorsten: „,die geräte klüger als ihre besitzer‘: Philologische Durchblicke hinter die Schreibszene des Graphical User Interface“. In: editio 24 (2010), S. 149–199.

308

Roland S. Kamzelak

Die ersten literarischen Hypertexte wurden geschrieben, als das WWW noch sehr jung war. Die Zeit hat 1996 den Literaturwettbewerb Pegasus für Hypertextliteratur zusammen mit Radio Bremen ausgelobt. Es wurde der Webserver von Radio Bremen benutzt. Weil Radio Bremen eine Radiostation ist – und kein Archiv – wollte es die Texte nicht länger online halten, als notwendig für den Wettbewerb. Sie nahm die Texte offline. Die Hypertexte existieren nur auf einem Backup-Band des Backup Systems von Radio Bremen, während das System selbst nicht mehr existierte. Das Magnetband ist immer noch nicht lesbar, weil das entsprechende Abspielgerät mit der dazu passenden Software fehlt. – Bis eine Lösung gefunden ist, zerfällt das magnetische Band aus den neunziger Jahren und die ersten deutschen literarischen Hypertexte werden langsam aber sicher in die Vergessenheit geschickt. Inzwischen steigt der Prozentanteil elektronischer Nachlassteile in Literaturarchiven. Noch nehmen die Archive auch Hardware mit auf, um Dateien konvertieren, Software eventuell emulieren zu können. Es entstehen dadurch jedoch große Platzprobleme. Literaturarchive bewahren die Originaldateien auf, konvertieren sie aber möglichst bald in bekannte Formate, also zum Beispiel Textdateien in RTF, Bilddateien in Tiff, Audiodateien in WAV oder MP3. So können die Dateien von Forschern benutzt werden. Um den Verlust digitaler Literatur im WWW zu verhindern, müssen online verfügbare literarische Zeitschriften, Weblogs von Autoren und Webliteratur gesammelt, zur Verfügung gestellt und gesichert werden. Dies geht nicht ohne Einverständnis der Verfasser selbst. Auch muss dies geschehen, bevor hinreichende Hinweise für die bleibende Qualität der Texte bestehen. Das Format des WWW ist per Definition offen, so dass es gute Hoffnung gibt, dass auch zukünftig keine großartige Konvertierungsarbeit notwendig sein wird. Problematisch sind proprietäre Zusätze, die Erweiterungen des Browsers erfordern. Ein weiteres Problem ist auch festzustellen, wo die Verlinkungen abgeschnitten werden können. Wo sind die Grenzen der Texte? Man muss schließlich abschneiden, wenn man nicht das gesamte WWW konservieren möchte. Aber wer definiert diese Ränder? Links gehören schließlich zum Werk im Netz. Dies sind ungelöste Fragen, genauso wie die nach der Häufigkeit der Sicherung, denn schließlich ist alles im stetigen Fluss. Eigentlich müssten Literaturarchive das WWW abfilmen bzw. einen Gang durch das WWW filmen bzw. viele solcher Gänge. Aber wie wählt man die Pfade, wie sichert man dann wieder die Filme? Haben diese dann auch den Status von Archivalien? Die Digitalisierung ist in Literaturarchiven gerade erst angekommen und wird erst in einigen Jahren das ganze Ausmaß von Nutzen und Problemen aufzeigen. Die Reaktionen auf die ersten Anforderungen zeigen, dass Archive dem Paradigmenwechsel planvoll begegnen. Dennoch gibt es noch viele Proble-

Digitalisierung in Literaturarchiven

309

me, die abzusehen, aber noch ungelöst sind. Dazu gehört zum Beispiel auch das Sammeln von E-Mails bzw. der Umgang mit den identischen Kopien, die durch Synchronisation mit verschiedenen Computern oder durch Verwendung des CCFeldes entstehen. Auch entstehen Dubletten durch die Zitierfunktion von E-MailBrowsern. Neben dem Problem der proprietären Formate steht das Problem der Quantität im Zeitalter der identischen technischen Reproduzierbarkeit auch in Literaturarchiven.

Literaturverzeichnis Das Literaturverzeichnis umfasst die in den Beiträgen behandelte Sekundärliteratur zum Thema. Es wurden nur jene Zeitungs- und Onlineartikel aufgenommen, die eine über einen Nachrichtenoder Meldungstext hinausgehende tiefergehende Analyse des jeweiligen Gegenstands leisten. Aarås, Arne, Gunnar Horgen u. a.: „Musculosceletal, visual and psychosocial stress in VDU operators before and after multidisciplinary ergonomic interventions“. In: Applied Ergonomics 29 (1998) H. 5, S. 335–354. Ahrens, Daniela: „Internet, Nicht-Orte und die Mikrophysik des Ortes“. In: Budke, Alexandra u. a. (Hg.): Internetgeographien. Beobachtungen zum Verhältnis von Internet, Raum und Gesellschaft. Stuttgart 2004, S. 163–177. Amann, Klaus: „Die Töne aus den Rillen“. In: Funkkorrespondenz extra 48 (2000) Nr. 42, S. 7–10. Anderson, Chris: The long tail. Why the future of business is selling less of more. New York 2006. Anz, Thomas (Hg.): Handbuch Literaturwissenschaft, Bd. 2. Stuttgart, Weimar 2007. Anz, Thomas: „Kontinuitäten und Veränderungen der Literaturkritik in Zeiten des Internets: Fünf Thesen und einige Bedenken“. In: Digitale Literaturvermittlung. Praxis – Forschung – Archivierung. Hg. v. Renate Giacomuzzi, Stefan Neuhaus u. Christiane Zintzen. Innsbruck u. a. 2010, S. 48–59. Anz, Thomas u. Rainer Baasner (Hg.): Literaturkritik. Geschichte – Theorie – Praxis. München 2004. Arning, Katrin, Sylvia Gaul u. Martina Ziefle: „,Same same but different‘. How service contexts of mobile technologies shape usage motives and barriers“. In: HCI in Work & Learning, Life & Leisure. Hg. v. Gerhard Leitner, Michael Hitz u. Andreas Holzinger. Berlin: Springer 2010, S. 34–54. Arnold., Heinz Ludwig (Hg.): Digitale Literatur. München 2001 (Text und Kritik, Band 152). Aschenbrenner, Andreas, Peter Gietz u. a.: „TextGrid – a modular platform for collaborative textual editing.“ In: Proceedings of the International Workshop on Digital Library Goes e-Science (DLSci06), Alicante, September 21, 2006. Assmann, Aleida: „Das Archiv und die neuen Medien des kulturellen Gedächtnisses“. In: Schnittstelle: Medien und kulturelle Kommunikation. Hg. von Georg Stanitzek u. Wilhelm Voßkamp. Köln 2001, S. 268–281. Baccino, Thierry: „Exploring the flicker effect: the influence of in-flight pulsations on saccadic control“. In: Ophthalmologic and Physiological Optics 19 (1999) H. 3, S. 266–273. Barthes, Roland: „Der Tod des Autors“. In: Texte zur Theorie der Autorschaft. Hg. v. Fotis Jannidis, Gerhard Lauer u. a. Stuttgart 2000 [1968], S. 185–193. Bastian, Annette: Das Erbe der Kassettenkinder. Brühl 2003. Bauer, Dieter u. Carl Richard Cavonius: „Improving the legibility of visual display units through contrast reversal“. In: Ergonomic aspects of visual display terminals. Hg. v. Etienne Grandjean u. Enrico C. Vigliani. London 1980, S. 137–142. Bay, Susanne u. Martina Ziefle: „Effects of menu foresight on information access in small screen devices“. In: 48th annual meeting of the Human Factors and Ergonomic Society. Santa Monica 2004, S. 1841–1845. Becker, Cornelia: „Raum-Metaphern als Brücke zwischen Internetwahrnehmung und -kommunikation“. In: Budke, Alexandra u. a. (Hg.): Internetgeographien. Beobachtungen zum Verhältnis von Internet, Raum und Gesellschaft. Stuttgart 2004, S. 109–122.

Literaturverzeichnis

311

Becker, Melitta (Hg.): Archiv am Netz. Innsbruck u. a. 2009. Behnken, Imbke u. a. (Hg.): Lesen und Schreiben aus Leidenschaft. Jugendkulturelle Inszenierungen von Schriftkultur. Weinheim, München 1997. Bein, Thomas, Rüdiger Nutt-Kofoth u. a. (Hg.): Autor – Autorisation – Authentizität. Beihefte zu Editio 21. Tübingen 2004. Belz, Nadine, Doreen Fräßdorf u. Felix Köther: Kunde, König, Kritiker, 2010. www.literaturkritik. de/public/rezension.php?rez_id=13759&ausgabe=201001 (Stand: 01.03.2011). Bendel, Oliver: User-generated Nonsense, 2009. www.heise.de/tp/artikel/30/30206/1.html (Stand: 01.03.2011). Bennett, Linda: E-books: the options. A manual for publishers. London 2006. Berlemann, Dominic: Wertvolle Werke. Reputation im Literatursystem. Bielefeld 2011. Best, P. Scot, Matthew Littleton u. a.: „Relations between individual differences in oculomotor resting states and visual inspecting performance, and reports of visual fatigue“. In: Ergonomics 39 (1996) H. 1, S. 35–40. Bieber, Christoph u. Claus Leggewie (Hg.): Interaktivität. Ein transdisziplinärer Schlüsselbegriff. Frankfurt/Main, New York 2004. Boesken, Gesine: Literarisches Handeln im Internet. Schreib- und Leseräume auf Literaturplattformen. Konstanz 2010. Bolter, Jay David u. Richard Grusin: Remediation: Understanding New Media. Cambridge 1999. Bräuer, Rolf: „Zu den Aufgaben und Möglichkeiten der Computerlinguistik und Computerphilologie an den Universitäten und Hochschulen der DDR.“ In: Neue Forschungsperspektiven durch Computereinsatz in den Gesellschaftswissenschaften. 1. Tagung ,Sprache und Computer‘ am 18. und 19. November 1986 in Greifswald. Hg. v. Ernst-Moritz-Arndt-Universität Greifswald. Greifswald 1988. Braungart, Georg, Karl Eibl u. Fotis Jannidis: Jahrbuch für Computerphilologie. Paderborn 2000–2005. Braungart, Georg, Peter Gendolla u. Fotis Jannidis (Hg.): Forum Computerphilologie. www.computerphilologie.de (Stand: 25.03.2011). Braungart, Georg, Peter Gendolla u. Fotis Jannidis: Jahrbuch für Computerphilologie. Paderborn 2006–2010. Brodie, Jacqueline, Jarinee Chattratichart u. a.: „How age can inform the future design of the mobile phone experience“. In: Universal Access in HCI: Inclusive design in the information society. Hg. v. Constantine Stephanidis. Mahwah 2003, S. 822–826. Brown, Stuart F.: „Hands-On Computing: How Multi-Touch Screens Could Change the Way We Interact with Computers and Each Other“. In: Scientific American Magazine 2008. Buchner, Axel, Susanne Mayr u. Martin Brandt: „The advantage of positive text-background polarity is due to high display luminance“. In: Ergonomics 52 (2009) H. 7, S. 882–886. Bunz, Mercedes: Das Denken und die Digitalisierung, 2011. www.faz.net/s/RubCEB3712D41B64C3094E31BDC1446D18E/Doc~EE02A72F17D3B4618B681D61F32C75F65~ATpl~Ecommon~Scontent.html (Stand: 15.03.2011). Burke, Seán: The Death and Return of the Author. Criticism and Subjectivity in Barthes, Foucault and Derrida. Edinburgh 1992. Burnard, Lou: On the hermeneutic implications of text encoding, 1998 (Abstract für „Literature, Philology and Computers“, University of Edinburgh, September 1998). users.ox.ac.uk/ ~lou/wip/herman_abstract.htm (Stand: 18.03.2011). Busa, Roberto: „The Annals of Humanities Computing: the Index Thomisticus“. In: Computers and the Humanities, Bd. 14, Nr. 2. New York 1980, S. 83–90.

312

Literaturverzeichnis

Çakir, Ahmet, David J. Hart u. Thomas F.M. Stewart: The VDT manual – ergonomics, workplace design, health and safety, task organization. Darmstadt 1979. Calero Valdez, André, Martina Ziefle u. a.: „Task performance in mobile and ambient interfaces. Does size matter for usability of electronic diabetes assistants?“ In: Proceedings of the International Conference on Information Society (i-Soeciety 2010/IEEE). Hg. v. Charles Shoniregun u. Galyna Akmayeva. London 2010, S. 526–533. Chen, Ming-Te u. Chin-Chiuan Lin: „Comparison of TFT-LCD and CRT on visual recognition and subjective preference“. In: International Journal of Industrial Ergonomics 34 (2004) H. 3, S. 167–174. Clement, Michel, Eva Blömeke und Frank Sambeth (Hg.): Ökonomie der Buchindustrie. Herausforderungen in der Buchbranche erfolgreich managen. Wiesbaden 2009. Delp, Ludwig (Hg.): Das Buch in der Informationsgesellschaft. Ein buchwissenschaftliches Symposion. Wiesbaden 2006. Detering, Heinrich (Hg.): Autorschaft. Positionen und Revisionen. Germanistische Symposien. Berichtsbände 24. Stuttgart, Weimar 2002. Deubel, Volker, Karl Eibl u. Fotis Jannidis: Jahrbuch für Computerphilologie. Paderborn 1999. Dillon, Andrew: „Reading from paper versus screens: a critical review of the empirical literature“. In: Ergonomics 35 (1992) H. 10, S. 1297–1326. Döring, Nicola: Sozialpsychologie des Internet. Die Bedeutung des Internet für Kommunikationsprozesse, Identitäten, soziale Beziehungen und Gruppen. 2. Aufl. Göttingen 2003. Drucker, Johanna und Bethanie Nowiskie: „Speculative Computing: Aesthetic Provocations in Humanities Computing.“ In: A Companion to Digital Humanities, Teil 3, Kapitel 29. Hg. v. Susan Schreibman, Ray Siemens und John Unsworth. Oxford 2004. www.digitalhumanities.org/companion (Stand: 21.03.2011). Drucker, Johanna: „Philosophy and Digital Humanities: A review of Willard McCarty, Humanities Computing (London and NY: Palgrave, 2005)“. In: Digital Humanities Quarterly (DHQ), Jahrgang 1 (2007), Nr. 1. hwww.digitalhumanities.org/dhq/vol/1/1/000001/000001.html (Stand: 25.03.2011). Duncan, John u. Glenn Humphreys: „Visual search and stimulus similarity“. In: Psychological Review 96 (1989) H. 3, S. 433–458. Dünne, Jörg: „Weblogs: Verdichtung durch Kommentar.“ In: PhiN (2004) Beiheft 2. Internet und digitale Medien in der Romanistik: Theorie – Ästhetik – Praxis. Hg. von Jörg Dünne, Dietrich Scholler u. Thomas Stöber. S. 35–65. (online-Version: www.fu-berlin.de/phin/beiheft2/ b2t04.htm, Stand: 01.03.2011) Ebersbach, Anja, Markus Glaser u. Richard Heigl: Social Web. Konstanz 2008. Ensthaler, Jürgen, Stefan Weidert (Hg.): Handbuch Urheberrecht und Internet. Frankfurt/Main 2010. Erdmann, Charlotte: One more thing: Apples Erfolgsgeschichte vom Apple I bis zum iPad. München 2011. Estermann, Monika, Ernst Fischer u. Reinhard Wittmann (Hg.): Parallelwelten des Buches. Beiträge zu Buchpolitik, Verlagsgeschichte, Bibliophilie und Buchkunst. Festschrift f. Wulf-D. v. Lucius. Wiesbaden 2008. Fink, Udo, Mark D. Cole u. Tobias Keber: Europäisches und Internationales Medienrecht. Heidelberg 2008. Fischer, Ernst: „Culturomics. Digitale Bibliotheken als Basis für quantitative Kulturanalysen“. In: Kodex. Jahrbuch der Internationalen Buchwissenschaftlichen Gesellschaft, Bd. 1: Digitale Bibliotheken. Wiesbaden 2012, S. 59–82.

Literaturverzeichnis

313

Foucault, Michel: „Was ist ein Autor?“ In: Schriften in vier Bänden. Dits et Ecrits. Band 1. 1954–1969. Hg. v. Daniel Defert u. François Ewald. Frankfurt/Main 2001 [1969], S. 1003–1041. Franck, Georg: Ökonomie der Aufmerksamkeit. München 1998. Fraser, Michael: A Hypertextual History of Humanities Computing, 1996. users.ox.ac.uk/~ctitext2/history/ (Stand: 21.03.2011). Fromm, Friedrich, Wilhelm Nordemann (Hg.): Urheberrecht. Stuttgart 2008. Gartz, Joachim: Die Apple-Story. Kilchberg 2005. Gendolla, Peter u. Jörgen Schäfer: „Auf Spurensuche. Literatur im Netz, Netzliteratur und ihre Vorgeschichte(n)“. In: Text + Kritik 152 (2001), S. 75–86. Genette, Gérard: Paratexte. Das Buch vom Beiwerk des Buches. Frankfurt/Main 1992. Giacomuzzi, Renate, Stefan Neuhaus u. Christiane Zintzen (Hg.): Digitale Literaturvermittlung. Praxis – Forschung – Archivierung. Innsbruck u. a. 2010. Giacomuzzi, Renate: „Zur Veränderung der Autorrolle im Zeichen des Internet“. In: LiLi. Zeitschrift für Literaturwissenschaft und Linguistik 154 (2009), S. 7–30. Gibbs, Wayt W.: The reinvention of paper, 1998. www.sciam.com/1998/0998issue/0998techbus1 (Stand: 30.09.2008). Gibson, William: Mustererkennung. Stuttgart 2004. Glasersfeld, Ernst von: Radikaler Konstruktivismus. Ideen, Ergebnisse, Perspektiven. Frankfurt/ Main 1997. Goldstein, Mikael, Gustav Öqvist u. a.: „Enhancing the reading experience: Using adaptive and sonified RSVP for reading on small displays“. In: Proceedings of the Mobile HCI. Berlin 2001, S. 1–9. Groeben, Norbert u. Bettina Hurrelmann (Hg.): Medienkompetenz. Voraussetzungen, Dimensionen, Funktionen. Weinheim, München 2002. Grond-Rigler, Christine u. Felix Keller (Hg.): Die Sichtbarkeit des Lesens – Variationen eines Dispositivs.Wien, Innsbruck 2011 Habermas, Tilmann: Geliebte Objekte. Symbole und Instrumente der Identitätsbildung. Berlin, New York 1996. Hachenberg, Katja: „Hörbuch. Überlegungen zu Ästhetik und Medialität akustischer Bücher.“ In: Der Deutschunterricht 20 (2004) H. 4, S. 29–38. Hanreich, Hanspeter, Hermann Kuschej u. Günther Grohall: Buchpreisbindung in Europa. Kulturpolitik und ökonomische Bedeutung. Wien, Graz 2010. Hardmeier, Christoph: „Was ist Computerphilologie? Theorie, Anwendungsfelder und Methoden, eine Skizze“. In: Ad Fontes! Quellen erfassen – lesen – deuten. Was ist Computerphilologie? Ansatzpunkte und Methodologie – Instrumente und Praxis. Contributions to the Conference „Computerphilologie“, November 5–8, 1988. Ernst-Moritz-Arndt-Universität Greifswald. Hg. v. Christoph Hardmeier u. a. Amsterdam 2000, S. 9–31. Hart, Michael: Project Gutenberg Mission Statement by Michael Hart, 2004 (2007). www.gutenberg.org/wiki/Gutenberg:Project_Gutenberg_Mission_Statement_by_Michael_Hart (Stand: 25.03.2011). Hartling, Florian: Der digitale Autor. Autorschaft im Zeitalter des Internets. Bielefeld 2009. Häusermann, Jürg, Korinna Janz-Peschke und Sandra Rühr (Hg.): Das Hörbuch. Medium – Geschichte – Formen. Konstanz 2010. Heidrich, Felix, Martina Ziefle u. a.: „Interacting with Smart Walls: A Multi-Dimensional Analysis of Input Technologies for Augmented Environments“. In: Proceedings of the ACM Augmented Human Conference (AH’11). New York 2011, S. 1–8.

314

Literaturverzeichnis

Heinemann, Gerrit: Der neue Online-Handel. Erfolgsfaktoren und Best Practices. Wiesbaden 2009. Heinold, Wolfgang Ehrhardt: Bücher und Büchermacher. Verlage in der Informationsgesellschaft. Heidelberg 2001. Heller, Dieter: „Typographical factors in reading“. In: Eye Movements: From Physiology to Cognition. Hg. v. Kevin O’ Reagon, Ariane Levy-Schoen. North-Holland 1987, S. 487–498. Hoffmann, Jeanette (Hg.): Wissen und Eigentum. Bonn 2006. Hollands, Justin G., Herbert Parker u. a.: „LCD versus CRT Displays: A Comparison of visual search performance for colored symbols“. In: Human Factors 44 (2002) H. 2, S. 210–221. Holzinger, Andreas, Gig Searle u. a.: „Informatics as semiotics engineering: Lessons learned from design, development and evaluation of ambient assisted living applications for elderly people“. In: Universal Access in HCI, Part III, HCII 2011. Hg. v. Constantine Stephanidis. Heidelberg 2011, S. 183–192. Holzinger, Andreas, Markus Baernthaler u. a.: „Investigating paper vs. screen in real-life hospital workflows: Performance contradicts perceived superiority of paper in the user experience“. In: International Journal of Human-Computer Studies (2011) H. 69, S. 563–570. Howarth, Peter Alan u. Howell O. Istance: „The association between visual discomfort and the use of visual display units“. In: Behaviour & Information Technology (1985) H. 4, S. 131–149. Huang, Ding-Long, Pei-Luen Patrick Rau u. Ying Liu: „Effects of font size, display resolution and task type on reading Chinese fonts from mobile devices“. In: International Journal of Industrial Ergonomics (2009) H. 39, S. 81–89. Hung, George K., Kenneth J. Ciuffreda u. John L. Semmlow: „Static vergence and accomodation: population norms and orthopic effects“. In: Documenta Ophthalmologica (1986) H. 62, S. 165–179. Informa Telecoms and Media Global mobile forecasts, 2008. www.intomobile.com/2008 (Stand: 31.12.2008). Iwasaki, Tsuneto u. Shinji Kurimoto: „Eye-strain and changes in accomodation of the eye and in visual evoked potential following quantified visual load“. In: Ergonomics 31 (1988) H. 12, S. 1743–1751. Janello, Christoph: Wertschöpfung im digitalisierten Buchmarkt (Markt- und Unternehmensentwicklung/Markets and Organisations). Wiesbaden 2010. Jannidis, Fotis: „Computerphilologie.“ In: Handbuch Literaturwissenschaft. Bd. 2, Theorien und Methoden. Hg. v. Thomas Anz. Stuttgart, Weimar 2007, S. 27–40. Jannidis, Fotis: „Computerphilologie.“ In: Metzler Lexikon Literatur- und Kulturtheorie. Hg. v. Ansgar Nünning. Stuttgart, Weimar 1998, S. 70–72. Jannidis, Fotis: Was ist Computerphilologie? In: Jahrbuch für Computerphilologie 1. Hg. v. Volker Deubel, Karl Eibl und Fotis Jannidis. Paderborn 1999, S. 39–60. (online-Version: http://computerphilologie.uni-muenchen.de/jahrbuch/jb1/jannidis-1.html, Stand: 18.03.2011) Jannidis, Fotis u. a. (Hg.): Rückkehr des Autors. Zur Erneuerung eines umstrittenen Begriffs. Tübingen 1999. Jarvis, Jeff: What would Google do? New York 2010. Jaschinski, Wolfgang, Matthias Bonacker u. Ewald Alshuth: „Accommodation, convergence, pupil and eye blinks at a CRT-display flickering near fusion limit“. In: Ergonomics (1996) H. 19, S. 152–164. Jeanneney, Jean-Noël: Googles Herausforderung. Für eine europäische Bibliothek. Berlin 2006.

Literaturverzeichnis

315

Jenkins, Henry: Textual Poachers: Television Fans and Participatory Culture. New York, London 1994. Jucker, Andreas H.: „Multimedia und Hypertext. Neue Formen der Kommunikation oder alter Wein in neuen Schläuchen?“ In: Kommunikationsformen im Wandel der Zeit. Hg. v. Gerd Fritz u. Andreas H. Jucker. Tübingen 2000, S. 7–28. Katz, Elihu; Jay G. Blumler u. Michael Gurevitch: „Uses and Gratifications Research“. In: Public Opinion Quarterly 37 (1973) H. 4, S. 509–523. Kaumanns, Ralf, Veit Siegenheim: Die Google-Ökonomie: Wie Google die Wirtschaft verändert. Norderstedt 2007. King, Christopher N.: „Electroluminescent displays, SID 96 Seminar Lecture Notes“. In: Soc. For Information Display (1996) H. 9, S. 1–36. Kirsch, Christian: „Laptops als Ersatz für Desktop-PCs. Überall im Büro“. In: iX (2004) H. 12, S. 40–45. Klack, Lars, Thomas Schmitz-Rode u. a.: „Integrated Home Monitoring and Compliance Optimization for Patients with Mechanical Circulatory Support Devices (MCSDs)“. In: Annals of Biomedical Engineering 39 2011 H.12, S. 2911–2921. Kline, Donald W. u. Charles T. Scialfa: „Sensory and Perceptual Functioning: Basic Research and Human Factors Implications“. In: Handbook of Human Factors and the Older Adult. Hg. v. Arthur D. Fisk u. Wendy A. Rogers. San Diego 1997, S. 27–54. Kokoschka, Siegfried u. Peter J. Haubner: „Luminance ratios at visual display workstations and visual performance“. In: Lighting Research & Technology 17 (1986) H. 3, S. 138–144. Kothiyal, Kamal u. Samuel Tettey: „Anthropometry for design for the elderly“. In: International Journal of Occupational Safety and Ergonomics 7 (2001) H. 1, S. 15–34. Kubota, Satoru: „Effects of Reflection Properties of Liquid-Crystal Displays on Subjective Ratings of Disturbing Reflected Glare“. In: Journal of Light & Visual Environment (1997) H. 21, S. 33–42. Lehmann, Kai, Michael Schetschke (Hg.): Die Google-Gesellschaft. Bielefeld 2005. Lehnen, Katrin: „Kooperative Textproduktion“. In: Schlüsselkompetenz Schreiben. Hg. v. Otto Kruse, Eva-Maria Jakobs und Gabriela Ruhmann. Neuwied 1999, S. 147–170. Leusmann, Philipp, Christian Möllering u. a.: „Your Floor Knows Where You Are: Sensing and Acquisition of Movement Data“. Full paper at the Workshop on Managing Health Information in Mobile Applications (HIMoA 2011). IEEE 12th International Conference on Mobile Data Management (MDM 2011). Lin, Yu-Ting, Po-Hung Lin u. a.: „Investigation of legibility and visual fatigue for simulated flexible electronic paper under various surface treatments and ambient illumination conditions“. In: Applied Ergonomics 40 (2009) H. 5, S. 922–928. literaturkritik.de, Ausgabe Nr. 12, Dezember 2010, Schwerpunkt: Verlage und Literaturkritik im Internet. Loewenheim, Ulrich, Gerhard Schricker (Hg.): Handbuch des Urheberrechts. München 2010. Lombard, Matthew und Theresa Ditton: „At the Heart of It All: The Concept of Presence“. In: Journal of Computer-mediated Communication 3 (1997) H. 2. jcmc.indiana.edu/vol3/ issue2/lombard.html (Stand: 30.01.2012). Löw, Martina: „Raum – Die topologische Dimension der Kultur“. In: Handbuch der Kulturwissenschaften. Bd. 1: Grundlagen und Schlüsselbegriffe. Hg. v. Friedrich Jaeger u. Burkhard Liebsch. Stuttgart 2004, S. 46–59. Matejovski, Dirk, Friedrich Kittler (Hg.): Literatur im Informationszeitalter. Frankfurt/Main, New York 1996.

316

Literaturverzeichnis

McCarty, Willard: „The imaginations of computing“. Lyman Award Lecture. National Humanities Center, North Carolina, 6. November 2006. McCarty, Willard: Digitising is questioning, or else. Long Room Hub Lecture Series. Trinity College Dublin, 2008. www.mccarty.org.uk/essays/McCarty,%20Digitising%20is%20 questioning.pdf (Stand: 23.02.2011). McCarty, Willard: Humanities Computing. New York, London 2005. Meister, Jan Christoph: „CLÉA – Literature Éxploration and Annotation Environment for Google Books corpora. Application for a Google Digital Humanities Research Award (Europe).“ Projektantrag, 30.10.2010. Meister, Jan Christoph: „Computerphilologie“. In: Reclam Literaturlexikon. Hg. v. Gerhard Lauer. Stuttgart 2011. Meister, Jan Christoph: „Projekt Computerphilologie. Über Geschichte, Verfahren und Theorie rechnergestützter Literaturwissenschaft“. In: Literarität und Digitalität. Zur Zukunft der Literatur. Hg. v. Harro Segeberg u. Simone Winko. München 2005, S. 315–341. Meister, Jan Christoph: „Think Big: Disziplinarität als wissenschaftstheoretische Benchmark der Computerphilologie.“ In: Jahrbuch für Computerphilologie 4. Hg. v. Georg Braungart, Karl Eibl und Fotis Jannidis. Paderborn 2002, S. 19–50. Menozzi, Marino, Felicitas Lang u. a.: „CRT versus LCD: effects of refresh rate, display technology and background luminance in visual performance“. In: Displays 22 (2001) H. 3, S. 79–85. Misoch, Sabina: Online-Kommunikation. Konstanz 2006. Miyao, Masaru, Selim Hacisalihzade u. a.: „Effects of VDT resolution on visual fatigue and readability: an eye movement approach“. In: Ergonomics 32 (1989) H. 6, S. 603–614. Möhring, Philipp, Käte Nicolini (Hg.): Urheberrechtsgesetz. München 2000. Morrison, Robert u. Albrecht Inhoff: „Visual factors and eye movements in reading“. In: Visible Language, 15 (1981), S. 129–146. Moser, Doris: „Bonustrack, oder Warum das Hörbuch kein Literaturkiller ist“. In: Informationen zur Deutschdidaktik. Zeitschrift für den Deutschunterricht in Wissenschaft und Schule 32 (2008) H. 1, S. 75–84. Müller, Lothar: Die zweite Stimme. Vortragskunst von Goethe bis Kafka. Berlin 2007. Neuhaus, Stefan: Literaturvermittlung. Wien, Konstanz 2009. Nickel, Gunther (Hg.): Kaufen! statt Lesen! Literaturkritik in der Krise? Göttingen 2005. Novak, Julia: Gemeinsames Lesen. Die Buchgruppe als soziales Phänomen und ökonomische Triebkraft. Wien 2007. Oetjen, Sophie u. Martina Ziefle: „A visual ergonomic evaluation of different screen technologies“. In: Applied Ergonomics (2009) H. 40, S. 69–81. Oetjen, Sophie u. Martina Ziefle: „Effects of anisotropy on visual performance regarding different font sizes“. In: Work with computing systems. Hg. v. Halimahtun M. Khalid, Martin G. Helander u. Alvin Yeo. Kuala Lumpur 2004, S. 442–447. Oetjen, Sophie u. Martina Ziefle: „The effects of LCD anisotropy on the visual performance of users of different ages“. In: Human Factors 49 (2007) H. 4, S. 619–627. Oetjen, Sophie, Martina Ziefle u. Thomas Gröger: „Work with visually suboptimal displays – in what ways is the visual performance influenced when CRT and TFT displays are compared?“ In: Proceedings of the HCI International 2005. Vol. 4: Theories, Models and Processes in Human Computer Interaction. St. Louis 2005. Omori, Masako, Tomoyuki Watanabe u. a.: „Visibility and characteristics of the mobile phones for elderly people“. In: Behaviour & Information Technology 21 (2002) H. 5, S. 313–316.

Literaturverzeichnis

317

Ong, Walter J.: Oralität und Literalität. Die Technologisierung des Wortes. Opladen 1987. Owens, Alfred D. u. Karen Wolf-Kelly: „Near work, visual fatigue, and variations of oculomotor tonus“. In: Investigative Ophthalmology and Visual Science 28 (1987) H. 4, S. 743–749. Pachella, Robert: „The interpretation of reaction time in information processing research“. In: Human information processing. Hg. v. Daniel Kantowitz, Potomac, Md: Lawrence Erlbaum 1974, S. 41–82. Paulsen, Kerstin: „Inszenierung von Autoren und Autorschaft im Internet“. In: Autorinszenierungen. Autorschaft und literarisches Werk im Kontext neuer Medien. Hg. v. Christine Künzel u. Jörg Schönert. Würzburg 2007, S. 257–269. Pfohlmann, Oliver: Kleines Lexikon der Literaturkritik. Marburg 2005. Piccoli, Bruno, Marco D’Orso u. a.: „Observation distance and blinking rate measurement during on-site investigation“. In: Ergonomics 44 (2001) H. 6, S. 668–676. Plachta, Bodo: Literaturbetrieb. München 2008. Porombka, Stephan: Kritiken schreiben. Ein Trainingsbuch. Konstanz 2006. Rahman, Tarjin u. Paul Muter: „Designing an interface to optimize reading with small display windows“. In: Human Factors 41 (1999) H. 1, S. 106–117. Rapp, Andrea: „Das Projekt ‚TextGrid. Modulare Plattform für verteilte und kooperative wissenschaftliche Textdatenverarbeitung – ein Community-Grid für die Geisteswissenschaften‘. Chancen und Perspektiven für eine neue Wissenschaftskultur in den Geisteswissenschaften.“ In: Jahrbuch der historischen Forschung in der Bundesrepublik Deutschland: Berichtsjahr 2006. Hg. v. der Arbeitsgemeinschaft historischer Forschungseinrichtungen in der Bundesrepublik Deutschland. München 2007. Rath, Michael, Torben Swane: „Google Buchsuche – digitale Weltbibliothek und globale Buchhandlung“. In: Kommunikation & Recht. 12. Jg., April 2009. S. 225–228. Rau, Anja: What you click is what you get? Die Stellung von Autoren und Lesern in interaktiver digitaler Literatur. Berlin 2001. Rautenberg, Ursula (Hg.): Das Hörbuch – Stimme und Inszenierung. Wiesbaden 2007. Rehbinder, Manfred: Urheberrecht. 16. Aufl. München 2010. Renear, Allen, Nancy Ide und David Durand: „Refining our Notion of What Text Really Is: The Problem of Overlapping Hierarchies“. In: Research in Humanities Computing 4: Selected Papers from the 1992 ALLC/ACH Conference. Oxford 1996, S. 263–280. (online-Version: www.stg.brown.edu/resources/stg/monographs/ohco.html, Stand: 25.02.2011). Reppesgard, Lars: Das Google Imperium. Hamburg 2008. Reuß, Roland u. Volker Rieble (Hg.): Autorschaft als Werkherrschaft in digitaler Zeit. Frankfurt/ Main 2009. Riehm, Ulrich, Carsten Orwat u. Bernd Wingert: Online-Buchhandel in Deutschland. Die Buchhandelsbranche vor der Herausforderung des Internet. Karlsruhe 2001. Roentgen, Hans Peter: Der diskrete Charme des Chaos. Was man von Amazon-Rezensionen erwarten darf – und was nicht, 2007. www.literaturkritik.de/public/rezension.php? rez_id=10631&ausgabe=200704 (Stand: 01.03.2011). Röhle, Theo: Der Google-Komplex. Über Macht im Zeitalter des Internets. Bielefeld 2010. Rokosz, Anna: Literaturkritik und ihre Wirkung. Zwischen Bestsellerlisten und Laienrezensionen. Marburg 2009. Rose, Frank: The Art of Immersion. How the Digital Generation Is Remaking Hollywood, Madison Avenue, and the Way We Tell Stories. New York 2011. Rühr, Sandra: Tondokumente von der Walze zum Hörbuch. Geschichte – Medienspezifik – Rezeption. Göttingen 2008.

318

Literaturverzeichnis

Ruhrberg, Christine und Gerhard Lauer (Hg.): Lexikon Literaturwissenschaft. Hundert Grundbegriffe. Stuttgart 2011. Saffer, Dan: Designing Gestural Interfaces: Touchscreens and Interactive Devices. Sebastopol/ Ca. u. a. 2008. Saur, Klaus Gerhard: „Elektronische Medien“. In: Bodo Franzmann, Klaus Hasemann, Dietrich Löffler, Erich Schön (Hg.): Handbuch Lesen. Baltmannsweiler 2001, S: 281–287. Schenkman, Bo, Tadahiko Fukuda u. Bo Persson: „Glare from monitors measured with subjective scales and eye movements“. In: Displays 20 (1999) H. 1, S. 11–21. Schiffrin, André: Verlage ohne Verleger: über die Zukunft der Bücher. Berlin 2000. Schiwy, Peter, Walter Schütz u. Dieter Dörr (Hg.): Medienrecht. Köln 2010. Schlick, Christopher M. u. a.: „Visual Displays“. In: S. A. Sacko (Hg.): The Human Computer Interaction Handbook: Fundamentals, Evolving Technologies and Emerging Applications. Boca Raton 2012, S. 157–191. Schlobinski, Peter (Hg.): Von *hdl* bis *cul8r*. Sprache und Kommunikation in den Neuen Medien. Mannheim u. a. 2006. Schmidt, Jan: Das neue Netz. Merkmale, Praktiken und Folgen des Web 2.0. Konstanz 2009. Schmidt, Peter: Der Wortschatz von Goethes ,Iphigenie‘. Analyse der Werk- und Personensprache mit EDV-Hilfe. Mit Wortindex, Häufigkeitswörterbuch und Wortgruppentabellen (Indices zur deutschen Literatur). Frankfurt/Main, Bonn 1970. Schnell, Ralf: Geschichte der deutschsprachigen Literatur seit 1945. Stuttgart, Weimar 1993. Schroer, Markus: Räume, Orte, Grenzen. Auf dem Weg zu einer Soziologie des Raums. Frankfurt/ Main 2006. Schwalm, Simone: Selbstprofilierung im Internet durch Literaturkritik, 2010. www.literaturkritik. de/public/rezension.php?rez_id=15100 (Stand: 01.03.2011). Schwandtner, Ursula, Claudia Schreiner (Hg.): PISA 2009. Lesen im elektronischen Zeitalter. Die Ergebnisse im Überblick. Salzburg o.J. Schwens-Harrant, Brigitte: Literaturkritk. Eine Suche. Innsbruck 2008. Schwethelm, Matthias: Bücher zum Hören. Intermediale Aspekte von Audioliteratur. Universität Erlangen 2010. (= Alles Buch. Studien der Erlanger Buchwissenschaft XXXVIII). (onlineVersion: www.buchwiss.uni-erlangen.de/AllesBuch/38_Schwethelm.pdf, Stand: 01.03.2011) Seibert, Peter: Der literarische Salon. Literatur und Geselligkeit zwischen Aufklärung und Vormärz. Stuttgart 1993. Sheedy, James E.: „Office Lighting for Computer Use“. In: Visual Ergonomics Handbook. Hg. v. Jeffrey Anshel. Boca Raton 2005, S. 37–51. Shen, I-Hsuan, Kong-King Shieh u. a.: „Lighting, font style, and polarity on visual performance and visual fatigue with electronic paper displays“. In: Displays 30 (2009) H. 2, S. 53–58. Shieh, Kong-King u. Chin-Chiuan Lin: „Effects of screen type, ambient illumination, and color combination on VDT visual performance and subjective preference“. In: International Journal of Industrial Ergonomics 26 (2000) H. 5, S. 527–536. Siever, Torsten, Peter Schlobinski und Jens Runkehl (Hg.): websprache.net. Sprache und Kommunikation im Internet. Berlin, New York 2005. Simanowski, Roberto: „Tod des Autors? Tod des Lesers!/Death of the Author? Death of the Reader!“ In: p0es1s. Ästhetik digitaler Poesie. Hg. v. Friedrich W. Block, Christiane Heibach u. a. Ostfildern 2004, S. 79–91. Simanowski, Roberto: Interfictions. Vom Schreiben im Netz. Frankfurt/Main 2002.

Literaturverzeichnis

319

Simmel, Georg: „Soziologie der Geselligkeit (1. Aufl. 1917)“. In: Georg Simmel. Aufsätze und Abhandlungen 1909–1918. Hg. v. Rüdiger Kramme u. Angela Rammstedt. Frankfurt/Main 2001, S. 177–193. Spoerhase, Carlos: „Ausweitung der kritischen Kampfzone: Was die Geschichte der aufklärerischen Rezensionskultur die aktuelle Reflexion über Literaturkritik lehren könnte“. In: Zeitschrift für Germanistik N.F. 1 (2009), S. 171–178. Stäcker, Thomas: „Umstellung von analoger auf digitale Technik an der Herzog August Bibliothek – eine Ära geht zu Ende“. In: Bibliotheksdienst 43 (2009), H. 2, S. 183–187. Stegbauer, Christian: Grenzen virtueller Gemeinschaft. Strukturen internetbasierter Kommunikationsforen. Wiesbaden 2001. Steiner, Ann: „Private Criticism in the Public Space: Personal writing on literature in readers’ reviews on Amazon“. In: Particip@tions 5 (2008) H. 2. (online-Version: www.participations. org/Volume%205/Issue%202/5_02_steiner.htm, Stand: 01.03.2011) Stiftung Lesen (Hg.): Lesen in Deutschland 2008. Eine Studie der Stiftung Lesen. Mainz 2009. Stiftung Lesen (Hg.): Zeitschriftenlektüre und Diversität. Mainz 2011. Suter, Beat, Michael (Hg.): Böhler Hyperfiction. Hyperliterarisches Lesebuch: Internet und Literatur. Basel, Frankfurt/Main 1999. Suter, Beat: Hyperfiktion und interaktive Narration im frühen Entwicklungsstadium zu einem Genre. Zürich 2000. Suter, Beat: „The Making of ‚The Famous Sound of Absolute Wreaders‘“. In: dichtung-digital 6 (2004), H. 1. www.dichtung-digital.org/2004/1-Suter.htm (Stand: 01.03.2011). Sutter, Tilmann: „Anschlusskommunikation und die kommunikative Verarbeitung von Medienangeboten. Ein Aufriss einer konstruktivistischen Theorie der Mediensozialisation“. In: Lesekompetenz. Bedingungen, Dimensionen, Funktionen. Hg. v. Norbert Groeben u. Bettina Hurrelmann. Weinheim, München 2006, S. 80–105. Thiedeke, Udo: „Wir Kosmopoliten. Einführung in eine Soziologie des Cyberspace“. In: Soziologie des Cyberspace. Medien, Strukturen und Semantiken. Hg. v. Udo Thiedeke. Wiesbaden 2004, S. 15–47. Tinker, Miles: The Legibility of Print. Ames 1963. Treanor, Ted: Amazon: „Love Them? Hate Them? Let’s Follow the Money“. In: Publishing Research Quarterly (2010) 26, S. 119–128. Tuschling, Jeanine: Autorschaft in der digitalen Literatur. Bremen 2006. Urban, Evelin Alexandra: Literaturkritik für das Internet. Marburg 2007. Vaget, Rudolf: „Der Dilettant. Eine Skizze der Wort- und Bedeutungsgeschichte.“ In: Jahrbuch der deutschen Schillergesellschaft 14 (1970), S. 131–158. Van Schaik, Paul u. Jonathan Ling: „The effects of frame layout and differential background contrast on visual search performance in web pages“. In: Interacting with Computers (2001) H. 13, S. 513–525. Vise, David, Mark Malseed: Die Google-Story. Hamburg 2006. Vogel, Anke: Der Buchmarkt als Kommunikationsraum. Eine kritische Analyse aus medienwissenschaftlicher Perspektive. Wiesbaden 2011. Wang, An-Hsiang, Hui-Tzu Kuo u. Shie-Chang Jeng: „Effects of ambient illuminance on users’ visual performance using various electronic displays“. In: Journal of the Society for Information Displays 17 (2009) H. 8, S. 665–669. Wendt, Dirk: „Lesbarkeit von Druckschriften“. In: Schrifttechnologie. Hg. v. Peter Karow S. Berlin: Springer 1992, S. 271–306.

320

Literaturverzeichnis

Wilkins, Arnold, Ian Nimmo-Smith u. a.: „A neurological basis for visual discomfort“. In: Brain (1984) H. 107, S. 989–1017. Wilkowska, Wiktoria u. Martina Ziefle: „User diversity as a challenge for the integration of medical technology into future home environments“. In: Human-Centred Design of eHealth Technologies. Concepts, Methods and Applications. Hg. v. Ziefle, Martina u. Carsten Röcker. Hersehy, P.A. 2011, S. 95–126. Winkels, Hubert: Kann man Bücher lieben? Vom Umgang mit neuer Literatur. Köln 2010. Winko, Simone: „Am Rande des Literaturbetriebs: Digitale Literatur im Internet“. In: Arnold, Heinz Ludwig und Matthias Beilein (Hg.): Literaturbetrieb in Deutschland. 3. Aufl., Neufassung. München 2009, S. 292–303. Wittstock, Uwe: Leselust. Wie unterhaltsam ist die neue deutsche Literatur? Ein Essay. München 1995. Wolf, Ernst u. Angela M. Schraffa: „Relationship between critical flicker frequency and age in flicker perimetry“. In: Archives of Ophthalmology (1964) H. 72, S. 832–843. Yeh, Yei-Yu u. Christopher D. Wickens: „Why do performance and subjective workload measures dissociate?“ In: Proceedings of the 28th Annual meeting of the Human Factors Society. Santa Monica 1984, S. 504–508. Ziefle, Martina: „Aging, visual performance and eyestrain in different screen technologies“. In: Proceedings of the Human Factors and Ergonomics Society 45th annual meeting. Santa Monica 2001, S. 262–266. Ziefle, Martina: „CRT screens or TFT displays? A detailed analysis of TFT screens for reading efficiency“. In: Usability evaluation and interface design. Hg. v. Michael Smith, Gavriel Salvendy, Don Harris u. Richard Koubek. Mahwah 2001, S. 549–553. Ziefle, Martina: „Effects of display resolution on visual performance“. In: Human Factors 40 (1998) H. 4, S. 554–568. Ziefle, Martina: „Information presentation in small screen devices: The trade-off between visual density and menu foresight“. In: Applied Ergonomics 41 (2010) H. 6, S. 719–730. Ziefle, Martina: „Instruction format and navigation aids in mobile devices“. In: Usability and Human Computer Interaction for Education and Work. Hg. v. Andreas Holzinger. Berlin 2008, S. 339–358. Ziefle, Martina: Lesen am Bildschirm. Münster 2002. Ziefle, Martina: „Modelling mobile devices for the elderly“. In: Advances in Ergonomics Modeling and Usability Evaluation. Hg. v. Halimahtun Khalid, Alan Hedge u. Tareq Z. Ahram. Boca Raton 2010, S. 280–290. Ziefle, Martina: „Visual ergonomic issues in LCD-Displays. An insight into working conditions and user characteristics“. In: Methods and Tools of Industrial Engineering and Ergonomics for Engineering Design, production, and Service- Traditions, Trends and Vision. Hg. v. Christopher M. Schlick. Berlin 2009, S. 561–572. Ziefle, Martina u. Susanne Bay: „How older adults meet cognitive complexity: Aging effects on the usability of different cellular phones“. In: Behavior & Information Technology 24 (2005) H. 5, S. 375–389. Ziefle, Martina u. Susanne Bay: „Transgenerational Designs in Mobile Technology“. In: Handbook of Research on User Interface Design and Evaluation for Mobile Technology. Hg. v. Joanna Lumsden. Hershey 2008, S. 122–140. Ziefle, Martina, Thomas Gröger u. Dietmar Sommer: „Visual costs of the inhomogeneity of contrast and luminance by viewing TFT-LCD screens off-axis“. In: International Journal of Occupational Safety and Ergonomics 9 (2003) H. 4, S. 507–517.

Literaturverzeichnis

321

Ziefle, Martina u. Simon Himmel u. a.: „When your living space knows what you do: Acceptance of medical home monitoring by different technologies“. In: Human-Computer Interaction: Information Quality in eHealth. Hg. v. Holzinger, Andreas u. Klaus Martin Simonic. Berlin, Heidelberg 2011, S. 607–624. Ziefle, Martina u. Eva-Maria Jakobs: „New challenges in Human Computer Interaction: Strategic Directions and Interdisciplinary Trends“. In: 4th International Conference on Competitive Manufacturing Technologies. Stellenbosch 2010, S. 389–398. Ziefle, Martina, Olaf Oehme u. Holger Luczak: „Information presentation and visual performance in head-mounted displays with augmented reality“. In: Zeitschrift für Arbeitswissenschaft 59 (2005) H. 3–4, S. 331–344. Ziefle, Martina, Carsten Röcker u. a.: „A Multi-Disciplinary Approach to Ambient Assisted Living“. In: E-Health, Assistive Technologies and Applications for Assisted Living: Challenges and Solutions. Hg. v. Röcker, Carsten u. Martina Ziefle. Hershey, P.A. 2011, S. 76–93. Zymner, Rüdiger: „Lesen hören“. In: Allgemeine Literaturwissenschaft – Grundfragen einer besonderen Disziplin. Hg. von Rüdiger Zymner. Berlin 2001, S. 208–215.

Die Autorinnen und Autoren Gesine Boesken, geb. 1971 in Freiburg/Br. Studium an der Universität Konstanz (Deutsche Literatur, Anglistik, Geschichte), Dissertation zum Thema „Literarisches Handeln im Internet. Konstruktion, Wahrnehmung und Nutzung von Schreib- und Leseräumen auf Literaturplattformen“ an der Universität zu Köln, seit 2005 Wissenschaftliche Mitarbeiterin und seit 2010 auch Geschäftsführende Assistentin am Institut für Deutsche Sprache und Literatur II ebenda. Publikationen zum Lesen am Bildschirm sowie zum literarischen Handeln im Internet. www.uni-koeln.de/phil-fak/deutsch/lehrende/boesken Simone C. Ehmig, geb. 1964 in Mainz. Nach dem Studium der Publizistikwissenschaft, Deutschen Philologie und Kunstgeschichte zu Themen der politischen Kommunikation und Journalismusforschung am Institut für Publizistik an der Johannes Gutenberg-Universität in Mainz tätig. Von 2007 bis 2009 Leiterin der Abteilung für angewandte Forschung im Bereich Gesundheitskommunikation an der Università della Svizzera italiana in Lugano, Schweiz. Seit 2009 Leiterin des Instituts für Lese- und Medienforschung der Stiftung Lesen. www.stiftunglesen.de/institut.html Ernst Fischer, geb. 1951 in Wien. Nach dem Studium der Germanistik und Philosophie an der Universität Wien 1979–1993 am Institut für Deutsche Philologie an der Ludwig-MaximiliansUniversität München als Wissenschaftlicher Assistent tätig, nach der Habilitation 1988 als Privatdozent. Seit 1993 Professor am Institut für Buchwissenschaft der Johannes GutenbergUniversität Mainz. Zahlreiche Publikationen zur Literatur- und Buchhandelsgeschichte des 18.– 21. Jahrhunderts sowie zu aktuellen Entwicklungen im Bereich der Print- und digitalen Medien. www.buchwissenschaft.uni-mainz.de/fischer.html Christine Grond-Rigler, geb. 1967 in Graz. Studium der Deutschen Philologie und Anglistik/ Amerikanistik an den Universitäten Graz und Wien. Seit 2004 wissenschaftliche Mitarbeiterin an der Donau-Universität Krems, seit 2009 Leiterin des „Archivs der Zeitgenossen – Sammlung künstlerischer Vor- und Nachlässe“ ebenda. Publikations- und Forschungsschwerpunkte: Zeitgenössische Literatur, Lesen im digitalen Zeitalter, literarische Organisationen, Schreiben von Frauen, Literatur und Digitalisierung. www.donau-uni.ac.at/de/universitaet/whois/03916/index.php Florian Hartling, geb. 1978 in Dessau. Studium der Germanistik, der Medien- und Kommunikationswissenschaften und der Politikwissenschaft in Halle und Leipzig, seit 2002 wissenschaftlicher Mitarbeiter am Institut für Medien- und Kommunikationswissenschaften der Universität Halle. Schwerpunkte in Forschung und Lehre: Internettheorien und -praxis, Autorschaft in Neuen Medien, Netzliteratur und -kunst, Online-Journalismus, Dispositiv. Zahlreiche einschlägige Publikationen. www.hartling.org Lukas Heymann, geb. 1983 in Mainz. Während des Studiums der Erziehungswissenschaft und Medienpädagogik an der Johannes Gutenberg-Universität in Mainz als wissenschaftliche Hilfskraft bei der AG Medienpädagogik und im Bereich des Jugendmedienschutzes tätig. Seit dem

Die Autorinnen und Autoren

323

Diplomabschluss 2008 wissenschaftlicher Mitarbeiter am Institut für Lese- und Medienforschung der Stiftung Lesen. www.stiftunglesen.de/institut.html Roland S. Kamzelak, geb. 1961 in Subiaco, Australien. Studium der Anglistik und Germanistik an der Eberhard-Karls-Universität Tübingen und an der University of Queensland, Brisbane. Seit 1994 wissenschaftlicher Mitarbeiter und seit 2000 Leiter Entwicklung und Stellvertretender Direktor am Deutschen Literaturarchiv Marbach. Lehrtätigkeit an der Julius-Maximilians-Universität Würzburg (Editionsphilologie, Digital Humanities) und den Pädagogischen Hochschulen Ludwigsburg (Deutsche Literatur) und Schwäbisch Gmünd (Amerikanische Literatur). Herausgabe der Tagebücher Harry Graf Kesslers (zus. m. Ulrich Ott) und zahlreiche editionswissenschaftliche Veröffentlichungen. www.kamzelak.de

Jan Christoph Meister, geb. 1955 in Montreal, Canada. Studium der Germanistik, Geschichte, Erziehungswissenschaft und Anglistik an der Universität Hamburg, danach Wissenschaftlicher Mitarbeiter im Institut für Gemanistik ebendort, 1986–1995 Tätigkeit an der University of the Witwatersrand, Johannesburg, 2001–2006 an der Universität Hamburg. Seit 2006 Professur für „Neuere deutsche Literatur mit dem Schwerpunkt Theorie der Literatur und Methodologie der Textanalyse einschließlich der Computerphilologie“ an der Ludwig-Maximilians-Universität, München. Forschungs- und Publikationsschwerpunkte sind Computerphilologie, Narratologie, österreichische Literatur des 20. Jahrhunderts sowie Phantastische Literatur. www.jcmeister.de Sandra Rühr, geb. 1977 in Nürnberg. Studium der Buchwissenschaft, Theater- und Medienwissenschaft sowie der Neueren deutschen Literaturgeschichte an der Universität ErlangenNürnberg, seit 2007 Mitarbeiterin des Lehrstuhls für Buchwissenschaft in Erlangen, seit 2011 Akademische Rätin ebenda. Zahlreiche medien- und buchwissenschaftliche Publikationen, u. a. zu einer digitalen Buchgeschichte sowie zu Aspekten des Hörbuchs. www.buchwiss.uni-erlangen.de/institut/mitarbeiter/dr.-sandra-ruehr.shtml Wolfgang Straub, geb. 1968 in Zell am See. Studium der Germanistik und Theaterwissenschaft in Salzburg und Wien. Freiberuflicher Literaturwissenschaftler und -kritker sowie Verlagslektor, seit 2007 Lehrbeauftragter am Institut für Germanistik der Universität Wien, 2008–2010 Mitarbeiter eines interdisziplinären Forschungsprojekts zu den „Tropen des Staates“ ebendort. Publikations- und Forschungsschwerpunkte sind die österreichische Literatur des 20. Jahrhunderts, die Literaturtopographie Österreichs sowie die Zusammenhänge von Literatur und Staat. germanistik.univie.ac.at/personen/straub-wolfgang Anke Vogel, geb. 1977 in Frankfurt am Main. Ausbildung zur Buchhändlerin, selbständige Tätigkeiten in den Bereichen Online-Marketing und Verlagsdienstleistungen, Studium der Buchwissenschaft und Publizistik. Seit 2005 wissenschaftliche Mitarbeiterin am Institut für Buchwissenschaft an der Johannes Gutenberg-Universität Mainz. Veröffentlichungen zu den Bereichen Buchmarkt, Jugendliteratur und Medienwissenschaften www.buchwissenschaft.uni-mainz.de/vogel.html

324

Die Autorinnen und Autoren

Karin S. Wozonig, geb. 1970 in Graz. Studium der Vergleichenden Literaturwissenschaft, Anglistik/Amerikanistik und Germanistik in Wien und Los Angeles, postgraduale Ausbildung zur Projektmanagerin mit Spezialisierung auf Wissenschaft und Internet. Freie Literaturwissenschaftlerin und Texterin. Forschungs- und Publikationsschwerpunkte sind die österreichische Literatur des 19. Jahrhunderts sowie der Einfluss der Naturwissenschaften auf die Literaturwissenschaft. karin-schreibt.org Martina Ziefle, geb. 1962 in Heilbronn am Neckar. Studium der Psychologie an der Universität Würzburg, Promotion an der Universität Fribourg, Schweiz. Seit 2008 Universitätsprofessorin, seit 2011 Lehrstuhlinhaberin der Professur für „Communication Science“ an der Rheinisch-Westfälischen Technischen Hochschule Aachen. Eine von vier Gründungsdirektoren des 2011 an der RWTH neu etablierten interdisziplinären Human-Computer Interaction Centers (HCI-C). Forschungs- und Publikationsschwerpunkte: Interaktion und Kommunikation zwischen Mensch und Technik, Technikakzeptanz sowie Aspekte der Usability und User Diversity beim technischen Design. www.rwth-aachen.de/go/id/tyb Nicole Zorn, geb. 1969 in Mannheim. Studium der Rechtswissenschaften sowie Aufbaustudiengang Europarecht (Schwerpunkte Europäisches Medienrecht und Menschenrechte) an der Universität des Saarlandes, Saarbrücken. Referendariat am Landgericht Lübeck, an der deutschen Botschaft Washington D. C. und bei der Gruner und Jahr AG, Hamburg. Juristische Referentin am Mainzer Medieninstitut, Lehrbeauftragte der Johannes Gutenberg-Universität Mainz für Medienrecht. Forschungs- und Publikationsschwerpunkte sind das deutsche und europäische Medienrecht, insbesondere Rundfunkrecht. www.mainzer-medieninstitut.de

Sachregister ACL s. Association for Computational Linguistics ACTA-Abkommen (Anti-Counterfeiting Trade Agreement) 189, 190 ADHO s. Alliance of Digital Humanities Organizations Aggregation 301, 302 Algorithmus 87–91, 129, 144 ALLC s. Association for Literary and Linguistic Computing Alliance of Digital Humanities Organizations (ADHO) 277, 285 Anisotropie 239–243 Anonymität 28, 53, 62 Anschlusskommunikation 21, 27, 30, 31, 34, 39, 40, 78, 97 Anti-Counterfeiting Trade Agreement s. ActaAbkommen Application (App) 106, 107, 109–111, 128, 129, 133, 135, 136, 139, 253 Association for Computational Linguistics (ACL) 283 Association for Literary and Linguistic Computing (ALLC) Autorentypus 35, 36 Autorfunktion 80–84, 87, 88, 90–92 Autorschaft 1, 2, 8, 35, 46–48, 50, 69–93 Autorschaftsattribution 278 Avatar 32 Bibliophilie 10, 11 Bibliothek 10, 11, 15, 18–20, 71, 118, 163, 167, 181–183, 185, 186, 193–195, 259, 285, 291, 298, 299, 301, 303, 305, 306 Bildwiederholfrequenz 234, 235, 237, 240 Blog 24, 52, 58–60, 63, 66, 67, 103, 111, 131, 157, 255 Blooks 157 Büchersendung s. Literatursendung Buchpreisbindung 106, 112, 150–152 Buchpreisbindungsgesetz 176 CATMA s. Computer Assisted Textual Markup and Analysis

CD (Compact Disc) 99, 178, 181, 198, 200, 201, 204–206, 214, 215, 219, 278 CD-ROM (Compact Disc Read-Only Memory) 151, 156, 176 Center for the Electronic Processing of Documents (CETEDOC) 281 CETEDOC s. Center for the Electronic Processing of Documents CLÉA s. Collaborative Literature Éxploration and Annotation Cloud Reader 107 Cloud-Technologie 124 COCOA s. Count and Concordance Generation on ATLAS Collaborative Literature Exploration and Annotation (CLÉA) 291, 295 Computer Assisted Textual Markup and Analysis (CATMA) 280, 291 Computerphilologie 2, 267–296 copy and paste 173 Copyright 79, 120, 121, 164 Count and Concordance Generation on ATLAS (COCOA) 279, 280 Cross Media 52, 57 Crowd Sourcing 281, 291 Data Mining 130, 284 DDB s. Deutsche Digitale Bibliothek Deutsche Digitale Bibliothek (DDB) 123, 183, 192, 281 DAISY-Format (Digital Accessible Information System) 197, 205 Digital Humanities 267, 275, 277, 284–286, 288, 292, 295 Digital Millennium Copyright Act (DMCA) 166 Digital Object Identifier 180 Digital Rights Management (DRM) 106, 124, 138, 139, 154, 155, 180 Digital Text Studies 2, 295, 296 Digital Turn 1, 10, 19 Digitale Gesellschaft 192 digitale Literatur 2, 23, 69, 72–78, 81–83, 85–88, 90, 92, 308 digitale Revolution 2, 97, 138

326

Sachregister

digitales Zeitalter 2, 116, 127, 136, 162, 177, 187, 188, 195 Display 13, 15, 17, 107, 108, 138, 156, 223, 225, 227, 235, 240, 244–246, 248, 249 DMCA s. Digital Millennium Copyright Act dormant out-of-print works s. vergriffene Werke DRM s. Digital Rights Managament DVD (Digital Versatile Disc) 99, 205 E-Book 2, 7, 12, 13, 16, 17, 67, 105–108, 111, 112, 120–125, 132–135, 137–139, 140, 143, 145, 151–160, 162, 176–180, 259, 282 E-Commerce 99, 131, 132, 137 E-Reader 104, 113 EdgeRank 131 Editionsphilologie 152, 154, 270, 280, 288, 289, 323 EPUB-Format 113, 12, 152, 154, 254 Europäische Digitale Bibliothek s. Europeana Europeana 123, 183, 192 Extensible Markup Language (XML) 152, 283, 292, 304 Fan Fiction 79 Feuilleton 1, 22, 43–45, 52, 55, 57, 60, 64– 66, 144, 146, 150, 206, 207, 211 Filehoster s. Sharehoster 162, 178 funktionaler Analphabetismus 251 Gallica 123, 183 GDZ s. Göttinger Digitalisierungszentrum Gebrauchtbuchhandel 100 geistiger Diebstahl 18 geistiges Eigentum 165, 168, 173, 180 Geschwindigkeits-Genauigkeits-Austausch 229 Google-Book-Settlement 182, 120 Göttinger Digitalisierungszentrum (GDZ) 286 Graduated Response 188 Grammophon 202 Handheld 303 Hörbuch 2, 151, 152, 162, 177, 197–219 Hörspiel 198–200, 203–206, 210, 213 Humanities Computing 272–276, 285, 288

Hyperfiction 22, 73, 76 Hypertext 30, 48, 71–73, 76, 77, 84, 134, 278, 308 illegale Downloads 162, 178 Informationsentnahmeprozess 228–230 Informationsfreiheit 126, 127, 129, 183 InfoSoc-Richtlinie 166, 167, 169, 180, 186 Intermedialität 200 International Digital Publishing Forum 154 Internetliteratur 22 Internetpiraterie 162, 188 Interpretationsheuristik 288, 291 Intertextualität 75 Kassation 305 Kollation 280 Konkordanz 277, 279 Kontexteffekte 226 Konzeptkunst 87, 88, 91, 92 Kopierrecht s. Copyright Kopierschutz 113, 167, 179, 180, 187, 190 Korpusanalyse 294 Kulturflatrate 181, 195 Kundenrezension 52–55, 64, 103, 128 neue Intermediäre 97, 111, 139 Orphan works s. verwaiste Werke PageRank 130 Performance 87–92 Phonograph 199, 201, 218 PIPA s. Protect IP Act Plagiat 56, 163, 173, 185 Print on Demand 60, 132, 153 Privatkopieschranke 174, 177, 180, 186 Project Gutenberg 282 Projekt Gutenberg DE 22, 156, 183 Protext IP Act (PIPA) 189 Pseudomündlichkeit 49, 51, 61, 64, 65 Rapid Serial Visual Presentation (RSVP) 245 Regressionen 230, 231 Remixing 77 Retro-Digitalisierung 282 Retrokonversionsverfahren 300

Sachregister

Sakkaden 230, 231, 236, 237 Salon, literarischer 25, 37, 49 Schallplatte 197, 199, 200, 202, 203, 206, 214 Schrankenbestimmungen 169, 173 Schrifttyp 227, 233 Schutzdauer 171, 172 sekundäre Oralität 207 Selbstrezension 53, 55 Self Publishing 45, 153, 155, 158, 159 SGML s. Standard Generalized Markup Language Sharehoster 162, 181, 189, 192 Small Screen Devices 243, 245 Smartphone 109, 116, 133, 135, 136, 156, 243, 244, 253, 254, 255, 257, 262 Social Networks 104, 135, 140, 288 SOPA s. Stop Online Piracy Act 189 Speculative Computing 295 Speicherkapazität 108, 203, 204, 205, 214 Spoiler 60 Standard Generalized Markup Language (SGML) 282, 283 Stop Online Piracy Act (SOPA) 189 Stylometrie 278 Suchmaschine 88, 89, 91, 97, 114, 115, 119, 123, 125–127, 129, 130, 137, 139, 189, 255, 284 Tablet-PC 107, 108, 112, 124, 125, 134, 136, 138, 156, 157, 253–255, 257, 258, 261, 303 TACT s. Textual Analysis Computing Tools TAPoR s. Textual Analysis Portal for Research Tauschbörse 162, 174, 175, 177, 178, 181, 188, 189, 192 TEI s. Text Encoding Initiative Telemediengesetz 190 Territorialitätsprinzip 165 Text Encoding Initiative (TEI) 283 Textarchive 281–284 Textdarstellung 225 Textedition s. Editionsphilologie TextGrid 288, 289, 294 Textrepositorien 278 Textual Analysis Computing Tools (TACT) 280

327

Textual Analysis Portal for Research (TAPoR) 280, 289, 290 Thesaurus Lingua Graeca 281, 282 Thread 30 Three-Strikes-Verfahren 188 Times Square Methode (TSM) 245 TRIPS-Abkommen 166 Tuebinger System von TextverarbeitungsProgrammen (TUSTEP) 280 TUSTEP s. Tuebinger System von TextverarbeitungsProgrammen Urhebergesetz 164, 165, 169 Urheberpersönlichkeitsrecht 164, 170 Urheberrecht 2, 14, 18, 79, 80, 119, 120, 140, 162–196, Urheberrechtsgesetz (UrhG) 164, 166, 167, 169–171, 175 Urheberrechtswahrnehmungsgesetz (UrhWG) 169, 192 UrhG s. Urheberrechtsgesetz UrhWG s. Urheberrechtswahrnehmungsgesetz Vergenzbewegung 231 vergriffene Werke 123, 193 Verlagsgesetz (VerlG) 169, 171 Verlagskultur s. Verlagswesen VerlG s. Verlagsgesetz Vervielfältigungsverbot 175 verwaiste Werke 120 Verwertungsgesellschaft 19, 123, 169, 181, 185, 187, 194 Verwertungsrecht 112, 170, 195 Viabilität 40 Visualisierung 281, 287, 288, 294 visuelle Ermüdung 228, 231, 232, 236, 239 visuelle Maskierung 234 visuelle Performanz 225, 226, 229, 232 Volltextsuche 117, 118, 120, 122, 123, 131, 132, 137, 183, 302 Vook 134 Vorlass 307 VOYANT 290, 291 Wasserzeichen 180 Webbook 303

328

Sachregister

WIPO s. World Intellectual Property Organisation World Intellectual Property Organisation (WIPO) 165, 166, 180

XML-Format s. Extensible Markup Language Zensur 126–129, 189, 190 Zweckübertragungslehre 171