Digital Humanities: Praktiken der Digitalisierung, der Dissemination und der Selbstreflexivität 3515111425, 9783515111423

Digital Humanities befinden sich im Aufwind. Die Digitalisierung von Quellen und wissenschaftlichen Publikationen gehört

144 82 1MB

German Pages 184 [186] Year 2015

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
INHALT
VORWORT
EINLEITUNG: DIGITAL HUMANITIES HISTORISCHE KULTURWISSENSCHAFTEN
I DIGITALISIERUNGSPRAKTIKEN
ARBEITEN MIT DIGITAL(ISIERT)EN QUELLEN: HERAUSFORDERUNGEN UND CHANCEN
STIMMEN HÖREN. AUDIOQUELLEN ALS DIGITALE OBJEKTE
II DISSEMINATIONSPRAKTIKEN
WIKIPEDIA UND WEBLOGS IN DER UNIVERSITÄREN LEHRE
HERAUSFORDERUNG FÜR UNSERE WISSENSCHAFTSKULTUR: WEBLOGS IN DEN GEISTESWISSENSCHAFTEN
KULTURWISSENSCHAFTLICHE BETRACHTUNGEN VON SMARTPHONE-ANWENDUNGEN
SPIEL UND GESCHICHTE IM ZEICHEN DER DIGITALITÄT
BIG DATA IN DEN HISTORISCHEN KULTURWISSENSCHAFTEN
III SELBSTREFLEXIONEN DER DIGITAL HUMANITIES
VON WISSENSCHAFTLICHEN EDITIONEN ALS INTEROPERABLE PROJEKTE, ODER: WAS KÖNNEN EIGENTLICH DIGITALE EDITIONEN?
CODING HISTORY – SOFTWARE ALS KULTURWISSENSCHAFTLICHES FORSCHUNGSOBJEKT
DIE DIGITAL HUMANITIES UND DER MENSCH
KURZBIOGRAPHIEN
Recommend Papers

Digital Humanities: Praktiken der Digitalisierung, der Dissemination und der Selbstreflexivität
 3515111425, 9783515111423

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Geschichte Franz Steiner Verlag

h i s to r i s ch e m it te i lu ng en – b e i h e f te 9 1

Wolfgang Schmale (Hg.)

Digital Humanities Praktiken der Digitalisierung, der Dissemination und der Selbstreflexivität

Wolfgang Schmale (Hg.) Digital Humanities

h i s to r i s c h e m it t e i lu ng e n – b e i h e f te Im Auftrage der Ranke-Gesellschaft. Vereinigung für Geschichte im öffentlichen Leben e.V. herausgegeben von Jürgen Elvert

Wissenschaftlicher Beirat: Winfried Baumgart, Michael Kißener, Ulrich Lappenküper, Ursula Lehmkuhl, Bea Lundt, Christoph Marx, Jutta Nowosadtko, Johannes Paulmann, Wolfram Pyta, Wolfgang Schmale, Reinhard Zöllner

Band 91

Wolfgang Schmale (Hg.)

Digital Humanities Praktiken der Digitalisierung, der Dissemination und der Selbstreflexivität

Franz Steiner Verlag

Der vorliegende Band wurde aus Mitteln des Forschungsschwerpunktes „Digital Humanities“ der Historisch-Kulturwissenschaftlichen Fakultät der Universität Wien vorbereitet. [http://forschungsportal.univie.ac.at/de/schwerpunkte/digital-humanities].

Umschlagabbildung: © Martin Gasteiner Bibliografische Information der Deutschen Nationalbibliothek: Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über abrufbar. Dieses Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist unzulässig und strafbar. © Franz Steiner Verlag, Stuttgart 2015 Druck: Laupp & Göbel, Nehren Gedruckt auf säurefreiem, alterungsbeständigem Papier. Printed in Germany. ISBN 978-3-515-11142-3 (Print) ISBN 978-3-515-11150-8 (E-Book)

INHALT Vorwort .......................................................................................................... 7 Wolfgang Schmale Einleitung: Digital Humanities – Historische Kulturwissenschaften.................................................................. 9 I Digitalisierungspraktiken Martin Schaller Arbeiten mit digital(isiert)en Quellen: Herausforderungen und Chancen................................................................. 15 Thomas Walach Stimmen hören. Audioquellen als digitale Objekte ..................................... 31 II Disseminationspraktiken Anton Tantner Wikipedia und Weblogs in der universitären Lehre .................................... 45 Mareike König Herausforderung für unsere Wissenschaftskultur: Weblogs in den Geisteswissenschaften ....................................................... 57 Annika Dille Kulturwissenschaftliche Betrachtungen von Smartphone-Anwendungen – methodologische Herausforderungen, Analysemöglichkeiten und Perspektiven ..................................................... 75 Josef Köstlbauer Spiel und Geschichte im Zeichen der Digitalität ......................................... 95 Wolfgang Schmale Big Data in den historischen Kulturwissenschaften .................................. 125 III Selbstreflexion der Digital Humanities Anne Baillot, Markus Schnöpf Von wissenschaftlichen Editionen als interoperablen Projekten. Lesen und interpretieren in der digitalen Welt .......................................... 139

6

Inhalt

Daniel Meßner Coding History – Software als kulturwissenschaftliches Forschungsobjekt ............................................... 157 Stefan Zahlmann Die Digital Humanities und der Mensch. Ein Kommentar ........................ 175 Kurzbiographien ........................................................................................ 181

VORWORT Das hier vorgelegte Beiheft der Historischen Mitteilungen der Ranke-Gesellschaft, das den sogenannten Digital Humanities gewidmet ist und den Schwerpunkt auf die historischen Kulturwissenschaften legt, folgt auf das entsprechende Schwerpunktthema im Band 2013/14 der Historischen Mitteilungen. Die dort erschienenen Beiträge werden hier nicht nochmals abgedruckt. Jürgen Elvert und Jens Ruppenthal gilt ein herzliches Dankeschön für die Unterstützung dieses Arbeits- und Publikationsplanes. Zur Vorbereitung dieses Beiheftes fand im Oktober 2014 ein Workshop am Institut für Geschichte (Universität Wien) statt, den der Forschungsschwerpunkt „Digital Humanities“ ausrichtete, der an der historisch-kulturwissenschaftlichen Fakultät der Universität Wien vor einigen Jahren eingerichtet wurde.1 Die intensiven Diskussionen sind allen TeilnehmerInnen in sehr guter Erinnerung und haben sich in den Beiträgen niedergeschlagen. Nicht alle ursprünglich ins Auge gefassten Beiträge konnten schlussendlich auch realisiert werden. Gleichwohl stand ohnehin keine lückenlose Behandlung des Forschungsfeldes zur Debatte, vielmehr sollten laufende und zugleich vielversprechende Entwicklungen und Projekte sowie im besten wissenschaftlichen Wortsinn kritische Betrachtungen im Vordergrund stehen. Gerade Letzteres kommt häufig in der gegenwärtigen Aufbruchstimmung, die nicht zuletzt an der zunehmenden Zahl von Professuren mit dem Schwerpunkt „Digital Humanities“ abgelesen werden kann, zu kurz. Dem Schwerpunkt, insbesondere seinem Ersten Sprecher Stefan Zahlmann, und der Fakultät ist für die finanzielle Unterstützung dieses Arbeits- und Publikationsprojektes zu danken. Andreas Prischl hat das Lektorat mit großer Sorgfalt ausgeführt und den Satz des Manuskripts erstellt. Herzlichen Dank! Es sei allen BeiträgerInnen für ihr Engagement und ihre Geduld gedankt, ebenso dem Franz Steiner Verlag für die professionelle Zusammenarbeit. Wien, im Juni 2015

1

Wolfgang Schmale

http://forschungsportal.univie.ac.at/de/schwerpunkte/digital-humanities.

EINLEITUNG: DIGITAL HUMANITIES HISTORISCHE KULTURWISSENSCHAFTEN Wolfgang Schmale Die Historischen Kulturwissenschaften lassen sich als einen Komplex kulturwissenschaftlicher Fächer verstehen, die durch die Dimension der geschichtlichen Betrachtungs- und Vorgehensweise eng miteinander verbunden sind. Diese Verbindung untereinander ist enger als die zu anderen Fächern, die sich unter Humanities subsumiert finden können. Die breitesten Fächer sind hierbei die Geschichte und die Kunstgeschichte. Beide Fachbezeichnungen stellen nichts anderes als ein Dach über vielen Teilfächern dar. Nahe verwandt sind die archäologischen Fächer. Diese drei Fächergruppen erfassen zeitlich alles von der Urgeschichte bis zur Gegenwartsgeschichte. Relativ eng erscheinen von hier aus auch die Verbindungen zur Anthropologie, zur Kultur- und Sozialanthropologie sowie zur Ethnologie, innerhalb derer die europäische Ethnologie oder, teilweise auch noch mit dem traditionellen Namen, Volkskunde wiederum einen regen Austausch mit der Geschichte pflegt. Viele philologische Fächer zeichnen sich durch eine historische Dimension aus; weder die Archäologien noch die Geschichtswissenschaften kommen ohne die Philologien aus. Teilweise sind wie bei der Byzantinistik und Neogräzistik, der Orientalistik und der Ägyptologie beide Fachstränge in einem gemeinsamen Fach verblieben. Andere Fachgruppen wie die Politik-, Rechts- und Wirtschaftswissenschaften haben über alle Reformen hinweg eine historische Teilausrichtung beibehalten, wie die politische Ideengeschichte, die Rechts- und Verfassungsgeschichte sowie die Wirtschaftsgeschichte, die allerdings inzwischen meistens bei der Geschichte angesiedelt ist. Die Soziologie hat sich mindestens teilweise eine geschichtswissenschaftlich-transdisziplinäre Komponente erhalten. Theologien und Philosophie besitzen ebenfalls eine historisch ausgerichtete Teilprägung. Wie stark diese historischen Teilfächer außerhalb der eigentlichen Geschichtswissenschaft profiliert sind, hängt von den unterschiedlichen Wissenschafts- und Universitätskulturen ab. Unstrittig kann die Musikwissenschaft zu den historischen Kulturwissenschaften gerechnet werden. Bei genauerer Überlegung sind die Humanities kaum etwas anderes als die Historischen Kulturwissenschaften, die, wenn man von den Zuschnitten absieht, die Fächer durch Institutionalisierung erhalten, in ihrer Forschung immer auch durch eine historische Betrachtungsweise geleitet werden. „Historisch“ impliziert Kultur, die Entfaltung des Menschen in und durch Kultur. Im Lichte dieser allgemeinen Feststellungen deutet der Begriff Digital Humanities oder Digitale Historische Kulturwissenschaften einen möglichen Mehrwert an. Die Digitalität an sich beinhaltet diesen Mehrwert:

10

Wolfgang Schmale „Digitalität“ wird, mit besonderem Blick auf die Kulturwissenschaften entscheidend durch Rationalisierung, Verflüssigung, Entgrenzung, Dekontextualisierung und Personalisierung sowie durch das – oftmals noch ungenutzte, aber stets gegebene – Veränderungspotenzial, das Digitalität für die Kulturwissenschaften besitzt, charakterisiert. Rationalisierung, Verflüssigung, Entgrenzung, Dekontextualisierung, Personalisierung und gegebenes Veränderungspotenzial sind Kernelemente der „digitalen Vernunft“. Digitalität ermöglicht einen eigenen wissenschaftlichen Diskurs, der sich vom gängigen textuellen Diskurs unterscheidet und der das digitale Potenzial adäquater als bisher ausschöpft. Dieser ‚neue‘ Diskurs steckt noch in den Anfängen.1

Positiv gesehen und konkret bedeutet dies, dass die Aufspaltung der historischen Dimension auf Dutzende von Fachdisziplinen in den Digital Humanities nicht erforderlich ist, nicht erwünscht ist. Sie bleibt aber möglich, die meisten Fachdisziplinen haben einen digitalen Strang entwickelt, der die Fachdisziplinarität auch widerspiegelt. Das hat damit zu tun, dass Wissenschaft als Forschungsprozess im Wesentlichen etwas für die Fachleute ist. Dieses „als Prozess“ ist zu unterscheiden vom öffentlichen Interesse an Forschungsergebnissen. Ohne mich für den Forschungsprozess interessieren zu müssen, kann ich mich für alle möglichen Forschungsergebnisse interessieren. Hierfür muss ich kein Wissenschaftler sein. Soweit sich Forschungsprozesse als Abenteuer inszenieren lassen, sind auch sie für Medien und eine breitere Öffentlichkeit interessant, aber die Inszenierung als Abenteuer, die der Vermarktung von Wissenschaft hilft, ist nicht dasselbe wie der eigentliche Forschungsprozess. Anders ausgedrückt: Digitale historische Kulturwissenschaften können beides: Öffentlichkeit und strenge Forschung. Open access natürlich vorausgesetzt, fallen bei der digitalen Forschungsvermittlung die meisten Filter und Hürden weg, die in der „analogen Welt“ den Zugang zur Forschung so erschweren, dass er sich nur für Fachleute lohnt oder für spezialisierte ‚Amateure‘. Es braucht auch nicht mehr die Mittler wie Wissenschaftsjournalist/inn/en oder begabte Autor/inn/en, die Wissenschaft popularisieren, indem sie den Forschungsprozess als Abenteuer erzählen, in das die Forschungsergebnisse eingebettet sind. Wissenschaftsblogs (s. den Beitrag von Mareike König) sind ein Beispiel dafür, wie Wissenschaften selber mittels digitaler Medien auf dem Weg sind, dieses breit gefächerte Potential der Digitalität zu nutzen und auszuspielen. Das macht die Mittler von Wissenschaft noch nicht arbeitslos, aber verändert deren Rolle. Der Aspekt, auf den es wirklich ankommt, ist ein anderer: Digitalität ermöglicht es, die Funktion der historisch-kulturwissenschaftlichen Betrachtungsweise für Gesellschaft und Kultur wieder stärker in den Vordergrund zu rücken. Diese ist keine Spezialfunktion einzelner historischer Disziplinen, sondern eine Funktion des Humanen. Sie bringt die Historizität von Kultur zu Bewusstsein, zur Geltung, zur Wirkung. Das ist, streng genommen, nichts Wissenschaftliches, allerdings wird diese Funktion seit dem 17./18. Jahrhundert im Kern durch die historischen Kulturwissenschaften ausgeübt, wodurch diese Funktion stark verwissenschaftlicht wurde. Ein entscheidender Grund für diese Entwicklung lag darin, dass die jeder Kultur

1

Wolfgang Schmale, Digitale Vernunft, in: Historische Mitteilungen Bd. 26, 2013/14, 94.

Einleitung

11

innewohnende Historizität seit dem Absolutismus durch unterschiedlichste politische Regime hindurch politisch-propagandistisch enteignet wurde und es eines Korrektivs bedurfte, das die Wissenschaften lieferten, das aber im nationalistischen Zeitalter von einigen historischen Kulturwissenschaften wieder verraten wurde. Die nur interdisziplinär richtig zu fassende Historizität von Kultur lässt sich digital besser darstellen als analog – was nicht zwingend heißt, dass das schon geschieht. Aber die Wege dorthin sind beschritten: 1. Die Digitalisierung der materiellen ‚Überreste‘ macht einen dieser Wege aus. Nicht in jedem, aber in den meisten Fällen wird das Prinzip des freien Zugangs zu den Digitalisaten beherzigt. Historizität ist teilweise gewissermaßen in den materiellen Überresten gespeichert. Die Ausgangsinteressen und Zielsetzungen sind sehr unterschiedlich, letztlich werden aber gewaltige Mengen an materiellen Überresten zugänglich gemacht. Das heißt nicht automatisch die Überführung der Humanities in das Zeitalter von Big Data (s. Beitrag Wolfgang Schmale), denn darauf kommt es gar nicht an; es kommt darauf an, dass die Historizität von Kultur virtuell erfahrbar und erforschbar gemacht wird, ohne dass fachdisziplinäre Grenzen eine Rolle spielen würden. Zwei Beiträge widmen sich diesem Bereich: Martin Schaller und Thomas Walach. 2. Ein anderer zentraler Weg ist die Dissemination: Man kann über Wikipedia denken, was man will: Wie Anton Tantner in seinem Beitrag nachweist, gehört Wikipedia hier dazu. Es handelt sich schon längst nicht mehr um das einzige Projekt, das mittels Crowd sourcing zur Entwicklung des historischen Gedächtnisses beiträgt. Wobei das Prinzip der anonymen Autorschaft eigentlich sinnentleert ist, es besitzt keinerlei Mehrwert. Im Gegenteil: Für Big Data-Analysen der Sozialwissenschaften wäre ein Minimum an Normdaten zu den AutorInn/en sehr wünschenswert. Eine andere Facette wird durch historische Apps für Smartphones repräsentiert, die Annika Dille untersucht. Mit Dissemination ist hier somit nicht schlicht das Verbreiten von Inhalten mittels Digitalisierung gemeint, sondern der Einsatz genuin digitaler Kommunikationstechniken und praktiken, mit denen die Historizität von Kultur erfahrbar gemacht, zur Geltung und zur Wirkung gebracht wird. Hierzu zählen auch die bereits genannten Wissenschaftsblogs. Der Einsatz historischer Apps z. B. in einem Freilichtmuseum führt zu Spiel und Simulation, die Josef Köstlbauer in den Mittelpunkt seiner Betrachtungen stellt. Sowohl die damit verbundene Frage nach dem „Was wäre gewesen, wenn…“ als auch die Simulation vergangener Kontexte auf digitalem Weg werden bereits praktiziert, aber hier liegt ein enormes Potential, wenn man sich entschließt, unsere Wissenslücken digital mit abzubilden. Gerade was die visuelle Welt angeht, verfügen wir über so viele Quellen, dass digitale Rekonstruktionen sinnvoll erscheinen.

12

Wolfgang Schmale

3. Entscheidend ist die Selbstreflexion der Digital Humanities. Daniel Meßner widmet sich der „Frage, wie und warum sich Kulturwissenschaften mit Software – ihrer Geschichte, Programmierung und Anwendung – auseinandersetzen sollten.“ Dies dürfte überhaupt der entscheidende Punkt in der Selbstreflexion sein. Anne Baillot und Markus Schnöpf reflektieren die scheinbar traditionellen Gewohnheiten des Lesens und Interpretierens im Kontext digitaler Editionen. Wird hier das Potenzial der Digitalität tatsächlich genutzt? Stefan Zahlmann reflektiert die Digital Humanities unter dem Gesichtspunkt der Frage, wo in dieser ‚Geschichte‘ der Mensch steht. Bewusst leiten wir diesen Band zu Digital Humanities nicht mit der Selbstreflexion ein, sondern lassen ihn darein münden! Bei genauerer Überlegung kommt man nicht umhin einzusehen, dass die Digital Humanities noch am Anfang – und an einem Scheideweg stehen: In einem Leitartikel in der International New York Times2 schrieb der Evolutionsbiologe Armand Marie Leroi (Imperial College London) von der anstehenden „transformation of the humanities into science“. Diese für Geisteswissenschaftler/innen erstaunliche Aussage (wenn nicht Kampfansage) bezieht sich auf die Folgen, die die Digitalisierung des „cultural heritage“ mit sich bringe. Gemeint ist die grundständige und vorrangige Anwendung quantitativer und statistischer Methoden auf der Grundlage der digitalisierten Texte. Der Autor bezieht sich vor allem auf literarische Texte und Literaturwissenschaft, im Vordergrund sieht er die Möglichkeiten, auf diese methodische Weise Muster und Verbindungen zu erkennen. Er räumt den Methoden Objektivität ein, die er dem individuellen Geisteswissenschaftler, der keine quantitativen und statistischen Methoden einsetzt, abspricht. Ich befasse mich in meinem Beitrag zu Big Data mit der grundsätzlichen Problematik eines solchen Ansatzes. An dieser Stelle ist aber festzuhalten, dass vor allem Nichtgeisteswissenschaftler solche Meinungen prominent und vergleichsweise breitenwirksam vertreten. Insoweit handelt es sich tatsächlich um eine Kampfansage, die auch auf anderen Feldern auftritt: Der Wert der Monografie – als „Goldstandard“, wie es oft formuliert wird – in den Geisteswissenschaften wird systematisch in Zweifel gezogen. Stattdessen werden die Publikationspraktiken der Naturwissenschaften zunehmend als Standards für die Geisteswissenschaften herangezogen und von Förderorganisationen implementiert. Nun ist aber die Fähigkeit zur subjektiven Welterfassung und Welterklärung, für die die geisteswissenschaftlichen Publikationspraktiken stehen, für eine humane Gesellschaft essentiell, jedenfalls, solange wir noch nicht zu Robotern geworden sind. Die Geisteswissenschaften werden gewissermaßen entkernt. Deshalb muss es darum gehen, bestimmten Methoden und den damit erzielbaren Ergebnissen ihren Platz in der Welt des Erkennens und Verstehens zuzuweisen. Falsch ist es, den Wissenschaftscharakter der Geisteswissenschaften daran zu binden.

2

14./15. Februar 2015, 8. Der Artikel wurde (ohne Verweis auf die NYT), inzwischen von der SZ ebenfalls abgedruckt: SZ Nr. 54, 6.3.2015, 11 („Cicero zählen“).

Einleitung

13

Wir Zeitgenossen sehen uns in eine ungemütliche Position gesetzt: Die weltweite Konservierung oder gar Einfrierung historischer Relikte mittels eines weit gefassten Denkmalschutzes, der Erinnerungs- und Geschichtspolitiken, der strengen Regeln des Weltkulturerbestatuts sowie mittels der Bedürfnisse der Tourismuswirtschaft, die der Welt als gewissermaßen vollkommenes Freilichtmuseum bedarf, schränkt unsere Freiheit von der einen Seite her ein. Auf der anderen Seite setzt sich der religiös anmutende Glaube durch, alles sei berechenbar und durch intelligente Algorithmen in Muster auflösbar, die uns die Unsicherheit der noch nicht gewussten Zukunft nehmen und in Voraussehbarkeit und Planbarkeit transformieren. „Der Mensch als freies Wesen“3 wird in dieser Konstellation zu einer entbehrlichen Kuriosität. Ist das das Ziel? Die einseitige Fokussierung auf Big Data, Quantifizierung und Statistik auch in den Geisteswissenschaften macht diese lediglich zu Pseudowissenschaften, weil sie die kritische und unentbehrliche Funktion der subjektiven Welterkennung, die ja keine willkürliche Erkenntnis ist, leugnet und alles auf eine maschinenlesbare Verarmung reduziert. Es kommt auf das richtige Maß an. Dringender wäre eine andere Diskussion: Wie kann das verstreute digitale Material, das von digitalisierten/digitalen Primärquellen bis zu elektronisch publizierten wissenschaftlichen Studien reicht, optimal nutzbar gemacht werden? Das Projekt „Cosmobilities“, das von Sarah Panter und Michael Piotrowski am Leibniz Institut für Europäische Geschichte (Mainz) zur Zeit in Gestalt einer Machbarkeitsstudie durchgeführt wird, zeigt am Beispiel von historischen Personen, wie sehr verschiedene digitale (und analoge) Ressourcen für wissenschaftliche Fragestellungen ‚ausgebeutet‘ werden können.4 Es wäre wichtig, solche Projekte in großem Umfang zu entwickeln, um ein intelligentes Data Mining zu ermöglichen. Die Fragestellungen der Geisteswissenschaften/historischen Kulturwissenschaften/Digital Humanities dürfen sich nicht danach richten, was gerade möglich ist, sondern die Tools des Data Mining müssen sich danach richten, was diese Wissenschaften erfragen. Wie gesagt: Die Digital Humanities stehen am Anfang.

3 4

Schmidinger, Heinrich; Sedmak, Clemens (Hg.) (2005): Der Mensch – ein freies Wesen? Autonomie – Personalität – Verantwortung. Darmstadt. http://www.ieg-mainz.de/cosmobilities.

I DIGITALISIERUNGSPRAKTIKEN

ARBEITEN MIT DIGITAL(ISIERT)EN QUELLEN: HERAUSFORDERUNGEN UND CHANCEN Martin Schaller EINLEITUNG Der Ausgangspunkt für die folgenden Überlegungen ist ein Projekt zur Zeitungsdigitalisierung. Das Europeana Newspapers Project vereint europäische Gedächtnisinstitutionen im Bemühen, ein gemeinsames Online-Portal für digitalisierte, historische Zeitungen der einzelnen Länder zu schaffen. Im Folgenden werden aber weniger die Inhalte und Ziele des Projektes behandelt, als dass dieses als roter Faden dienen soll, aus dem sich Überlegungen über digital(isiert)e Quellen ergeben. Zentral ist dabei die Frage, wie geschichtswissenschaftliches Arbeiten mit diesen Quellen gestaltet werden soll. Im Fokus stehen daher die Prozesse, die die Arbeit mit dieser Art von Quellen erst möglich machen, und wie diese in den Kontext der historischen Forschung eingebettet werden - weniger die Arbeit mit den Quellen selbst. Dadurch ergibt sich ein vertiefter Blick auf den aktuellen Stand und die Herausforderungen, aber auch auf die zukünftigen Möglichkeiten und Grenzen im Umgang mit Digitalisaten und born-digital-Material. Da das Europeana Newspapers Project als Ausgangspunkt für die Überlegungen dient, wird zu Beginn ein kurzer Überblick über das Projekt gegeben. Von diesem ausgehend werden digitalisierte Quellen aus geschichtswissenschaftlicher Sicht in den Fokus gerückt. Die Frage, ob Digitalisate gegenüber archiviertem borndigital-Material unterschiedliche Herangehensweisen verlangen, wird im Anschluss diskutiert und anhand von Webarchiven beispielhaft skizziert.

16

Martin Schaller

DAS EUROPEANA NEWSPAPERS PROJECT Das Europeana Newspapers Project1 ist ein EU-Projekt, welches im Rahmen des competitiveness and innovation framework programme – kurz CIP – finanziert wird. Es wurde 2012 gestartet und läuft bis Anfang 2015. Das Ziel des Projektes lässt sich am besten mit dessen vollständigen Titel zusammenfassen: „A Gateway to European Newspapers Online.“ Es soll ein europäisches Online-Zeitungsportal geschaffen werden, welches freien und einfachen Zugang zu digitalisierten, historischen Zeitungen ermöglicht. Durch Einsatz von sogenannter Optical Character Recognition-Technologie (kurz OCR) wird die Erstellung von Volltext ermöglicht. Im Portal werden daher nicht nur Scans der Zeitungen aggregiert, sondern es wird auch die Volltextsuche implementiert. Daneben gibt es aber noch weitere technische Aspekte: ein Teil des Bestandes wird neben OCR auch durch Optical Layout Recognition bearbeitet – also der automatisierten Erkennung und Segmentierung von Artikeln. Ein weiterer Bestandteil ist die Named Entities Recognition, in welchem Ressourcen zur automatisierten Erkennung von geographischen Bezeichnungen oder Personennamen in niederländischen, deutschen oder französischen Texten zur Verfügung gestellt werden. Getragen wird das Projekt von insgesamt achtzehn Projektpartnern, elf assoziierten Partnern und 35 Networking-Partnern, welche wiederum in Institutionen mit technischem Schwerpunkt, wie die Universität Innsbruck, und Projektpartner mit inhaltlichem Schwerpunkt, wie die Österreichische Nationalbibliothek, geteilt werden können. Aus dem deutschsprachigen Raum sind folgende Institute beteiligt: die Staatsbibliothek zu Berlin, die Staats- und Universitätsbibliothek Hamburg, die Landesbibliothek Dr. Friedrich Tessmann in Bozen, die Universität Innsbruck und die Österreichische Nationalbibliothek. Im entwickelten Portal werden rund zehn Millionen Zeitungsseiten im Volltext zur Verfügung gestellt werden. Dazu ein internationaler Vergleich: AustriaN Newspapers Online (ANNO), der digitale Zeitungslesesaal der österreichischen Nationalbibliothek, bietet Zugang zu rund dreizehn Millionen digitalisierten Zeitungsseiten, wobei nicht alle im Volltext zugänglich sind.2 Das British Newspaper Archive bietet rund neun Millionen Zeitungsseiten3, während Chronicling America4, das Zeitungsdigitalisierungsprojekt der Library of Congress, rund 8,5 Millionen Zeitungsseiten online gestellt hat. Das im Projekt entwickelte Online-Portal wird von The European Library betrieben und aufgebaut. Mittlerweile ist auch ein überarbeiteter Prototyp online, der genutzt werden kann, wobei der zur Verfügung stehende Inhalt noch laufend erweitert wird.5 Mit Abschluss des Projektes im Januar 2015 werden zehn Millionen historische, digitalisierte Zeitungsseiten online sein und der Öffentlichkeit zur Verfügung 1 2 3 4 5

Zusätzliche Informationen und Aktuelles können über die offizielle Projektwebseite www.europeana-newspapers.eu abgerufen werden. Alle im Folgenden zitierten URLs wurden zuletzt am 14. Dezember 2014 besucht. http://anno.onb.ac.at/. http://www.britishnewspaperarchive.co.uk. http://chroniclingamerica.loc.gov/. http://www.theeuropeanlibrary.org/tel4/newspapers.

Arbeiten mit digital(isiert)en Quellen: Herausforderungen und Chancen

17

gestellt werden. Zudem werden noch Metadaten zu weiteren zwanzig Millionen Seiten über The European Library zugänglich gemacht. Insofern ist der Charakter des Projekts durchaus gemischt und verbindet technische und inhaltliche Aspekte. DIE DIGITALISIERTE QUELLE Soweit ein kurzer Abriss des Projektes. Viel interessanter ist es aber, das Projekt in einen geschichtswissenschaftlichen Kontext zu stellen. Dabei soll der Blick vom Ergebnis, in diesem Fall einer digitalisierten und im Volltext zugänglichen Zeitungsseite, hin zu den Vorgängen, die dieses erst ermöglichen, gerichtet werden. Denn nur so ist es auch möglich, die digitalisierte Quelle umfassend zu begreifen, zu erkennen, wo die Grenzen, die Möglichkeiten und die zukünftigen Herausforderungen liegen, und die Quelle somit entsprechend zu kontextualisieren. Allerdings muss noch einmal betont werden, dass es sich beim Europeana Newspapers Project um kein singulär geschichtswissenschaftliches Projekt handelt, vielmehr werden historische Zeitungen als gemeinsames europäisches Erbe begriffen und sollen daher einer möglichst breiten Öffentlichkeit zugänglich gemacht werden. Dies geschieht über Informationsveranstaltungen und Tagungen, soziale Medien, durch den Internetauftritt des Projektes, durch Blogeinträge, aber auch in Form von Animationen beziehungsweise Videos. Entsprechend wurde für dieses Projekt auch ein Video produziert, in dem die Inhalte, durch Animationen unterstützt, dargelegt werden. Ein nicht näher genannter Wissenschaftler bespricht den Beitrag und weist auf die zahlreichen Vorteile hin. Fast schon nebenbei heißt es dort „I see it [das Projekt] as a liberation of the newspaper.“6 Ein derart weitreichender Satz muss aber auch kritisch hinterfragt werden. Muss die historische Zeitung als Quelle befreit werden? Wenn ja, ist Digitalisierung tatsächlich der Schlüssel dafür? Welche Hürden kann Digitalisierung aus dem Weg räumen, welche nicht? Natürlich unterscheiden sich die Antworten je nachdem, ob die Fragen aus geschichtswissenschaftlicher Sicht oder in Bezug auf eine möglichst breite Nutzerschaft gestellt werden. Für jemanden, der im Umgang mit dem historischen Bestand in Bibliotheken oder Archiven nicht vertraut ist, birgt die Digitalisierung tatsächlich eine große Vereinfachung. Das lässt sich auch deutlich durch die Zugriffszahlen zu Online-Portalen belegen, welche die Zahl der NutzerInnen im Zeitungslesesaal bei weitem übersteigt.7 Mit Einführung der Volltextsuche werden die Zugriffszahlen vermutlich weiter steigen. Seitens der historischen Forschung unterscheiden sich 6 7

Video online unter: http://vimeo.com/100313926. Die Finnische Nationalbibliothek berichtete bereits im Jahr 2005 von 150.000 Zugriffen pro Jahr auf deren virtuellen Zeitungslesesaal. ANNO wurde 2013 von rund 2000 NutzerInnen täglich besucht. Siehe: Christa Müller, Alter Wein in neuen Schläuchen. Der aktuelle Stand der Zeitungsdigitalisierung, ein Zwischenbericht, in: Jahrbuch für Kommunikationsgeschichte 15/2013. Majlis Bremer-Laamanen, Connecting to the Past. Newspaper Digitisation in the Nordic Countries, in: Helmut Walravens (Hg.), International Newspaper Librarianship for the 21st Century, München 2006, 49.

18

Martin Schaller

die Ansprüche etwas, da der Schwerpunkt viel mehr auf systematischer Recherche, denn auf kursorischem Überblick liegt. Entsprechend sollen hier die Hintergründe der Zeitungsdigitalisierung stärker in den Vordergrund rücken. DIGITALISIERUNGSINITIATIVEN UND ZUGANGSPORTALE Trotz des europäischen Fokus von Europeana Newspapers baut das Projekt auf der Vorarbeit der jeweiligen Partnerinstitutionen auf. Die nationalen beziehungsweise regionalen Bibliotheken stellen ihre digitalisierten Bestände zur Verfügung und im Gegenzug kann der erstellte Volltext auch von den Projektpartnern verwendet werden. Das heißt allerdings auch, dass nur ein Ausschnitt der jeweiligen nationalen oder regionalen Angebote über das entwickelte Portal abrufbar ist. Werden verschiedene Zeitungsportale und Digitalisierungsinitiativen allgemein betrachtet, so wird schnell klar, wie dezentral diese sind. Manche Initiativen setzen auf nationaler Ebene an, andere auf regionaler Ebene. Daneben gibt es aber auch Projekte, die einen thematischen Zugang verfolgen und manchmal auch nur einen einzigen Titel im Auge haben.8 Die gleiche Vielfältigkeit gilt auch für die jeweiligen Portale, die zwar grundsätzlich die gleichen Funktionalitäten bieten, aber sich in der Handhabung zum Teil stark unterscheiden. Es ergibt sich also ein recht heterogenes Bild, sowohl in der inhaltlichen Ausrichtung einzelner Projekte, als auch in der Ausgestaltung der Online-Zeitungsportale. Ein naheliegendes Beispiel für eine landesweite Initiative stellt ANNO – der digitale Zeitungslesesaal der Österreichischen Nationalbibliothek – dar. ANNO begann im Jahr 2003 und verfolgte von Beginn an einen sehr breiten Zugang. Digitalisiert wurde aus kuratorischen Gründen, um die Originale zu schonen, aber auch um die öffentliche Nachfrage zu befriedigen. Das heißt, es wurde versucht, jene Bestände, die stark nachgefragt werden, online zu stellen.9 Sieht man nach Deutschland, zeigt sich aufgrund der föderalen Struktur ein viel regionaleres Bild. Zwar gibt es zahlreiche Digitalisierungsbestrebungen, aber diese sind meist regional begrenzt oder auf ein Thema bezogen. Als Beispiel ist die Digitalisierung der DDR-Presse an der Staatsbibliothek zu Berlin zu nennen. Es gibt keine Zusammenführung der Bestände auf nationaler Ebene. Dies stellt sich an der Bibliothèque Nationale de France oder an der British Library anders dar. Hier bündeln sich nationale Bestrebungen, aber dafür ist der Zugang nicht unbedingt kostenlos. Der Zugang zum British Newspaper Archive, dem Zeitungsdigitalisierungsprojekt der British Library, kostet für einen Monat rund 10 Pfund beziehungsweise für ein Jahr rund 80 Pfund.10

8

Einen fundierten Einblick für den deutschsprachigen Raum bietet: Müller, Alter Wein, 153– 159. 9 Ebd., 139–141. 10 https://www.britishnewspaperarchive.co.uk/account/subscribe.

Arbeiten mit digital(isiert)en Quellen: Herausforderungen und Chancen

19

Aber auch technische Hürden können die Nutzung von Online-Zeitungsportalen einschränken. So muss für den Zugang zu den Digitalisaten der Nationalbibliothek der Tschechischen Republik ein Plug-In installiert werden.11 Diese Hürde mag nicht besonders hoch erscheinen, kann aber für manche grundsätzlich interessierte Personen dazu führen, dass dieses Angebot nicht genutzt werden kann. Im Zusammenhang mit Projekten zur Digitalisierung historischer Quellen wird aber ein Aspekt auch gern übersehen, nämlich die Barrierefreiheit im Netz.12 Der Zusammenhang zwischen digitalisierten, historischen Quellen und Barrierefreiheit wird kaum thematisiert, obwohl die Digitalisierung beispielsweise für sehbehinderte Menschen erst die Möglichkeit schafft, diese auch zu nutzen. Dabei ist nicht nur der Zugang zu Primärquellen, sondern auch zu Sekundärquellen ein Thema. Diese Problematik hatte das Projekt „Leibniz“ an der Deutschen Zentralbücherei für Blinde in Leipzig als Ausgangspunkt, in dem an Softwarelösungen zur Aufbereitung von Sach- und Fachbüchern für blinde und sehbehinderte Menschen gearbeitet wurde.13 Von den Herausforderungen, welche dieses Projekt zu meistern hatte, können auch Rückschlüsse auf die Arbeit mit historischen Quellen gezogen werden. Da in der häufig verwendeten Braille-Kurzschrift nicht jeder Buchstabe dargestellt wird, ist perfekter Volltext unerlässlich, denn schon bei geringsten Fehlern kann der Sinn des Wortes nicht mehr nachvollzogen werden.14 Das Projekt „Design für Alle in Digitalen Bibliotheken“15 richtet sich zwar an digitale Bibliotheken, hat dabei aber weniger historische Quellen im Auge. Allerdings wird ein anderer wichtiger Punkt angesprochen: für die Übertragung in barrierefreie Formate sind die zu Grunde liegenden Metadaten entscheidend. Zwar sind passende Formate verfügbar, nur werden beim Digitalisierungsvorgang nicht alle, für einen späteren barrierefreien Zugang nötigen, Informationen erfasst.16 RECHTLICHE ASPEKTE Neben technischen und organisatorischen Hürden gibt es auch rechtliche Aspekte, die miteinbezogen werden müssen. Tim Sherratt von der TROVE, der digitalen

11 http://kramerius.nkp.cz/kramerius/Welcome.do?lang=en. 12 Ich danke Herrn Rana, Student im BA Geschichte, Universität Wien, für den Hinweis auf diese Problematik. 13 Details zum Projekt im Abschlussbericht einsehbar: LEIBNIZ-Abschlussbericht. Vorhaben auf dem Gebiet der beruflichen Rehabilitation: „Leibniz“ Sach- und Fachbuchaufbereitung für blinde und sehbehinderte Menschen, 2013. Online unter: http://www.dzb.de/req/download. Php ?file_id=499. 14 Einen komprimierten Einblick in die Problematik bietet Matthias Leopold, technischer Leiter des Projektes „Leibniz“, in seinem Vortrag „Digitaler Volltext und Barrierefreiheit“, gehalten am 12. Oktober 2011 bei der Veranstaltung „Historische Dokumente auf dem Weg zum digitalen Volltext“ in München. Online unter: http://mdzblog.wordpress.com/2011/10/12/anforderungen-an-die-prasentation-barrierefreier-digitaler-bibliotheksangebote/. 15 http://dfa-blog.grenzenloslesen.de/. 16 http://www.grenzenloslesen.de/leitfaden/dokumente-barrierefrei/volltexte/.

20

Martin Schaller

Bibliothek der Australischen Nationalbibliothek, formulierte vor kurzem die griffige Phrase: „Copyright Cliff of Death“17 – Ab einem bestimmten Zeitpunkt sind Bestände aus urheberrechtlichen Gründen online nicht mehr verfügbar. Obwohl Emanuel Meyer schreibt: „… grundsätzlich zeichnet sich das Urheberrecht im internationalen Vergleich durch einen hohen Harmonisierungsgrad aus“18, ist es doch im Kontext eines europäischen Projektes gut sichtbar, inwiefern sich dazu die jeweiligen nationalen Gesetzgebungen unterscheiden. Während die Österreichische Nationalbibliothek für das Europeana Newspapers Project Zeitungen bis zum Jahr 1875 zur Verfügung stellt, erlaubt die Lettische Nationalbibliothek die Verwendung von Zeitungen bis zum Jahr 1955. Direkt betroffen sind davon Disziplinen und Felder, in denen besonders zeitnah gearbeitet wird, wie dies in der Zeitgeschichte der Fall ist. Aber gerade wenn die interessierte Öffentlichkeit in den Fokus genommen wird, ist dies eine wichtige Einschränkung. Die Arbeiten zum kulturellen Gedächtnis von Aleida und Jan Assmann zeigen, dass gerade das kommunikative Gedächtnis, also die bis zur Zeit der Großeltern zurückreichende Zeitspanne, für ein besonders breites Publikum interessant ist.19 Aber Bestände, die diese Zeitspanne abdecken würden, sind eben nur teilweise zugänglich. Selbst wenn bezüglich des Urheberrechts Kompromisse geschlossen werden konnten, wie dies bei manchen Projekten tatsächlich der Fall ist20, sind immer noch Persönlichkeitsrechte zu beachten. TECHNISCHE ASPEKTE Aber wie viel wurde eigentlich schon digitalisiert? Innerhalb des Projektes wurde versucht, diese Frage für den europäischen Raum näher zu bestimmen und das Ergebnis ist letztlich ernüchternd. Von 47 Bibliotheken, welche sich an der Umfrage beteiligten, hatten nur zwölf mehr als zehn Prozent und nur zwei mehr als die Hälfte ihrer physischen Bestände digitalisiert.21 Ein ähnliches Ergebnis hat auch der we-

17 So bezeichnet von Tim Sherratt bei seinem Vortrag „Digitised newspapers and the varieties of value“, den er am Europeana Newspapers Workshop „Newspapers in Europe and the Digital Agenda for Europe“ am 29. September 2014 in London gehalten hat. Präsentation online unter: http://de.slideshare.net/wragge/digitised-newspapers-and-the-varieties-of-value. 18 Emanuel Meyer, Ergänzung zu Urheberrecht für die Geisteswissenschaften, in: Martin Gasteiner/Peter Haber (Hgg.), Digitale Arbeitstechniken für die Geistes- und Kulturwissenschaften, Wien 2010, 227. 19 Aleida Assmann, Der lange Schatten der Vergangenheit. Erinnerungskultur und Geschichtspolitik, München 2006, 25–26. Jan Assmann, Das kulturelle Gedächtnis. Schrift, Erinnerung und politische Identität in frühen Hochkulturen, München 2007, 50–52. 20 Wie beispielsweise das von der DFG geförderte Projekt zur Digitalisierung der DDR-Presse der Staatsbibliothek zu Berlin. http://zefys.staatsbibliothek-berlin.de/ddr-presse/informationen-zum-projekt/#c497. 21 Alastair Dunning, European Newspaper Survey Report, 2012, 7. Online unter: http://www.europeana-newspapers.eu/wp-content/uploads/2012/04/D4.1-Europeana-newspapers-survey-report.pdf. Die Zahlen sind allerdings mit Vorsicht zu genießen und sollen zum Verständnis der

Arbeiten mit digital(isiert)en Quellen: Herausforderungen und Chancen

21

sentlich breiter angelegt Bericht, welcher im Rahmen des ENUMERATE Projektes22 erstellt wurde, zu Tage gefördert. Das Thema der Studie war die Digitalisierung in europäischen Gedächtnisinstitutionen. Insgesamt nahmen mehr als 2000 Institutionen aus 29 europäischen Ländern teil. Im Vergleich sind die Digitalisierungsbestrebungen in Bibliotheken am wenigsten fortgeschritten. Nur vier Prozent des tatsächlichen physischen Bestandes, von denen Zeitungen natürlich nur einen Bruchteil ausmachen, sind auch tatsächlich digitalisiert.23 Während der Fokus hier nicht auf den absoluten Zahlen liegen soll, zeigt die Relation zwischen digitalisiertem und physischem Bestand doch die Begrenztheit der zur Verfügung stehenden digitalisierten Quellen. Andererseits lässt sich aber auch zeigen, wie rasant das Angebot in diese Richtung ansteigt. Dazu folgendes Beispiel: Chronicling America bot Ende 2008 rund 700.000 digitalisierte Zeitungsseiten an, während sechs Jahre später der Bestand vervielfacht wurde und heute mehr als acht Millionen Zeitungsseiten den NutzerInnen zur Recherche bereit liegen.24 Ähnlich ist es auch im europäischen Kontext. Das British Newspaper Archive ging Ende 2011 mit einem Bestand von etwa vier Millionen Zeitungsseiten online, während innerhalb von drei Jahren das Angebot mehr als verdoppelt wurde.25 Schließlich muss auch auf die Qualität des erstellten Volltextes eingegangen werden. OCR – Optical Character Recognition – bietet die Möglichkeit, das digitale Abbild eines Schriftstückes in Text zu übertragen. Rose Holley schreibt: „OCR software attempts to replicate the combined functions of the human eye and brain, which is why it is referred to as artificial intelligence software.“26

Das gescannte Abbild wird von der Software zuerst in Strukturelemente, wie Textblöcke, Abbildungen und so weiter unterteilt. Von diesen ausgehend weiter in Zeilen, Wörtern und schließlich Buchstaben. Jeder Buchstabe wird analysiert und schließlich durch Wahrscheinlichkeitsberechnungen als ein bestimmter Buchstabe erkannt.27 Für die erfolgreiche Ausführung dieses Prozesses gibt es allgemeine,

22 23 24 25 26 27

Relationen dienen, denn der tatsächliche, physische Gesamtbestand auf Seiten- und Ausgabeebene konnte nur ungefähr ermittelt werden. Manche Institutionen wussten auch nicht um die tatsächliche Größe ihres Zeitungsbestandes und konnten daher keine Daten liefern. Interessant ist auch, dass die Nationalbibliothek der Türkei als einzige der befragten Institutionen tatsächlich den Bestand vollständig digitalisiert hat. Dieser beläuft sich auf circa 800.000 Seiten beziehungsweise 845 Titel. http://www.enumerate.eu. Natasha Stroeker/René Vogels, Survey Report on Digitisation in European Cultural Heritage Institutions, 2012, 10–11. Online unter: http://www.enumerate.eu/fileadmin/ENUMERATE/ documents/ENUMERATE-Digitisation-Survey-2012.pdf. Kathryn Fuller-Seeley, Chronicling America: Historic American Newspapers, in: The Journal of American History 95/2008, 624. The British Newspaper Archive is 3 years old. Online unter: http://blog.britishnewspaperarchive.co.uk/2014/11/28/the-british-newspaper-archive-is-3-years-old. Rose Holley, How Good Can it Get? Analysing and Improving OCR Accuracy in Large Scale Historic Newspaper Digitisation Programs, in: D-Lib Magazine 15/2009, s.p. Online unter: http://www.dlib.org/dlib/march09/holley/03holley.html. Ebd., s.p.

22

Martin Schaller

technische Herausforderungen zu meistern, aber auch die Eigenheiten der Zeitung müssen berücksichtigt werden. Die Qualität der Erkennung von verschieden Druckschriften unterscheidet sich stark. Während Antiquaschrift auf sehr hohem Niveau bearbeitet werden kann und somit fast fehlerfreie Texte zugänglich gemacht werden können, verhält sich dies mit gebrochenen Schriften, wie der Frakturschrift, wesentlich diffiziler. Der Grund ist dabei, dass sich einzelne, in Fraktur gedruckte Buchstaben weniger stark voneinander unterscheiden, beispielsweise das „lange s“ und das kleingeschriebene f. Folglich gibt es auch weniger Unterscheidungsmerkmale für die automatisierte Erkennung.28 Die von der Software erkannten Wörter werden intern wiederum mit Lexika verglichen und geprüft. Das heißt aber auch, dass diese Lexika auf die jeweilige zeitliche Periode angepasst sein müssen. Wörter, welche in einem Lexikon nicht erfasst sind, Eigennamen oder Ortsbezeichnungen etwa, stellen dabei eine zusätzliche Hürde dar.29 Dazu kommen spezifische Eigenschaften der Zeitung, welche sich negativ auf die Qualität des Volltextes auswirken können. Im Gegensatz zu einem Buch war die Zeitung seit jeher ein „Wegwerf-Produkt“ – ein Sprichwort besagt „Nichts ist so alt wie die Zeitung von gestern“, – entsprechend war die Papier- und Druckqualität. Das heißt gleichzeitig, dass es mit dem Fortschreiten der Zeit auch vermehrt Qualitätsprobleme mit dem Original gibt und ein digitales Abbild kann immer nur so gut wie das Original sein. Umgekehrt spielt aber die Qualität dieses Abbildes eine große Rolle für die Qualität des Volltextes.30 Schließlich verstärkt sich dieses Problem bei Frakturschrift, da bei schlechter Papier- und Druckqualität die ohnehin beschränkten Unterscheidungsmerkmale zwischen einzelnen Buchstaben noch schlechter zu erkennen sind. Christa Müller weist in diesem Zusammenhang darauf hin, dass „… besonders die Haarstiche oft so dünn sind, dass sie abreißen, und damit die Software die Buchstaben nicht mehr identifizieren kann.“31 Dazu kommt ein weiteres Problem: Gerade in der Übergangszeit von Fraktur auf Antiqua wurden innerhalb einer Ausgabe oft beide Druckschriften verwendet, etwa bei Werbeanzeigen. Zwar gibt es die Möglichkeiten einer automatisierten Druckschriftenerkennung, allerdings ist dies mit erheblichem zeitlichen Mehraufwand verbunden. Für große Digitalisierungsprojekte ist dies durchaus ein Faktor. Und auch die optische Aufbereitung einer Zeitungsseite kann die Volltextqualität beeinträchtigen. Während in einem Buch der Text seitenbasiert ist, verhält es sich mit Zeitungen anders. Die Beiträge auf einer Zeitungsseite sind artikelbasiert, wobei es keine zwingenden Vorgaben gibt, wo und in welcher Form diese platziert

28 Müller, Alter Wein, 142–143. Andrea Rapp, Einige Anmerkungen zu RetrodigitalisierungsVerfahren und Perspektiven digitaler Briefeditionen, in: Peter Stadler/Joachim Veit (Hgg.), Digitale Edition zwischen Experiment und Standardisierung. Musik - Text - Codierung (Tübingen 2009), 203. 29 Müller, Alter Wein, 143. 30 Holley, How Good, s.p. 31 Müller, Alter Wein, 143.

Arbeiten mit digital(isiert)en Quellen: Herausforderungen und Chancen

23

sind. Für die Software ist es entsprechend schwer zu erkennen, wo welcher Zeitungsartikel beginnt und endet. Dies erzeugt Abgrenzungsschwierigkeiten und der erstellte Volltext umfasst dann den Inhalt zweier oder mehrerer Artikel. Diesen Problemstellen kann mit einer entsprechenden Ausgestaltung der Volltextsuche etwas entgegengewirkt werden. Mit sogenannten Wildcards – Platzhalter für Buchstaben – oder Phrasensuchen können durchaus interessante Treffer trotz begrenzter Qualität des Volltextes erzielt werden. Dennoch bleiben diese Maßnahmen begrenzt. Dies bestätigen auch Erfahrungsberichte von HistorikerInnen. Beispielsweise schreibt Monika Lehner, die über das Chinabild forscht, in ihrem Blog: Als ANNO in 2014 die Volltextsuche in historischen Zeitungen auch für die Jahre 1914–1918 freigab, durchsuchte ich ‚meine‘ Zeitungen (also Figaro, Kikeriki und Floh). Das Ergebnis ist ernüchternd bis erschütternd: der Großteil meiner zuvor ermittelten Fragmente war so nicht auffindbar, ‚neue‘ (also zuvor nicht erfasste) Stellen wurden nicht gefunden.32

Explizit merkt Lehner an, dass sie auch „kreative“ Stichwortvarianten verwendet hat. Eine Möglichkeit, sich diesem Thema zu nähern, ist sogenanntes „Crowdsourcing.“ Dabei werden die NutzerInnen direkt miteingebunden, indem Möglichkeiten geschaffen werden, den fehlerhaften Volltext eigenhändig zu korrigieren. Über interne Mechanismen wird wiederum sichergestellt, dass menschliche Fehler ausgeschlossen werden. Hier gibt es eine Reihe von verschiedenen Ansätzen, welche unterschiedliche Schwerpunkte setzen, was durchaus auch „im Verborgenen“ geschehen kann. Den meisten InternetnutzerInnen dürfte bereits, ob bewusst oder unbewusst, ein sogenanntes CAPTCHA, kurz für „Completely Automated Public Turing test to tell Computers and Humans Apart“, untergekommen sein. Es ist der bekannte Vorgang, beispielsweise vor der Erstellung eines Accounts, wenn eine vorgegebene Zeichenkombination eingegeben werden muss. Dieser Vorgang dient der Sicherheit, da so menschliche NutzerInnen von automatisierten Programmen unterschieden werden können. „reCAPTCHA“33 trägt diesen Gedanken weiter. Anstatt einer zufällig generierten Zeichenfolge werden dabei Wörter, welche nicht mittels OCR gelesen werden konnten, angezeigt. Ohne ihr Wissen tragen NutzerInnen so bei, den Volltext zu verbessern. Im Jahr 2009 wurde reCAPTCHA von Google gekauft und findet Einsatz auf circa 200.000 Webseiten.34 TROVE, die bereits erwähnte digitale Bibliothek der Australischen Nationalbibliothek, verfolgt einen direkteren Weg, in dem den NutzerInnen die Möglichkeit gegeben wird, Texte direkt zu korrigieren. Dabei ergab die Analyse der Daten zu den jeweiligen Textkorrekturen ein sowohl überraschendes als auch interessantes Ergebnis. Zum einen überrascht die 32 Monika Lehner, Schon aus den Startlöchern? Online unter: http://mindthegaps.hypotheses.org /1805. 33 Luis von Ahn/Benjamin Maurer/Colin McMillen/David Abraham/Manuel Blum, reCAPTCHA: Human-Based Character Recognition via Web Security Measures, in: Science 321/2008, 1465–1468. 34 Günter Mühlberger/Johannes Zelger/David Sagmeister, User-driven correction of OCR errors. Combining crowdsourcing and information retrieval technology, in: Proceedings of the First International Conference on Digital Access to Textual Cultural Heritage, New York 2014, 54.

24

Martin Schaller

Zahl der korrigierten Textzeilen: Bis Mitte 2013 wurden rund 100 Millionen Textzeilen manuell korrigiert. Noch überraschender ist allerdings, dass rund 43 Prozent dieser Menge von nur 100 Personen korrigiert wurden. Das heißt, dass die größte Korrekturleistung nicht von einer diffusen „crowd“ kommt, sondern von einem nur sehr begrenzten Bruchteil engagierter Menschen.35 Die Universität Innsbruck wiederum entwickelte einen Ansatz, der sich auf die Stichwortsuche konzentriert, denn letztlich muss nicht der komplette Volltext korrekt sein, sondern „nur“ die Stichwörter mit denen die gesuchten Artikel aufgefunden werden können.36 Aber auch ganz banale Probleme, wie sprachliche Hürden, dürfen nicht außer Acht gelassen werden, gerade wenn es von der regionalen beziehungsweise nationalen auf die europäische Ebene geht. Stichwörter müssen dann unabhängig vom sprachlichen Kontext gewählt werden, denn leistungsfähige Übersetzungen gibt es noch nicht, wobei entsprechende Ideen durchaus vorhanden sind. DIGITALISIERTE QUELLEN = DIGITALE QUELLEN? Können und sollen digitalisierte und digitale Quellen als Einheit wahrgenommen werden, oder gibt es Unterscheidungsmerkmale, die einen differenzierten Umgang fordern?37 Simon B. Margulies schreibt in seinem 2009 erschienen Werk: „Digitale Daten sind Daten, die durch Digitalisierung entstehen.“38 Er schreibt weiter: „Bei digitalen Quellen stellt sich hierbei das Problem, dass sie in der gespeicherten Form, wie sie als binärer Code in Informationssystemen geschaffen und verarbeitet werden, von blossem [sic] Auge nicht gelesen werden können.“39

Margulies verwendet also das digitale Objekt, die Folgen von Null und Eins, welches nur von einer Maschine interpretierbar und darstellbar ist, als das zentrale Charakteristikum der digitalen Quelle. Auf das Objekt bezogen stimmt dies natürlich. Für die Interpretation des Binärcodes ist es in der Tat irrelevant, ob es sich dabei um den Scan einer historischen Zeitung oder um eine beliebige andere Datei handelt. Der Unterschied zwischen einer digitalisierten und einer digitalen Quelle wird klarer, wenn die Institution des Archivs, Museums oder der Bibliothek mit einbezogen wird. Die Gedächtnisinstitution an sich ist sortiert. Es steckt eine Geschichte hinter der Sammlung, hinter der Anordnung der Sammlung, hinter der Institution. Diese Geschichte wird auch durch die Digitalisierung abgebildet – denn es kann 35 Marie-Louise Ayres, ‚Singing for their supper‘: Trove, Australian newspapers, and the crowd, 3, 6. Online unter: http://library.ifla.org/245/1/153-ayres-en.pdf. 36 Mühlberger, User-driven correction, 54–55. 37 Zur vorgenommenen Unterscheidung siehe auch Peter Haber, Digital Past. Geschichtswissenschaft im digitalen Zeitalter, München 2011, 59–61. 38 Simon B. Margulies, Digitale Daten als Quelle der Geschichtswissenschaft. Eine Einführung, Hamburg 2009, 13. 39 Ebd., 332.

Arbeiten mit digital(isiert)en Quellen: Herausforderungen und Chancen

25

nur digitalisiert werden, was bereits im Bestand ist. Und meist entscheidet auch der Bestand, was digitalisiert wird: Urheberrechtsfragen, Kundenwünsche oder Objekte, die unter kuratorischen Gesichtspunkten zur Digitalisierung vorgeschlagen werden. Kurz, wie Wolfgang Schmale schreibt: Keine Quelle, kein Buch, kein Objekt liegt ‚zufällig‘ (Ausnahmen bestätigen die Regel) da, wo es aufbewahrt wird; der exakte Ort, wo die Dinge liegen, verweist auf eine Geschichte, die der Ort emblematisch verkürzt erzählt.40

Gerade hier liegt der fundamentale Unterschied zu digitalen Quellen. Roy Rosenzweig betitelte bereits im Jahr 2003 einen Artikel: „Scarcity or Abundance? Preserving the Past in a Digital Era.“ Er argumentiert darin: „Historians, in fact, may be facing a fundamental paradigm shift from a culture of scarcity to a culture of abundance.“41

An ein Archiv, welches born-digital-Material enthält, wie etwa ein Webarchiv, wird der Anspruch gestellt, keine inhaltlichen Kriterien der Archivierung zu Grunde zu legen, sondern, ganz im Gegenteil, sogar Viren mitzuarchivieren. Das führt dazu, dass HistorikerInnen ein heterogener Bestand zur Verfügung steht, der im Gegensatz zum Bestand klassischer Gedächtnisinstitutionen nicht sortiert und geprüft ist. Wie Wolfgang Schmale im Zusammenhang mit im Netz verfügbaren Quellen ausführt: Da ist der Weg zum Buch oder zur Zeitschrift in der Fachbibliothek oft tatsächlich kürzer, gerade weil eine Reihe von Qualitätsprüfungen von anderen vorab durchgeführt wurde, während im Web die Qualitätsprüfung und –bestimmung auf den individuellen Nutzer zurückfällt.42

Etwa zur selben Zeit gab es aber auch Stimmen, die der Euphorie über allzu vollständige Archivierung sehr reserviert gegenüberstanden und bereits einen Blick für die eventuellen Schwierigkeiten entwickelten. Hans Liegmann schreibt dazu: Das bisherige Ziel der Wertungsfreiheit, alle Publikationen zu erhalten, um der Historikerin und dem Historiker der Zukunft eine lückenlose Quellenlage präsentieren zu können, gerät in Konflikt mit der Menge des zu bewältigenden Materials, den technologischen Herausforderungen, die zur Erzielung einer konsistenten Präsentation in der Zukunft erforderlich sind und den gewohnt hohen Ansprüchen an den Umfang der formalen und inhaltlichen Erschliessung [sic] je bibliografischer Einheit.43

Doch auch wenn sich aus heutiger Sicht schnell zeigte, dass die Vision einer neuen Bibliothek von Alexandria44 nicht realisierbar ist, bergen Webarchive doch einen erstaunlich großen und dichten Quellenbestand an digitalen Quellen. 40 Wolfgang Schmale, Digitale Geschichtswissenschaft, Wien 2010, 14. 41 Roy Rosenzweig, Scarcity or Abundance? Preserving the Past in a Digital Era, in: The American Historical Review 108/2003, 739. 42 Schmale, Geschichtswissenschaft, 21–22. 43 Hans Liegmann, Langzeiterhaltung Digitaler Ressourcen in einer Archivbibliothek, in: Christophe Koller/Patrick Jucker-Kupper (Hgg.), Digitales Gedächtnis – Archivierung und die Arbeit der Historiker der Zukunft, Zürich 2004, 49. 44 Zum Zusammenhang der Metapher der Bibliothek von Alexandria und dem Internet siehe: Haber, Digital Past, 50–52.

26

Martin Schaller

Letztlich muss aber nicht nur das vorhandene Material einer Qualitätsprüfung unterzogen werden. Wird das Webarchiv ins Auge gefasst, so muss auch die Sortierung von HistorikerInnen selbst vorgenommen werden. Dies muss natürlich nicht nur als Nachteil aufgefasst werden, denn da es keinen „institutionalisierten“ Filter gibt, können ForscherInnen selbst entscheiden, was für die jeweiligen Fragestellungen von Relevanz ist. Es gibt eine wesentlich breitere Quellenbasis, um informierte Entscheidungen treffen zu können. Allerdings gibt es auch einen klaren Nachteil: Bestimmte technische Fähigkeiten, welche nicht unbedingt zum Standardrepertoire von HistorikerInnen gehören, müssen beherrscht werden, um diese Filterung selbst durchführen zu können. Je größer der Datenumfang, umso komplexer sind auch die anzuwendenden Prozesse. Letztlich kann interdisziplinäres Arbeiten unausweichlich werden um die eigenen Ansprüche und Vorgaben auch tatsächlich umsetzen zu können. Die Österreichische Nationalbibliothek als jene Bibliothek, welche die Pflichtexemplare in Österreich empfängt, ist natürlich auch gezwungen, auf die aktuellen Entwicklungen zu reagieren. Mit der Mediengesetznovelle von 200945 wurde der Sammlungsauftrag auch in Richtung der Online-Medien erweitert. Ziel ist die Sammlung und Archivierung des nationalen Webspace. Dies erfolgt durch „Harvesting.“ Sogenannte „Crawler“ speichern Webseiten automatisiert ab. Dabei wird eine Dreifach-Strategie verfolgt: Zum einem wird die „.at“ Webdomain gespeichert – sogenanntes Domain-Harvesting, daneben werden ausgewählte Webseiten in häufigeren Intervallen gesammelt –sogenanntes selektives Harvesting – und letztlich wird auch vor und nach Großveranstaltungen wie Wahlen oder Sportereignissen archiviert – sogenanntes Event Harvesting. Die gesammelten Webseiten sind allerdings nicht über das Web, sondern über spezielle Terminals vor Ort in der Österreichischen Nationalbibliothek abrufbar.46 Natürlich ist ein derart gestaltetes Webarchiv immer an den nationalen Blickwinkel gebunden. Das wichtigste internationale Portal ist sicherlich das Internet Archive, welches selbst wiederum auf eine private Initiative zurückgeht. Es wurde 1996 als Non-Profit-Organisation von Brewster Kahle gegründet. Bereits in den frühen 2000er Jahren nahm die gesammelte Datenmenge um zehn bis zwölf Terabytes pro Monat zu.47 Im Jahr 2012 erreichte die Datenmenge, nach eigenen Angaben, eine Größe von zehn Petabyte oder 10.000 Terabyte.48 Über die Wayback Machine sind die archivierten Webseiten auch online verfügbar und daher leichter nutzbar als Webarchive, die nur vor Ort verwendbar sind. Dabei war der Ansatz, den das Internet Archive von Beginn an verfolgte, ein allumfassender. Eine zweite Bibliothek von Alexandria sollte erschaffen werden und darin auch tatsächlich alles zugänglich sein. Nichts weniger als das komplette kulturelle Erbe und somit auch

45 46 47 48

BGBL I 2009/8. http://www.onb.ac.at/about/webarchivierung.htm. Rosenzweig, Scarcity, 750. 10,000,000,000,000,000 bytes archived! Online unter: http://blog.archive.org/2012/10/26/ 10000000000000000-bytes-archived/.

Arbeiten mit digital(isiert)en Quellen: Herausforderungen und Chancen

27

ein kompletter Bestand war die Vision in den frühen 2000er Jahren.49 Ein derartiger Ansatz mag aus heutiger Sicht naiv erscheinen, vor allem im Lichte der oben genannten Zahlen, aber er zeigt klar die Philosophie, welche hinter dieser Organisation steht. Natürlich gibt es auch in diesem Bereich technische Herausforderungen. Bugs in den Crawlern können dazu führen, dass die Webseiten nur unvollständig gespeichert werden. Aber auch die „Tiefe“ der Abspeicherung spielt eine Rolle, das heißt wie viele Subseiten einer Webseite auch tatsächlich archiviert wurden. Ebenso spielt die Frage, welche Inhalte der Webseite beziehungsweise ob tatsächlich alle Bild-, Ton- oder Filmformate mitarchiviert werden, eine wichtige Rolle.50 Formatumwandlungen können nötig werden, um ältere Daten noch weiter benutzen zu können. Dazu kommt eine weitere Eigenschaft des Webs, die Niels Brügger als „the dynamic of updating“ bezeichnet.51 Die Abspeicherung der Webseiten bezieht sich nur auf jene Version der Webseite, die im Moment des Archivierungsvorganges online ist. Nun können sich aber Inhalte in sehr viel höherer Frequenz ändern als diese archiviert werden. Startseiten von Nachrichtenportalen sind hierfür ein gutes Beispiel. Damit handelt es sich beim Webarchiv immer nur um Momentaufnahmen. Niels Brügger gibt aufgrund der aufgezählten technischen Eigenschaften folgendes zu bedenken: „Thus, the archived web document is the result of an active process and it does not exist prior to the act of archiving.“52

Dennoch bleibt ein Merkmal charakteristisch für Webarchive: Es wird keine Rücksicht auf die archivierten Inhalte genommen. Abgesehen von den Harvestingkriterien gibt es keine Vorauswahl, was „archivierungswürdig“ ist, sondern es wird tatsächlich alles archiviert. Dazu ein Beispiel: das Webarchiv der British Library meldete Ende Juli über Twitter, dass für den Webcrawl des Jahres 2014 in elf Terabyte bereits 1,3 Gigabyte Viren mitarchiviert wurden. Damit unterscheiden sich ein Webarchiv und somit auch die Archivierung von sogenanntem born-digital-Material grundsätzlich von der klassischen Archivierungsarbeit. WEBSEITEN ALS QUELLEN Aber werden Webseiten bereits als Quellen in der Geschichtswissenschaft genutzt? Der Artikel „Mining the ‚Internet Graveyard‘: Rethinking the Historian’s Toolkit“ des kanadischen Historikers Ian Milligan wurde im Jahr 2013 mit dem Best Article 49 Brewster Kahle/Rick Prelinger/Mary E. Jackson, Public Access to Digital Material, D-Lib Magazine 7/2001, s.p. Online unter: http://www.dlib.org/dlib/october01/kahle/10kahle.html. 50 Niels Brügger, Web History, an Emerging Field of Study, in: Niels Brügger (Hg.), Web History, New York 2010, 6–8. 51 Niels Brügger, Web History and the Web as a Historical Source, in: Zeithistorische Forschungen/Studies in Contemporary History 9/2012, s.p. Online unter: http://www.zeithistorische-forschungen.de/2-2012?q=node/4426. 52 Brügger, Web History, 7.

28

Martin Schaller

Prize des Journal of the Canadian Historical Association ausgezeichnet. Sein Ansatz ist zu fragen, mit welchen Quellen künftige Historikergenerationen die heutige Geschichte untersuchen werden. Zwangsläufig spielt dabei der Umgang mit digitalen Quellen eine herausragende Rolle. Dennoch betont er: … historians will not all have to become programmers (…) Nor should they. Digital history does not replace close reading, traditional archival inquiry, or going into communities (…) Instead, as with other subfields, historians using digital sources will need to be prepared to work on larger, truly interdisciplinary teams.53

Die British Library hat einen Historiker, Peter Webster, als Berater des Webarchivs engagiert. Gleichzeitig rückt auch der „take off“ des Internets immer weiter in der Zeit zurück – und für viele HistorikerInnen ist es auch eine Schwelle, allzu zeitnah zu arbeiten, wie auch Peter Webster schreibt.54 Wolfgang Schmale argumentiert ähnlich: In Bezug auf das Thema der digitalen Geschichtswissenschaft bleibt festzuhalten, dass das Netz (Internet und Web) den anskizzierten zivilisatorischen Wandel codiert. Das ist zugleich Geschichte, die sich im Netz vollzieht.55

Ein weiterer, wichtiger Grund ist, dass sich die Kommunikation immer weiter ins Netz verlagert. PolitikerInnen und andere Personen von öffentlichem Interesse twittern und haben eigene Facebook-Seiten. Manche Blogs haben einen ebenso großen Einfluss auf die öffentliche Meinung wie die traditionellen Medien. Aber auch in der Wissenschaft verlagert sich die Kommunikation. Blogs und Twitter sind Formen des wissenschaftlichen Austausches und werden entsprechend stark genutzt. Deswegen wird diese Quelle zunehmend an Bedeutung gewinnen. Der Umgang mit digitalen Quellen, wie es das Webarchiv darstellt, verlangt also von interessierten HistorikerInnen, eine geänderte Herangehensweise, welche sehr viel mehr in Richtung „Digital Humanities“ geht als die Arbeit mit digitalisierten Quellen, die letztlich ein Abbild der klassischen Quellen sind. CONCLUSIO Zurück zur konkreten Ausgangsfrage: ist es nun eine „Liberation of the newspaper“? Um bei der Metapher zu bleiben, lässt sich die Situation wohl am besten umschreiben, dass durch Projekte wie das Europeana Newspapers Project die „Ketten der Zeitung“ gelockert sein mögen, aber frei ist diese noch nicht. Das zeigt sich beispielsweise, wenn zum Raum der Donaumonarchie gearbeitet wird. Während der digitale Bestand der Österreichischen Nationalbibliothek vor allem die deutschsprachige überregionale Presse abdeckt, wie beispielsweise mit den Beständen der 53 Ian Milligan, Mining the ‚Internet Graveyard‘: Rethinking the Historian’s Toolkit, in: Journal of the Canadian Historical Association/Revue de la Société historique du Canada 23/2012, 26– 27. 54 Peter Webster, Why historians should care about web archiving. Online unter: http://peterwebster.me/2012/10/08/why-historians-should-care-about-web-archiving 55 Schmale, Geschichtswissenschaft, 116.

Arbeiten mit digital(isiert)en Quellen: Herausforderungen und Chancen

29

„Wiener Zeitung“, der „Presse“ oder des „Österreichischen Beobachters“, decken Landesbibliotheken regionale Zeitungen ab, welche aber durch Kooperationen bereits teilweise zugänglich gemacht wurden. Viele Zeitungen jedoch in den diversen Sprachen der Donaumonarchie, von Erscheinungsorten, welche heute außerhalb der österreichischen Grenzen liegen, sind nur unzureichend erschlossen, während die Nationalbibliotheken der Nachfolgestaaten den Fokus bevorzugt auf Bestände in den jeweiligen Landessprachen legen. Als Quelle betrachtet, bieten die digitalisierten Bestände somit nur einen beschränkten Einblick – dessen muss man sich als ForscherIn bewusst sein. Auch die Arbeit vor Ort wird trotz der mannigfaltigen Bemühungen weiterhin ein wichtiger Bestandteil geschichtswissenschaftlichen Arbeitens bleiben. Auf die Zeitungsdigitalisierung bezugnehmend hat Hans-Jörg Lieder von der Staatsbibliothek zu Berlin ein treffendes Bild entworfen, welches für die Digitalisierung an sich ebenso passend ist.56 Er vergleicht den aktuellen Stand mit einem Marathon kurz nach dem Start. Für die ersten Läufer sind die ersten Meter bereits geschafft, andere haben noch gar nicht die Startlinie überquert. Gemein ist aber allen Teilnehmern, dass noch ein langer Weg zu meistern ist und auch gar nicht so klar ist, ob dieser nach 42,195 Kilometern tatsächlich endet. Gleichzeitig müssen aber auch verschieden hohe Hürden überwunden werden. Eine zentrale Frage ist dabei, ob und wie die Qualität des Volltextes noch erhöht werden kann. Dennoch ist klar, dass der Bestand, welcher bereits online zugänglich ist, ein großer Schritt vorwärts ist und auch genutzt werden kann, wenn die gegebenen Einschränkungen im Blick behalten werden. Diese Entwicklung wirft allerdings weitere Fragen auf, die hier nur angerissen werden können. Beispielsweise wird die Beziehung zwischen breiter, interessierter Öffentlichkeit und der historischen Forschung nur implizit behandelt, diese beeinflusst aber den Handlungsspielraum beider Seiten. Reine Forschungsprojekte sind, wie im Fall des erwähnten Projektes zur Digitalisierung der DDR-Presse, nur eingeschränkt zugänglich. Breiter angelegte Projekte, welche keinen thematisch abgeschlossenen Bestand im Fokus haben, könnten wiederum für die Forschung nur einen begrenzten Wert haben, während für die interessierte Öffentlichkeit gerade darin der Reiz liegen mag. Es ergeben sich aber auch Fragen zur Quellenkritik digitaler und digitalisierter Objekte in einem längeren Zeitraum. Digitale Daten müssen langfristig gesichert und zugänglich gemacht werden. Das heißt aber zwangsläufig, dass Kopiervorgänge und Formatumwandlungen nötig sein werden. Speicherplatzmangel kann die Migration von unkomprimierten Daten in komprimierte Dateiformate erfordern. Gleichzeitig muss aber die Qualität der individuellen Datei gewahrt werden. Digitale Daten können aufgrund der binären Struktur zwar fehlerfrei kopiert oder umgewandelt werden57, allerdings ist es

56 Hans Jörg Lieder in seinem Vortrag „Europeana Newspapers…in aller Kürze“, den er am Europeana Newspapers Project Information Day am 16. Oktober 2014 in Wien gehalten hat. Präsentation online unter: http://de.slideshare.net/Europeana_Newspapers/europeananewspapersonbinfodayhjlieder. 57 Margulies, Digitale Daten, 333–334.

30

Martin Schaller

eine große Herausforderung, Prozesse zu gestalten, die sicherstellen, dass jede einzelne Datei fehlerfrei kopiert wird. Diese Vorgabe, dass der Prozess fehlerfrei ausgeführt werden muss, auf Millionen von einzelnen Dateien anzuwenden, stellt äußerst hohe technische und organisatorische Anforderungen.58 Für digitale Quellen in Webarchiven stellt sich die Situation wiederum etwas anders dar. Noch ist nicht klar, wie diese Quellen von der Geschichtswissenschaft künftig genutzt werden, welche Fragen an das Archiv gestellt werden, aber auch welche Fragen von diesem Archiv überhaupt beantwortet werden können. Ob die Fülle des archivierten Bestandes tatsächlich einen Paradigmenwechsel mit sich bringen wird, muss sich erst zeigen. Bis jetzt scheinen sich Arbeiten eher auf die Geschichte von Webseiten zu beziehen und daher diese Quellengattung „klassisch“ zu bearbeiten.59 Es wird spannend zu beobachten, wie diese Quellen in Zukunft genutzt werden und in welchen Themenfeldern sie bearbeitet werden.

58 Das Projekt SCAPE beschäftigte sich beispielsweise mit derartigen Aspekten. Online unter: www.scape-project.eu. 59 Siehe beispielsweise: Albrecht Hofheinz, A History of Allah.com, in: Niels Brügger (Hg.), Web History, New York 2010, 105–136.

STIMMEN HÖREN. AUDIOQUELLEN ALS DIGITALE OBJEKTE Thomas Walach 1. EINLEITUNG Seit Menschen sich ihrer Geschichte vergewissern, werden die Artefakte ihrer individuellen Erinnerung auf zwei unterschiedliche Arten als kollektive Erinnerungen organisiert: entweder in dinglichen Informationsspeichern (Inschriften, Akten, Bücher, etc.), wodurch die Erinnerung eine mit Händen greifbare Qualität erhält; oder als immaterielle Informationen (Ritualhandlungen, Lieder, Erzählungen, etc.)1, die oft nicht ständig fixiert sind, sondern mit jedem Aufruf neu manifestiert werden. Dass keine dieser Erinnerungsweisen objektive Quellen hervorbringt, die aus sich heraus sprechen und nur eine einzige – die wirkliche oder wahre – Lesart zulassen, ist geschichtswissenschaftliches Axiom. Davon unbenommen ist die Tatsache, dass bestimmte Informationen sich nur unzureichend materialisieren lassen, beziehungsweise manche Erinnerungen sich dafür tendenziell besser eignen als andere. So eignet sich etwa Verschriftlichung, die bevorzugte Erinnerungsweise der Neuzeit, schlecht, um Klangartefakte zu bewahren.

Franz Schubert, Wandrers Nachtlied. Autograph (Faksimile online verfügbar unter: http://commons.wikimedia.org/wiki/File:Wanderers_Nachtlied_Autograph_Facsimile_W._Dahms,_1913.jpg) zuletzt aufgerufen am 03.10.2014.

Obwohl diese Quelle das Gegenteil von sich behauptet, ist das, frei nach René Magritte, kein Lied. Vielmehr handelt es sich um einen Korpus von regelhaften Hinweisen zur Neuhervorbringung eines Liedes, gewissermaßen eine Anleitung zur Manifestation einer immateriellen Quelle. Tatsächlich ist es eigentlich überhaupt nicht möglich, Klang im Sinne dinglicher Informationsspeicher zu archivieren, weil er

1

Vgl. Joke Brouwer/Arjen Mulder, Information is Alive, in: Joke Brouwer u. a. (Hg.), „Information is Alive. Art and Theory on Archiving and Retrieving Data“, Rotterdam 2003, S. 4.

32

Thomas Walach

immer nur ist, während er gerade klingt. Wenn aber ein Klang beliebig reproduzierbar ist, verliert dieser ontologische Unterschied seine praktische Bedeutung. Mittels digitaler Aufnahme- und Wiedergabetechniken lässt sich ein Lied in exakt der Art und Weise, in der es einmal gespielt wurde, beliebig wiederholen – es ist bei jeder Wiedergabe ein neues Klangensemble, steht immer noch an Stelle des ursprünglich aufgenommenen, wird aber für den Zuhörer als so perfektes Simulacrum operationalisierbar gemacht, dass sein Stellvertretercharakter nicht wahrnehmbar ist. Variieren können alleine die physischen, psychischen und diskursiven Bedingungen der Wahrnehmung der so fixierten Klänge. Im beginnenden 19. Jahrhundert standen solche Techniken nicht zur Verfügung. Jede Reproduktion eines Liedes war eigentlich seine Neuschöpfung nach überlieferten Parametern – diese, und nicht die eigentliche Erinnerung waren Gegenstand der Archivierung. Musiknoten sind eigentlich Metadaten von Musik. Eine noch stärkere Abstrahierung und Vereinfachung stellt die Speicherung von Sprechakten durch Schrift dar. Hier fehlen selbst basale Anleitungen zur Neuhervorbringung des Originals bezüglich Tonhöhe, Rhythmus, Tempo und Betonung, wie sie in Notenschrift angelegt sind. Das sind keine wichtigen Faktoren, ließe sich entgegnen; die Sprachinformation ist nicht primär in diesen Eigenschaften codiert sondern in Syntax und Semantik. Ich frage mich, ob wir nicht mangels Alternativen zu dieser Wahrnehmung von Sprache gelangt sind; ob nicht eine jahrtausendelange Generationenfolge die Kompensation sprachlicher Mangelerfahrung durch Schriftkultur eingeübt und so sehr verinnerlicht hat, dass uns eine unvollkommene Erinnerungsweise als adäquat erscheint. Die Realität der Quellen, könnte man in Abwandlung von Niklas Luhmanns Diktum über Massenmedien sagen, besteht in ihren eigenen Operationen.2 Die Verschriftlichung der Erinnerung ist ein selbstreferentiellen Prozess, der, durch seine eigenen Mittel und Medien konserviert, selbst seine diskursiven Rahmenbedingungen schafft und so gleichzeitig seine Geschichte und zukünftige Lesarten formiert. Die Schrift als bevorzugte Techne gemeinsamen Erinnerns schuf um sich eine Schriftgalaxis, die das Erinnern strukturierte und begrenzte. Ein Gehörloser kann lernen, sich in seiner Umgebung ohne akustische Informationen zu orientieren. Möglicherweise würde er zu dem Schluss kommen, ihm fehle nichts. Aber wenn er die Möglichkeit bekäme, zu hören? Die Geschichtswissenschaft hat mühsam gelernt, weitgehend ohne die menschliche Stimme auszukommen, indem sie Praktiken hervorbrachte, dem Mangel an akustischen Erinnerungen beizukommen. Aber das war keine freiwillige, sondern eine notwendige Entwicklung. Wir stehen inmitten der tonlosen Schriftgalaxis, weil vorangegangene Generationen keine Möglichkeit hatten, Klangerinnerungen zu speichern. Diese Grundbedingung existiert nicht mehr.

2

Vgl. Niklas Luhmann, Die Realität der Massenmedien, Wiesbaden 2009, 4. Auflage, S.11.

Stimmen hören. Aduioquellen als digitale Objekte

33

1.1 EXKURS: EMOTIONEN ALS QUELLE In den Städten der Mexica vor der spanischen Eroberung dienten Emotionen als performativer Akt gesellschaftlicher Sinnstiftung. Das gemeinsame Zeigen von Gefühlen war ein Gefühle-tun, das in der Vorstellung der Menschen konkrete Auswirkungen hatte. So weinten sie gemeinsam um die kleinen Kinder, die jedes Jahr zum Wohl der Gemeinschaft (und der Welt) als ‚blutbefleckte Maisblüten‘ dem Regengott Tlaloc geopfert wurden, und es waren die Tränen der Trauernden, die den Regen brachten.3 Die monastische Welt des Mittelalters war in der Idealvorstellungen ihrer Zeit eine Welt innerer Einkehr und Mäßigung, denn Wut war Sünde. Dass die Realität des täglichen Zusammenlebens oft genug ganz anders aussah und die Mönche gelegentlich auch vor ernsthaften Handgreiflichkeiten nicht zurückschreckten4, tut diesem Anspruch keinen Abbruch. Dennoch wurden den Gefühlen der Mönche Ventile geboten, ja sie sogar kanalisiert und einem gemeinsamen Zweck nutzbar gemacht. Indem der Furor der Mönche in rituellen Flüchen auf den Teufel oder weltliche Feinde des Klosters gerichtet wurde, vergewisserte sich die Gemeinschaft ihrer Kohärenz und Identität durch gemeinsames Gefühle-tun. Das mittelalterliche Denken unterschied zwei Arten von Zorn: Die erste ist Ergebnis innerer Unruhe und schädlich. Die zweite entsteht aus religiöser Hingabe und ist eine Tugend.5 An emotional-performativen Akten teilzunehmen heißt private Empfindungen in kollektiven Sinnzusammenhängen sichtbar zu machen. Dieses Sichtbar-machen, das Gefühle-tun sagt viel über die Konstitution von Gesellschaft und die Struktur der darin möglichen Selbstbilder. Die diskursive Tiefenstruktur einer sozialen Gruppe bildet sich nicht so sehr im Sagbaren ab wie in den Grenzen und Möglichkeiten der emotionalen Performanz. Wie können wir das Gefühle-tun längst vergangener Generationen nachvollziehen? Das ist die implizite eigentliche Grundfrage der Kulturgeschichte. Barbara Rosenwein hat die Schwierigkeiten aufgezeigt, angesichts der Quellenlage eine Geschichte der Emotionen des Mittelalters zu schreiben: Immer wieder stoßen wir auf Gemeinplätze, die wohl etwas über den emotionalen Diskurs aussagen, aber wenig oder nichts über die tatsächliche Gefühlswelt einer Person.6 Implizit meint Rosenwein, wenn sie von Quellen spricht, Schriftquellen. Wenn wir aber über Quellen verfügten, in denen Emotionen unmittelbarer zum Ausdruck kämen? Die Methode der teilnehmenden Beobachtung ist uns verwehrt; welcher Historiker hätte sich nicht schon einmal gewünscht, dort gewesen zu sein und neidvoll auf die Anthropologie geschielt? Wir haben das Archiv, aber das Archiv spricht nicht. Es ist die Singularität der Papiergalaxis. Seine Kartons sind mit Syntax und Semantik voll bis 3 4 5 6

Vgl. Inga Clendinnen, Aztecs. An Interpretation, New York 1991 (repr. 2006), S. 98–99. Vgl. Steffen Patzold, Konflikte im Kloster. Studien zu Auseinandersetzungen in monastischen Gemeinschaften des ottonisch-salischen Reichs, Hamburg 2000 Vgl. Lester K, Little, Anger in Monastic Curses, in: Barbara H. Rosenwein, Anger’s Past. The Social Uses of an Emotion in the Middle Ages, Ithaca/London 1998, S. 9–35, insbes. S. 12. Vgl. Barbara H. Rosenwein, Emotional Communities in the Early Middle Ages, Ithaca/London 2006, S. 93.

34

Thomas Walach

zum Rand, dafür öfter als nicht ohne jede Nachricht über das Fühlen. Stellen wir uns doch einmal vor, sie wären stattdessen mit Stimmen angefüllt... 2. HITLER PRIVAT MÖGLICHKEITEN DER ORAL HISTORY Der Exkurs über Emotionen als Quellen soll anhand eines Aspekts verdeutlichen, dass Schriftquellen, die bevorzugte Beute der Historiker, in ihrer Aussagequalität begrenzt sind. Ganz ähnliche Überlegungen führten zur Etablierung der Oral History als allgemein akzeptierte Methode historischer Forschung in den späten 1940er und frühen 1950er Jahren des 20. Jahrhunderts.7 Dennoch hat sich bis heute die Geschichtswissenschaft die spezifischen Qualitäten von Oral History Interviews nicht konsequent zu Nutze gemacht. Worin bestehen diese Vorzüge? „There is something about thought expressed spontaneously in conversation that is different from the more carefully chosen words put in writing. Nowhere is this more striking than in listening to recorded conversations with their individual voices, cadences and intonations.“8

Diese Erkenntnis gibt John Peters den Hörern der Begleit-CD seiner „Oral History of Modern Architecture“ mit. Dass aufgenommene Stimmen einen distinkten Charakter haben, der sie von geschriebenen Worten in ihrer Aussagekraft unterscheidet, sollen folgende Sätze exemplifizieren. Sie sind sehr vielen Menschen bekannt, und zwar nicht in erster Linie in schriftlicher Form, sondern als aufgezeichnete Stimmen. Beim Lesen evozieren sie unmittelbar Klangerinnerungen: „I have a dream!“9 „That’s one small step for men, one giant leap for mankind.“10 „Ich bin ein Berliner.“11 „Wir sind zu Ihnen gekommen, um Ihnen mitzuteilen, dass heute Ihre Ausreise...“12

7

Vgl. David Ritchie (auch als Hg.), The Oxford Handbook of Oral History, New York 2011, S. 3–4. 8 John Peters, zit. nach Donald A. Ritchie, Oral History: From Sound to Print and Back again, in: Barry A. Lanman/Laura Wendling, „Preparing the Next Generation of Oral Historians. An Anthology of Oral History Education“, S. 75. 9 Martin Luther King, Washington 28. August 1963, online verfügbar unter: https://archive.org/details/MartinLutherKing-IHaveADream (06:00), zuletzt aufgerufen am 05.10.2014. 10 Neil Armstrong, Mond 20. Juli 1969, online verfügbar unter: http://www.nasa.gov/mission_pages/apollo/apollo11_audio.html (00:15), zuletzt aufgerufen am 05.10.2014. 11 John F. Kennedy, Westberlin 26. Juni 1963, online verfügbar unter: https://archive.org/details/jfks19630626 (01:39), zuletzt aufgerufen am 05.10.2014. 12 Hans-Dietrich Genscher, Prag 30. September 1989, online verfügbar unter: http://www.tagesschau.de/ausland/prager-botschaft-video-101.html (00:03), zuletzt aufgerufen am 05.10.2014

Stimmen hören. Aduioquellen als digitale Objekte

35

„Das tritt nach meiner Kenntnis... ist das sofort, unverzüglich.“13 „Österreich ist frei!“14 „Tor, Tor, Tor, Tor, Tor, Tor! I wer’ narrisch!“15 Diese Sätze wurden als gesprochene Worte (und bewegte Bilder16) Teil des kollektiven Gedächtnisses, zusammen mit dem jeweils unverwechselbaren Klang der Stimmen, deren Tonfall und Sprechhabitus, den Hintergrundgeräuschen und hörbaren technischen Bedingungen ihrer Aufnahme. Geschrieben verlieren sie diese Qualitäten und gleichzeitig an Wirkungsmacht als gemeinsame Erinnerungen. Wie bedeutsam der Klang der Stimme einer historischen Person für deren Wahrnehmung ist, zeigen jene Aufnahmen, die dem Tontechniker Thor Damen am 04. Juni 1942 gelangen, als er heimlich ein privates Gespräch zwischen dem Befehlshaber der finnischen Streitkräfte Carl Gustav Emil Mannerheim und Adolf Hitler, der dem greisen Marschall zum Geburtstag gratulierte, mitschnitt.17 Hitler spricht freundlich und gelöst, mit angenehmer, sonorer Stimme mit leichter dialektaler Färbung. Von dem üblichen Geplärre und sich Ereifern, das Charlie Chaplin oder Helmut Qualtinger zu ihren berühmten Nachahmungen inspirierten, ist nichts zu hören. Viele Menschen finden diese Aufnahme irritierend; dass Hitler spricht wie der eigene Patenonkel hat etwas Beunruhigendes. Tatsächlich erkennen die meisten Hitlers Stimme in Damens Aufnahme nicht einmal, aller Dauerbeschallung durch ZDF-History zum Trotz. Das alles soll nicht bedeuten, Oral History enthielte, wie Ronald Grele schon in den Siebziger Jahren selbstkritisch polemisierte, irgendeine inhärente Wahrheit, einfach nur weil sie Oral History ist.18 Selbstverständlich müssen wir an hörbare Quellen dieselben Maßstäbe der Quellenkritik anlegen wie an jede andere. Wir treffen häufig auf Diskrepanzen zwischen dem Gesagten und der historischen Faktenlage. Viele Erinnerungen sind Ausdruck eines nicht objektivierbaren Selbstbildes. Manche Zeitzeugen haben seltsame Erinnerungslücken, oder lügen schlicht. Und andere scheinen von ihren vorgeschobenen Erinnerungen so überzeugt, dass diese nicht als Hirngespinste auffallen, wie etwa Bruno Dössekker, dessen fiktive Lebenserinnerungen als Benjamin Wilkomirski jahrelang Furore machten.

13 Günter Schabowski, Ostberlin 09. November 1989, online verfügbar unter: http://www. youtube.com/watch?v=b3qVjwzgC2A (00:55), zuletzt aufgerufen am 05.10.2014. 14 Leopold Figl, Wien 05. Mai 1955, online verfügbar unter: http://www.youtube.com/watch? v=jg5EN88gWuI (04:40), zuletzt aufgerufen am 05.10.2014. 15 Edi Finger, Cordoba 21. Juni 1978, online verfügbar unter: http://www.http://www.youtube. com/watch?v=6bso-rtGpnM (02:44), zuletzt aufgerufen am 05.10.2014. 16 Einige dieser Sätze haben zusammen mit Bildern Eingang in das kollektive Gedächtnis gefunden, die später mit den Tonaufzeichnungen montiert wurden. 17 Adolf Hitler, Immola 04. Juni 1942, online verfügbar unter: https://archive.org/details/OnlyKnownRecordingOfHitlerSpeakingInAnUnofficialTone, zuletzt aufgerufen am 05.10.2014. 18 Vgl. Ronald J. Grele, Envelopes of Sound. The Art of Oral History, Second Edition, Revised and Enlarged, Chicago 1985, 2. Auflage, S. 201.

36

Thomas Walach

Paul Thompson, Pionier und prominenter Vertreter der Oral History bedauert in seiner Monographie „The Voice of the Past“, die ob ihrer Popularität beinahe Lehrbuchcharakter hat, dass Historikern bei ihren Interviews nicht dieselben Kenntnisse und Rahmenbedingungen zur Verfügung stünden wie Psychoanalytikern.19 Diese Sichtweise lässt das fundamental unterschiedliche Erkenntnisinteresse beider Wissenschaften außer Acht. Die Psychoanalyse postuliert einen unbewussten Kern menschlichen Tuns, der mit einer anderen Aussagequalität über das Selbst behaftet ist, und zu dem vorzudringen Ziel der etablierten Methodik ist. Eine innere Wahrhaftigkeit historischer Quellen ist aber ein Phantasma, das seit dem Ende des Historismus hoffentlich unwiederbringlich zerschmettert ist. Zu glauben, archivierte Stimmen seien authentischer als andere Quellen ist naiv; der Umkehrschluss ist aber ebenfalls nicht zulässig. Akten, Landkarten, Register, sind vom Nimbus scheinbarer Objektivität umgeben und dennoch menschliche Artefakte, deren Produzenten nicht notwendigerweise frei von Irrtümern oder Täuschungsabsichten waren und in keinem Fall außerhalb der Diskurse ihrer Zeit stehen konnten. Es ist die Kernaufgabe von Historikern, sich mit jedweder Quelle im vollen Bewusstsein ihrer Subjektivität zu befassen. Die Oral History lädt uns geradezu ein, uns der Subjektivität einer Quelle gewahr zu werden, eben weil das menschliche Subjekt uns als Produzent der Quelle unmittelbar entgegen tritt. Die Tatsache, dass die Audio-Video-Dimension von Oral History notorisch vernachlässigt wird, ist unter Zeithistorikern ein Gemeinplatz.20 Leider standen der effektiven Nutzung der einmal aufgezeichneten Stimme technische und ökonomische Hindernisse im Weg. Eine Magnetkassette nimmt vergleichsweise viel Platz ein, Abspielgeräte umso mehr. Das ist für jedes Archiv ein bedeutender Faktor – vielleicht nicht bei einigen Dutzend Aufnahmen, wohl aber bei hunderten, sicher bei tausenden oder zehntausenden. Man stelle sich vor, jede Aktenseite im Archiv wäre auf Tonbändern archiviert! Dazu ist die Lebensdauer von Tonbändern äußerst begrenzt. Papier hingegen, obwohl stets bedroht von Tintenfraß und anderen Widrigkeiten – im Safe des tschechischen Nationalarchivs lagern zum Beispiel bedeutende Dokumente mit hellrosa leuchtender Farbe, Resultat eines missglückten Konservierungsversuchs – kann unter günstigen Bedingungen Jahrhunderte unbeschadet überdauern. Im Jüdischen Museum in Basel hängen mittelalterliche Königsurkunden mit Klebeband an Korkwänden befestigt in einer staubigen Ecke. Sicher kein wünschenswerter Zustand, aber einer der zeigt: Schriftquellen können das ab. Spulen sie doch ein Magnetband ab und kleben es für ein paar Jahrzehnte an die Wand! Tauchen Sie eine Schellackplatte in experimentelle Chemikalien! Auch bei der musealen Rezeption gibt es Schwierigkeiten. Eine Urkunde oder ein Bild lassen sich abfotografieren und vergrößern oder gleich als Original in einen 19 Vgl. Paul Thompson, The Voices of the Past. Oral History, New York 2000, 3. Auflage, S. 173–174. 20 Vgl. Michael Frisch, Oral History and the Digital Revolution: Towards a Post Documentary Sensibility, in: Robert Perks/Alistair Thomson (Hg.), „The Oral History Reader“, New York 2006, 2. Auflage, S. 102.

Stimmen hören. Aduioquellen als digitale Objekte

37

Schaukasten legen. Viele dingliche Quellen, vom monumentalen geometrischen Bronzedreifuß bis zur Dampfmaschine sind ob ihrer räumlichen Präsenz ohnehin prädestiniert, ausgestellt zu werden. Eine gelungene Audio-Installation ist weit schwieriger zu gestalten. Das wesentlichste Manko analoger Tondokumente ist, dass sie sich nur schwer durchsuchen lassen. Während ein geübter Leser ganze Absätze in den Blick nehmen und nach Schlagwörtern durchsuchen kann, ohne sie Wort für Wort lesen zu müssen, verlangt ein Tonband lineares Hören, vom Anfang bis zum Schluss. Bestimmte Stellen wieder zu finden ist nicht leicht. Natürlich kann zu einem Schlagwort ein Timecode notiert werden, ein Magnetband an die richtige Stelle zu spulen kann trotzdem eine enervierende Angelegenheit sein, zeitraubend ist sie obendrein – und Zeit ist angesichts knapp bemessener Forschungsbudgets meist teuer. 3. STIMMEN IM DIGITALEN ARCHIV Die Digitalisierung enthält ein Versprechen für die Oral History: „[...] the actual voice (orality in all its meanings) and embodied voices and context in ever richer video documentation returns to the centre of immediacy and focus in oral history, as in the experiential interview or field documentation setting.“21

Diese Versprechen bestehen darin, die zuvor aufgezählten technischen und ökonomischen Hindernisse eines Audio-Archivs aufzulösen. Wie viel (physischen) Platz benötigt eine mp3-Datei? Für alle praktischen Zwecke: keinen. Selbst exorbitante Datenmengen sind kein grundsätzliches Problem, verglichen mit den Speicherkapazitäten analoger Medien. Eine Festplatte ersetzt mannshohe Türme von Aktenkartons, ein Server-Rack ganze Archive. Andere Aspekte digitaler Speicherung im Archiv werfen neue Widrigkeiten auf, aber keine, die unlösbar scheinen. Ein ständiges Problem stellt der permanente und rasche Wandel technischer Aspekte der Datenspeicherung dar, ein Prozess, der, darüber sollten wir uns keine Illusionen machen, in absehbarer Zeit keinen definitiven Endpunkt erreichen wird; lieber sollten wir uns auf eine konstante Evolution von Speichertechnologien einstellen. Während ich diese Zeilen schreibe, werden etwa neue Katalog- und Metadatenstandards, wie zum Beispiel Resource Description and Access (RDA) und diverse Nachfolger des gleichermaßen verbreiteten wie umstrittenen Machine Readable Cataloguing (MARC) implementiert.22 Digitale Daten sind in noch stärkerem Ausmaß vom Vergessen durch technischen Fortschritt bedroht als analoge Archivalien. Während das zugrundeliegende Konzept, Information in Form von Bytes zu speichern, vom heutigen Standpunkt aus wahrscheinlich die nächsten Generationen überdauern wird, ist das für die spe-

21 Frisch 2006, S. 104. 22 Vgl. Sally Chambers (auch als Hg.), Catalogue 2.0. The Future of the Library Catalogue, London 2013, S. xvi.

38

Thomas Walach

zifischen Anwendungen (Hardware wie Software) dieses Prinzips nicht zu erwarten.23 Tatsächlich sind Teile der ersten Generationen von Computertechnologien bereits effektiv verloren – Computer sterben jung, wie Internet-Pionier Clifford Stoll in einer frühen Polemik gegen die Netzwerkgesellschaft lakonisch feststellte.24 Um digitale Quellen in der Zukunft zugänglich zu halten, müssten wir sie beständig auf neue Speichermedien übertragen und sie dabei nicht nur aus ihrem Überlieferungszusammenhang reißen, sondern uns auch auf die damit verbundene Sisyphus-Arbeit einlassen. Aktuelle Bemühungen wie etwa das Lots of Copies Keep Stuff Safe-Programm (LOCKSS)25 der Universitätsbibliothek Stanford zielen häufig auf die Speicherung von Daten in dezentralisierten Systemen mit Cloud-Architektur ab. Alternativ könnten wir obsolete Speichermedien der Daten gleich mit archivieren. Dann müssten wir auch Kenntnisse und Infrastruktur zu deren Bedienung überliefern, künftig also der Paläographie und anderen historischen Hilfswissenschaften eine Paläoinformatik beigesellen. Diese Überlegungen verweisen auf eine inhaltliche Verknüpfung von Oral History und Computergeschichte: In den Jahrzehnten, die der Digitalen Revolution vorangingen, war sich kaum jemand, auch nicht die unmittelbar an der Entwicklung neuer Technologien beteiligten Akteure der immensen Bedeutung des eingeleiteten Medienwandels bewusst. Folglich wurden kaum Anstrengungen zur systematischen Dokumentation dieser Entwicklung gemacht. Frühe Computertechnologie ist nach menschlichen Maßstäben alt geworden – genau wie ihre Entwickler und frühen Anwender. Es steht zu befürchten, dass in ein oder zwei Jahrzehnten viele Erinnerungen über die Anfänge der digitalen Welt verloren sein werden. Dieser Gefahr könnte durch umfassende und systematische Forschungsanstrengungen der Oral History entgegen gewirkt werden. Noch scheint es aber, dass viele Informatiker sich der historischen Dimension ihres Alltags nicht bewusst sind, und dass andererseits viele Historiker Computergeschichte nicht als relevantes Forschungsfeld erkannt oder diesbezüglich Berührungsängste haben. Bezüglich der digitalen Vermittlung von Forschung brauchen wir uns wohl keine Sorgen zu machen. Netzwerktechnologien haben mediale Räume nachhaltig neu strukturiert. Die weitgehende Akzeptanz einer sich abzeichnenden augmented reality führt schon heute zu einer selbstverständlichen Inkorporation digitaler Inhalte in das alltägliche Erleben, sodass, um nur ein hypothetisches Beispiel zu nennen, etwa die Einrichtung eines W-Lan-Netzwerks, das einen Ausstellungsraum mit Audio-Streams versorgt, wohl problemlos auf kompatible Endgeräte und kompetente Nutzer träfe.

23 Vgl. David Holdsworth, Strategies for Digital Preservation, in: Marilyn Deegan/Simon Tanner (Hg.), „Digital Preservation“, London 2006, S. 34–35. 24 Vgl. Clifford Stoll, Die Wüste Internet, Geisterfahrten auf der Datenautobahn. Frankfurt a. M. 1996, 3. Auflage, S. 34–35. 25 http://www.lockss.org/, zuletzt aufgerufen am 07.10.2014.

Stimmen hören. Aduioquellen als digitale Objekte

39

Die Durchsuchbarkeit von Audio-Quellen stellt, das unterscheidet sie von digitalen oder digitalisierten Schriftquellen, weiterhin ein Problem dar. Während mächtige Werkzeuge zur Stichwortsuche selbst in umfangreichen (maschinen)schriftlichen Quellenbeständen Nutzungsverhalten und Recherchetechniken von Forschern strukturell verändert haben, ist entsprechende Spracherkennungssoftware derzeit nicht verfügbar. Rezente Entwicklungen wie etwa der Oral History Metadata Synchronizer (OHMS)26 des Louie B. Nunn Center for Oral History haben sich gleichwohl als vielversprechend herausgestellt. Die zuvor angesprochenen Qualitäten der menschlichen Stimme, die aus ihrer individuellen Einzigartigkeit resultieren, erweisen sich in diesem Kontext als Hemmschuh. Um wenigstens die Metadatenumgebung von Audio-Quellen zu standardisieren, wurden unterschiedliche Schemata implementiert. Das verbreitetste und mittlerweile paradigmatische ist der Dublin Core Standard (DCMI).27 Er hat sich als Grundlage für Interoperabilität und Lingua Franca digitaler Archive etabliert.28 Seine 15 Kernelemente wurden als ISO 15835:2009 und ANSI/NISO Z39.85-2012 zertifiziert. DCMI ist auch jene Metadatenstruktur, auf die sich die Open Archives Initiative (OAI)29 bezieht, die ein Protokoll zur Aufnahme von Metadaten in ein zentrales Service forciert (OAI-PMH), das unabhängig durchsucht werden kann und so die Vernetzung von digitalen Repositorien fördert. Das vielleicht wichtigste Potential digitaler Audio-Archive liegt in ihrer grundsätzlich möglichen Offenheit. Nicht nur dient das Archiv in einer demokratischen Gesellschaft als kollektiver Gedächtnisspeicher und ist also die Verkörperung eines Verständnisses, das die Daten darin prinzipiell als „shared resource“30 betrachtet; auch praktische Erwägungen spielen eine Rolle: Zieht man die Diskrepanz zwischen dem Wunsch nach historischer Grundlagenforschung als a) quellenbasiert und b) trans- beziehungsweise international in Betracht, wird angesichts der üblichen Reisebudgets in den Humanities die eminente Prominenz eines Open-Access Desiderats für Oral History-Archive deutlich. Dies wird noch durch die Tatsache unterstrichen, dass sogar spezialisierte und international hochgeschätzte Oral History-Archive wie die weiter unten beschriebenen Oral History-Sammlungen der British Library, des Computer History Museum oder der Library of Congress nur eingeschränkten Online-Zugang zu ihren Beständen gewähren – ohnehin in erfreulicher Abgrenzung zu vielen Archiven, die bisher gar keine Anstrengungen unternommen haben, ihre Audio-Quellen im Netz

26 http://ohda.matrix.msu.edu/2011/11/ohms/, zuletzt aufgerufen am 07.10.2014. 27 Vgl. Abby Clobridge, Building a Digital Repository Program with Limited Resources, Oxford 2010, S. 89. http://dublincore.org/, zuletzt aufgerufen am 07.10.2014. 28 Vgl. Catherine Jones, Institutional Repositories: Content and Culture in an Open Access Environment, Oxford 2007, S. 85. 29 http://www.openarchives.org/, zuletzt aufgerufen am 07.10. 2014. 30 Charlotte Hess/Elinor Ostrom (auch als Hg.), Introduction: An Overview of the Knowledge Commons, in: „Understanding Knowledge as Commons. From Theory to Practice“, Cambridge/London 2007, S. 3.

40

Thomas Walach

zugänglich zu machen. Die Erkenntnis, dass zu einem Bekenntnis zu Wert und Qualität von Forschung auch die Verantwortung gehört, die Zirkulation der Ergebnisse so stark wie möglich auszuweiten, idealerweise zu allen, die sich dafür interessieren und davon profitieren könnten31, scheint bei vielen Oral History-Archiven noch nicht angekommen zu sein, oder wirtschaftliche Hindernisse nicht überwinden zu können. Die geforderte Offenheit ist idealerweise eine doppelte. Erstens sollen Nutzer Archive nach Daten durchsuchen und diese aufrufen können; zweitens sollen sie, analog zum grassroots-journalism und der Wikipedia-Bewegung in einem peerreviewed process auch eigene Klangartefakte zur Verfügung stellen können. Dazu müssten Standards bezüglich Inhalt, Form und technischen Attributen implementiert und soweit als möglich automatisiert werden. Ähnlich den unzähligen Sondengängern, die bei umsichtiger Einbindung der Archäologie unschätzbaren Nutzen bringen können, würde jede Person mit Smartphone oder Diktiergerät zu einem potentiellen Quellenproduzenten. Die Dichotomie von Nutzer und Forscher würde stärker als heute aufgelöst und die Digital History eine Popularisierung erfahren – in einer Form, die unmittelbar wissenschaftlich nutzbar gemacht werden könnte. 4. BEST PRACTICE Eine Reihe von Oral History-Archiven haben begonnen, digitale Räume zur Präsentation ihrer Bestände zu nutzen. Wenn sie auch von einem echten digitalen Archiv weit entfernt sind – dies würde die vollständige Umsetzung des Open AccessDesiderats und die Einbindung wirkungsvoller Stimmerkennungssoftware und Suchmaschinen voraussetzen – können sie doch als Beispiele einer Avantgarde der Digital Humanities gelten, die Klangerinnerungen als digitale Objekte reflektiert und bewusst zugänglich macht. Kaum eine Institution weltweit verfolgt so intensive Bemühung in Richtung systematischer Sammlung von Oral History Interviews wie die British Library (BL). Ihre Sammlungen sind um eine Reihe von thematischen Foki gruppiert, die eine Bandbreite von klassischen Gegenständen der Oral History („Jewish experience in Britain and Holocaust testimonies“) über die Auseinandersetzung mit der britischen Kolonialgeschichte („Ethnicity and post-colonialism“) bis hin zu Alltagsgeschichte („Food and drink“) abdecken.32 Das hochgesteckte Ziel der fortlaufenden Sammlungsbemühungen der BL besteht in der Audio-Dokumentation sämtlicher Lebensbereiche des kontemporären Vereinigten Königreichs. Beispielhaft für dieses Bemühen ist das Projekt „Millennium Memory Bank“, ein Joint Venture der BL, der BBC und lokalen Radiosendern. Im Jahr 2000 wurden mit insgesamt 6.000 Menschen „of all ages and backgrounds“ Interviews zu 16 Themen (darunter 31 Vgl. John Willinsky, The Access Principle. The Case for Open Access to Research and Scholarship, Cambridge/London 2006, S. 5. 32 Vgl. http://www.bl.uk/reshelp/findhelprestype/sound/ohist/ohcoll/collections.html, zuletzt aufgerufen am 08.10.2014.

Stimmen hören. Aduioquellen als digitale Objekte

41

„Where we live“, „Growing up“ und „Getting older“ oder „Technology“) geführt.33 Ein nationaler Referenzrahmen kennzeichnet sämtliche Aktivitäten der BL in diesem Bereich. Etwa 50.000 Klangartefakte – neben Oral History auch Musik, Naturgeräusche und Aufzeichnungen von Dialekten und Akzenten – sind digitalisiert und über die British Library Sound Website für wissenschaftliche Institutionen ganz, für andere Nutzer teilweise zugänglich, sämtliche Metadaten zu jedem Objekt sind veröffentlicht.34 Ein Blog informiert User über rezente Aktivitäten und zukünftige Projekte des Archivs.35 Die Klangsammlungen der Washingtoner Library of Congress sind Teil der Digital Collections der Bibliothek, deren Aufbau teilweise erratisch anmutet. So finden sich etwa Oral History-Quellen in verschiedenen Teilbereichen der kulturwissenschaftlich orientierten Sammlung „American Memory“36 oder im „Veterans History Project“37, andere Klangartefakte in weiteren Sammlungen. Im Unterschied zur BL organisiert die Library of Congress also Audio-Quellen nicht als gemeinsamen Korpus sondern als eine Quellengattung unter vielen. Ein interessantes Beispiel ist das Computer History Museum in Mountain View, California, mitten im Silicon Valley. Der Referenzrahmen des Museums, das sich von einem schrankgroßen Ausstellungsraum 1975 zu einem hypermodernen Museum mit über 11.000 m2 Ausstellungsfläche plus Lager- und Archivräumen entwickelt hat38 ist im Unterschied zu staatlichen Einrichtungen wie der BL oder der Library of Congress kein nationaler. Hier stehen stattdessen Technikentwicklung und biographische Erzählungen zur Computergeschichte im Mittelpunkt des Interesses. Bezeichnend, dass selbst die Oral History-Sammlung dieses Museums größtenteils in Form von Transkripten veröffentlicht ist. 14 Interview-Videos sind aber in der Beta-Version eines interactive transcript feature zugänglich, das es Nutzern 33 Vgl. http://www.bl.uk/reshelp/findhelprestype/sound/ohist/ohcoll/ohmaj/majorprojects.html, zuletzt aufgerufen am 08.10.2014. 34 http://sounds.bl.uk/, zuletzt aufgerufen am 08.10.2014. Der metadata record zum Objekt „Cat, Felis catus“ in der Sammlung „British wildlife recordings“ lautet beispielsweise: „The British Library The British Library http://sounds.bl.uk/JISC ASR IPR STATUS LIST.xls Felis catus: Domestic cat – Felidae W1CDR0001417 BD22 Love them or hate them, the domestic cat is one of the most popular pets in the UK today. Cats were first domesticated 4000 years ago by the Ancient Egyptians who used them to control vermin and other pests to protect food stores. Later other ancient civilisations began to keep cats and they eventually spread throughout Europe and then into the Americas. The domestic cat is thought to have descended from the African wild cat and even today is known for retaining many of its wild characteristics. Their eyes, body shape and habits make them almost perfect miniature versions of their ancestors and it is this coupled with their unpredictable nature that keep them resident in so many houses throughout the UK. Mammals 1960s OS Grid Reference (173500,205500) sound Cat, Felis catus Shove, Lawrence 00:01:22 00:01:22“. 35 Vgl. http://britishlibrary.typepad.co.uk/archival_sounds/, zuletzt aufgerufen am 08.10.2014. 36 Vgl. http://memory.loc.gov/ammem/index.html, zuletzt aufgerufen am 08.10.2014. 37 Vgl. http://www.loc.gov/vets/, zuletzt aufgerufen am 08.10.2014. 38 Vgl. Gordon Bell, Out of a Closet: The Early Years of the Computer [x]* Museum (Microsoft Technical Report MSR-TR-2011_44), Redmond 2011, S. 1–2.

42

Thomas Walach

erlaubt, mittels Stichwortsuche oder Klick in ein Transkript zur jeweils korrespondierenden Stelle des Videos zu springen.39 Hier wird mangels potenter Spracherkennungssoftware eine mit der Audioaufnahme verbundene schriftliche Metaquelle erzeugt, die dem Zweck dient, etablierte Technologien indirekt auf die Audioquellen anwenden zu können – ein Workaround also, um in der Sprache der Computertechnik zu bleiben. Über ihre Website der Sammlung werden Besucher dazu aufgefordert, Vorschläge für weitere Interviewpartner oder Panels zu machen: „To suggest a panel topic or an interviewee, please email your suggestion and a short explanation describing the relevance to computing history to Oralhistory. Please be sure to also include your complete contact information and, if available, that of the prospective interviewee.“40

Die geforderte doppelte Offenheit von digitalen Audio-Archiven ist in diesem Projekt teilweise verwirklicht, wenn auch die Nutzer selbst nicht unmittelbar Klangerinnerungen beitragen können. 1.3 FAZIT Zurück zum Anfang: Jedes Schreiben und Sagen über digitale Erinnerungskulturen muss streiflichtartig, vorläufig sein. Zu rasant sind die Entwicklungen ihrer technischen Grundlagen, die nicht mehr als ein Jahrzehnt benötigen, um eine neue Klasse von Computern hervorzubringen41 – eine Evolution im Zeitraffer –, als dass irgendeine Vorausschau Gültigkeit über ihr Erscheinen hinaus beanspruchen könnte. Unterschiedliche Adaptionen von „Moore’s Law“ gehen von einer Verdoppelung der Komponenten auf einem Computerchip in zwölf, 18 oder 24 Monaten aus, was, weil stets eine exponentielle Steigerung zugrunde gelegt wird, in höchst unterschiedlichen Ergebnissen resultiert. Die Zahl der Komponenten würde demnach in einer Dekade 32-fach bis 1024-fach ansteigen.42 Selbst die vorsichtigsten Schätzungen sind schwindelerregend. Wie unangemessen, diese Rasanz zu reflektieren, wirkt da die Publikationsform Buch! Dass die Digital Humanities dennoch häufig daran festhalten ist nicht etwa (nur) der Macht der Gewohnheit und den Beharrungskräften wissenschaftlicher Kommunikationskultur geschuldet. Die Langsamkeit ist auch ein selbst verordnetes Innehalten. Begreifen wir die relative Langsamkeit doch als Tugend, die uns zwingt, den Blick auf Konstanten zu richten und noch im Umbruch die longue durée zu suchen. Eine anthropologische Konstante ist die eingangs beschriebene Organisation kollektiver Erinnerungen. Jedweder Wandel dieses Prozesses bezieht sich stets auf 39 Vgl. http://www.computerhistory.org/collections/oralhistories/, zuletzt aufgerufen am 08.10. 2014. 40 http://www.computerhistory.org/collections/oralhistories/, zuletzt aufgerufen am 08.10.2014. 41 Vgl. Bell 2001, S. 2. 42 Vgl. Ilkka Tuomi, The Lives and Death of Moore’s Law, in: First Monday 7/11 2002, verfügbar unter: http://firstmonday.org/ojs/index.php/fm/article/view/1000/921.

Stimmen hören. Aduioquellen als digitale Objekte

43

das wie, nicht auf das ob. Und obgleich aus unserer Eintagsfliegenperspektive die Digitale Revolution bedeutende Veränderungen von Erinnerungskulturen und – techniken mit sich brachte, können wir doch feststellen, dass sich die grundsätzlichen Bedingungen menschlicher Wahrnehmung nicht verändert haben. Wir fühlen, sehen, schmecken und hören die Welt nicht viel anders als die Menschen vor zehn oder hundert Generationen. Unsere Sinne begrenzen und strukturieren unser Erleben weitaus stärker als Diskurse oder wissenschaftliche Konventionen. Was sich verändert, sind die Bedingungen, im Rahmen derer wir kollektive Erinnerungen organisieren. Insbesondere betrifft das die Frage, welche Erinnerungen durch welche Techniken effektiv gespeichert und zugänglich gemacht werden können. Diesbezüglich bietet die Digitalisierung einer Sinndimension Raum, die unter den Vorzeichen der Papiergalaxis marginal bleiben musste: dem Hören. Ich habe in meinen Ausführungen Klang und die menschliche Stimme schändlicher Weise beinahe gleichgesetzt. Das ist streng genommen eine grobe Unschärfe. Gleichzeitig verweist meine Nachlässigkeit darauf, dass die Geschichtswissenschaft ihrem Selbstverständnis nach bis vor kurzem eine Wissenschaft historischer Schriftlichkeit war. Schon die Ausweitung des Fokus auf das gesprochene Wort fällt ihr schwer; von Menschen gemachte oder wahrnehmbare Geräusche in ihrem zeitlichen Kontext systematisch zu untersuchen könnte ein nächster Schritt sein. Andere Disziplinen, zumal solche, deren Erkenntnisinteresse sich traditionell auf Klänge bezieht, sind da möglicherweise schon weiter. Ist die menschliche Stimme als Quelle geeignet, nicht nur das Selbstverständnis der Geschichtswissenschaft, sondern auch die Wahrnehmung von Vergangenem nachhaltig zu verändern? Mit anderen Worten: Werden zukünftige Historiker unsere Gegenwart anders interpretieren als ein in die Zukunft projektierter Zeitgenosse das mit dem ausschließlichen Blick auf Schriftquellen tun würde? Ist es also sinnvoll, möglichst viele Klangerinnerungen zu bewahren, um die Perspektive unserer Nachfolger auf unsere eigene Zeit zu weiten? Das sind selbstreflexive Fragen, die sich die Geschichtswissenschaft in Konfrontation mit den Möglichkeiten der Digitalisierung stellen muss, und auf die sie seriöser weise keine Antworten geben kann, die ihrer Natur nach etwas anderes als Spekulationen wären. Gleichzeitig gibt es auch keinen vernünftigen Grund, dieses Urteil nicht den Historikern der Zukunft zu überlassen. Wer sind wir, an ihrer Stelle zu entscheiden, welche unserer Erinnerungen für sie wichtig sind? QUELLEN (IN DER REIHENFOLGE DER REFERENZEN): http://commons.wikimedia.org/wiki/File:Wanderers_Nachtlied_Autograph_Facsimile_W._Dahms,_1913.jpg, zuletzt aufgerufen am 03.10.2014. https://archive.org/details/MartinLutherKing-IHaveADream (06:00), zuletzt aufgerufen am 05.10. 2014. http://www.nasa.gov/mission_pages/apollo/apollo11_audio.html (00:15), zuletzt aufgerufen am 05. 10.2014. https://archive.org/details/jfks19630626 (01:39), zuletzt aufgerufen am 05.10.2014. http://www.tagesschau.de/ausland/prager-botschaft-video-101.html (00:03), zuletzt aufgerufen am 05.10.2014.

44

Thomas Walach

http://www.youtube.com/watch?v=b3qVjwzgC2A (00:55), zuletzt aufgerufen am 05.10.2014. http://www.youtube.com/watch?v=jg5EN88gWuI (04:40), zuletzt aufgerufen am 05.10.2014. http://www.youtube.com/watch?v=6bso-rtGpnM (02:44), zuletzt aufgerufen am 05.10.2014. https://archive.org/details/OnlyKnownRecordingOfHitlerSpeakingInAnUnofficialTone, zuletzt aufgerufen am 05.10.2014. http://www.lockss.org/, zuletzt aufgerufen am 07.10.2014. http://ohda.matrix.msu.edu/2011/11/ohms/, zuletzt aufgerufen am 07.10.2014. http://dublincore.org/, zuletzt aufgerufen am 07.10.2014. http://www.openarchives.org/, zuletzt aufgerufen am 07.10. 2014. http://www.bl.uk/reshelp/findhelprestype/sound/ohist/ohcoll/collections.html, zuletzt aufgerufen am 08.10.2014. http://www.bl.uk/reshelp/findhelprestype/sound/ohist/ohcoll/ohmaj/majorprojects.html, zuletzt aufgerufen am 08.10.2014. http://sounds.bl.uk/, zuletzt aufgerufen am 08.10.2014. http://memory.loc.gov/ammem/index.html, zuletzt aufgerufen am 08.10.2014. http://www.loc.gov/vets/, zuletzt aufgerufen am 08.10.2014. http://www.computerhistory.org/collections/oralhistories/, zuletzt aufgerufen am 08.10.2014.

LITERATUR: Gordon Bell, Out of a Closet: The Early Years of the Computer [x]* Museum (Microsoft Technical Report MSR-TR-2011_44), Redmond 2011. Joke Brouwer/Arjen Mulder, Information is Alive, in: Joke Brouwer u. a. (Hg.), „Information is Alive. Art and Theory on Archiving and Retrieving Data“, Rotterdam 2003. Sally Chambers (auch als Hg.), Catalogue 2.0. The Future of the Library Catalogue, London 2013. Inga Clendinnen, Aztecs. An Interpretation, New York 1991 (repr. 2006). Abby Clobridge, Building a Digital Repository Program with Limited Resources, Oxford 2010. Michael Frisch, Oral History and the Digital Revolution: Towards a Post Documentary Sensibility, in: Robert Perks/Alistair Thomson (Hg.), „The Oral History Reader“, New York 22006. Ronald J. Grele, Envelopes of Sound. The Art of Oral History, Second Edition, Revised and Enlarged, Chicago ²1985. Charlotte Hess/Elinor Ostrom (auch als Hg.), Introduction: An Overview of the Knowledge Commons, in: „Understanding Knowledge as Commons. From Theory to Practice“, Cambridge/ London 2007. David Holdsworth, Strategies for Digital Preservation, in: Marilyn Deegan/Simon Tanner (Hg.), „Digital Preservation“, London 2006. Catherine Jones, Institutional Repositories: Content and Culture in an Open Access Environment, Oxford 2007. Lester K, Little, Anger in Monastic Curses, in: Barbara H. Rosenwein, Anger’s Past. The Social Uses of an Emotion in the Middle Ages, Ithaca/London 1998 Niklas Luhmann, Die Realität der Massenmedien, Wiesbaden 42009. Steffen Patzold, Konflikte im Kloster. Studien zu Auseinandersetzungen in monastischen Gemeinschaften des ottonisch-salischen Reichs, Hamburg 2000. Barbara H. Rosenwein, Emotional Communities in the Early Middle Ages, Ithaca/London 2006. David Ritchie (auch als Hg.), The Oxford Handbook of Oral History, New York 2011. Clifford Stoll, Die Wüste Internet, Geisterfahrten auf der Datenautobahn. Frankfurt a. M. 31996. Paul Thompson, The Voices of the Past. Oral History, New York 32000. Ilkka Tuomi, The Lives and Death of Moore’s Law, in: First Monday 7/11 2002, verfügbar unter: http://firstmonday.org/ojs/index.php/fm/article/view/1000/921. John Willinsky, The Access Principle. The Case for Open Access to Research and Scholarship, Cambridge/London 2006.

II DISSEMINATIONSPRAKTIKEN

WIKIPEDIA UND WEBLOGS IN DER UNIVERSITÄREN LEHRE Anton Tantner Langsam, aber stetig durchdringt die Digitalisierung auch die akademische Lehre und stellt Lehrende wie Studierende vor neue Herausforderungen; wie in vielen anderen Lebens- und Arbeitsbereichen ist der Transformationsprozess derzeit in vollem Gang und weder sind sein Ende samt einer etwaigen Stabilisierung noch seine Konsequenzen absehbar. Wie stark vernetzt mit dem Rest der Gesellschaft wird ein Studium in Zukunft absolviert werden? Braucht es für Lernprozesse möglichst abgeschlossene, sei es kommunen- oder klosterähnliche Rückzugsräume, die Schutz vor den Zudringlichkeiten der Außenwelt bieten? – Es bleibt spannend, die verschiedenen Antworten, die auf derlei Fragen gefunden werden zu beobachten; der hier vorliegende Beitrag1 hat angesichts solcher großen Problemlagen und Herausforderungen ein bescheideneres Anliegen: Aufbauend auf meiner bisherigen Lehrerfahrung als Historiker an der Universität Wien werde ich skizzieren, wie ich Wikipedia und Weblogs in den akademischen Unterricht integriere. Damit können Anregungen gegeben werden, wie die Möglichkeiten des Einsatzes solcher digitalen Tools genutzt werden können.

1

Manche der hier geäußerten Überlegungen beruhen auf: Anton Tantner, Das geschichtswissenschaftliche Weblog als Mittel des Selbstmanagements, in: Peter Haber/Eva Pfanzelter (Hgg.), Historyblogosphere. Bloggen in den Geschichtswissenschaften, München 2013, 75–87, ; Ders., Wikipedia in der universitären Lehre, in: Merkur. Blog der deutschen Zeitschrift für europäisches Denken, 14.3.2014, ; Ders., Publikation, in: Historische Mitteilungen 26/2013, 112–114.

46

Anton Tantner

WIKIPEDIA UND UNIVERSITÄRE LEHRE Am Anfang soll eine etwas provokante These stehen, deren leicht polemischen Duktus vom „very godfather of German history blogs“2 Klaus Graf ausgeborgt ist, der an der Rheinisch-Westfälischen Technischen Hochschule Aachen als Historiker und Archivar tätig ist und als Hauptproponent des meinungsfreudigen Weblogs Archivalia – archiv.twoday.net – auch weit über die Kreise der Geschichtswissenschaft hinaus bekannt wurde; von Klaus Graf stammt das Diktum: „Ein Wissenschaftler, der nicht bloggt, ist ein schlechter Wissenschaftler.“3 Auf das Verhältnis der universitären Lehre zu Wikipedia übertragen, lautet die These: Lehre, die Wikipedia ignoriert oder gar verbietet, ist schlechte Lehre.

Diese Behauptung lässt sich noch zuspitzen: Die hier so inkriminierte Haltung verletzt obendrein noch den akademischen Schwur, der in seiner zum Beispiel an der Universität Wien bereits für AbsolventInnen eines Bakkalaureatstudiums der historisch-kulturwissenschaftlichen Fakultät gültigen Fassung eine Verpflichtung zum „lebensbegleitenden Lerne(n)“ und zur laufenden Aneignung „neue[r] Erkenntnisse“ beinhaltet.4 Was ist Wikipedia anderes, als eine lebensbegleitende, niedrigschwellig zugängliche Möglichkeit des permanenten, aktiven wie passiven Lernens, die auf neue Erkenntnisse schneller reagieren kann als Lehr- und Handbücher auf Papier? Gewiss, Wikipedia wird in der Regel für Informationssuche, für das schnelle Nachschlagen von Fakten und zum ersten Einstieg in ein bislang unbekanntes Thema verwendet, doch gibt es auch vielfältige Nutzungsformen, die darüber hinaus gehen und als Lernprozesse betrachtet werden können: Zum einen in Form von intensiver Lektüre verschiedener Beiträge zu einem Thema, die zum Beispiel auch verschiedene Sprachversionen berücksichtigt, zum anderen durch aktive Beteiligung an der Wikipedia mittels Ergänzung bestehender Beiträge oder der Erstellung von neuen Artikeln.

2 3

4

Otto Vervaart, Crossing many borders: the study of medieval canon law, in: Rechtsgeschiedenis Blog, 22.8.2012, . Klaus Graf, Best of Archivalia (x): Ein Wissenschaftler, der nicht bloggt, ist ein schlechter Wissenschaftler (2011), in: Archivalia, 10.12.2013, . Nachvollziehbarerweise ist die Gültigkeit dieses Diktums äußerst umstritten, da die meisten jener HistorikerInnen, die nach den bislang geltenden expliziten und impliziten Kriterien des analogen Universums – Innehaben universitärer Stellen, Publikationen bei renommierten Verlagen, Reputation in der medialen (Feuilleton-)Öffentlichkeit – als die besten betrachtet werden, nicht bloggen; und doch sollte dieses Verdikt zumindest als Anregung dazu betrachtet werden, die Möglichkeiten des digitalen Publizierens und der Darlegung der eigenen Forschungsthemen für eine erweiterte KollegInnenschaft bzw. interessierte LaiInnen-Öffentlichkeit zu nützen. Formel für die Bakkalaureats-Feier Historisch-Kulturwissenschaftliche Fakultät, univie.ac.at, .

Wikipedia und Weblogs in der universitären Lehre

47

Änderungen bei Wikipedia-Einträgen sowie kontroverse Ansichten zu einzelnen Themen werden in der Online-Enzyklopädie in der Regel besser dokumentiert und sind leichter nachvollziehbar als bei den unterschiedlichen Papier-Enzyklopädien, genauso wie es auch ohne besondere Programmierkenntnisse möglich ist, Verbesserungen einzuarbeiten oder zumindest zur Sichtung vorzuschlagen. Der Status, der den Artikeln der Wikipedia zukommt, ist umstritten; als akademisch abgesichertes Wissen werden sie zumeist nicht betrachtet, doch kommen Vergleiche mit anderen Enzyklopädien und Lexika immer wieder zu dem Ergebnis, dass erstere gleich viel oder weniger Fehler enthalten als letztere.5 Digital Humanities, die unter anderem an einer netzadäquaten Präsentation ihrer Erkenntnisse arbeiten, sind gut beraten, aus den bislang gemachten Erfahrungen der Wikipedia zu lernen und bei den Strategien der Wissensdiffundierung auch die Wikipedia mit einzubeziehen. Gewiss wird es auch in Zukunft sinnvoll sein, fachspezifische Enzyklopädien wie zum Beispiel die Enzyklopädie der Neuzeit zu erstellen, doch ist deren derzeitige Verfügbarkeit (auf Grund ihres Preises nur in Bibliotheken zugängliche Papierversion, kostenpflichtige Online-Version6) zu eingeschränkt, um eine breit rezipierbare Alternative zur Wikipedia darzustellen; wegweisender erscheinen ohne Bezahlhürden zugängliche Angebote wie zum Beispiel das auf dem Historischen Lexikon Wien basierende Wien Geschichte Wiki7, das die Gratwanderung zwischen der Präsentation abgesicherten Wissens samt dessen Verknüpfung mit z. B. kartographischen Ressourcen sowie der Einbeziehung der UserInnen bei der Ergänzung und Aktualisierung dieses Wissens besser einzulösen versucht. Bei all diesem Loblied auf die Wikipedia soll nicht verhehlt werden, dass es selbstverständlich notwendig ist, eine ganze Reihe an Vorwürfen oder Kritik an Wikipediaeinträgen vorzubringen, Vorwürfen, die aber in der Regel auch die weniger mächtigen Enzyklopädien des Papieruniversums betreffen: 1.) Diese Vorwürfe betreffen zum einen den Genderbias, oder deutlicher, das antifeministische Mobbing,8 dem viele Wikipedianerinnen – also Autorinnen der Wikipedia – in einem Umfeld ausgesetzt sind, in dem zwar mit viel Liebe zum Detail die Biographien von Pornodarstellerinnen und die Funktionsweise von Waffen dargestellt werden, dafür aber zum Beispiel die Biographien von NS-Verfolgten wegen angeblich mangelnder Relevanz gelöscht werden.9 Dies ist gewiss kein spe-

5 6 7 8

9

Jim Giles, Internet encyclopaedias go head to head, in: Nature, Bd. 438, 2005, Nr. 7070, 900f.; Horst Güntheroth/Ulf Schönert, Wikipedia – Wissen für alle, in: Stern, Nr. 50/2007, 6.12.2007, 30–44. http://referenceworks.brillonline.com/entries/enzyklopaedie-der-neuzeit/ http://geschichtewiki.wien.at/ Belege dafür auf Archivalia: Klaus Graf, Sue Gardner: „Neun Gründe, warum Frauen nicht bei Wikipedia mitmachen“, in: Archivalia, 20.2.2011, ; Ders., Antifeministische Kampagne in Wikipedia erfolgreich, in: Archivalia, 17.8.2012, . Klaus Graf, „Wikipedia ist ein Lexikon, keine Gedenkplattform“, in: Archivalia, 1.7.2008, ; Ders., Wikipedias Relevanzkeule, in: Archivalia, 5.10.2007, .

48

Anton Tantner

zifisches Problem der Wikipedia, sondern ein allgemein-gesellschaftliches Problem, und es wäre dringend nötig, dass seitens der AdministratorInnen und aufgeschlossenen Communitymitgliedern offensive Gegenmaßnahmen getroffen werden, die eindeutig gegen sexistische und rechtsextreme User und Userinnen vorgehen. 2.) Als zweiter Kritikpunkt sollen die oft mangelhaften Literaturangaben zu den einzelnen Beiträgen genannt werden; oft reicht für Lehrende ein kurzer Blick in einen Artikel zu einem Gebiet ihrer Expertise, um festzustellen, dass, soferne Literatur zitiert wird, diese nicht die maßgebliche zum Thema ist; gewiss könnten sie diese leicht einfügen, eventuell sogar mit einem kurzen Kommentar zur Bedeutung des jeweiligen Buchs, aber oft wird dies dann doch unterlassen. Letzteres Problem der mangelnden Beteiligung von Uniangehörigen an der Wikipedia bezieht sich auf die Frage des Verhältnisses der Wikipedia zur akademischen Welt, auf die Frage des bislang kaum möglichen Reputationsgewinns innerhalb der für sie wichtigen Communities, den auf universitäre Anerkennung angewiesene WissenschafterInnen aus einer Mitarbeit an der Wikipedia ziehen können; erste Versuche, eine Schnittstelle zwischen WikipedianerInnen und WissenschafterInnen zu schaffen, die gerade auch auf solche Verbesserungen der Literaturangaben abzielt, sind hier sehr zu begrüßen.10 Grundsätzlich ist jedoch zu betonen, dass Kritik Definitionsmerkmal jeglicher Wissenschaft ist, und wenn beklagt wird, dass Studierende Wikipedia-Einträge unkritisch übernehmen, vielleicht gar ohne Zitierung plagiieren würden, dann ist es die Aufgabe der Lehrenden, einen kritischen Umgang mit jedem Text – also auch mit Wikipediaartikeln – zu lehren und einzufordern; dazu ist selbstverständlich eine zumindest rudimentäre Auseinandersetzung mit der Funktionsweise der Wikipedia von Nöten. Auch gilt wohl, dass, wenn eine in der Lehre gestellte Aufgabe durch die Abgabe eines Wikipedia-Artikels, sei er nun korrekt zitiert oder aber plagiiert, zur Zufriedenheit der Lehrperson erfüllt werden kann, der Fehler nicht bei der Studentin, beim Studenten liegt, sondern die Aufgabe falsch gestellt war. Viele der wesentlichen Argumente zur Verwendung von Wikipedia brauchen an dieser Stelle nicht wiederholt zu werden, nicht zuletzt dank der intensiven Beschäftigung und Arbeit, die der eingangs erwähnte Klaus Graf unter anderem in seinem Weblog Archivalia geleistet hat;11 gemäß seiner von mir geteilten Position

10 Die Schaffung einer solchen Schnittstelle wurde zum Beispiel im Vorfeld des im März 2014 an der Universität Wien abgehaltenen Workshops „Wikipedia Meets University“ ventiliert. Programm des Workshops: . 11 Die entsprechenden Postings sind unter zu finden.

Wikipedia und Weblogs in der universitären Lehre

49

ist Wikipedia selbstverständlich zitierfähig.12 Des Weiteren kommt Graf das Verdienst zu, einen sehr nützlichen Crashkurs für potenzielle Wikipedia-MitarbeiterInnen verfasst zu haben, dessen Lektüre manche Enttäuschungen vermeiden kann.13 Bevor nun konkrete Beispiele aus der Lehre angeführt werden, soll als vorläufige Conclusio ein Satz formuliert werden, der versucht, das Ziel eines Bakkalaureatsstudiums unter derzeitigen medialen Bedingungen zu bestimmen: AbsolventInnen eines Bakkalaureatsstudiums sollen dazu fähig sein, fachspezifische Wikipediaeinträge kritisch zu beurteilen und gegebenenfalls verbessern zu können.

SECHS BEISPIELE DES EINSATZES VON WIKIPEDIA UND WIKIS 1. Als Einstieg, und auch um als Lehrperson über die Ausgangssituation der Studierenden Auskunft zu bekommen, kann eine zunächst in Kleingruppen vorgenommene Diskussion dienen, an die sich ein Bericht ins Plenum und eine Diskussion in der Großgruppe anschließen. In dieser Diskussion sollen die Studierenden folgende Fragen behandeln: Kann Wikipedia für die wissenschaftliche Arbeit genützt werden? Und falls ja, wie und wofür wäre dies möglich? 2. Anschließend an eine solche Diskussion können Mängel und Leistungen der Wikipedia anhand eines konkreten Beispiels aufgewiesen werden: Ich nehme hier gerne ein Beispiel aus einem meiner eigenen Forschungsgebiete, der Geschichte der frühneuzeitlichen Adressbüros,14 denn fast drei Jahre, vom 11.Oktober 2006 bis zum 3. Juli 2009 wurde im Wikipedia-Artikel „Intelligenzblatt“ eine falsche Jahreszahl als Gründungsdatum des in Paris von Théophraste Renaudot errichteten „Bureau d’adresse“ angegeben, nämlich 1612 statt 1630.15 Die Pointe: Diese Zahl ist auch in einer Papier-Veröffentlichung zu finden, die nach den üblichen Kriterien zumindest auf den ersten Blick als wissenschaftliche Publikation eingestuft würde, handelt es sich doch um den in einem

12 Zu den Argumenten und den Voraussetzungen dafür siehe u. a.: Klaus Graf, Wikipedia zitierfähig? in: Archivalia, 23.11.2007, ; Ders., Wikipedia zitierfähig, in: Archivalia, 8.9.2008, . 13 Klaus Graf, Crashkurs für potentielle Wikipedia-Mitarbeiter, in: Archivalia, 29.1.2013, . 14 Anton Tantner, Adressbüros im Europa der Frühen Neuzeit, Habilitationsschrift an der Historisch-Kulturwissenschaftlichen Fakultät der Universität Wien 2011, . 15 Intelligenzblatt, in: Wikipedia, Version vom 29.6.2009, .

50

Anton Tantner

wissenschaftlichen Sammelband erschienenen Artikel eines Universitätsprofessors;16 in letzterem Fall ist es nicht mehr möglich, den Fehler zu korrigieren, im Falle der Wikipedia geschah dies sehr wohl.17 3. Aufbauend darauf stelle ich den Studierenden eine schriftliche Hausübung, bei der sie nochmals dazu aufgefordert werden, eine eigenständige Position zu Wikipedia beziehen; dabei sollen Sie sich nicht nur auf die Diskussion und die von mir in der Lehrveranstaltung gebrachten Inhalte beziehen, sondern auch kontroverse Texte zur Wikipedia lesen,18 bevor sie in einem kurzen Text (circa 1500 Zeichen) die Fragen beantworten: Kann/darf/soll man Wikipedia in wissenschaftlichen Texten zitieren? Und falls ja, zu welchem Zweck? 4. In Lehrveranstaltungstypen wie Seminaren, sei es für die Bakkaulareatsarbeit oder im Masterstudium, wo eine schriftliche wissenschaftliche Arbeit zu verfassen ist, verlange ich, dass von den circa 65.000 Zeichen, die laut Studienplan für die Länge einer Seminararbeit vorgesehen sind, ein eigenes Kapitel oder ein Anhang im Umfang von circa 10–15.000 Zeichen der Bewertung dessen gewidmet sein sollen, was die Wikipedia zum gewählten Thema zu sagen hat, wobei eventuell auch noch andere Internetressourcen herangezogen werden können, wenn diese von Relevanz sind. Leitfragen bei der Bewertung von Wikipedia-Einträgen können sein: a) Wird der Artikel gemäß der Wikipedia-internen Bewertung als exzellent, lesenswert oder aber als mangelhaft gekennzeichnet? b) Wird das Thema kontrovers diskutiert? Werden unterschiedliche Positionen zum Thema im Eintrag selbst genannt, oder sind diese auf der Diskussions-Seite zu finden? c) Ist der Beitrag belegt, gibt es Literaturangaben und Fußnoten? 16 Wolfgang Wüst, Reichsstädtische Traditionen in der Aufklärung. Zur Funktion Augsburger Intelligenzblätter, in: Sabine Doering-Manteuffel/Josef Mančal/Wolfgang Wüst (Hgg.), Pressewesen der Aufklärung. Periodische Schriften im alten Reich, Berlin 2001, 357–380, hier 357. 17 Belege und weitere Links in dem entsprechenden Posting meines Lehrveranstaltungsweblogs: Anton Tantner, Links zum vierten Präsenztermin, 11.5.2012, in: Digitale Medien in der Geschichtswissenschaft. Lehrveranstaltungsbegleitendes Weblog, 11.5.2012, . 18 Klaus Graf, Wikipedia, 8.9.2008; Wiebke Hollersen/Marin Majica, Die Entdeckung des Elfenbeinspechts. Jimmy Wales hat die Internet-Enzyklopädie Wikipedia gegründet. Mit seiner Community demokratisiert er das Wissen der Welt [Interview mit Wikipedia-Gründer Jimmy Wales], in: Berliner Zeitung, 11.10.2008, ; Johannes Becher/Viktor Becher, Gegen ein Anti-Wikipedia-Dogma an Hochschulen: Warum Wikipedia-Zitate nicht pauschal verboten werden sollten, in: Forschung & Lehre 18/2011, Nr. 2, 116–118, ; Lorenz, Maren: Der Trend zum Wikipedia-Beleg: Warum Wikipedia wissenschaftlich nicht zitierfähig ist, in: Forschung & Lehre 18/2011, Nr. 2, 120–122, .

Wikipedia und Weblogs in der universitären Lehre

51

d) Wie kohärent ist der Artikel, ist er aus einem „Guss“ oder merkt man ihm an, dass er von vielen AutorInnen bearbeitet wurde, die nicht auf Vereinheitlichung achteten? e) Wie oft wurde der Eintrag gemäß seiner Versionsgeschichte geändert? f) Kann man mittels Versionsgeschichte die AutorInnen namentlich bestimmen, was geben diese über sich auf ihrer eventuell angelegten UserInnenPage preis? g) Gibt es Änderungen, die schnell wieder rückgängig gemacht wurden, gab und gibt es „Edit-Wars“? h) Eine weitere Aufgabe kann der wikipediainterne Vergleich sein, also die Frage, wie dasselbe Stichwort in verschiedenen Sprachversionen abgehandelt wird, weiters dann der externe Vergleich mit anderen Lexikaeinträgen. i) Bei diesen Beurteilungskriterien für Wikipediaeinträge kann man sich an der so genannten Wikipedistik orientieren, also derjenigen wissenschaftlichen Disziplin, die sich der Erforschung der Wikipedia widmet und die auch schon Kriterienkataloge entwickelt hat; hier sind insbesondere die Arbeiten des 2013 verstorbenen Peter Haber zu nennen, der im Rahmen einer an der Universität Wien abgehaltenen Gastprofessor unter anderem ein Forschungsseminar der Wikipedia widmete und sich in mehreren Publikationen mit der Online-Enzyklopädie auseinandersetzte.19 Eine solche Wikipedistik kann auch als schlichte Aktualisierung der klassischen Quellenkritik betrachtet werden, ergänzt um Methoden der Diskursanalyse,20 für die die Wikipedia einen hervorragend geeigneten Untersuchungsgegenstand abgibt. 5. Jenseits der Analyse schließlich können Studierende selbst zu Wiki-AutorInnen gemacht und zum Beispiel an einem Übungs-Wiki beteiligt werden; ein solches lässt sich im Rahmen der an der Universität Wien verwendeten E-LearningPlattform Moodle leicht einrichten, womit auch sichergestellt ist, dass dieses Übungs-Wiki nur eine begrenzte Öffentlichkeit, nämlich die der Lehrveranstaltung, hat. In meiner Lehrpraxis stellte ich den Studierenden die einfache Aufgabe, zu einem von ihnen ausgesuchten Thema Literatur zu recherchieren und darauf eine Literaturliste als Wikieintrag anzulegen;21 mein Hintergedanke dabei war, dass Studierende, die dies einmal ausprobiert haben, vielleicht dann auch in der „richtigen“ Wikipedia Ergänzungen bei der Literatur vornehmen werden, um damit die erwähnten Mängel gerade bei den Literaturangaben zu beheben. Selbstverständlich ließe sich dies noch ausbauen, vom kollaborativen Erstellen ganzer Artikel bis hin zum Experiment einer Beteiligung eines ganzen

19 Dokumentiert unter Peter Haber/Jan Hodel, Wikipedia und die Geschichtswissenschaften, in: hist.net, . 20 Achim Landwehr, Historische Diskursanalyse, Frankfurt am Main/New York 2008. 21 Beim ersten Mal wurde ein von meinem Tutor Bernhard Standl eingerichtetes Wiki verwendet, das bis heute öffentlich zugänglich ist .

52

Anton Tantner

Seminars an der Wikipedia durch die Neuanlage, Ergänzung oder Verbesserung von Artikeln, samt Reflexion all der dabei eventuell auftauchenden Reaktionen durch die bisherige Wikipedia-Community. 6. Auf besonders positive Resonanz bei den Studierenden stieß die Einladung von zwei Mitarbeitern an der Wikipedia in eine meiner Lehrveranstaltungen. Die im Mai 2014 auf Vermittlung der Geschäftsführerin von Wikimedia Österreich Claudia Garád dafür gewonnenen Raimund Liebert – Community Manager von Wikimedia Österreich – und Heinz Egger – Wikipedian in Residence beim österreichischen Bundesdenkmalamt – erzählten aus ihrer Praxis, berichteten über die Strukturen von Wikipedia und der weiteren unter Wikimedia vereinten Ressourcen und sparten dabei auch nicht mit Kritik; die sonst als so anonym und unnahbar wahrgenommene Online-Enzyklopädie bekam somit eine menschliche Verkörperung und regte manche Studierenden dazu an, eine Mitarbeit in Erwägung zu ziehen. WEBLOG-EINSATZ AN DER UNIVERSITÄT WIEN An der Universität Wien begannen in der Studienrichtung Geschichte Lehrveranstaltungen mit Weblogeinsatz im Sommersemester 2006, im Rahmen der von Wolfgang Schmale abgehaltenen Lehrveranstaltung Informatik und Medien in den Geschichtswissenschaften; das entsprechende Blog zur Vorlesung wurde von Martin Gasteiner auf der Weblogplattform Twoday eingerichtet und ist bis heute unter der Adresse elet.twoday.net zugänglich; von dort aus sind des weiteren Weblogs verlinkt, die einige Studierende dazu einrichteten und in denen sie sich mit den Möglichkeiten beschäftigten, die das Medium Internet für die Geschichtswissenschaften bietet. Im darauffolgenden Semester leitete Wolfgang Schmale wieder eine solche Lehrveranstaltung, begleitet durch die zwei TutorInnen Martin Gasteiner und Marion Romberg; zu den Aufgaben, die die Studierenden zu erfüllen hatten, zählte u. a. die Führung eines lehrveranstaltungsbegleitenden Weblogs.22 Neben dieser einschlägigen Lehrveranstaltung zum Einsatz des Internets in den Geschichtswissenschaften23 leitete Wolfgang Schmale im selben Semester eine weitere zur Wissenschaftlichen Text- und Wissensproduktion mit dem Thema Europäische Einheit.24 Auch hier hatten die TeilnehmerInnen Weblogs einzurichten; deren abgeforderte Postings ermöglichten es, den Arbeits- und Denkprozess der einzelnen BloggerInnen mitzuverfolgen, ihnen gleichsam beim forschenden Schreiben über die Schultern zu blicken.

22 Eine Liste der eingerichteten Weblogs findet sich unter: . 23 Dazu: Wolfgang Schmale u. a., E-Learning Geschichte, Wien/Köln/Weimar 2007, 161–166; siehe auch: Jakob Krameritsch/Martin Gasteiner, Schreiben für das WWW: Bloggen und Hypertexten, in: Wolfgang Schmale (Hg.): Schreib-Guide Geschichte. Schritt für Schritt wissenschaftliches Schreiben lernen. Wien/Köln/Weimar 2006, S. 231–271. 24 .

Wikipedia und Weblogs in der universitären Lehre

53

In meiner eigenen Lehrtätigkeit begann ich 2004 damit, Teile meiner Lehrveranstaltung Digitale Medien in der Geschichtswissenschaft in Form von E-Learning abzuhalten; dies war schlicht durch eine Erhöhung der TeilnehmerInnenzahl der Lehrveranstaltung bedingt, die regelmäßige Präsenztermine im EDV-Raum unmöglich machte, weswegen ich Hinweise auf Lerninhalte in Form von E-Mails verschickte und die StudentInnen ihrerseits zu erbringende Übungsaufgaben wiederum per E-Mail an mich zu senden hatten. Weblogs verwendete ich ab dem Sommersemester 2008: Zentrales Medium war ein Lehrveranstaltungsweblog – tantner.twoday.net –, in dem ich im wöchentlichen Rhythmus Hinweise auf durch die Studierenden zu konsultierende Lehreinheiten auf der E-Learningplattform „Geschichte Online“ postete, ergänzt um jeweils dazu durchzuführende Übungsaufgaben. Diese Übungsaufgaben wurden von den Studierenden in eigens einzurichtenden persönlichen Weblogs erledigt, dazu zählten neben der bereits erwähnten Aufforderung, eine eigene Position zum Einsatz der Wikipedia zu entwickeln unter anderem die Vornahme und Protokollierung einer Recherche zu einem selbstgewählten Thema in nur auf Papier vorhandenen Referenzwerken sowie der Vergleich des Ergebnisses einer jeweils einstündigen Recherche nach Literatur zum einen mittels Google, zum anderen mittels fachspezifischer Datenbanken. Insgesamt hielt ich zwischen 2008 und 2012 fünf Lehrveranstaltungen mit Weblogeinsatz ab, die TeilnehmerInnenzahlen schwankten zwischen 20 und 115 Studierenden, wobei mich Marian Wimmer als Tutor dabei unterstützte, indem er unter anderem die zeitaufwändige Arbeit des Einspeisens der RSS-Feeds der zuweilen doch recht großen Anzahl von Blogs in einen Feedreader übernahm. Nur die wenigsten Weblogs wurden nach Ende der Lehrveranstaltungen weitergeführt, wobei es durchaus sein mag, dass manche Studierende ihre neu erworbenen Blogkenntnisse zum Anlass nahmen, ein neues Weblog einzurichten. Ohne auf genaue Untersuchungen zurückgreifen zu können, scheint es, dass in diesen Jahren eher die mobilen und höhersemestrigen StudentInnen Weblogs führten, um entweder über ihre Erasmus-Auslandsaufenthalte oder ihre Diplomarbeits-/Dissertationsthemen zu berichten; diese als erstes genannte Verwendungsweise von Weblogs als Reisetagebücher für die zu Hause gebliebenen FreundInnen wurde seither wohl vor allem durch Facebook abgelöst. EINE DIGITALE ZELLE IN DER KONTROLLGESELLSCHAFT? Mit dem Instrument des Weblogs ist es möglich, die Ergebnisse von Lernprozessen nicht mit teils sinnentleerten Prüfungen festzustellen, sondern diese in regelmäßig von den Studierenden geposteten Weblog-Einträgen dokumentieren zu lassen, wobei das Spektrum von klar umrissenen und in kurzen Postings zu erfüllenden Übungsaufgaben über eigenständige Reflexionen zu Lehrveranstaltungsinhalten bis hin zu offenen, zum Beispiel Seminararbeiten begleitende Forschungstagebüchern reichen kann.

54

Anton Tantner

Wichtig erscheint mir jedenfalls, dass Lehre, die Weblogs einsetzt, nicht von vornherein als den StudentInnen gegenüber freundlicher oder unschuldiger imaginiert werden sollte, als zum Beispiel Lehre, die sich des Instruments der Prüfung bedient; wer der von Gilles Deleuze postulierten Annahme eines spätestens nach dem Zweiten Weltkrieg feststellbaren Übergangs von den Disziplinar- zu den Kontrollgesellschaften folgt,25 wird eine solche Verschiebung in der Beurteilung studentischer Leistung eher machttheoretisch einordnen: Die Prüfung – analysiert in Foucaults Überwachen und Strafen26 – ist demnach charakteristisch für die Disziplinargesellschaften, während in den Kontrollgesellschaften die kontinuierliche Begleitung und Beurteilung der Leistungen auf der Agenda steht; der Einsatz von Weblogs ist ein Beispiel für eine den Kontrollgesellschaften adäquate Machttechnik und bringt seinerseits wieder Problemlagen und auch Widerstände mit sich. So war meiner Erfahrung nach das für die Studierenden wichtigste Problem, das bei Lehrveranstaltungs-Weblogs auftauchte, das nach dem Verhältnis von Öffentlichkeit und Privatheit. Ich hatte es von vornherein den Studierenden überlassen, ob sie ihr Weblog anonym – so dass nur ich ihren Namen wusste – oder unter Angabe ihres eigenen Namens führen wollten, und es zeigte sich dabei, dass vor allem die politisch wacheren TeilnehmerInnen der Lehrveranstaltung es bevorzugten, anonym zu posten. Aus den verschiedenen Weblogs stach dabei insbesondere eines wie ein „monologischer Block“27 hervor: Unter panopticontra.blogspot.co.at verglich der/die anonyme UserIn seine/ihre Position im Weblog mit der Position eines Zelleninsassen/einer Zelleninsassin des Foucaultschen Panoptikums und kam immer wieder zu überraschenden Einsichten, wie folgende Ausschnitte aus den ersten zwei Postings dieses Blogs zeigen: „Das Internet ist das Gefängnis, die Menagerie unserer virtuellen Subjektivitäten. Die Weblogs sind unsere Zellen und Gehege, in denen wir uns ausstellen und wir beobachtet werden, in denen wir uns in Entsprechung und Besserung üben und um Gunst und (An)Erkennung buhlen. In diesen unseren Räumen und Providerparzellen begegnen wir uns als Aufseher und Gefangene, als Beobachter und Beobachtete. Ich schreibe in das Dunkel der Anonymität des Internet, werde geblendet vom Licht des Aufsichtsturms, weiß nur, dass ich ständig beobachtet werden kann. Das Internet gibt Milliarden Aufsehern die Möglichkeit dazu. So werde ich hier immer wieder jene Notiz verfassen, die du von mir nimmst. Für die Interessierten werde ich versuchen, interessant zu sein, für die Aufseher brav und diszipliniert.“28 „Dieser Blog ist ein Experiment.

25 Gilles Deleuze, Postskriptum über die Kontrollgesellschaften, in: Ders.: Unterhandlungen. 1972–1990. Frankfurt am Main 1993, 254–262, hier 254f. 26 Michel Foucault, Überwachen und Strafen. Die Geburt des Gefängnisses, Frankfurt am Main 9 1991, 238–250. 27 Klaus Ratschiller, Monolog, in: Wilhelm Berger/Ders./Esther Schmidt: Unmögliches Werden. Denkfiguren – Porträts – Gespräche über das Fremde. Wien 2003, 129–176, hier 132, 136– 140. 28 R:/, Willkommen, in: PANOPTICÖNTRA. Weblog und Zelle von R:/ in der digitalen Disziplinaranstalt, 8.3.2008, .

Wikipedia und Weblogs in der universitären Lehre

55

Der Autor, der hierfür mit seinem Namen beim Provider seinen Kopf hinhält, aber hier aus gutem Grund nicht mit seinem Namen auftritt, unterscheidet sich innerhalb R:/ nur in seiner Funktion von mir. Ich gestalte diesen Blog, denke mir seine noch sporadischen Inhalte aus und bewohne diese Zelle. Der Autor, meine traurige physische Entsprechung, ist hier nur insoweit involviert, als dass er und seine praktischen Beweggründe Ausgangspunkt der Ingangsetzung unseres bloggenden Handelns ist. Er hat über dieses Medium das ein oder andere Mal Rechenschaft über seine erbrachten Leistungen abzulegen; er hat den Blog angelegt. Ich bin lediglich das Wie, eine Modalität; ich bin der Geist, der hier Leben (?) hereinzaubern soll, und ich habe eine Idee, um nicht zu sagen, ich bin eine Idee. Ich bin Text, der sich formiert, um zu sehen, ob er funktionieren kann, und ich teile diesen Raum aus pragmatischen Gründen.“29

Derlei Positionen sollten unbedingt für eine Diskussion über den Einsatz von „Social Software“ in der Lehre herangezogen werden; zu bedenken wären dabei unter anderem folgende Fragen: Wann ist der richtige Zeitpunkt für eine/n Studierende/n, die Anonymität zu verlassen und mit einem Fachweblog an die Öffentlichkeit zu gehen? Soll ein die Diplomarbeit begleitendes Weblog anonym geführt werden, wie dies längere Zeit Cathleen Sarti mit ihrem Weblog Zwergenblick30 betrieb, bevor sie ihren Namen preisgab? Oder soll das Bloggen unter dem eigenen Namen möglichst früh erfolgen, und zwar am besten im Rahmen eines Gruppenweblogs, wie es Peter Haber vorschlug?31 Mittlerweile ist der Einsatz von Weblogs in der Lehre zwar nicht überholt, kann aber durch die Möglichkeiten der verschiedenen immer mehr Verbreitung findenden E-Learning-Plattformen zumindest ergänzt, wenn nicht sogar ersetzt werden: Derlei E-Learning-Plattformen bieten einen etwas geschützteren Raum, da die mitlesende „Öffentlichkeit“ zum Beispiel auf die jeweiligen LehrveranstaltungsteilnehmerInnen beschränkt werden kann. So ließ ich in einigen meiner Lehrveranstaltungen, die ich im Sommersemester 2014 an der Universität Wien im Rahmen einer Gastprofessur abhielt, Studierende ihre Postings in der E-Learningplattform Moodle verfertigen: Da keine Weblogsoftware zur Verfügung stand – diese zunächst vorhanden gewesene Möglichkeit war eingestellt worden – dienten als Ersatz Foren, die nur für die TeilnehmerInnen der Lehrveranstaltung zugänglich waren. Vielleicht wird dies ein in Zukunft häufiger beschrittener Weg sein, zunächst studentische Texte im Verborgenen bzw. geschützt zu posten, bevor dann in einem weiteren Schritt diese Texte einer potentiell größeren Öffentlichkeit zugänglich gemacht werden. Zu bedenken ist auf jeden Fall, dass das öffentliche Posten von Texten unter eigenem Namen nicht als etwas Selbstverständliches angesehen werden sollte, sondern eine Praxis, die viele Studierende erst erlernen und einüben müssen.

29 R:/, Wer spricht hier?, in: Ebenda, 9.3.2008, . 30 . 31 Peter Haber, Ein Weblog ist ein Weblog ist ein Weblog, in: weblog.hist.net, 28.3.2008, (Vorschlag in einem Kommentar zum Posting).

56

Anton Tantner

ZUM ABSCHLUSS Abschließend soll eine bereits an anderer Stelle erhobene dringliche Forderung32 wiederholt werden, die sich insbesondere an für das Prüfungswesen und Promotionsordnungen Verantwortliche richtet: Studierende, die an einer Masterarbeit oder an einer Dissertation arbeiten, sind oft sehr verunsichert, was die Vorab-Veröffentlichung von Teilen ihrer Arbeit in einem Weblog anbelangt, aus der zuweilen berechtigten Furcht, dass eine solche Vorgangsweise bei der Plagiatsprüfung der eingereichten Abschlussarbeit inkriminiert wird. Hier ist es nötig, Klarheit zu schaffen und solche Publikationsformen explizit zu erlauben, wäre der ideale Ablauf in einem wissenschaftlichen Produktionszyklus unter derzeitigen Bedingungen doch der, dass Studierende von ihnen verfasste Textfragmente zuerst in einem Weblog zur Diskussion stellen, worauf etwaige Kommentare und Reaktionen in einer endgültigen Version berücksichtigt werden können. Bei einer solchen Vorgangsweise wird es oft vorkommen, dass in einem solchen – zum Beispiel dissertationsbegleitendem – Weblog veröffentlichte Texte auch unverändert in die Abschlussarbeit übernommen werden, was als selbstverständlicher Bestandteil des Entstehungsprozesses einer wissenschaftlichen Qualifikationsarbeit betrachtet werden sollte. Der Handlungsbedarf ist hier umso dringender, als spätestens in der Master- oder Dissertationsphase Studierende nicht davon abgehalten, sondern ermuntert wenn nicht sogar aufgefordert werden sollten, Weblogs zu führen, da dies den Einstieg in den Schreibprozess fördert und sich nur positiv auf die Qualität der Abschlussarbeit auswirken kann.

32 Tantner, Publikation, in: Historische Mitteilungen 26/2013, 112–114.

HERAUSFORDERUNG FÜR UNSERE WISSENSCHAFTSKULTUR: WEBLOGS IN DEN GEISTESWISSENSCHAFTEN Mareike König Wissenschaftsblogs1 geben Auskunft darüber, welches Verständnis von Wissenschaft die Bloggenden haben und wie sie sich im Wissenschaftsbetrieb verorten. Denn durch Blogs entstehen – wie durch die meisten Web 2.0-Werkzeuge – neue wissenschaftliche Publikations- und Kommunikationspraktiken, die tradierte Formate und Standards von Wissenschaftlichkeit und damit unsere Forschungskultur insgesamt in Frage stellen. Während die selbstbestimmte Aneignung eines wissenschaftlichen Publikationsraums insbesondere für den Nachwuchs attraktiv erscheint, stößt sie – zumindest im deutschsprachigen Raum und in den Geisteswissenschaften – bei einem Großteil der etablierten Forschenden2, bei Forschungseinrichtungen und -förderern sowie bei Akteuren im Publikationswesen eher auf Unverständnis, Kritik oder Desinteresse. Vieles steht und fällt dabei mit der Frage der Anerkennung dieser neuen Praktiken als „wissenschaftlich“. Wie weit sollen bestehende Konzepte von Wissenschaftlichkeit ausgedehnt werden? Kann ein Blogartikel, kann ein Tweet akzeptierter Teil unseres wissenschaftlichen Outputs sein?3 Wie kann Qualitätssicherung im Bereich der Selbstpublikation erfolgen, oder können wir darauf verzichten?4 Wie sind die Resultate dieser Praktiken, wie ihr sozialer Mehrwert für die Fachcommunity zu bewerten? Oder wäre es besser, Blogs dort zu

1 2

3 4

Unter Wissenschaftsblog werden im Folgenden nach einer engen Definition diejenigen Blogs verstanden, die von einem/r Wissenschaftler/in und zu einem wissenschaftlichen Thema geführt werden. Vgl. die beiden Umfragen zur Nutzung von Web 2.0-Instrumenten in den Wissenschaften von 2010/11, wonach nur 8% von 1053 befragten Wissenschaftler/innen aller Disziplinen in Deutschland Blogs nutzen, d.h. lesen, kommentieren oder schreiben: Anita Bader, Gerd Fritz, Thomas Gloning, Digitale Wissenschaftskommunikation 2010–2011: Eine Online-Befragung, Justus-Liebig-Universität 2012, http://geb.uni-giessen.de/geb/volltexte/2012/8539 sowie die Befragung von 2013, auf anderer Grundlage, wonach es knapp 30% sind: Daniela Pscheida, Steffen Albrecht, Sabrina Herbst, Claudia Minet, Thomas Köhler, Nutzung von Social Media und onlinebasierten Anwendungen in der Wissenschaft. Erste Ergebnisse des Science 2.0-Survey 2013 des Leibniz-Forschungsverbunds „Science 2.0“, http://nbn-resolving.de/urn:nbn:de: bsz:14-qucosa-132962. Alle Links wurden zuletzt am 23.04.2015 eingesehen. Siehe dazu den Beitrag und Diskussion bei: Lilian Landes, Wie hältst Du’s mit der Qualität? Gretchen online, in: in: Rezensieren, Kommentieren, Bloggen, 23.4.2013, http://rkb.hypotheses.org/498. Vgl. Klaus Graf, Qualität wird überschätzt, in: Digitale Geschichtswissenschaft. Das Blog der AG Digitale Geschichtswissenschaft im VHD, 30.9.2014, http://digigw.hypotheses.org/1063.

58

Mareike König

belassen, wo sie derzeit sind, nämlich in einem weitgehend toten Winkel des Wissenschaftsbetriebs, der den Bloggenden jedoch größtmögliche Freiheit erlaubt?5 Auf der Grundlage derzeitiger Praktiken des Wissenschaftsbloggens geht der Beitrag diesen Fragen nach. Dabei wird zunächst die bestehende Vielfalt und die Ausdifferenzierung der wissenschaftlichen Blogosphäre in den letzten Jahren sowie die in Teilen zu beobachtende Vermischung von Genres thematisiert. Da dem Bloggen mit dieser Vermischung und der Suche nach Anerkennung Besonderheiten verloren gehen könnten, geht es in einem zweiten Teil um den Kern des Wissenschaftsbloggens und darum, was (bisher) ausschließlich in Blogs möglich ist bzw. praktiziert wird. Der Blick auf die speziellen Formen, Schreibarten und Bedingungen des Bloggens zeigt den Mehrwert dieses Austauschformats und seiner auf diese Weise produzierten Inhalte. Gleichzeitig werden die mit dem Bloggen verbundenen Vorstellungen und Phantasmen von Wissenschaft deutlich. In einem dritten Teil schließlich werden Fragen des Nutzens von Blogs sowie Auswahl- und Qualitätssicherungsverfahren thematisiert, die den in Blogs entstandenen wissenschaftlichen Ergebnissen zur Anerkennung verhelfen können. DIE WISSENSCHAFTSBLOGOSPHÄRE: VIELFALT, DIVERSITÄT UND BEGINNENDE VERMISCHUNG VON GENRES Bloggen ist zunächst einmal spektakulär: Es ist die humanistische Selbstaneignung eines neuen Mediums jenseits aller bis dahin üblichen Genres, und der „Erfindung“ der Gattung Essais von Montaigne im 16. Jahrhundert ähnlich. Man kann darin das Wiederaufkommen eines frühmodernen Phänomens, das Wiedererstehen der République des Lettres sehen, einen virtuellen Kommunikationsverbund über Standesunterschiede sowie Länder-, Sprach- und Kulturgrenzen hinweg, den Gelehrte zunächst über Briefwechsel und ab Mitte des 17. Jahrhunderts auch über Journale bildeten.6 Denn Blogs sind Werkzeuge der (Selbst)Publikation, der Kommunikation und der Vernetzung. Sie dienen dem Informations-, Identitäts- und Beziehungsmanagement.7 Blogs sind interaktiv und erlauben einen schnellen, direkten und unvermittelten fachlichen Austausch über Kommentare und Verlinkungen, wie er in anderen Publikationsformaten – ob gedruckt oder online – entweder nicht 5

6

7

Vgl. Marin Dacos, Pierre Mounier, Les carnets de recherche en ligne, espace d’une conversation scientifique décentrée, in: Christian Jacob (Hg.), Lieux de savoir, vol. 2: Les mains de l’intellect, Paris 2011, 333–354, hier 345. Vgl. außerdem die Diskussion in den Beiträgen zur Blogparade „Wissenschaftsbloggen – zurück in die Zukunft“ #wbhyp, in: Redaktionsblog, 19.1.2015, http://redaktionsblog.hypotheses.org/2693. Diese naheliegende Analogie wurde von unterschiedlichen Personen und zumeist mündlich hergestellt, so dass an dieser Stelle kein Verweis auf den oder die „Erfinder“ gegeben werden kann. Schriftlich zuletzt bei: Ali Arbia, Die Republik der Gelehrten 2.0, in: Zeitschrift für Internationale Beziehungen 1/2014, 109–127, PDF online unter: http://www.zib.nomos.de/ filead min/zib/doc/Aufsatz_ZIB_14_01_Arbia.pdf. Vgl. Jan Schmidt, Social Software: Onlinegestütztes Informations-, Identitäts- und Beziehungsmanagement, in: Neue Soziale Bewegungen 2/2006, 37–46.

Herausforderung für unsere Wissenschaftskultur: Weblogs in den Geisteswisseschaften

59

möglich ist oder nicht praktiziert wird. Blogs sind darüber hinaus öffentlich einsehbar und bieten damit die Möglichkeit einer großen Sichtbarkeit und Verbreitung, und zwar über die akademische Öffentlichkeit hinaus. Ein Blick auf derzeit aktive Blogs im Bereich der Geisteswissenschaften, wie sie etwa das Blogportal Hypotheses.org8, kuratierte Übersichten wie „Global Perspectives on Digital History“9 oder Aggregatoren wie „Early Modern Commons“10 für englischsprachige Geschichtsblogs zur Frühen Neuzeit und „Planet History“11 für die deutschsprachige Geschichtswissenschaft bieten, macht die enorme Vielfalt der geisteswissenschaftlichen Blogosphäre und die Diversität bestehender Blogpraktiken deutlich.12 Diese werden durch das Medium selbst ermöglicht: zum einen technisch und formal, zum anderen durch fehlende inhaltliche Normierung. Denn Blogs sind leicht zu bedienen, es bestehen keine Vorgaben für ihre Gestaltung oder ihre Inhalte. Blogbeiträge bieten völlige Freiheit im Hinblick auf Stil, Publikationsfrequenz, Umfang, Inhalte und Medien (Texte, Links, Bilder, Ton, Videos). Es kann allein oder mit mehreren gebloggt werden. Blogs können Langzeitprojekte sein oder nur ein Semester lang ein Seminar begleiten. Blogbeiträge können kurze Ankündigungen enthalten, mittlere oder längere Miszellen oder ausgewachsene Forschungsbeiträge, die Artikel entsprechen, wie man sie in Peer-Review-Zeitschriften erwarten darf. Genauso vielfältig wie die individuelle Ausgestaltung des eigenen Wissenschaftsblogs sind die Gründe und Motivationen, die Forschende zum Bloggen bringen. Die vielfach programmatischen Blogbeschreibungen in der Kategorie „Über das Blog“ geben davon beredt Auskunft. An erster Stelle wird zumeist genannt, dass die Bloggenden sich über ihr Thema austauschen, sich positionieren und vernetzen möchten. Gebloggt wird außerdem, weil Forschende Schreiben üben und sich kreativ ausdrücken möchten und weil sie es als Befreiung empfinden, wenn sie dies jenseits der Grenzen der kanonisierten wissenschaftlichen Textgenres tun können. Bloggen ist damit eine wissenschaftliche Praktik, die Spaß macht.13 Blogs dienen dem eigenen gedanklichen Klärungsprozess, werden doch Ideen und Gedanken durch das Schreiben und den Austausch oftmals erst geordnet. Gebloggt wird, um den eigenen Forschungsprozess zu dokumentieren. Das Weblog nimmt dabei die Rolle eines digitalen Zettelkastens mit Archivfunktion ein. Das Nachdenken im 8 9 10 11 12

13

Blogportal Hypotheses.org: http://hypotheses.org/, deutschsprachige Seite: http://de.hypotheses.org/. Global Perspectives on Digital History, http://gpdh.org/. Early Modern Commons, http://commons.earlymodernweb.org/. Planet History, http://www.planethistory.de/. Siehe auch das Interview mit dem Betreiber, Michael Schmalenstroer, in: BIÖG, Blog des Instituts für österreichische Geschichtsforschung, 3.11.2014, http://bioeg.hypotheses.org/649. Zu Geschichtsblogs im deutschsprachigen Raum siehe Klaus Graf, Mareike König, Forschungsnotizbücher im Netz. Weblogs in der deutschsprachigen Geschichtswissenschaft, in: WerkstattGeschichte 21/2012, Heft 61, 76–87, hier 81. PDF online unter http://werkstattgeschichte.de/werkstatt_site/archiv/WG61_076-087_GRAF_NETZ.pdf. Vgl. Pierre Mounier, Die Werkstatt öffnen: Geschichtsschreibung in Blogs und Sozialen Medien, in: Peter Haber, Eva Pfanzelter (Hg.), historyblogosphere. Bloggen in den Geschichtswissenschaften, München 2013, 51–59 [DOI: 10.1524/9783486755732.51].

60

Mareike König

Blog wird öffentlich gemacht, da „diese ersten rohen Schnipsel (…) auch anderen Impulse geben“14 können. Manche Bloggende verfolgen mit ihren Blogs einen didaktischen Zweck oder teilen und diskutieren Forschungswerkzeuge und vieles andere mehr.15 Im Übrigen ist – zumindest beim deutschsprachigen Blogportal de.hypotheses – die Genderstatistik ausgeglichen und die Anzahl der bloggenden Forscherinnen und Forscher etwa gleich groß.16 Auch die unterschiedlichen Blogtypen belegen die große Vielfalt der Blogosphäre. Zu themenübergreifenden Blogs sind insbesondere seit der Gründung des deutschsprachigen Blogportals de.hypotheses 2012 themenzentrierte Forschungsblogs, und hier vor allem dissertationsbegleitende Blogs hinzugekommen, die in dieser Form bis dahin quasi inexistent waren.17 Darüber hinaus gibt es Blogs von Forschergruppen und zu Forschungsprojekten, thematische Gemeinschaftsblogs, Blogs zu Quellen und Methoden, Blogs von Instituten und wissenschaftlichen Einrichtungen wie Archive und Bibliotheken, Seminar- und Tagungsblogs, Blogs, die eine Zeitschrift oder eine Publikation begleiten, Blogs für Lehre und Didaktik18, Ausgrabungsblogs, Fotoblogs, Blogs zu einer wissenschaftlichen Debatte oder Tagebuch-Blogs, auf denen „in Echtzeit“ Ereignisse nacherzählt werden, wie es derzeit vor allem mit privaten Tagebüchern aus dem Ersten Weltkrieg praktiziert wird19. Diese Diversität, ja Uneindeutigkeit der einzelnen Blogs einerseits sowie der gesamten Wissenschaftsblogosphäre andererseits macht den gegenwärtigen Reichtum dieser Praktiken aus. Darin liegt gleichzeitig aber auch eine der Ursachen für ihre mangelnde Akzeptanz und ihre niedrige Nutzung. Die vermeintliche Unordnung der Blogbeiträge, die in chronologisch umgekehrter Reihenfolge publiziert werden, sowie die thematische Vielfalt und die unterschiedlichen Textlängen und 14 Michael Kaiser, Über das Blog, in: dk-blog. Das Blog zum Dreißigjährigen Krieg, http:// dkblog.hypotheses.org/uber. 15 Es gibt eine riesige Anzahl an Blogbeiträgen zu den Gründen und Motiven zu bloggen. Vor kurzem wurden die Ergebnisse dreier Studien veröffentlicht, siehe dazu Merja Mahrt, Cornelius Puschmann, Science blogging: an exploratory study of motives, styles, and audience reactions, in: Journal of Science Communication 13/2014 3, http://jcom.sissa.it/archive/ 13/03/JCOM_ 1303_2014_A05/; Inger Mewburn, Pat Thomson, Why do academics blog? An analysis of audiences, purposes and challenges, in: Studies in Higher Education 38/2013 8, 1105–1119, doi:10.1080/03075079.2013.835624; vgl. außerdem Graf, König, Forschungsnotizbücher, 79– 81. 16 Vgl. König, Die Entdeckung der Vielfalt: Geschichtsblogs der europäischen Plattform hypotheses.org, in: Peter Haber, Eva Pfanzelter (Hg.), historyblogosphere. Bloggen in den Geschichtswissenschaften, München 2013, 181–197, hier: 187 [DOI: 10.1524/9783486755732. 181]. 17 Zu den Blogtypen sowie zur Erweiterung der Blogosphäre vor allem im Bereich der Geschichtswissenschaft siehe Graf, König, Forschungsnotizbücher, 81. 18 Siehe im Bereich der Geschichtswissenschaft dazu Alexander König, Christoph Pallaske, Blogs als virtueller Schreib- und Kommunikationsraum historischen Lernens, in: Peter Haber, Eva Pfanzelter (Hg.), historyblogosphere. Bloggen in den Geschichtswissenschaften, München 2013, 119–133, hier 122–125. 19 Vgl. Mareike König, Der Erste Weltkrieg „in Echtzeit“, Tagebücher 1914–1918 in den Sozialen Medien, in: Grande Guerre, 11.8.2014, http://grandeguerre.hypotheses.org/1629.

Herausforderung für unsere Wissenschaftskultur: Weblogs in den Geisteswisseschaften

61

genres können uneingeweihte Leserinnen und Leser irritieren.20 Ein Wissenschaftsblog erscheint ihnen als ungeordneter Basar, während die wissenschaftliche Zeitschrift sich als Kathedrale präsentiert, ein Bild, wie es Eric Steven Raymond zunächst für die Beschreibung von Open Source-Projekten verwendet hat.21 Weitere Vorbehalte und Hindernisse für die Nutzung von Blogs betreffen Fragen der Qualitätssicherung, Archivierung, Zitierbarkeit und Auffindbarkeit von qualitativ wertvollen Blogs im Dickicht des World Wide Web.22 Obwohl es auf diese Fragen unter anderem mit den Wissenschaftsblogportalen wie Hypotheses.org Antworten oder zumindest Antwortversuche gibt, auf die noch einzugehen sein wird, bewegt sich die derzeit breit geführte und sich rasch wandelnde Diskussion über das Wissenschaftsbloggen bisweilen in diffus-emotionalen, vielfach angstbesetzten Gefilden, in denen zum einen eine künstliche Gegensätzlichkeit zwischen digitalen und gedruckten Publikationen aufgebaut wird, zum anderen kulturpessimistische Untergangsszenarien der Blog-Gegner auf euphorisch-optimistische Heilserwartungen der Blog-Befürworter stoßen, um nur die beiden Extrempole zu nennen. Als Phänomen ist diese Frontstellung freilich nicht neu, sondern eine Konstante, die Medienwandel prinzipiell begleiten.23 Dreht man die Blickrichtung jedoch um, erscheint die Vielfalt der wissenschaftlichen Blogosphäre nicht als Schwäche, sondern als Stärke: als Ausdruck der Unterschiedlichkeit von wissenschaftlichen Schreibpraktiken, die sich nicht nur auf genormte Peer-Reviewed-Artikel reduzieren lassen. Blogbeiträge spiegeln die vielfältigen Formen von Informationen, die in einem Forschungsprozess entstehen, und machen die Subjektivität deutlich, die diese Prozesse prägen.24 Es sind diese „Basare“, von denen im Detail noch die Rede sein wird, und nicht die kanonisierten Kathedralen, die illustrieren, wie abwechslungsreich und lebendig Wissenschaft ist. In ihren Blogs zeigen sich die Wissenschaftlerinnen und Wissenschaftler offen, vernetzt und vielfältig interessiert. Damit erweitern sie nicht nur die in der Öffentlichkeit gängige Vorstellung dieses Berufsstands. Sie tragen auch dazu bei, die Beziehung zwischen Wissenschaft und Öffentlichkeit neu zu bestimmen, indem direkt und ohne Umwege über Wissenschaftsjournalisten – die freilich auch Blogs auswerten – kommuniziert wird.25 Trotz oder vielleicht gerade wegen ihrer Vielfalt und Diversität existieren zahlreiche Meta-Artikel über das Wissenschaftsbloggen. Neben der Selbstvergewisserung über die Darlegung der eigenen Blogpraktiken und Hilfestellung für andere, sind sie bisweilen Versuche, uneinheitliche Praktiken zu normieren. Denn Blogs 20 21 22 23

Vgl. Dacos, Mounier, Les carnets de recherche en ligne, 339. Vgl. ibid., 338–339. Vgl. König, Die Entdeckung der Vielfalt, 184–185. Vgl. Kathrin Passig, Neue Technologien, alte Reflexe, in: Funkkorrespondenzen August 2014, korrigierte Version abrufbar unter: https://docs.google.com/document/d/1M9JQoEcwBseqkZVAIpdjuI9Iz4c4KR6JVke4VQCtEDU/edit. 24 Vgl. Jan Hecker-Stampehl, Bloggen in der Geschichtswissenschaft als Form des Wissenstransfers, in: Peter Haber, Eva Pfanzelter (Hg.), historyblogosphere. Bloggen in den Geschichtswissenschaften, München 2013, 37–49, hier 39–40 [DOI: 10.1524/9783486755732.37]. 25 Vgl. Dacos, Mounier, Les carnets de recherche en ligne, 339.

62

Mareike König

sind Möglichkeitsräume, die von allen Publikationsformaten etwas sein können (nicht müssen oder sind), und die das Potential haben, einige der bisherigen Formate der Wissenschaftskommunikation zu verändern bzw. zu verdrängen, in erster Linie Zeitschriften, Mailinglisten und Zeitungen. So publizieren Forschende in ihren Blogs Beiträge, die in Stil, Inhalt, Umfang und Zitierregeln begutachteten und in Zeitschriften veröffentlichten Artikeln vollauf entsprechen. Beispiele dafür finden sich im Slider des Blogportals de.hypotheses.26 Teilweise werden forschungszentrierte Artikel eingeworben und redaktionell betreut, eine Praktik, die sich besonders bei thematischen Gemeinschaftsblogs beobachten lässt. Im Blog der Hamburger Doktoranden „Netz und Werk“27 etwa werden ausschließlich Forschungsbeiträge publiziert. Dafür ist das Blog, das damit eher an eine Zeitschrift erinnert, nur zwei- bis dreimal im Jahr aktiv. In anderen Fällen werden die Forschungsbeiträge unter einem eigenen Schlagwort gesammelt, wie unter dem Schlagwort „Forschung“ bei Archivalia28 oder in eigens geschaffenen Rubriken publiziert wie „Miszellen“29 im Blog „Ordensgeschichte“, oder „Opuscula“30 im Blog „Mittelalter“. Die Redaktion des Mittelalterblogs kümmert sich ebenfalls um den Nachweis der Beiträge in Bibliothekskatalogen und bibliographischen Verzeichnissen. Neben einer ISSN, die Wissenschaftsblogs mittlerweile auch im deutschsprachigen Raum bekommen können, ist diese rein formale und bibliothekarische Anerkennung ein wichtiger Schritt für die Akzeptanz von Blogs als wissenschaftliches Format.31 Dieses Einrichten von Kategorien kann gleichzeitig als Versuch gesehen werden, den „Basar“ etwas zu ordnen und der Leserschaft die Orientierung auf dem Blog zu erleichtern. Ein weiteres Beispiel für die Vermischung von Genres ist „Public History Weekly“, eine fortlaufende Publikation, die als „Blogjournal“ bezeichnet seit 2013 im Oldenbourg Verlag erscheint. Eingeworbene Beiträge, redaktionelle Betreuung, geregelte Publikationsfrequenz sowie zumeist auch Stil- und Zitierpraktiken entsprechen einer wissenschaftlichen Zeitschrift. Doch anders als bei Journals kann man bei „Public History Weekly“ kommentieren, wenn auch nach einem für Blogs eher rigiden Reglement, d.h. zu Office-Zeiten, nach redaktionellen Guidelines, mit moderierter Betreuung und bisweilen auf Anfrage. Auch wird nach sieben bis acht Wochen eine „resümierende Stellungnahme“ des Autors des Initialbeitrags als abschließenden Kommentar erbeten und der Kommentar-Thread anschließend geschlossen. Darüber hinaus publizieren Wissenschaftsblogs Rezensionen32, und so manche Mailingliste – so das letzte Beispiel für die Vermischung von Genres –

26 27 28 29 30 31

de.hypotheses, http://de.hypotheses.org/. Netz und Werk. Junge Hamburger Geschichte online, http://netzwerk.hypotheses.org/. Archivalia: http://archiv.twoday.net/search?q=%23forschung Miszellen, http://ordensgeschichte.hypotheses.org/category/divers/miszellen. Opuscula, http://mittelalter.hypotheses.org/category/artikel/opuscula. Vgl. Mareike König, ISSN für Wissenschaftsblogs – mehr als nur Symbolik? In: Redaktionsblog, 15.4.2014, http://redaktionsblog.hypotheses.org/2220. 32 Siehe beispielsweise die Rubrik „Lektüretip“ im Blog „Altgläubige in der Reformationszeit“ von Marc Mudrak, http://catholiccultures.hypotheses.org/category/lekturetip.

Herausforderung für unsere Wissenschaftskultur: Weblogs in den Geisteswisseschaften

63

findet in thematischen Gemeinschaftsblogs eine zweite Heimat. Die Liste „Geschichte Bayerns“ publiziert beispielsweise im gleichnamigen Gemeinschaftsblog Ankündigungen von Tagungen, Ausstellungen und Stellenausschreibungen ein zweites Mal, mit dem Ziel der Vernetzung und der Erweiterung ihres Publikums.33 Mit Bloggen im ursprünglichen Sinn hat das freilich wenig zu tun, auch wenn die Beiträge im Blog kommentiert werden können. Es entstehen jedoch thematische Sammlungen aktueller Forschungsinformation, die als Serviceleistung geschätzt werden. Es ist wahrscheinlich, dass sich Zeitschriften und Mailinglisten zukünftig stärker auf Blogs zubewegen und umgekehrt Blogs auf Zeitschriften und Mailinglisten. Damit dürften Mischformen eher die Regel als die Ausnahme werden. Doch zeigen die genannten Beispiele auch, dass Blogs sich zumindest bisher und trotz eines bei Teilen der Blogcommunity erkennbaren Wunsches nach Normierung und Anerkennung ihrer Aktivitäten nicht nehmen lassen und auf das „Bloghafte“ dieses Formats bestehen. Damit wäre auch die Angst unbegründet, dass Wissenschaftsblogs, wie sie hier verstanden werden, bisherige Praktiken und Formate ersetzen. Vielmehr stellen sie in ihrer ursprünglichen Ausprägung etwas Neues dar, ein eigenes Format, das Kennzeichen aus der analogen (mündlich wie schriftlichen) und der digitalen Wissenschaftskommunikation als „missing link“34 mischt und um neue Merkmale ergänzt. Um das deutlich zu machen, ist es notwendig, sich nicht zu vergegenwärtigen, was Blogs alles „auch“ können, sondern das, was (bisher) „ausschließlich“ Blogs können. DER KERN DES WISSENSCHAFTSBLOGGENS Was also macht einen Beitrag in einem Wissenschaftsblog im Unterschied zu anderen wissenschaftlichen Publikationen wie Artikel, Rezensionen in Zeitschriften oder Monographien aus? Ein entscheidendes inhaltliches Merkmal ist, dass in Blogbeiträgen aus der laufenden Forschung berichtet wird, und zwar direkt, schnell und kommentierbar. In Wissenschaftsblogs werden Gedankenstränge sichtbar gemacht, Unfertiges oder Fragmente35 publiziert. Im Blog enthüllen Wissenschaftlerinnen und Wissenschaftler „ihre tagtägliche Arbeitsroutine, ihre Lektüren und manchmal

33 Blog „Geschichte Bayerns“, http://histbav.hypotheses.org/ und Mailingliste „Geschichte Bayerns“, http://www.geschichte-bayerns.de/. 34 Arthur Charpentier, Blogging in Academia, A Personal Experience, in: Social Science Research Network, 18.2.2014, http://ssrn.com/abstract=2398377 oder http://dx.doi.org/10.2139/ ssrn.2398377. 35 Vgl. Jan Hodel, A Historyblogosphere Of Fragments. Überlegungen zum fragmentarischen Charakter von Geschichte, von Blogs und von Geschichte in Blogs, in: Peter Haber, Eva Pfanzelter (Hg.), historyblogosphere. Bloggen in den Geschichtswissenschaften, München 2013, 61–74 [DOI: 10.1524/9783486755732.61]. Zum „Kult des Fragments“ siehe Klaus Graf, Archivalia im Netz der neuen Medien (Beitrag zur Pariser Tagung), in: Archivalia, 23.6.2011, http://archiv.twoday.net/stories/29751181/.

64

Mareike König

auch ihre Erkenntnisse, ihre Hypothesen, ihre Zweifel“36. Wissenschaftlerinnen und Wissenschaftler bloggen zu Einzelaspekten ihres Themas, über Publikationen, die sie gelesen, Veranstaltungen und Ausstellungen, die sie besucht oder Begegnungen mit Personen, Gegenständen und Ideen, die sie inspiriert haben. Blogbeiträge können von einem konkreten Ereignis oder Gegenstand handeln oder theoretische und methodische Überlegungen entwickeln. Mit ihren Berichten aus der laufenden Forschung und der Möglichkeit, diese zu kommentieren, ähneln Blogs dem Gespräch unter Kollegen, einer Präsentation der eigenen Thesen im Doktorandenkolloquium oder einem Vortrag auf einer Tagung. Wissenschaftliche Erkenntnisse, die man im stillen Kämmerlein oder im Archiv erarbeitet hat, werden dialogisch weiter entwickelt, über Fragen und Kommentare, die man analog – oder im Blog digital – erhält und diskutieren kann. Ein Wissenschaftsblog als „permanentes Seminar“37 kann Diskussionsprozesse transparent machen und dokumentieren. Ein Blog zeigt die subjektive Lebenswelt der Forschenden und verdeutlicht damit die generelle Subjektivität von Wissenschaft und des wissenschaftlichen Tuns. Im Blogbeitrag kann es polemisch zugehen, man darf „ich“ schreiben. Man kann sich geistreichen Tollereien hingeben, essayistisch und ohne Belege schreiben – man darf bzw. kann, wohlgemerkt, denn man muss es natürlich nicht. Blogbeiträge sind oftmals interessanter zu lesen, weil sie eher dem gesprochenen Wort ähneln und Sätze enthalten, die in einer Diskussion fallen könnten. Ein anekdotischer Zugang hilft bei der Lektüre, weil er nicht langweilt. Smileys wird man in Zeitschriftenbeiträgen ebenso wenig finden wie das rhetorische Mittel des „Strike“, bei dem ein Teil des Textes gestrichen wird: eine zumeist ironische und humorvolle Methode und untrügliches Zeichen guten Stils, um eben doch zu zeigen, was man eigentlich löschen müsste. Wissenschaftsblogs sind besonders dann meinungsstark, wenn off topic gebloggt wird, etwa über aktuelle Wissenschaftspolitik, Diskussionen und Polemiken, über den akademischen Alltag und das Forschen selbst, über Erfahrungsberichte in bestimmten Archiven und Bibliotheken38, über Schreibblockaden, über das Prokrastinieren, über das Promovieren mit Kind oder allgemein zum täglichen Wahnsinn, dem Promovierende bisweilen ausgesetzt sind39. Das ist nicht nur selbstreferentiell: Manche Bloggende publizieren Hilfestellungen und Leitfäden für ihre Fachkollegen, z.B. wie man im Archiv fotografiert40 oder wie Historikerinnen und

36 Mounier, Die Werkstatt öffnen, 52. 37 So der Ausdruck bei André Gunthert, Why blog? In: Actualités de la Recherche en histoire visuelle, 15.9.2008, http://www.webcitation.org/5iT16xsza. 38 Vgl. Jürgen Finger, Kleiner Archivführer 3: Les Archives de la Préfecture de Police, in: Moral Economy, 15.10.2014, http://moraleconomy.hypotheses.org/68. 39 Vgl. PHDelirium, http://www.phdelirium.com/ oder Vie des thésarde, http://stripscience.cafesciences.org/articles/category/vie-de-thesarde/. 40 Vgl. Robert Zimmermann, Fotografieren im Archiv, in: Das umstrittene Gedächtnis. Erinnerungspraktiken in Skandinavien, Teil 1: 9.5.2012, http://umstrittenesgedaechtnis.hypotheses. org/77, Teil 2: 25.10.2012, http://umstrittenesgedaechtnis.hypotheses.org/98.

Herausforderung für unsere Wissenschaftskultur: Weblogs in den Geisteswisseschaften

65

Historiker Twitter sinnvoll nutzen können41. In Blogs können damit Themen behandelt werden, die in wissenschaftlichen Zeitschriften keinen Platz finden. Das betrifft nicht nur „Alltagsreflexionen“42 und Gedanken über akademische Arbeitsbedingungen: In ihrem dissertationsbegleitenden Archäologie-Blog „MinusEinsEbene“ publizierte Maxi Maria Platz beispielsweise drei Artikel zum Thema „Star Trek und Archäologie“. Sie gehören zu den meistgelesenen Beiträgen ihres Blogs, hätten aber bei einer Zeitschrift nicht eingereicht werden können.43 Denn ausgefallene und „randständige“ Themen und zumal solche, die viele Bilder benötigen, sind in „gängigen Zeitschriften schwierig bis unmöglich“44 unterzubringen. Weblogs bieten darüber hinaus die Möglichkeit, Hyperlinks und andere Medienformate in die Texte zu integrieren: Abbildungen und Fotos, aber auch aufblätterbare PDF, animierte Visualisierungen, Podcasts, wie bei den „Stimmen der Kulturwissenschaften“45, oder Forschungsvideos, wie sie die Redaktion von „L.I.S.A. – Das Wissenschaftsportal der Gerda Henkel Stiftung“46 produziert und publiziert. Bei den multimedialen Inhalten sind vor allem die Hyperlinks auf andere Blogs eine „wichtige Währung“47, dienen sie doch der Vernetzung und dem Hinweis auf andere Websites. Ebenso gibt es nur selbstgezogene Grenzen, in welchen weiteren Formaten man wissenschaftliche Erkenntnisse darstellen möchte. In Frankreich existiert beispielsweise das Comic-Blogportal „Strip Science“48, das eine Zusammenarbeit zwischen Comiczeichnern oder Illustratorinnen mit Wissenschaftlerinnen und Wissenschaftlern anregt. Dass im Land von Asterix und Obelix Comics einen höheren Stellenwert haben als in Deutschland oder Österreich hierzulande, zeigt sich ebenso am wissenschaftlichen Comic-Blogfestival, das im Sommer 2012 u.a. vom CNRS, Frankreichs bedeutendster Forschungseinrichtung, organisiert wurde.49 Indem Blogs „Forschung im Entstehen“ zeigen und gleichzeitig auch inszenieren, verdeutlichen sie das Ringen um Erkenntnis und Prozesse der Selbstdarstellung 41 Vgl. Mareike König, Twitter in der Wissenschaft: Ein Leitfaden für Historiker/innen, in: Digital Humanities am DHIP, 21.08.2012 http://dhdhi.hypotheses.org/1072. 42 Denis Walter, Über den Blog, in: Philosophie – Phisolophie, http://philophiso.hypotheses.org/ ueber-diesen-blog. 43 Vgl. Maxi Maria Platz, in: 1 Jahr MinusEinsEbene auf de.hypotheses, in: MinusEinsEbene, 10.10.2013, http://minuseinsebene.hypotheses.org/849. 44 Monika Lehner, Wissenschaftliches Bloggen im SWOT-Check, in: Mind the gap(s), 13.11.2014, http://mindthegaps.hypotheses.org/1869. 45 Stimmen der Kulturwissenschaften, http://stimmen.univie.ac.at/. 46 Vgl. Georgios Chatzoudis, L.I.S.A. – kein klassisches Blog, aber voll und ganz digitale Wissenschaftskommunikation, in: Peter Haber, Eva Pfanzelter (Hg.), historyblogosphere. Bloggen in den Geschichtswissenschaften, München 2013, 171–180 [DOI: 10.1524/9783486755732. 171]. 47 Axel Bruns, Jean Burgess, Blogforschung: Der „Computational Turn“, in: Peter Haber, Eva Pfanzelter (Hg.), historyblogosphere. Bloggen in den Geschichtswissenschaften, München 2013, 135–148, hier: 136 [DOI: 10.1524/9783486755732.135]. 48 Strip Science, http://stripscience.cafe-sciences.org/. 49 Vgl. Mareike König, Anregungen aus der französischen Blogosphäre, in: Redaktionsblog, 10.3.2013, http://redaktionsblog.hypotheses.org/993.

66

Mareike König

der bloggenden Wissenschaftlerinnen und Wissenschaftler. Sie geben Auskunft über das wissenschaftliche Selbstbild der Bloggenden, über ihr Verhältnis zu bestehenden und zu neuen Wissenschaftspraktiken. Wenn das Medium die Botschaft ist, wie es der Philosoph und Medientheoretiker Marshall McLuhan formulierte, dann zeigen bloggende Forscherinnen und Forscher, wie sie sich Wissenschaft vorstellen: offen und im Dialog, mit Raum für verschiedene Praktiken und der akzeptierten Möglichkeit, sich zu irren. Dabei wird Bloggen auch als nützliche Tätigkeit und nicht nur als Herausforderung unseres derzeitigen Wissenschaftsbetriebs verstanden: „Ich sehe Bloggen unideologisch und betrachte mich nicht als Teil einer Revolution“50, schreibt etwa Holger Berwinkel in einem Beitrag über seine Blogerfahrung. Wissenschaftsbloggende zeigen ihre individuelle Konzeption von Wissenschaft und das, „was man als zeigbar oder nicht, als legitim oder nicht ansieht sowie die Basis, auf der man entscheidet, sich „dafür“ Zeit zu nehmen, inmitten all der anderen Prioritäten und getrieben von Evaluationskriterien, die selbst wiederum Ausdruck einer bestimmten Konzeption von Forschung sind.“51 Die Berichte aus der laufenden Forschung haben freilich ihre Grenzen. Die völlige Offenheit im Blog ist ein Phantasma, wird doch das Eigentliche, der Kern der Forschung noch nicht hergegeben. So ist die Frage „Blogge ich das oder hebe ich das für eine Publikation auf“52, ein ständiger Begleiter der Bloggenden. Auch die Rohdaten – in den Geisteswissenschaften etwa Quellen oder erstellte Daten und Statistiken – werden zumeist während des Forschungsprozesses nicht öffentlich gemacht. Quellenblogs wie „Le Parlement de Paris“, in denen Archivalien veröffentlicht werden, die die Forschenden selbst gerade erst auswerten, sind Ausnahmen und vorsichtige Zeichen dafür, dass sich im Hinblick auf Teilen und Zusammenarbeit in den Geisteswissenschaften ein Umdenken anbahnen könnte.53 „Share knowledge“54 ist bei Wissenschaftsbloggenden einer der Hauptgründe für ihre Tätigkeit in den sozialen Netzen, womit Wissenschaft – was neu sein dürfte – auch als „sozial“ inszeniert und gelebt werden kann. Als Publikationsort ist ein Blog ein Raum, den man „bewohnt“ und konstruiert, ein Ort, in dem Forschende bestimmte Themen aufgreifen, über andere schweigen, Texte zitieren, den eigenen Gedanken Ausdruck verleihen, Ratschläge geben und

50 Holger Berwinkel, Orchideenfach im Nebenamt: Hilft Bloggen der Aktenkunde aus ihrer Nische? In: Aktenkunde, 15.11.2014, http://aktenkunde.hypotheses.org/273. 51 „exprimer un certain rapport à la recherche, à ce que l’on considère comme montrable ou non, légitime ou non, selon que l’on décide de prendre le temps „pour ça“, au milieu de tant d’autres priorités, tellement contraints que nous sommes par les critères d’évaluation, eux-mêmes l’expression d’une certaine conception de la recherche.“ Zitat aus: Mélodie Faury, Le carnet de recherche comme pratique de chercheur.se.s – Un billet prévu prenant une direction imprévue, in: Infuse! Nos rapports aux sciences, 3.7.2012, http://infusoir.hypotheses.org/2087. 52 Lehner, Wissenschaftliches Bloggen im SWOT-Check. 53 Vgl. Mounier, Die Werkstatt öffnen, 57. 54 Kjellberg, I am a blogging researcher.

Herausforderung für unsere Wissenschaftskultur: Weblogs in den Geisteswisseschaften

67

auf andere Räume verweisen, die ebenfalls „bewohnt“ sind.55 Aus dieser Vorstellung heraus entstand 2012 die Idee von Espaces réflexifs56, ein Blog als „Villa“, deren Schlüssel (Passwort) monatlich an eine andere Bewohnerin, einen anderen Bewohner übergeben wird, die oder der dann die „Villa“ mit einem eigenen Thema „besetzt“, alleine oder mit anderen in einer Wohngemeinschaft. Die Villabewohner erschreiben und bewohnen auf diese Weise die im Blogtitel genannten reflexiven Räume, deren esprit auch im Digitalen erfahrbar wird, hinterlässt doch jede Bewohnerin und jeder Bewohner nicht nur über Texte, Links und Kommentare, sondern auch über Kategorien und Schlagwörter sichtbare Spuren im Blog.57 Es sind jedoch keine geschützten Räume, die von den bloggenden Wissenschaftlerinnen und Wissenschaftlern bewohnt werden: Blogs sind offen einsehbar, sofern man Blogbeiträge nicht durch ein Passwort schützt. Viele Wissenschaftlerinnen und Wissenschaftler kostet es Überwindung, Unfertiges, Halbgares, Ideen im Entstehen zu publizieren. Dahinter steht die Angst, sich zu täuschen, zu früh an die Öffentlichkeit zu gehen, die eigene Meinung später wieder ändern zu müssen, etwas übersehen zu haben, sich zu blamieren. Diese Angst ist aus meiner Sicht auch das Hauptargument gegen die These, dass Blogs einen Fluchtort darstellen, der nur deshalb genutzt wird, weil der Einstieg niederschwellig ist und ohne vorherige Qualitätskontrolle publiziert werden kann. Denn das Risiko ist (theoretisch) groß, erfolgt die Qualitätssicherung doch trotzdem, nur eben nach der Publikation: Man gibt die geschützten Räume eines Seminars auf und stellt sich mit einem frei im Netz verfügbaren Blog der potentiellen Kritik der gesamten wissenschaftlichen und nicht-wissenschaftlichen Öffentlichkeit. Sicherlich ist auch das ein Phantasma, gerade, wenn man sich die niedrigen Kommentarzahlen vor Augen führt, aber eben eines, das stark hemmend wirkt. Die Art und Weise, wie man bloggt und auch die Auswahl der Themen hängen u.a. davon ab, für welches Zielpublikum Wissenschaftsbloggende schreiben. Denn während Fachjournale, Dissertationen und Habilitationen sich an ein Fachpublikum richten, adressieren Wissenschaftsblogs – zumindest theoretisch – neben dem Fachkollegium parallel die interessierte Öffentlichkeit. Dies muss nicht gleichzeitig geschehen: Durch die Flexibilität von Blogs können Forschende in einem Beitrag Peers, in einem anderen die nicht-akademische Öffentlichkeit ansprechen. So hat Michael Schonhardt auf seinem dissertationsbegleitenden Blog „Quadrivium“ die Kategorie „imago mundi“ eingerichtet, in der er Beiträge einordnet, die er „für interessierte Laien verständlich und unterhaltsam“58 aufbereiten möchte. Gerade in dieser „dualen Rolle“59 als gleichzeitiger Kanal wissenschaftsinterner Kommunikation und öffentlicher Debatte liegt eine Stärke des Mediums, das darüber hinaus frei im Netz zugänglich ist. 55 Vgl. Faury, Le carnet de recherche comme pratique de chercheur.se.s. 56 Espaces réflexifs, http://reflexivites.hypotheses.org/. 57 Der Blog als „Raum“ ist hier metaphorisch gemeint, sicherlich würde sich eine medienwissenschaftliche Untersuchung, die sich auf Raumtheorien etwa von de Certeau stützt, lohnen. 58 Michael Schonhardt, Über das Blog, in: Quadrivium. Wissenskulturen im Reich im 12. Jahrhundert, http://quadrivium.hypotheses.org/uber. 59 Mahrt, Puschmann, Science blogging, 6.

68

Mareike König

Wissenschaftsblogs können außerdem Brücken darstellen und einen Transfer zur interessierten Öffentlichkeit leisten.60 Zumindest in der Theorie: Eine Umfrage unter Wissenschaftsbloggenden ergab, dass sich diese überwiegend an Peers richten und weder in Themenwahl noch in Sprachanspruch Rücksicht auf ein breites Publikum nehmen.61 Die Rolle von Wissenschaftsblogs als Brücke in die Öffentlichkeit ist damit, so die Studie, eher marginal. Sind Wissenschaftsblogs also keine „Fenster im Elfenbeinturm“, sondern vielmehr neue und digitale Elfenbeintürme? Eine Antwort darauf kann ohne die entsprechenden Leserstudien, die bisher fehlen, nicht gegeben werden. Die statistischen Erfassungen der Blogs geben keine Auskunft darüber, wie sich die Leserschaft des eigenen Blogs zusammensetzt. Wenn aber ein Blog wie „The Recipes Project“62, in dem es um historische Rezepte zwischen Zauberei und Medizin geht, monatlich über 12.000 unique user aufweist, liegt es nahe, dass sich neben dem kleinen Kreis der Fachkolleginnen und -kollegen auch eine erweiterte Öffentlichkeit für die dort behandelte Thematik interessiert.63 In Sprache und Komplexität unterscheiden sich die Blogbeiträge deutlich je nach Blogplattform, wie die Untersuchung von Mahrt/Puschmann ergab.64 Nur auf den eher naturwissenschaftlich ausgerichteten Plattformen Researchblogging und Scienceblogs wurden im untersuchten Sample überhaupt Artikel mit hoher sprachlicher Komplexität ausgemacht (12% bei Researchblogging, 1% bei Scienceblogs). Als Beiträge mit mittlerer Schwierigkeit galten 57% der Beiträge von Researchblogging, 43% der Beiträge von Hypotheses.org, 21% der Beiträge von Scilogs, 7% der Beiträge von Scienceblogs und 0% der populären Plattform Amazings.es.65 Aus der Erfahrung mit dem deutschsprachigen Teil der Blogplattform Hypotheses.org heraus lässt sich eher unterstreichen, dass die Bloggenden Beiträge durchaus mit Blick auf eine nicht-akademische Öffentlichkeit schreiben. Wenn das Medium „Blog“ nicht die einzige Botschaft ist, sondern die dort publizierten Inhalte das entscheidende Element darstellen, dann stellt sich die Frage, ob Wissenschaftsbloggen andere Erkenntnisse ermöglicht und ob Blogs den wissenschaftlichen Diskurs prägen? Blogs prägen sicherlich Metadiskurse über den Einsatz von sozialen Medien allgemein und das Wissenschaftsbloggen im Besonderen. Die Beiträge und Hilfestellungen zu Fragen des Bloggens auf dem „Redaktionsblog“ und auf dem „Bloghaus“, die von der Redaktion bzw. dem Community Management von de.hypotheses geschrieben werden, sind dafür Beispiele. Der Aufklärungsschub durch das Portal in Sachen Wissenschaftsbloggen allgemein, aber auch im Hinblick auf die Ausgestaltung des Impressums, die Nutzung von CCLizenzen und die Wichtigkeit von Open Access ist hoch anzusiedeln.66 Beispiele, 60 61 62 63

Vgl. Hecker-Stampehl, Bloggen in der Geschichtswissenschaft. Vgl. Mahrt, Puschmann, Science blogging, 4. The Recipes Project, http://recipes.hypotheses.org/. Die Statistiken der Blogplattform hypotheses.org und des gesamten Portals OpenEdition sind offen einsehbar unter: http://logs.openedition.org/. 64 Vgl. Mahrt, Puschmann, Scientific blogging, 9. 65 Vgl. ibid. 66 Vgl. etwa die Serie Blog&Recht von Klaus Graf bei Archivalia. Bisher sind neun Beiträge erschienen, siehe den letzten Beitrag und am Ende die Übersicht: Klaus Graf, Blog&Recht:

Herausforderung für unsere Wissenschaftskultur: Weblogs in den Geisteswisseschaften

69

in denen Blogs wissenschaftliche Diskurse prägen, sind schwieriger beizubringen, nicht zuletzt deshalb, weil das Entstehen eines Diskurses einige Zeit benötigt und weil es keine klaren Maßstäbe für die Messung seines Entstehens gibt. In den Naturwissenschaften sind Fälle bekannt, in denen Artikel in der Zeitschrift „Science“ kontroverse und kritische Berichte in Wissenschaftsblogs ausgelöst haben, so dass dem ursprünglichen Beitrag in der Zeitschrift ein erweiterter Kommentar zur Seite gestellt wurde.67 Die enge Verzahnung des Begriffs „Frühe Neuzeit“ mit der Blogosphäre hat Newton Key jüngst in einem Beitrag nachgewiesen.68 Darüber hinaus können gerade Gruppenblogs mit verschiedenen Autoren Themen einer Disziplin unter verschiedenen Blickwinkeln aufgreifen und „methodisch-theoretische Diskussionen auf andere Weise (…) führen und (…) bündeln“69. Das Zitieren von Blogbeiträgen in gedruckter Literatur ist noch eine Seltenheit, die aber in dem Maße zunehmen wird, in dem Forschungsbeiträge auch in Blogs publiziert werden. Prominentes Beispiel ist jüngst die Veröffentlichung eines bedeutenden Handschriftenfunds von Klaus Graf nicht etwa in einer Fachzeitschrift, sondern in einem Wissenschaftsblog, ein Publikationsort, der in diesem Fall als Provokation verstanden werden kann.70 Belegt ist außerdem die Intention, Diskurse auszulösen. Holger Berwinkel etwa hat als Motivation für die Eröffnung seines Wissenschaftsblogs „Aktenkunde“ das „Fehlen eines wissenschaftlichen Diskurses“ zu diesem Thema angegeben. In seinem Rückblick zieht er in dieser Hinsicht jedoch ein kritisches Resümee über sein Blog, das die Entstehung eines Handbuchs begleitet, denn: „der angestrebte Diskurs kam bis jetzt nicht wirklich zustande“71. Zu beobachten ist außerdem, dass sich Wissenschaftsbloggende an aktuell in Tageszeitungen geführten Debatten beteiligen. Beispiele dafür finden sich im „Mittelalterblog“, wo die Replik auf einen FAZArtikel zu den Plagiatsvorwürfen gegen Olaf Rader den Redakteur Patrick Bahners zu Kommentaren im Blog veranlasste.72 Darüber hinaus prägen Wissenschaftsblog-

67 68 69 70 71 72

Was tun bei Abmahnung, in: Archivalia, 14.4.2014, http://archiv.twoday.net/stories/ 752348 320/. Beispiele bei: Mahrt, Puschmann, Science blogging, 1. Vgl. Newton Key, Crowdsourcing the Early Modern Blogosphere, in: Peter Haber, Eva Pfanzelter (Hg.), historyblogosphere. Bloggen in den Geschichtswissenschaften, München 2013, 101–118 [DOI: 10.1524/9783486755732.101]. Hecker-Stampehl, Bloggen in der Geschichtswissenschaft, 39. Vgl. Mareike König, Inhalt: Sensation, Publikationsort: Provokation. Handschriftenfund in Wissenschaftsblog veröffentlicht, in: Redaktionsblog, 3.3.2015, http://redaktionsblog.hypotheses.org/2727. Holger Berwinkel, Orchideenfach im Nebenamt: Hilft Bloggen der Aktenkunde aus ihrer Nische? In: Aktenkunde, 15.11.2014, http://aktenkunde.hypotheses.org/273. Martin Bauch, Breitseiten und Rohrkrepierer – zum Verhältnis von Feuilleton, Plagiat und historischem Sachbuch, in: Mittelalter. Interdisziplinäre Forschung und Rezeptionsgeschichte, 8.5.2014, http://mittelalter.hypotheses.org/3652.

70

Mareike König

gende öffentliche Debatten. Zu den bekanntesten Beispielen im geisteswissenschaftlichen Bereich gehört die Aufdeckung der „Causa Stralsund“ durch Klaus Graf in den Blogs „Archivalia“ und „Kulturgut“.73 DER NUTZEN VON BLOGS, FORMEN DER QUALITÄTSSICHERUNG UND ANERKENNUNG Bloggen kostet Zeit. Erfahrungsgemäß dauert das Schreiben eines ordentlichen, kleineren Beitrags und seine Publikation mit Titelbild mindestens drei Stunden. Bei höherer Komplexität und größerem Umfang wird der Zeitaufwand größer. Einmal pro Woche sollte ein Beitrag erscheinen, so eine verbreitete Meinung, der man – mit Blick auf die größtmögliche Freiheit – keinesfalls anhängen muss und sich auch nicht unter Druck setzen lassen sollte.74 Da das Bloggen mit einem – bisweilen – nicht unbeträchtlichen Zeitaufwand verbunden sein kann, stellt sich die Frage nach der Anerkennung und nach dem „return of investment“. Je nach Konzeption und eigenen Zielen kann dieser „return“ unterschiedlich ausfallen und bewertet werden. Für viele Wissenschaftsbloggende zählen vor allem intrinsische Motive. Für sie ist das Schreiben, das sollte deutlich geworden sein, ein tatsächliches Bedürfnis und ein selbstverständlicher Teil ihres dialogischen Forschungsprozesses. Andere sind vor allem an einer großen Verbreitung ihrer Beiträge interessiert, um darüber Eigenwerbung zu betreiben. Mit einem Wissenschaftsblog kann man – so die Vorstellung, die wiederum auch ein Phantasma ist – ein Thema „besetzen“. Mit einem thematisch eng geführten Wissenschaftsblog wird öffentlich deutlich gemacht, zu welchem Thema man in laufenden Forschungen steckt. Gleichzeitig wird in Blogs ein Selbstbild erzeugt, eine akademische Identität. Gerade für den Nachwuchs ist es von Interesse, die eigene Position durchzusetzen, ein wissenschaftliches „Ich“ zu profilieren und mit Gleichgesinnten zu kommunizieren. Bloggen dient damit auch der Selbstvergewisserung und sei es nur für die Erkenntnis, mit dem Wunsch nach Kommunikation und Publikation im Web 2.0 nicht alleine zu sein. Das Vernetzen mit Gleichgesinnten kann als Bestätigung gelesen werden, dass der wissenschaftliche Austausch in ephemeren Räumen wie den sozialen Netzen seine Berechtigung hat. Gleichzeitig mag die Vorstellung von einer Entmachtung der Gatekeeper und Professoren durch die selbständige Aneignung und Gestaltung eines wissenschaftlichen Publikationsorts als Utopie motivierend sein. Denn wie so oft geht auch dieser Medienbruch mit der Hoffnung einher, dass sich ungerechte und verkrustete Strukturen Situationen ändern lassen und die Welt der Wissenschaft sich zu einer besseren wandelt. 73 Vgl. die Beiträge zur „Causa Stralsund“ in Archivalia: http://archiv.twoday.net/search?q= causa+stralsund und im „Weblog Kulturgut“ http://kulturgut.hypotheses.org/category/bibliotheken/stralsund sowie Michael Schmalenstroer, Die Stralsunder Gymnasialbibliothek ist gerettet, in: Schmalenstroer.net, 21.11.2012, http://schmalenstroer.net/blog/2012/11/die-stralsunder-gymnasialbibliothek-ist-gerettet/. 74 Vgl. Graf, König, Forschungsnotizbücher, 86.

Herausforderung für unsere Wissenschaftskultur: Weblogs in den Geisteswisseschaften

71

Anders als der Nachwuchs haben es arrivierte Wissenschaftlerinnen und Wissenschaftler weniger nötig, eine akademische Identität aufzubauen oder ein Thema zu besetzen. Das haben sie bereits über herkömmliche Publikationen, Vorträge, Tagungen, vielleicht auch über Interviews oder Artikel in der Presse getan. Professoren sind an der Spitze der Karriereleiter angekommen, und zwar ohne zu bloggen und ohne sich permanent im wissenschaftlichen Forschungsprozess zu präsentieren. Das mag sich in Zeiten knapper Forschungsgelder ändern, doch zumeist ist der Hinweis auf Zeitmangel das Argument, um sich erst gar nicht mit sozialen Medien auseinanderzusetzen. Wer es dennoch tut, zeigt in den Augen vieler, dass er die wertvolle Zeit „dafür“ verwendet anstatt für die Wissenschaft. Doch die Unkenntnis durch mangelnde Erfahrung halten viele nicht-bloggende Wissenschaftlerinnen und Wissenschaftler nicht davon ab, vehement dagegen zu sein.75 Dies hat zur Folge, dass es beim wissenschaftlichen Nachwuchs große Unsicherheiten in Bezug auf das Wissenschaftsbloggen gibt.76 Da viele Hochschullehrende Blogs ablehnen, könnte Bloggen der wissenschaftlichen Karriere schaden, so eine These, die in Blogs vielfach und ausgiebig diskutiert wurde und wird.77 Daneben besteht die Angst, dass andere Ideen aus den Blogs „klauen“ und der Einreichung der Dissertation zuvor kommen könnten, sowie Unsicherheiten in Bezug darauf, was und worüber man bloggen, wie viel man preisgeben, was man hinterher als „Eigenplagiat“ in die Dissertation übernehmen kann.78 Es fehlen Untersuchungen darüber, ob in den deutschsprachigen Geisteswissenschaften das Bloggen als Praktik nicht anerkannt ist, weil es hauptsächlich vom Nachwuchs betrieben wird.79 In den Naturwissenschaften ist Bloggen selbstverständlicher Bestandteil des wissenschaftlichen Publikations-Portfolios über alle Karrierestufen hinweg. Und auch in anderen Sprach- und Kulturräumen ist Bloggen bei Hochschullehrenden verbreiteter, wie ein Blick auf die Wissenschaftsblogs etwa bei fr.hypotheses zeigt.80 Statistiktools geben über die Verbreitung der eigenen Blogbeiträge Auskunft. Sicherlich ist es persönlich befriedigend zu sehen, dass selbst ein thematisch eng geführtes Wissenschaftsblog Zugriffe von mehreren hundert unique user im Monat hat, während es ein Artikel in einer Fachzeitschrift durchschnittlich auf 1,4 Leser

75 Vgl. die Diskussionen bei der Tagung „Rezensieren, Kommentieren, Bloggen. Wie kommunizieren Geisteswissenschaftler in der digitalen Zukunft?“, Januar 2013 in München, dokumentiert auf dem gleichnamigen Blog, http://rkb.hypotheses.org/. 76 Vgl. Lisa Bolz, Bloggende Doktoranden. Eine Bilanz zu Fragen und Antworten #wbhyp, in: Digital Humanities am DHIP, 26.1.2015, http://dhdhi.hypotheses.org/2343. 77 Vgl. Florian Freistetter, Schadet Bloggen der wissenschaftlichen Karriere, in: Astrodictum simplex, 6.5.2012, http://scienceblogs.de/astrodicticum-simplex/2012/05/06/schadet-bloggender-wissenschaftlichen-karriere/. 78 Vgl. dazu auch den Beitrag von Anton Tantner in diesem Band. 79 So die These bei: Lehner, Wissenschaftliches Bloggen im SWOT-Check. 80 Vgl. Mareike König, Wissenschaftliche Blogs zwischen Deutschland und Frankreich: die Blogplattform Hypotheses.org, in: Michel Grunewald (Hg.), France-Allemagne au XXe siècle. La production de savoir sur l’autre. IV Les médias, Bern 2015 (im Druck).

72

Mareike König

bringt.81 Nun ist aber Reichweite nicht alles: Manchmal genügt es, dass die eine richtige Leserin oder der eine „unerwartete Leser“82 auf das eigene Blog aufmerksam wird. So gibt es unvorhersehbare Nutzen des Bloggens, die teilweise bereits erwähnt wurden: Kontakte zu Forschenden, die man im analogen Leben nicht kennen gelernt hätte, Einladungen zu Konferenzen, Austausch und Zusammenarbeit, Aufforderung, einen Blogbeitrag auszuarbeiten und diesen dann in einer Fachzeitschrift zu veröffentlichen. Von diesen Formen „überraschender Resonanz“83 berichtet beispielsweise Anton Tantner. Auch werden wissenschaftliche Blogbeiträge von Journalisten als Expertenwissen zitiert. Manchmal genügt dafür ein einziger Beitrag, wie das Beispiel von Arndt Weinrich zeigt, aus dessen Blogbeitrag über die unterschiedlichen Erinnerungskulturen des Ersten Weltkriegs in Deutschland und Frankreich in Spiegel Online in der deutschen und englischen Ausgabe sowie in anderen Medien zitiert wurde.84 Das Verhältnis zwischen Wissenschaftsblogs und Journalismus ist freilich vor allem in den Naturwissenschaften nicht ohne Spannungen.85 Wer sich bei der Frage des Nutzens vor allem auf Kommentare konzentriert, wird oftmals enttäuscht. Die Anzahl der Kommentare in geisteswissenschaftlichen Blogs mit engem Themenbezug ist im Vergleich zu den natur- und den stärker populärwissenschaftlich ausgerichteten Blogs deutlich niedriger. Eine Untersuchung von fünf wissenschaftlichen Blogplattformen, Researchblogging, Scienceblogs, Scilogs, Hypotheses.org und Amazing.es, errechneten einen Durchschnittswert von 9,6 Kommentaren pro Beitrag. Diese waren jedoch sehr ungleich verteilt, denn 37% aller Beiträge bekamen keinen Kommentar.86 Den Statistiken von Hypotheses.org zufolge wurde 2012 durchschnittlich nur jeder dritte bis vierte Beitrag auf der Plattform kommentiert, d.h. rund 62% blieben ohne Kommentar.87 Die Anzahl der Kom-

81 Hubertus Kohle, Eineinhalb Leser pro Artikel, in: Rezensieren, Kommentieren, Bloggen, 25.9.2012, http://rkb.hypotheses.org/256. 82 Zum Konzept des „unexpected reader“ siehe: Kevin Smith, The unexpected reader, in: Scholarly Communication @ Dukes, 15.11.2011, http://blogs.library.duke.edu/scholcomm/ 2011/ 11/ 15/the-unexpected-reader/. 83 Anton Tantner, Das geschichtswissenschaftliche Weblog als Mittel des Selbstmanagements, in: Peter Haber, Eva Pfanzelter (Hg.), historyblogosphere. Bloggen in den Geschichtswissenschaften, München 2013, 75–87, hier: 84 [DOI: 10.1524/9783486755732.75] 84 Blogbeitrag: Arndt Weinrich, Der Centenaire 2014 und die deutsch-französischen Beziehungen, in: Grande Guerre, 2.12.2011, http://grandeguerre.hypotheses.org/143. Zitiert z.B. in http://www.spiegel.de/international/world/world-war-i-centenary-casts-light-on-french-german-relations-a-943412.html#ref=rss. 85 Vgl. die Diskussionen rund um den Workshop „Wissenschaftskommunikation“ der Volkswagenstiftung vom 30.6.–1.7.2014, http://www.volkswagenstiftung.de/wowk14.html und die Stellungnahme der Arbeitsgruppe der Akademien der Wissenschaft „Zur Gestaltung der Kommunikation zwischen Wissenschaft, Öffentlichkeit und den Medien“, http://www.leopoldina .org/de/publikationen/detailansicht/?publication[publication]=580&cHash=33ff5b101b17cb24425f2dd48cffffa0. 86 Vgl. Mahrt, Puschmann, Science blogging, 9. 87 Vgl. König, Die Entdeckung der Vielfalt, 184–185.

Herausforderung für unsere Wissenschaftskultur: Weblogs in den Geisteswisseschaften

73

mentare sind seit einigen Jahren rückläufig, vermutlich, weil sich ein Teil der Diskussionen in die sozialen Netze wie Twitter, Facebook und Google+ verlagert hat. Es fehlen Reputationsanreize, um Wissenschaftlerinnen und Wissenschaftler zum Kommentieren zu bringen, die reine Lust an der wissenschaftlichen Auseinandersetzung, an der Diskussion scheint nicht motivierend genug, oder die Öffentlichkeit zu abschreckend.88 Forschende werden aber im analogen Raum, etwa am Rande von Tagungen, auf ihre Blogbeiträge angesprochen. Marin Dacos hat dafür den Begriff der „stillen Konversation“ geprägt, still, weil diese Unterhaltungen nicht in Kommentarzahlen, Pingbacks oder Trackbacks mess- und sichtbar sind, zur dialogischen Entwicklung von Thesen jedoch beitragen.89 Eng verknüpft mit dem Thema der Anerkennung ist die Frage der Qualitätssicherung. Wenn Wissenschaftsbloggen nicht nur als positive individuelle Erfahrung oder als außeruniversitäre Bekanntheit zu Buche schlagen, sondern als wissenschaftliches Publikationsengagement anerkannt werden soll, so stellt sich die Frage nach der Bewertung und der Einordnung von Blogs und ihren Beiträgen. Auf die Frage, ob Wissenschaft Qualitätsmerkmale und Gatekeeper braucht, antworten Forschungsförderer mit einem klaren „Ja“. Allerdings haben bestehende Systeme ihre Schwächen und fallen insbesondere durch Intransparenz auf.90 Ein Umdenken ist daher notwendig sowie der Einsatz und das Entwickeln von Lösungen, die den gegenwärtigen digitalen Praktiken entsprechen. Das Schlagwort „publish first, filter later“ beschreibt, dass die Qualitätsbewertung nicht wie bisher vor, sondern nach der Publikation vorgenommen wird. Dazu werden digitale Filter- und Bewertungsmechanismen sowie klassische Quellenkritik benötigt.91 Kuratierende Redaktionen übernehmen mit ihrer Arbeit des Entdeckens, Filterns, der Auswahl, der Sammlung, Evaluierung, des Zusammenführens und Weiterverbreitens zentrale Aufgaben für die Forschenden, die als Einzelne mit den Herausforderungen der Publikationsflut überfordert sind.92 Für Blogs bieten beispielsweise Blogplattformen wie Hypotheses.org ein mehrstufiges Verfahren des Kuratierens, mit dem die Sichtbarkeit von Blogbeiträgen gesteuert wird. Auf der Plattform sind ausschließlich Wissenschaftsblogs von Forschenden, die an eine Universität oder eine wissenschaftliche Einrichtung angebunden sind, und die ein thematisches Blog führen. Neue Blogs werden zunächst von der wissenschaftlichen Redaktion beobachtet und erst nach einer Zeit, bzw. sobald substantielle Beiträge publiziert werden, in den sozialen Medien beworben. Die Sichtbarkeit erhöht sich 88 Vgl. Mareike König, Über das Kommentieren in Wissenschaftsblogs, in: Rezensieren, Kommentieren, Bloggen, 23.10.2012, http://rkb.hypotheses.org/290. 89 Vgl. König, Die Entdeckung der Vielfalt, 195. 90 Vgl. dazu Andreas Fahrmeir, Bloggen und Open Peer Review in der Geschichtswissenschaft: Chance oder Sackgasse, in: Peter Haber, Eva Pfanzelter (Hg.), historyblogosphere. Bloggen in den Geschichtswissenschaften, München 2013, 23–35, hier: 30–34 [DOI: 10.1524/ 9783486755732.23]. 91 Vgl. dazu Graf, Qualität wird überschätzt. 92 Hervorragender Überblick über derzeitige Angebote im Beitrag: Joan Fragaszy Troyano, Jeri Wieringa, Discovering Scholarship on the Open Web: Communities and Methods, April 2013, http://pressforward.org/discovering-scholarship/.

74

Mareike König

in einem nächsten Schritt, wenn ein Blog in den Katalog von Hypotheses.org aufgenommen wird. Für die größte Sichtbarkeit sorgt die Auswahl von Beiträgen für die Startseite der Plattform, wobei die prominente Platzierung im Slider oben auf der Seite eine besondere Auszeichnung darstellt. Insbesondere für Lehrende besteht die Aufgabe, ihre Studierenden auf bestehende Angebote hinzuweisen und Techniken zur kritischen Bewertung von Informationen im Internet zu vermitteln. Auch über die sozialen Netze erfolgt eine Auswahl von Blogbeiträgen, in diesem Fall durch die Community selbst, werden doch durch Erwähnungen bei Twitter, Facebook und Co. gute Artikel immer wieder nach oben gespült und damit einer breiteren Leserschaft bekannt gemacht. Eine weitere Form der Qualitätssicherung für Blogbeiträge ist das Verfahren des Open Peer Review (OPR), durch das – anders als beim klassischen Peer Review – Bewertungen transparent gemacht werden. Theoretisch ist jede Form des Kommentars in einem Wissenschaftsblog eine Form des Open Peer Review. Professionell gehandhabt bieten diese Verfahren eine Funktion, die das absatzweise Kommentieren von Blogbeiträgen erlaubt. Dies ist vor allem dann sinnvoll, wenn Forschungsergebnisse schnell der Wissenschaftsgemeinschaft zur Verfügung gestellt werden sollen und geplant ist, dass Autorinnen und Autoren ihre Beiträge auf der Basis der Kommentare und Diskussionen überarbeiten, um dann eine verbesserte Version online und/oder gedruckt zu publizieren. Ein Beispiel für dieses Verfahren stellt der Sammelband „historyblogosphere“ dar, der herausgegeben von Peter Haber und Eva Pfanzelter 2013 im Oldenbourg Verlag erschienen ist.93 Eine der größten Herausforderungen besteht darin, Peers zum Kommentieren anzuregen, was nur gelingen kann, wenn damit eine Erhöhung der wissenschaftlichen Reputation verbunden ist. Denn derzeit wird das Kommentieren in Blogs – noch viel weniger als das Bloggen selbst – nicht als „wissenschaftliche Praktik“ angesehen.94 Wenn durch moderierte Open-Peer-Review-Prozesse die Form der dialogischen Aufbereitung von Blogbeiträgen zu Zeitschriftenaufsätzen oder Buchkapiteln gestärkt würde, wäre das aus meiner Sicht ein guter Weg, um den einzelnen Publikationsgattungen ihre jeweilige Eigenheit zu belassen und die Berechtigung von Blogs im Forschungsprozess anzuerkennen und zu stärken. Das bedeutet freilich nicht nur einen erhöhten Betreuungsaufwand für diese Publikationen, es erfordert auch den Willen und den Mut, diese Verfahren auszuprobieren.

93 Peter Haber, Eva Pfanzelter (Hg.), historyblogosphere. Bloggen in den Geschichtswissenschaften, München 2013 [DOI: 10.1524/9783486755732] 94 Vgl. Fahrmeir, Bloggen und Open Peer Review, 32.

KULTURWISSENSCHAFTLICHE BETRACHTUNGEN VON SMARTPHONE-ANWENDUNGEN Methodologische Herausforderungen, Analysemöglichkeiten und Perspektiven Annika Dille Im Zeitalter der Digitalisierung haben sich die Formen der historischen Präsentation auf unzählige Weise vervielfacht. Gerade für nicht-wissenschaftliche und außerdidaktische Vermittlungsszenarien werden massentaugliche Medienangebote aufgegriffen und aktuellste Nutzergewohnheiten berücksichtigt. Ausgelöst durch die gestiegene Verwendung digitaler Medien in der Gesellschaft, der Beliebtheit geschichtskultureller Angebote in den Massenmedien und einer Fülle an Freizeitalternativen bedienen sich zentrale Akteure zur Bewahrung des kulturellen Erbes – allen voran öffentliche Institutionen wie Museen – vermehrt der vielfältigen Repräsentationsmöglichkeiten digitaler Medien, um Ausstellungsinhalte innovativ aufzubereiten. Besucher und ihre individuellen Interessen sind Ausgangspunkt für neue museumsdidaktische Konzepte, wobei großer Wert auf Interaktivität, Unterhaltung und Partizipation gelegt wird. Nahezu zeitgleich entwickelten sich mit mobilen Endgeräten wie Smartphones und Tablets samt ihrer Anwendungssoftware – sogenannten Apps – technische Errungenschaften, die die gegenwärtige Medienlandschaft entscheidend prägen. Gerade für die Vermittlung historischer Erkenntnis und die Präsentation kulturhistorischen Materials bieten mobile Medien1 ein breitgefächertes Angebot und werden auf Grund rasant steigender Nutzerquoten bereits vermehrt als „Medien geschichtlicher Darstellungsweisen“2 eingesetzt. Obwohl sich für die Kulturwissenschaften daraus interessante Fragestellungen und neue Forschungsobjekte ergeben, ist der Einsatz mobiler Medien zur Geschichtsvermittlung ein bisher selten aufgegriffenes Themenfeld am Rande der Digital Humanities. Dabei birgt eine Untersuchung exemplarischer Fallbeispiele nicht nur aufschlussreiche Ergebnisse für die gegenwärtige Praxis der Geschichtsvermittlung, sondern bietet auch Lösungsansätze für methodologische Herausforderungen im Umgang mit dieser speziellen Form digitaler Quellen sowie praktische Anleitungen für zukünftige Arbeitstechniken. Der vorliegende Beitrag zeigt das Potenzial und die Grenzen einer Medienanalyse kulturgeschichtlicher Smartphone-Apps für die kulturwissenschaftliche Forschung auf. Textgrundlage ist meine im Frühjahr 2014 am Nordeuropa-Institut der 1 2

Der Begriff „Mobile Medien“ wird im Folgenden synonym zu mobilen Endgeräten mit Internetzugang, das heißt Smartphones, Tablets und ihren Anwendungssoftwares beziehungsweise Apps gebraucht. Peter Haber, Digital Past, Geschichtswissenschaft im digitalen Zeitalter, München 2011, 135.

76

Annika Dille

Humboldt-Universität zu Berlin eingereichte Masterarbeit mit dem Titel „Digitale Geschichtsvermittlung in Dänemark am Beispiel mobiler Anwendungen für Smartphones“. Ziel der Forschung war es, mittels einer vergleichenden Analyse dreier Fallbeispiele die Chancen und Risiken mobiler Anwendungen für die Geschichtsvermittlung zu diskutieren. Den Quellenkorpus bildeten die App „Den gamle By“ vom gleichnamigen Freilichtmuseum im jütischen Aarhus mit Schwerpunkt auf der Geschichte nordeuropäischer Kaufmannsstädte, die App „100 Borge“ von Danmarks Borgcenter, einem neueröffneten Forschungszentrum mit Fokus auf mittelalterlichen Burgen, sowie die mobile Anwendung „1001 fortællinger om Danmark“ zum gleichnamigen Projekt des dänischen Kulturministeriums zur Erfassung dänischer Erinnerungsorte. Hinsichtlich digitaler Vermittlungsprojekte eignet sich Dänemark wie die anderen skandinavischen Länder „im Allgemeinen gut für Untersuchungen auf diesem Feld, weil in allen nordischen Ländern die Digitalisierung (nicht nur) des kulturellen Erbes in national geltenden politischen Strategien formuliert worden ist.“3 Bereits seit den 1990er Jahren existiert in Dänemark eine digitale Agenda zur Bewahrung und Vermittlung des kulturellen Erbes. Neben nationalen Digitalisierungsmaßnahmen – etwa durch die Königliche Bibliothek – werden auch digitale Projekte einzelner Institutionen gefördert. Hintergrund ist ein Zusammenspiel aus exzellenten ökonomischen und kulturpolitischen Rahmen– bedingungen sowie die in der Gesellschaft fest verankerte Tradition des „selbstgeleitete[n] Lernen“ 4 im Sinne der Volksbildung. Nach einem kurzen Überblick über die Funktionsspezifika von Apps und ihrem aktuellen Einsatz zur Geschichtsvermittlung widmet sich das Folgende den methodologischen Herausforderungen einer App-Analyse samt den entwickelten Lösungsansätzen. Im Anschluss wird das für meinen Quellenkorpus entwickelte Analysekonzept skizziert, ohne einen Generalitätsanspruch zur kulturwissenschaftlichen Untersuchung von Apps postulieren zu wollen. Dabei werden die wesentlichen Ergebnisse meiner Forschung erörtert und zum Abschluss Perspektiven für zukünftige Forschungsvorhaben zur Geschichtsvermittlung mit mobilen Medien aufgezeigt. MOBILE MEDIEN UND IHR EINSATZ IN DER KULTURUND GESCHICHTSVERMITTLUNG Nachdem Apple das erste iPhone im Jahr 2007 auf den Markt gebracht hatte, folgten zahlreiche Technologiekonzerne mit ihren Ausführungen eines Smartphones. Dabei handelt es sich nicht nur um klassische Mobiltelefone ergänzt durch einen mobilen Internetzugang. Vielmehr sind Smartphones dank der Integration unterschiedlicher technologischer Hilfsmittel kompakte Computer, in denen sich die 3 4

Jan Hecker-Stampehl, Strategien zur Digitalisierung des kulturellen Erbes in Norwegen. Programmatik, Akteure, Agenda-Setting, in: Historische Mitteilungen der Ranke-Gesellschaft. Band 26, Kiel 2014, 116–133, hier: 117. Hecker-Stampehl, Strategien zur Digitalisierung, 117.

Kulturwissenschaftliche Betrachtungen von Smartphone-Anwendungen

77

Kerneigenschaften digitalen und online-basierten Materials wiederfinden. Diese sind zum einen eine hohe Multimedialität und Hypermedialität. Demnach bilden „nichtlinear verknüpfte, digital gespeicherte Texte, Töne, Bilder, bewegte Bilder, Animationen, Simulationen und Datenbanken ein integratives Ganzes.“5 Indem die Inhalte durch Links netzwerkartig angeordnet sind, haben sie weder einen definierten Anfang oder Schluss noch eine hierarchische Ordnung.6 Weitere Kerneigenschaft ist die Reaktivität von Webressourcen. So werden Nutzereingaben bei Suchanfragen individuell zugeschnitten, was personalisierte Informationen erzeugt.7 Die Besonderheit eines Smartphones drückt sich bereits mit der Materialität des Geräts aus. Es ist größer als klassische Handys, jedoch weiterhin leicht und tragbar. Mit der Einführung des Touch-Pads wurde die haptische Kommunikation zur Regel. Die Internetfähigkeit und die vereinfachte Nutzung von Online-Anwendungen sind technische Kerneigenschaften mobiler Endgeräte. Mit der Internetfähigkeit wurde ein Alleinstellungsmerkmal von Smartphones ermöglicht: die Einbindung von Apps. Durch den Download zusätzlicher Software kann das ohnehin breite Funktionsspektrum der Geräte beliebig erweitert werden. Die Programme sind zumeist kostenlos oder sehr preiswert und zeichnen sich durch eine einfache und schnelle Installation aus. Dabei gibt es unterschiedliche App-Varianten. Native Apps werden einmalig heruntergeladen und können fortan offline genutzt werden. Hybrid Apps werden ebenfalls heruntergeladen, funktionieren aber nur mit konstanter Internetverbindung. Demgegenüber stehen Web Apps und Mobile Websites, die im Browser aufgerufen werden. Sie sind für die responsive Darstellung auf mobilen Endgeräten optimiert und auf einen reduzierten Inhalt für den Gebrauch unterwegs beschränkt.8 Grundsätzlich sind Apps für jeden Nutzer selbst auswähl-, installierund erneuerbar. Je nach Interesse kann somit der gleiche Gerätetyp personalisiert und auf ganz unterschiedliche Weise genutzt werden.9 Eine weitere Besonderheit von Smartphones und Tablets scheint offensichtlich, bedeutet für die mediale Wissensvermittlung aber ein Novum: Sie sind mobil. Tragbare Medien gab es zwar schon immer, doch erst mit mobilen Endgeräten können individuell gewünschte Informationen sowie ortsbezogene Daten an Ort und Stelle abgerufen werden. Hilfestellung bieten dabei sogenannte Locative Media. Die Ein-

5 6 7 8

9

Astrid Schwabe, Historisches Lernen im World Wide Web: Suchen, flanieren oder forschen?, Göttingen 2012, 97. Haber, Digital Past, 117–118. Vgl. Martin Welker/Carsten Wünsch, Die Online-Inhaltsanalyse. Forschungsobjekt Internet, Köln 2010, 11. Claudia de Witt/Almut Sieber, Mobile Learning. Potenziale, Einsatzszenarien und Perspektiven des Lernens mit mobilen Endgeräten, Wiesbaden 2013, 14–15. Und: Armin Berger, Was Apps ausmacht, in: Jürgen Sieck/Regina Franken-Wendelstorf (Hgg.): Kultur und Informatik. Aus der Vergangenheit in die Zukunft, Boizenburg 2012, 247–250, hier: 250. Bettina Eisele, Révolution Francaise: der Louvre definiert den Multimediaguide neu, in: Sieck/Franken-Wendelstorf, Kultur und Informatik. Aus der Vergangenheit in die Zukunft, – Boizenburg 2012, 49–57, hier: 51. Und: Jason Farman, The Mobile Story. Narrative Practices with Locative Technologies, New York 2014, 4–6.

78

Annika Dille

bindung von GPS-Technologie, wie sie bereits Navigationssysteme nutzen, ermöglicht die Lokalisierung der Geräte. In vielen Apps drückt sich diese Funktion mit der Darstellung einer Landkarte oder der Einbindung des bekanntesten digitalen Kartierungsdiensts Google Maps aus, wobei zusätzliche, ortsbezogene Informationen integriert sind. Daneben ermöglichen Smartphones eine Erweiterung der Realität, etwa an historischen Schauplätzen. Bei Augmented Reality-Anwendungen „[w]ird die integrierte Kamera (…) in eine bestimmte Richtung gehalten, zeigt das Display den anvisierten Ort und reichert ihn um Zusatzinformationen aus dem Netz (…) an.“10 Mit ihrem komplexen Funktionsspektrum bieten mobile Endgeräte vielfältige Möglichkeiten, kulturhistorische Themen unterhaltsam aufzubereiten und einem breiten Publikum zugänglich zu machen. In Dänemark existiert bereits eine Vielzahl an Apps, die das nationale Kulturerbe zum Thema haben, sodass die drei untersuchten Anwendungen nur eine Auswahl markieren. Doch auch in Deutschland sind „Geschichts-Apps“ immer weiter verbreitet. Zu nennen sind hier etwa die „Berliner Mauer App“ der Bundeszentrale für Politische Bildung, verschiedenste Anwendungen zum Stolpersteine-Projekt des Künstlers Gunter Demning oder die Zeitzeugen-App „Zwangsarbeit“ der Berliner Geschichtswerkstatt, ein Verein zur Förderungen von Forschungs- und Ausstellungsprojekten über die Berliner Stadtgeschichte. Wie sowohl die dänischen als auch deutschen Beispiele zeigen, treten als Herausgeber von Apps zu historischen Themen also nicht nur öffentliche Museen, sondern auch Forschungseinrichtungen oder staatliche Institutionen auf. GEGENWÄRTIGER FORSCHUNGSSTAND UND THEORIEGRUNDLAGEN Bisherige Arbeiten zu Smartphones und Apps außerhalb der Forschungsdisziplinen der Informatik und Kommunikationswissenschaften beschäftigen sich primär mit sozio-kulturellen Folgen der vermehrten Mobilkommunikation.11 In der Kultur- oder Geschichtswissenschaft waren mobile Medien hingegen selten Untersuchungsgegenstand. Ausnahmen bilden die Forschungsarbeiten zum Mobile Learning. Als Erweiterung des E-Learnings bezeichnet das grundsätzlich alte Phänomen – mobile Medien entstanden spätestens mit der Etablierung des Buchdrucks12 – im heutigen Kontext das Lernen mit den oben erläuterten portablen Endgeräten mit Internetzugang. Einschlägige Forschungsarbeiten beschäftigen sich mit den veränderten Lernsituationen aus didaktischer Perspektive und untersuchen die Möglichkeiten

10 Alexander König, Geschichtsvermittlung in virtuellen Räumen, in: Bundeszentrale für politische Bildung/Dossier Kulturelle Bildung, 11.09.2012. URL: http://www.bpb.de/gesellschaft /kultur/kulturelle-bildung/143889/geschichtsvermittlung-in-virtuellen-raeumen?p=0, zuletzt besucht am: 08.12.2014. 11 Siehe dazu u.a. Larissa Hjorth/Jean Burgess/Ingrid Richardson, Studying mobile media. Cultural technologies, mobile communication, and the iPhone, New York 2012. 12 Vgl. de Witt/Sieber, Mobile Learning, 13.

Kulturwissenschaftliche Betrachtungen von Smartphone-Anwendungen

79

mobiler Endgeräte für den schulischen Unterricht.13 Die Wissensvermittlung mittels mobiler Geräte außerhalb von Bildungseinrichtungen wird bisher hingegen selten betrachtet. Erste Publikationen zum Einsatz mobiler Medien im Museum und zur Freizeitgestaltung zeigen jedoch das wachsende Interesse am Thema.14 Dabei wurden auch schon konkrete Fallbeispiele thematisiert, jedoch nicht wie im Falle meiner Forschungen einer umfangreichen Analyse unterzogen. Wie so oft in den Digital Humanities erfordert auch die theoretisch-methodische Herangehensweise an eine kulturwissenschaftliche Betrachtung exemplarischer Smartphone-Apps einen interdisziplinären Zugang, der frühere Forschungen mit ähnlichem Erkenntnisinteresse aufgreift. Zumeist wird die klassische Methodik, etwa der Geschichtswissenschaft, mit Erfahrungen aus der Informatik oder Kommunikationswissenschaft ergänzt. Ausgangsdisziplin für die absolvierte Untersuchung war die klassische Geschichtsvermittlung. Dazu wurden insbesondere Werke zur Erinnerungskultur und der Museumspädagogik herangezogen. Durch die umfangreiche Literatur zum Thema Geschichtsvermittlung in digitalen und online-basierten Medien sowie im virtuellen Raum ließen sich Rückschlüsse auf die Betrachtung von Apps mit kulturhistorischem Schwerpunkt ziehen. Publikationen zum Kulturmarketing sowie methodische Leitfäden der Kommunikationswissenschaft ergänzten das Lektürespektrum. METHODOLOGISCHE HERAUSFORDERUNGEN Obwohl die Digital Humanities mittlerweile über einen breiten Erfahrungshorizont verfügen, sind gängige Methoden für den Umgang mit digitalen Quellen noch nicht etabliert. Erste Hürden stellen daher oft bereits der Quellenkorpus an sich sowie die Frage nach der geeigneten Herangehensweise dar. In der durchgeführten Untersuchung bildeten die drei dänischen Apps die Quellenbasis eines kombinierten Verfahrens, welches den Schwerpunkt auf die Betrachtung sowohl ihrer Funktionen als auch Inhalte legte. Methodischer Ausgangspunkt war eine auf den Quellenkorpus angepasste Form der klassischen Quellenkritik. Wie bereits Peter Haber, Eva Pfanzelter und Martin Lengwiler in ihren Leitfäden zur digitalen Quellenkritik herausstellten, muss die klassische Methodik für den Umgang mit digitalem Material weiterentwickelt werden.15 Die neu zu etablierende Quellenkritik sollte „im Kern (…)

13 Siehe dazu u.a. de Witt/Sieber, Mobile Learning. 14 Als Vorreiter zu nennen sind u.a. folgende Publikationen: Eisele, Révolution Francaise; Berger, Was Apps ausmacht; Farman, Mobile Story, und: Bjarki Valtysson/Nanna Holdgaard/Rich Ling, The iPhone and its use in Museums, in: James Everett Katz/Wayne LaBar/Ellen Lynch (Hgg.), Creativity and Technology. Social Media, Mobiles and Museums, Edinburgh 2011, 104–127. 15 Vgl. Haber, Digital Past. Und: Eva Pfanzelter, Von der Quellenkritik zum kritische Umgang mit digitalen Ressourcen, in: Peter Haber/Martin Gasteiner: Digitale Arbeitstechniken: für die Geistes- und Kulturwissenschaften, Wien 2010, 39–49. Sowie: Martin Lengwiler, Praxisbuch Geschichte. Einführung in die historischen Methoden, Zürich 2011.

80

Annika Dille

auf die etablierten Grundsätze aufbauen“16, sich gleichzeitig jedoch „Kenntnissen der verschiedenen Disziplinen bedienen.“17 Für die Untersuchung mobiler Anwendungen ergeben sich somit spezifische Kriterien, die über die bisherige Quellenkritik digitalen Materials hinausgehen. Dem generellen Schema der Quellenkritik mit formal-deskriptiver Beschreibung und Textsicherung sowie äußerer und innerer Kritik wird bei der Untersuchung digitaler und mobiler Quellen jedoch Rechnung getragen. Das von Johann Gustav Droysen postulierte diakritische Verfahren zur Prüfung der Authentizität einer Quelle ist eng verknüpft mit ihrer Materialität und stellt bei digitalen Quellen eine Herausforderung dar. So werden heute „unzählige virtuelle Kopien des Originaldokuments“18 angelegt. Wobei Haber zurecht feststellt, dass es im digitalen Zeitalter „kein technisch erkennbares Original mehr [gibt], Original und Kopie sind identisch.“19 Der klassische Quellenbegriff gerät ins Wanken. Ebenso erhält Droysens Kritik des früheren und späteren eine neue Dimension. Digitale Quellen können stetig aktualisiert und verändert werden. Daher ist bei Online-Ressourcen die Version des Materials festzustellen und das Zugriffsdatum stets anzugeben.20 Dieses Problem der schwer nachzuvollziehenden Quellenentwicklung ist zumindest bei Native Apps begrenzt. So werden diese Anwendungen einmalig und auf ihrem aktuellsten Stand heruntergeladen. Die jeweilige Version wird im Appstore21 angezeigt. Automatische Updates können manuell ausgeschaltet und spätere Aktualisierungen oder zusätzliche Downloads vom Nutzer selbst ausgelöst werden. Anders ist es bei Hybrid Apps. Hier ist eine Internetverbindung notwendig, nach einmaliger Installation der App sind inhaltliche Aktualisierungen seitens der Anbieter laufend möglich und vom Nutzer kaum zu kontrollieren. Für die durchgeführte Untersuchung habe ich mich daher dazu entschieden, bei den zwei Native Apps „100 Borge“ und „Den gamle By“ während der gesamten Forschungsphase keine Updates zuzulassen. Für die untersuchte Hybrid App „1001 fortællinger om Danmark“ habe ich mich hingegen auf einzelne Seiten der Anwendung konzentriert und diese zu einem bestimmten Zeitpunkt per Screenshot gespeichert. Im Laufe des Untersuchungszeitraums konnte beobachtet werden, dass neue, nutzergenerierte Inhalte hinzukamen, diese in ihrem Schema jedoch den ausgewählten Seiten glichen. Für die Analyse wurden demnach bewusst mögliche Veränderungen unterbunden. Diese hätten zwar neue Erkenntnisse hervorbringen können, gleichzeitig drohte auf Grund beschränkter personeller und zeitlicher Ressourcen jedoch die Gefahr, sich im Material zu verlieren. Zur Analyse online-basiertem Materials stellt sich jedoch stets die Frage: Wann und wie kann überhaupt eine Eingrenzung stattfinden? 16 Haber, Digital Past, 106. 17 Haber, Digital Past, 106. 18 Christine Köppel, Kommunikatives Gedächtnis online. Internetforen und historisches Lernen am Beispiel der DDR, München 2012, 56. 19 Haber, Digital Past, 107. 20 Vgl. Martin Lengwiler, Praxisbuch Geschichte, 265. 21 Ein Appstore ist das Verkaufsportal von Anbietern mobiler Betriebssoftwares wie etwa der itunes Store für iOS von Apple oder GooglePlay zum Betriebssystem Android von Google.

Kulturwissenschaftliche Betrachtungen von Smartphone-Anwendungen

81

Aufgrund der Flüchtigkeit sowie der Fülle an Informationen sind digitale Daten kaum in ihrer Ganzheit zu erfassen. Ihre stetige Wandelbarkeit wird oft als Hindernis für Forschungszwecke betrachtet. Für die meisten Untersuchungen digitalen Materials steht bereits im Vorhinein fest, dass es sich um eine Momentaufnahme handelt.22 Eine zeitliche Einschränkung beziehungsweise die Beschränkung auf die zu Beginn der Analyse aktuellste Anwendungsversion ist somit bei der App-Analyse von Vorteil. Zudem empfiehlt sich eine inhaltliche Eingrenzung, etwa auf bestimmte Seiten oder Navigationspunkte. Dabei sollte jedoch frühzeitig festgelegt werden, ob die Analyse eine quantitative oder qualitative Auswertung zum Ziel hat. Generell gilt bei einer Quellenkritik des Digitalen: „Welche Analyseeinheit im Einzelfall verwendet wird, hängt (…) vom zugrunde liegenden Erkenntnisinteresse und auch von den zu Verfügung stehenden Ressourcen ab.“23

Obwohl zwei der drei dänischen Fallbeispiele Native Apps waren, die nicht aktualisiert wurden, und ihr Inhalt demnach bereits klar umrissen war, wurden die Anwendungen in der hier aufgezeigten Untersuchung auf Grund ihrer weiterhin großen Datenmenge nur qualitativ untersucht. Vorhandene Funktionen wurden demnach anhand einzelner Beispiele vorgestellt und verglichen, ihre Häufigkeit innerhalb der Apps hingegen nicht ermittelt. Neben der Dynamik von Hybrid Apps ergeben sich bei dem Zugriff auf mobile Anwendungen weitere Schwierigkeiten. Generell müssen Apps für die Betriebssoftware des Smartphones optimiert sein und werden bisweilen nicht für alle gängigen Programme entwickelt. So existieren viele Anwendungen häufig ausschließlich für iOS, also Apple-Geräte, oder für Android-Telefone. Andere Betriebssysteme werden selten berücksichtigt. Daneben können bei internationalen Anwendungen weitere Zugriffshindernisse auftreten. Eine Problematik in meiner Forschungsarbeit war beispielsweise, dass die Anwendungen in unterschiedlichen Sprachen zur Verfügung standen. Zwei der drei Apps erlauben es ihren Nutzern nicht, die Anwendungssprache selbst zu wählen. Mit einem deutschen Gerät konnten die fremdsprachigen – in diesem Fall dänischen – Versionen nicht gespeichert werden. Dafür mussten die Spracheinstellungen des Telefons geändert und die Apps erneut heruntergeladen werden. Auch wenn zu einer vollständigen Analyse alle App-Fassungen hinsichtlich inhaltlicher oder funktionaler Abweichungen betrachtet werden sollten, ist es eine Möglichkeit, sich bei fremdsprachigen Apps auf die Fassung in der ursprünglichen Quellensprache des App-Anbieters zu beschränken. Neben den Zugriffshindernissen gibt es bei digitalen Quellen immer das Problem unterschiedlicher Darstellungsweisen. Je nach Gerät, Bildschirm oder Betriebssystem können App-Inhalte zum einen abweichend abgebildet sein. Zum anderen droht die Gefahr der fehlerhaften Programmierung und dem daraus resultierenden

22 Welker/Wünsch, Online-Inhaltsanalyse, 11. 23 Welker/Wünsch, Online-Inhaltsanalyse, 23.

82

Annika Dille

Auftreten technischer Bugs. Bei einer Kritik digitalen und virtuellen Materials sollten daher die verwendete Hard- und Software genannt und die Angebote im Idealfall in unterschiedlichen Fassungen betrachtet werden.24 Für Forscher und aktive Nutzer gleichermaßen problematisch ist zudem die Verwendung der App vor Ort und möglicherweise damit einhergehende RoamingGebühren während internationaler Aufenthalte. Lange Lade- und begrenzte Akkulaufzeiten unterwegs sowie die oft noch eingeschränkte Speicherkapazität der Geräte werden ebenfalls zum Hindernis. Sowohl der rasante Fortschritt in den technischen Gegebenheiten als auch die Anpassung wirtschaftlicher und politischer Rahmenbedingungen lässt jedoch eine Behebung bisheriger Probleme in naher Zukunft vermuten. So ist etwa die geplante Absenkung der Roaming-Gebühren innerhalb der EU auch für die länderübergreifende Kulturvermittlung zu begrüßen. Eine für Forscher bislang unzureichend geklärte Problematik im Umgang mit digitalen Quellen ist die Frage nach der Langzeit-Archivierung. Native Apps bieten die Möglichkeit, für eine absehbare Zeit in ihrer Ursprungsversion auf dem Gerät zwischengespeichert zu werden. Für Hybrid Apps bleibt hingegen die immer noch gängige Praxis der Archivierung von Online-Ressourcen in Screenshots samt schriftlicher Dokumentation.25 Mit der Archivierung einhergehend deckt sich ein weiteres praktisches Problem bei der Analyse von Apps auf: die Zitation. Anders als bei statischen oder mobilen Websites kann für die Inhalte heruntergeladener Apps keine URL angegeben werden. In der Forschungsarbeit wurde daher an gegebener Stelle auf Screenshots im Anhang verwiesen, in denen die jeweilige Textstelle nachzulesen war. SKIZZE EINES ANALYSEKONZEPTS Basierend auf klassischen Verfahren der Hermeneutik ist die strukturalistische Methode eine in den Medienwissenschaften gängige Vorgehensweise zur Untersuchung von Medienprodukten.26 Für eine Analyse von Online-Ressourcen wird zumeist ein kombiniertes Verfahren aus Struktur-/Funktions- und Inhaltsanalyse gewählt, welches eine parallele Untersuchung der technischen und argumentativen Ebene ermöglicht. Für die im Folgenden näher zu betrachtende Beispielanalyse der drei dänischen Apps wurde ebenfalls ein kombiniertes Verfahren angewendet, wobei ich die Anwendungen in kleinere Analyseeinheiten unterteilte. Die funktionalen und inhaltlichen Kategorien bildeten die Gliederungsbasis einer vergleichenden und systematischen Analyse der drei Apps, wobei ich mich auf die Wechselwirkungen zwischen den einzelnen Kategorien konzentrierte. 24 Siehe dazu Pfanzelter, Quellenkritik mit digitalen Ressourcen, 44. 25 Siehe dazu u.a. Wolfgang Schmale, Digital Humanities – Einleitung: Begriffe, Definition, Probleme, in: Historische Mitteilungen der Ranke-Gesellschaft. Band 26, Kiel 2014, 86–93, hier: 106. Und: Pfanzelter, Quellenkritik mit digitalen Ressourcen, 44. 26 Vgl. Werner Faulstich, Einführung in die Medienwissenschaft. Probleme, Methoden, Domänen, München 2002, 85–98.

Kulturwissenschaftliche Betrachtungen von Smartphone-Anwendungen

83

ANALYSEKONZEPT I: STRUKTUR- UND FUNKTIONSANALYSE Angelehnt an die deduktive Kategorienbildung der Qualitativen Inhaltsanalyse entwickelte ich für die Funktionsanalyse ein theoriegeleitetes Kategoriensystem, welches die Merkmale digitaler und mobiler Medien aufgreift. So ergaben sich aus einer umfangreichen theoretischen Erläuterung aktueller Online-Trends sowie der Funktionsspezifika von Smartphones und Apps vielfältige Forschungsfragen und Thesen, die als Ausgangspunkt der einzelnen Kategorien dienten. Neben übergreifenden Abschnitten über die App-Anbieter sowie zum Aufbau und Stil der Anwendungen, die im Sinne der äußeren und inneren Quellenkritik zur Erläuterung von Hintergrundinformationen sowie zur deskriptiven Erörterung der generellen thematischen Schwerpunkte dienten, bildeten die in Tabelle 1 dargestellten Kategorien und Fragestellungen die Einheiten der Funktionsanalyse. Kategorie Serviceangebote und Nutzerführung Multimediale Elemente: - Texte - Bilder - Videos - Audio Hypermedialität

Beschreibung Bieten die Apps Service-Seiten, zum Beispiel Kontaktdaten, Bedienungsanleitungen, weiterführende Literaturtipps oder Quellenverzeichnisse? Welche multimedialen Elemente sind vorhanden und wie werden diese eingesetzt?

Für welche Inhalte werden hypermediale Verknüpfungen konkret eingesetzt? Kameraeinbindung und Finden sich Funktionen zur Einbindung der Kamera Augmented Reality beziehungsweise AR-Anwendungen und wenn ja, wie werden diese eingesetzt? Interaktivität und Welche interaktiven und partizipatorischen MöglichPartizipation keiten werden den Nutzern geboten? Personalisierung Gibt es die Möglichkeit für zugeschnittene, reaktive Elemente sowie zur Speicherung von Daten für den späteren Gebrauch? Lokalisierung Ist in den Apps eine Lokalisierungs- oder GPSFunktion integriert und wenn ja, wie und wofür wird diese eingesetzt? Gaming Sind in den Apps spielerische Elemente eingebunden? Wie werden diese dargestellt? Tabelle 1: Kategorien der Funktionsanalyse

Eine Besonderheit war die Kategorie „Multimediale Elemente“, die aus mehreren Unterkategorien bestand. Neben den textbasierten Inhalten der Apps wurde auch die Verwendung von Bild-, Video- und Audiomaterial verglichen. Die qualitative

84

Annika Dille

Analyse der multimedialen Funktionen erfolgte dabei an Hand ausgewählter AppSeiten. Zur Orientierung in den einzelnen Unterkategorien halfen frühere Forschungsarbeiten. So dienten etwa Ergebnisse der Visual History27 als Leitfaden für die Untersuchung der ausgewählten Bilder. Es konnte unter anderem herausgearbeitet werden, an welchen Stellen die Apps visuelles Material zur reinen Illustration der Textbeiträge einsetzen oder wann Forschungswissen bildlich dargestellt wird, etwa durch einen animierten Zeitstrahl in der App „Den gamle By“. Eine Überraschung ergab sich bezüglich des vermuteten Videomaterials, da keine der drei Apps audiovisuelle Aufnahmen integriert hat. Gerade zur Darstellung historischer Ereignisse werden Filmaufnahmen häufig eingesetzt. Auch in der bisherigen digitalen Geschichtsvermittlung online dienen sie oftmals zur anschaulichen Zusammenfassung der wichtigsten Informationen. Für den Gebrauch in mobilen Anwendungen sind Videos bislang jedoch weniger relevant, wobei der Verzicht vor allem auf praktische Hindernisse zurückzuführen ist. So haben Umfragen zur Smartphone-Nutzung ergeben, dass Videos auf Grund vergleichsweise langer Ladezeiten seltener als Textbeiträge angeklickt werden, dafür dort aber eine längere Verweildauer besteht.28 Zudem ist das Betrachten von Videos keine „Nebenbeitätigkeit“ und verlangt auch unterwegs volle Konzentration. Aus Sicht der Anbieter könnten Videos demnach von der eigentlichen Ausstellung ablenken. Als weiteres Argument können die Produktionskosten angeführt werden. Die Realisierung eines Videos ist personal- und zeitaufwendig. Gegen diese Begründung spricht allerdings, dass alle Einrichtungen der untersuchten Apps bereits Videos publiziert haben. Wie viele Kulturinstitutionen sind sie im Zuge ihrer Online-Kommunikation bereits auf gängigen Plattformen aktiv und pflegen unter anderem eigene Kanäle auf der Videoplattform Youtube. Die Vermutung liegt nahe, dass für eine Nutzung der mobilen Endgeräte unterwegs bewusst auf Videos verzichtet wurde, da sie auf Grund praktischer Probleme dem Medium und Verwendungszweck bislang nicht gerecht werden. Zusammenfassend zeigte sich durch die vergleichende Funktionsanalyse der drei dänischen Anwendungen, dass einige App-Elemente ähnlich wie in anderen Web-Ressourcen eingesetzt werden, andere hingegen einen medienspezifischen Mehrwert darstellen. So dient etwa die Funktion der Hypermedialität in mobilen Anwendungen wie auch im World Wide Web zur komplexen Darstellung historischer Verflechtungen und ermöglicht die digitale Parallele zum enzyklopädischen Nachschlagen, wenn auch innerhalb des begrenzten Rahmens einer Native App.29 Funktionen wie die „Lokalisierung“ gehen hingegen weit über die Möglichkeiten

27 Siehe u.a. Gerhard Paul, Visual History. Version 3.0, in: Docupedia-Zeitgeschichte, 13.03. 2014. URL: http://docupedia.de/zg/Visual_History_Version_3.0_Gerhard_Paul, zuletzt abgerufen am: 08.12.2014. 28 Virpi Oksman, Media Contents in Mobiles. Comparing Video, Audio, and Text, in: Larissa Hjorth/Gerard Goggin (Hgg.), Mobile Technologies. From Telecommunication to Media, New York 2009, 118–130. 29 Zur Hypermedialität im Internet siehe auch Peter Haber, Digital Past, 115–120.

Kulturwissenschaftliche Betrachtungen von Smartphone-Anwendungen

85

anderer digitaler Ressourcen – beispielsweise Websites – hinaus und zeigen spezifische Innovationen mobiler Anwendungen zur Wissensvermittlung auf, wie im weiteren Verlauf des vorliegenden Beitrags deutlich wird. ANALYSEKONZEPT II: INHALTSANALYSE Die Funktionsanalyse wurde von der Inhaltsanalyse ergänzt. Dabei orientierte ich mich an dem von Astrid Schwabe entwickelten Kriterienkatalog zur Geschichtsvermittlung in hypermedialen und online-basierten Lernmedien.30 Das normativ-fachdidaktische Raster wurde von Schwabe zur Analyse der regionalhistorischen Website vimu.info, dem virtuellen Museum zur deutsch-dänischen Grenzregion, eingesetzt. Für eine möglichst hohe Operationalisierbarkeit hat sie eine Einteilung in die vier Säulen „Historische Soziale Welt“, „Geschichtlichkeit“, „Re-Konstruktion von Vergangenheit“ und „Vermittlung“ vorgenommen und diesen bis zu fünf Unterkategorien zugeordnet.31 Dabei thematisieren die ersten zwei Säulen primär die Intention von Geschichtsdarstellungen und gehen der Frage nach, was Präsentationen der Vergangenheit beinhalten sollten. Die beiden letzten Kategorien befassen sich hingegen mit methodischen Zugängen und der Frage, wie historisches Wissen vermittelt werden sollte. Wie Tabelle 2 zeigt, wurde für die Inhaltsanalyse Schwabes idealtypischer Kriterienkatalog übernommen, die einzelnen Kriterien jedoch innerhalb der vier Oberkategorien zusammengefasst.

30 Schwabe, Historisches Lernen. 31 Siehe dazu Schwabe, Historisches Lernen, 54–72.

86

Annika Dille

Kategorie Historische Soziale Welt

Geschichtlichkeit

Re-Konstruktion von Vergangenheit

Vermittlung

Beschreibung Darstellung von Geschichte zur Orientierung in der historischen sozialen Welt durch das Aufzeigen von Gründen und Folgen der vorherrschenden Macht- und Herrschaftsstrukturen, der sozialen Ungleichheit sowie von Handlungsspielräumen historischer Identitäten und dem Vergleich historischer und gegenwärtiger Moralvorstellungen. Schaffung eines Geschichtsbewusstseins durch die Verdeutlichung der Veränderbarkeit historischer Strukturen, etwa mittels Erläuterungen zu zeitlichen und räumlichen Dimensionen sowie der Unterscheidung von Fakten und Fiktion. Aufzeigen des Re-Konstruktionscharakters von Geschichte durch die Thematisierung kontroverser Deutungen, die kritische Interpretation von Quellen, einer Veranschaulichung mehrdimensionaler Strukturen und der Präsentation unterschiedlicher Perspektiven sowie dem offenen Bekenntnis, keinen absoluten Wahrheitsanspruch zu vertreten. Vermittlung der Thematik durch zielgruppengerichtete und multimediale Präsentation, der reflektierten Erzeugung von Emotionen und Identifikationsangebote durch zum Beispiel Personifikation sowie eine Begründung für die Auswahl der Thematik, etwa aufgrund gegenwärtiger Relevanz.

Tabelle 2: Kategorien der Inhaltsanalyse

Angelehnt an Schwabes Kriterienkatalog wurde überprüft, in wie weit die dänischen Apps die vier inhaltlichen Kategorien erfüllen und welche Funktionen dafür zum Einsatz kommen. Kategorienübergreifend hat die Analyse zum einen bestätigt, dass sich Inhalte und Funktionen digitaler Medien gegenseitig beeinflussen. So wird reines Faktenwissen trotz der multimedialen Elemente weiterhin vor allem in Textform erläutert und im Idealfall mit Bildern bestückt. Aufbereitete Grafiken, wie etwa der erwähnte Zeitstrahl, sind die Ausnahme. Multimediale Funktionen kommen hingegen verstärkt für ergänzende fiktive Inhalte in den Apps zum Einsatz. So hat die Anwendung „100 Borge“ beispielsweise Podcasts integriert, die im Stil eines Hörspiels mit Erzähler, Hintergrundgeräuschen und Musik historische Ereignisse rund um die dargestellten Burganlagen nacherzählen.

Kulturwissenschaftliche Betrachtungen von Smartphone-Anwendungen

87

Eine weitere wichtige Erkenntnis der Inhaltsanalyse ist, dass mobile Anwendungen den fachdidaktischen Anforderungen oft nur unzureichend nachkommen. So werden die Inhalte nicht nur auf den Rahmen der App an sich eingegrenzt. Vielmehr sind die Informationen auch auf den einzelnen Seiten auf ein Minimum reduziert. Mobile Anwendungen sind für den Gebrauch unterwegs konzipiert. Sie sind also darauf ausgerichtet, schnell die wertvollsten und relevantesten Informationen zu liefern. Dadurch wird zum einen die für das Internet oft kritisierte unüberschaubare Masse an Inhalten umgangen. Für den Gebrauch in der Geschichts- und Kulturvermittlung wird zudem gewährleistet, dass die Anwendungen nicht von der eigentlichen Ausstellung ablenken, sondern diese ergänzen. Auch im eigenen Interesse müssen Anbieter Inhalte demnach so darstellen, dass diese zwischendurch oder nebenbei abgerufen werden können. Die Beschränkung der Inhalte heißt jedoch gleichzeitig, dass es grundsätzlich schwierig ist, die idealtypischen Kriterien der Geschichtsdidaktik in ihrer Ganzheit zu erfüllen. Noch dazu, wenn die App unabhängig genutzt wird. Erst eine Kontextualisierung der App-Inhalte, beispielsweise bei einem Museumsbesuch, kann die mit den aufgestellten Kriterien gewünschte Geschichtsvermittlung gewährleisten. Für die Forschungspraxis zeigte sich bei meiner Untersuchung dabei auch, dass der inhaltliche Kriterienkatalog bei zukünftigen Untersuchungen tiefgehender auf die Spezifika mobiler Medien zugeschnitten sein muss. So reicht es für die Quellenkritik mobiler Anwendungen nicht, die zur Analyse klassischer Websites aufgestellten Kriterien unverändert zu übertragen. Apps sind ein eignes Medium und verfügen über ähnliche, aber dennoch andere Merkmale als klassische Internetseiten. Sie können inhaltlich den an Websites gestellten Anforderungen nicht gerecht werden. Noch dazu erforderten die im Rahmen meiner Forschung begrenzten personellen und zeitlichen Ressourcen eine auf die vier Oberkategorien reduzierte Übernahme von Schwabes Raster, wodurch Verzerrungen in der inhaltlichen App-Analyse nicht ausgeschlossen werden können. Die Entwicklung eines eigenen Kriterienkatalogs zur Analyse mobiler Anwendungen stellt daher für zukünftige Arbeiten eine Herausforderung dar. ERGEBNISSE DER KOMPARATIVEN ANALYSE DREIER FALLBEISPIELE Mit dem Einsatz mobiler Medien zur Geschichtsvermittlung verändert sich diese grundlegend. Nach Aleida Assmann gibt es drei Grundformen historischer Präsentation: Die Erzählung, die Ausstellung sowie die mediale und räumliche Inszenierung.32 Apps mit historischem Schwerpunkt verknüpfen die drei Formen in einem Medium. Die ohnehin vorherrschende Form der Erzählung lässt sich durch die multi- und hypermedialen Funktionen technisch auf vielfältige Weise abbilden. Die Ausstellung wird durch die mediale Inszenierung erweitert, gleichzeitig findet eine 32 Vgl. Aleida Assmann, Geschichte im Gedächtnis. Von der individuellen Erfahrung zur öffentlichen Inszenierung, München 2007, 149.

88

Annika Dille

vermehrte räumliche Inszenierung statt. Die Geschichtsvermittlung mittels Apps ermöglicht demnach die Präsentation aus unterschiedlichen Perspektiven und auf verschiedenen Ebenen in einem Medium. Das erlernte Faktenwissen wird zugleich mit Emotionen verknüpft und kann an historischen Orten oder vor Ausstellungsobjekten direkt vermittelt werden. Dabei entscheidet der Nutzer nach individuellem Interesse und Vorwissen, welche Informationen er aus der App abruft. Mittels der komparativen Analyse auf funktionaler und inhaltlicher Ebene konnte das Ziel der Forschungsarbeit erreicht und die Chancen und Risiken der digitalen Geschichtsvermittlung durch mobile Medien aufgezeigt werden. Obwohl App-Inhalte stets begrenzt und resultierend die fachdidaktischen Anforderungen oft unzureichend erfüllt sind, ist die Darstellung komplexer Strukturen durch die funktionalen Eigenschaften eines Smartphones möglich. Apps bieten eine unterhaltsame Präsentation historischen Wissens, welche die Identifizierung mit relevanten Themen vereinfacht. Trotz einer hohen Multimedialität weisen sie mediengerechte Repräsentationen auf. Bilder und interaktive Grafiken unterstützen den fortschreitenden Prozess der Visualisierung von Geschichte. Gleichzeitig kommt es zur technischen Erneuerung alter Vermittlungsformen. Integrierte Podcasts bilden beispielsweise die moderne Variante der mündlichen Überlieferung ab und ergänzen das vermittelte Faktenwissen auf emotionaler Ebene. Vorlese-Funktionen in Apps ermöglichen darüber hinaus eine barrierefreie Handhabung des Mediums. Vielfältige Möglichkeiten zur Interaktivität mit und durch das Medium zeigen auf, dass drohenden Gefahren beim Einsatz von Apps zur Geschichtsvermittlung – unzureichende Austauschmöglichkeiten oder Ablenkung von der eigentlichen Ausstellung – entgegengewirkt werden kann. Interaktive Elemente werden bei Apps allein durch die Bedienung garantiert. Daneben können einzelne Seiteninhalte durch Social-Media-Verknüpfungen in den gängigen Netzwerken verbreitet werden. Je nach App wird die Interaktivität außerdem durch spielerische Elemente sowie Kommentarfunktionen und die Generierung von Nutzerinhalten gewährleistet. Dabei unterstützen interaktive Elemente auch die personalisierte Nutzung des Mediums. Bereits mit Etablierung des Web 2.0 hat die individuelle Informationsbeschaffung stark zugenommen. Apps bieten nun einen neuen Zugang personalisierter Online-Inhalte. Bereits in den Appstores haben Nutzer die Wahlmöglichkeit zwischen einer Vielzahl an Anwendungen. Innerhalb der Apps können sie schließlich die Inhalte aufrufen, die sie am meisten interessieren. Daneben ermöglichen die untersuchten Apps ihren Nutzern unter anderem, sich Favoriten-Listen zu erstellen, eigene Routen zu speichern oder ausgewählte Inhalte für den externen Gebrauch herunterzuladen. Die wohl wichtigste Errungenschaft mobiler Endgeräte ist meines Erachtens jedoch die Nutzung unterwegs samt digitaler Lokalisierungstechnik. Neben der Verwendung von Apps im Mikrokosmos eines Museums setzt sich mit mobilen Medien der Trend zur Loslösung der Geschichtsvermittlung vom physischen Ausstellungsraum fort. Im Gegensatz zu virtuellen Ausstellungen besteht mit der situierten Vermittlung jedoch weiterhin der Bezug zur Materialität der Inhalte. Grundsätzlich hat die Digitalisierung originaler Quellen weitreichende Folgen für die Museumspraxis. So können zwar empfindlich Objekte, zumindest virtuell, bewahrt

Kulturwissenschaftliche Betrachtungen von Smartphone-Anwendungen

89

werden. Gleichzeitig wird häufig der einhergehende Verlust der Authentizität bemängelt. Mit Loslösung des materiellen Gegenstands und einhergehender Beschränkung auf den reinen Informationsgehalt könnten digitale Objekte laut Aleida Assmann nicht den besonderen Symbolwert von Exponaten aufzeigen.33 Grundlage des Erinnerns sei die „Verdinglichung der Vergangenheit“34, wobei historische Zeugnisse jeglicher Art eine „sinnliche Anmutungsqualität“35 hätten, die mit der Digitalisierung verloren gehe. Diesen „Verfall der Aura“36 hat bereits Walter Benjamin thematisiert: „Der gesamte Bereich der Echtheit entzieht sich der technischen – und natürlich nicht nur der technischen – Reproduzierbarkeit.“37 Mit der Reproduktion und massenhaften Distribution komme es zu einer „gewaltigen Erschütterung des Tradierten“38, die Einzigartigkeit des Objekts – die Aura – gehe verloren. Im Gegensatz zur Beschäftigung mit historischen Quellen im virtuellen Raum fordern Geschichts-Apps ihre Nutzer jedoch auf, sich vor Ort – sei es im Museum oder am historischen Schauplatz – mit der Thematik auseinanderzusetzen. Die Authentizität eines genius loci wird gewahrt, die situierte Vermittlung und digitale Anreicherung von Informationen an Ort und Stelle selbst prägen dabei die visuelle Vorstellungkraft und stärken das Imaginationsvermögen. Apps können demnach auch die mit dem Spatial Turn geforderte gleichzeitige Perspektive auf die zeitliche und räumliche Dimension von Geschichte technisch aufzeigen.39 Wie bereits bei Untersuchungen zum Mobile Learning festgestellt wurde, wird durch die mobile Geschichtsvermittlung aber nicht nur die Raumkompetenz gefördert, sondern auch das Unterhaltungsbedürfnis durch Interaktivität befriedigt: „Using mobile devices enables students and other non-professional historians to decode edificial remains, symbols, commemorative culture etc. through giving access to additional information, documents or interactive activities.“40

Dabei knüpfen Apps mit eingebundenen Karten zwar an die Praxis historischer Rundgänge an, bieten jedoch einen auf Wissensstand und Interessen zugeschnittenen Zugang und ermöglichen individuellere Erfahrungen als historische Führungen. Nutzer werden aufgefordert, selbst aktiv zu werden und auf Entdeckungstour zu gehen. Ein Mehrwert ist zudem die Möglichkeit, historische Orte zu behandeln,

33 34 35 36 37 38 39 40

Vgl. Assmann, Geschichte im Gedächtnis, 154–155. Assmann, Geschichte im Gedächtnis, 155. Assmann, Geschichte im Gedächtnis, 156. Walter Benjamin, Das Kunstwerk im Zeitalter seiner technischen Reproduzierbarkeit, in: Michael Opitz (Hg.), Walter Benjamin. Ein Lesebuch, Frankfurt am Main 1996, 313–347, hier: 317. Der Aufsatz erschien in gekürzter Fassung erstmals 1936. Benjamin, Kunstwerk, 315. Benjamin, Kunstwerk, 316. Zum Konzept des Spatial Turn siehe u.a. Karl Schlögel, Kartenlesen, Augenarbeit, in: Heinz D. Kittsteiner (Hg.), Was sind Kulturwissenschaften? 13 Antworten, München 2004, 261–283. Alexander König/Daniel Bernsen, Moving through time and space – learning history on the move, in: eLearning Papers 34/2013. URL: http://www.openeducationeuropa.eu/en/article /Moving-through-time-and-space---Learning-history-on-the-move?paper=131932, zuletzt abgerufen am: 08.12.2014.

90

Annika Dille

an denen sonst kein Vermittlungsangebot stattfindet. Eigenständige Touren mit mobilen Endgeräten eignen sich jedoch für Publikum ohne Vorwissen nur bedingt. So gibt es bei Fragen keine direkte Austauschmöglichkeit, Besucher sind auf sich allein gestellt. Die wenigen Kontaktmöglichkeiten innerhalb der untersuchten Apps waren zu bemängeln. Für Fragen und Anregungen könnten zum Beispiel Kontaktformulare oder Chat-Elemente helfen. Gleichwohl würde das Monitoring für Anbieter einen enormen Mehraufwand bedeuten. Unabhängig von den Chancen und Risiken der mobilen Geschichtsvermittlung ermöglichte die Analyse eine kategoriale Zuordnung der Apps in verschiedene Genres. Im Vergleich der drei dänischen Apps konnte festgestellt werden, dass diese sowohl funktional als auch inhaltlich unterschiedliche Schwerpunkte setzen. Ein weiteres Ergebnis meiner hier erläuterten Analyse war somit die Präsentation dreier Darstellungsgenres mobiler Anwendungen. Die „Museums-App“ ermöglicht als Weiterentwicklung klassischer Audio-Guides ihrem Publikum, sich vorab, während und nach dem Besuch über die Ausstellungsinhalte zu informieren und regt auf vielfältige Weise an, weitere Vermittlungsangebote vor Ort zu nutzen. So helfen in der App des Freilichtmuseums „Den gamle By“ etwa eingebundene Spiele – Fragebögen und Quiz – bei der Identifizierung mit der Thematik und regen Besucher zur interaktiven Teilnahme an der Ausstellung an. Die Erläuterung von generellen und praktischen Informationen zum Museum – Öffnungszeiten und Eintrittspreise, Lageplan und Karten des Museums sowie Übersichten zur Geschichte des Hauses – sind bei der App des Freilichtmuseums ebenfalls ein wichtiger Bestandteil. Dabei zeigte sich die Anwendung als serviceorientiert und nutzerfreundlich in der Bedienung. Besucher können sich mit Hilfe der App eigene Rundgänge zusammenstellen und ihren Aufenthalt nach persönlichem Interesse oder Vorwissen planen. Darüber hinaus ermöglichen In-App-Downloads spezifische Zusatzinformationen, etwa über Sonderausstellungen. Für die Institutionen dienen Museums-Apps zudem der Selbstdarstellung. Im Sinne des Kulturmarketings ist zu vermuten, dass sich die Institutionen mit Veröffentlichung der Anwendungen erhoffen, ihren Bekanntheitsgrad zu steigern und neues Zielpublikum zu erreichen.41 Neben Museums-Apps werden immer mehr mobile Anwendungen veröffentlicht, die unabhängig von einer Ausstellung bedient werden können. Im untersuchten Fall bietet etwa die App „100 Borge“ Inhalte an, die die eigentliche Ausstellung von Danmarks Borgcenter außerhalb ihrer physischen Grenzen erweitert: Mittels einer interaktiven Landkarte Dänemarks werden über 100 Standorte mittelalterlicher Burganlagen präsentiert. Die App dient zur Informationsbeschaffung unterwegs und regt Nutzer an, selbst auf Entdeckungstour zu gehen. Die dritte Anwendung „1001 fortællinger om Danmark“ wurde zwar vom dänischen Kulturministerium publiziert, ist inhaltlich aber gänzlich von einer Institution oder Ausstellung losgelöst. Im Gegensatz zu den anderen zwei Anwendungen ist diese App ein Zusatzangebot eines bereits bestehenden Online-Projekts. Eine Kampagnen-Website über Erinnerungsorte in Dänemark ist das Quellmedium, davon ausgehend gibt es auch Kanäle in sozialen Netzwerken und eine mobile Website. Kernelement des 41 Vgl. Valtysson/Holdgaard/Ling, iPhone in Museums, 111.

Kulturwissenschaftliche Betrachtungen von Smartphone-Anwendungen

91

Projekts ist die Einbeziehung der Nutzerschaft. So wird die Plattform durch nutzergenerierte Inhalte wie kurzen Texten und Bildern laufend aktualisiert. Als weiterer Unterschied zu den anderen beiden Apps, die ihren Nutzern Vermittlungsangebote nach dem klassischen Top-Down-Prinzip der einseitigen Weitergabe bieten, ermöglicht die dritte App somit eine aktive Partizipation. Im Sinne einer crossmedialen Kampagne sind die inhaltlichen Elemente jedoch an die Funktionsspezifika des jeweiligen Mediums angepasst. So finden sich in der App beispielsweise keine hochgeladenen Videos wie auf der Website. Stattdessen liegt auch hier der Fokus auf der mobilen Verwendung unterwegs. Eine integrierte Karte dient ebenfalls zur eigenständigen Erkundung historischer Schauplätze und gesellschaftsrelevanter Orte in Dänemark, wobei Nutzer sich personalisierte Routen zusammenstellen können. PERSPEKTIVEN Die digitale Geschichtsvermittlung stellt die Grundlage für eine unterhaltsame und interaktive Präsentation historischer Erkenntnis dar. Die spezifischen Funktionsmerkmale mobiler Anwendungen ermöglichen dabei neue Herangehensweisen und multiperspektivische Vermittlungsszenarien. Mit dem Einsatz von Apps zur Geschichtsvermittlung in öffentlichen Einrichtungen bricht die Grenze zwischen medial-populärer Geschichtskultur und akademischen Fachwissen immer weiter auf. Für die Kulturwissenschaften ergeben sich daraus neue Forschungsfragen sowie vielfältige Analysemöglichkeiten. Dabei hat meine hier vorgestellte Untersuchung auch die praktischen Schwierigkeiten und methodischen Grenzen der Medienanalyse einzelner Fallbeispiele aufgedeckt. Neben der Problematik bei der Eingrenzung, Erfassung und Speicherung der Apps als Quellenkorpus ist es vor allem das Analysekonzept, das zukünftig einer weiteren Ausarbeitung bedarf. Zur funktionalen und inhaltlichen Untersuchung historischer Apps sollte ein eigener Leitfaden entwickelt werden, der die Spezifika der mobilen Medien stärker berücksichtigt. Dennoch konnte ich mit meiner Analyse bereits Mehrwert und Risiken der mobilen Geschichtsvermittlung herausarbeiten, wobei ich mich primär auf inhaltliche und funktionale Schwerpunkte konzentriert habe. In zukünftigen Forschungsarbeiten gilt es erstens, die bisher nur am Rande skizzierten didaktischen und ökonomischen Zielsetzungen von Apps mit historiographischem Schwerpunkt stärker zu beleuchten. Dazu könnten Strategie- und Konzeptpapiere von beispielweise Museen untersucht und Experteninterviews mit den Herausgebern geführt werden. Zweitens ist die Wirkung von Geschichts-Apps auf ihre Empfänger interessant. Empirische Studien zum Nutzerverhalten auf historischen Plattformen im Internet konnten unterschiedliche Nutzertypen ausmachen.42 Unabhängig von thematischen und strukturellen Differenzen ist auch für mobile Anwendungen eine heterogene Nutzungsweise zu vermuten. Diesbezüglich drängt sich vor allem die Frage nach den Zielgruppen von Geschichts-Apps auf. Die Hand-

42 Siehe dazu Schwabe, Historisches Lernen. Und: Köppel, Kommunikatives Gedächtnis online.

92

Annika Dille

habung der Geräte erfordert eine gewisse Technikaffinität und spricht gegebenenfalls nicht alle Gesellschaftsgruppen an. Noch 2011 wurde argumentiert, dass der durchschnittliche Besitzer eines Smartphones (männlich, jung) nicht mit der typischen Museumsbesucherin (weiblich, älter) korreliert.43 Diese Divergenz ist jedoch in doppeltem Sinne obsolet. Erstens zeigen verschiedene Statistiken sowohl für Dänemark als auch Deutschland einen großen Anstieg der Smartphone-Nutzung geschlechtsunabhängig und in allen Altersgruppen auf. Demnach könnte auch die „typische“ Museumsbesucherin mittlerweile über ein mobiles Endgerät verfügen. Zweitens sollen moderne Technologien eben nicht nur aktuelle Museumsbesucher ansprechen, sondern auch neue Zielgruppen erreichen. Die bisherige Analyse konnte über die tatsächliche Verwendung kulturhistorischer Apps nur Mutmaßungen aufstellen. Zur Überprüfung müssten Nutzeranalysen durchgeführt werden, die die Ergebnisse bestätigen oder wiederlegen könnten. Für diese mangelt es bisher vorrangig an technischen Voraussetzungen. Die elektronische Erfassung mobiler Daten ist längst nicht so weit fortgeschritten wie Tracking-Programme für Websites. So wurde in der Planungsphase der vorgestellten Forschungsarbeit zusätzliches Material bei den Herausgebern der Apps angefragt. Außer den Download-Raten der Appstores lagen keinem Anbieter konkretere Daten vor. Hinsichtlich einer Nutzeranalyse würden des Weiteren neue methodologische Probleme entstehen. So werfen digitale und mobile Medien kontextunabhängig stets Fragen zum Urheberrecht und Datenschutz auf. Sowohl mit Blick auf die methodische Vorgehensweise als auch auf die praktischen Arbeitstechniken steht die kulturwissenschaftliche Forschung zu mobilen Endgeräten noch am Anfang. In naher Zukunft gilt es vor allem, gängige Methoden für den Umgang mit digitalen und mobilen Quellen zu etablieren. Mit Hilfe früherer Erkenntnisse der Digital Humanities können jedoch bereits jetzt innovative Forschungsvorhaben in Angriff genommen werden. Dabei ist zu erwarten, dass mobile Medien als Gegenstand kulturwissenschaftlicher Forschung zukünftig vielfältige Untersuchungsschwerpunkte bereithalten. LITERATUR Aleida Assmann, Geschichte im Gedächtnis. Von der individuellen Erfahrung zur öffentlichen Inszenierung, München 2007. Walter Benjamin, Das Kunstwerk im Zeitalter seiner technischen Reproduzierbarkeit, in: Michael Opitz (Hg.), Walter Benjamin. Ein Lesebuch, Frankfurt am Main 1996, 313–347. Armin Berger, Was Apps ausmacht, in: Jürgen Sieck/Regina Franken-Wendelstorf (Hgg.): Kultur und Informatik. Aus der Vergangenheit in die Zukunft, Boizenburg 2012, 247–250. Bettina Eisele, Révolution Francaise: Der Louvre definiert den Multimediaguide neu, in: Sieck/Franken-Wendelstorf, Kultur und Informatik. Aus der Vergangenheit in die Zukunft, Boizenburg 2012, 49–57. Jason Farman, The Mobile Story. Narrative Practices with Locative Technologies, New York 2014. Werner Faulstich, Einführung in die Medienwissenschaft. Probleme, Methoden, Domänen, München 2002. 43 Vgl. Valtysson/Holdgaard/Ling, iPhone in Museums, 120.

Kulturwissenschaftliche Betrachtungen von Smartphone-Anwendungen

93

Peter Haber, Digital Past, Geschichtswissenschaft im digitalen Zeitalter, München 2011. Jan Hecker-Stampehl, Strategien zur Digitalisierung des kulturellen Erbes in Norwegen. Programmatik, Akteure, Agenda-Setting, in: Jürgen Elvert/Birgit Aschmann/Markus A. Denzel/Jan Kusber/Joachim Scholtyseck/Thomas Stamm-Kuhlmann (Hgg.): Europäisches Denken von Rechts / Digital Humanities. Historische Mitteilungen der Ranke-Gesellschaft. Band 26, Kiel 2014, 116–133. Larissa Hjorth/Jean Burgess/Ingrid Richardson, Studying mobile media. Cultural technologies, mobile communication, and the iPhone, New York 2012. Alexander König, Geschichtsvermittlung in virtuellen Räumen, in: Bundeszentrale für politische Bildung/Dossier Kulturelle Bildung, 11.09.2012. URL: http://www.bpb.de/gesellschaft/kultur/kulturelle-bildung/143889/geschichtsvermittlung-in-virtuellen-raeumen?p=0, zuletzt besucht am: 08.12.2014. Alexander König/Daniel Bernsen, Moving through time and space – learning history on the move, in: eLearning Papers 34/2013. URL: http://www.openeducationeuropa.eu/en/article/Movingthrough-time-and-space---Learning-history-on-the-move?paper=131932, zuletzt abgerufen am: 08.12.2014. Christine Köppel, Kommunikatives Gedächtnis online. Internetforen und historisches Lernen am Beispiel der DDR, München 2012. Martin Lengwiler, Praxisbuch Geschichte. Einführung in die historischen Methoden, Zürich 2011. Virpi Oksman, Media Contents in Mobiles. Comparing Video, Audio, and Text, in: Larissa Hjorth/Gerard Goggin (Hgg.), Mobile Technologies. From Telecommunication to Media, New York 2009, 118–130. Gerhard Paul, Visual History. Version 3.0, in: Docupedia-Zeitgeschichte, 13.03.2014. URL: http:// docupedia.de/zg/Visual_History_Version_3.0_Gerhard_Paul, zuletzt abgerufen am: 08.12. 2014. Eva Pfanzelter, Von der Quellenkritik zum kritische Umgang mit digitalen Ressourcen, in: Peter Haber/Martin Gasteiner: Digitale Arbeitstechniken: für die Geistes- und Kulturwissenschaften, Wien 2010, 39–49. Karl Schlögel, Kartenlesen, Augenarbeit, in: Heinz D. Kittsteiner (Hg.), Was sind Kulturwissenschaften? 13 Antworten, München 2004. Wolfgang Schmale, Digital Humanities – Einleitung: Begriffe, Definition, Probleme, in: Jürgen Elvert/Birgit Aschmann/Markus A. Denzel/Jan Kusber/Joachim Scholtyseck/Thomas StammKuhlmann (Hgg.): Europäisches Denken von Rechts / Digital Humanities. Historische Mitteilungen der Ranke-Gesellschaft. Band 26, Kiel 2014, 86–93. Astrid Schwabe, Historisches Lernen im World Wide Web: Suchen, flanieren oder forschen? Fachdidaktisch-mediale Konzeption, praktische Umsetzung und empirische Evaluation der regionalhistorischen Website Vimu.info, Göttingen 2012. Bjarki Valtysson/Nanna Holdgaard/Rich Ling, The iPhone and its use in Museums, in: James Everett Katz/Wayne LaBar/Ellen Lynch (Hgg.), Creativity and Technology. Social Media, Mobiles and Museums, Edinburgh 2011, 104–127. Martin Welker/Carsten Wünsch, Die Online-Inhaltsanalyse. Forschungsobjekt Internet, Köln 2010. Claudia de Witt/Almut Sieber, Mobile Learning. Potenziale, Einsatzszenarien und Perspektiven des Lernens mit mobilen Endgeräten, Wiesbaden 2013.

SPIEL UND GESCHICHTE IM ZEICHEN DER DIGITALITÄT Josef Köstlbauer Verflüssigung, Entgrenzung, Variabilität, Beschleunigung sind oft genannte, zentrale Eigenschaften digitaler Medien.1 Auf das digitale Spiel, so die These dieses Essays, trifft das in zweierlei Hinsicht zu. Zum einen im Sinne einer Auflösung der tradierten Grenzen zwischen Spiel und einer, wie auch immer verstandenen, Realität. Zum anderen im Sinne einer Entgrenzung, Aufweichung oder Ausweitung des Spielbegriffs.2 Das digitale Spiel ist kein geschichtsloses Phänomen. Es musste nicht erst erfunden werden. Vielmehr laufen die Spiele der Menschen sofort in die digitale Maschine ein. Spiele werden von analogen Spielbrettern in digitale Interfaces übertragen, genauso wie die Rätsel- und Rollenspiele, die Geschicklichkeits- und Wettkampfspiele. Diese transmedialen Bewegungen bedeuten immer Transformationsprozesse. Mit den Medien wechselt auch der Ort des Spiels: zu Spielen bedeutet im 17. Jahrhundert etwas anderes als im 19. oder zu Beginn des 21. Jahrhunderts. Stellenwert und Einschätzung des Spiels ändern sich. Ich nähere mich in diesem Essay dem Thema Spiel und Geschichte aus zwei Richtungen an. Zum Ersten stellt sich die Frage nach dem veränderten Ort des Spiels. Hier kann die historische Tiefendimension Kontinuitäten und Brüche aufzeigen. Die historische Spieleforschung hat lange Zeit Genealogien von Spielformen entworfen, das wirkt zum Teil auch noch in den heutigen Game Studies nach. Nimmt man jedoch Spiel und Spielen als apriorische Elemente menschlicher Kultur ernst, dann öffnen sich neue Möglichkeiten, Spiel wie Kultur zu historisieren. Ausgehend von der Erfahrung digitalen Wandels ist nun erneut nach dem kulturellen oder politischen Ort des Spiels zu fragen, nach seinen Funktionen und nach seiner Wirkung. Als Beispiel wird die Simulation herausgegriffen. Simulationen und Simulationsspiele haben mit der Digitalität weite Verbreitung gefunden, gleichzeitig ist der Aspekt der Simulation in vielen Spielen, digitalen wie analogen, gegeben, 1

2

Die Metapher des Flüssigen wurde in den 1990er Jahren durch Manuel Castells und den Soziologen Zygmunt Bauman popularisiert: Manuel Castells, The Rise of the Network Society: The Information Age, Oxford 1996; Zygmunt Bauman, Liquid Modernity, Cambridge 2000. Zu Eigenschaften/Problemstellungen digitaler Medien siehe etwa Lev Manovich, The Language of New Media, Cambridge, Mass. 2001; Mark Deuze, Media Life, Cambridge 2011; aus Perspektive der Digital Humanities siehe Wolfgang Schmale, Digitale Vernunft, in: Historische Mitteilungen 26/2014, 94–100, hier 95. Im Folgenden werden Überlegungen ausgeführt, die bereits in geraffter Form in einem Beitrag für die Historischen Mitteilungen der Ranke Gesellschaft skizziert wurden. Siehe Josef Köstlbauer, ComputerSpielGeschichte, in: Historische Mitteilungen 26/2014, 107–110.

96

Josef Köstlbauer

ja, er kann zu den grundlegenden Charakteristika des Spiels gezählt werden. Die Geschichte der Simulation genauso wie die Verflüssigungstendenzen des Digitalen, die sich in Simulationsspielen manifestieren, weisen auf eine veränderte Bedeutung des Spiels hin. Zweitens versuche ich mich an einem Ausblick, einer Frage nach neuen Perspektiven der Geschichtswissenschaft. Dieser Essay verfolgt dabei nicht die Frage nach der Geschichte im Computerspiel.3 Zweifellos gehören digitale Spiele zu den Massenmedien unserer Zeit und zweifellos ist der Umstand beachtenswert, dass so viele Spiele historische Themen aufgreifen. Die Geschichtsdarstellungen in Spielen sind bereits maßgeblich geworden (neben jenen des Films) für das breite Verständnis von Geschichte und Geschichtlichkeit in unserer Gesellschaft. Mich aber interessiert vielmehr die Frage, ob das Spiel auch in den Bereich der Geisteswissenschaften eindringt und was es dort bewirken könnte. Vorweg zu schicken ist außerdem, dass auf den folgenden Seiten vieles Postulat bleiben muss. Ich halte es trotzdem für sinnvoll, Indizien zusammenzutragen und so Anstoß für weitere Über– legungen zu geben. Eine Anmerkung noch zu den Digital Humanities: Die Historizität der Konzepte und Begriffe, mit denen über digitaler Mediensysteme gesprochen wird, letztlich die Historizität des Digitalen selbst, scheint in öffentlichen Wahrnehmungen nicht zu existieren. Hierin liegt eine Aufgabe auch für Historikerinnen und Historiker – eine Aufgabe, die unbedingt dem Feld der Digital Humanities zuzurechnen ist, auch wenn dieses bislang noch von Fragen der Quantifizierung, Infrastruktur und Archivierung beherrscht zu sein scheint. DIGITALES SPIEL: ENTGRENZUNGEN Mit der Digitalität ändert sich das Spiel. Das ist die Prämisse dieses Textes. Das betrifft nicht zuerst, oder nicht allein, Gestalt oder Inhalt von Spielen. Vielmehr betrifft es den Wandel des Spiels als apriorische Gegebenheit menschlicher Kultur. Was bedeutet das? Das Spiel ist nicht einfach Äußerung menschlicher Kultur. Eher erweisen sich am Spiel die Auflösungserscheinungen des traditionellen Kulturbegriffs. Alle sozialen Tiere spielen, ja das Spiel überspringt mit Leichtigkeit die Gattungsgrenzen, die sich darin als geläufiges Konstrukt und wenig mehr erweisen. Johan Huizinga schloss daraus, dass das Spiel der Kultur voraus geht („Spiel ist älter als Kultur“).4 Heute geht jedoch auch der Kulturbegriff nicht mehr so leicht 3

4

Dazu gibt es mittlerweile einige Publikationen. Vgl. etwa Carl Heinze, Mittelalter Computer Spiele. Zur Darstellung und Modellierung von Geschichte im populären Computerspiel, Bielefeld 2012; Matthew Kapell, Andrew B. R Elliott (Hg.), Playing with the Past. Digital Games and the Simulation of History, New York u.a. 2013; Tobias Winnerling; Florian Kerschbaumer (Hg.), Early Modernity and Video Games, Newcastle 2014; Angela Schwarz (Hg.), „Wollten Sie auch immer schon einmal pestverseuchte Kühe auf Ihre Gegner werfen?“ Eine fachwissenschaftliche Annäherung an Geschichte im Computerspiel, Münster u.a. 2010. Johan Huizinga, Homo Ludens. Vom Ursprung der Kultur im Spiel, Reinbek 2011, 9. Das ist mehr als ein Diktum: Huizinga stellt das Spiel außer Streit: „Das Spiel lässt sich nicht

Spiel und Geschichte im Zeichen der Digitalität

97

als menschliches Alleinstellungsmerkmal durch. Der Mensch ist ein kulturfähiges Tier unter anderen geworden, die Frage nach dem davor oder danach des Spiels ist somit weniger wichtig. Festhalten lässt sich aber in jedem Fall, dass es Kultur ohne Spiel nicht gibt: Spiel ist immer da und es tritt immer als kulturelles Phänomen auf. Geht man vom Vorrang des Spiels aus, dann ist auch zu vermuten, dass das Spiel Kultur schafft. Weniger eindeutig ist, ob auch der umgekehrte Fall stimmt, also, ob die Kultur ihr Spiel schafft. Das ist zu betonen: Es geht nicht zuerst darum, dass sich im Spiel kultureller Wandel erweist – das wäre banal. Nein, das Spiel, als der Kultur vorausgehendes und nicht dem Menschen allein eigentümliches Phänomen, ändert die Kultur. Schon deshalb ist es das digitale Spiel wert, eingehender betrachtet zu werden: es ist ein Schlüssel zur Kultur unter digitalem Vorzeichen. Und, so die Vermutung, ein kulturelles Movens. Über Computerspiele wird seit bald zwanzig Jahren eine stetig anschwellende Flut von Studien, Aufsätzen und Büchern publiziert. Beteiligt sind die unterschiedlichsten akademischen Disziplinen, von der Literaturwissenschaft über Soziologie, Anthropologie und Psychologie bis hin zu Medienwissenschaft, Philosophie und Informatik. Seit der Jahrtausendwende haben sich die Game Studies als eigener Forschungszweig an den interdisziplinären Schnittstellen etabliert. Die Verfestigung zu einer eigenen Disziplin ist mittlerweile wohl abgeschlossen, das erweist sich an zahlreichen Konferenzen, Zeitschriftengründungen und der Gründung von Lehrstühlen und Forschungseinrichtungen. Über das Computerspiel als Unterhaltungsmedium, seine Geschichte seit den 1980er Jahren und die Ausdifferenzierung verschiedener Genres geben zahlreiche Publikationen Auskunft, sie ist daher nicht Gegenstand dieses Beitrags.5 Vielmehr bewegt im Folgenden die Frage, was mit dem Spiel unter den Bedingungen der Digitalität geschieht. Aus diesem Grunde ist es angebracht vom „Digitalen Spiel“ zu sprechen, denn dieser Begriff greift über das klassische Computerspiel hinaus. Letzteres ist nach wie vor mit der Situation des einsamen Spielers im blauen Schein des Monitors assoziiert. Jedoch hat das digitale Spiel diese Situation längst aufgelöst. Es geht um play und nicht um games.6

5 6

verneinen. Nahezu alles Abstrakte kann man leugnen: Recht, Schönheit, Wahrheit, Güte, Geist, Gott! Den Ernst kann man leugnen, das Spiel nicht.“ (ebd. S. 11) Daher sieht er es als Aufgabe des Geisteswissenschaftlers (oder eben Kulturwissenschaftlers), „den Spielbegriff dort anzupacken, wo Biologie und Psychologie mit ihm fertig sind“, (ebd. S. 12) nämlich in der Kultur. Vgl. etwa. Mark J. P Wolf, Bernard Perron (Hg.), The Video Game Theory Reader, New York/London 2003. Notwendigerweise steht dieser Ansatz in Opposition zu einer materialistisch unterfütterten Auseinandersetzung mit Computerspielen. Vgl. dazu Claus Pias, Wirklich problematisch. Lernen von frivolen Gegenständen, in: Christian Holtorf, Claus Pias (Hg.), Escape! Computerspiele als Kulturtechnik, Köln/Wien 2007, 256–269.

98

Josef Köstlbauer

Digitalisierung bedeutet Mathematisierung, bedeutet Chiffrierung.7 Jede Handlung im Digitalen unterliegt dem Prozess einer Übersetzung in Daten. Alles findet immer auch auf einer maschinenlesbaren Ebene statt, das Spiel wird zu einem Spielen mit und zwischen Daten. Das hat Implikationen: Daten werden gespeichert und archiviert und sie verlangen eine Normierung des Handelns: Die besonderen Anforderungen der Maschinenlesbarkeit überformen die Handlungen des Spiels. Viele Spielformen erweisen sich dabei als besonders geeignet für das Eingehen ins Digitale, da sie bereits stark regelhaft sind, die Normierungsleistung also bereits erbracht ist. Man denke nur an das Schachspiel oder diverse Strategiespiele.8 Das „Ding“ Computer „spielt mit“. 9 Auf dieser basalen Ebene der Digitalität liegt auch ein grundlegender Effekt der Entgrenzung oder Verflüssigung. Der Computer verrichtet seine Routinen, diese bleiben sich gleich, egal, ob für Spiel oder Arbeit. Tatsächlich verweisen schon die Normierungen der frühen Arbeitswissenschaft auf die späteren Computer-Mensch-Schnittstellen. Sie führen sowohl zu Arbeitsprogrammen als auch zu Computerspielen.10 Das Spiel verliert seinen besonderen, vom „normalen Leben“ geschiedenen Ort. Der Computer ist omnipräsenter Begleiter geworden, die Kopplungsinstanzen zwischen Mensch und Maschine sind zunehmend von spielerischen Elementen bestimmt. Das betrifft nicht nur Handhabung und Funktionalitäten, sondern ist vor allem auch auf der metaphorischen Ebene manifest. Die Mensch-Maschine Kopplungsstelle wird selbst zum Spielbrett, auf dem „gezeigt“, „gewischt“, „auf- und zugeschoben“ wird. Die formelhafte Gestik, die hier Einzug gehalten hat, erinnert weniger an das Bedienen von Maschinen als an Tanz, Theater und Ritual. Ein Antippen, eine Geste entfernt verharren Apps in steter Einsatzbereitschaft. Egal ob Terminplanung, Videotelefonie, Fotosharing, Einkaufsliste, der „Freundschaftler“ Facebook oder Microblog Twitter: In ihnen allen läuft der Webfaden des Spiels. Aber nicht nur in den Interfaces und den normierten Handlungen, die uns die Geräte abverlangen, ist das Spiel-Element präsent, sondern auch in der physischen Gestalt der Geräte selbst. Smartphones und Tablets werden zu magischen Gegenständen und Zauberspiegeln, omnipotenten Geräten mit haptisch optimierten Oberflächen. Auswechselbare Schalen, Cover und Etuis, Screensaver, Hintergrundbilder und Audiosignale erlauben den BesitzerInnen mehr oder weniger individuelle Statements. Festzustellen ist jedenfalls folgendes: Die Digitalität ändert Wahrnehmung und Bedeutung des Spiels. Diese Verflüssigung der Grenze zwischen Spiel und Arbeit 7

Dieter Mersch, Digitalität und Nicht-Diskursives Denken, in: Dieter Mersch/János Kristóf Nyíri (Hg.): Computer, Kultur, Geschichte. Beiträge zur Philosophie des Informationszeitalters. Wien 1991, 109–125, hier 110. 8 Josef Köstlbauer, The Strange Attraction of Simulation: Realism, Authenticity, Virtuality, in: Matthew W. Kapell, Andrew B. R. Elliott (Hg.), Playing with the Past, London/New York 2013, 169–184. 9 Suzana Alpsancar, Das Ding namens Computer. Eine kritische Neulektüre von Vilém Flusser und Mark Weiser, Bielefeld 2012. 10 Claus Pias, Computer Spiel Welten, München 2002, 20–56.

Spiel und Geschichte im Zeichen der Digitalität

99

kann als Auflösung einer bürgerlichen Spielauffassung verstanden werden, die das Spiel als unernste, im Grunde zweckfreie Tätigkeit verstand und in den abgegrenzten Lebensbereich des Privaten verwies.11 Umgekehrt kann aber auch eine Durchdringung der vormals deutlich geschiedenen Sphäre des Spiels mit den Imperativen der Arbeitswelt konstatiert werden: Nützlichkeit, Effizienz, Produktivität. Das Produkt Computer in seinen diversen Erscheinungsformen ist ein Spielzeug geworden, das sich mit Produktivitätsversprechen empfiehlt und legitimiert. „Fang sofort an zu arbeiten. Und zu spielen.“ – So bewirbt Apple die auf seinen Rechnern vorinstallierten Apps.12 Oder die Werbung für die Funktion der Familienfreigabe: „Eine neue Art, das digitale Familienleben [!] zu organisieren.“13 Computer spielen (fast) überall mit und das digitale Spiel sickert in alle Bereiche des Lebens ein. Und während wir spielen, arbeiten wir, erzeugen Daten und unsere Apparate kommunizieren mit anderen Apparaten, lautlos und meist ohne unser Wissen. Und wenn wir unser Spiel beenden, machen die Maschinen weiter ihre Züge. Im digitalen Arbeitsalltag werden auf virtuellen Schreibtischen fein ziselierte simulierte Papierbögen in simulierte Manilafoldern verschoben (Und wer weiß schon, dass dieser Begriff auf den Manilahanf verweist, ein aus den Blättern der philippinischen Abacá hergestelltes Vorprodukt der Seil- und Papierproduktion und damit nichts anderes als ein Produkt kolonialer Arbeitsregime?) – dabei bleibt alles offensichtliche visuelle Metapher, alles ist Simulation einer Wirklichkeit, die weder in der Maschine noch in der Welt außerhalb existiert. Es sind imaginierte Versatzstücke einer industrialisierten Gesellschaft, Referenzen auf administrative Systeme, auf papierene Ordnungen und Büroräume, die (so) nicht mehr existieren und in dieser bunt-verniedlichten Form auch nie existiert haben. Es sind Simulakra des Bureaus.14 Unter dem Schlagwort gamification wird eine Durchdringung von Arbeitsprozessen und Marketing mit spielerischen Strukturen propagiert.15 Bezeichnenderweise bezieht sich das Schlagwort auf Computerspiele, nicht etwa auf Rollenspiele

11 Dorothea Kühme, Bürger und Spiel. Gesellschaftsspiele im deutschen Bürgertum zwischen 1750 und 1850, Frankfurt a. Main/New York 1997, 48–55. 12 Apple, MacBook. Mit leistungsstarken Apps, http://www.apple.com/at/macbook-air/ (8.12. 2014). 13 Apple, OSX-Familienfreigabe. Eine neue Art, das digitale Familienleben zu organisieren, http://www.apple.com/at/osx/better-apps/ (8.12.2014). 14 Ich folge hier dem Gebrauch des Begriffs Simulakrum durch Jean Baudrillard. Er bezeichnet Simulakren als „Simulationen dritter Ordnung“, sie sind Simulationen imaginierter Realitäten. Man muss Baudrillards hyperbolischer Rede nicht bis zum Letzten folgen, aber die Unterscheidung Simulation – Simulakrum ist insofern hilfreich, als sie auf die Löchrigkeit der Realitätsvorstellungen hinweist. All die Bezüge auf vermeintlich Reales, auf Handfestes, erweisen sich gerne als längst akzeptierte, nie hinterfragte Imaginationen. Vgl. Jean Baudrillard, Agonie des Realen, Berlin 1978, 24–26. 15 Der Begriff scheint erstmals von dem früheren Spieleentwickler Nicholas Pelling gebraucht worden zu sein. Dieser war u.a. an der Entwicklung von Duke Nukem oder Wing Commander beteiligt. Pelling spielt mittlerweile andere Spiele, so engagiert er sich in der erstaunlichen Zwischenwelt der Entzifferung des mysteriösen Voynich Manuskripts. Vgl. Nicholas John Pelling,

100

Josef Köstlbauer

oder Strategiespiele. Mitarbeiter genauso wie Kunden sollen mit Anreiz- und Belohnungssystemen motiviert werden, die aus Computerspielen entliehen wurden. Manchmal kann man den Eindruck gewinnen, es handle sich um die Digitalisierung des altbekannten Markensammelns. Ob und wie weit gamification tatsächlich erfolgreich umgesetzt wird, sei dahingestellt. Die Idee konnte aber überhaupt erst auftauchenals Games eine gewisse gesellschaftliche Anerkennung und einen gewissen technophilen, unterhaltungsaffinen Chic erreicht hatten. Das Computerspiel bot ob seiner Verbindung mit dem technisch-wissenschaftlichen Gerät Computer und den damit verknüpften Fortschrittsvisionen eine Möglichkeit der Rehabilitierung des Spiels. Einen vorläufigen Höhepunkt dieser Entwicklung markiert Jane McGonigals messianische Botschaft aus dem Jahr 2010: „Gaming can make a better world“.16 Eine schlüssige Erklärung, wie das funktioniert, bleibt – wenig erstaunlich – aus. Stattdessen werden banale Anreizmechanismen entworfen.17 Aber die Utopie vom digitalen Spiel als Lösung für verschiedenste Probleme wird ernst genommen. So beriet etwa die Medienwissenschaftlerin und Spieleforscherin Constance Steinkuehler das Weiße Haus in der Formulierung einer breit angelegten nationalen Strategie zum Einsatz von Spielen und Spieltechnologie im Bildungsbereich.18 Konnte Johan Huizinga das Spiel im Jahr 1938 noch als „zweckfrei“ und als „freies Handeln“ charakterisieren, so soll es heute den Rationalisierungs- und Produktivitätsfantasien des frühen 21. Jahrhunderts dienstbar gemacht werden. Darin scheinen wir noch immer Gefangene einer Perspektive zu sein, die uns die Historie aufgezwungen hat. Es ist noch immer das bürgerliche Zeitalter, das den Blick aufs Spiel bestimmt: Ein verquerer Blick und, historisch betrachtet, ein Spezifikum einer bestimmten Gesellschaft und Kultur. Dabei war das Spiel nicht immer derart eingehegt: Die illusion ludique,19 das geteilte Akzeptieren eines Als-ob durchzieht die Frühe Neuzeit in vielfältiger

16 17

18 19

The Curse of the Voynich: The Secret History of the World’s Most Mysterious Manuscript, Surbiton 2006. Jane McGonigal, TedTalk, Februar 2010, http://www.ted.com/talks/jane_mcgonigal_gaming_ can_make_a_better_world (5.11.2014); Dies., Reality is Broken. Why Games Make us Better and How they Can Change the World, New York 2011. Wie viele Schlagworte, die sich rasant verbreiten und scheinbar neue, radikale Lösungen versprechen, regte sich auch gegen gamification bald Kritik. Die amüsanteste Reaktion kam wohl von dem Medienwissenschaftler und Spielentwickler Ian Bogost, der Spiele nutzte, um diesen Ansatz zu persiflieren. In Jetset müssen Flugpassagiere an der Sicherheitsschleuse unter stetig wachsendem Zeitdruck und unter der Beachtung ständig geänderter Vorschriften kontrolliert werden. In Disaffected! ist ein schäbiger Copyshop zu managen. Inkompetenz, Frustration und wütende Kunden sind die Hindernisse, deren Überwindung das Spiel unmöglich macht. Jetset, Persuasive Games 2006; Disaffected, Persuasive Games, 2006. Vgl. etwa White House Office for Science and Technology Policy, Games for Grand Challenges (23. Nov. 2011. Online: http://www.whitehouse.gov/blog/2011/11/23/games-grandchallenges (5.11.2014). Gerne wird in diesem Zusammenhang darauf hingewiesen, dass im Wort Illusion bereits das Spiel enthalten (in-lusio) sei, es sich also um eine Einspielung, um ein „Ins Spiel Eintreten“ handelt. Vgl. etwa Roger Caillois, Die Spiele und die Menschen. Maske und Rausch, Frankfurt

Spiel und Geschichte im Zeichen der Digitalität

101

Form.20 So lassen sich die Inszenierungen in der Kultur der Renaissance und des Barock als ein stetes öffentliches Spielen interpretieren, in dem in wechselnden Rollen an der Repräsentation von Herrschaftsprinzipen, Legitimation und aristokratischen Idealen mitgespielt wurde. In diesem Sinne waren etwa die Lustbarkeiten barocker Feste integrativer Teil eines verschwundenen öffentlichen Lebens. Dieses fand auch Ausdruck in Idealtypen wie dem Höfling Castigliones21 oder in Farets22 honnête homme. Es ist daher auch wenig erstaunlich, dass Huizinga in seinem Homo Ludens dem Barock und Rokoko jeweils eigene Kapitel widmete.23 Die Aufgehobenheit des Spiels im Leben der Menschen ist aber keineswegs auf den Hof beschränkt. Die Illusion der Passionsspiele; die Charaktere der Moriskenund Schwerttänze; die Perchtenläufer des Alpenraumes; die Kinderbischöfe, Lords of Misrule und vertauschten Geschlechterrollen des Karnevals24; die rituellen Feste, bei denen Gemeinschaften identitätsstiftende Mythen oder historische Ereignisse erinnern.25 Der frühneuzeitliche Staat beginnt das Spiel erst noch unter dem Gesichtspunkt der religiösen Sitten zu reglementieren.26 Hauptsächliches Ziel ist dabei das Glücksspiel. Dabei verbinden sich moralisch-religiöse mit ökonomischen Ansprüchen, die zu immer prononcierteren Kontrollmaßnahmen von Seiten des Staates führen. Andererseits kommt es zu der paradoxen Situation, dass sich gleichzeitig ein fiskalisches Interesse am Glücksspiel etabliert.27 Die Gesetzgebung der Frühen Neuzeit ist dabei noch ständisch differenziert.28 Was bei Hofe gespielt wird, was angemessener Zeitvertreib in „honetten Compagnien“ ist, das frommt den Gemeinen noch

20 21 22 23 24 25

26 27 28

a. M. u.a 1982, S. 27; Ernst Pfaller, Immer fleißig spielen! Profaner Realismus und Heiliger Ernst zwischen Menschen und Maschinen, in: Christian Holtorf, Claus Pias (Hg.), Escape! Computerspiele als Kulturtechnik, Köln 2007, 147–159, hier 153. Pfaller stützt sich auf Octave Mannoni, Clefs pour l’imaginaire ou l’Autre Scène, Paris 1985. Vgl. Jean-Michel Mehl, Les jeux au royaume de France du XIIIe début du XVIe siècle, Paris 1990; Florian Nelle, Künstliche Paradiese. Vom Barocktheater zum Filmpalast, Würzburg 2005. Baldassare Castiglione, Il Libro del Cortigiano, Venedig, Mailand 2007. Der Hofmann wurde erstmals 1528 in Venedig veröffentlicht. Nicolas Faret, L’Honnête Homme ou l’Art de plaire à la Cour, Paris 1630. Huizinga, Homo Ludens, 198–205. Chris Humphrey, The Politics of Carneval: Festive Misrule in Medieval England, Manchester 2001; Nathalie Zemon Davis, Women on Top, in: Dies. (Hg.), Society and Culture in Early Modern France, Stanford 1975, 124–151. Beispiele sind die Pokladare der adriatischen Insel Lastovo, die alljährlich den Sieg über katalanische Piraten wiederholen, oder das Fest Los Comanches, das die Einwohner von Rancho de Taos in New Mexico feiern. Iva Niemcic, Uncovering the Invisible Female Dancers of Moreska, in: Linda E. Dankworth, Ann R. David (Hg.), Dance Ethnography and Global Perspectives, Basingstoke 2014, 77–94; James F. Brooks, Captives & Cousins: Slavery, Kinship and Community in the Southwest Borderlands, Chapel Hill, NC 2001, 1–10. Manfred Zollinger, „… in der heilsamen Vorsorge erlassen…“ Die Glücksspielgesetzgebung in der Habsburgermonarchie, in: Günter G. Bauer (Hg.), Homo ludens 2, 301–321, hier 302. Ebd. 316–317. Ebd. 310.

102

Josef Köstlbauer

lange nicht und schon gar nicht den hommes infâmes an den Peripherien des Gemeinwesens.29 Erst die bürgerliche Gesellschaft, die den ökonomischen Imperativ verinnerlicht hat, erklärt das Spiel generell zur Zeitverschwendung und rückt es aus der Öffentlichkeit ins Private und aus dem kulturellen Zentrum in die Bedeutungslosigkeit.30 In der Spätaufklärung ist diese Einstellung gegenüber dem Spiel bereits voll ausgeprägt. Im Spiel wird nicht mehr das elegante Divertissement gesucht, die Gelegenheit zu Repräsentation und zur rituellen Weltaneignung, sondern die moralische und sittliche Bildung.31 Es ist dies eine Bewegung von der Sinnhaftigkeit der Gefälligkeit und der Bedeutung von Illusion und Verstellung hin zur Innerlichkeit und Wahrhaftigkeit: vom Trompe-l’œil zu den belehrenden Illustrationen der Gartenlaube. Wo das Spiel sich nicht um derlei Erwägungen schert, wird es subversiv. Die Ablehnung des Spiels als zweckfrei und unproduktiv, als Leerstelle in einer ökonomisch determinierten Weltsicht, prägt die Beurteilung des Spiels bis heute. Die bürgerliche Konstruktion eines Gegensatzes zwischen Spiel und Ernst32 spiegelt sich bis heute in der Unterscheidung zwischen der Sphäre des Spiels und der „alltäglichen Welt“.33 Diese Unterscheidung ist gewissermaßen ein Common Sense der Lebenserfahrungen des 20. Jahrhunderts zwischen Fabrik oder Büro auf der einen und Freizeit- und Konsumkultur auf der anderen Seite. Die Digitalisierung unterläuft dies. Dem Spiel spielt wächst nach und nach eine andere Bedeutung zu. Es kann heute wieder in einem anderen Verhältnis zur Welt gesehen werden als noch vor zwanzig Jahren. SIMULATION Die Simulation, oder besser das Spiel mit Simulationen, gehört zu den eigenartigsten Phänomen der Sphäre des Computerspiels. Ihre Verpflichtung auf die Wirklichkeit, ihr Anspruch darauf, Teile oder Momente der Realität zu modellieren, macht die Simulation besonders geeignet, die Grenzen des Spiels zu untersuchen. Gerade der Umstand, dass Simulationen von vornherein nie allein Spiele waren, sondern auch wissenschaftliches Instrument, Planungsgrundlage oder Werkzeug der Ausbildung, situiert sie an den Grenzen des Spiels. Dazu kommt, dass Aspekte der Simulation überall im digitalen Spiel anzutreffen sind. Man denke an Gehen, Laufen, Springen, Fliegen, Fahren, Kämpfen, Schie-

29 Michel Foucault, La vie des hommes infâmes, Paris 1977. 30 Robert Pfaller verweist auf Richard Sennett, der von einem Verschwinden der Öffentlichkeit in der bürgerl. Gesellschaft spricht. Pfaller, Profaner Realismus, 155; Richard Sennett, Verfall und Ende des öffentlichen Lebens. Die Tyrannei der Intimität, Frankfurt a. M. 1996. 31 Vgl. etwa Bruce Whitehill, Americanopoly. America as Seen Through its Games, La tour de Peilz 2014. 32 Kühme, Bürger und Spiel, 48–55. 33 Huizinga, Homo ludens, 16 f.; Caillois, Die Spiele und die Menschen, 4–6.

Spiel und Geschichte im Zeichen der Digitalität

103

ßen, an den ganzen Bereich der Spielphysik, also der Simulierung realer physikalischer Gegebenheiten durch eine game engine.34 Gerade weil die Simulation tradierte Vorstellungen vom Spiel sprengt und weil ihre Präsenz und Bedeutung im Digitalen massiv zugenommen hat, kann sie Aufschluss geben über den sich wandelnden Ort des Spiels in unserer Gesellschaft. Überdies standen Simulation und Spiel beide an der Wiege des Computers. Der Mathematiker John von Neumann war nicht nur an der Entwicklung eines der ersten Computer, dem EDVAC, beteiligt, er hatte sich schon in den 1920er Jahren mit einer Theorie der Gesellschaftsspiele befasst und 1944 formulierte er zusammen mit Oskar Morgenstern die ökonomische Spieltheorie.35 Computer, Spiel und Simulation – eine historische Trias also. DAS ELEND DES DEFINIERENS Vorab ist es notwendig, den Begriff der Simulation selbst einer eingehenderen Betrachtung zu unterziehen. Denn so oft er auch gebraucht wird, so wenig eindeutig ist er bei näherer Betrachtung. In Zusammenhang mit Computerspielen wird der Begriff Simulation reichlich unbestimmt und auf eine große Bandbreite recht unterschiedlicher Spiele angewandt. Diese reichen von Aufbau- und Kontrollspielen mit recht oberflächlichem Realitätsanspruch wie den Sims oder SimCity bis zu aufwendigen Fahrzeugsimulationen, die mit großer Sorgfalt Instrumente und Steuerungsverhalten nachbilden. Simulation/Simulationsspiel ist hier vor allem Genrebezeichnung, die historisch mit dem Produkt Computerspiel gewachsen ist und Konsumenten mehr oder weniger eindeutig signalisiert, was sie von einem Produkt erwarten können. In der Spieleforschung, den Game Studies oder der Simulationstheorie wird hingegen meist auf allgemeine Definitionen zurückgegriffen, die das Wesen der Simulation zwar erfassen aber nichts darüber aussagen, was die Simulation im Spiel macht bzw. was das Spielen für die Simulation bedeutet. Gonzalo Frasca etwa bezeichnet als Simulation die Modellierung eines Systems durch ein anderes System, das bestimmte Eigenschaften des ursprünglichen Systems abbildet.36 Er sieht darin eine „alternative semiotische Struktur“ zu Repräsentation und Narrativ.37 Die Bildungs- und KommunikationswissenschaftlerInnen Louise Sauvél Ise Renaud, David Kaufmann und Jean-Simon Marquis versammelten verschiedene 34 Gonzalo Frasca sieht im Aspekt der Simulation sogar das zentrale Unterscheidungsmerkmal des Computerspiels zu anderen Medien. Gonzalo Frasca, Simulation vs. Narrative. Introduction to Ludology, in: Mark J. P Wolf, Bernard Perron (Hg.), The Video Game Theory Reader, New York/London 2003, 221–235. 35 Pierre Lévy, Die Erfindung des Computers, in: Michel Serres (Hg.), Elemente einer Geschichte der Wissenschaften, Frankfurt a. M. 1998, 937–943; Philipp von Hilgers, Kriegsspiele. Eine Geschichte der Ausnahmezustände und Unberechenbarkeiten, Paderborn 2008, 175–179. 36 Frasca, Simulation vs. Narrative, 223: „to simulate is to model a (source) system through a different system which maintains (for somebody) some of the behaviors of the original system“. 37 Ebd., 222.

104

Josef Köstlbauer

Definitionen von Simulation, die vom realistischen Modell zur Simulation von „real-life scenarios“ über „controlled reality“38 hin zu „dynamischen Modellen“ reichen. Schwierigkeiten macht dabei die Abgrenzung zwischen „reinem“ Spiel oder Unterhaltungsspiel, Simulationen und serious games, worunter Spiele oder Simulationsspiele zu verstehen sind , die zu Trainings-, Bildungs- oder Planungszwecken gespielt werden.39 Versuche den Begriff eindeutig, widerspruchsfrei und allgemeingültig zu definieren, müssen letztlich scheitern. Nicht, dass es unmöglich wäre, exakte Definitionen anzubieten, aber letztlich sind alle diese Begriffe, allen voran natürlich der des Spieles, im populären Sprachgebrauch verankert. Sie werden in den unterschiedlichsten Kontexten und mit den unterschiedlichsten Intentionen verwendet, sie sind Teil unterschiedlichster Diskurse. Das lässt sich durch wissenschaftliches Kategorisieren nicht ändern. Es ist evident, dass der Begriff der Simulation in seiner heutigen Bedeutung aus dem Sprachgebrauch der Wissenschaften stammt. Der entsprechende Eintrag in der Encyclopaedia Britannica bezeichnet Simulation als „research or teaching technique“, die tatsächliche Ereignisse oder Prozesse unter Testbedingungen reproduziert.40 Der Eintrag in der englischsprachigen Wikipedia verschiebt den Schwerpunkt auf das Wesen der Simulation. Simulation ist dort „the imitation of the operation of a real-world process or system over time.“ Das ist ein bedeutender Unterschied, legt doch der Begriff der Imitation nahe, dass der Prozess der Simulation andere Wege als eine exakte Wiederholung beschreitet oder beschreiten kann. Darüber hinaus verlangt Simulation die Entwicklung eines Modells, das die wichtigsten Kriterien oder Verhältnisse des zu simulierenden physischen oder theoretischen Modells enthält. Das Modell repräsentiert demnach ein System, während die Simulation die Prozesse in diesem System über einen bestimmten Zeitverlauf repräsentiert. Freundlicherweise weist der Eintrag auch darauf hin, dass Simulation nicht mit Stimulation zu verwechseln sei.41 Die Definition, die in der deutschsprachigen Wikipedia angeboten wird, betont die wissenschaftliche Seite von Simulation noch stärker: „Die Simulation oder Simulierung ist eine Vorgehensweise zur Analyse von Systemen, die für die theoretische oder formelmäßige Behandlung zu komplex sind. Dies ist überwiegend bei dynamischem Systemverhalten gegeben. Bei der Simulation werden Experimente an einem Modell durchgeführt, um Erkenntnisse über das reale System zu gewinnen. Letzteres stellt eine Abstraktion des zu simulierenden Systems dar (Struktur,

38 Louise Sauvé et al., Distinguishing between games and simulations: A systematic review, in: Educational Technology & Society 10/2007, 247–256. 39 Viknashvaran Narayanasamy et al., Distinguishing games and simulation games from simulators, in: Computers in Entertainment 4/2006, 2–18. Die Autoren versuchen Taxonomien zu erstellen, anhand derer sie zwischen Spielen, Simulationsspielen und Trainingssimulation differenzieren. Letztlich bleibt das sehr abstrakt, die Autoren gehen von keinen konkreten Forschungsfragen aus. 40 http://www.britannica.com/EBchecked/topic/545493/simulation (5.11.2014). 41 http://en.wikipedia.org/wiki/Simulation (5.11.2014).

Spiel und Geschichte im Zeichen der Digitalität

105

Funktion, Verhalten). (…) Deswegen ist der erste Schritt einer Simulation stets die Modellfindung.“ 42 Simulation ist also eine Technik der Abstraktion und der Repräsentation. Damit ist ein zentrales Charakteristikum von Simulation bestimmt: Sie verhandelt Vorstellungen von Realität. Dies teilt die Simulation mit dem Spiel, beide schaffen eine Sphäre des Als-ob, der gemeinsamen Annahme. Es entsteht der oft zitierte „magische Kreis“ des Spiels, in dem die Bedingungen dessen, was gemeinhin als Realität verstanden wird, aufgehoben sind und das Spiel die ihm eigentümliche Spannung entfalten kann.43 Gleichzeitig bedingt gerade die Abgrenzung ein Verständnis der Gegebenheiten, die ausgeschlossen oder manipuliert werden. Das Spiel steht also notwendigerweise im Bezug zur Realität: egal, ob als Probehandlung, Eskapismus, Ritual oder bewusste Verkehrung gewohnter Normen. Die Simulation aber hat eine andere Qualität, ihr „Spielraum“ ist eine Nachbildung der Realität. Eindrückliches Beispiel ist die Simulation realer physischer Gegebenheiten wie der Schwerkraft in Fahrzeugsimulationen. Als wissenschaftliches Experiment sind zwar auch Simulationen abstrakter Systeme denkbar, dabei ist aber zu fragen, ob der Begriff der Simulation dann tatsächlich noch angemessen ist. Generell scheint es schwer, Realitätskonzeptionen aus der Imagination von Möglichkeitsräumen, und um diese geht es in Simulationen, herauszuhalten. WANDEL DER BEGRIFFLICHKEIT Nähert man sich der Simulation aus etymologisch-historischer Perspektive, so werden ganz andere Bedeutungsfacetten sichtbar. Ein kursorischer Blick auf die Verwendung des Begriffes in englisch- und deutschsprachigen Publikationen zeigt eine substantielle Zunahme seit der Mitte des zwanzigsten Jahrhunderts. Es steht zu vermuten, dass dies auf zunehmende technische, mathematische und naturwissenschaftliche Publikationen zurückzuführen ist sowie auf den Einzug des Vokabulars der Digitalisierung. Der deutliche Anstieg markiert aber auch einen radikalen Bedeutungswandel. Bis in das zwanzigste Jahrhundert bezeichnete Simulation eine Form der Täuschung, des Vorgebens. Entsprechend trug sie durchaus negative moralische Konnotationen: Simulation bedeutete etwas Nichtexistentes vorzugeben, es war eine Form der Täuschung, der Tarnung, ja der Heuchelei. Zedlers Universallexikon kennt die „Simulierung“ lediglich als Verstellung in den „äusserlichen Geberden und Thaten“. Diese Verstellung erscheint dabei als eine Disziplinierung des Wesens: „Man verstellet überhaupt sein Hertz, das ist, den innerlichen Zustand seines Gemüths, seine herrschenden Affecten; und dann besondere Absichten dieser und jener That, worauf hier insonderheit gesehen wird. 44“ 42 http://de.wikipedia.org/wiki/Simulation (5.11.2014). 43 Von Huizinga nur am Rande erwähnt. Vgl Huizinga, Homo ludens, 18. 44 Johann Heinrich Zedler (Hg.), Grosses vollständiges Universal-Lexicon Aller Wissenschafften und Künste, Bd. 47, Leipzig/Halle 1746, 1042–1046.

106

Josef Köstlbauer

Bezeichnenderweise beruft sich Zedler auch auf Gracián, der in der Simulation die Fähigkeit sieht, „aufmercksame Augen von seiner wahren Intention auf eine andere erdichtete abzuwenden.“ Bleibt die Simulation bei Zedler zumindest ambivalent, so fällt die Beurteilung der Simulation in Samuel Johnsons berühmtem Wörterbuch der englischen Sprache eindeutig aus. Simulation ist Heuchelei und Täuschung. Johnson zitiert Roger Bacon, der die Simulation zum Laster erklärt, das aus einem defizitären Charakter erwächst: „Simulation is a vice rising of a natural falseness or fearfulness; or of a mind that hath some main faults; which, because a man must needs disguise, it makes him practice simulation.“45

Ein englisches Synonymlexikon aus dem Jahr 1824 stellt simulation in Bezug zu dissimulation. Die Simulation, der Versuch vorzugeben, was nicht ist, wird als Heuchelei (hypocrisy) charakterisiert, während Dissimulation die Verschleierung eines wahren Sachverhalts ist.46 In diesem letztgenannten Fall findet ein Rückgriff auf ältere Bedeutungen statt, die keineswegs negativ belastet waren. In der gelehrten Literatur der Renaissance und des Barock treten simulatio und dissimulatio vorzugsweise im Gespann auf. Es sind Techniken des Hofmannes, sie gehören zum Projekt einer Disziplinierung und Perfektionierung des Selbst, die ganz im Zeichen der sozialen Kompatibilität steht. Es geht dabei nicht um Täuschung und Heuchelei, sondern um Bewährung. Und zweifellos ist in diesen Illusionen, in diesem Bestreben jeder Anstrengung den Anschein von Leichtigkeit zu verstecken, auch ein deutliches spielerisches Element gegeben. Diese Kultur der Oberfläche ist die Konsequenz einer Kultur der Öffentlichkeit.47 Hingegen markiert die moralische Abwertung des Begriffes die Aszendenz einer Kultur der Innerlichkeit und Wahrhaftigkeit, wie sie etwa Paul Hazard beschrieb.48 Die negativen Konnotationen sind noch in der Bezeichnung des „Simulanten“ manifest, also einer Person, die sich dem militärischen Dienst durch das Vortäuschen von Krankheit oder Gebrechen zu entziehen versucht.49 Aber die Simulation

45 Samuel Johnson, Dictionary of the English Language, Bd. 2, 6. Auflage, London 1785. Johnson führt weiters Zitate von Henry Wotton und Robert South an. 46 Georg Crabb, English Synonyms explained, 2. Auflage, London 1824, 742: „SIMULATION, from similis, is the making one’s self like what one is not; and DISSIUMULATION, from dissimilis, unlike, is the making one’s self appear unlike what one really is. The hypocrite puts on the semblance of virtue to recommend himself to the virtuous. The dissembler conceals his vice when he wants to gain the simple or ignorant to his side.“ 47 Jon R. Snyder spricht in diesem Zusammenhang etwas missverständlich von einer Kultur der Geheimhaltung. Snyder, Dissimulation and the Culture of Secrecy in Early Modern Europe, Berkeley 2009. 48 Paul Hazard, Die Krise des europäischen Geistes. 1680–1715, Hamburg 1939, 373–378. 49 Der Simulant scheint dabei als Schöpfung eines militärisch-medizinischen Diskurses, der sich während des Ersten Weltkriegs und der bis dahin nicht gekannten Mobilisierung der Bevölkerungen konstituierte. Siehe Report of the War Office Committee of Enquiry Into „Shell Shock“. First published 1922, London, 2004, 141–144; Gerhard Hirschfeld, Gerd Krumeich, Irina Renz

Spiel und Geschichte im Zeichen der Digitalität

107

im heutigen Sinne erreicht den populären Sprachgebrauch erst mit dem Heimcomputer. Ihre Wurzel sind nicht Geheimnis, Selbstdisziplin oder Täuschung, sondern Wissenschaft und Technik. Der Begriff gehört zur Semantik des Computers, der Digitalität und Virtualität. Der Begriff der Dissimulation ist aus dem Gebrauch verschwunden, obwohl er durchaus tauglich wäre, die Simulation auch im digitalen Zeitalter zu begleiten. Die grafischen User Interfaces simulieren, sie kreieren auf leuchtenden Schirmen Eindrücke von Dreidimensionalität und Materialität, wo keine ist. Gleichzeitig sind die Interfaces dissemblers, sie verschleiern die numerische Welt der Algorithmen, die Ontologien der Software, das rasant wechselnde Ja/Nein der Energiezustände. In diesem Sinne sind Simulation und Dissimulation Wesensmerkmale der digitalen Kultur, auch wenn diese etymologische Tiefendimension hinter den rezenten Bedeutungen des Wortes Simulation gemeinhin verborgen bleibt. Damit befinden wir uns wieder bei den Räumen des Als-ob, die von den BenutzerInnen willentlich betreten werden und die auch das Spiel errichtet. Die Schnittstelle Mensch-Computer funktioniert aufgrund eines gemeinsamen Einverständnisses, und sie weist einen deutlichen Zug zum Spiel auf. WELTANEIGNUNG Das digitale Spiel hat zu einer Proliferation von Spielen geführt, die bewusst als Simulationsspiele entwickelt und von Menschen gespielt werden, die simulieren wollen. Dabei stellt sich zuerst einmal die Frage nach dem Warum? Weshalb trachten Menschen danach, bestimmte Teile der Welt zu simulieren und damit zu spielen? Eine Antwort kann schon deshalb nicht leicht sein, weil die Bandbreite dieser Simulationen groß ist. Detailgetreue Fahrzeugsimulationen – vom Jagdflugzeug bis zum Traktor oder Gabelstapler –, virtuelle Modelle amerikanischer Mittelschichtexistenz wie die Sims; Gefechtssimulationen mit minutiös (re-)konstruierten Einheiten und Waffen. Betrachten wir zuerst jene Simulationsspiele, die in besonderem Maße Anspruch erheben, Aspekte der Realität zu modellieren. Augenfällig wird das bei Simulatoren von Traktoren, Verkehrsbussen, Abschleppfahrzeugen oder sogar Gabelstaplern, teilweise als „Alltagssimulatoren“ bezeichnet. Im Jahr 2010 war der

(Hg.) Enzyklopädie Erster Weltkrieg. Aktualisierte und erweiterte Studienausgabe, Paderborn 2009, 185, 187, 193, 194, 218.

108

Josef Köstlbauer

Landwirtschaftssimulator 201150 das meistverkaufte Spiel Deutschlands im Preissegment unter 28 Euro.51 Das bedeutet eine Verdoppelung gegenüber seinem Vorgänger (LS 2009).52 Von dem Landwirtschafts-Simulator 2013 wurden weltweit insgesamt über zwei Millionen Kopien verkauft.53 Dabei erstaunt, dass viele dieser Simulationsspiele keineswegs den landläufigen Vorstellungen von Spielen und Computerspielen im Besonderen entsprechen. Sie simulieren nicht die Ausnahmesituation Krieg, sondern den Alltag. Sie enthalten nicht einmal agonale Situationen, sie bieten kein fein austariertes Verhältnis von Herausforderung und Belohnung, nicht einmal ein definiertes Ziel muss gegeben sein, vielmehr liegt die Erfüllung im Spielen selbst. Beispiele sind die Simulationsspiele des deutschen Publishers Astragon. Der Fahr-Simulator etwa ermöglicht wenig mehr als verschiedene Fahrzeugtypen durch virtuelle Städte und Landschaften zu lenken.54 SpielerInnen des Bus-Simulators chauffieren Passagiere durch deutsche Großstädte inklusive Einhaltung von Ruhezeiten und Ticketverkauf (Zitat aus einem Werbetext: „Entscheiden Sie an den Haltestellen richtig: Senioren- oder doch Tagesticket?“55). Wem derartige Anforderungen noch zu aufregend sind, kann sich dem Eisenbahn-Simulator zuwenden, einer digitalen Version der klassischen Modelleisenbahn, oder dem Schiff-Simulator: Binnenschifffahrt und Fracht auf deutschen Flüssen transportieren. Etwas mehr Spannung versprechen Titel wie der Rettungsdienst-Simulator 2014 oder der Werk-Feuerwehr-Simulator 2014.56 Diese Spiele stehen den Titeln großer Produzenten in technischer Hinsicht deutlich nach, jedoch scheint das ihrem Reiz keinen Abbruch zu tun. Mit hohem Realitätsanspruch treten auch militärische Simulationsspiele auf. Strategie und Taktikspiele tauchen früh auf Homecomputern auf, zu Anfang ist ihre Herkunft aus den Tabletopspielen wie Tactics oder Squad Leader57 noch ganz unverkennbar präsent in der rundenbasierten Spielweise und in den quadratischen o-

50 Landwirtschaftssimulator 2011, Giants Software 2010. 51 Tobias Ritter, Landwirtschafts-Simulator 2013 – Über 2 Millionen Mal verkauft, in: GameStar, 25.20.2012, http://www.gamestar.de/spiele/landwirtschafts-simulator-2013/news/landwirtschafts_simulator_2013,47758,3056374.html (5.11.2014). 52 Sebastian Jäger, Über eine halbe Million Hobby-Bauern, in: Gamona, 19.5.2010, http://www. gamona.de/games/landwirtschafts-simulator-2009,ueber-eine-halbe-millionen-hobby-bauern:news,1739163.html (5.11.2014). 53 Landwirtschafts-Simulator 2013, Giants Software 2013. 54 Erstes Spiel der Serie war der Fahr-Simulator 2009, Astragon 2009. 55 Astragon, Bus Simulator 2012, http://www.astragon.de/produktdetails/article/bus-simulator2012.html (5.11.2014). 56 Eisenbahn-Simulator 2014, Rondomedia 2014; Schiff-Simulator: Binnenschifffahrt, Astragon 2012; Rettungsdienst-Simulator 2014, Rondomedia 2013; Werk-Feuerwehr-Simulator 2014, Rondomedia 2013. 57 Tactics, Avalon Hill 1954; Tactics II, Avalon Hill 1958; Squad Leader, Avalon Hill 1977; Advanced Squad Leader, Avalon Hill 1985.

Spiel und Geschichte im Zeichen der Digitalität

109

der hexagonalen Feldern, die die virtuellen Kriegsschauplätze überziehen. Die historischen Wurzeln dieser Spiele reichen in die Frühe Neuzeit zurück und in die Bereiche der Offiziersausbildung und militärischer Planspiele.58 Nachdem die Tabletopspiele auf den Computer migriert waren, kam es zu auseinander laufenden Entwicklungslinien wie Aufbauspielen und First-Person-Shootern usw. Sie alle beinhalten unverkennbar Aspekte der Simulation und es wird durchaus (und wohl erfolgreich) mit dem Schlagwort des „Realismus“ geworben. Als Produkte, die unter immer größerem finanziellen Einsatz für ein Massenpublikum entwickelt wurden und werden, stehen aber Aspekte der Spielbarkeit und Motivation der Spielenden im Vordergrund. Entsprechend sind für Spiele wie jene der Call of Duty-Reihe die grafische Umsetzung oder narrative Momente wichtig, nicht aber der Versuch, die Gegebenheiten von Infanteriegefechten im 21. Jahrhundert möglichst genau zu modellieren.59 Genau hat allenfalls die Repräsentation eines visuellen Diskurses über den Krieg zu sein, der von der Bilderwelt und den Geschichten des Films, Fernsehens und vorangegangener Computerspiele geprägt ist.60 Simulationsspiele wie jene der Combat Mission-Serie, entwickelt und veröffentlicht von einem amerikanischen Studio mit dem vielsagenden Namen Battlefront, tun sich hingegen nicht durch ihre Grafik hervor, sondern durch die detailgenaue Rekonstruktion militärischer Technik des Zweiten Weltkriegs und der Gegenwart. Es sind Simulationen des Gefechts verbundener Waffen auf Kompanieoder Bataillonsebene. Sie verlangen von SpielerInnen hohe Frustrationsschwellen und relativ weitgehende Kenntnisse über den Einsatz von Waffensystemen und taktische Gefechtsführung. Im Vordergrund steht die Modellierung moderner Gefechtsumgebungen, und wer diese Spiele kauft und spielt, hat offensichtlich genau daran Interesse. Einen andersartigen Ansatz bei ebenfalls hohem Realitätsanspruch verfolgen die Armed Assault-Spiele des tschechischen Entwicklerstudios Bohemia Interactive Studio. Sie werden als taktische Infanteriesimulation oder tactical shooter simulation bezeichnet. Die Combat Mission-Spiele halten die SpielerInnen in einer distanzierten Perspektive. Aus dieser blicken sie auf ein Schlachtfeld, auf dem sie nicht repräsentiert sind. Die Armed Assault Spiele machen genau das Gegenteil. Sie versetzen die SpielerInnen in die Rolle von KombattantInnen. Sie steuern einen Avatar, sehen die virtuelle Welt aus der Egoperspektive – selbst dann, wenn sie andere Einheiten kommandieren. Diese virtuelle Welt hatte bereits im ersten Spiel der

58 Die Geschichte dieser Spiele kann an dieser Stelle nicht weiter ausgeführt werden, ich verweise auf Philipp von Hilgers 2008; Rolf F. Nohr, Serjoscha Wiemer (Hg.), Strategie Spielen. Medialität, Geschichte und Politik des Strategiespiels, Münster 2008; Köstlbauer, Do Computers Play History? in: Tobias Winnerling, Florian Kerschbaumer(Hg.), Early Modernity and Video Games, Newcastle 2014, 24–37. 59 Zu Beispielen der Probleme mit Computerspielen siehe Philip A. G. Sabin, Simulating War, Studying Conflict through Simulation Games, London 2012, 22–27. 60 Siehe dazu Steffen Bender, Virtuelles Erinnern. Kriege des 20. Jahrhunderts in Computerspielen, Bielefeld 2012.

110

Josef Köstlbauer

Reihe, Operation Flashpoint, formidable Dimensionen.61 Drei große Inseln konnten durchwandert, durchfahren oder überflogen werden. Armed Assault 2 bot eine ausgedehnte Spielfläche von über zweihundert Quadratkilometern, über die sich die mannigfaltigen Landschaften des fiktiven Schwarzmeer-Staates Chernarus mit Küsten, Gebirgen, Wäldern und Wiesen, Dörfern und Hafenstädten erstreckt.62 Die Erweiterung Operation Arrowhead enthielt zerklüftete Gebirgslandschaften, die ganz unverhohlen an Afghanistan erinnern.63 Armed Assault 3 spielt auf einer zweihundertsiebzig Quadratkilometer großen mediterranen Insel.64 Beide Spiele vereint der Versuch, Abläufe, Technik und physische Gegebenheiten realitätsnah zu simulieren, bis hin zur Berechnung des Weges, den jedes abgefeuerte virtuelle Projektil nimmt, oder zum Verhalten der künstlichen Intelligenz im virtuellen Feuerhagel. Allen erwähnten Simulationsspielen ist der Anspruch der Realitätstreue und Authentizität gemeinsam – unabhängig davon, ob sie militärischen oder deutlich zivilen Charakters sind. In diesem Anspruch liegt zweifellos auch ein Gutteil der Faszination dieser Spiele. Der besondere Kitzel, der in der immer exakteren Nachbildung der physischen Welt liegt, offenbart sich in den kreativen Anstrengungen, die SpielerInnen unternehmen, um die Spiele, die sie spielen, zu erweitern, zu verbessern, ihren eigenen Visionen zu unterwerfen. Enthusiasten studieren Fotografien und Pläne von Helikoptern, Flugzeugen oder Gebäuden, um eigene Modelle/eigenes „Spielzeug“ für ihr Spiel zu kreieren. Andere Spieler diskutieren in Onlineforen die Modellierung der Qualität optischer Instrumente im Zweiten Weltkrieg oder die Validität taktischer Szenarien. Gerade in Nischenmärkten sind die Gemeinschaften zum einen Prüfstein für die Ansprüche der Entwickler auf Realismus und Authentizität. Zum anderen sind sie mittlerweile Teil der Entwicklungszyklen selbst geworden. Modding Communities reizen die Möglichkeiten von Game Engines aus, bringen neue Konzepte, erhöhen die Erwartungshaltungen von SpielerInnen. Modding oder Moddability ist zu einem zentralen Faktor in manchen Genres oder für manche Entwicklerstudios geworden. Es kann maßgeblich Einfluss darauf haben, wie lange ein Spiel auf dem Markt bleibt. Die Veränderungen und Neuerungen durch Addons und Modifikationen erhöhen die „Wiederspielbarkeit“ und für viele SpielerInnen sind die Beteiligung an einer Modding Community und der kreative Akt selbst ein maßgeblicher Grund, sich auf bestimmte Spiele einzulassen.65 Insgesamt geht der Trend dahin, Spiele als offene Prozesse zu sehen. Die Veröffentlichungen von Demos, Vollversionen, Downloadable Content (DLCs), Erweiterungen, Mods, Addons, Early Access- und Public Beta-Versionen usw. sind alles Stationen eines iterativen Prozesses, der an den Schnittstellen von Spiel, Markt, Handwerk und Kunst stattfindet. 61 62 63 64 65

Operation Flashpoint – Cold War Crisis, Bohemia Interactive Studio 2001. ArmA II, Bohemia Interactive Studios 2009. ArmA II: Operation Arrowhead, Bohemia Interactive Studios 2010. ArmA III, Bohemia Interactive Studios 2013. Lutz Schröder, Modding als Indikator für die kreative und kritische Auseinandersetzung von Fans mit Historienspielen, in: Florian Kerschbaumer, Tobias Winnerling (Hg.), Frühe Neuzeit im Videospie: Geschichtswissenschaftliche Perspektiven, Bielefeld 2014, 141–157.

Spiel und Geschichte im Zeichen der Digitalität

111

Was aber bewegt Menschen dazu, Stunden, Tage, Wochen damit zuzubringen, die Steuerung eines Fahr- oder Flugzeugs zu meistern oder Wälder zu durchwandern, die sie auch in natura erleben könnten, oft vielleicht nur nach Verlassen der Haustür und einigen Minuten Fußwegs? Im Sprechen über Simulationsspiele scheint das Als-ob gerne in den Zusammenhang einer Sehnsucht nach „ungelebte[m] Leben“66 gerückt zu werden: Im Sinne von „Wollten Sie schon immer einmal …?“ Die Simulation verspricht zu erfüllen, was die Spielenden in ihrem „realen“ Leben nicht erreichen können. Es gibt aber Evidenzen, die gegen diese Einschätzung sprechen. Der Pressesprecher von rondomedia erklärte 2010 in einem Presseinterview zwar die Motivation der SpielerInnen unter anderem damit, dass „viele Spieler einfach mal ‚Bagger fahren‘“ wollen. Er stellte aber gleichzeitig fest, dass viele der SpielerInnen auch in ihrem Berufsleben mit den simulierten Tätigkeiten zu tun hätten.67 Der Simulation scheint demnach ein eigener Wert zuzukommen, der nichts mit Kompensation zu tun hat. Hier offenbart sich die Doppelbödigkeit des Realitätsanspruches, der ja auch durchaus von SpielerInnen eingefordert wird. Simulationen werden gespielt, weil sie eben anders sind, als die Welt draußen. Dort kann man zwar auch Autofahren, aber aus nachvollziehbaren Gründen wird man es dort vermeiden, mit dem Abschleppwagen eine Abkürzung über die Leitplanken zu nehmen. Ähnliches manifestiert sich in dem Umstand, dass auch aktive oder ehemalige Militärangehörige militärische Simulationsspiele spielen und dabei ihre professionellen Kenntnisse und Erfahrungen ins Spiel einbringen. Im Spiel von Veteranen, die die Schauplätze der Kriege der letzten Jahre virtuell erneut besuchen, bleibt das Spiel ein Spiel – ungeachtet der Dinge, die sie an diesen Orten erlebt haben mögen. Genauso wie bei amerikanischen Soldaten, die irgendwo in Afghanistan ihre dienstfreie Zeit verbringen, indem sie im Unterstand Call of Duty auf der Xbox spielen.68 Man könnte vermuten, dass die Betroffenen genug am „hautnah“ erlebten Kriegsalltag haben, aber offensichtlich ist der Spielinhalt, so sehr die virtuellen Spielumgebungen der realen Umgebung außerhalb gleichen mögen, so eindeutig der Sphäre des Spiels zugeordnet, dass hier kein Konflikt auftritt. Spiel bleibt Spiel. Für den Reiz der simulierten Welt spricht auch, dass nicht als Spiel gedachte Simulationen immer wieder für das Spiel reklamiert wurden: Bereits der preußische General Müffling stellte mit einer gewissen Verwunderung fest, dass es nicht Militärs waren, die Simulationen des Krieges entwickelten: „Merkwürdig genug ist es, dass sich bisher nur Männer aus anderen Ständen als dem Soldatenstande mit dieser Erfindung beschäftigten, und daher durch ein unvollkommenes Bild des Krieges

66 Alexander Demandt, Ungeschehene Geschichte. Ein Traktat über die Frage: Was wäre geschehen, wenn…? Göttingen 2011, 50. 67 Im Gespräch mit dem Meister der Simulatoren, in: ComputerBild.de 5.1.2010, http://www. computerbild.de/artikel/cbs-News-PC-Felix-Buschbaum-Interview-Landwirtschafts-Simulator-4985803.html (5.11.2014). 68 Vgl. etwa Kent Harris, Confined to Afghan outpost by rocket attacks, unit finds ways to pass the time. Stars and Stripes, 4.6.2008, http://www.stripes.com/news/confined-to-afghan-outpost-by-rocket-attacks-unit-finds-ways-to-pass-the-time-1.79630. (5.11.2014).

112

Josef Köstlbauer

und eine noch unvollkommenere Nachahmung desselben nie die Forderungen gründlich gebildeter Officiere befriedigt werden konnten.“69 Müffling bezog sich auf das sog Taktische Kriegs Spiel, das 1811 von dem Verwaltungsbeamten Georg Leopold von Reisswitz in Berlin vor den preußischen Prinzen präsentiert wurde.70 Sein Sohn, ein Offizier der preußischen Armee, entwickelte das Spiel weiter, bis es eine Simulation eines Stabes im Gefecht darstellte.71 Müffling war als Chef des Generalstabes maßgeblich an der Institutionalisierung dieses, den Ansprüchen „gründlich gebildeter“ Offiziere genügenden Spiels, in der preußischen Armee beteiligt.72 Gespielt wurde nunmehr auf „guten Aufnahmen von wirklichem Terrain“,73 also mit modernen Karten. Es war demnach in mehrfacher Hinsicht ein Projekt der Realitätsbeherrschung, das auf die Verhältnisse des Ernstfalles vorbereiten sollte. Sofort fanden sich Menschen, die es für ihre eigenen Spielzwecke entfremdeten. Im Laufe des 19. Jahrhunderts verbreiteten sich rasch verschiedene Versionen oder Ableitungen des Kriegsspiels als durchaus ziviler Zeitvertreib. Dabei ging es nicht mehr um das Erlernen militärischer Kompetenzen, sondern das Als-ob schob sich in den Vordergrund. Man wollte Krieg spielen, und das ganz ohne professionelles Interesse oder entsprechende Vorbildung. Deutlich wird das etwa im heute etwas dümmlich anmutenden Untertitel zu den von H.G. Wells 1913 ersonnenen Spiel Little Wars: „a game for boys from twelve years of age to one hundred and fifty and for that more intelligent sort of girl [sic!] who likes boys’ games and books.“74 Ein weiterer britischer Schriftsteller, Robert Louis Stevenson, spielte ein ähnliches Spiel mit seinem Stiefsohn. Der durchaus unkriegerische Historiker G. M. Trevelyan spielte noch im Erwachsenenalter zusammen mit seinen drei Brüdern ein in der Familie als Soldiers tituliertes Kriegsspiel.75 Roger Caillois schlug den Begriff der Mimikry vor, um zu benennen, was so viele Menschen in Simulationen oder Simulationsspielen suchen und finden.76 Wie Tiere, die sich als andere, oft gefährlichere Lebewesen tarnen, so nehmen Spieler– Innen die Rollen anderer Charaktere an, nicht selten solcher, die ebenfalls der Geruch der Gefahr umwittert oder jener des Ruhms. Es passiert im Spiel der Kinder genauso wie auf der Bühne oder in der verkehrten, wilden Welt des Karnevals. Und wie Kinder, Schauspieler oder Karnevalsnarren sind sich SpielerInnen ihrer Rolle 69 Karl von Müffling, Anzeige, Militair-Wochenblatt 6. 3. 1824, 2973. Siehe auch Edmund von Mayer, Eine Studie über das Kriegsspiel, Wien 1874, 9. 70 Jon Peterson, Playing at the World, San Diego 2012, 223f. 71 Georg Heinrich Rudolf von Reisswitz, Darstellung militairischer Manöver mit dem Apparat des Kriegs-Spieles, Berlin 1824. 72 Hilgers, Kriegsspiele, 67f. 73 Müffling, Anzeige, 2973. 74 H. G. Wells, Little Wars: A game for boys from twelve years of age to one hundred and fifty and for that more intelligent sort of girl who likes boys’ games and books, Whitefish 2010. 75 Lloyd Osbourne, Stevenson At Play, in: Scribner’s Magazine, 12/1898, 711–719; George Macaulay Trevelyan, An Autobiography and Other Essays, London u. a. 1949, 3–4. 76 Caillois 1982: 19–23. In der französischen Originalausgabe und der englischen Übersetzung wird übrigens simulation in der Bedeutung von Vortäuschen gebraucht.

Spiel und Geschichte im Zeichen der Digitalität

113

durchaus bewusst. Sie sind, was sie spielen, und sind es nicht. Das Spiel hebt die Realität in seiner Sphäre auf, aber es verbirgt sie nicht. Caillois’ Mimikry ist sicher ein sehr anschaulicher Begriff, aber er ist im Grunde rein beschreibend und darüber hinaus irreführend, denn das spielende Kind, die Schauspieler oder Karnevalsnarren tarnen und täuschen nicht, um zu überleben. Ich schlage daher den Begriff der „Weltaneignung“ vor, der mehr erklärendes Potential entfaltet. Der Moment der Weltaneignung ist bis zu einem gewissen Grad wohl jedem Spiel eigen, er tritt aber im Simulationsspiel besonders scharf hervor. Der Grund liegt natürlich im prononcierten Anspruch auf Realitätsbezug. Die Simulation verspricht Zugriff auf ein Abbild der realen Welt, stattet die Spielenden aber mit der Macht des Spiels aus, bestimmte Bedingungen zu verändern. Diese Macht ermöglicht Formen der Auseinandersetzung mit der Welt (repräsentiert durch das virtuelle Abbild), die ansonsten sanktioniert, unmöglich, sehr aufwendig oder anderweitig impraktikabel sind. In den virtuellen Räumen digitaler Simulationen aber sind sie einfach, leicht, spielerisch. Im Feld der Simulation verflüssigen sich auch die Grenzen zwischen dem Simulationsspiel als Unterhaltungsspiel, und militärischen oder anderen utilitären Simulationen ein. In den zunehmend komplexen militärischen Simulationen, die seit der Einführung des Kriegsspiels in der preußischen Armee entwickelt wurden, konstituiert sich dabei ein dialogisches Verhältnis von Spiel und Realität. Ob Simulation oder Ernstfall – die Gestalt des Geschehens am Kartentisch unterscheidet sich nicht. Die Differenz zwischen Spiel und Nicht-Spiel, wie fundamental diese auch sein mag, manifestiert sich abseits des Stabsquartiers. Die digitale Militärsimulation simuliert die Ereignisse auf dem Gefechtsfeld und übersetzt sie in Botschaften und visuelle Repräsentationen, die die Perspektive des Kommandeurs respektive Spielers auf das Geschehen determinieren. Seit sich sowohl Militärs als auch SpielerInnen in digitalen Umwelten bewegen, ist die Differenz zwischen Spiel und Ernstfall noch geringer geworden. Zunehmend decken sich die Simulationen des Militärs und jene der Unterhaltungsspiele. Ein Beispiel ist die professionelle Gefechtssimulation Virtual Battlespace (gemeinhin nur mit dem Kürzel VBS benannt) von Bohemia Interactive Simulations.77 Sie basiert auf derselben Virtual Reality Engine wie die Spiele der Armed AssaultReihe. VBS wurde für den Einsatz durch Militär und Sicherheitskräfte entwickelt, der erste Kunde war das amerikanische Marine Corps. Weitere Käufer waren unter anderen die amerikanische und britische Armee. VBS 2 kam im Jahr 2007 auf den Markt, VBS 3 ist seit Juli 2014 erhältlich. Frappierend ist, dass das Unternehmen in der Darstellung seines Produktes massiv mit den Reizen der simulierten Realität operiert. In einem auf der Webseite von Bohemia Interactive Simulations prominent platzierten Werbevideo zu VBS 3

77 Bohemia Interactive Simulations ist ein 2001 gegründetes australisches Tochterunternehmen von Bohemia interactive Studio. Ersteres ist für die Entwicklung von Simulationen für Militärkunden zuständig, Letzteres für die Entwicklung von Spielen für den zivilen Markt (Siehe auch Fn 51–54).

114

Josef Köstlbauer

ziehen dramatische Landschaften am Betrachter vorbei.78 Gebirgszüge recken ihre Gipfel durch tief stehende Wolkenbänke, Vogelschwärme steigen in der Morgendämmerung auf, irisierendes Licht fällt durch dichtes Blätterdach auf den Boden einsamer Waldlichtungen. Getragene Orchestermusik begleitet die langsamen Kamerafahrten. Erst ganz zu Ende des knapp sechsminütigen [!] Videos ist für Momente eine Waffe zu sehen und vorbeifliegende Helikopter und Flugzeuge. Nicht gerade das, was man bei Werbung für eine Taktiksimulation erwarten würde, keine Explosionen, keine feuernden Panzerfahrzeuge, keine hektischen Kampfszenen. Eher herrscht der Habitus einer Naturdokumentation. Hier wird versprochen, eine ganze Welt zur Verfügung zu stellen – als Spielplatz. Aber es geht noch weiter: Bereits seit einigen Jahren arbeiten Militär und Firmen daran, DIE Welt den hier spielenden Institutionen zur Verfügung zu stellen. Bohemia Interactive Simulations hat nach dem Einstieg von Investoren die Firma TerraSim erworben, spezialisiert auf Terrainsimulationen. VBS 3 kann tausende Quadratkilometer existierenden Terrains detailgetreu darstellen. Derzeit ist laut Auskunft der Entwickler der Großteil der amerikanischen Ostküste erfasst. 79 Damit nähert sich VBS 3 einer Situation, die jener des preußischen Kriegsspiels von 1824 entspricht, als man begann, die Planspiele statt auf fiktiven Geländen auf den neuen Karten der preußischen Landesaufnahme zu spielen.80 Diese Projekte bleiben nicht auf virtuelle Repräsentationen von Umgebungen beschränkt. Die U.S. Army schloss im Jahr 2013 einen Fünfjahresvertrag mit Bohemia Inteactive Studios über die Erstellung einer virtuellen Trainingsumgebung, aufbauend auf VBS 3. Dafür wurde unter anderem eine Erweiterung entwickelt, die individuelle Avatare modelliert. Sogar reale Trainingsergebnisse können an die Avatare übermittelt werden. SoldatInnen verfügen damit über virtuelle Repräsentanten, die sie über ihre Dienstzeit hinweg begleiten und ihre Erfahrungen, Kompetenzen und Fähigkeiten widerspiegeln.81 Damit rückt die Umsetzung von Vorhaben näher, die bereits 1997[!] formuliert wurden: die Auflösung der Grenzen zwischen virtuellen und realen Ausbildungsumgebungen sowie die Individualisierung und Persistenz virtueller Ausbildungsumgebungen.82

78 http://bisimulations.com/ (5.11.2014). Das Video ist mittlerweile nicht mehr auf der Seite von Bohemia Interactive Simulations zu sehen, aber auf Youtube ist weiterhin eine Version verfügbar: http://www.youtube.com/watch?v=GFrGF54B0r0 (25.1.2015). 79 Bohemia Interactive Simulations, VBS3 V3.6 Supports massive, paged terrains, (9.9.2014), http://bisimulations.com/content/tue-09092014-1513/bohemia-interactive-simulations-unveils-major-terrain-upgrade-gametech (14.2.2015). 80 Hilgers, Kriegsspiele, 67–69. 81 Bohemia Interactive Simulations, US Army-GFT, http://bisimulations.com/showcase/us-armygft (14.2.2015). 82 Siehe National Research Council Committee on Modeling and Simulation, Modeling and Simulation: Linking Entertainment and Defense, Washington D.C. 1997; Eric Beidel, Avatars Invade Military Training, in: National Defense Magazine, Februar 2012, http://www.nationaldefensemagazine.org/archive/2012/February/Pages/AvatarsInvadeMilitaryTrainingSystems.aspx (5.11.2014).

Spiel und Geschichte im Zeichen der Digitalität

115

Um noch einmal zur historischen Dimension zurückzukehren, sei auf zwei Beispiele verwiesen, die beide dem Bedürfnis nach Weltabbildung und -aneignung geschuldet sind. Das erste Beispiel ist ein literarisches, es entstammt Laurence Sternes Tristram Shandy. Der ehemalige Offizier Onkel Toby und sein Diener und Leibbursche Trim bauen im Gemüsegarten eine befestigte Modellstadt, an der sie die Feldzüge in Flandern während des Spanischen Erbfolgekrieges nachvollziehen. Zu alt, um selbst in den Kampf zu ziehen, warten sie auf Zeitungen vom Festland und rekonstruieren dann die Gefechte in ihrer „Sandbox“. Diese georgianische Stadtund Belagerungssimulation besteht aus ineinander verhakbaren Häuschen, mit denen sich beliebige Stadtpläne rekonstruieren lassen. Sterne schreibt: „die Stadt war der vollkommene Proteus – sie war Landen und Trarbach und Sandvliet und Drusen und Hagenau – und dann war sie Ostende und Menin und Aeth und Dendermonde.“83

Das zweite Beispiel ist die Sammlung dreidimensionaler Modelle der Verteidigungsanlagen des Königreichs Frankreich. Die Anfertigung dieser sogenannten plan reliefs begann 1668, ab 1700 erhielt die Sammlung ihren permanenten Standort im Louvre (heute im Musée des Plans-Reliefs im Hôtel des Invalides). Es handelt sich um metikulöse Abbilder der Verhältnisse vor Ort, und nicht nur wurden bauliche Veränderungen auch an den Modellen nachvollzogen, nein sogar Beschädigungen und Verfall wurde an den Modellen sichtbar gemacht, so dass heute einige Modellruinen im Musée des Plans-Reliefs zu besichtigen sind. Bewegt man sich heute zwischen diesen Modellen im Halbdunkel des Museums, erinnert man sich unwillkürlich an Borges enigmatischen Kurztext „Von der Strenge der Wissenschaft“ (Del rigor en la ciencia) erinnert.84 KONSEQUENZEN Die Simulationen der Virtual Battlefields Systems-Reihe haben einen bemerkenswerten Weg zwischen den Bereichen des Spiels und Simulation zurückgelegt. Zunächst eine Weiterentwicklung eines Unterhaltungsspieles, wurde VBS 1 nach seinem Einsatz als militärisches Werkzeug wieder zum Spiel: Im Jahr 2004 veröffentlichte Bohemia Interactive eine reduzierte, aber kostenlose Version von VBS unter dem Namen VBS Lite. Das britische Verteidigungsministerium verteilte 2010 eine adaptierte Version von VBS 2 zu Marketingzwecken (VBS2 JCOVE).85 Das Interesse der SpielerInnen an dieser Simulation, die eigentlich für und in Kooperation mit militärischen Institutionen entwickelt wurde, führte also dazu, dass diese Institutionen selber schließlich diese Simulationen als Spiel an Zivilisten verteilten. Zi-

83 Laurence Sterne, Leben und Meinungen des Herrn Tristram Shandy, Stuttgart 1972, 516. Kursivschreibung aus dem Original übernommen. 84 Jorge Luis Borges, Von der Strenge der Wissenschaft, in: Jorge Luis Borges, Borges und ich (El hacedor): Kurzprosa und Gedichte 1960, München/Wien 1993, 131. 85 JCOVE LIGHT, in: Bohemia Interactive Community Wiki, http://community.bistudio.com/ wiki/Virtual_Battlespace:_JCOVE_Light (5.11.2014).

116

Josef Köstlbauer

vilisten spielen mit militärischer Software, der Kreis schließt sich. Die einzigen Unterschiede, die blieben, sind jene zwischen unterschiedlichen Benutzerlizenzen und die Frage der Kontrolle über bestimmte Datensätze, die möglicherweise als militärisch sensibel eingestuft werden. Diese Konvergenz von Spieleindustrie und militärischer Simulationssoftware geht so weit, dass die Spiele auf beunruhigende Weise Entwicklungen antizipieren. Das zeigte sich etwa in einem Moment am Rande des syrischen Bürgerkriegs: Am 10. Januar 2012 erschien in der Onlineausgabe der Zeitschrift Foreign Policy ein Artikel mit dem Titel „The Syrian Invasion“.86 Dem Text voran stand das Bild eines Kampfpanzers aus deutscher Produktion in syrischer Landschaft. Es war dies jedoch keine Fotomontage, sondern ein Screenshot aus dem kommerziellen Simulationsspiel Combat Mission: Shock Force87. Das beim Erscheinen im Jahr 2007 völlig fiktive Szenario einer Invasion Syriens durch NATO-Streitkräfte hatte 2012 eine unvermutete und besorgniserregende Aktualität erlangt.88 Die türkische Regierung verstärkte ihre Verbände an die syrische Grenze, und die Möglichkeit der Errichtung einer Pufferzone auf syrischem Gebiet wurde diskutiert. Spieler von Combat Mission: Shock Force begannen damit, mögliche zukünftige Szenarien durchzuspielen. Das Spiel wird wieder zur Simulation, die Auskunft geben kann über reale Möglichkeiten, in diesem Fall etwa der Zusammenstoß syrischer und türkischer Verbände. Das Muster setzt sich fort: Im November 2014 erfolgte auf der Webseite des Entwicklerstudios Battlefront der Vorverkauf für das Spiel Combat Mission: Black Sea, das einen „fiktiven[!] Konflikt“ zwischen Nato und Russland in der Ukraine im Jahr 2017 darstellt. 89 Angesichts der Situation im Jahr 2014 scheint die Fiktion einigermaßen dünn. Laut einer Stellungnahme im März 2014 erfolgte die thematische Festlegung bereits 2009, die Entwicklungsarbeiten begannen 2012 und im Herbst 2013 lag eine detaillierte Hintergrundstory vor. Angesichts der Entwicklungen in der Ukraine entschloss sich Battlefront im März 2014 dazu, auf seinem Forum die Rahmenhandlung des Spieles bekannt zu geben, um klarzustellen, dass man nicht vom Nachrichtenwert aktueller Krisen und Kriege zu profitieren suche.90 Aber diese Wirkung, auch wenn sie nicht intendiert war, ist vermutlich durchaus gegeben.

86 M. Peck, The Syrian Invasion, in: Foreign Policy, 10.1.2012, http://www.foreignpolicy.com/ articles/2012/01/10/the_syrian_invasion (10.11.2013). 87 Combat Mission: Shock Force, Battlefront 2007. 88 Laut Auskunft der Entwicklerfirma wollte man Gefechte simulieren, die das gesamte Spektrum moderner Landkriegsführung umfassten, dazu benötigte man ein Szenario eines begrenzten Konfliktes mit Kontrahenten, die über umfangreiche konventionelle Streitkräfte verfügten. Gleichzeitig suchte man die Abbildung realer Konflikte (etwa des Irakkrieges von 2003) zu vermeiden. Siehe Combat Mission: Shock Force – Field Manual v1.20, PDF, 2009, 10–12. 89 Battlefront.com, Flashpoint Ukraine! Combat Mission Black Sea, 4.11.2014, http://www.battlefront.com (5.11.2014). 90 Battlefront.com, Status update on „Black Sea“, 6.4.2014, http://community.battlefront.com/ topic/112866-status-update-on-black-sea/ (5.11.2014).

Spiel und Geschichte im Zeichen der Digitalität

117

Unbedingt intendiert ist die Annäherung an die Realität in den Spielen von Kuma Reality Games. 2004 veröffentlichte dieses Studio Kuma\War, ein Spiel, das auf einem Abonnementprinzip aufbaut.91 Das kostenlos erhältliche Spiel ist ein Third-Person/First-Person-Shooter für den auf der Website des Entwicklers mittlerweile über hundert Missionen als Download verfügbar sind. Die Idee war es, möglichst zeitnah aktuelle Kriegsereignisse in taktische Simulationen zu überführen und spielbar zu machen. Die erste Mission bildete das Gefecht nach, in dem Saddam Husseins Söhne Uday und Qusay getötet wurden. Sie wurde etwa ein halbes Jahr nach dem Geschehen veröffentlicht.92 Die vorletzte Mission widmete sich dem Tod Osama bin Ladens, sie wurde innerhalb von vier Tagen nach dem Ereignis gebaut.93 Beinahe grotesk ist die unreflektierte Verknüpfung von News und „real war“. Der Krieg spielt in den Medien und simuliert werden die Fernsehbilder. Das ist nichts Neues, gerade bei immersiven Spielen mit historischer Kriegsthematik stehen ganz unverkennbar die Bilderwelten Hollywoods Pate, und nicht Forschungsergebnisse der Geschichtswissenschaft.94 Aber selten passiert die Gleichsetzung so unverhohlen. Das Downloadarchiv der Missionen für Kuma\War ist heute eine Chronik der amerikanischen Kriege des 21. Jahrhunderts, according to CNN. Die intendierten oder nicht intendierten Verknüpfungen zwischen Spiel und Realität können sich auch abseits von Kriegsspielen entfalten. So musste sich Microsoft nach dem 11. September 2001 mit der Vorstellung auseinandersetzen, dass möglicherweise der Microsoft Flight Simulator verwendet worden war, um den Anschlag auf das World Trade Center zu planen.95 Microsoft reagierte damals sehr rasch und entfernte sowohl das World Trade Center als auch Schadensmodelle der Flugzeuge aus dem kurz zuvor veröffentlichten Flight Simulator 2002. Der Angriff auf die Twin Towers konnte nicht mehr nachgespielt werden. Tatsächlich gibt es keine Anhaltspunkte dafür, dass die Attentäter den Flight Simulator nutzten. Stattdessen nahmen Sie Unterricht in akkreditierten Flugschulen und buchten Trainings in professionellen Flugsimulatoren. Der offizielle Bericht der 9-11 Commission beschreibt das sehr ausführlich und enthält keinerlei Hinweise auf die damals erhältlichen Flugsimulationsspiele.96 Wesentlich ist jedoch nicht, ob diese Vorstellungen wahr sind oder nicht, es zählt allein, dass sie zu Beginn des 21. Jahrhunderts plausibel erschienen. Kraft des ihnen eigenen Vermö-

91 Kuma\War. Real War News. Real War Games, http://www.kumawar.com/ (5.11.2014). 92 Kuma\War, Uday’s and Quasay’s Last Stand, 28.2.2004, http://www.kumawar.com/UdayQuasayLastStand1/overview.php (5.11.2014) 93 Kuma\War, The Death of Osama Bid[sic!] Laden, o.A., http://www.kumawar.com/osama 2011/overview.php (5.11.2014); Brian Crecente, Kill Osama Bin Laden on Saturday, in: Kotaku, 5.6.2011, http://kotaku.com/5799434/kill-osama-bin-laden-on-saturday (5.11.2014). 94 Vgl. etwa Bender, Virtuelles Erinnern, 32f. 95 K. Amoakwa, The flight software that trains the terrorists, in: Mail Online 15.7.2005, http://www.dailymail.co.uk/news/article-357006/The-flight-software-trains-terrorists.html (10.11.2014). 96 9/11 Report, 323–328.

118

Josef Köstlbauer

gens, bestimmte, meist durchaus recht begrenzte, Eigenschaften der Realität zu simulieren, können Simulationsspiele Konsequenzen entfalten, die die Grenzen des Spiels überschreiten und in die Welt außerhalb hinein wirken. Ein Spiel erscheint so plötzlich als Waffe. Auch ein anderer Fall zeigt, welche Wirkungen die Auflösung der Grenzen zwischen Spiel und Wirklichkeit zeitigen kann. Im Sommer 2012 reisten zwei Mitarbeiter der Entwicklerfirma Bohemia Interactive nach Griechenland, um dort Schauplatzrecherchen für das Simulationsspiel Armed Assault 3 (Bohemia Interactive, Windows 2013) anzustellen. Schauplatz und Kulisse dieses Spieles ist eine fiktive Mittelmeerinsel, bei der es sich weitestgehend um das virtuelle Abbild der real existierenden Insel Lemnos handelt. Dort angekommen wurden die zwei Spieledesigner von den griechischen Behörden unter Spionageverdacht festgesetzt und verbrachten mehrere Wochen in griechischer Haft.97 Erklärt sich das allein durch die Paranoia staatlicher Apparate, in diesem Fall der griechischen Sicherheitskräfte? Oder wurden die Mitarbeiter im Grenzland zwischen Realität und Virtualität vom Anspruch ihres Spiels eingeholt und zu Fall gebracht?98 AUSBLICK AUF EINE SPIELENDE GESCHICHTSWISSENSCHAFT Zum Ende dieses Beitrags möchte ich einen Ausblick wagen, einen spekulativen Versuch, der dem Thema der Simulation wohl ansteht. Auf den vorangegangenen Seiten habe ich mich den Aspekten des digitalen Spiels und der Simulation aus einer historisierenden Perspektive angenähert. Und sicher bieten Spiel und Simulation ein vielversprechendes Feld für tiefer gehende Auseinandersetzungen. Die Geschichtswissenschaft kann dabei ihren Beitrag leisten, wird dazu aber einer interdisziplinären Verbreiterung bedürfen. Auflösung von Grenzen also auch hier. Begreift man Computerspiele als komplexe kulturelle Phänomene und nimmt die um sie entstehenden Gemeinschaften, Praxen oder Identitäten mit in den Blick, dann erkennt man, dass hier ein weites Feld für Fragestellungen besteht. Eine Betrachtung des Spiels als Einzelmedium kann dem nicht gerecht werden. Hier tut sich übrigens eine Fülle an Quellen auf, die bislang kaum untersucht werden. Die Communities (es scheint angemessen, den englischen Ausdruck zu verwenden), die um nahezu alle Spiele entstehen, schaffen reiches Material für diskursanalytische Untersuchungen, die über Motivationen und Erfahrungen, über Streben und Handeln der Spielenden Auskunft geben. Das sind zum einen die Äußerungen auf Foren, Let’s plays und „Spielberichterstattung“ auf Weblogs, die Modding Communities usw. 97 Marek Španěl, A statement by CEO of Bohemia Interactive regarding the detainment of Ivan Buchta and Martin Pezlar, 20.9.2012, http://www.bistudio.com/blog/statement-bohemia-interactive-ceo-lemnos-arrests (5.11.2014). 98 Vgl. auch Josef Köstlbauer, Martin Gasteiner, Simulation und Imagination. Gedanken zum Problem der Realität im Spiel, in: Historische Sozialkunde 4/2013, 9–16, hier 14.

Spiel und Geschichte im Zeichen der Digitalität

119

Verdient also das digitale Spiel schon als Gegenstand der Forschung wissenschaftliche Beachtung, so gilt das noch viel mehr für Spielelemente in der wissenschaftlichen Arbeit an sich. Die Simulation drängt sich als Beispiel auf. In anderen Disziplinen ist der Einsatz von Modellen zum Testen von Bedingungen gang und gäbe. Die Geschichtswissenschaft aber formuliert keine simulationsfähigen Anliegen. Das liegt am Aspekt der Kontrafaktizität, der der Simulation innewohnt. Dieser steht der Faktizität, der sich die Geschichtswissenschaft verpflichtet sieht, entgegen. Die Simulation führt das Element der Kontingenz ein. Das Spiel beginnt jedes Mal neu, es erlaubt im Sinne einer Probehandlung stets neue Handlungsstrategien zu verfolgen. In der Auseinandersetzung mit Kontrafaktizität und den Perspektiven auf Geschichte und Geschichtsschreibung, die sich ihr abgewinnen lassen, könnte Geschichte wieder zu etwas Offenem werden, zu einer Vorstellung von Möglichkeits- und Spielräumen. Die Bedeutung der Simulation würde nicht vorrangig in der Konstruktion alternativer Geschichten liegen. Zum einen stellt sich schnell die Frage, ob das dann noch Geschichte ist. Zum anderen kann man in mitunter seltsame Positionen geraten, wie das Beispiel Niall Fergusons zeigt.99 Vielmehr geht es darum, jenen Spielraum „von unverwirklichten, gleichwohl erwägenswerten Alternativen, die das Geschehen wie ein Hof umgeben“100, greifbar zu machen. Weshalb fallen bestimmte Entscheidungen, wie zwingend oder risikobehaftet waren sie oder erschienen sie? Simulation könnte eine Strategie der Verdeutlichung sein, wie das auch Visualisierungen sind.101 Gerne wird im Zusammenhang mit Simulationsspielen ein Moment des „Erfahrens“ von Geschichte beschworen. Es folgt der bittere Einwand des Historikers, dass die Vergangenheit vergangen ist, und demnach das, was in einer solchen Simulation erfahren wird, etwas anderes sein muss. 2008 beschwor der Historiker Steven Mintz in einem Interview zum Thema Digital History im Journal of American History die Zukunftsvision einer Digital History 4.0, in der sich Studierende durch virtuelle historische Räume bewegen.102 Allerdings ist bis heute die Korrelation zwischen Aufwand und Nutzen solcher Unterfangen völlig unklar. Übersehen wird auch gerne, dass die permanente Vernetzung und die ubiquitären Endgeräte, 99 Zu alternativer Geschichte siehe Niall Ferguson, Die europäische Union des deutschen Kaisers. Wenn England sich im August 1914 aus dem Ersten Weltkrieg herausgehalten hätte, in: Ders. (Hg.), Virtuelle Geschichte. Historische Alternativen im 20. Jahrhundert, Darmstadt 1999, 115–177. Ferguson beschäftigte sich auch mit Simulationsspielen, allerdings sind seine daraus gewonnenen Einsichten einigermaßen platt. Siehe ders., Making History: The Calm & The Storm, in: NYT 23.11.2006, http://nymag.com/news/features/22787/index1.html (24.3.2015). Ich danke Andreas Prischl für seine Hinweise. 100 Demandt, Ungeschehene Geschichte, 56. 101 Vgl. etwa David Staley, Historical Visualizations, in: Journal of the Association for History and Computing, 3/3/2000, 1–14. 102 The Promise of Digital History, in: Journal of American History 95/2008, 442–451. Als richtungsweisendes Beispiel nennt Mintz die virtuelle Rekonstruktion der Columbian Exposition von 1893 in Chicago.

120

Josef Köstlbauer

die uns jederzeit Zugriff auf Informationen und vielfältige Kommunikationsmöglichkeiten geben, die Welt bereits in eine annotierbare, kontextualisierbare „real virtuality“ verwandelt haben. Social media-Plattformen wie Instagram, Reiseapps wie tripwolf, Hotelportale wie booking.com, Navigationssoftware, Trackingsoftware, augmented reality-software wie Layar oder Wikitude usw. machen die Unterscheidung zwischen real und virtuell weitgehend gegenstandslos. Treibende Kräfte sind dabei allerdings nicht HistorikerInnen oder MusealisierungsexpertInnen, sondern die Kräfte des Marktes, der Kreativität, der sozialen Netzwerke im weitesten Sinne. Es wäre ein schwerwiegendes Missverständnis darauf zu hoffen, dass über den Aspekt der Simulation der historistische Traum des „Zeigens, wie es gewesen ist“ doch noch, kraft der Möglichkeiten der Technik, zu verwirklichen ist. Stattdessen kann eine Auseinandersetzung mit dem Spiel im Allgemeinen und der Simulation im Speziellen dazu führen, mediale Umwelten, mediale Phänomene als Bedingungen der Geschichtswissenschaft zu begreifen, nicht nur als Gegenstand der Untersuchung.103 Es geht um die Reflexion der Medialität von Vergangenheit (und Gegenwart) genauso wie um die Medialität der Wissenschaft. Sollte dies einmal gelingen, dann wird dafür auch ein Spielbegriff verantwortlich sein, der sich aus den historischen Konventionen einer bürgerlichen Gesellschaft gelöst hat und in weite Bereiche unseres Lebens diffundiert ist. Vielleicht ist dann auch eine spielende, simulierende, fantasiegeleitete Geschichtswissenschaft möglich. LITERATUR Suzana Alpsancar, Das Ding namens Computer. Eine kritische Neulektüre von Vilém Flusser und Mark Weiser, Bielefeld 2012. K. Amoakwa, The flight software that trains the terrorists, in: Mail Online 15.7.2005, http://www. dailymail.co.uk/news/article-357006/The-flight-software-trains-terrorists.html (10.11.2014). Apple, OSX-Familienfreigabe. Eine neue Art, das digitale Familienleben zu organisieren, http:// www.apple.com/at/osx/better-apps/ (8.12.2014). Apple, MacBook Air. Mit leistungsstarken Apps, http://www.apple.com/at/macbook-air/ (8.12. 2014). Astragon, Bus Simulator 2012, http://www.astragon.de/produktdetails/article/bus-simulator-2012. html (5.11.2014). Battlefront.com, Flashpoint Ukraine! Combat Mission Black Sea, 4.11.2014, http://www.battlefront.com (5.11.2014). Battlefront.com, Status update on „Black Sea“, 6.4.2014, http://community.battlefront.com/topic/ 112866-status-update-on-black-sea/ (5.11.2014). Jean Baudrillard, Agonie des Realen, Berlin 1978. Zygmunt Bauman, Liquid Modernity, Cambridge 2000. 103 Manuel Castells prägte das Konzept einer emergenten „real virtuality“, in der eine verdichtete Medienumwelt das Konzept der Realität auflöst. Castells, Rise of the Networks Society, 364– 368. Der niederländische Medienwissenschaftler Mark Deuze spricht in diesem Zusammenhang von einer „ontological benchmark“ für die Medienwissenschaft des 21. Jahrhunderts. Deuze, Media Life, in: Media Culture Society 33/2011, 137–148, hier 138.

Spiel und Geschichte im Zeichen der Digitalität

121

Eric Beidel, Avatars Invade Military Training, in: National Defense Magazine, Februar 2012, http://www.nationaldefensemagazine.org/archive/2012/February/Pages/AvatarsInvadeMilitaryTrainingSystems.aspx (5.11.2014). Steffen Bender, Virtuelles Erinnern. Kriege des 20. Jahrhunderts in Computerspielen, Bielefeld 2012. Bohemia Interactive Simulations, US Army-GFT, https://bisimulations.com/showcase/us-army-gft (14.2.2015). Jorge Luis Borges, Von der Strenge der Wissenschaft, in: Jorge Luis Borges, Borges und ich (El hacedor): Kurzprosa und Gedichte 1960, München/Wien 1993, 131. James F. Brooks, Captives & Cousins: Slavery, Kinship and Community in the Southwest Borderlands, Chapel Hill, NC 2001. Roger Caillois, Die Spiele und die Menschen. Maske und Rausch, Frankfurt a. M. u.a 1982. Manuel Castells, The Rise of the Network Society: The Information Age, Oxford 1996. Baldassare Castiglione, Il Libro del Cortigiano, Mailand 2007. Combat Mission: Shock Force – Field Manual v1.20, PDF, 2009. Georg Crabb, English Synonyms explained, 2. Auflage, London 1824. Brian Crecente, Kill Osama Bin Laden on Saturday, in: Kotaku, 5.6.2011, http://kotaku.com/ 5799434/kill-osama-bin-laden-on-saturday (5.11.2014). Linda E. Dankworth, Ann R. David (Hg.), Dance Ethnography and Global Perspectives, Basingstoke 2014. Alexander Demandt, Ungeschehene Geschichte. Ein Traktat über die Frage: Was wäre geschehen, wenn…? Göttingen 2011. Mark Deuze, Media Life, Cambridge 2011. Mark Deuze, Media Life, in: Media Culture Society 33/2011, 137–148. Nicolas Faret, L’Honnête Homme ou l’Art de plaire à la Cour, Paris 1630. Niall Ferguson, Making History: The Calm & The Storm, in: NYT 23.11.2006, http://nymag.com/ news/features/22787/index1.html (24.3.2015). Niall Ferguson, Die europäische Union des deutschen Kaisers. Wenn England sich im August 1914 aus dem Ersten Weltkrieg herausgehalten hätte, in: Ders. (Hg.), Virtuelle Geschichte. Historische Alternativen im 20. Jahrhundert, Darmstadt 1999, 115–177. Michel Foucault, La vie des hommes infâmes, Paris 1977. Gonzalo Frasca, Simulation vs. Narrative. Introduction to Ludology, in: Mark J. P Wolf, Bernard Perron (Hg.), The Video Game Theory Reader, New York/London 2003, 221–235. Kent Harris, Confined to Afghan outpost by rocket attacks, unit finds ways to pass the time. Stars and Stripes, 4.6.2008, http://www.stripes.com/news/confined-to-afghan-outpost-by-rocket-attacks-unit-finds-ways-to-pass-the-time-1.79630. (5.11.2014). Paul Hazard, Die Krise des europäischen Geistes. 1680–1715, Hamburg 1939. Carl Heinze, Mittelalter Computer Spiele. Zur Darstellung und Modellierung von Geschichte im populären Computerspiel, Bielefeld 2012 Philipp von Hilgers, Kriegsspiele. Eine Geschichte der Ausnahmezustände und Unberechenbarkeiten, Paderborn 2008. Gerhard Hirschfeld, Gerd Krumeich, Irina Renz, Enzyklopädie Erster Weltkrieg. Aktualisierte und erweiterte Studienausgabe, Paderborn 2009. Christian Holtorf, Claus Pias (Hg.), Escape! Computerspiele als Kulturtechnik, Köln/Wien 2007. Johan Huizinga, Homo Ludens. Vom Ursprung der Kultur im Spiel, Reinbek 2011. Chris Humphrey, The Politics of Carneval: Festive Misrule in Medieval England, Manchester 2001. Im Gespräch mit dem Meister der Simulatoren, in: ComputerBild.de 5.1.2010, http://www.computerbild.de/artikel/cbs-News-PC-Felix-Buschbaum-Interview-Landwirtschafts-Simulator4985803.html (5.11.2014). Sebastian Jäger, Über eine halbe Million Hobby-Bauern, in: Gamona, 19.5.2010, http://www. gamona.de/games/landwirtschafts-simulator-2009,ueber-eine-halbe-millionen-hobby-bauern:news,1739163.html (5.11.2014).

122

Josef Köstlbauer

JCOVE LIGHT, in: Bohemia Interactive Community Wiki, https://community.bistudio.com/ wiki/Virtual_Battlespace:_JCOVE_Light (5.11.2014). Samuel Johnson, Dictionary of the English Language, Bd. 2, 6. Auflage, London 1785. Matthew Kapell, Andrew B. R Elliott (Hg.), Playing with the Past. Digital Games and the Simulation of History, New York u.a. 2013. Florian Kerschbaumer, Tobias Winnerling (Hg.), Frühe Neuzeit im Videospiel: Geschichtswissenschaftliche Perspektiven, Bielefeld 2014, 141–157. Köstlbauer, Do Computers Play History? in: Tobias Winnerling, Florian Kerschbaumer(Hg.), Early Modernity and Video Games, Newcastle 2014, 24–37. Josef Köstlbauer, ComputerSpielGeschichte, in: Historische Mitteilungen 26/2014, 107–110. Josef Köstlbauer, The Strange Attraction of Simulation: Realism, Authenticity, Virtuality, in: Matthew W. Kapell, Andrew B. R. Elliott (Hg.), Playing with the Past, London/New York 2013, 169–184. Josef Köstlbauer, Martin Gasteiner, Simulation und Imagination. Gedanken zum Problem der Realität im Spiel, in: Historische Sozialkunde 4/2013, 9–16, hier 14. Kuma\War, The Death of Osama Bid[sic!] Laden, o.A., http://www.kumawar.com/osama2011/ overview.php (5.11.2014). Kuma\War, Uday’s and Quasay’s Last Stand, 28.2.2004, http://www.kumawar.com/UdayQuasayLastStand1/overview.php (5.11.2014). Dorothea Kühme, Bürger und Spiel. Gesellschaftsspiele im deutschen Bürgertum zwischen 1750 und 1850, Frankfurt a. Main/New York 1997, 48–55. Pierre Lévy, Die Erfindung des Computers, in: Michel Serres (Hg.), Elemente einer Geschichte der Wissenschaften, Frankfurt a. M. 1998, 937–943. Jane McGonigal, Gaming Can Make a better World, TedTalk, Februar 2010, http://www.ted.com/ talks/jane_mcgonigal_gaming_can_make_a_better_world (5.11.2014). Jane McGonigal, Reality is Broken. Why Games Make us Better and How they Can Change the World, New York 2011. Octave Mannoni, Clefs pour l’imaginaire ou l’Autre Scène, Paris 1985. Lev Manovich, The Language of New Media, Cambridge, Mass. 2001. Edmund von Mayer, Eine Studie über das Kriegsspiel, Wien 1874. Jean-Michel Mehl, Les jeux au royaume de France du XIIIe début du XVIe siècle, Paris 1990. Dieter Mersch/János Kristóf Nyíri (Hg.): Computer, Kultur, Geschichte. Beiträge zur Philosophie des Informationszeitalters. Wien 1991. Dieter Mersch, Digitalität und Nicht-Diskursives Denken, in: Dieter Mersch/János Kristóf Nyíri (Hg.): Computer, Kultur, Geschichte. Beiträge zur Philosophie des Informationszeitalters, Wien 1991, 109–125. Karl von Müffling, Anzeige, Militair-Wochenblatt 6. 3. 1824, 2973. Viknashvaran Narayanasamy et al., Distinguishing games and simulation games from simulators, in: Computers in Entertainment 4/2006, 2–18. National Research Council Committee on Modeling and Simulation, Modeling and Simulation: Linking Entertainment and Defense, Washington D.C. 1997. Florian Nelle, Künstliche Paradiese. Vom Barocktheater zum Filmpalast, Würzburg 2005. Iva Niemcic, Uncovering the Invisible Female Dancers of Moreska, in: Linda E. Dankworth, Ann R. David (Hg.), Dance Ethnography and Global Perspectives, Basingstoke 2014, 77–94. Rolf F. Nohr, Serjoscha Wiemer (Hg.), Strategie Spielen. Medialität, Geschichte und Politik des Strategiespiels, Münster 2008. Lloyd Osbourne, Stevenson At Play, in: Scribner’s Magazine, 12/1898. M. Peck, The Syrian Invasion, in: Foreign Policy, 10.1.2012, http://www.foreignpolicy.com/ articles/2012/01/10/the_syrian_invasion (10.11.2013). Nicholas John Pelling, The Curse of the Voynich: The Secret History of the World’s Most Mysterious Manuscript, Surbiton 2006. Jon Peterson, Playing at the World, San Diego 2012.

Spiel und Geschichte im Zeichen der Digitalität

123

Ernst Pfaller, Immer fleißig spielen! Profaner Realismus und Heiliger Ernst zwischen Menschen und Maschinen, in: Christian Holtorf, Claus Pias (Hg.), Escape! Computerspiele als Kulturtechnik, Köln 2007, 147–159. Claus Pias, Wirklich problematisch. Lernen von frivolen Gegenständen, in: Christian Holtorf, Claus Pias (Hg.), Escape! Computerspiele als Kulturtechnik, Köln/Wien 2007, 256–269. Claus Pias, Computer Spiel Welten, München 2002, 20–56. The Promise of Digital History, in: Journal of American History 95/2008, 442–451. Georg Heinrich Rudolf von Reisswitz, Darstellung militairischer Manöver mit dem Apparat des Kriegs-Spieles, Berlin 1824. Report of the War Office Committee of Enquiry Into „Shell Shock“. First published 1922, London, 2004. Tobias Ritter, Landwirtschafts-Simulator 2013 – Über 2 Millionen Mal verkauft, in: GameStar, 25. 20.2012, http://www.gamestar.de/spiele/landwirtschafts-simulator-2013/news/landwirtschafts _simulator_2013,47758,3056374.html (5.11.2014). Philip A. G. Sabin, Simulating War, Studying Conflict through Simulation Games, London 2012. Louise Sauvé et al., Distinguishing between games and simulations: A systematic review, in: Educational Technology & Society 10/2007, 247–256. Lutz Schröder, Modding als Indikator für die kreative und kritische Auseinandersetzung von Fans mit Historienspielen, in: Florian Kerschbaumer, Tobias Winnerling (Hg.), Frühe Neuzeit im Videospiel: Geschichtswissenschaftliche Perspektiven, Bielefeld 2014, 141–157. Richard Sennett, Verfall und Ende des öffentlichen Lebens. Die Tyrannei der Intimität, Frankfurt a. M. 1996. Michel Serres (Hg.), Elemente einer Geschichte der Wissenschaften, Frankfurt a. M. 1998. Simulation, in: Encyclopaedia Britannica Online, http://www.britannica.com/EBchecked/topic/ 545 493/simulation (5.11.2014). Simulation, in: Wikipedia, http://de.wikipedia.org/wiki/Simulation (5.11.2014). Simulation, in: Wikipedia, http://en.wikipedia.org/wiki/Simulation (5.11.2014). Wolfgang Schmale, Digitale Vernunft, in: Historische Mitteilungen 26/2014, 94–100. Angela Schwarz (Hg.), „Wollten Sie auch immer schon einmal pestverseuchte Kühe auf Ihre Gegner werfen?“ Eine fachwissenschaftliche Annäherung an Geschichte im Computerspiel, Münster u.a. 2010. Jon R. Snyder, Dissimulation and the Culture of Secrecy in Early Modern Europe, Berkeley 2009. Marek Španěl, A statement by CEO of Bohemia Interactive regarding the detainment of Ivan Buchta and Martin Pezlar, 20.9.2012, http://www.bistudio.com/blog/statement-bohemia-interactiveceo-lemnos-arrests (5.11.2014). David Staley, Historical Visualizations, in: Journal of the Association for History and Computing, 3/3/2000, 1–14. Laurence Sterne, Leben und Meinungen des Herrn Tristram Shandy, Stuttgart 1972. George Macaulay Trevelyan, An Autobiography and Other Essays, London u. a. 1949. H. G. Wells, Little Wars: A game for boys from twelve years of age to one hundred and fifty and for that more intelligent sort of girl who likes boys’ games and books, Whitefish 2010. Bruce Whitehill, Americanopoly. America as Seen Through its Games, La tour de Peilz 2014. White House Office for Science and Technology Policy, Games for Grand Challenges (23. Nov. 2011. Online: http://www.whitehouse.gov/blog/2011/11/23/games-grand-challenges (5.11.2014). Tobias Winnerling; Florian Kerschbaumer (Hg.), Early Modernity and Video Games, Newcastle 2014. Mark J. P Wolf, Bernard Perron (Hg.), The Video Game Theory Reader, New York/London 2003. Johann Heinrich Zedler (ed.), Grosses vollständiges Universal-Lexicon Aller Wissenschafften und Künste, Bd. 47, Leipzig und Halle 1746. Nathalie Zemon Davis (Hg.), Society and Culture in Early Modern France, Stanford 1975.

124

Josef Köstlbauer

Nathalie Zemon Davis, Women on Top, in: Dies. (Hg.), Society and Culture in Early Modern France, Stanford 1975, 124–151. Manfred Zollinger, „… in der heilsamen Vorsorge erlassen…“ Die Glücksspielgesetzgebung in der Habsburgermonarchie, in: Günter G. Bauer (Hg.), Homo ludens 2, 301–321.

SPIELE ArmA II, Bohemia Interactive Studios 2009. ArmA II: Operation Arrowhead, Bohemia Interactive Studios 2010. ArmA III, Bohemia Interactive Studios 2013. Advanced Squad Leader, Avalon Hill 1985. Bus Simulator 2012, Astragon 2012. Combat Mission: Shock Force, Battlefront 2007. Combat Mission: Black Sea, Battlefront 2015. Disaffected, Persuasive Games, 2006. Eisenbahn-Simulator 2014, Rondomedia 2014. Fahr-Simulator 2009, Astragon 2009. Jetset, Persuasive Games 2006. Kuma\War, Kuma Reality Games 2004. Kuma\War 2, Kuma Reality Games 2006. Operation Flashpoint – Cold War Crisis, Bohemia Interactive 2001. Rettungsdienst-Simulator 2014, Rondomedia 2013. Schiff-Simulator: Binnenschifffahrt, Astragon 2012. Squad Leader Avalon Hill 1977. Tactics, Avalon Hill 1954. Tactics II, Avalon Hill 1958. Werk-Feuerwehr-Simulator 2014, Rondomedia 2013.

BIG DATA IN DEN HISTORISCHEN KULTURWISSENSCHAFTEN Wolfgang Schmale Schon im 19. Jahrhundert gab es Klagen darüber, dass die Forschungsliteratur zum gerade vom betreffenden Autor bearbeiteten Thema kaum zu überblicken sei. Wenn wir „Big Data“ zunächst einmal mit dem Gefühl der Art „lost in science space“ gleichsetzen, dass die Zahl der informationellen Einheiten (Data) unüberblickbar groß ist, so haben wir, rein gefühlsmäßig, schon im 19. Jahrhundert Big Data. Wir könnten natürlich auch auf die 217 Bände der Patrologia latina schauen und uns fragen, wer die je ganz ausgewertet hat?1 Too big? Oder nehmen wir die Millionen Bände einer ordentlichen Universitäts- oder Nationalbibliothek, die historisch gewachsen sind. Dieses „historisch gewachsen sein“ von Millionen von Bänden lässt Big Data entstehen, denn zu jedem Buch in einer Bibliothek wurden schon immer bibliothekarische Metadaten erstellt, die in ihrer Masse als Big Data gelten. Oder nehmen wir frühneuzeitliche Gerichtsakten, die vermutlich den umfangreichsten historischen Quellenbestand ausmachen, ohne dass bisher mehr als die Spitze des Eisbergs freigelegt worden wäre. Oder nehmen wir antike Inschriften. Oder wir nehmen die über eine Million Karteikarten zur Münzdokumentation des Instituts für Numismatik und Geldgeschichte an der Universität Wien.2 Wenn wir diese lockeren Eindrücke ordnen und systematisieren, ergibt sich der Befund, dass Daten vielfach in sehr großen Mengen auftreten, da gerade sehr viele Primärquellen serieller Natur sind. Nicht zu reden von Zahlen und Zählungen in den Archivakten, aus denen sich demografische, ökonomische und andere Daten sowie auf einer höheren Stufe Statistiken (Metaquellen) erstellen lassen. Auch der Umstand, dass es sich vielfach um ‚unstrukturierte Daten‘3 handelt, scheint einen Vergleich mit unserer Gegenwart und den inhaltlich ebenso unstrukturierten wie wertvollen Daten aus Milliarden von Emails, SMS, Tweets etc. nahezulegen. Die Metadaten dieser elektronischen Kommunikationsformate sind freilich strukturiert. Und nimmt man „Mail“ als Stichwort, so fallen einem natürlich die frühneuzeitlichen Briefeschreiber – Humanisten, Gelehrte, Literaten und viele mehr – ein, unter denen sich viele finden, die Briefe in fünfstelliger Zahl, teilweise sogar in einer höheren fünfstelligen Zahl geschrieben und noch mehr empfangen haben. In Wien

1 2 3

Teildigitalisierung: http://www.documentacatholicaomnia.eu/1815–1875,_Migne,_Patrologia _Latina_01._Rerum_Conspectus_Pro_Tomis_Ordinatus,_MLT.html [Abruf 10.12.2014]. http://numismatik.univie.ac.at/einrichtungen/zentralkartei [Abruf 30.9.2014]. Ramón Reichert (Hg.), Big Data. Analysen zum digitalen Wandel von Wissen, Macht und Ökonomie, Bielefeld 2014, 10.

126

Wolfgang Schmale

denkt man an Max von Portheim (1857–1937), der Informationen zu Personen, Ereignissen sowie Orten für die Zeit von 1740 bis 1810 sammelte und dabei rund 500.000 Karteikarten beschrieb.4 Das lässt sich als analoge Datenbank bezeichnen. R. Reichert schreibt von „früheren materiellen Datenkulturen“.5 In Briefen, historischen analogen Datenbanken usw. stecken gleichfalls Millionen, wenn nicht Milliarden, informationeller Einheiten, die sich, wären diese Quellen alle digitalisiert, für das Data Mining, die quantitative Linguistik oder andere quantifizierende Verfahren anböten. Datenmengen als Big Data zu bezeichnen, ist aber ungenau. Große Datenmengen sind speziell in der Geschichtswissenschaft seit langem ein Thema, etwa aufgrund der Einführung statistischer Methoden in Teildisziplinen wie Bevölkerungs-, Wirtschafts- und Sozialgeschichte. In seiner Einführung in „Quantitative Methoden für Historiker“, die 1980 erschien – das Vorwort ist auf Oktober 1978 datiert – schrieb Norbert Ohler mehrfach von „gewaltigen Datenmassen“.6 Er bezog sich z. B. auf „Daten zur Finanzgeschichte“, zur Bevölkerungsgeschichte (Pfarrbücher), aber auch zur Klimageschichte, er erwähnt die seit Jahrzehnten getätigten Meinungsumfragen und anderes mehr.7 Wichtig ist auch der Hinweis auf die Transformation der Daten in „maschinenlesbare“ Daten, womit Ohler damals z. B. Speicherung von Daten auf Magnetbändern meinte.8 Zehn Jahre später war bezüglich der großen Datenmengen meistens ein nüchternerer Ton eingetreten, wie – rein sprachlich betrachtet – es eine zeittypische Bestandsaufnahme von 1988 belegt, die für den VIII. Historikerkongress der DDR (31.1.–3.2.1989) erstellt worden war.9 „Big Data“ im Sinne von sehr großer Datenmenge in den Humanities macht daher scheinbar kein neues Phänomen aus. Dennoch gibt es fünf wesentliche Unterschiede im Vergleich zu Naturwissenschaften, Pharmazie, Medizin, Mathematik, Astronomie etc., d. h. jenen Feldern, auf die sich der Begriff Big Data zuerst bezieht: (1) Die historischen Kulturwissenschaften machen einen Großteil der Humanities aus; digital born data sind hier bisher nicht die Hauptsache, die Hauptsache sind Digitalisate, mit denen Daten gewonnen werden können. Um Big Data im eigentlichen Wortsinn zu erhalten, müssten Unmengen von Digitalisaten erstellt und 4 5

6 7 8 9

Reinhard Buchberger/Gerhard Renner/Isabella Wasner-Peter (Hgg.), Portheim. Sammeln & Verzetteln. Die Bibliothek und der Zettelkatalog des Sammlers Max von Portheim in der Wienbibliothek, Wien 2007. Reichert 2014, 11. S. auch einen Artikel von Kevin Driscoll (betr. 20. Jh.), auf den Reichert verweist: Kevin Driscoll, From Punched Cards to „Big Data“: A Social History of Database Populism, in: communication +1, 2012: Vol. 1, Article 4: http://scholarworks.umass.edu/cpo/ vol1/iss1/4 [Abruf 23.9.2014]. Zur Geschichte des Datensammelns s. Schmale, Kap. 2, in Wolfgang Schmale/Marie-Theres Tinnefeld, Privatheit im digitalen Zeitalter, Wien 2014. Norbert Ohler (unter Mitarbeit von Hermann Schäfer), Quantitative Methoden für Historiker. Eine Einführung. München 1980 (Beck’sche Elementarbücher), z. B. S. 14 oben. Ohler, ebd. auf den folgenden Seiten der Einleitung. Ohler, 17. Akademie der Wissenschaften der DDR, Zentrum für gesellschaftswissenschaftliche Information (Hg.), Mathematik und EDV in den Gesellschaftswissenschaften. „Quantifizierung in der Geschichtswissenschaft“. Materialien zum VIII. Historikerkongreß der DDR, Berlin (Ost), Akademie der Wissenschaften der DDR, 1988 (Ag.-Nr. 521/200/89).

Big Data in den historischen Kulturwissenschaften

127

mit Metadaten ausgestattet werden. Die Datenmengen entsprechen derzeit insoweit keinesfalls denen in den Naturwissenschaften oder der medizinischen Forschung. Einen Sonderfall stellen die viel zitierten und bemühten Forschungen anhand von Facebook-Daten, Twitter-Daten u. a. dar, die für die Menge der historischen Kulturwissenschaften und damit für die Mehrheit der Humanities aber keine Rolle spielen. Die Soziologie und die Ökonomie (letztere gehört nicht zu den Humanities), wo solche Forschungen oft angesiedelt sind, sind nicht repräsentativ für die Humanities. (2) ‚Interessante‘ Daten findet man auf Seiten und in Datenbanken, deren Zahl wohl im siebenstelligen Bereich liegen dürfte, wobei (vermutlich) nur der kleinere Teil durch Normdaten verknüpft ist. Man untersucht daher in der Regel nicht wie in Facebook oder Twitter zusammenhängende Daten, sondern verteilt und durch mangelnde Verknüpfungsinfrastruktur unzusammenhängend auftretende Daten, die erst umständlich vereinigt werden müssen.10 (3) Zumindest derzeit und bis auf weiteres bedeutet Big Data in den Humanities nicht dasselbe wie z. B. in der Molekularbiologie, wo man für die Computersimulation der Bewegungen von Molekülen und Atomen mir nichts dir nichts mehrere hundert Terabyte Speicherplatz für die produzierten Daten verbraucht.11 Klaus Mainzer geht in seinem jüngsten Buch vom Petabytebereich aus, darunter von Big Data zu reden wäre also unangebracht.12 (4) Big Data-Analysen basieren in erster Linie auf der Auswertung von Metadaten, oder es werden wie beim Ngram Viewer nur Teilbestände durchsucht und die Ergebnisse hochgerechnet. Geheimdienste arbeiten zwar ggf. mit der tatsächlichen Datenmasse, aber sie lassen, wenn es um inhaltliche Daten und nicht Metadaten geht, die Texte von Emails oder Telefongesprächen nach bestimmten Begriffen durchsuchen, nur die Treffer werden kontextualisiert und ggf. personalisiert. Solche der Lexikometrie verwandten Verfahren werden in den Digital Humanities aber nur in, zwar möglicherweise sehr großen, gleichwohl begrenzten Textcorpora durchgeführt, da der Textkontext und das semantische (Um)Feld jedes einzelnen Begriffes untersucht werden müssen. Andernfalls verstößt die Analyse gegen den unumstößlichen Grundsatz der Vollständigkeit.13 (5) Der wichtigste Unterschied liegt darin, dass die Humanities, die Kulturwissenschaften, nicht das sind, was man als „datenbasierte“ und „datengesteuerte“ Wissenschaften bezeich-

10 Ein Beispiel hierzu: Weijia Xu, Maria Esteva, Jessica Trelogan, Todd Swinson: A Case Study on Entity Resolution for Distant Processing of Big Humanities Data. 2013 IEEE International Conference on Big Data, S. 113–120. Beispiel einer aus 1 Million Datensätzen bestehenden Sammlung des Institute of Classical Archaeology an der University of Texas at Austin, die aus den Dateien hunderter Wissenschaftler/innen entstand und z. B. die Originaldateinamen, die keinem einheitlichen System folgen, verwendet: http://bighumanities.files.wordpress.com/ 2013/09/1_5_esteva_paper.pdf [Abruf 30.9.2014]. 11 univie Nr. 01/14, März–Mai 2014, S. 19. 12 Klaus Mainzer, Die Berechnung der Welt. Von der Weltformel zu Big Data, München 2014. 13 S. als methodischen Problemaufriss: Stefan Meier, Semiotische Diskursanalyse in digitalen Medien – Zur Praxis diskursanalytischer Untersuchungen im World Wide Web, in: Martin Gasteiner/Peter Haber (Hgg.), Digitale Arbeitstechniken für die Geistes- und Kulturwissenschaften, Wien 2010, 51–65.

128

Wolfgang Schmale

net, auch wenn mit Blick auf die Forschungen zu Wirtschafts-, Sozial- und Bevölkerungsgeschichte mitunter von datengesteuert gesprochen wird. Diese Daten lagen in den (seriellen) Primärquellen vor bzw. wurden auf Grundlage von solchen Quellen errechnet, mussten dann aber durch Eingabe z. B. in Programme wie SPSS erst ‚digitalisiert‘ werden. Der Begriff des „datengesteuert“ erscheint vorwiegend sinnvoll dort, wo Daten von vorneherein digital entstehen. Die Humanities sind vielmehr theoriebasiert und werden durch Diskurse und Narrative „gesteuert“ – daher auch der Grundsatz der Vollständigkeit. Ihre „Wissensproduktion“ ist eben nicht „von der Verfügbarkeit computertechnologischer Infrastrukturen und der Ausbildung von digitalen Anwendungen und Methoden abhängig geworden“14. Wenn wir das Thema Big Data auf die Humanities beziehen, so ist es klar, dass es sich um einen Aspekt handelt, der zunehmend eine Rolle spielt, nicht aber um das Ganze der Humanities bzw. das Ganze der einzelnen Disziplinen. Daher war Big Data im Sinne eines allgemein akzeptierten Begriffs bis vor kurzem keine realistische Perspektive für die Humanities, sondern mehr für Natur- und Sozialwissenschaften sowie für die Medizin. Gewissermaßen alles, wofür man Supercomputer benötigte. Bei Big Data in den Humanities denkt man wahrscheinlich zuerst an den Ngram Viewer von Erez Lieberman Aiden und Jean-Baptiste Michel, der über Google angeboten wird.15 Man kann Begriffe und Phrasen in den von Google digitalisierten ca. 30 Millionen Werken suchen und Häufigkeitsgrafen abrufen. 30 Millionen digitalisierte Drucke, das ist „big“, aber die methodischen Bedenken, die bei der Nutzung anfallen, sind ebenfalls „big“. Es wird auch nicht im Komplettbestand gesucht, sondern nur in einem Teil und dann ‚hochgerechnet‘. Man kann im Ngram Viewer eine Reihe von Bedingungen setzen, zum Beispiel die Sprache oder den Zeitraum. Die beiden Entwickler des Ngram Viewer haben ein Buch geschrieben, für das sie ihr Tool ausgiebig nutzen. Mark O’Connell stellt in seiner Rezension in The New Yorker (20.3.2014)16 allerdings fest, dass die Testbeispiele nur Ergebnisse zeitigen, die ohnehin bekannt seien. Big Data sind also nur heiße Luft in den Humanities? Ein ähnlicher Eindruck stellt sich bei der Lektüre von Klaus Mainzers „Die Berechnung der Welt“ ein, der Beispiele von Netzwerkanalysen auf der Grundlage von z. B. Facebook-Daten anbietet. Die Ergebnisse sind absolut banal, es wird kein neues Wissen generiert, vielmehr werden allgemeine Lebenserfahrungen bestätigt – was natürlich beruhigend ist. Dass „Teenies … im Durchschnitt drei unterschiedliche Cluster wie Schule, Familie und Nachbarschaft“ besitzen, muss ich nicht erst aus Facebook-Daten errechnen. Dass (natürlich nur bezogen auf Facebook-User) mit „zunehmenden Alter die Clusteranzahl [zunimmt]“, überrascht nicht. Muss ich das erst errechnen lassen? Weitere Erkenntnisse sind:

14 Reichert 2014, 11. 15 Zum Arbeiten mit dem Ngram Viewer im Vergleich zu anderen digitalen Textcorpora s. auch: Daniel Rosenberg, Daten vor Fakten. In: Ramón Reichert (Hg.), Big Data. Analysen zum digitalen Wandel von Wissen, Macht und Ökonomie, Bielefeld 2014, 133–156, hier 141f. 16 http://www.newyorker.com/books/page-turner/bright-lights-big-data [Abruf 28.7.2014].

Big Data in den historischen Kulturwissenschaften

129

„Während junge Menschen meistens Freunde der gleichen Altersgruppe haben, verbreitert sich das Verteilungsband bei älteren Menschen, da nun vermutlich an Arbeitsplätzen oder in Gemeinschaften weniger altersbasierte Freundschaften geschlossen werden.“17

Dasselbe sagt die Lebenserfahrung – ohne jede Rechenoperation auf der Grundlage der Daten von einer Million Usern. Das Ganze fällt wegen des „vermutlich“ in sich zusammen: Nur qualitative psychologische Untersuchungen an den Beziehungsmustern einzelner Menschen, meistens auf der Grundlage eines numerisch kleinen Samples, da die Befragungen zeitaufwendig sind, füllen das „vermutlich“ auf, während das andere auch ohne Big Data-Analysen bekannte Prämissen sind, die im Einzelfall oder gruppenspezifisch (z. B. Obdachlose, die auf Facebook kaum vertreten sind) falsifiziert werden können. Einen Einwand gibt es freilich: Die konkrete Berechnung mag in ihren Ergebnissen banal sein, aber sobald man über eine Reihe gleichartiger Berechnungen verfügt, die sich über einen gewissen Zeitraum – sagen wir, interessant wird es ab zwei Jahrzehnten – erstrecken, steigt die Wahrscheinlichkeit, dass nicht-banale Aussagen durch den Datenvergleich möglich werden. Vielleicht gibt es dann Anlass, sich von Big Data-Analysen beeindrucken zu lassen. Wenn man selber, wie der Autor dieses Beitrages, noch die Anfänge der Lexikometrie erlebt und in einem Projekt zur historischen Semantik „politisch-sozialer Begriffe“ in Frankreich 1680–182018, das ‚analog‘ und ohne elektronische Unterstützung arbeitete, mitgewirkt hat, entwickeln sich bestimmte Erwartungen, wenn man auf so etwas wie den Ngram Viewer stößt. Das früher so unendlich aufwendige „text mining“ scheint nun zumindest in Bezug auf eine ebenso banale wie fundamentale Frage, wie häufig eigentlich ein Lexem zu einer bestimmten Zeit war, auf einen nicht mehr ins Gewicht fallenden Zeitaufwand reduziert worden zu sein. Natürlich sind die methodischen Bedenken trotz der Möglichkeit, Bedingungen zu setzen (diese sind aus einer Vorauswahl anzuklicken), groß – und berechtigt, schon allein in Bezug auf die Frage der Häufigkeit, von komplizierteren Erkenntnisinteressen ganz zu schweigen. Das „text mining“, das ‚geschlossene Systeme‘ wie der Index Thomisticus oder der Zedler ermöglichen, ist methodisch und erkenntnistheoretisch sehr viel besser ausgelotet, aber quantitativ unendlich begrenzter. Der Ngram Viewer wäre dann eine Lösung, wenn man mit ihm ganz spezifische Text- (=Quellen)corpora anders als durch Sprache und Zeitraum definieren könnte und von den Ergebnissen zu sämtlichen Belegstellen verlinkt würde. Bis zu einem gewissen Grad ist das möglich: Ngram Viewer lässt außer der Sprachenwahl „Search lots of books“ zu, allerdings besteht das Angebot in Jahreszahlen „von bis“. Hier wird dann auf die von Google gescannten Dokumente verlinkt, jedoch wird nicht bei allen Einblick in das Dokument gewährt (z. B. aus urheberrechtlichen Gründen). Wissenschaftlich und methodisch gesehen verliert eine solche Recherche damit viel von ihrem Wert, sie kommt über den Status einer Vorrecherche nicht hinaus. Nur befinden wir uns damit außerhalb der Nutzung von Big Data. Google müsste wohl wirklich alles digitalisieren – soll das gewollt werden?! – andernfalls 17 Mainzer, Zitate S. 249f. 18 Rolf Reichardt, Einleitung, in: Rolf Reichardt/Eberhard Schmitt (Hgg.), Handbuch politischsozialer Grundbegriffe in Frankreich 1680–1820, Heft 1/2. München 1985, 39–146.

130

Wolfgang Schmale

würde man keine systematisch strukturierten oder repräsentativen Corpora zusammenstellen können, an denen methodisch einwandfreie Untersuchungen durchgeführt werden können.19 Daniel Rosenberg hat am Beispiel der Geschichte des Begriffs „data“ (Englisch) seit dem 17. Jahrhundert einen Vergleich der Recherche mittels Ngram Viewer und mittels des großen Textkorpus von Drucken des 18. Jahrhunderts in ECCO (Eighteenth Century Collections Online20) durchgeführt. Eindeutiger Sieger gegenüber dem Ngram Viewer ist ECCO, das aber mehr Aufwand erfordert. Das Ergebnis ist trotzdem mager, denn die „quantitativen Ergebnisse [widerspiegeln]“ nur, dass „die Darstellung der Geschichte des Begriffs im Oxford English Dictionary“ zutreffend ist…21 Das entspricht den eher ernüchternden Bewertungen des oben zitierten O’Connell. Fairerweise muss man einräumen, dass mit dem Ngram Viewer auf Dauer bessere Ergebnisse erzielt werden, je mehr gescannte Quellen abgefragt werden können – und Google scannt ununterbrochen weiter. Derzeit und bis auf weiteres gilt jedoch für die historisch-kulturwissenschaftlichen Fächer, die Datenbestände aus der Zeit vor 1900, vor 1800, vor 1700, oder noch weiter zurück benötigen, dass sie mit speziellen Quellencorpora wie ECCO zum 18. Jahrhundert mit annähernd 200.000 Einzeltiteln und annähernd 40 Millionen durchsuchbaren Seiten besser bedient sind. Aber auch ECCO hat seine Grenzen (überwiegend englische Drucke, aber nicht nur, usf.). Deshalb wird eher mit klar definierten Corpora gearbeitet, die einerseits wesentlich kleiner sind als Google Books, andererseits wesentlich größer als der Zedler u. ä. David A. Smith et al. erforschen amerikanische Zeitungen aus der Zeit vor dem Bürgerkrieg. Ihre Datengrundlage wird von der Library of Congress im Zuge des Projektes „Chronicling America“ (chronicling.america.loc.gov) geliefert.22 Ted Underwood, Michael L. Black, Loretta Auvil und Boris Capitanu verwenden als Grundlage ihres Projektes zu englischsprachiger gedruckter Literatur des 19. Jahrhunderts 469.200 digitalisierte Bände der HathiTrust Digital Library [http://www.hathitrust.org ].23 Und so weiter.24 Nach einer allgemein gehaltenen Definition haben Big Data die drei folgenden charakteristischen Eigenschaften: „high volume, high velocity, and/or high variety

19 Es können im Ngram Viewer weitere Arbeitseinstellungen vorgenommen werden, die die Erstellung von Statistiken betreffen. Diese sind hier jedoch nicht Thema. 20 http://quod.lib.umich.edu/e/ecco/. 21 Rosenberg, op. cit., 152. 22 David A. Smith, Ryan Cordelly, and Elizabeth Maddock Dillon, Infectious Texts: Modeling Text Reuse in Nineteenth-Century Newspapers. Paper zu 2013 IEEE International Conference on Big Data: http://bighumanities.files.wordpress.com/2013/09/1_1_smith_paper.pdf [Abruf 31.7.2014]. 23 http://bighumanities.files.wordpress.com/2013/09/1_2_underwood_paper.pdf [Abruf 31.7.2014]. 24 Weitere Anwendungen bei Lev Manovich, Trending. Verheißungen und Herausforderungen der Big Social Data, in: Ramón Reichert (Hg.), Big Data. Analysen zum digitalen Wandel von Wissen, Macht und Ökonomie, Bielefeld 2014, 65–83, hier 66.

Big Data in den historischen Kulturwissenschaften

131

information assets“.25 Was ein großes Volumen ist, ist relativ, aber sicher bedeutet es auch für die Humanities eine andere Größenordnung, als man aus herkömmlichen quantitativen Untersuchungen gewohnt ist. Klaus Mainzer sieht, wie oben zitiert, Big Data erst im Petabytebereich.26 Peter Doorn zitiert hingegen eine Ansicht von Sayeed Choudhury von der Johns Hopkins Universität: „[Y]ou should not just look at volume of data, you should also look at methods. Big data is when your method breaks down, when you need a completely new method to analyze the data that you have available.“27

Nach boyd (sic!) und Crawford gilt: „Big Data is less about data that is big than it is about a capacity to search, aggregate, and cross-reference large data sets.“28 Nach Mainzer29 gilt: „Daten erzeugen also Innovationsketten und werden auf Märkten gehandelt.“ Ist die Sache mit der Innovationskette auf die Humanities übertragbar? Mainzer schreibt weiter: „Ein wesentlicher Ansatz von Big Data besteht darin, dass man die Inhalte im Detail nicht kennen muss, um bestimmte Informationen aus Daten abzuleiten.“30 Der Autor bringt dann aber hier und anderswo im Buch nur Text Mining-Beispiele aus der Literaturwissenschaft, wobei das konkrete Beispiel (S. 240) auch ohne Big Data funktioniert: „In dem Projekt ePoetics wird die Ausbreitung literaturwissenschaftlicher Terminologie in einem historischen Zeitraum untersucht. Daraus ergeben sich Rückschlüsse über die Entwicklung der Literaturtheorie in diesem Zeitraum.“31

Gerade Geisteswissenschaften reflektieren schon immer ihre theoretischen Grundlagen und deren geschichtliche Entstehung – ohne Big Data Analysen. Die Relevanz von Big Data-Analysen in den Humanities ist also oftmals nicht gegeben. Felder von Big Data, die außer dem Eingangsbeispiel im Kontext der Humanities regelmäßig genannt werden, sind das „data mining“ bzw. „text mining“ in Archivalien, in den Digitalisaten der Bibliotheken, in Emails und Sozialen Medien, in digitalisierten audio- und/oder visuellen/ikonografischen Quellen (darunter auch Musik und Film). Schon bei Emails und Sozialen Medien stellt sich die Frage des

25 Zitiert nach Tobias Blanke, Mark Hedges, Richard Marciano, Bericht über „Big Humanities Data Workshop at IEEE Big Data 2013“, in: D-Lib Magazine, Vol. 20, Number 1/2 January/February 2014: http://www.dlib.org/dlib/january14/blanke/01blanke.html [Abruf 28.7.2014], Verweis auf ein Paper von Beyer, Mark A., Laney, Douglas (2012) „The Importance of ‚Big Data‘: A Definition“ Gartner 2012 [https://www.gartner.com/doc/2057415 ; Abruf 28.7.2014]. 26 Klaus Mainzer, Die Berechnung der Welt, 232f. 27 Vgl. http://www.isgtw.org/feature/big-data-humanities-and-social-sciences [Abruf 28.7. 2014]. 28 Vgl. danah boyd & Kate Crawford (2012) CRITICAL QUESTIONS FOR BIG DATA, Information, Communication & Society, 15:5, 662–679, DOI: 10.1080/1369118X.2012.678878 [http://dx.doi.org/10.1080/1369118X.2012.678878 ; Abruf 29.7.2014], S. 663. 29 Mainzer, 238. 30 Mainzer, 240. Dieser Satz steht in dem lediglich eine Seite langen Abschnitt „Big Data in Geistes- und Kulturwissenschaften („Digital Humanities“)“, 240–241. 31 Mainzer, 240f.

132

Wolfgang Schmale

Datenschutzes und des Schutzes von Privatheit. Ohne Zweifel wären personenbezogene Daten von Verwaltungen und Versicherungen etc. für die Forschung interessant, unterstehen aber gleichfalls dem Datenschutz, der in der Forschung nicht nur unter dem Gesichtspunkt der Forschung gesehen werden darf, sondern als Bürger- und Grundrecht ernst zu nehmen ist. Big Data bedeutet, soweit es um Menschen geht, „anonyme Daten“. Nicht, weil sie nicht konkreten Menschen zuordenbar wären, sondern weil die Masse – Big Data – nur nutzbar ist, wenn der Einzelfall nicht für sich untersucht wird bzw. wenn man ohnehin auf der Ebene der Metadaten bleibt. Big Data scheint in erster Linie statistische Ergebnisse zu ermöglichen, was für viele Teildisziplinen auch der Humanities wichtig ist, doch ist hier das volle Instrumentarium der Methoden-Kritik bezüglich Zustandekommen und Interpretation der statistischen Angaben anzuwenden. In den historischen Kulturwissenschaften ist es Standard, dass jede einzelne informationelle Einheit nachprüfbar sein muss. Orientiert man sich an der Themenliste zum Workshop Big Data in den Humanities, den Mark Hedges, Tobias Blanke und Richard Marciano 2013 und 2014 im Rahmen der beiden Big-Data-Konferenzen des IEEE (Institute of Electrical and Electronics Engineers32) 2013 und 2014 ausrichteten, dann sind unter dem Schlagwort „Big Data in den Humanities“ die folgenden Themen relevant: – „Text- and data-mining of historical and archival material – Social media analysis, including sentiment analysis – New research objects for humanities analysis such as digital music, film – Cultural analytics – Social analytics – Crowd-sourcing and big data – Cyber-infrastructures for the humanities (for instance, cloud computing) – NoSQL databases and their applications in the humanities – Big data and the construction of memory and identity – Big data and archival practice – Corpora and collections of big data – Linked Data and Big Data – Constructing big data for research in the humanities“.33 Ordnet man die Liste, erhält man drei Felder: 1. Quellencorpora a) Historical and archival material b) Social media c) Digital music, film, etc. d) Corpora and collections of big data e) Constructing big data for research in the humanities (oder zu Feld 3) 2. Analysefelder 32 https://www.ieee.org/about/index.html. Zur Chronologie der IEEE: https://www.ieee.org/ about/ieee_history.html?WT.mc_id=lp_ab_hoi [Abrufe 23.9.2014]. 33 http://bighumanities.net/events/ieee-bigdata-oct-2014 [Abruf 28.7.2014].

Big Data in den historischen Kulturwissenschaften

133

a) Social media analysis, including sentiment analysis b) Cultural analytics c) Social analytics d) Big data and the construction of memory and identity e) Big data and archival practice 3. Infrastruktur und allgemeine Arbeitstechniken a) Crowd-sourcing and big data b) Cyber-infrastructures for the humanities (for instance, cloud computing) c) NoSQL databases and their applications in the humanities d) Constructing big data for research in the humanities Die Möglichkeit von Big Data in den Humanities steht nicht (mehr) infrage. Strittig ist die wissenschaftlichen Ansprüchen genügende Nutzbarkeit – und die Sinnhaftigkeit. Es gibt Szenarien, in denen man sich sicher gewünscht hätte, auf Big Data zugreifen zu können, um rasche Entscheidungen zu ermöglichen. Ich nenne als Beispiel die Restitutionsproblematik. Die Erhebung von Daten ist langwierig, bis sie beisammen sind und zuverlässige Urteile erlauben, sind Betroffene vielleicht verstorben, außerdem existiert in den bekannteren Fällen ein öffentlicher Druck, der zu einer schnellen Entscheidung drängt. Da wir aber nie wissen werden, welche Fragen und Probleme auf uns zukommen werden, müsste man für eine gigantische Komplettdigitalisierung und meta- wie normdatenmäßige Erschließung aller Materialien plädieren, um im Fall des Falles schnell darauf zugreifen zu können. Es ist schwer abzuschätzen, was uns Big Data tatsächlich nutzt, jenseits der unrealistischen Komplettdigitalisierung. Sind es die für uns wirklich relevanten Fragen, deren Beantwortung Big Data ermöglicht? Oder verhalten sich Relevanz und Datenmenge umgekehrt reziprok? Sagen wir: je größer die Datenmenge, desto wahrscheinlicher, dass sie uns nur bestätigt, was wir schon wissen? Stärkt die Anwendung quantitativer Methoden auf der Grundlage von Big Data einen strukturalistischen Ansatz auf einseitige Weise, indem vor allem nach „Mustern“ gesucht wird? Ist Big Data „theoriefern“? Ein anderes Beispiel stammt aus dem Zusammenhang eines laufenden eigenen Forschungsprojektes zu den Erdteilallegorien im Barock34: Wir verknüpfen Details der von uns gesammelten ikonografischen Quellen mit den Normdaten von Iconclass. Man kann in Zukunft somit in einer weiteren Datenbank (nämlich Erdteilallegorien) z. B. nach dem Motiv „Krokodil“ in der barocken Kunst suchen. In unserer Datenbank ist das Motiv mit dem georeferenzierten Ort, mit der exakten Anbringungsstelle, dem Künstler, ggf. dem Auftraggeber und weiteren Daten verlinkt, nicht so aber in Europeana bzw. nicht in allen Institutionen, deren Artefakte über Europeana und Iconclass gefunden werden können. Mit tausend oder mehr Krokodilmotivfunden in verschiedenen Datenbanken kann ich aber nichts anfangen, wenn ich nicht zu den Kontexten verlinkt werde wie in unserer Datenbank. Wenn ich das 34 Datenbank: http://erdteilallegorien.univie.ac.at/user; Homepage: http://erdteilallegorien.univie .ac.at/blog [Abruf 10.12.2014].

134

Wolfgang Schmale

selber machen muss, bildet die Masse der gefundenen Krokodilmotive nicht mehr als einen Anfang, auf den die Hauptarbeit erst folgt. Um sicherzustellen, dass Big Data Hauptarbeit reduziert, bedarf es eines enormen Zeitaufwandes, wie es gezielte Forschungs- und Datenbankprojekte beweisen. Immerhin könnte ich vergleichen: tausend Krokodile, 321 Alligatoren, 4 Seepferdchen, 93 Tiger, 72 Tigerinnen, 316 Elefantenexuvien und so fort (die Zahlen sind fiktiv!). Das würde aber voraussetzen, dass alle Zuordnungen korrekt sind, was z. B. schon bei der Unterscheidung von Krokodil und Alligator oder Kamel und Dromedar fraglich ist. Das ganze potenziert sich ins Unzählige, da sich ikonografische Artefakte in Tausende von Einzelmotiven ‚zerlegen‘ lassen. Hier entsteht tatsächlich Big Data. Damit sind wir wieder bei dem Grundproblem quantitativer Erhebungen in Big Data, deren statistischer Verwendung und schließlich Interpretation. Den Einwänden und Kritiken steht gegenüber, dass der Zug zu Big Data abgefahren ist. Das zeigt sich an Normdatenbanken wie GND (Gemeinsame Normdatei): „Die Gemeinsame Normdatei (GND) enthält Datensätze für Personen, Körperschaften, Kongresse, Geografika, Sachschlagwörter und Werktitel. (…) Die Normdatensätze werden für die Arbeit in der Formal- und Sacherschließung genutzt. Sie bilden ein gemeinsames, eindeutiges Bezugssystem für die bibliografischen Daten der Bibliotheken sowie für die Erschließungsdaten anderer Normdatenanwender wie Archive, Museen und weitere Wissenschafts- und Kultureinrichtungen.“35

Es gibt eine internationale Verknüpfung: „Normdatensätze der GND sind Bestandteil des Virtual International Authority File (VIAF) und werden dort mit den Daten anderer nationaler Normdateien zusammengeführt.“36

An der Qualität gibt es Kritik zu üben, beispielsweise bei den Personeneinträgen, trotzdem: Die Normdateien sind da, werden als Standard verwendet und entsprechend eingefordert. Portale wie Europeana führen auf Millionen von Artefakten, ein Eldorado, so scheint es… Wenn jetzt entstehende Datenbanken die Normdaten nutzen und sich damit an internationale Normen halten, verbessert dies die automatische Kommunikation zwischen Datenbanken und führt im Idealfall tatsächlich zu Big Data. Das enthebt die Nutzer/innen der Daten aber nicht der Auswertungsproblematik. Wir müssen also genauer nachdenken, wo uns diese Dynamik hinführt: Dorthin, wo wir tatsächlich hinwollen? boyd (sic!) und Crawford sehen „Mythologie“ als Mitspieler neben „technology“ und „analysis“: „Mythology: the widespread belief that large data sets offer a higher form of intelligence and knowledge that can generate insights that were previously impossible, with the aura of truth, objectivity, and accuracy.“37

Eindringlich stellen sie auch die Frage nach den Veränderungen und des Wohin. Bezüglich der Frage nach der Sinnhaftigkeit und Nützlichkeit von Big Data ist für 35 Deutsche Nationalbibliothek: http://www.dnb.de/DE/Standardisierung/GND/gnd_node.html [Abruf 9.11.2014; Stand des Textes 13.8.2014]. 36 Ebenda. 37 Op. cit., 663.

Big Data in den historischen Kulturwissenschaften

135

die Humanities dabei noch einmal daran zu erinnern, dass Big Data schon aufgrund der unendlichen Menge an Primärquellen existieren, aber nicht grundsätzlich in digitaler Form. Die Primärquellen sind zuerst in normierte informationelle Einheiten zu zerlegen, die nur teilweise durch die Struktur der Primärquellen vorgegeben sind – das passiert auch bei analogen Auswertungsmethoden –, bevor große Datenbanken entstehen. Die analogen Einheiten müssen digital transformiert werden. Für die Humanities im Sinne der historisch-kulturwissenschaftlichen Fächer kommt hinzu, dass digital produzierte Daten wie bei Facebook, Twitter usw. zwar genuin zu Big Data zu rechnen sind, aber für die zumeist bearbeiteten Fragestellungen eher marginal sind. Sie bilden keinen zentralen Primärquellenbestand. Im Gegensatz zu den Naturwissenschaften und den Lebenswissenschaften wie Medizin, wo das, was als Big Data bezeichnet wird, im Zuge komplexer Berechnungen entsteht und nur digital vorliegt, müssen digitale Big Data in den Humanities im Wesentlichen erst erzeugt werden, und zwar genau genommen ‚händisch‘: Bevor ein moderner Buchscanner arbeiten kann, müssen die zu scannenden Bücher aus dem Regal aus einem mehr oder weniger entfernten Magazin, oder aus der Bücherkiste, oder von sonst woher geholt werden. Bis die Altbestände alle digitalisiert sind und der Zuwachs an aktuellen Büchern nur noch aus eBooks besteht, wird es dauern. Auch eBooks bilden erst dann die Grundlage von Big Data, wenn sie in großen Mengen zusammen durchsucht werden können. Der Aufwand, um Big Data ‚zu haben‘, ist in den Humanities ungleich größer als in anderen Fächern. Der Zug fährt zwar, aber er fährt nicht schneller als die ersten Züge im 19. Jahrhundert. Umso berechtigter ist die Frage nach dem Wert von digitalen Big Data in den Humanities. Klaus Mainzer geht der Frage nach, ob die ‚Prophezeiung‘, dass Big Data das Ende der Theorie sei, stimmt. Die Durchsuchung großer Datenmengen nach Korrelationen ergibt Muster, die für Voraussagen über Trends und Verhaltensweisen genutzt werden. Das Erkennen von Korrelationen spielt auch in den Humanities eine wichtige Rolle – die ganze Geschichtswissenschaft beruht im Kern auf der Auffindung von Korrelationen zwischen Mensch, Raum und Zeit. Um Trends und Verhaltensvorhersagen geht es weniger. Korrelationen dürfen freilich nicht mit Kausalitätsbeziehungen verwechselt werden, diese müssen erst bewiesen werden. Mit Nachdruck ist die Frage nach den großen Forschungszielen in den Digital Humanities zu stellen: Kann Big Data dazu beitragen, oder sind es – wichtige – Einzelprobleme, die gelöst werden können und zu guter verlässlicher Forschung beitragen? Big Social Data nutzen nur etwas, wenn ich mich z. B. mit der historischen Entwicklung von Individuum und Individualismus befasse, empirische Befunde in Diskursen verorte etc. Die häufigsten ‚geisteswissenschaftlichen‘ Beispiele38 für Big Data und deren Nutzung und Auswertung in den Humanities sind Twitter und Facebook sowie Google Flu und allgemeiner Google Trends. Das berührt die historisch-kulturwissenschaftlichen Geisteswissenschaften, die den größ-

38 Man sollte in der Literatur zu Big Data genauer zwischen Geistes- und Sozialwissenschaften unterscheiden, allerdings zählen die im Deutschen Sozialwissenschaften genannten Fächer unter das englische Humanities. Dies dürfte der Grund für die oft zu lesende Vermischung sein.

136

Wolfgang Schmale

ten Anteil an den Humanities haben, wenig. Gleichwohl lassen sich Felder aufzählen, in denen Big Data Analysen mindestens eine Beschleunigung der Forschung darstellen könnten – immer vorausgesetzt, dass die auszuwertenden Daten aus den Quellen in digitale Daten transformiert wurden: Zu nennen sind die Prosopografie, die klassische Archäologie, überhaupt die Archäologien, die Kunstgeschichte39. Die Wissensgeschichte, z. B. das Projekt über Künstlerwissen in der Frühen Neuzeit von Sven Dupré40, könnte grundsätzlich ein gutes Forschungsfeld sein, wo Big Data neue Erkenntniswege ermöglicht. Ein Fazit fällt gemischt aus: Mit großen Datenmengen wird in verschiedenen Forschungsfeldern in den historischen Kulturwissenschaften schon seit Jahrzehnten gearbeitet. Die in diesem Beitrag zitierten konkreten Forschungsbeispiele, die pars pro toto zu nehmen sind, arbeiten teilweise mit noch größeren Datenmengen, aber im Vergleich zu den Naturwissenschaften etc. wäre es unangemessen von Big Data zu reden. Die dort gültigen Dimensionen werden weder jetzt noch in Zukunft erreicht werden. In den Humanities ist Big Data daher eigenständig im Vergleich zu bisherigen Datenmengen zu definieren, nicht aber im Vergleich zu den Naturwissenschaften. Eine Zwischenstellung nehmen Soziologie, Psychologie und die gegenwartsbezogene Ethnologie ein, die mit Auswertungen von Facebook-Daten usw. arbeiten und in diesem Punkt den Big Data in den Naturwissenschaften etc. verglichen werden können. Die Humanities unterscheiden sich von anderen Wissenschaften dadurch, dass sie die Lebenswelt theoriegeleitet in Diskursen und Narrativen analysieren und dazu empirisches Material, auch Daten, methodengeleitet zu Forschungssettings zusammenstellen und auswerten. Ihre Forschung hängt aber nicht von Daten ab, die im Zuge bestimmter digitaler Handlungen entstehen, sondern von der Fragestellung, zu der erst Daten aus Primärquellen nach dem Gebot der Vollständigkeit zusammengestellt werden. Meistens handelt es sich, und das bis auf weiteres, um eine Mischung aus bereits digital vorliegenden Daten oder besser: informationellen Einheiten, und nicht digital vorliegenden Daten, die in nicht digitalen Quellen enthalten sind. Das entscheidende für die Datenauswahl ist die Fragestellung, in der Forschungsgeschichte, Theorien, Methoden, Forschungserfahrung und vieles mehr zusammenfließt. Zunächst stellen die Humanities also nicht Fragen an angefallene Daten – das hieße, datengesteuert zu sein, sondern sie entwickeln eine Fragestellung, für deren Beantwortung nach Daten gesucht wird. Im theoriegeleiteten Selektionsprozess, der sich auf eine unüberschaubare geschichtliche Lebenswelt bezieht, liegt die Eigenart der Humanities. Zweifellos wird auch nach Mustern und Strukturen gesucht, aber in den Humanities weiß man um den Eigen-

39 Ein interessantes Projekt stellte dar: Martin Papenbrock/Joachim Scharloth, Datengeleitete Analyse kunsthistorischer Daten am Beispiel von Ausstellungskatalogen aus der NS-Zeit: Musteridentifizierung und Visualisierung, in: Kunstgeschichte. Open Peer Reviewed Journal, 2011 (urn:nbn:de:bvb:355-kuge-137-1) Abruf 30.9.2014: Auswertung von 378 Ausstellungskatalogen und 10.014 Künstlern; Überprüfung, ob ein bestimmtes politisches Ziel der Nazis erreicht wurde. 40 Sven Dupré am Max Planck Institut für Wissenschaftsgeschichte: http://www.mpiwg-berlin.mpg.de/de/aktuelles/features/feature22 [Abruf 9.11.2014].

Big Data in den historischen Kulturwissenschaften

137

sinn der Menschen in jeder geschichtlichen Zeit. Deshalb haben Forschungen aufgrund von Selbstzeugnissen in vielen Forschungszweigen seit zwei bis drei Jahrzehnten Hochkonjunktur, weil hier die Korrektive zur Fixierung auf Muster und Strukturen gefunden werden. Alle historischen Kulturen weisen endemische Anteile auf, die sich einer Verallgemeinerung entziehen. Wie oben angemerkt, ist das tatsächlich Verallgemeinerbare oft in tradierten Lebenserfahrungen niedergelegt, die durch Big Data Analysen bestätigt werden, aber scheinbar (noch?) nicht zu hintergehen sind. In den Humanities gibt es keine quantitativen Analysen ohne qualitative Analysen, während der umgekehrte Fall nicht gilt.

III SELBSTREFLEXIONEN DER DIGITAL HUMANITIES

VON WISSENSCHAFTLICHEN EDITIONEN ALS INTEROPERABLE PROJEKTE, ODER: WAS KÖNNEN EIGENTLICH DIGITALE EDITIONEN? Anne Baillot und Markus Schnöpf (Berlin) Während gedruckte Editionen eine lange Tradition vorweisen können und über Regelwerk, Referenzen und Normen verfügen, stecken wissenschaftliche digitale Editionen immer noch in den Kinderschuhen.1 Das Institut für Dokumentologie und Editorik hat in dem Kriterienkatalog zur Besprechung digitaler Editionen letztere wie folgt definiert: „Bei einer (wissenschaftlichen) Edition handelt es sich um die Publikation von Informationsressourcen, die eine erschließende Wiedergabe historischer Dokumente und Texte bieten. „Digitale Editionen“ werden nicht nur in digitaler Form publiziert, sondern folgen in ihrer Methodologie einem digitalen Paradigma – so wie traditionelle gedruckte Editionen eine Methodologie verfolgten, die dem Paradigma der Druckkultur entspricht“.2

1

2

Auch die deutschsprachige Forschung über digitale Editionen steht noch am Anfang. Die Dissertation von Patrick Sahle, Digitale Editionsformen zum Umgang mit der Überlieferung unter den Bedingungen des Medienwandels, Norderstedt 2013 gilt nach wie vor als alleiniges Referenzwerk. Sahle et al., Kriterienkatalog zur Besprechung digitaler Editionen, Version 1.1 (http://www.id-e.de/publikationen/weitereschriften/kriterien-version-1-1/). 2007 zweifelte Hans Walter Gabler den Paradigmenwechsel noch stark an: „(…) das Grundverständnis der Editorik von der Hierarchie der Größen ‚Text‘ und ‚Dokument‘ ist bisher noch kaum hinterfragt worden.“ (Hans Walter Gabler, Das wissenschaftliche Edieren als Funktion der Dokumente, in: Jahrbuch für Computerphilologie 8/2006, online: http://computerphilologie.digital-humanities.de/jg06/ gabler.html). [Alle online-Ressourcen hier und im Folgenden wurden am 22.02.2015 zuletzt konsultiert]

140

Anne Baillot und Markus Schnöpf

In vielerlei Hinsicht lehnen sich letztere noch an herkömmliche Printeditionen an.3 Das Blättern wird imitiert, seltene Unicode-Zeichen werden visuell, aber nicht unbedingt der Definition in unicode entsprechend eingesetzt, um Diakritika und Superskripta über Buchstaben so exakt wie möglich wiederzugeben.4 Damit wird das digitale Konzept hinsichtlich der Veranschaulichung textueller Elemente an seine technischen Grenzen gebracht, ohne – bei weitem – sein eigentliches Potenzial ausgeschöpft zu haben. Digitale Editionen bieten schließlich ganz andere Möglichkeiten, nicht zuletzt, was die Verbindung eines Abbilds einer Quelle mit dem edierten Text angeht. Diese Möglichkeiten stellen aber einerseits den Bezug zum für wissenschaftliche Printeditionen zentralen „Befund“ (als Gegensatz zur Interpretation) in Frage,5 andererseits verändern sie das Verständnis der Nachnutzung des edierten Textes, der als für sich stehendes, jedoch immer wieder ergänzbares Produkt fungiert. Digitale Editionen sind in der Regel „Projekte“, d. h. in Zeit und Mitteln beschränkte,6 kaum von eigenen Forschungsfragen getragene, vielmehr als Hilfsmittel geltende Unternehmen, die wenig akademischen Ruhm einbringen. Trotz dieser ungünstigen Umstände ist die Fachgemeinschaft der digital Edierenden im deutschsprachigen Raum bemüht, die Interpretations- und Forschungsleistung ihrer Arbeit zu artikulieren – und sie tut dies mit beeindruckender Beharrlichkeit, nicht nur in der Hoffnung auf bessere Arbeitsbedingungen, sondern vorrangig aufgrund der Einsicht, dass digitale Editionen keine elektronischen Repliken von Printeditionen sind und dass eben diese Tatsache in den geisteswissenschaftlichen Fachgemeinschaften noch nicht grundlegend Eingang gefunden hat. Digitale Editionen werden noch zu oft einem sehr beschränkten Benutzungsspektrum zugeordnet und können so die ihnen konzeptionell zur Verfügung stehende Reichweite nicht entfalten.

3 4 5

6

Vgl. Gabler: „Die wissenschaftliche Edition ist bisher noch aus dem materiellen Medium in das elektronische Medium, Element für Element, zumeist analog, übertragen worden.“ (Gabler, Das wissenschaftliche Edieren, 61). Vgl. den Zeichenvorrat, den das Unicode Konsortium bereit hält: http://www.unicode.org Die Frage der Interpretation als Teil der editorischen Leistung wird von Bodo Plachta, Editionswissenschaft. Eine Einführung in Methode und Praxis der Edition neuerer Texte, Stuttgart 1997, als ein kritisches Debattenfeld erwähnt, ohne dass an dieser Stelle dazu explizit Stellung genommen wird (Plachta, Editionswissenschaft, 35–38). Die längerfristigen Editionsvorhaben, auch digitaler Art, sind meist an Akademien angesiedelt, etwa die Referenzedition „Carl-Maria-von-Weber-Gesamtausgabe“ (http://www.weber-gesamtausgabe.de/). In Bezug auf Druckeditionen schreibt Bodo Plachta: „Editionen gehören, welchen Anspruch sie auch immer haben, zu wissenschaftlichen Großunternehmungen, sind zeit-, arbeits-, personal-, und kostenintensiv.“ (Plachta, Editionswissenschaft, 11, wobei er ebd. 44 auf die seit den 1970er Jahren eingeschränkte Förderung eingeht) Der Kontrast zum Bericht über die Präsentation der Neuedition von Goethes Briefen ist auffällig, der mit folgendem Satz schließt: „(…) wobei die neuen Möglichkeiten des digitalen Mediums deutlich hervortraten (Faksimile, Verlinkung, parallele Aufsichten, etc.). [Elke] Richter benannte aber auch klar die ökonomisch bedingten Grenzen der Realisierbarkeit alles Wünschenswerten innerhalb des vorgestellten laufenden Editionsprojekts (…).“ Ursula Caflisch-Schnetzler, Carmen Götz, Tagungsbericht zu „Online Editions: Problems and New Perspectives. International Conference“, Universitätsbibliothek Basel, 18./19. Mai 2012, in: editio 27/2013, 219).

Von wissenschaftlichen Editionen als interoperable Objekte

141

In diesem Beitrag möchten wir in einem ersten Teil auf die interpretatorische Dimension von Textkodierung als Grundmodell digitalen Edierens eingehen. Der zweite Teil ist Fragen der Visualisierung des Kodierten und einem Überdenken des Druckmodells gewidmet, nicht zuletzt, was dessen Rezeption angeht, e.g. neue Modelle des Lesens. Im Mittelpunkt des dritten und letzten Teils steht die den digitalen Formaten eigene Dimension der Nicht-Linearität, mit besonderer Berücksichtigung von interoperablen Formaten und den sich daraus ergebenden Folgen für das Textverständnis. Syd Bauman definiert einen interoperablen Text als „one that does not require any direct human intervention in order to prepare it to be used by a computer process other than the one(s) for which it was created.“7 Dabei geht es ausschließlich, wenn auch aus Gründen der stilistischen Leichtigkeit immer implizit, um wissenschaftliche Editionen. Diese definiert Peter Shillingsburg als „editorial efforts designed to make available for scholarly use works not ordinarily available or available only in corrupt or inadequate forms.“ Die unterschiedlichen Deklinationen dieser Herangehensweise, von ihm „the traditional classifications of types of editions“ genannt, listet er im Anschluss auf: „type facsimile editions, diplomatic transcript editions, critical editions with inclusive text, eclectic clear-text editions with multiple apparatus, parallel text editions, old- and modernspelling parallel text editions with commentary, genetic editions, critical and synoptic editions, and variorum editions.“8

Im deutschsprachigen Raum hat sich die historisch-kritische Edition als Richtschnur etabliert9, wobei selbst Bodo Plachta einräumt, dass „eine Verständigung darüber, was eine historisch-kritische Ausgabe als wissenschaftliches Ergebnis erzielen soll, (…) schwierig [ist]“.10 Digitale Editionen verzichten zumeist in ihrer Titelgebung auf die Zuordnung zu einer vorbestimmten Kategorie dieser Art. Wissenschaftliche digitale Editionen sind dadurch charakterisiert, dass sie mindestens eine html- und eine xml-Version der editorischen Arbeit voraussetzen, wobei in letzterer das Markup eine zentrale Rolle spielt.11 Während das html-Markup für die

7

Syd Bauman, Interchange vs. Interoperability, in: Proceedings of Balisage: The Markup Conference 2011. Balisage Series on Markup Technologies 7/2011 – DOI: 10.4242/Balisage Vol7.Bauman01. 8 Peter L. Shillingsburg, Scholarly Editing in the Digital Age, Michigan 1996, 2 bzw. 16. 9 Plachta, Editionswissenschaft, 12. 10 Plachta, Editionswissenschaft, 13. 11 Zur Rolle von Markup in wissenschaftlicher Textaufbereitung vgl. Baumann, Interchange, insbesondere die Definition von Interoperation im Gegensatz zu negotiated interchange und blind interchange, wobei Baumann unterstreicht, dass XML/TEI nur blind interchange ermöglicht (so auch Peter Stadler als Kommentar dieser Definition in: Peter Stadler, Interoperabilität von digitalen Briefeditionen, in: Hanna Delf von Wolzogen/Rainer Falk (Hg.), Fontanes Briefe ediert, Würzburg 2014, 278–287. 2010 beschreibt Susan Schreibman die Text Encoding Initiative als ein „interoperable framework for information exchange“ (Susan Schreibman, The Text Encoding Initiative. An Interchange Format Once Again, in: Jahrbuch für Computerphilologie 10/2010, 13).

142

Anne Baillot und Markus Schnöpf

Darstellung und maschinelle Interpretation des Browsers zuständig ist, zeichnet das XML-Markup die vorliegende Quelle in ihrer Semantik aus.12 DEKODIEREN/REKODIEREN: EINE NEUE SICHTBARKEIT DER ERSCHLIESSUNGSPROZESSE Nicht alle geisteswissenschaftlichen, textbezogenen Fragestellungen erfordern eine Auseinandersetzung mit der Entstehungsgeschichte eines gedruckten Werkes. Das Werk als abgeschlossenes Ganzes steht bei den meisten textbezogenen Forschungsverfahren im Mittelpunkt. Als irrelevant gelten insbesondere im Kontext von quantitativen Textanalysen (einer beliebten Spielwiese der textbezogenen Digital Humanities) geringfügige Abweichungen, die durch mögliche Varianten zustande kamen, aber im Vergleich mit der gesamten Textmenge geringfügig ausfallen. Insofern sind Fragen der Textaufbereitung, wie sie im Rahmen von wissenschaftlichen digitalen Editionen im Mittelpunkt stehen, nur für eine kleine Sparte der geisteswissenschaftlichen Forschung von Relevanz. Sie führen jedoch eine gelehrte Tradition der Textbereitstellung fort, die mindestens auf Karl Lachmann und mit ihm auf die Ursprünge der für den deutschsprachigen Raum brisantesten philologischen Tradition zurückgeht13, und reflektieren diese im neuen medialen Kontext. Die Kollation mehrerer Textzeugen14 wird durch computergestützte Verfahren erleichtert. Digitale Werkzeuge bieten darüber hinaus die Möglichkeit, jeden einzelnen Textzeugen für sich darzustellen und ihm so eigenständiges Gewicht zu verleihen. Somit gewinnt der Rekurs auf ebendiesen (etwa handschriftlichen) Textzeugen eine erneuerte Bedeutung.

12 Zu xml und Textkodierung allgemein, vgl. Renear, A. H. „Text Encoding.“ In: A Companion to Digital Humanities, hg. von Susan Schreibman, Ray Siemens und John Unsworth, 218–239. Blackwell Publishing Ltd, 2004. 13 In seiner kritischen Diskussion unterschiedlicher Editionsansätze setzt sich David C. Greetham mit G. Thomas Tanselles Definition des Zieles editorischer Unterfangen auseinander und zitiert dabei Tanselles Stellungnahme in Textual Criticism and Scholarly Editing: „[I] meant only to assert that, if one were undertaking a critical edition, the most appropriate goal would seem to be the reconstruction of an authorially intended text (leaving other goals to other kinds of editions).“ David C. Greetham, Theories of the Text, New York 1999, 169. Mit der Frage der Autorität setzt sich die editionswissenschaftliche Forschung in den unterschiedlichen Sprachräumen auf der Grundlage unterschiedlicher Ansätze auseinander, findet sich aber immer in der einen oder anderen Form wieder. 14 Als Primäraufgabe des Editors definiert Louis Hay eine solche Kollation von Textzeugen: „(…) le premier travail de l’éditeur consiste toujours à établir un texte. Il s’agit d’une part d’identifier les variantes d’origine étrangère (pour les signaler, tout en les éliminant du texte); de l’autre, les variantes d’auteur (pour les signaler et les faire apparaître dans l’édition sous une forme appropriée).“ (Louis Hay, La Naissance du Texte, Paris 1989, 53.)

Von wissenschaftlichen Editionen als interoperable Objekte

143

Wird dem transkribierten Text ein Bild der dazugehörenden Handschrift gegenübergestellt15, ergibt sich für den Leser die Möglichkeit, den Prozess der Textkonstitution, und insbesondere seiner Erschließung nachzuvollziehen. In einer Faksimile-Printedition16, die Bild und Text, Handschrift und Transkription einander widerspiegeln lässt, sind die Zeichen oder Textteile auf beiden gegenüberliegenden Seiten möglichst ähnlich lokalisiert, so dass man es mit ‚Zwillingsseiten‘ zu tun hat. In einem solchen Darstellungsformat wird bei Marginalien oder Einfügungen, die im laufenden Text nicht eindeutig zu verorten sind (wenn beispielsweise ein am Rande hinzugefügter Nebensatz in unterschiedliche Satzkontexte passt), in einer Druckversion nicht immer ermittelt, wo sie im Textfluss hingehören.17 In bestimmten Fällen ergibt sich aus einer solchen Erschließung der vorliegenden Handschrift kein lesbarer Fließtext; die Dokumentation der textuellen Phänomene steht dabei der Lesbarkeit entgegen. Nicht zuletzt deswegen entscheidet sich manch ein Editionsvorhaben für die Erstellung einer weitestgehend lesbaren Textfassung. In historisch-kritischen Ausgaben wird diese in der Regel ohne Faksimiles gedruckt; anhand eines umfangreichen editorischen Apparats wird die Auflösung und Aufschlüsselung des auf der Handschrift nicht linear-textlich Lesbaren festgehalten. In einem solchen Editionszusammenhang gilt der Text mithin als Werk. Dieses wird im Zuge der Bandaufteilung in Entwürfe, Briefe, Tagebücher in hierarchisierter Reihenfolge zergliedert. In Frankreich hat die critique génétique in den 1970er Jahren die Grundlage für eine vollkommen andere Struktur der Textdokumentation gelegt, in der das gedruckte Werk nicht mehr den Schlussteil des editorischen Unternehmens bildet.18 In einem „dossier génétique“ werden alle Textelemente (vom

15 Ein herausragendes Beispiel einer solchen Gegenüberstellung zeigt die Edition der Briefe Vincent van Goghs: http://www.vangoghletters.org/. 16 Obwohl Faksimile-Printeditionen nicht selten als „marginal“ betrachtet werden (vgl. Gabler, das wissenschaftliche Edieren, 57), spielen sie als Darstellungsmodell eine Schlüsselrolle für das Verständnis des mit digitalen Editionen zusammenhängenden medialen Wechsels. Vgl. Gabler, das wissenschaftliche Edieren, 59–60: „Die Potenz mithin, die dem Faksimile bereits im statischen Medium der auf Papier dargebotenen Edition eignet, ist die der Virtualität. Die Virtualität lässt sich jedoch in einer Edition auf Papier nicht freisetzen und aktualisieren. Denn sie lässt sich nicht dynamisieren, wenn und solange die Edition im gleichen Medium existiert wie das Edierte. Erst die Möglichkeit, die wir in unserer Zeit erhalten haben, die Edition in einem anderen Medium zu realisieren als dem, in dem unsere Editionsgegenstände existieren, nämlich im elektronischen, und das heißt, dem virtuellen und dynamisch zu interaktivierenden Medium – erst diese Möglichkeit schafft die Voraussetzung dafür, eine virtuelle Präsenz des Dokuments auch dynamisch zu aktualisieren.“ 17 Als Ausnahme kann hier die Nietzsche Edition (KGW IX) genannt werden, die Vorschläge für die Verortung solcher Passagen im Text bietet. Friedrich Nietzsche, Werke: kritische Gesamtausgabe. Abt. 9: Der handschriftliche Nachlaß ab Frühjahr 1885 in differenzierter Transkription. Berlin 2001ff. 18 So Hay: „L’édition critique a pour but premier d’établir le texte, un texte pur et sûr. L’édition génétique, au contraire, porte atteinte à cette sacralisation du texte arrêté par l’auteur. Pour un généticien, l’édition „définitive“ est une étape dans l’histoire du texte, privilégiée sans doute, mais qu’il n’est pas toujours exact de considérer comme dernière.“ (Hay, La Naissance du Texte, 64.)

144

Anne Baillot und Markus Schnöpf

ersten Entwurf19 bis hin zur korrigierten Druckfahne) zusammengeführt, die mit der Entstehung eines Textes zusammenhängen.20 In dieser Perspektive steht der Textentstehungsprozess im Mittelpunkt und nicht das fertige Produkt Drucktext, geschweige denn das kanonisierte Werk.21 Allerdings stieß die Realisierung dieses Ansatzes auch an ihre Grenzen: Soll jedem Element aus jedem Textzeugen prinzipiell eine gleichwertige Bedeutung beigemessen werden, dann muss auch jeder Kringel editorisch wiedergegeben werden. Lohnt sich der Aufwand bei nicht-kanonischen Autoren? Bezeichnenderweise stehen im Mittelpunkt zahlreicher, mit den Prinzipien der critique génétique arbeitenden editorischen Vorhaben ausgerechnet unumgängliche Größen des Literaturkanons.22 Wenn auch nur implizit oder auf pragmatische Gründe zurückgeführt (ediert wird das, wozu aussagekräftiges Material zur Verfügung steht), wird dabei der Tradition Rechnung getragen. Sollte man es dann mit Autoren zu tun haben, die ihre Arbeitsunterlagen sorgfältig aufbewahrt haben – so wie es bedeutende Schriftsteller des Öfteren tun –, ist dem Anspruch auf Totalität in der Wiedergabe des Textentstehungsprozesses kaum gerecht zu werden. In Printeditionen ist die Wiedergabe einer dynamischen Textstruktur, die unterschiedliche Bearbeitungsschichten, -kontexte und -formen berücksichtigen möchte, durch die lineare Form des Buches so leicht nicht wiederzugeben. Dies gilt allerdings nicht nur für hochkomplexe Editionen, die den Ansprüchen der critique génétique gerecht werden wollen bzw. mehrere Textzeugen heranziehen: Auch bei nicht-textgenetischen Editionen ist das Blättern zu den am Ende eines Bandes bzw. in einem separaten Band befindlichen Verzeichnissen (Personen, Werke, Orte, Schlagworte) eine mühselige Angelegenheit und das Einarbeiten in die editionseigenen Konventionen zeitaufwendig. Digitale Editionen bieten eine Grundstruktur, die es möglich macht, eine Reihe von praktischen Schwierigkeiten zu umgehen und damit effizient Informationen zu 19 Zum Status des Entwurfs, vgl. den schönen Text von Daniel Ferrer, Critique génétique et philologie : racines de la différence, in: Genesis 30/2010, 21–24. 20 Vgl. Hay: „La démarche est bien simple dans son principe: il s’agit de comprendre une œuvre par son histoire et non plus par son seul aboutissement.“ (Hay, La Naissance, 14) Der Gegensatz zum im deutschsprachigen Raum dominanten Ansatz wird anschaulich im Kontrast mit Plachtas Sicht auf den Einstieg in die editorische Arbeit: „Die Rekonstruktion der Entstehung eines literarischen Textes von der ersten Notiz über Entwürfe und Reinschriften bis zur endgültigen Veröffentlichung gehört zu den grundlegenden Aufgaben eines Editors. Aber seine allererste Aufgabe ist es, dem Leser einen authentischen Text in seiner originalen historischen Gestalt zu präsentieren.“ (Plachta, Editionswissenschaft, 8.) 21 Vgl. Shillingsburg: „In spite of the fact that in the 1980s editorial circles witnessed a paradigm shift in which the concept of a definitive end product was widely replaced by the concept of process in which multiple texts represent the work, nevertheless, the physical limitations of print editions and the linear reading habits of most readers have continued to force the predominance of clear-reading texts as primary feature of new scholarly editions.“ (Shillingsburg, Scholarly Editing, 77) 22 So etwa Proust: http://www.item.ens.fr/index.php?id=578147 oder Flaubert: http://www.item. ens.fr/index.php?id=115642 sowie http://www.dossiers-flaubert.fr/. Auch die in Almuth Grésillon, La Mise en oeuvre. Itinéraires génétiques, Paris 2008, herangezogenen Fallbeispiele bewegen sich weitestgehend im Rahmen des Kanons: Flaubert, Zola, Proust, Supervielle, Ponge.

Von wissenschaftlichen Editionen als interoperable Objekte

145

vermitteln, die mit der Erschließung des Textes im Zusammenhang stehen. Das Klicken potenziert das Blättern, indem eine beliebig tiefe Verschachtelung hinter dem anzuklickenden Element zur Verfügung gestellt werden kann. Die Leseerfahrung allerdings ändert sich dahingehend, dass ausgerechnet die anklickbaren Elemente farblich formatiert werden und sich mit anderen, aus semantischen Gründen hervorgehobenen Stellen überlagern. Insofern lenkt der Editor in digitalen Editionsumgebungen unvermeidlich eine bestimmte Lektüre des Textes. Außerdem wird von Webdesignern oft damit argumentiert, dass online-Lesekomfort nicht zuletzt im Erreichen einer Information durch möglichst wenige Klicks besteht, was der Potenzierung der Verschachtelung Grenzen setzt. Insgesamt wird im visuellen Umgang mit digitalen Umgebungen ein optischer Lese- bzw. Nutzungsrahmen23 vorausgesetzt, der mehr als ein materieller Zwang denn als ein Baustein im Datenmodell zu betrachten ist. Das Datenmodell ist nur sekundär am visuellen Ergebnis orientiert, sofern die Editionsdaten tatsächlich strukturiert sind. Die einen online-Text strukturierende Auszeichnung – in digitalen Editionen mittels XML/TEI24 – sowie die Art und Weise, wie die unterschiedlichen Auszeichnungsstrukturen aufeinander verweisen, sind es, die das Datenmodell bestimmen. Letzteres ist in seiner Grundanlage nicht primär optisch konzipiert. Es bildet, genau genommen, die Schnittstelle zwischen dem, was der Editor in der ihm vorliegenden Handschrift sieht und dem, was er seinem Leser/Nutzer an Informationen vermitteln möchte. Es steht somit zwischen zwei Momenten der Interpretation. Diese Schnittstelle hat es in der Geschichte der Edition stets gegeben, und sie war immer gewissermaßen ein Kodieren (im Sinne eines De-kodierens und Re-kodierens)25: Der Editor liest die Handschrift, bereitet eine Rohtranskription vor, markiert Unsicherheiten, kommentarbedürftige Stellen, Emendationen. Dieser Arbeitsschritt hatte früher nur in den persönlichen Archiven der Editoren bzw. der Editionsvorhaben ein Dasein. Er existierte nicht als eigene wissenschaftliche, einsehbare Leistung. Dies alles umfasst aber heute die XML23 Zu den damit zusammenhängenden Nutzungsreflexen und -konventionen vgl. Jacques Bertin, Sémiologie graphique. Les diagrammes – Les réseaux – Les cartes, Paris 42013. Die Einleitungssätze dieses 1965 im Erstdruck erschienenen Werkes, das Graphik „de-kodiert“, sprechen für sich: „Le graphique tient ses lettres de noblesse de sa double fonction de mémoire artificielle et d’instrument de recherche. Outil rationnel et efficace lorsque les propriétés de la perception visuelle sont pleinement employées, elle fournit l’un des deux ‚languages‘ du traitement de l’information. L’écran cathodique lui ouvre un avenier illimité.“ (Bertin, Sémiologie, 6). 24 Die Text Encoding Initiative bietet ein Regelwerk zur Verwendung der Auszeichnungssprache XML für digitale Editionen an, welches zum De-facto-Standard geworden ist: http://www.teic.org/Guidelines/P5/. 25 Vgl. in diesem Sinne Gabler, Das wissenschaftliche Edieren, 57: „Das traditionelle Edieren löst also die Texte von den Textträgern ab und lässt effektiv die Dokumente als Dokumente hinter sich. Doch wie sollte das auch anders gehen? Schließlich ist Edieren ja bloß eine besondere Spielart des Überlieferns im Abschreiben, also die Übertragung von einem ‚Dokument 1‘ – der materiellen Unterlage, von der sie abgelöst werden – auf ein ‚Dokument 2‘: die Unterlage, auf der sie neu aufgetragen werden.“ sowie zu Edition als „Konstruktion von Texten“: „Denn Texte kritisch zu edieren heißt genau dies: sie zu konstruieren.“ (Gabler, das wissenschaftliche Edieren, 60)

146

Anne Baillot und Markus Schnöpf

Datei: sie ist das Archiv, das zum Aufbewahren dient, sie ist das, was bleibt, das, wonach man die eigentliche wissenschaftliche Leistung über die Zeiten hinweg einschätzen kann. Das Verfügbarmachen des Quellcodes in digitalen Editionen bildet damit eine Art Tabubruch mit bisherigen Gewohnheiten. Der Quellcode ist Teil der Dokumentation des editorischen Prozesses. In vielen Fällen ist die digitale Verzeichnung schematischer, aber auch mathematisch genauer, können doch beispielsweise Unsicherheiten und Vermutungen in der Lesung in Prozentzahlen angegeben werden. Insofern verwundert es nicht, dass es Editoren gibt, die die XML-Dateien öffentlich zur Verfügung zu stellen, andere dagegen, die sich weigern, dies zu tun. Die Debatte, wozu die Bereitstellung gut sein soll, trifft einen Nerv in der Auseinandersetzung um den medialen Wandel und wird in anderen Wissenschaften im Bereich der Publikation von Forschungsdaten geführt.26 Die XML-Dateien nicht freizugeben, entspricht gewissermaßen einem seit langem eingebürgerten wissenschaftlichen Gestus: Mein Hintergrundwissen gehört nur mir, mein wissenschaftlicher Wert liegt in dem, was nur ich weiß. Nur die Ergebnisse sollen gezeigt werden, nicht der Entstehungsprozess und die Dokumentation derselben. Wer im Gegensatz dazu seine XML-Dateien zugänglich macht, tut dies meistens, damit sie weiterverwendet werden und damit der Arbeitsprozess nachvollziehbar gemacht werden können, im Sinne eines, womöglich illusionären, aufklärerischen Fortschrittsgedankens: An meine Arbeit schließt sich noch Besseres an. Den Quellcode zum Bestandteil der editorischen Leistung zu machen, wird nur zu leicht als ehrgeizig wahrgenommen (als ob der Wissenschaftler das „Unsaubere“ für wichtiger hielte als es in Wahrheit sei). Interessanterweise spiegelt sich in dieser Sicht auf die „Black Box“ des wissenschaftlichen Entstehungsprozesses genau das wieder, was bei der Edition von Schriftstellerwerken in der Auffassung der literarischen Textentstehung bei der Edition von Schriftstellerwerken auf dem Spiel steht. In beiden Fällen gilt: Nicht der Prozess ist lesenswert, sondern das fertige Endergebnis. Damit wird auch vorausgesetzt, dass ein fertiges Ergebnis das Maß aller Dinge, ja überhaupt erreichbar sei – die Gegenillusion zum aufklärerischen Fortschrittsgedanken. Darüber hinaus gibt es bei Weitem nicht nur eine Art und Weise, ein bestimmtes Textphänomen digital anzugehen und auszuzeichnen. Es gibt zwar nicht beliebig viele Wege, aber in der Regel – zumal bei komplexeren Textverhältnissen – mehrere.27 Indem man seinen Quellcode zur Verfügung stellt, macht man seine Arbeitsschritte transparent, sich aber auch angreifbar. Einige der dort einsehbaren Auszeichnungsentscheidungen können angezweifelt werden oder kontrovers erscheinen. 26 Vgl. exemplarisch Pampel, Forschungsdaten-Repositorien . Informationsinfrastrukturen für nachnutzbare Forschungsdaten, Potsdam 2012, online: http://gfzpublic.gfz-potsdam.de/ pubman/item/escidoc:245340 und für die Psychologie Günther, Open data und data sharing: Neue Perspektiven im Umgang mit Forschungsdaten in der Psychologie, Saarbrücken 2010, online: http://nbn-resolving.de/urn:nbn:de:bsz:291-psydok-27143 27 Vgl. hierzu mit Blick auf die Nachnutzungsmöglichkeiten Desmond Schmidt, Towards an Interoperable Digital Scholarly Edition, in: Journal of the Text Encoding Initiative [Online], 7|2014. URL : http://jtei.revues.org/979; DOI : 10.4000/jtei.979.

Von wissenschaftlichen Editionen als interoperable Objekte

147

Die Entscheidung für eine bestimmte Auszeichnung hängt in der Regel nicht primär vom Einzelfall ab, sondern von der Gesamtstruktur des Korpus und von den Grundsätzen der jeweiligen Texterschließung. Diese führen zu einer Interpretation des zur Verfügung stehenden Auszeichnungsapparates (d. h. der Gesamtsumme der TEI-Regeln). Was man als Editor daraus im eigenen Quellcode verwendet und was der Leser dann in ebendiesem Code sieht, vermittelt ein Textverständnis, es spiegelt die interpretatorische Leistung wieder und fordert zur hermeneutischen Auseinandersetzung auf – in erster Linie auf der Ebene der Auszeichnung.28 Insofern spielt in der Einschätzung der Herangehensweise an den Text neben den XML-Dateien die Dokumentation der Kodierungsentscheidungen eine entscheidende Rolle. Allerdings ist es bislang so, dass diejenigen, denen Texthermeneutik am Herzen liegt, nur in den seltensten Fällen darin geschult sind, XML/TEIDokumentationen entschlüsseln zu können. Und gerade, weil digitale Editionsvorhaben Projektcharakter besitzen, müsste auf diese Dokumentationen ein besonders starker Akzent gelegt werden, denn die genaue Erfassung der Auszeichnungsentscheidungen ist eine der wenigen Schutzmaßnahmen, die es ermöglichen, Langfristigkeit überhaupt in den Blick zu nehmen – und dabei insbesondere Langfristigkeit der geleisteten interpretatorischen Textarbeit.29 Die Idee, es komme bei der XML/TEI-Codierung nicht so sehr auf das optische Endergebnis an, mag im Kontext editorischer Arbeit etwas kontradiktorisch klingen. Wer würde sich noch die Mühe machen, wenn am Ende kein Anzeigeversprechen stehen würde? Ist es denn nicht einer der wichtigsten Vorteile digitaler Editionen, dass sie bestimmte Informationen anzuzeigen erlauben – an erster Stelle Verbindungen? Die Diskrepanz zwischen dem Kodierungsakt und der Visualisierung des Kodierten, der Wandlungsprozess zwischen dem Kodierten und dem Angezeigten folgt jedoch keinem linearen zwangsläufigen Translationskonzept, nach dem aus einer bestimmten Kodierungsformel eine bestimmte Anzeige generiert werden würde. Genauso wie unterschiedliche Kodierungen möglich sind, um bestimmte Textphänomene auszuzeichnen, stehen unterschiedliche Visualisierungsoptionen zur Verfügung, um das Kodierte umzusetzen. An dieser Stelle schaltet sich ebenfalls Interpretation dazwischen. Auch dem, der die Online-Visualisierung ausarbeitet – dem Designer – schweben Umsetzungen vor, die vom XML/TEI-Code unabhängig sind. Wir haben es mit mehreren Niveaus von Interpretation zu tun, ehe der Text den edierten Zustand erreicht: Der Editor erschließt und kodiert die Handschrift, der Entwickler/Visualisierer interpretiert das Kodierte und setzt es in eine Visualisierung um. Mindestens zwei Arbeitsschritte und drei mediale Wandlungen sind erforderlich.

28 Es sei hier auf die Diskussionen der unterschiedlichen TEI-Listen verwiesen, die täglich solche Beispiele zutage fördern (die Hauptliste ist zu finden unter: https://listserv.brown.edu/ archives/cgi-bin/wa?A0=TEI-L). 29 In Ermangelung expliziter Standards für die Verfassung solcher Dokumentationen sei an dieser Stelle beispielhaft auf die Kodierungsrichtlinien der Edition Briefe und Texte aus dem intellektuellen Berlin um 1800 verwiesen, die unter folgender URL im pdf-Format heruntergeladen werden kann: http://tei.ibi.hu-berlin.de/berliner-intellektuelle/about?de.

148

Anne Baillot und Markus Schnöpf

Digitale Editionen wandeln den Text in ein Informationsnetz um. Es ist notwendig, dieses zu benennen, denn es sind für jeden Text jeweils unterschiedliche solcher Informationsnetze denkbar. Einige setzen den Akzent auf die Textgenese, andere auf die Entitäten, andere auf linguistische Phänomene diverser Art. Nicht zuletzt stellt sich die Frage, wo diese hermeneutische Selbstpositionierung im Kontext einer digitalen Edition ihren Platz finden kann. Es geht an dieser Stelle dabei nicht mehr nur um die Kodierungsrichtlinien, auch nicht um die Designentscheidungen, und schon gar nicht um die Alternative zwischen diplomatischer Umschrift und Lesefassung. Es geht um die Ausformulierung des Fragenkomplexes, der zwangsläufig mit einer XML-Auszeichnung zusammenhängt. Hieraus ergeben sich allerdings neue Schwierigkeiten: Nicht nur hat eine solche Selbstverortung keinen ihr gewidmeten Ort im editorischen Zusammenhang, sondern ist darüber hinaus die Gefahr kaum zu vermeiden, ausgerechnet die hermeneutische Tiefe der Auszeichnung in einer solchen Artikulation zu verflachen. Die Distanz zum eigenen Textverständnis soweit auszuformulieren, dass sie schon bei ihrem Entstehen ihre eigene Historizität reflektieren kann, ist keine leichte Aufgabe.30 Textauszeichnung trägt immer das Gepräge eines Textverständnisses, führt dieses Verständnis in den Vordergrund. Wenn XML-Dateien frei zugänglich und wieder verwendbar sind, hat jeder die Möglichkeit, daraus das zu machen, was er möchte: das vorhandene Markup zu verwerfen, sein eigenes einzubauen, seine Edition anzubieten.31 Diese Vorstellung führt allerdings zu einer merkwürdigen Aporie. Denn wenn man davon ausgeht, dass ein Text sich aus einer von der Auszeichnung bereinigten XML-Datei extrahieren lässt, folgt man genau dem, was der Eklektizismus immer gemacht hat, nämlich von der Idee geleitet zu werden, dass es letztlich einen Text gibt. So bleibt zu hoffen, dass die Verbreitung von CC-BYLizenzen nicht zu einem Verflachen der hermeneutischen Leistung von TextMarkup führen, sondern, im Gegenteil, der Interpretationsfülle, den vielen Sichtweisen ein Gesicht geben wird.32

30 Damit hat sich die angelsächsische Editionswissenschaft bereits intensiv beschäftigt; vgl. beispielsweise Greetham: „And thus, while I maintain that theory, a theory, does lie behind every textual operation, from selecting copy-text to charting variants to writing annotations, and that theory is therefore ubiquitous, I also believe ([…)] that theory also has local and specific roots, and that a particular theoretical cast is contingent upon a social and cultural milieu that makes this theory at this time utterable and plausible.“ (Greetham, Theories, 20) und „This critical bind obviously becomes the most consistently problematic issue in textual criticism as the historical distance between the preserved object of study (the manuscript) and the inferred moment of composition grows ever larger; and it is no surprise that hermeneutics as either a technical or an aesthetic manifestation of intentionalism should occur most prominently in those disciplines in which the gap was largest – biblical and classical studies – thereby reinforcing the cultural, moral and philosophical rationale for their study.“ (Greetham, Theories, 175). 31 Dagegen wendet allerdings Peter Stadler ein, dass Markup zu stark in den Text eingebettet sei, um von diesem getrennt zu werden (Stadler, Interoperabilität, 287). 32 Die unterschiedlichen CC-BY-Lizenzen und ihre Bedeutungen sind zu finden unter: http://creativecommons.org/.

Von wissenschaftlichen Editionen als interoperable Objekte

149

DAS KODIERTE ZEIGEN Digitale Interfaces bieten zahlreiche Möglichkeiten, sich von einer bloßen BuchImitation zu lösen. Sicherlich sind diese Möglichkeiten eingeschränkt, wenn man sich an der Handschrift orientiert, denn das Blatt, mit seiner Dimension in Länge und Breite, ist in der Regel ebenso der materielle Träger der Handschrift, wie es der Träger für Bücher ist.33 Eine Edition, die zwar einen Text zur Verfügung stellt, aber nicht nah an der Originalhandschrift arbeitet, kann sich von dem vorgegebenen Format der Seite lösen. Jedoch ergeben sich daraus nicht unerhebliche Fragen, was beispielsweise die Zitierbarkeit einzelner Textstellen angeht. Wie zitiert man aus einer ePub, die für den Kurzsichtigen den Text auf dem Träger anders verteilt als für den Weitsichtigen?34 Grundsätzlich bietet die dynamische Darstellung von Textinhalten die Möglichkeit, eine Überfrachtung der Textansicht zu vermeiden, indem eine Reihe von Informationen nur als anklickbare Optionen zur Verfügung gestellt werden, sei es in der bereits erwähnten Form der verschachtelten Klicks oder in der Gestalt von fakultativ anzeigbaren Zusatzinformationen. Bei der Implementierung dieses digitalen Handwerkszeugs stehen editorische Grundregeln und Designprinzipien oft im Gegensatz zu einander. Pop-Ups haben beispielsweise den – aus editorischer Sicht kaum nachvollziehbaren – Nachteil, dass sie in dem Moment, wo sie erscheinen, den Text unter sich verbergen. Ebenso verschieben alle farblichen Hervorhebungen (wie sie beispielsweise zur Identifizierung von Links nötig sind) die Aufmerksamkeit auf eine Art und Weise, die nicht textinhärent ist. Überhaupt kann die Verwendung von Farben – digitale Editionen sind in der Regel nicht schwarz-weiß, während diese Farbkombination bei Printeditionen die Regel (mit Ausnahmen) ausmacht – durchaus als interpretatorischer Eingriff betrachtet werden.35 Mit der Entscheidung für eine Farbpalette wird eine ganze Reihe von Konnotationen aufgefächert, die weder kulturell noch browsertechnisch universell einsetzbar sind. Nicht nur schafft eine Vervielfältigung der farbigen Markierungen Unruhe auf einer Webseite, sie vermittelt unter Umständen zudem nicht die gewünschte Botschaft. Auch dies relativiert die Orientierung am editionswissenschaftlich maßgeblichen Befund.

33 Nach einer umfangreichen Schilderung der Rolle der Seite von der Antike bis ins moderne Zeitalter (93ff.) schlussfolgert Louis Hay: „(…) on peut supposer que l’informatique induira, chez un homme que l’on pourrait qualifier d’„écranique“, un changement profond de cet habitus, une conception de l’écrit qui risque de ne tenir en rien à notre idée du textuel. C’est au sein de l’écrit, de la trace et de l’inscription que tout se joue. Et qu’une phase historique s’achève (…).“ (Hay, La Naissance, 108). 34 Zu den im Allgemeinen mit dem Zitieren digitaler Dokumente zusammenhängenden Fragen vgl, s. Klaus Prätor, Zur Zukunft des Zitierens. Identität, Referenz und Granularität digitaler Dokumente, in: editio 25/2011, 170–183 (DOI 10.1515/edit.2011.010). 35 Ähnliches vermerkt allerdings Plachta in Bezug auf Druckeditionen frühneuzeitlicher Texte (Plachta, Editionswissenschaft, 21–22).

150

Anne Baillot und Markus Schnöpf

Design besteht nicht nur und nicht primär aus Text, was für den Zusammenhang digitaler Editionen mit dem Webdesign Fluch und Segen zugleich ist. Das Verhältnis von Text und Bild verschiebt sich so, dass im Rahmen der editorischen Leistung dem Bild mehr zugetraut wird als es in Büchern in der Regel der Fall ist. Wordclouds lesen sich nicht linear, Netzwerkvisualisierungen, Karten und Zeitleisten auch nicht, dabei sind sie es, die in digitalen Editionen nicht selten für die Gesamtorientierung sorgen.36 MASCHINEN LESEN Das menschliche Leben ist begrenzt, somit auch die Menge an Büchern, die in einem Menschenleben gelesen werden können. Mit der Digitalisierung wird die Menge an Büchern, die der Mensch lesen kann, zwar nicht größer, aber durch die maschinellen Lesemöglichkeiten des Computers ergänzt. Gregory Crane stellte sich schon 2006 der Frage, wie sich das Leseverhalten angesichts der fortschreitenden Digitalisierung unserer Bibliotheken ändert.37 Vor allem die Anstrengungen, die im US-amerikanischen Raum unternommen werden, um komplette Bibliotheksbestände zu retrodigitalisieren – hier ist vor allem Google Books zu nennen – erhöhen den Zugang zu Wissensbeständen, die in der analogen Welt unvorstellbar gewesen wären. Auf europäischer Ebene spielt als Portal für verschiedene Datenlieferanten die virtuelle Bibliothek Europeana eine wichtige Rolle.38 So erfreulich es ist, Literatur nun nur noch einen Klick entfernt auf den Bildschirm rufen zu können, so werden dabei doch einige Fragen aufgeworfen, die das Leseverhalten betreffen. Google Books erfüllt derzeit noch nicht die Standards, die an eine Ressource für die Wissenschaft gestellt werden. Vor allem zwei Gründe sprechen dagegen: Einerseits wird der Volltext durch OCR erstellt. Die Verfahren werden zwar immer genauer, aber auch eine Fehlerquote von zwei Prozent ist für eine genaue wissenschaftliche Analyse zu hoch.39 Zudem führt die automatisierte Texterfassung gerade bei älteren Drucken zu einer höheren Fehlerquote. Der zweite Grund liegt bei Google selbst. Startete Google Books ursprünglich als offenes Projekt, das von einer nicht in öffentlicher Hand befindlichen Firma finanziert wurde, so sind aus Gründen der Marktbildung inzwischen viele Volltexte nur noch Klappentexte und werben für den Kauf des betreffenden Werkes.40 Das Angebot selbst kann jederzeit 36 Vgl. die Startseite der August Wilhelm Schlegel-Briefedition (http://august-wilhelm-schlegel. de/briefedigital/) sowie die Urkunden Kaiser Karls IV. mit einem zeitlich-kartografischen Zugang (http://telota.bbaw.de/constitutiones/#timeMap). 37 Gregory Crane, What do you do with a Million Books, in: D-Lib Magazine 12/2006, online: http://www.dlib.org/dlib/march06/crane/03crane.html. 38 http://www.europeana.eu. 39 Bei einer durchschnittlichen Zeichenzahl von 4000 Charakteren pro Seite sind das 80 Fehler pro Seite. 40 Als Beispiel mögen hier die eigentlich gemeinfreien Anmerkungen von Johannes Bolte und Georg Polivka zu den Kinder- und Hausmärchen der Brüder Grimm dienen, ein Reprint eines Werkes, welches der public domain unterliegt, aber nur in Auszügen angezeigt wird.https://

Von wissenschaftlichen Editionen als interoperable Objekte

151

wieder eingestellt werden, wenn sich der Betrieb für Google selbst nicht mehr lohnen sollte. Dennoch hat Google Books auch quantifizierende Methoden in die Literaturforschung populär werden lassen. Anhand ngrams können zeitliche, somit historische und kulturelle Tendenzen beliebiger Begriffe im Gesamtkorpus der digitalisierten Werke der letzten zweihundert Jahre recherchiert werden.41 Die Bücher selbst werden dabei nicht mehr linear gelesen, sondern anhand computerlinguistischer Methoden massenausgewertet. Die Digital Humanities gehen mit der Einführung quantifizierender Methoden in den Geisteswissenschaften einher. Für die Geschichtswissenschaften und die Computerlinguistik ist dies beispielsweise nichts Neues, wurden doch im Rahmen der Sozialgeschichtsschreibung vor allem in den 1980ern im Rahmen der historischen Demografie Reihenauswertungen von Kirchenbüchern vorgenommen. Die historische Demografie hat auch gezeigt, dass sich quantifizierende und hermeneutische Methoden in den Geisteswissenschaften nicht ausschließen.42 In der amerikanischen Literaturkritik hat vor allem Franco Morettis „distant reading“ zu einer Methodenerweiterung geführt.43 Auch auf der 2012 stattgefundenen Tagung der Modern Language Association wurde die Hinwendung der Literaturforschung zu den Digital Humanities manifest: „So what exactly is that new insurgency? What rough beast has slouched into the neighborhood threatening to upset everyone’s applecart? The program’s statistics deliver a clear answer. Upward of 40 sessions are devoted to what is called the „digital humanities“, an umbrella term for new and fast-moving developments across a range of topics: the organization and administration of libraries, the rethinking of peer review, the study of social networks, the expansion of digital archives, the refining of search engines, the production of scholarly editions, the restructuring of undergraduate instruction, the transformation of scholarly publishing, the re-conception of the doctoral dissertation, the teaching of foreign languages, the proliferation of online journals, the redefinition of what it means to be a text, the changing face of tenure – in short, everything.“44

Morettis Buch behandelt vor allem literarische Kanonbildung. Mit Rückgriffen auf die Evolutionstheorie geht Moretti darauf ein, warum nur ein Prozent der publizierten Belletristik sich langfristig in den Kanon erhaltener Literatur einbringen konnte. Mittels rechnerischer Reihenauswertung von 7000 Titellängen kann der Literaturwissenschaftler Moretti darstellen, dass die Wortanzahl der Titel im Laufe des

41 42

43 44

books.google.de/books?id=Cm_0p7lUr7UC&lpg=PP1&dq=Bolte&hl=de&pg=PP1#v=onepage&q=Bolte&f=false https://books.google.com/ngrams. Vgl. exemplarisch: Imhof, Einführung in die historische Demographie, München 1977 und Imhof, „Die Kunst des Sterbens. Wie unsere Vorfahren sterben lernten“, Stuttgart 1998. Zu bemerken ist allerdings, dass die historische Demografie in Deutschland kaum noch gelehrt wird. Moretti, Distant Reading, London 2013. Auf den Webseiten des von Moretti geführten Stanford Literary Lab wird die Diskussion in Form von Pamphleten weiter geführt. Vgl. http://litlab.stanford.edu/?page_id=255. Stanley Fish, The Old Order Changeth, in: New York Times vom 26.12.2011, online: http:// opinionator.blogs.nytimes.com/2011/12/26/the-old-order-changeth/.

152

Anne Baillot und Markus Schnöpf

19. Jahrhunderts auf kurze Titel reduziert wurde, um diese einprägsamer zu gestalten und somit deren Verkäuflichkeit zu verbessern.45 Ohne analytische Rechentechnik wäre diese Auswertung nur mit erheblicher Zeitinvestition möglich gewesen. Ein zweiter Punkt betrifft die historische Netzwerkanalyse, die Moretti an den Charakteren von Shakespeares Hamlet anwendet. Visualisierungstechniken lassen sich hier für neuartige Analysezwecke verwenden, um die Verflechtungen und Gruppierungen der Akteure des Werkes fassbar zu machen. INTEROPERABILITÄT ALS EXEMPLARISCHE REALISIERUNG DER NICHTLINEAREN ANLAGE DIGITALER EDITIONEN Im Gegensatz zu Printeditionen sind digitale Editionen dadurch charakterisiert, dass sie dynamisch angelegt sind. Nicht selten ist es der Anspruch einer Referenzausgabe in Print, endgültigen Charakter zu besitzen. Digitale Editionen ihrerseits bestehen nicht darauf, dass sie alles in sich enthalten, sondern sie sind vielmehr zu anderen Ressourcen hin geöffnet.46 Ihre Sichtbarkeit bzw. Effizienz misst sich nicht zuletzt an ihrer Fähigkeit, Anschlüsse zu finden, zu strukturieren und zu implementieren. Dies bedeutet einmal, Struktur und Qualität der vorhandenen Ressourcen zu kennen, aber auch in einem Akt der Spekulation imstande zu sein, im Datenmodell Raum für den Anschluss an Ressourcen zu lassen, die in der Zukunft liegen mögen – ob sich diese Spekulationen bewahrheiten oder auch nicht.47 Insofern besteht diese Arbeit darin, Mosaiksteine so zu legen, dass sich ein Bild formt, welches potenziell erweitert werden kann und bei jeder Ergänzung eine sinnvolle Gestalt annimmt. Diese Struktur ist per se nicht linear, sondern basiert auf der inhärenten Annehmbarkeit von Leerstellen. So paradox es auch beim ersten Blick scheinen mag, sind Nicht-Linearität und Interoperabilität eng mit einander verwoben, wenn es um 45 Moretti, Reading, 179–210. 46 Mindestens die Anbindung an Bibliotheksstrukturen gehört zu den von der Deutschen Forschungsgemeinschaft dargelegten Evaluationskriterien für wissenschaftliche digitale Editionen (http://www.dfg.de/foerderung/grundlagen_rahmenbedingungen/informationen_ fachwissenschaften/geistes_sozialwissenschaften/kriterien_begutachtung_wissenschaftlicher_ editionen/index.html). 47 So Bauman auch: „But I hold that interoperationality is not just about use of XML data in current predicted applications (I will want to use this file in an SVG viewer), but rather is also concerned with the use of data with both unintended applications (e. g., linguistic analysis of survey questions) and future applications (e. g., submitting a set of vector graphics images to software that makes a mosaic of them). Notice that I am being (deliberately) self-contradictory, here. I am suggesting that interoperability is always contextual, that we need to know what application we are trying to operate with in order to measure our success at interoperationality; and simultaneously that in order to be considered interoperational, a document should work with applications that are not only unforeseen, but haven’t even been written yet. If the application has not been written yet, it is obviously impossible to know whether or not our data will work with it. It is this very contradiction that drives me to say that interoperationality is hard. We cannot know the various contexts in which we would like our files achieve interoperationality.“ (Bauman, Interchange)

Von wissenschaftlichen Editionen als interoperable Objekte

153

die Struktur einer wissenschaftlichen digitalen Edition geht. Verlinkungen und die durch Formatähnlichkeit erreichbare Ressourcenzusammenführung spielen dabei eine zentrale Rolle. Verlinkungen können entweder von einer digitalen Ressource her oder auf eine digitale Ressource hin erfolgen. Sie ermöglichen es, Informationen in dichter Form zusammenzuführen und lange Ausführungen zu vermeiden, indem auf eine primäre, sekundäre oder tertiäre Informationsquelle verwiesen wird. In digitalen Briefeditionen kann beispielsweise bei Briefen auf biographische Informationen hingewiesen werden, bei der Edition von Schriften auf die Wiederholung von Motiven oder aber können korrespondierende Textstellen mit einander verlinkt werden. Der reine Verweis auf andere digitale Ressourcen stellt niedrige technische Anforderungen. Es ist vergleichsweise unproblematisch ist, eine URL in einen xml- oder einen html-Code einzubauen. Ehe ein solcher Schritt vorgenommen werden kann, ist jedoch eine Reihe von Qualitätssicherungsmaßnahmen nötig. Erstens gilt, Links zu vermeiden, die nach kurzer Zeit mangels Webseitenpflege ins Nichts führen. Die Stabilität einer onlineRessource einzuschätzen, ist nicht immer leicht. Grundsätzlich sollte prinzipiell nur mit persistenten Identifikatoren wie Digital Object Identifiers (sogenannte DOIs) gearbeitet werden, denn bei URLs muss der Anbieter durch Umleitungen im Webserver dafür sorgen, dass sie zitierfähig bleiben. Die momentan geübte Praxis, eine Webseite in Verbindung mit einem Sichtungsdatum in einem Drucktext als Quelle heranzuziehen, kann nur als temporäre Zwischenlösung gelten, wenn sie auch im universitären Bereich am Weitesten verbreitet ist. Einen Lösungsansatz, der aber nicht im wissenschaftlichen Kontext erarbeitet worden ist, bietet sicherlich die Verlinkung des bei archive.org gespeicherten zeitlichen Schnappschusses einer Webseite (Wayback Machine) – mit dem Nachteil, dass es sich bei diesem System nicht um eine Initiative der öffentlichen Hand handelt. Durch die lange Präsenz von archive.org (seit 1996) und die seit Kurzem in Angriff genommene Spiegelung der Daten in die Bibliothek von Alexandria ist jedoch kaum davon auszugehen, dass dieser Dienst nur kurzfristig zur Verfügung stehen wird.48 Auch im analogen Bereich wird zitiert und verwiesen. Diese Technik wurde ins Digitale übernommen, mit dem Nachteil, dass schon die analoge Zitation in der Regel nur ungenau angewendet wurde. Im Allgemeinen wird dabei auf eine Druckseite referiert, der Rezipient muss also in den durchschnittlich 4000 Zeichen einer Seite die betreffende Stelle suchen, um die Referenz nachlesen zu können. Bis vor Kurzem wurde in der digitalen Übertragung nur auf ein gesamtes Werk in PDFForm mittels URN49 verwiesen. Mit URN granular wurde dieser unbefriedigende 48 Archive.org als gemeinnützige Organisation möchte laut Eigenaussage die historischen Zustände des Internets als kulturelle Errungenschaft für zukünftige Generationen erhalten sowie einen universellen Zugang zu menschlichem Wissen schaffen. Vgl. http://archive.org/about/ bibalex_p_r.php Solange die Nationalbibliotheken noch keine zuverlässigen Prozesse zur Sicherung der jeweiligen Webseiten erarbeitet haben, ist das Angebot von archive.org alternativlos. 49 Uniform Resource Name, ein Auflösungsdienst der Deutschen Nationalbibliothek, der den Namen mit einer Adresse im Internet verbindet (http://www.dnb.de/DE/Standardisierung/PI

154

Anne Baillot und Markus Schnöpf

Zustand verbessert. Ermöglicht wird nun die Referenzierung auf einzelne Seiten, womit zumindest die Verweistechnik des Printbereichs im digitalen Medium repliziert wird.50 Eine weitere Entwicklungsstufe steht allerdings noch an, nämlich die wortgenaue Referenzierung, die bereits in der Alten Geschichte angewendet wird. Dieser Dienst wurde im Umfeld der Homer-Studien entwickelt.51 Auch für stark kanonisierte Texte (wie heilige Schriften) erhöhen solche genauen Referenzierungsmodelle die Vernetzungsmöglichkeiten digitaler Publikationen in qualitativ hochwertigen Wissenssystemen. Dieser Fragenkomplex betrifft ebenfalls die Zitierfähigkeit von Tertiärquellen. Wikipedia verfügt, wenn nicht über die wissenschaftliche Ausgewiesenheit, doch über strukturelle Merkmale für Qualität: Sie ist auf Nachvollziehbarkeit ausgerichtet, sowohl was Informationsquellen als auch was Ausarbeitungsabläufe angeht – was mit Blick auf digitale Zuverlässigkeit ein ungemeiner Vorteil ist.52 Dies hat nicht zuletzt damit zu tun, dass die Wikipedia grundsätzlich von ihrer eigenen Perfektibilität ausgeht. Ebenso geht Wissensverlinkung von einer von den Geisteswissenschaften in der Regel wenig gepflegten Prämisse aus, nämlich, dass die Gemeinschaft mehr weiß als das Individuum – eine Prämisse, die so irritierend wirkt, dass oft übersehen wird, dass Autorschaftzuordnung zu den Grundregeln von Wikipedia gehört. Nicht-Linearität heißt auch, dass nicht ein Wissenschaftler einen Punkt ausarbeitet, sondern dass die Kompetenz verteilt und dort angesetzt wird, wo sich Wissen befindet, anstatt von einer einzigen Feder summiert und wiederholt zu werden. Dieses lässt sich jedoch nur durch die Überwindung des zwischen den Wissensquellen bestehenden Hiatus’ bewerkstelligen. Solche Ansprüche machen eine der größten Anforderungen an digitale Editionen aus: Wie können sie gewährleisten, dass sie referenzierbar sind und bleiben? Ein Teil des Problems liegt in den Fördermöglichkeiten, die zeitlich begrenzt sind und den Projektcharakter von digitalen Editionen festschreiben, aber auch in den institutionellen Bedingungen, die weder zuverlässige Repositorien anbieten, noch Langzeitverfügbarkeit sichern können. Ein weiteres Hindernis stellt die Lizenzierungspraxis dar. Wer seine Inhalte nicht unter einer einfachen CC-BY-Lizenz veröffentlicht, sondern ein –SA bzw. ein –NC hinzufügt (wenn nicht gar beides), macht

/pi_node.html). Die meisten elektronischen Dokumentenserver im deutschsprachigen Raum verwenden URNs, um ihre Inhalte langfristig referenzierbar zu gestalten. 50 Vgl. Dorothea Sommer, Christa Schöning-Walter, Kay Heiligenhaus, URN Granular: Persistente Identifizierung und Adressierung von Einzelseiten digitalisierter Drucke, in: ABI-Technik 28/2011, 106–114. 51 Vgl. hierzu http://www.homermultitext.org/hmt-doc/cite/texts/cts.html als Teil der CITE-Architektur. D. Neel Smith, Gabreil A. Weaver, Applying Domain Knowledge from Structured Citation Formats to Text and Data Mining: Examples Using the CITE Architecture, in: Dartmouth Computer Science Technical Reports TR2009-649, online: http://katahdin.cs. dartmouth.edu/reports/TR2009-649.pdf. 52 Zur Struktur von Wikipedia in einer wohl wenig kritischen, dennoch informativen Selbstpräsentation, vgl. Patrick Danowski und Jakob Voß, Das Wissen der Welt – Die Wikipedia, in: Open Source Jahrbuch 2005, 393–405.

Von wissenschaftlichen Editionen als interoperable Objekte

155

die Bedingungen ihrer Weiterverwendbarkeit so komplex, dass diese dadurch gefährdet wird. Interoperabilität heißt grundsätzlich: offene Weiterverwendungsbedingungen mit der Garantie einer nachvollziehbaren Referenzierbarkeit. Um große Textmengen so aussagekräftig zu machen, dass sie imstande sind, geisteswissenschaftliche Fragestellungen zu beantworten, müssen viele Ressourcen möglichst komplex aneinander angeschlossen werden können. Die Maschinenlesbarkeit unterschiedlicher, zahlreicher Quellen kann nur durch die Einhaltung gemeinsamer Standards und Normen angegangen werden, auch wenn diese nicht versprechen, alle Herausforderungen plötzlich zu überwinden. Solche Standards sind zum einen die ISO-Normen53, die im Bereich der Textaufbereitung bereits Erhebliches geleistet haben. Es sind aber zum anderen auch Formate wie die TEI-Syntax für XML oder Schnittstellen wie sie Normdateien zur Verfügung stellen.54 Ein Grundgefüge steht damit für die Realisierung von Interaktionen von digitalen Ressourcen untereinander zur Verfügung, welches allerdings noch nicht durchgängig standardisiert ist. Es ermöglicht die eigentliche Potenzierung digitaler Ressourcen und insbesondere Editionen – diesmal nicht nach unten, in immer tiefer verschachtelte Klicks, sondern nach oben, in sich immer weiter verzweigenden Informationsnetze. Man nehme Egodokumente jeder Art:55 Ohne biographisch gesichertes Hintergrundwissen sind diese für Forschungszwecke kaum brauchbar. Der erste Schritt zur Versammlung biographischer Informationen ist die sichere Identifikation einer Person samt ihrer Lebensdaten. Allein das bedeutet in der Regel einen vergleichsweise großen Aufwand. Die einmalige Identifizierung und Referenzierung von historischen Akteuren ist eine Dienstleistung, die in Deutschland in die Gemeinsame Normdatei (GND) einfließt. Diese ermöglicht die Zusammenführung einer beeindruckenden Menge an Informationen.56 Schwierig bleibt, die Ergebnisse der Forschung in diese bibliothekarisch konzipierte und entwickelte Struktur aufzunehmen. Eintragsberechtigt waren in der Vergangenheit in Deutschland nur Bibliotheken; seit ein paar Jahren wurde aber auf Kritik seitens der Forschung reagiert und die GND für weitere Datenbeiträger geöffnet. Dies führt nun zu zahlreichen offensichtlichen Doubletten, die die eindeutige Identifikation der einzeln erfassten historischen Persönlichkeiten erschweren. Die redaktionelle Prüfung der einzelnen Datensätze, die im bibliothekarischen Bereich stattfindet, kann nur mit Blick auf den

53 Die Bandbreite der Bereiche, in denen die ISO-Gemeinschaft tätig ist, lässt sich ihrer Webseite entnehmen: http://www.iso.org/iso/home.html. Für den geisteswissenschaftlichen Bereich sind ISO-Normen wie CIDOC-CRM als konzeptionelles Referenzmodell für Konzepte und Relationen in der Dokumentation kultureller Überlieferungen, vornehmlich in der Archäologie, relevant. (Vgl. http://www.cidoc-crm.org) 54 Vgl. Peter Stadler, Normdateien in der Edition, in: editio 26/2012, 174–183. 55 Zum Dokumententyp vgl. Stadler, Normdateien, 176 mit besonderer Berücksichtigung des Quellentyps in Bezug auf Normdateien. 56 http://www.dnb.de/DE/Standardisierung/GND/gnd_node.html

156

Anne Baillot und Markus Schnöpf

Quellcode der Daten erkannt werden. Eine maschinelle Lesung ist hiervon unbenommen. Moderne NER-Systeme57 sind bei unterschiedlicher Fehlertoleranz in der Lage, Personen in Texten automatisch zu identifizieren, die Hermeneutik verschiebt sich in die Überprüfung der automatisch generierten Ergebnisse. Weitere Verzerrungen gehen mit dem bibliothekarischen Schwerpunkt einher: Erfasst wurden primär Personen, die als Autoren von Werken in den bibliothekarischen Beständen verzeichnet sind.58 Insofern wird in dieser Form weiter dem Kanon das Wort geredet, ohne dass ein historisches Korrektiv realistischerweise angegangen werden könne. Selbst ohne das womöglich moralisch weder vertretbare noch wünschenswerte Ziel zu verfolgen, die Historiographie eines Besseren zu belehren, wäre es jedoch denkbar, dass Bibliotheken, Archive und Forschung darauf hinarbeiten, digital etwas anderes anzubieten als sie es jahrhundertelang im Printmedium getan haben, um so neue Formen der Zugänglichkeit und Interpretation zu schaffen. Interoperabilität59 als Kardinaltugend digitaler Editionen wäre damit nichts anderes als der strukturierte und reflektierte Umgang mit der eigenen Verbesserbarkeit und Ergänzbarkeit sowie mit einem Leserhorizont, der den eigenen Fachbereich übersteigt.

57 Named Entity Recognition-Systeme erleichtern die Identifikation einzelner Personen, wie z. B. Stanfords Named Entity Recognizer (http://nlp.stanford.edu/software/CRF-NER.shtml). 58 Erst in jüngeren Jahren wurde das Ziel in Angriff genommen, diesen Schwerpunkt auszuweiten, ebenso wie die Öffnung der nationalen Sammlungsinteressen zu internationalen, interoperablen Formaten wie RDA-MARC 21 den stetigen Vernetzungscharakter einzelner Wissensbasen dokumentiert. 59 Oder „blind exchange“, vgl. Bauman, Interchange.

CODING HISTORY – SOFTWARE ALS KULTURWISSENSCHAFTLICHES FORSCHUNGSOBJEKT Daniel Meßner To understand a program, you must become both the machine and the program.1 (Alan Perlis)

In Programmierkursen gibt es eine beliebte Aufgabe, die erfahrene Programmierer– Innen mit einem Lächeln quittieren, während sie bei AnfängerInnen Ratlosigkeit erzeugt. Die Fragestellung lautet: „Schreiben Sie ein Programm, das seinen eigenen Programmtext als Ausgabe liefert.“ Das hört sich im ersten Moment einfach an, aber wie kann der Quellcode eines Programms als Text angezeigt werden? Quellcode ist zwar in den meisten Fällen Text, jedoch werden die unterschiedlichen Textelemente vom Compiler interpretiert, wie etwa Schleifen oder Funktionen. Text muss im Programmcode als Zeichenkette (String) gekennzeichnet werden, ist dann aber kein ausführbarer Befehl mehr. Ein ausführbarer Befehl wie PRINTLN(„Hello World“)2, gibt zwar die Zeichenkette „Hello World“ auf dem Bildschirm aus, aber nicht den dazugehörigen Befehl – da hilft es auch nichts, den Befehl in Anführungszeichen zu setzen, weil dieser sonst als String gelesen wird und zu keiner PRINT-Ausgabe mehr führt. Die Lösung dieser Problemstellung ist benannt nach dem Philosophen Willard Van Orman Quine.3 Als Quine wird ein Programm bezeichnet, das eine Kopie seines Quelltexts als Ausgabe erzeugt, inklusive korrekter Zeilenwechsel und mit der zusätzlichen Einschränkung, dass kein Rückgriff auf externe Funktionen oder Bibliotheken erfolgt – mit Ausnahme einer Ausgabefunktion. Auch wenn es auf den ersten Blick unmöglich erscheint, ist ein Quine nicht nur ein Hack4, sondern stellt eine wesentliche Eigenschaft von Programmiersprachen dar, die turingmächtig sind.5 Eine Lösung des Problems besteht in der Trennung von Programmcode und Ausgabetext (Daten), die sich gegenseitig ausgeben.6 1 2 3 4 5 6

Perlis, Alan (1981): Epigrams in Programming, http://www.cs.yale.edu/homes/perlis-alan/ quotes.html [5.11.2014]. In dem Fall handelt es sich um die Programmiersprache SWIFT. Hofstadter, Douglas R. (1979): Gödel, Escher, Bach: An Eternal Golden Braid. Harmondsworth, Middlesex: Penguin Books, S. 443 bzw. S. 505. Hacken kann viele Bedeutungen haben, in diesem Fall ist gemeint, die Suche nach kreativen Problemlösungen: Levy, Steven (1984): Hackers: Heroes of the Computer Revolution. Garden City, N.Y.: Anchor Press/Doubleday. Turingmächtig bezieht sich auf den Ausdruck Turing-Vollständigkeit und bezeichnet ein System, das theoretisch universell programmierbar ist. Es finden sich zahlreiche Listen, die Quines zu allen möglichen Programmiersprachen zeigen, siehe z.B. „The Quine Page“, http://www.nyx.net/~gthompso/quine.htm [5.11.2014].

158

Daniel Meßner

Das Quine-Beispiel verdeutlicht den besonderen Status von Software. Software, in Form eines Programmcodes ist ein sozio-kulturelles, „born-digital“ Artefakt, das zwar in Textform geschrieben wird, in seinen Eigenschaften aber vollständig digital ist. Vielfach ist darauf hingewiesen worden, dass digitale Technologien unsere gegenwärtige Weltwahrnehmung in immer stärkerem Maße prägen und unsere Interaktionen mit der Umwelt verändern. Dementsprechend häufen sich Arbeiten, in denen von einer Computerwende7, einer digitalen Revolution8 oder einem „digital turn“9 die Rede ist. Codes sind die Sprache unserer Zeit, bemerkte Friedrich Kittler in einem Aufsatz.10 Und wenn Kittler mit dieser Einschätzung richtig lag, dann stellt sich die Frage, wie Software in historisch-kulturwissenschaftlichen Forschungen analysiert und angewendet werden kann und ob es notwendig ist, Software als Forschungsobjekt zu etablieren? Worin bestehen für die Kulturwissenschaften die besonderen Anforderungen in der Auseinandersetzung mit Software – im Gegensatz zu anderen Quellengattungen oder Analysegegenständen wie Texten oder Bildern? Bei der Frage nach der Geschichte von Software und ihrer Programmierung handelt es sich um ein Forschungsdesiderat, gerade in Bezug auf Praktiken: „[E]arly histories of computing largely equated computing with hardware. This narrow focus led to a relative neglect of software, theoretical computer science, and the practice of programming.“11 In diesem Aufsatz geht es um die Frage, wie und warum sich Kulturwissenschaften mit Software – ihrer Geschichte, Programmierung und Anwendung – auseinandersetzen sollten. Es ist der Versuch, einige (notwendige) Analysefaktoren herauszuarbeiten und bisherige Forschungsansätze überblicksartig darzustellen. EINE GESCHICHTE DES PROGRAMMIERENS In zwei Blogbeiträgen mit dem Titel „Notizen zu einer Sozialgeschichte der Programmierung“, kritisiert Arne Janning im Gespräch mit Kathrin Passig, dass es derzeit keine Analysekategorien von Software geben würde, die die Geschichte von 7

Berry, David M. (2014): Die Computerwende – Gedanken zu den Digital Humanities, in: Reichert, Ramón (Hg.): Big Data : Analysen zum digitalen Wandel von Wissen, Macht und Ökonomie. Bielefeld: transcript Verlag, S. 47–64. 8 Kitchin, Rob (2014): The Data Revolution: Big Data, Open Data, Data Infrastructures and Their Consequences. Thousand Oaks, CA: SAGE Publications Ltd. 9 Siehe u.a. Kossek, Brigitte/Peschl, Markus F. (2012): Digital Turn? Zum Einfluss digitaler Medien auf Wissensgenerierungsprozesse von Studierenden und Hochschullehrenden. Göttingen: V&R Unipress oder Nicholson, Bob (2013): The Digital Turn, in: Media History, 19 (1), S. 59–73. 10 Vgl. Kittler, Friedrich (2003): Code oder wie sich etwas anders schreiben lässt, in: Gerfried Stocker/Christian Schöpf (Hg.): Code – the language of our time, Katalog zur Ars Electronica 2003, S. 15–19, online abrufbar: http://90.146.8.18/de/archives/festival_archive/festival_ catalogs/festival_artikel.asp?iProjectID=12314 [5.11.2014]. 11 Abbate, Janet (2012): Recoding Gender: Women’s Changing Participation in Computing. Cambridge, Mass.: MIT Press, S. 6.

Coding History – Software als kulturwissenschaftliches Forschungsobjekt

159

Software abbildet und beschreibbar macht, wie Software unsere Welt strukturiert und bestimmt.12 Dass zu wenige Forschungen das Arbeiten von ProgrammiererInnen thematisieren, die „eine Welt geschaffen haben, in der wir heute leben, die zum guten Teil bestimmen, wie wir miteinander interagieren, wie wir mit der Welt interagieren“. Stattdessen existieren zahlreiche Arbeiten zur Computergeschichte, die sich auf die Hardware fokussieren und auf die „großen Männer“ dieser Erfolgsgeschichte, wie Bill Gates oder Steve Jobs. Wie lässt sich aber eine Geschichte des Programmierens schreiben? Zunächst einmal kann sie nicht ohne Berücksichtigung der Hardware auskommen, weil Programmcode nur in Koproduktion von Hardware und Software wirksam wird.13 Code ist daher nur innerhalb der sozio-technischen Umgebungen interpretierbar, in denen er eingesetzt wird. Für Code muss aber stellenweise die Black Box der eigenen Geschichtlichkeit erst geöffnet werden, denn die Art und Weise, wie Software hergestellt, eingesetzt und vertrieben wird, war zu keinem Zeitpunkt statisch. Dahinter stehen unter anderem technische, funktionale, ästhetische und persönliche Entscheidungen. In den ersten Jahrzehnten von Computeranwendungen war der Status von Software der eines unscheinbaren, aber notwendigen Beiwerks. Die Berufsbezeichnung „Programmierer“ existierte noch nicht.14 Software war Element der Hardwarelieferung und Voraussetzung für den Betrieb der Computer, allerdings als Teil des Gesamtpakets. Software an sich, als eigenständiges Produkt, gab es nicht zu kaufen. Computer waren zu dem Zeitpunkt noch keine Alltagsgegenstände. Dass mit Software viel Geld verdient werden könnte, war noch nicht absehbar. Der Status von Software änderte sich spätestens in den 1970er Jahren mit der Etablierung eines formalisierten Produktionsprozesses in der Herstellung von Software, der als „Software Engineering“, bezeichnet wird. Die Entwicklung und Verbreitung von industriellen Verfahren des Software Engineerings geht auf zwei NATO-Konferenzen in den Jahren 1968 (Garmisch-Partenkirchen) und 1969 (Rom) zurück, auf denen sich ProgrammiererInnen trafen, um darüber zu diskutieren, wie sich die Herstellung von Software zukünftig verbessern ließe.15 In der Rückschau wurde diese Phase als „Softwarekrise“ bezeichnet. Der Programmierer Edsger Dijkstra sprach in seiner Dankesrede zum Turing-Award 1972 erstmals von einer „Softwarekrise“ 12 Arne Janning und Kathrin Passig: „Notizen zu einer Sozialgeschichte der Programmierung (I)“, veröffentlicht am 20.5.2014 und „Notizen zu einer Sozialgeschichte der Programmierung (II)“, veröffentlicht am 13.8.2014, in: Merkur. Deutsche Zeitschrift für europäisches Denken: http://www.merkur-blog.de/2014/05/notizen-zu-einer-sozialgeschichte-der-programmierungi/ bzw. http://www.merkur-blog.de/2014/08/notizen-zu-einer-sozialgeschichte-der-programm ierung-ii/ [5.11.2014]. 13 Vgl. Mackenzie, Adrian (2006): Cutting Code: Software and Sociality. New York: Peter Lang. 14 Edsger Dijkstra etwa beschreibt, wie die Berufsbezeichnung „Programmierer“ 1957 für seine Heiratsurkunde abgelehnt wurde und er sich stattdessen als „theoretical physicist“ bezeichnen musste: „The Humble Programmer“ von Edsger Dijkstra ist in einer online verfügbaren Reproduktion verfügbar: http://www.cs.utexas.edu/users/EWD/ewd03xx/EWD340.PDF [23.10.2014]. 15 Die Berichte zu den beiden Konferenzen „Software Engineering“ und „Software Engineering Techniques“ sind auch online publiziert: http://homepages.cs.ncl.ac.uk/brian.randell/NATO/ [23.10.2014].

160

Daniel Meßner

und er führte ein immer größer werdendes Missverhältnis zwischen Hardware und Software als Auslöser der Krise an: One often encountered the naive expectation that, once more powerful machines were available, programming would no longer be a problem, for then the struggle to push the machine to its limits would no longer be necessary and that was all what programming was about, wasn’t it? But in the next decades something completely different happened: more powerful machines became available, not just an order of magnitude more powerful, even several orders of magnitude more powerful. But instead of finding ourselves in the state of eternal bliss of all programming problems solved, we found ourselves up to our necks in the software crisis!16

Dijkstra argumentiert, dass je größer und mächtiger die Hardware im Laufe der 1950/60er Jahre wurde, das Programmieren der Systeme immer komplexer wurde, ohne dass adäquate Mittel bereitstanden, die Probleme softwareseitig zu lösen. Programme sollten besser planbar und weniger fehleranfällig werden. Mit der „Softwarekrise“ rückten auch die ProgrammiererInnen ins Blickfeld. Denn welchen Stellenwert hatte ein Programmierer zuvor? „Well, to tell the honest truth: he was hardly noticed.“17 Das Narrativ der Softwareanpassung prägt die Geschichte der Programmierung bis heute, schließlich ist es weiterhin der Fall, dass die Hardwareproduktion im Vordergrund steht, die die Softwareentwicklung vor sich hertreibt. Es wird nicht danach gefragt, wie Hardware gebaut sein sollte, um möglichst effektiv programmierbar zu sein.18 Die Lösungsansätze der „Softwarekrise“ sind zwar nicht vollständig auf die beiden NATO-Konferenzen zurückzuführen, jedoch lassen sich die Entwicklungen der folgenden Jahrzehnte zu drei Konsequenzen verdichten, die das Programmieren wesentlich veränderten und bis in die Gegenwart prägen: erstens die Etablierung von Software Engineering, zweitens die Institutionalisierung der Informatik als akademisches Feld an den Universitäten und drittens, die Weiterentwicklung von Programmierkonzepten, insbesondere in Form höherer Programmiersprachen. Die Hoffnung Dijkstras auf stabilere und weniger fehleranfällige Software hat sich nicht erfüllt – was sich technisch, ökonomisch und arbeitsorganisatorisch begründen lässt.19 Technisch, unter anderem deshalb, weil Systemsoftware auf C-basierenden Sprachen programmiert ist. Der Grund ist die Schnelligkeit von Programmiersprachen wie C++, die ihrer Performance dafür aber alle anderen Aspekte unterordnen und ab einer gewissen Komplexität kaum mehr zu kontrollieren sind, weil diesen Programmiersprachen keine Schutzmechanismen für Programmierfehler eingebaut wurden. Viele Programme reagieren dann mit undefiniertem Verhalten, 16 Zitate aus der Dankesrede „The Humble Programmer“ von Edsger Dijkstra sind der online verfügbaren Reproduktion entnommen: http://www.cs.utexas.edu/users/EWD/ewd03xx/ EWD340.PDF [23.10.2014]. 17 Dijkstra, Edsger (1972): The Humble Programmer, S. 1. 18 Siehe Karl Fröschl im Interview der Podcastreihe „Stimmen der Kulturwissenschaften“ über die Softwarekrise: http://stimmen.univie.ac.at/sdk78 [5.11.2014]. 19 Das soll nicht heißen, dass es nicht viele weitere Faktoren gibt, mit denen sich Fehleranfälligkeit von Software begründen lässt. In dem Fall sollten die drei genannten Erklärungen vor allem Anknüpfungspunkte für kulturwissenschaftliche Perspektiven aufzeigen. Denn sie machen Handlungsspielräume und Entscheidungsprozesse nachvollziehbar.

Coding History – Software als kulturwissenschaftliches Forschungsobjekt

161

statt einer Fehlermeldung. Das führt dazu, dass Sicherheitslücken lange unentdeckt bleiben. Beispielsweise sind „Buffer Overflows“20 ein großes Sicherheitsrisiko und einer der häufigsten Gründe für Softwareupdates. Sie entstehen durch das Allozieren von Speicherplatz zur Laufzeit eines Programms, der nach Gebrauch dem System nicht wieder freigegeben wird. Auf diese Weise sammelt das Programm so lange dynamisch erzeugten Speicher, bis dem System kein neuer Speicher mehr zur Verfügung steht. Die nicht durchgeführte Deallokation, die erneute Freigabe des Speichers, ist nicht nur durch Unachtsamkeit beim Coden zu erklären, sondern ergibt sich aus der Komplexität der Pointer-Architektur, das heißt, der internen Zuweisung von Speicheradressen. Entscheidend ist an der Stelle der Hinweis, dass es sich um eine Designentscheidung bei der Entwicklung von Software handelt, denn es gibt Programmiersprachen, die für dieses Problem Hilfsmittel bereitstellen – dafür aber Performance-Einbußen in Kauf nehmen. Beispielsweise lösen viele Programmiersprachen die Speicherverwaltung über eine „Garbage Collection“. Diese Form der Speicherbereinigung sorgt dafür, dass nicht mehr benötigter Speicherplatz automatisch wieder freigegeben wird. Ökonomische Aspekte zeigen weitere Gründe für die Fehleranfälligkeit von Software. Anders als in den Anfangszeiten von Digitalcomputern, wo sie noch als Ziffern-Rechenautomat, Rechen- und Datenverarbeitungsanlage oder elektronische Rechenmaschine bezeichnet wurden, wird Software auch als Einzelprodukt verkauft und wird nicht nur mit der Hardware ausgeliefert.21 Updates lassen sich dementsprechend monetarisieren. Hinzukommt, dass Software einen Sonderstatus gegenüber anderen Produkten genießt, weil Softwarehersteller häufig kein Haftungsrisiko für die Nutzung des Programms tragen, weshalb es gängige Praxis ist, Software in unfertigem Zustand auszuliefern und erst im laufenden Einsatz durch Updates zu verbessern. Diese Form der Softwareauslieferung wird als „banana software“ bezeichnet und spielt darauf an, dass Bananen für den internationalen Markt in einem noch frühen Stadium aus den Ernteländen ausgeflogen werden und erst vor Ort für den Verzehr reifen. Weitere Gründe für die Fehleranfälligkeit von Software lassen sich über die Arbeitsorganisation in der Herstellung und Verbreitung von Software erklären. Zur Qualitätssicherung werden beispielsweise sicherheitsrelevante Programme häufig als Open Source-Software entwickelt bzw. veröffentlicht. Dahinter steckt die Idee, dass möglichst viele Personen die Programme einsetzen und Zugriff auf den Sourcecode haben sollen und damit Bugs entdecken und beheben können. Das passiert jedoch nicht immer, denn es gibt zwar einen institutionalisierten Reviewprozess, jedoch beteiligen sich nur wenige EntwicklerInnen daran. Außerdem sind der-

20 Alternative Bezeichnungen sind u.a. „Stack Overflow“ bzw. „Pufferüberlauf“ oder „Speicherleck“. 21 Zum Aspekt der Begriffsbildung siehe: Hoffmann, Christoph (2004): Eine Maschine und ihr Betrieb. Zur Gründung des Recheninstituts der Technischen Hochschule Stuttgart (1956– 1964), in: Bense, Max/Büscher, Barbara/Hoffmann, Christoph (2004): Ästhetik als Programm: Max Bense/Daten und Streuungen. Berlin: Vice Versa, S. 118–129, hier: S. 119.

162

Daniel Meßner

artige Projekte meistens unterfinanziert. Der „Heartbleed-Bug“ etwa wurde im April 2014 entdeckt und betraf große Teile der Netzinfrastruktur. Er ermöglichte es Angreifern, einen Programmierfehler in der Open-Source-Bibliothek OpenSSL auszunutzen, der einen Pufferüberlauf auslösen konnte. Die Verantwortlichen der OpenSSL Software Foundation (OSF), die vor allem auf Spendenbasis arbeiten, machten die fehlende finanzielle Unterstützung verantwortlich, wie Steve Marquess schreibt: „it is nowhere near enough to properly sustain the manpower levels needed to support such a complex and critical software product“.22 Es handelt sich um ein strukturelles Problem bei der Herstellung von Software. Marquess bemerkt abschließend zum Heartbleed-Bug: „So the mystery is not that a few overworked volunteers missed this bug; the mystery is why it hasn’t happened more often.“

Bei vielen kulturwissenschaftlichen Arbeiten lässt sich eine Hinwendung zu Problemstellungen nach Artefakten und Anwendungspraktiken beobachten.23 Beispielsweise prägt ein „practical turn“ Forschungen der Wissenschaftsgeschichte.24 Darin zeigt sich die Idee, mit Hilfe von Praktiken Entwicklungen als Prozesse darstellen zu können, um die Handlungs- und Wirkungsmöglichkeiten von Akteuren dynamisch beschreibbar zu machen. Die Konsequenz ist eine Erweiterung der Beschreibungsfaktoren, die ebenfalls performative, ästhetische oder epistemische Praktiken beinhalten können.25 Die EntwicklerInnen wurden in der Geschichte des Programmierens bislang selten berücksichtigt. Dabei sind sie es, die konkret an der Umsetzung von Software arbeiten, Programmcode erzeugen und ihre somit eine Fokussierung auf Praktiken erlauben würden.26 Das ist vor allen Dingen bemerkenswert, weil die Frage, wie ProgrammiererInnen arbeiten und ausgebildet werden sollten, seit Beginn der Softwareprogrammierung kontrovers diskutiert wurde. Auch Edsger Dijkstra nahm in seiner Dankesrede Bezug auf zwei diametral entgegengesetzte Erwartungen, die an ProgrammiererInnen gestellt wurden: The one opinion was that a really competent programmer should be puzzle-minded and very fond of clever tricks; the other opinion was that programming was nothing more than optimizing the efficiency of the computational process, in one direction or the other.27

22 Marquess, Steve: Speeds and Feeds – Of Money, Responsibility, and Pride, Blogbeitrag vom 12.4.2014: http://veridicalsystems.com/blog/of-money-responsibility-and-pride/ [5.11.2014]. 23 Vgl. Hörning, Karl H. (2004): Doing Culture: Kultur als Praxis. In: Hörning, Karl H. (Hg.), Doing Culture. Bielefeld: transcript-Verlag, S. 9–15. 24 Siehe u.a. Daston, Lorraine/Epple, Moritz/Klaus, Zittel (2010): Science as Cultural Practice. 1. Cultures and Politics of Research from the Early Modern Period to the Age of Extremes. Berlin: Akad-Verlag. 25 Dazu gibt es zahlreiche Beispiele, für die Geschichte des Programmierens besonders relevant: Gramelsberger, Gabriele (2009): Epistemische Praktiken des Forschens im Zeitalter des Computers, in: Kunst des Forschens. Praxis eines ästhetischen Denkens. Zürich, Berlin: Bippus, Elke, S. 91–108. 26 Vgl. Janning, Arne: http://www.merkur-blog.de/2014/05/notizen-zu-einer-sozialgeschichteder-programmierung-i [23.10.2014]. 27 Dijkstra, Edsger: The Humble Programmer, S. 2.

Coding History – Software als kulturwissenschaftliches Forschungsobjekt

163

Verkürzt lässt sich die erste Beschreibung Dijkstras von ProgrammiererInnen als „puzzle-minded“ auf die Hackerkultur zurückführen, während in der zweiten Beschreibung, in der von ProgrammiererInnen vor allem Effizienzoptimierung erwartet wird, die Idee der Informatik als Ingenieursdisziplin zum Ausdruck kommt – also genau das, was mit den Entwürfen zum Software Engineering auf den NATOKonferenzen Ende der 1960er Jahre und der Institutionalisierung der Informatik ab den 1970er Jahren umgesetzt wurde.28 Was sich einerseits als Professionalisierung von Softwareentwicklung interpretieren lässt, kann andererseits auch als Disziplinierung von ProgrammiererInnen gelesen werden, die sich wiederum dagegen zur Wehr setzten, als reine „Coding Monkeys“ zu arbeiten.29 Nathan Ensmenger beschreibt in seiner „History of Computer Software“ ebenfalls den Konflikt zwischen „academic computer scientists“ auf der einen Seite und den „professional business programmers“ auf der anderen Seite, der noch immer vorhanden ist.30 Erst Mitte der 1970er Jahre etablierte sich schließlich die Informatik als wissenschaftliche Disziplin.31 Frei und unabhängig arbeitende SoftwareentwicklerInnen werden häufig als „Cowboy Coder“ bezeichnet – was gleichzeitig auf ein weiteres strukturelles Problem verweist, das eine kulturwissenschaftliche Analyse thematisieren muss: die Frage nach Programmieren und Geschlecht. Janet Abbate hat in ihrer Arbeit gezeigt, wie Frauen in den USA aus dem Arbeitsfeld der Softwareentwicklung nach dem Zweiten Weltkrieg verdrängt wurden. Und dass die Neudefinition der Tätigkeit als „Software Engineering“ wesentlichen Anteil daran hatte.32 Der Blick auf ProgrammiererInnen ist allerdings nicht genug: Sourcecode wird nur in Koproduktion von Hardware und Software wirksam, jedoch sind für seine Interpretation kulturelle Praktiken der Interaktion entscheidend, die neben den ProgrammiererInnen auch die UserInnen sowie Einsatzumgebung und Einsatzzweck 28 Die Bezeichnung Informatik verwies zunächst nicht auf eine Wissenschaftsdisziplin, sondern auf ein industrielles Produkt. Besonders deutlich wird dies beim französischen Wort „informatique“, das Teil eines Firmennamens war. Siehe dazu: Maschinensprache – Nachrichten aus der „Galeere“. Interview mit Elisabeth Walther, Walter Knödel und Rul Gunzenhauser, in: Bense, Max/Büscher, Barbara/Hoffmann, Christoph (Hg.) (2004): Ästhetik als Programm: Max Bense/Daten und Streuungen. Berlin: Vice Versa, S. 130–141, hier: S. 131. 29 Es zählt zu den Besonderheiten der IT-Branche, dass es beispielsweise möglich ist, einen Arbeitsplatz nicht über zertifizierte Programmierkenntnisse, sondern durch nachgewiesene Fähigkeiten bei Einstellungstests zu bekommen. Zur Rekrutierung von MitarbeiterInnen hat Facebook beispielsweise „The Facebook Programming Challenge“ veranstaltet, umgesetzt vom Start-up HackerRank „A Revolutionary Platform to Hire Tech Talent“: https://www.hackerrank.com/work [5.11.2014]. 30 Beispielsweise veranstaltete das Deutschlandradio 2013 am 30C3 – dem größten deutschsprachigen Hackerkongress – eine Podiumsdiskussion mit dem Titel „Braucht die Informatik Hacker?“, online: https://www.youtube.com/watch?v=SHXyb9_IxeU [5.11.2014]. 31 Ensmenger argumentiert, dass die Reihe „The Art of Computer Programming“ von Donald Knuth entscheidenden Anteil daran hatte. Ensmenger, Nathan L. (2010): The Computer Boys Take Over: Computers, Programmers, and the Politics of Technical Expertise. Auflage: New. Cambridge, Mass.: MIT Press, S. 149. 32 Vgl. Abbate, Janet (2012): Recoding Gender: Women’s Changing Participation in Computing. Cambridge, Mass.: MIT Press.

164

Daniel Meßner

inkludieren.33 Auch wenn Software lange Zeit als Beiwerk zur Hardware galt, zeigt sich, dass das Programmieren eine Geschichte hat, die aus historisch-kulturwissenschaftlicher Perspektive bislang nicht ausreichend aufgearbeitet wurde. Die Benutzung von Software ändert sich nicht nur ständig, sondern ihre Anwendung unterliegt bewussten Designentscheidungen, die in vielen Fällen nicht mehr als solche erkennbar sind.34 Ein Beispiel dafür sind Wischgesten bei Touchinterfaces, bei denen das Ziehen nach unten eine Aktualisierung der Timeline auslöst. Ein weiteres Beispiel ist der Gebrauch von Symbolen für Bedienelemente, oder skeuomorphe35 Designs.36 Diskussionen um die Gestaltung von „Graphical User Interfaces“ (GUI) werden außerhalb der EntwicklerInnen-Community kaum wahrgenommen, sind aber ein wichtiger Faktor bei der Gestaltung von Software. Denn es herrscht keineswegs Einigkeit darüber, wie Software für unterschiedliche Devices gestaltet sein sollte. Bei vielen Elementen gibt es keine verbindlichen Designregeln, jedoch kommt es an vielen Stellen zu Eingriffen, weil die Betriebssystemhersteller bestimmte Bedienelemente priorisieren oder ermöglichen. EntwicklerInnen werden dann auf Konferenzen geschult und erhalten Anleitungen mit Designvorlagen.37 Die Diskussion um den „Hamburger Button“38 zeigt, dass die Art und Weise, wie Software gestaltet ist, hergestellt und eingesetzt wird, eine Geschichte hat, die von vielfältigen Entscheidungen abhing und einem ständigen Wandel unterliegt. Gleichzeitig sind wir ständig umgeben von Software, sind Anwendungen alltäglich geworden und wissen wir doch eigentlich schon nicht mehr, „wie die Computer auf unsere Schreibtische gekommen sind“.39 SOFTWARE ALS FORSCHUNGSOBJEKT Fast täglich liest man Zeitungsberichte über Computereinsatz, EDV-Anwendungen und mikroelektronische Innovationen – und doch ist der Computer ein Automat, über dessen Entwicklung, Einsatzpotential und Folgen die wenigsten hinreichend informiert sind. Angesichts einer

33 Vgl. Mackenzie, Adrian (2006): Cutting Code: Software and Sociality. New York/Bern: Lang. 34 Siehe z.B. das FWF-Projekt Texture Matters. The Optical and the Haptical in Media: http://texturematters.univie.ac.at/home/ [5.11.2014]. 35 Als skeuomorph werden Elemente bezeichnet, die etwas nachahmen, was nicht durch ihre Funktion begründet werden kann. Zum Beispiel das Umblätter-Design bei vielen E-Book-Readern oder das Hinzufügen eines Klackgeräusches bei digitalen Fotokameras. 36 Vgl. von den Boomen, Marianne (2014): Transcoding the Digital: How Metaphors Matter in New Media. Amsterdam: Institute of Network Cultures. 37 Apple veranstaltet z.B. jährlich mit der Worldwide Developers Conference (WWDC) eine Entwickler-Konferenz, deren Videos online zugänglich sind und Hilfestellungen bieten für das Programmieren von iOS- bzw. Mac OS-Software: https://developer.apple.com/videos/ wwdc/ 2014/ [5.11.2014]. 38 Vgl. Constine, Josh (2014): „Kill the Hamburger Button“, http://techcrunch.com/2014/05/24/ before-the-hamburger-button-kills-you/ [27.4.2015]. 39 Siehe Karl Fröschl in einem Interview über die Softwarekrise im Rahmen der Podcastreihe „Stimmen der Kulturwissenschaften“: http://stimmen.univie.ac.at/podcast/sdk78 [5.11.2014].

Coding History – Software als kulturwissenschaftliches Forschungsobjekt

165

weit verbreiteten Fetischisierung und Verdrängung des Computers ist es Computerkonzernen und „Experten“ ein leichtes, ihn weiter zu mystifizieren.40

Die Mystifizierung des Computers, wie sie von Peter Brödner, Detlef Krüger und Bernd Senf bereits 1981 in dem kaum beachteten Buch „Der programmierte Kopf. Eine Sozialgeschichte der Datenverarbeitung“ attestiert wurde, hat mit der Verbreitung von Digitalcomputern keineswegs abgenommen – auch wenn von einer Verdrängung keine Rede sein kann. Die zunehmende Komplexität von Hardware, häufig mit verklebten Komponenten, so dass eigenhändiges Basteln unmöglich gemacht wird, und die Zugänglichkeit von Netzinfrastruktur, zum Beispiel in Form von Cloud-Diensten, führen dazu, dass Computer immer stärker als Black Box wahrgenommen werden. Eine Pflicht zur Mitlieferung von Schaltplänen und Anleitungen, wie das in der DDR der Fall war, scheint kaum durchsetzbar. Der Erfolg graphischer Benutzeroberflächen trägt ebenfalls zum Verschwinden von Software bei, denn die „User Experience“ ist zwar auf Interaktion ausgelegt, aber nur bei Nicht-Funktionieren werden die Mechanismen hinter der Oberfläche sichtbar. Auch Kittler bemerkte, dass die Computergemeinschaft alles daran setzen würde, „Hardware hinter Software, elektronische Signifikanten hinter Mensch-MaschineSchnittstellen zu verdecken.“41 Und doch ist die Computergeschichte als Erfolgsnarrativ der Hardwareentwicklung besser dokumentiert als die Geschichte des Programmierens. Software ist mehr als der reine Quelltext und stellt bei der Analyse an historisch-kulturwissenschaftliche Forschungen andere Anforderungen, als Arbeiten auf Basis von Bild- oder Textmaterial. Trotz der Feststellung, dass es sich bei der Geschichte des Programmierens um ein Forschungsdesiderat handelt, lassen sich zahlreiche Projekte finden, bei denen Software zum Untersuchungsgegenstand gemacht wurde – die ich im Folgenden als Softwareforschung42 bezeichne und ohne Anspruch auf Vollständigkeit, thematisch fokussiert, darstelle. MATERIALITÄT Es hat einen gewissen Reiz, die Auflistung geisteswissenschaftlicher Softwareforschung mit Friedrich Kittler zu beginnen – und geschieht daher an dieser Stelle auch nicht zum ersten Mal.43 Der Grund liegt in einem kurzen Aufsatz aus dem Jahr 1993 mit dem Titel „Es gibt keine Software“. Kittler argumentiert darin, dass Software 40 Brödner, Peter/Krüger, Detlef/Send, Bernd (1988): Der programmierte Kopf. Eine Sozialgeschichte der Datenverarbeitung. Berlin: Klaus Wagenbach, S. 9. 41 Kittler, Friedrich (1993): Es gibt keine Software, in: Ders., Draculas Vermächtnis: Technische Schriften. Leipzig: Reclam, S. 225–242, hier: S. 232. 42 Softwareforschung bezieht sich hier und im Folgenden nicht auf die „Software Studies“, sondern dient mir als Zusammenfassung von Forschungen unterschiedlicher Disziplinen und Perspektiven, bei denen Software Teil des Untersuchungsgegenstandes ist. 43 Lev Manovich schreibt z.B. über Kittler, dieser könne, gemeinsam mit einigen anderen ForscherInnen, „be retroactively identified as belonging to ‚software studies‘.“ Aus: Manovich, Lev (2013): Software Takes Command: Extending the Language of New Media. New York ; London: Bloomsbury, S. 15.

166

Daniel Meßner

nicht maschinenunabhängig existiert und jede algorithmische Beschreibung durch den Compiler reduziert, das heißt in Maschinensprache überführt werde. Somit wird Software in eine binäre Codierung aufgelöst, die anschließend von der Maschine verarbeitet werden kann. Software löst sich in dieser materialistischen Interpretation letztlich auf, in Wechselwirkungen von Millionen Transistorzellen, Elektronendiffusion und quantenmechanischen Tunneleffekten.44 Kittlers Argumentation ist einerseits plausibel, weil sie auf der Kritik gründet, dass NutzerInnen sowohl hardware- als auch softwareseitig immer weniger Manipulations- und Gestaltungsmöglichkeiten bekommen. Mit Blick auf den Aufstieg mobiler AppStores seit 2008 verstärkt sich dieser Trend. Gleichzeitig führt der Fokus auf GUIs und Internetanwendungen dazu, dass Software in den Vordergrund rückt, während Hardware immer mehr aus unserem Blick verschwindet. Das veranlasste Lev Manovich wiederum zu der nicht weniger provokanten These: „There is only Software.“45 Der Journalist Moritz Metz hat sich für eine Reportage auf die Suche gemacht und die Frage gestellt, wo das Internet lebt?46 Denn wir sprechen zwar ständig davon „im Internet“ zu sein, aber seine physische Präsenz ist nur wenig greifbar – was sich durch die Verbreitung von WLAN noch einmal verstärkt hat. Metz’ Beitrag verdeutlicht die Materialität des Internets auf beeindruckende Weise: Er zeigt die Kabel, die von den Häusern in die DSL-Anschlusskästen laufen, die Tiefseekabel, die Kontinente verbinden, die Internetknotenpunkte und endet in den Rechenzentren und Serverfarmen, in denen das Internet hör- und spürbar wird. Welche Konsequenzen ergeben sich aus dieser Beobachtung für die Beschäftigung mit Software? Denn dass die Computerisierung weitreichende Konsequenzen hat, – um bei Kittler anzuknüpfen – wurde in der Literaturwissenschaft bereits seit den 1960er Jahren thematisiert. Dazu zählt auch die Frage, in welchem Verhältnis Programmiersprachen zu Sprachen stehen, also inwiefern Quellcode hermeneutisch untersuchbar ist. Die Entstehung der Computerlinguistik ist ein Beispiel für eine frühe Computeranwendung, die dem Versuch einer produktiven Wissensgenerierung galt. Ebenso müssen an der Stelle künstlerische Arbeiten mit (programmierbaren) Computern genannt werden. Dazu zählt nicht nur Computerpoesie, sondern auch die Anwendung graphischer Verfahren.47 Die Schriftenreihe „Sprache im technischen Zeitalter“ ist eine bemerkenswerte (geisteswissenschaftliche) Auseinandersetzung mit Computerisierung. Die Zeitschrift wurde von Walter Höllerer 44 Kittler, Friedrich (1993): Es gibt keine Software, S. 242. 45 Manovich, Lev (2011): There is only Software. Der Text wurde als Entwurf veröffentlicht: http://lab.softwarestudies.com/2011/04/new-article-by-lev-manovich-there-is.html [5.11.2014]. 46 Das Ergebnis von Moritz Metz’ Dokumentation ist in mehrfacher Form publiziert worden. Neben einem Fernsehbeitrag im Rahmen der Reihe ARTE Future und einem Radio-Feature gibt es auch eine Audioslide-Dokumentation http://www.wodasinternetlebt.de/, sowie einen aufgezeichneten Vortrag von der Konferenz re:publica 2014: http://youtu.be/qfeHbwp2-Ig [5.11. 2014]. 47 Max Bense bezeichnete Computergraphiken Mitte der 1960er Jahre als „künstliche Kunst“, siehe: Hans-Christian von Herrmann (2006): Künstliche Kunst – eine strukturalistische Tätigkeit, in: Nees, Georg (2006): Generative Computergraphik. Berlin: Kaleidoskopien. S. V–VII.

Coding History – Software als kulturwissenschaftliches Forschungsobjekt

167

1961 mit dem Ziel gegründet, „Gebrauch und Widerstand der Sprache in einem durch die Technik beeinflussten Jahrhundert“ zu untersuchen. Höllerer verweist im Programm der Zeitschrift darauf, dass es ihm um die Wechselspiele zwischen Technik und Sprache gehen würde und damit das Zurückwirken auf menschliches „Denken, Empfinden und Handeln“.48 Damit ist eine entscheidende Fragestellung angedeutet, die für die Softwareforschung in den folgenden Jahrzehnten prägend wurde, nämlich die Interaktion zwischen Mensch und Software. SOFTWARE STUDIES „Software is often a blind spot in the wider, broadly cultural theorization and study of computational and networked digital media“, schreibt Matthew Fuller und kritisiert damit, dass Software selten aus Perspektive der EntwicklerInnen analysiert wird.49 In den Software Studies wird daher die Frage nach der Funktionalität von Code um eine sozio-kulturelle Dimension erweitert. Das heißt, es wird untersucht, wie sich Gesellschaftskonzepte sowie sozio-ökonomische Faktoren durch digitale Artefakte in soziale Praktiken einschreiben. Diese Einschreibungsprozesse geschehen, weil SoftwareentwicklerInnen ein Problem zunächst verstehen und formalisieren müssen, um es in eine Programmiersprache übersetzen zu können. Dabei fließt ihr Alltagsverständnis mit in den Code ein. Stehen ProgrammiererInnen beispielsweise vor dem Problem einen Gesichtserkennungs-Algorithmus schreiben zu müssen, der ebenfalls das Geschlecht der erfassten Person erkennt, dann müssen sie Kriterien festlegen, an welchen Merkmalen ein weibliches bzw. männliches Gesicht zu erkennen ist. Harry Collins greift im Kontext der Informatik die Idee des „tacit knowledge“ auf, wie es Michael Polanyi Ende der 1950er Jahre entwarf. Er zeigt dabei, dass dieses Wissen immer voreingenommen ist.50 Es lässt sich zeigen, dass Software, wie alle Artefakte, sozio-kulturelle Denkmodelle mit einschließt. Das können Geschlechterstereotype sein oder auch Imaginationen und Bewertungen technischer oder sozialer Zukünfte. Mark Marino fordert als Erweiterung bisheriger Softwareanalysen eine konkretere Auseinandersetzung mit Code als Text: „Let us make the code the text.“51 Damit ist kein naiver „Code ist Text“-Realismus gemeint, sondern es soll vielmehr betont werden, dass in den meisten Untersuchungen nur in abstrakter Form über das Programmieren und über Software geschrieben und nachgedacht wird – ohne Untersuchung des Quelltextes. Ein eindrückliches Beispiel für eine ausführliche Softwareanalyse stellt das Buch „10 PRINT CHR$(205.5+RND

48 Höllerer Walter (1961): Diese Zeitschrift hat ein Programm, in: Sprache im technischen Zeitalter 1, S. 1–2. 49 Fuller, Matthew (2008): Introduction, the Stuff of Software, in: Software Studies: A Lexicon. The MIT Press, S. 1–13, hier: S. 3. 50 Vgl. Collins, Harry M. (2010): Tacit and Explicit Knowledge. University of Chicago Press. 51 Marino, Mark (2006): Critical Code Studies, http://www.electronicbookreview.com/thread/ electropoetics/codology [5.11.2014].

168

Daniel Meßner

(1));:GOTO 10“ dar.52 Eine einzige Zeile BASIC-Code, die als Bildschirmoutput eine Art Labyrinth liefert, dient nicht nur als Ausgangspunkt der Software-Analyse, sondern ist der zentrale Forschungsgegenstand des ganzen Sammelbands. Allerdings zeigen die Autoren weniger gesellschaftspolitische Implikationen auf, sondern arbeiten sich an Assoziationsketten ab. Angefangen bei der Frage, was ein Labyrinth ist: „[W]hat cultural associations does that evoke?“53 Die Forschungen der „Software Studies“ zeigen, dass bei der Auseinandersetzung mit Programmcode die kulturellen Praktiken der Interaktion von entscheidender Bedeutung sind, weil sie ausschließlich in Koproduktion von Hardware und Software wirksam werden. Aus diesem Grund ist Software nur innerhalb der soziotechnischen Umgebungen analysierbar, die wesentlich mehr einschließen als den Quelltext und die Hardware, auf dem der Code ausgeführt wird. Die Anwendungsumgebungen und (performativen) Praktiken dürfen nicht ausgeklammert werden. Insgesamt ergibt sich daraus eine komplexe Gemengelage, die Handlungsmöglichkeiten für UserInnen vorgibt, die sich je nach Kontext als ermächtigende oder limitierende Faktoren interpretieren lassen. Beispielsweise wird Kommunikation bestimmt von Vernetzungsmedien und ihren Machtstrukturen, weshalb Software in wesentliche gesellschaftliche Debatten der Gegenwart eingebettet ist, wie Plattformneutralität, Überwachung oder Kontrolle. FELDVERSUCHE Wie könnte ein Forschungsdesign aussehen, Code in seinen sozio-technischen Umgebungen zu analysieren? Eine mögliche Inspirationsquelle sind die Science and Technology Studies (STS), wo es mit den Laborstudien eine Forschungstradition gibt, Wissensproduktionen am Ort der Entstehung mit ethnographischen Methoden als Akteurs-Netzwerk zu rekonstruieren.54 Infolge der Arbeiten von Bruno Latour entstanden ebenfalls Forschungen, in denen InformatikerInnen begleitet wurden. Beispielsweise untersuchte Diana Forsythe Überzeugungen und Visionen von „computer scientists“ im Verhältnis zur techno-wissenschaftlichen Praxis.55 Ebenfalls wichtig in diesem Zusammenhang ist die Frage nach den „Human-Machine Reconfigurations“, die Lucy Suchman in ihren Arbeiten zu den „Sciences of the Artificial“ untersucht.56 Die Analyse des Codes rückt in diesen Settings allerdings

52 Vgl. Montfort, Nick (Hg.) (2013): 10 PRINT CHR$(205.5+RND(1));:GOTO 10. Cambridge, Mass.: MIT Press. 53 Montfort, Nick (Hg.) (2013): 10 PRINT CHR$(205.5+RND(1));:GOTO 10. Cambridge, Mass.: MIT Press. Position 156 (Kindle-Edition). 54 Vgl. Latour, Bruno (1987): Science in Action: How to Follow Scientists and Engineers through Society. Cambridge, Mass.: Harvard University Press. 55 Vgl. Forsythe, Diana E. (1993): Engineering Knowledge: The Construction of Knowledge in Artificial Intelligence. In: Social Studies of Science 23 (3): 445–477. 56 Siehe u.a. Suchman, Lucy (1987): Plans and Situated Actions. The problem of human machine communication. Cambridge: Cambridge University Press.

Coding History – Software als kulturwissenschaftliches Forschungsobjekt

169

in den Hintergrund, während eher abstrakte Konzepte von Software verhandelt werden. Geoffrey Bowker und Susan Leigh Star bezeichnen zum Beispiel in ihrem Buch über Klassifizierungsmethoden Software als „frozen organizational and policy discourse“, berücksichtigen aber Code nicht als Quelltext bei ihrer Analyse, sondern nur als abstrakte Entität.57 In der Auseinandersetzung mit Software herrscht bislang noch ein Ungleichgewicht, wie Nathan Ensmenger betont. Zwar handelt es sich bei Software um ein idealtypisches sozio-technisches System, „that is to say, a system in which machines, people, and processes are inextricably interconnected and interdependent“, gleichzeitig lässt sich aber konstatieren, dass bislang nur wenig über die Akteure der Geschichte des Programmierens bekannt ist: [L]ittle has yet been written about the silent majority of computer specialists, the vast armies of largely anonymous engineers, analysts, and programmers who designed and constructed the complex systems that make possible our increasingly computerized society.58

Ein weiterer Ansatz, die Interaktion zwischen Mensch und Maschine zu untersuchen, stammt aus den Medienwissenschaften und wird dort unter dem Stichwort der Computerarchäologie geführt – in Anlehnung an den Begriff Medienarchäologie59. In computerarchäologischen Arbeiten wird versucht, Software und Hardware wieder in Bezug zu setzen – und ist nicht zu verwechseln mit Archäoinformatik. Dahinter steht die Feststellung, dass ein Computer erst operativ und im Verbund mit Software zum Medium wird. Medienarchäologische Forschungen verfolgen einen selbstermächtigenden Ansatz, weil die Beschaffung, Sammlung und Reparatur alter Computersysteme Teil des Forschungsprozesses ist.60 An der Stelle überschneiden sich medienarchäologische Fragestellungen mit historisch-kulturwissenschaftlichen Ansätzen. Das betrifft vor allem den Bereich der Archivierung und Digitalisierung. Wie lassen sich Software und Hardware adäquat archivieren und zugänglich machen? Welche technischen und rechtlichen Probleme ergeben sich daraus?61 Im Gegensatz zu den STS-Ansätzen geht es beim Retrocomputing um den Quelltext von Software und seiner Manipulation.62 Ausgeblendet werden hingegen sozioökonomische Faktoren. Derartige Forschungen bilden trotz des Hypes um eine „digitale Revolution“ und der Verbreitung der Digital Humanities noch immer eher 57 Bowker, Geoffrey C. & Star, Susan Leigh (2000): Sorting things out. Classification and its consequences. Cambridge & London, S. 135. 58 Ensmenger, Nathan L. (2010): The Computer Boys Take Over: Computers, Programmers, and the Politics of Technical Expertise: New. Cambridge, Mass.: Mit Pr., S. 3–8. 59 Vgl. Ernst, Wolfgang (2014): ZEITFLUCHTEN. Die Aufhebung des Retrocomputings in der Medienarchäologie, in: Höltgen, Stefan (Hg.): Shift Restore Escape: Retrocomputing und Computerarchäologie. Winnenden, Württ: CSW-Verlag. 60 Vgl. das Interview von Stefan Höltgen über Computerarchäologie in der Podcastreihe „Stimmen der Kulturwissenschaften“: http://stimmen.univie.ac.at/sdk81 [5.11.2014]. 61 Technisch lassen sich viele Systeme mittlerweile emulieren oder simulieren. Rechtliche Probleme können sich zum Beispiel aus der Umgehung eines Kopierschutzes ergeben. 62 Zahlreiche Beispiele finden sich im Sammelband Höltgen, Stefan (Hg.)(2014): Shift Restore Escape: Retrocomputing und Computerarchäologie. Winnenden, Württ: CSW-Verlag. Der Veröffentlichung ging eine Ringvorlesung voraus, deren Vorträge online verfügbar sind: https://www.youtube.com/user/medientheorien [5.11.2014].

170

Daniel Meßner

die Ausnahme – was auch mit der fehlenden Kompetenz des Programmierens in den Kultur- und Medienwissenschaften zusammenhängen könnte. Projekte, die sich mit digitalen Quellen, Software und Daten auseinandersetzen, lassen sich grob verallgemeinernd in zwei Lager teilen: Zum einen in eine theoriegeleitete Forschung zu den Auswirkungen der Digitalisierung. Bei diesen Arbeiten hat sich die Bezeichnung „Algorithmen“ als Forschungsobjekt durchgesetzt, meist mit der Perspektive, dass wir immer mehr von Algorithmen umgeben sind, die unsere Handlungen steuern und bestimmen. Ähnlich wie beim Begriff „Big Data“ häufen sich Publikationen und Konferenzen mit „Algorithmus“ im Titel oder ähnlichen Wortschöpfungen, wie „algorithmic epistemologies“, „algorithmic ontologies“ oder „computational cultures and algorithms“.63 Dabei ist meist abstrakt von „den“ Algorithmen die Rede, was sie letztlich zu modernen Mythen macht, die einer Dekonstruktion bedürfen. Solon Barocas, Sophie Hood und Malte Ziewitz stellen daher die Verwendung des Begriffs „Algorithmus“ als analytische Kategorie in Frage: „How do they do all this, and more? What exactly are algorithms „doing“, and what are the implications? Can an algorithm „do“ anything? And who or what are „algorithms“ anyway?“64

Zum anderen lässt sich eine praxisgeleitete Forschung beobachten, bei der das Erkenntnisinteresse der Auswertung und Deutung von Quellen gilt, die nun häufig digitalisiert und in großen Mengen vorliegen und anderen Entstehungskontexten entstammen. Lev Manovich entwickelt Strategien zur Analyse und Visualisierung von Daten: Ihm geht es um eine „large-scale computational analysis and interactive visualization of cultural patterns“, einen Ansatz, den er als „Cultural Analytics“ bezeichnet. Ausgangspunkt kann unter anderem auch User-generated Content sein, der in Echtzeit dargestellt wird.65 Neu ist die Frage keineswegs, wie mit der Zunahme an digitalisierten Daten umzugehen ist. Sie beschäftigte HistorikerInnen bereits in den 1960er Jahren und führte zu einer „Data driven History“, bei der geschichtswissenschaftliche Analysen mit statistischen und quantitativen Datenauswertungen entstanden, etwa durch den Aufbau von Datenbanken.66 In diesem Zusammenhang ist die Historische Fachinformatik zu nennen, wie auch das wachsende Forschungsfeld der „Digital Humanities“, das sich als Schnittpunkt zwischen angewandter Informatik und den Geistes- und Kulturwissenschaften versteht.67

63 Vgl. Tagungsbericht Algorithmic Cultures. 23.06.2014–25.06.2014, Konstanz, in: H-Soz-Kult, 29.10.2014, . 64 Bei dem Text von Solon Barocas, Sophie Hood und Malte Ziewitz „Governing Algorithms: A Provocation Piece“ handelt es sich um ein Paper zur Konferenz „Governing Algorithms“, die am 16.–17. Mai 2013 an der New York University stattfand. Aufzeichnung der Talks und einige Texte sind online verfügbar: http://governingalgorithms.org/ [5.11.2014]. 65 Umgesetzt hat Lev Manovich das Konzept beim Projekt Selfiecity: http://selfiecity.net/ [5.11. 2014], zahlreiche weitere Visualisierung finden sich auf der Website der „Software Studies Initiative“: http://lab.softwarestudies.com/ [5.11.2014]. 66 Vgl. Haber, Peter (2011): Digital Past. Oldenbourg Wissensch.Verlag, S. 112. 67 Es gibt inzwischen zahlreiche Beiträge zur Definition und Einordnung der Digital Humanities, siehe u.a. Gugerli, David/Hagner, Michael/Hirschi, Caspar/Kilcher, Andreas B./Purtschert,

Coding History – Software als kulturwissenschaftliches Forschungsobjekt

171

99 BOTTLES OF BEER: FORMALISIERUNG Lev Manovich beendet seinen Aufsatz „Media After Software“ mit der Zusammenfassung: „In short: media becomes software.“68 Gemeint ist damit, dass Anwender– Innen auf digitalisierte Daten mit Hilfe von Software-Applikationen zugreifen und damit die Eigenschaften und Manipulationsmöglichkeiten von Daten bestimmt werden. Zweifellos etablieren sich mit Software neue Imaginationen der Welt als Netzwerk und Datenbank. Damit einher geht eine Veränderung in der Dynamik des Wissens. Wie David Weinberger argumentiert, besteht der Wandel der Wissensordnungen vor allem darin, dass digitale Objekte gleichzeitig verschiedenen Strukturen zugeordnet werden können.69 Daher stellt sich die Frage, welche epistemologischen Folgen sich aus der Digitalisierung ergeben und in welcher Form Software darin verwickelt ist? Jede Form von Ordnung kann als limitierend oder ermöglichend beschrieben werden. Der Zugriff sowie die Kommunikation über Daten durch Applikationen, Datenbanken oder Plattformen wird letztlich im Verbund von Software, Hardware und UserInnen realisiert – und ist damit unter anderem abhängig davon, wie ein bestimmtes Problem in einer spezifischen Programmiersprache formalisierbar ist. Eine kulturwissenschaftliche Untersuchung von Software als historische Quelle muss daher Denkmodelle und Programmierlogiken berücksichtigen. Die Basisoperation jeder höheren Programmiersprache lautet „DO THIS with what you find HERE and go THERE with the result“70, und wird umgesetzt mit sog. „ifStatements“, das heißt, wenn eine Bedingung erfüllt ist, dann wird eine bestimmte Anweisung ausgeführt, oder nicht. Ergänzt wird diese Operation durch Schleifen, die es erlauben, Anweisungen mehrfach auszuführen bzw. so lange, bis eine Bedingung nicht mehr erfüllt ist.71 Diese Art der Formalisierung führt in Kombination mit der spezifischen Syntax verschiedener Programmiersprachen zu radikal unterschiedlichen Ergebnissen. Auf der Website „99 Bottles of Beer“72 findet sich der Songtext von „99 Bottles of Beer“ dargestellt mit Hilfe von 1.500 Programmiersprachen. Darunter sind auch viele Umsetzungen abrufbar, die keinen praktischen

68 69 70 71 72

Patricia/Sarasin, Philipp/Tanner, Jakob (2013): Nach Feierabend 2013: Digital Humanities. Diaphanes. Lev Manovich (2012): Media After Software, online verfügbar unter: http://softwarestudies. com/cultural_analytics/Manovich.Media_after_software.2012.pdf [5.11.2014]. Vgl. Weinberger, David (2010): Everything Is Miscellaneous: The Power of the New Digital Disorder. Times Books. Dyson, George (2012): Turing’s Cathedral. The Origins of the Digital Universe. London: Penguin Press Science, Position 5705 (Epub-Version). Es gibt unterschiedliche Schleifenformen, aber häufig anzutreffen sind „for“-Schleifen, „while“-Schleifen und „repeat-until“-Schleifen. Siehe: http://www.99-bottles-of-beer.net/ [5.11.2014], ein ähnliches Konzept steht hinter dem Projekt „Hello World“, wo die Ausgabe des Strings „Hello World“ in 150 Programmiersprachen dargestellt wird: http://www2.latech.edu/~acm/HelloWorld.shtml [5.11.2014].

172

Daniel Meßner

Zweck verfolgen, etwa eine Programmiersprache basierend auf Emoji. Jedoch lassen sich an den Beispielen die Unterschiede der Programmierparadigmen deutlich nachvollziehen.73 bottles 0 = "no more bottles" bottles 1 = "1 bottle" bottles n = show n ++ " bottles" verse 0 = "No more bottles of beer on the wall, no more bottles of beer.\ n" ++ "Go to the store and buy some more, 99 bottles of beer on the wall." verse n = bottles n ++ " of beer on the wall, " ++ bottles n ++ " of beer.\ n" ++ "Take one down and pass it around, " ++ bottles (n-1) ++ " of beer on the wall.\ n" main

= mapM (putStrLn . verse) [99,98..0]74

Die Codebeispiele unterscheiden sich jedoch nicht nur in der Art ihres Programmierparadigmas. Jedes Problem lässt sich auf diverse Arten lösen, das heißt, selbst bei den einfachsten Codebeispielen gibt es nicht eine einzige Lösung, sondern kann immer nur von einem Lösungsansatz gesprochen werden.75 Das bedeutet aber für die Interpretation von Programmcode in einer historisch-kulturwissenschaftlichen Analyse, dass Codealternativen und mögliche Auswirkungen berücksichtigt werden müssen. CONCLUSIO Bei der Frage nach Software und Code als Forschungsobjekt in den Geistes- und Kulturwissenschaften taucht eine Frage immer wieder auf: Müssen HistorikerInnen bzw. KulturwissenschaftlerInnen programmieren können? An der Stelle ist eine Präzisierung notwendig. Denn es liegt die Vermutung nahe, dass mit der Frage eigentlich eine Übertragung der Diskussion um „Code Literacy“ auf die Kultur- und Geisteswissenschaften stattfindet. „Code literacy is a requirement for participation in a digital world“, schreibt Douglas Rushkoff an verschiedenen Stellen und meint 73 Die theoretische Informatik unterscheidet zahlreiche Programmierparadigmen, am weitesten verbreitet sind objektorientierte, imperative oder deklarative Programmiersprachen. 74 Der Songtext dargestellt in Haskell, einer funktionalen Programmiersprache: http://www.99bottles-of-beer.net/language-haskell-1070.html [5.11.2014]. 75 Beispielsweise gibt es eigene Programmierwettbewerbe, um kreative Lösungen für bestimmte Programmierprobleme zu finden, wie beim „International Obfuscated C Code Contest“ http://www.ioccc.org/ [5.11.2014].

Coding History – Software als kulturwissenschaftliches Forschungsobjekt

173

damit, in Anlehnung an Alphabetisierung durch Lesen und Schreiben, dass die Fähigkeit Code lesen und analysieren zu können, in Zukunft eine entscheidende Grundlage für gesellschaftliche Partizipationsmöglichkeit darstellen wird.76 Was heißt aber „Programmieren können“ in diesem Zusammenhang? Genügt es beispielsweise Code verstehend lesen zu können? Kathrin Passig hat vorgeschlagen, Programmieren viel weiter zu fassen, als das häufig getan wird, indem sie den Begriff für alle Prozesse verwendet, bei denen ein Vorgang durch Rechenleistung automatisiert wird.77 In diesem Sinne lässt sich argumentieren, dass es von Vorteil ist, Programmierkenntnisse zu haben, weil bei vielen UserInnen überhaupt erst ein Verständnis dafür entsteht, welche Möglichkeiten durch Programmierung eröffnet werden können. Jemand, der heutzutage mit Joysticks oder morgen mit Data-Gloves analphabetisch in einen Computer hinein signalisiert, was ihm gerade gefällt, macht bestimmt phantastische körperliche Erfahrungen und entwickelt vielleicht auch neue Bewegungsformen [...]. Das gibt bestimmt eine blumenreiche Alltagskultur. An der Struktur ändert sich aber nichts.78

Die grundlegende Frage, die Kittler in dem Zitat aufwirft, stellt sich im Zusammenhang mit „Code Literacy“ und der Verdichtung und Zentralisierung digitaler Infrastruktur, wie sie derzeit stattfindet, in besonderem Maße. Die einfache Verfügbarkeit von Backend-Infrastruktur und die Verbreitung von graphischen Benutzeroberflächen führen dazu, dass Meinungsäußerungen und Partizipation nicht an Programmierkenntnisse gebunden sind. Für die Einrichtung eines Facebook-Accounts oder eines Blogs bei Wordpress genügt die Anmeldung mithilfe einer E-Mail-Adresse, aber es ist kein Verständnis von Serverinfrastruktur oder CMS-Programmierung notwendig. Eine Gegenposition zur Forderung nach „Code Literacy“ lautet daher, dass ein vermehrter kommunikativer Austausch über das Internet text- und bildbasiert ist – etwa in Diskussionsforen, auf Social Media-Plattformen oder in Blogs. Dort beobachtbare Phänomene wie „Hate Speech“ oder „Shitstorms“ lassen sich nicht über ein besseres technisches Verständnis lösen, sie haben aber allesamt mit Sprache und ihrem Umgang zu tun. „Programmieren ist nicht das neue Latein, nicht das neue Fach, was Teilhabe am öffentlichen Diskurs, an Wissenschaft und Politik ermöglicht“, schreibt Jürgen Geuter.79 Die Konsequenz daraus wäre, sich verstärkt auf Texte, ihre Analyse und Interpretationsmöglichkeiten zu konzentrieren und weniger auf die Programmierfähigkeiten. Ähnliche Debatten lassen sich zu „data literacy“ oder „digital literacy“80 führen. 76 Rushkoff, Douglas (2012): Code Literacy: A 21st-Century Requirement, http://www. edutopia.org/blog/code-literacy-21st-century-requirement-douglas-rushkoff [3.11.2014]. 77 Siehe ua. den Vortrag gemeinsam mit Anne Schüssler mit dem Titel „Irgendwo muss man halt anfangen – Programmieren für Nullcheckerbunnys“ auf der re:publica 2014: https://voicerepublic.com/talks/717 [3.11.2014]. 78 Kittler, Friedrich (1994): Die Parameter ändern. Ein Gespräch mit Rudolf Maresch am 4. April 1992, in: Tumult 19 (1994), S.119–131, hier: S.128. 79 Jürgen Geuter (2014): Ist Latein das neue Latein?, https://connected.tante.cc/2014/10/27/istlatein-das-neue-latein/ [3.11.2014]. 80 Colin Lankshear/Michele Knobel (2008): Digital Literacies: Concepts, Policies and Practices. New York: Peter Lang.

174

Daniel Meßner

Die Frage, ob HistorikerInnen in Zukunft programmieren können sollten, darf daher nicht mit einer allgemeinen „Code Literacy“ vermengt werden – ist aber dennoch wichtig: Müssen HistorikerInnen bzw. KulturwissenschaftlerInnen programmieren können, um weiterhin ihrer Arbeit nachgehen zu können? Peter Haber hat diese Frage verneint.81 Zwar mag es hilfreich sein, ein Basisverständnis der grundlegenden Programmierlogiken zu haben, da viele Analysetools ebenfalls digital und softwarebasiert sind, daraus lässt sich aber kein allgemeines Programmierparadigma ableiten, höchstens die Möglichkeiten, das Spektrum kulturwissenschaftlichen Arbeitens zu erweitern. Jedoch werden die notwendigen Fähigkeiten bei historischen Analysen immer von den Anforderungen des Quellenmaterials und den daran gestellten Fragestellungen bestimmt. Und es ist auch in Zukunft davon auszugehen, dass nicht sämtliche historische Projekte auf der Analyse digitaler Quellen basieren werden. Kulturwissenschaftliche Forschung bietet zahlreiche Perspektiven zur Analyse von Software. Abschließend folgt eine stichwortartige Auflistung der genannten Zugänge, die sich problemlos erweitern ließe und dementsprechend keinen Anspruch auf Vollständigkeit erhebt: Neben der Frage nach einer hermeneutischen Codeanalyse, muss die Logik und Formalisierung von Programmiersprachen untersucht werden. „Code is linked to material and practice“82, weshalb Hardware im Verbund mit Software und der Interaktion mit UserInnen ein wichtiges Analysefeld darstellt. Neben den Veränderungen in der Geschichte des Programmierens (etwa die Erfindung von Software Engineering oder die Institutionalisierung von Informatik), müssen gesellschaftspolitische Einschreibungen und Anwendungen berücksichtig werden – die auch die Frage nach dem Verhalten von Software und ihrer Qualitätssicherung beinhaltet. Hinzukommt eine Auseinandersetzung mit Praktiken des Archivierens und der Zugänglichmachung von (nicht mehr aktueller) Software und Hardware: Denn die Besonderheit in einer historischen Untersuchung von Software liegt in der Rekonstruktion und Analyse von Interaktion und ihrer Veränderung.

81 Vgl. Audiointerview mit Peter Haber: „Historiker müssen keine Informatiker sein“: http://www.lisa.gerda-henkel-stiftung.de/m_content.php?nav_id=1807 [3.11.2014]. 82 Vgl. Mackenzie, Adrian (2006): Cutting Code: Software and Sociality. New York: Peter Lang.

DIE DIGITAL HUMANITIES UND DER MENSCH Ein Kommentar Stefan Zahlmann Aus der Sicht des Historikers ist Vorsicht geboten: Sollten sich die Erwartungen, die heute mit den Digital Humanities verbunden werden, nicht erfüllen, wird mein Kommentar das Schicksal vieler fortschrittsoptimistischer Texte teilen, die seit der Aufklärung in vielen Bereichen der Natur- und Geisteswissenschaften das Erhoffte, das vermeintlich Kommende und Zukunftsweisende zunächst feierten und dann angesichts der Banalität des Eingetretenen zur Makulatur wurden. Ein junges Beispiel ist die aus heutiger Sicht berührend wirkende Begeisterung, mit der vor einigen Jahren die Möglichkeiten des Hypertexts begrüßt wurden. Natürlich gab es viele Projekte, in denen das wissenschaftliche Potential dieser Textform eindrucksvoll demonstriert wurde. Aber heute machen sich die Digital Natives unter den Wissenschaftlern gleichsam einen Spaß daraus, das Jahr der Veröffentlichung der Texte zu raten, in denen die Qualitäten von Hypertexten beschworen und gelungene Realisierungen vorgestellt wurden. Es scheint so zu sein, dass die technisch jeweils naheliegende Anwendung nicht eben zwingend auf das eigentlich Bedeutsame einer neuen Technologie verweist, sondern viel eher eine Verlängerung des Althergebrachten darstellt. Visionäre Entwürfe zur Nutzung moderner Technologien sollten, wollen sie massentauglich werden, zudem auch das Moment der menschlichen Bedürfnisse berücksichtigen: Nicht alles, was in der Kategorie des Möglichen imaginiert werden kann, vermag es, die subjektiven Anforderungen der Kategorie der Notwendigkeit zu erfüllen. Wird künftig noch ernsthaft von einer Zukunft für die Google Glass gesprochen werden? Und werden die digitalen Smartwatches dieses Schicksal teilen? Für einen Kommentar zu den Digital Humanities müssen allgemeinere Kategorien angesprochen werden, um auf die wissenschaftlichen Einsatzmöglichkeiten der Digitalisierung verweisen zu können. Und hierzu zählten sicherlich die wissenschaftlich noch nicht adäquat erfassten Wirkungen der Digitalisierung auf die Selbstwahrnehmung des Menschen. Denn es ist offensichtlich, dass die Digitalisierung ähnliche Veränderungen der technischen Lebenswelt für große Teile der Menschheit mit sich bringt wie die Demokratisierung der Mobilität durch den Individualverkehr mit Auto, Zug oder Flugzeug – um an dieser Stelle einmal den in diesem Kontext sonst obligatorischen Satz, die Digitalisierung sei in ihrer Bedeutung nur mit der Erfindung des Buchdrucks vergleichbar, durch einen Verweis auf ebenfalls bedeutsame Technikkulturen zu ersetzen. Es kann an dieser Stelle nicht darum gehen, derartige Wirkungen der Digitalisierung vollständig zu benennen; dass der Mensch und nicht die Technologie der axiomatische Referenzpunkt der Digital Humanities sind, stellt jedoch ihre einende Klammer dar.

176

Stefan Zahlmann

Nachdem die Digitalisierung wenigstens in den westlichen Gesellschaften den Status der Novität verloren hat und immer mehr Bereiche des Alltags wie selbstverständlich erfasst, haben unterschiedlichste Wissenschaftsdisziplinen damit begonnen, die praktischen und theoretischen Implikationen der Digitalisierung in den Blick zu nehmen. Angesichts des immer stärkeren und schnelleren Ineinandergreifens von wissenschaftlich-technischer Innovation und lebensweltlicher Erfahrung scheinen neben den Naturwissenschaften vor allem die Bereiche der Geistes- und Kulturwissenschaften, deren Teildisziplinen unter dem Label „Digital Humanities“ diese Entwicklung erforschen, herausgefordert, weiter zu denken als bis zur nächsten markttauglichen Applikation: Wie verändert sich die eigene Disziplin durch die Digitalisierung? Und wo verändert sich sie möglicherweise nicht? Was könnten die erkenntnisleitenden Kategorien der Digital Humanities sein? Dieser Beitrag ist aus Sicht des Historikers geschrieben und steckt das Feld, von dem aus man sich den Antworten auf diese Fragen nähern könnte, aus fachspezifischer Perspektive ab. Dass zu viele Bücher über große Männer geschrieben wurden, ist ein Erbe, an dem die Geschichtswissenschaft bis in die Gegenwart trägt. Dass trotz Freud deutlich zu wenige Bücher über verrückte Männer geschrieben wurden, zeigt, dass bedauerlicherweise nicht jede wissenschaftliche Neuerung ihren Niederschlag in der geschichtswissenschaftlichen Forschung gefunden hat. Die Erkenntnis, dass die digitale Welt in ihrem Innersten durch Nullen und Einsen zusammengehalten wird, scheint jedoch zugleich abstrakt und umfassend genug, um für die historischen Disziplinen allgemeine Überlegungen über die Identität historischer Akteure einzufordern. Denn wenn der Verdacht entsteht, dass der Computer an Bord eines Flugzeugs imstande ist, gegen den Willen von Pilot und Copilot einen letztendlich zum Absturz führenden Sinkflug einzuleiten; wenn der normale Nutzer eines Computers nicht mehr in der Lage ist, eine einzige Zeile der Programme, die er nutzt, selbst zu schreiben, dann kann dem Prozessor eine Eigenständigkeit zugewiesen werden, die ihn in den Rang des historischen Akteurs erhebt! Den Digital Humanities erwachsen durch die Digitalisierung nicht nur ihre Untersuchungsgegenstände, neue Formen der Speicherung von und des Zugriffs auf Informationen, sondern auch neue Konzepte menschlicher Identität und menschlichen Handelns. Der Prozessor ist vor diesem Hintergrund nicht mehr in ein Modell einzuordnen, das technischen Medien vor allem den Charakter einer Prothese zuweist, durch die ein Mensch Arbeit etwas schneller, besser oder leichter verrichten kann – und möglicherweise verdeutlicht dieses Phänomen, dass das anthropozentrische Denken in diesem Zusammenhang ohnehin bereits nur noch eine Folie ist, vor deren Hintergrund sich weniger das abbildet, was alles sein kann als lediglich das, was man sich von einer technologischen Modernisierung erhofft hatte. Vielleicht verweist die Fülle der wissenschaftlichen Texte, die sich der Digitalisierung widmen, damit gerade auf das Bemühen, zumindest noch auf dem Feld der theoretischen Reflexion den Anspruch menschlicher Autonomie oder wenigstens individueller Kontrollmöglichkeit für sich reklamieren zu können, der in der lebensweltlichen Realität längst durch die Routinen namenloser Algorithmen überschrieben wird. Der Komplex aus Autorschaft und Identität wäre dann nicht nur in den Bereichen aus Produktion und Verwertung geistigen Eigentums in digitalen Technologien, sondern auch bereits im Schreiben

Die Digital Humanities und der Mensch – ein Kommentar

177

über Digitalisierung relevant. Meine Prognose ist – und hier ist meine Hoffnung auf Bewahrheitung so groß, dass ich dem möglichen Spott der digitalen Geschichtswissenschaft kommender Jahre an dieser Stelle nicht ausweichen werde –, dass das Denken über die Digitalisierung ohne Zweifel wichtiger ist als ihre unmittelbare technische Realisierung im akademischen Betrieb: Denn die Frage nach den Grenzen des menschlichen Körpers, der Bedeutung der möglichen Überwachung nahezu aller menschlichen Aktionen, die stetige Dynamisierung der Kommunikationsmöglichkeiten, die tiefgreifenden Veränderungen der Arbeitswelt, der Stellenwert der globalen Anwendung digitaler Angebote multinationaler Konzerne und zahllose andere Aspekte, die mit der Digitalisierung einhergehen, von ihr gefördert oder verhindert werden, sind es, die in den kommenden Jahren die wissenschaftlichen Kategorien, Theorien und Methoden der Digital Humanities definieren und ihren Anschluss an andere geistes- und kulturwissenschaftliche Fächer erleichtern werden. Im Beitrag von Mareike König wird etwa am Beispiel des Bloggens die Frage nach den Konzepten und Öffentlichkeiten von Wissenschaftlichkeit gestellt, die mit dieser Form des Publizieren verbunden werden können. Zugleich wird die Praxis derartigen digitalen Schreibens mit der schriftlichen Kommunikationskultur von Gelehrten der Frühen Neuzeit verglichen. Diese Gedanken verweisen sowohl auf die Traditionslinien, in denen das Publizieren im digitalen Zeitalter steht, als auch auf das immense Innovationspotenzial, das mit dem wissenschaftlichen Bloggen einhergehen kann. Offensichtlich ist, dass viele Implikationen, die mit diesem digitalen Publizieren verbunden und die vielfach auch als problematisch eingeschätzt werden (etwa die Gefahr möglichen Diebstahls geistigen Eigentums oder die fehlende Akzeptanz wissenschaftlichen Bloggens durch arrivierte WissenschaftlerInnen), eher auf Rückzugsgefechte einer konservativen Wissenschaftskultur verweisen. Die neuen Formen des multimedialen wissenschaftlichen Schreibens werden vor allem dann ihren Stellenwert in der akademischen Praxis beweisen, wenn sich auch die Formen der wissenschaftlichen Praxis von den traditionellen Formaten wissenschaftlicher Problembearbeitung lösen können. Der Erfolg der wissenschaftlichen Digitalisierung ist keine Frage der Zugehörigkeit zu einer akademischen Generation, sie ist kein Steckenpferd des unter prekären Lebensumständen leidenden Nachwuchses, sondern bedeutet die Anerkennung spezifischer Formen eines neuen wissenschaftlichen Denkens und Arbeitens, damit die Zugehörigkeit zu einer neuen, digitalen und prinzipiell internationalen GelehrtInnenrepublik. Was aus geschichtswissenschaftlicher Perspektive zunächst eher unbedeutend erscheint – und an dieser Stelle von den VertreterInnen und Vertretern anderer Disziplinen sicherlich viel präziser dargestellt werden könnte – ist der Aspekt der Ästhetik. Das Design des digitalen Phänomens selbst, seine spezifische Visualität oder Akustik; die Erscheinungsweise und Haptik der eingesetzten Geräte, die Erkennbarkeit oder gerade gänzliche Unsichtbarkeit des Digitalen an sich ist ein Bereich, der nicht nur die wissenschaftlichen Nutzungsmöglichkeiten der Digitalisierung beeinflusst, sondern auch die Akzeptanz durch größere Bevölkerungsgruppen definiert. So wurde jahrelang dem Buchhandel das elektronische Buch als Entwicklung der Zukunft versprochen (oder angedroht), jetzt hat sich das elektronische Lesen weitgehend durchgesetzt – sowohl auf spezifischen E-Book-Readers verschiedener Anbieter als

178

Stefan Zahlmann

auch auf anderen digitalen Geräten mit ausreichend groß scheinendem Display. Parallel jedoch existieren analoge Texte weiterhin, erlebt das Schreiben von persönlichen Briefen mit der eigenen Hand eine Renaissance, bleibt das Lesen gedruckter Bücher und Zeitschriften eine liebgewonnene Praxis des Alltags. Dass auch jenseits der sozialen Netzwerke viele digitale Anwendungen einen festen Stellenwert im Leben der Menschen eingenommen haben, verdanken sie der Fähigkeit des Menschen, die eigene Identität in sehr komplexen, einander oft widersprechenden, Handlungen und ihrer selbstreflexiven Betrachtung zu inszenieren. Warum sollten wir es mit unserem wissenschaftlichen Alltag anders halten? In den Gesellschaften des Westens ist es mit der Digitalisierung wie mit dem Essen: Es ist nicht länger eine Frage der physischen Bedarfsdeckung, sondern des Geschmacks. Eine bewusste Nutzung des Digitalen ebenso wie die des Analogen erfolgt situativ und subjektiv. Die sich hieraus ableitbaren Fragen über die (Neu)Definitionen des „Privaten“ und „Öffentlichen“, des „Alten“ und „Neuen“ und vergleichbarer Gegensatzpaare können sicherlich ohne größere Mühe von den an den Digital Humanities beteiligten Disziplinen aufgegriffen werden, hierbei darf jedoch eine besondere Qualität in der Konkurrenz zwischen analogen und digitalen Phänomenen der Alltagskultur nicht übersehen werden: Wenn die Grenzen des Privaten durch die Digitalisierung fließender geworden sind, dann hat dies auch Konsequenzen für den ausgeübten Beruf. Jede wissenschaftliche Beschäftigung mit den Möglichkeiten der Digitalisierung für die eigene Disziplin muss entsprechend auch in dem Bewusstsein erfolgen, dass Wissenschaftlerinnen und Wissenschaftler selbst Teil der digitalen Kultur sind, die sie analysieren. Vor diesem Hintergrund ist es unverzichtbar festzuhalten, dass die wachsenden Möglichkeiten, unglaublich viele Informationen über vergangene und aktuelle Lebenswelten zu speichern und zueinander in Beziehung zu setzen, zu Quellen führen werden, die nicht a priori vorhanden sind, sondern von WissenschaftlerInnen erzeugt werden. In welchem Umfang die Subjektivität der hierbei beteiligten Personen diesen Quellen ein charakteristisches Profil verleihen mag – wie es etwa mit den Quellen der Oral History der Fall ist – kann an dieser Stelle nicht ermessen werden. Es ist jedoch wichtig und unterstreicht das prinzipiell Innovative der Digital Humanities für das wissenschaftliche Denken, dass die individuelle Perspektive und Kreativität des forschenden Menschen explizit gemacht werden kann. Denn auch wenn ein Prozessor zum historischen Akteur werden kann: Selbstreflexivität, Spontanität und assoziatives Denken sind Eigenschaften des menschlichen Geistes, die nicht digital kopiert werden können. Aber diese Überzeugung mag auch darin begründet sein, dass ich wissenschaftlich ohnehin in einem Denken sozialisiert wurde, das bei aller Funktionalität der Verschlagwortung von Quellenmaterialien in Archiven und selbst angesichts des umfänglichsten Findbuchs zur Strukturierung der hier auffindbaren analogen „Big Data“ (vgl. den Beitrag von Wolfgang Schmale in diesem Band) vielfach immer noch dem Archivar mit seiner Intuition und seinem Erinnerungsvermögen vertraut, wenn etwas gefunden werden muss, was ohne die Wahrnehmung des Menschen durch die Raster vereinheitlichter, starrer Ordnungsschemata fällt.

Die Digital Humanities und der Mensch – ein Kommentar

179

Wenn die Digitalisierung so unmittelbar mit dem Denken und Leben des Menschen verbunden ist, dass gleichsam stets der schwere Anker des biologisch Analogen mitzudenken ist, und zudem in der Perspektive auf die Geschichte der neuzeitlichen Wissenskulturen alles auch schon vor der Digitalisierung irgendwie schon einmal „da“ gewesen zu sein scheint, verweisen die wissenschaftlichen Projekte der Digital Humanities dann nicht auf einen Etikettenschwindel, nur auf neuen Wein in alten Schläuchen? Sicher nicht. Denn viele Aspekte der Digitalisierung sind, um nur ein naheliegendes Beispiel zu nehmen, etwa in der Wissenschaft so selbstverständlich aufgenommen worden, dass sie als solche längst nicht mehr als Neuerungen in Erscheinung treten. Denn der wesentliche produktive Faktor, der hier mit der Digitalisierung einhergeht, ist, dass er die Prinzipien wissenschaftlichen Forschens und Lehrens (und zwar nicht nur der WissenschaftlerInnen, die im Bereich der Digital Humanities forschen), nachdrücklich gestärkt hat. Das wissenschaftliche Schreiben, Publizieren und Lesen; die Sichtung und Auswertung von Quellen; der Alltag der Lehre und der wissenschaftlichen (Selbst)Verwaltung – alles ist heute nicht mehr denkbar ohne Digitalisierung. Neben derartigen technischen Hilfestellungen wird heutigen WissenschaftlerInnen die Internationalisierung ihrer Berufsbiographie erleichtert, neue multimediale Öffentlichkeiten und eine Flexibilisierung in der Einteilung ihrer Arbeits- und Freizeit. Es mag sein, dass das Profil von WissenschaftlerInnen heute vor allem entlang der Grenzen des digital Machbaren und erfolgreich Umgesetzten definiert wird. Die kulturelle Physiognomie des modernen Menschen an sich mag vor diesem Hintergrund ebenfalls eine eigentümliche Gestalt erhalten, wird angesichts einer Konzentration etwa auf Daten aus Kaufverhalten und der Nutzung von social media sogar unübersehbar verstellt. Welche Zukunft das Verhältnis aus Digitalisierung und menschlicher Identität haben wird, wird sicherlich auch durch die Forschungsergebnisse der Digital Humanities beeinflusst – wenn der Mensch nicht aus dem Fokus ihrer wissenschaftlichen Perspektiven verschwindet.

KURZBIOGRAPHIEN Dr. Anne Baillot, Humboldt-Universität zu Berlin, Institut für deutsche Literatur. Schwerpunkte: Literatur der Sattelzeit, französisch-deutscher Kulturtransfer, Digital Humanities, Edition. Publikationen: http://tei.ibi.hu-berlin.de/berliner-intellektuelle/ und http://digitalintellectuals.hypotheses.org/. Annika Dille (M.A.), Studium der Skandinavistik am Nordeuropa-Institut der Humboldt-Universität zu Berlin mit den Schwerpunkten digitaler Wandel in Nordeuropa sowie kulturpolitische Online-Kommunikation und digitale Wissensvermittlung in Dänemark. Sie ist Autorin auf dem kooperativen Forscherblog nordichistoryblog.hypotheses.org und absolviert derzeit ein Traineeship im Bereich Kommunikation und Marketing bei einem großen Internetunternehmen. Dr. Mareike König ist Historikerin und wissenschaftliche Bibliothekarin. Sie leitet die Abteilungen 19. Jahrhundert, Digital Humanities und die Bibliothek des Deutschen Historischen Instituts Paris. Ihre Interessensschwerpunkte liegen auf der deutsch-französischen Geschichte des 19. Jahrhunderts sowie auf Wissenschaftskommunikation und -publikation in den Geisteswissenschaften vorrangig im Web 2.0. Sie leitet das Blogportal für die deutschsprachigen Geistes- und Sozialwissenschaften de.hypotheses.org, das seit 2012 existiert und derzeit über 250 Wissenschaftsblogs beherbergt. Zu ihren Veröffentlichungen in diesem Bereich gehört: Die Entdeckung der Vielfalt: Geschichtsblogs auf der internationalen Plattform hypotheses.org, in: Peter Haber, Eva Pfanzelter (Hg.): Historyblogosphere. Bloggen in den Geschichtswissenschaften, München (Oldenbourg) 2013, S. 181–197. [DOI: 10.1524/9783486755732.181]. Dr. Josef Köstlbauer, Historiker, lehrt und forscht an der Universität Wien. Er publiziert zu Digital Humanities, Computerspiel, barocken Erdteilallegorien, kolonialen Grenzräumen und Atlantic history. Kürzlich erschienen: „Do Computers Play History?“ In: Florian Kerschbaumer, Tobias Winnerling (Hg.), Early Modernity and Video Games. Cambridge: Cambridge Scholars Publishing. 25–36. Daniel Meßner ist IFK-Juniorfellow Abroad am Max-Planck-Institut für Wissenschaftsgeschichte und der TU Berlin. Er hat in Regensburg und Wien Geschichte und Kulturwissenschaften/Cultural Studies studiert und war von 2010 bis 2013 Stipendiat der Österreichischen Akademie der Wissenschaften (DOC-team) mit dem Projekt „Verdaten. Klassifizieren. Archivieren. Identifizierungstechniken zwischen Praxis und Vision“ (http://identifizierung.org). In seiner Dissertation untersucht er die Erfindung und Einführung von biometrischen Identifizierungstechniken um 1900. Neben der Herausgabe der Podcastreihe „Stimmen der Kulturwissenschaf-

182

Kurzbiographien

ten“ (http://stimmen.univie.ac.at) forscht er im Rahmen des Projektes „Coding History“ (http://codinghistory.com) zur Geschichte von Software und Programmierung. In seiner Beschäftigung mit den Digital Humanities widmet er sich vor allem der Analyse von Werkzeugen des Schreibens und Publizierens. Twitter: @meszner. Martin Schaller hat Geschichte und Volkswirtschaftslehre in Wien studiert sowie das Masterstudium „Modern History“ an der University of St Andrews abgeschlossen, wo er momentan an seiner Dissertation über Reisen im Habsburger Reich im 19. Jahrhundert arbeitet. Seit April 2014 ist Martin Schaller im Rahmen seiner Tätigkeit an der Österreichischen Nationalbibliothek in diversen europäischen Projekten involviert, beispielsweise im Zeitungsdigitalisierungsprojekt „Europeana Newspapers“. Wolfgang Schmale ist Professor für Geschichte der Neuzeit an der Universität Wien mit einem Schwerpunkt in den Digital Humanities. Wissenschaftliches Weblog: wolfgangschmale.eu. Twitter: @WolfgangSchmale. „Digitale Geschichtswissenschaft“, Wien: Böhlau 2010. Markus Schnöpf, M.A., MA (lis), Wissenschaftlicher Mitarbeiter an der BerlinBrandenburgischen Akademie der Wissenschaften, dort TELOTA (The Electronic Life Of The Academy), Mitglied des Instituts für Dokumentologie und Editorik Schwerpunkte: Informationsversorgung im digitalen Zeitalter (k.w.), digitale Editionen, Wissenschaftsgeschichte Veröffentlichungen: Akademieregistres 1746–86 (http://akademieregistres.bbaw.de), Corpus Coranicum (http://www.corpuscoran icum.de). Anton Tantner, seit 2012 Privatdozent für Neuere Geschichte an der Universität Wien; Forschungsschwerpunkte: Digital Humanities, Geschichte der Informationsvermittlung, Kulturtechnik der Nummerierung; Mitglied der Redaktion der Frühneuzeit-Info und von de.hypotheses.org; Veröffentlichung zu Digital Humanities ua: Geschichte Online. Einführung in das wissenschaftliche Arbeiten (gemeinsam mit Franz X. Eder, Heinz Berger, Julia Cassutt-Schneeberger), Wien/Köln/Weimar: UTB, 2006; Homepage mit Galerie der Hausnummern: http://tantner.net Thomas Walach, geboren 1983 in Wien, studierte in seiner Geburtsstadt Geschichtswissenschaft. Er ist Lektor am Institut für Geschichte der Universität Wien. Derzeitige Schwerpunkte in Forschung und Lehre sind Geschichtstheorie, Populärkultur als geschichtswissenschaftliche Quelle und Digitalisierung. Jüngst erschienen: „The Simpsons Did It! Postmodernity in Yellow“, Wien 2015 (mit Martin Tschiggerl). Stefan Zahlmann, Prof. Dr., *1968, Studium der Geschichtswissenschaften an der Universität Münster, Promotion zur Geschichte der Werbung, Habilitation zu deutschen und amerikanischen Erinnerungskulturen. Professor für Theorie und Geschichte von Medienkulturen (18. bis 20. Jahrhundert) am Institut für Geschichte

Kurzbiographien

183

der Universität Wien. Forschungsschwerpunkte: Geschichts- und Wissenschaftstheorie, Medienkulturen. Jüngste Veröffentlichung: Stefan Zahlmann (Hg.): Medienkulturen der Moderne, Berlin 2015.

h i s t o r i s c h e m i t t e i lu ng e n



beihefte

Im Auftrage der Ranke-Gesellschaft, Vereinigung für Geschichte im öffentlichen Leben e. V. herausgegeben von Jürgen Elvert. Wissenschaftlicher Beirat: Winfried Baumgart, Michael Kißener, Ulrich Lappenküper, Ursula Lehmkuhl, Bea Lundt, Christoph Marx, Jutta Nowosadtko, Johannes Paulmann, Wolfram Pyta, Wolfgang Schmale, Reinhard Zöllner.

Franz Steiner Verlag

ISSN 0939–5385

78. Günter Wollstein Ein deutsches Jahrhundert 1848–1945. Hoffnung und Hybris Aufsätze und Vorträge 2010. 437 S. mit 2 Abb., geb. ISBN 978-3-515-09622-5 79. James Stone The War Scare of 1875 Bismarck and Europe in the Mid-1870s. With a Foreword by Winfried Baumgart 2010. 385 S., kt. ISBN 978-3-515-09634-8 80. Werner Tschacher Königtum als lokale Praxis Aachen als Feld der kulturellen Realisierung von Herrschaft. Eine Verfassungsgeschichte (ca. 800–1918) 2010. 580 S., kt. ISBN 978-3-515-09672-0 81. Volker Grieb / Sabine Todt (Hg.) Piraterie von der Antike bis zur Gegenwart 2012. 313 S. mit 15 Abb., kt. ISBN 978-3-515-10138-7 82. Jürgen Elvert / Sigurd Hess / Heinrich Walle (Hg.) Maritime Wirtschaft in Deutschland Schifffahrt – Werften – Handel – Seemacht im 19. und 20. Jahrhundert 2012. 228 S. mit 41 Abb. und 4 Tab., kt. ISBN 978-3-515-10137-0 83. Andreas Boldt Leopold von Ranke und Irland 2012. 28 S., kt. ISBN 978-3-515-10198-1 84. Luise Güth / Niels Hegewisch / Knut Langewand / Dirk Mellies / Hedwig Richter (Hg.) Wo bleibt die Aufklärung? Aufklärerische Diskurse in der Postmoderne. Festschrift für Thomas StammKuhlmann

85.

86.

87.

88.

89.

90.

2013. 372 S. mit 12 Abb., kt. ISBN 978-3-515-10423-4 Ralph L. Dietl Equal Security Europe and the SALT Process, 1969–1976 2013. 251 S., kt. ISBN 978-3-515-10453-1 Matthias Stickler (Hg.) Jenseits von Aufrechnung und Verdrängung Neue Forschungen zu Flucht, Vertreibung und Vertriebenenintegration 2014. 204 S., kt. ISBN 978-3-515-10749-5 Philipp Menger Die Heilige Allianz Religion und Politik bei Alexander I. (1801–1825) 2014. 456 S., kt. ISBN 978-3-515-10811-9 Marc von Knorring Die Wilhelminische Zeit in der Diskussion Autobiographische Epochencharakterisierungen 1918–1939 und ihr zeitgenössischer Kontext 2014. 360 S., kt. ISBN 978-3-515-10960-4 Birgit Aschmann / Thomas Stamm-Kuhlmann (Hg.) 1813 im europäischen Kontext 2015. 302 S., kt. ISBN 978-3-515-11042-6 Michael Kißener Boehringer Ingelheim im Nationalsozialismus Studien zur Geschichte eines mittelständischen chemisch-pharmazeutischen Unternehmens 2015. 292 S. mit 16 Abb. und 13 Tab., kt. ISBN 978-3-515-11008-2

Digital Humanities befinden sich im Aufwind. Die Digitalisierung von Quellen und wissenschaftlichen Publikationen gehört inzwischen zum Standard, Normdaten machen eine globale Vernetzung wissenschaftlicher Informationen möglich, Smartphone-Apps sorgen für eine leichte Verbreitung von anwendungsorientierten Forschungsergebnissen, Wissenschaftler kommunizieren per Blog und Tweet, Professuren und Zentren für Digital Humanities werden geschaffen. Hinter dieser leicht zu benutzenden und zu bedienenden Oberfläche stehen oftmals komplexe Systeme, die auf eine jahrzehntelange Entwicklung zurückgehen. In diesem Band durchleuchten ausgewiesene Expertinnen und Experten die digitale Theorie und Praxis in den Historischen Kulturwissenschaften, dem Kern der Digital Humanities, anhand von aktuellen Schlüsselthemen.

www.steiner-verlag.de Franz Steiner Verlag

ISBN 978-3-515-11142-3