studiolo: Kooperative Forschungsumgebungen in den eHumanities 9783110364842, 9783110364644

Research and communication processes in the arts and humanities are undergoing profound change. On the one hand, the dig

185 8 3MB

German Pages 156 Year 2017

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
Editorial
Inhaltsverzeichnis
„Studiolo Communis“
Unterstützung kontingenter Wissensarbeit
Konstellationsforschung als methodischer Ansatz für kooperative Forschungsumgebungen in der Kunst- und Architekturgeschichte
Wissensordnungen im analogen und im digitalen Zeitalter
Erfolgsfaktoren für virtuelle Forschungsumgebungen
Unterstützung des Forschungsprozesses aus infrastruktureller Sicht
Das subversive Bild
„Studiolo Communis“
The Getty Research Portal
Zum gegenwärtigen Stand und den Perspektiven digitaler Musikeditionen
Autorenverzeichnis
Abbildungsnachweise
Personen- und Sachregister
Recommend Papers

studiolo: Kooperative Forschungsumgebungen in den eHumanities
 9783110364842, 9783110364644

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

studiolo

Band 1

Reflexe der immateriellen und materiellen Kultur Herausgegeben von Eva-Maria Seng und Frank Göttmann

Eva-Maria Seng, Reinhard Keil und Gudrun Oevel (Hrsg.) in Zusammenarbeit mit Frank Göttmann

studiolo Kooperative Forschungsumgebungen in den eHumanities

De Gruyter

Gedruckt mit großzügiger finanzieller Unterstützung der Deutschen Forschungsgemeinschaft

ISBN 978-3-11-036464-4 e-ISBN (PDF) 978-3-11-036484-2 e-ISBN (EPUB) 978-3-11-039122-0 ISSN 2199-4331 Library of Congress Cataloging-in-Publication Data A CIP catalog record for this book has been applied for at the Library of Congress. Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.dnb.de abrufbar. © 2018 Walter de Gruyter GmbH Berlin/Boston Entwurf des Einbandes: Lehrstuhl für Materielles und Immaterielles Kulturerbe, Universität Paderborn Satz: SatzBild, Ursula Weisgerber Druck und Bindung: Hubert & Co GmbH & Co. KG, Göttingen ♾ Gedruckt auf säurefreiem Papier Printed in Germany www.degruyter.com

Editorial

Der Tagungsband „studiolo. Kooperative Forschungsumgebungen in den eHumanities“ eröffnet eine neue Reihe. Die Stichwörter seines Titels spiegeln das Anliegen eines Unternehmens, das inhaltlich, theoretisch und methodisch offen Wissenschaftsdisziplinen zusammenzuführen sucht, die traditionell scheinbar wenig miteinander gemein haben und getrennte Wege beschritten haben. Das modische Wort von Innovationen verliert in Zeiten diverser turns und Etikettierungen als Paradigmenwechsel viel von seinem Glanz, wenn sich der Betrachter auf die Bedeutung des studiolo besinnt. Als institutionelle und geistige Sinneinheit und Träger der Sammlung von Wissen und der Generierung, Organisation und Speicherung neuen Wissens und dessen Verfügbarmachung für fortschreitende Wissensprozesse verkörpert das studiolo der Renaissance – zugleich also Sammlungs-, Forschungs-, Lehr- und Lernort – modellhaft die Idee unserer Reihe: Forum zu sein für die Reflexion über alles materiell und immateriell Vorfindbare und über die Verwobenheit und die wechselseitige Konstitution von dessen Einzelelementen sowie Forum schließlich für die Reflexion über die kulturelle, gesellschaftliche und politische Bedeutung dieses Komplexes und über seine mediale Repräsentanz. Die angedeuteten Bedingungen und Bedingtheiten mögen im Falle des ersten Bandes der Reihe angesprochen sein mit den „Kooperativen Forschungsumgebungen“, zugleich institutioneller Wirkungsrahmen und Arbeitsprozess. Und schließlich steht der Begriff „eHumanities“ für die Wiedervereinigung der im neuzeitlichen Spezialisierungsprozess verlorengegangenen Einheit geisteswissenschaftlicher und natur- und technikwissenschaftlicher Gegenstände, Fragestellungen und Methoden. Der Reihentitel „Reflexe der immateriellen und materiellen Kultur“ spiegelt inhaltlich, theoretisch und methodisch folgende Ziele: Inhaltlich sollen Forschungsarbeiten erfasst werden, die sich mit Artefakten und Phänomenen menschlicher kultureller Hervorbringungen und der verändernden und gestaltenden Auseinandersetzung damit beschäftigen. Zugrundegelegt wird dabei ein umfassender Kulturbegriff, der nicht nur alle materiellen und immateriellen Daseinsbereiche und Existenzbedingungen – Stichwort „conditio humana“ – meint, sondern auch „Natur“ als zugleich bedingende, gewordene und gestaltete Umwelt mit einbezieht. Wenn auch zeitlich und räumlich prinzipiell

VI

|     Editorial

keine Vorwegfestlegungen getroffen werden können, werden sich in der Reihe vornehmlich Themen finden, die vom Beginn der Neuzeit bis zur Gegenwart reichen und räumlich in Europa wurzeln. Theoretisch soll der Begriff „Reflexe“ im Sinne von Reflexivität die beiden aufeinander bezogenen, untrennbaren Seiten der Auseinandersetzung mit einem Gegenstand ausdrücken: Der spiegelnde Lichtschein, Reflex, ist auf der einen Seite zu verstehen als Metapher für den von einem Phänomen oder Artefakt ausgehenden sinnlichen Eindruck und dessen Eindringen ins Bewusstsein oder auch direkt als körperliche Reaktion auf einen physikalischen Reiz. Auf der anderen Seite ist Reflex zu verstehen als aktive, intentionale Gestaltung von materieller und geistiger Umwelt, und zwar intellektuell durchaus im Sinne von Reflexion über einen Gegenstand sowie im Sinne von Formung eines Gegenstandes oder auch Generierung eines neuen. Damit ist zugleich der Vorgang einer Zuschreibung von Eigenschaften und Vorstellungen an ein Objekt und davon ausgehender Wirkungen und somit Einschreibung von Bedeutung in dasselbe ausgedrückt, woraus sich allererst gesellschaftlich-kulturelle Relevanz ergibt. Genau dieser daseinsund geschichtsmächtige produktive Zwischenbereich zwischen Materiellem und Immateriellem, ohne den nichts ist und nichts wird, verkörpert die durchgängige Leitidee der in die Publikationsreihe aufzunehmenden Monographien und Sammelbände, durch­ exerziert auf durchaus unterschiedlichen Forschungsfeldern. Methodisch soll die Buchreihe offen sein für das gesamte kulturwissenschaftliche Methodenrepertoire, wenn auch mit einem gewissen Akzent auf kunst- und architekturhistorischen Verfahrens- und Darstellungsweisen. Freilich sollen möglichst inter- und transdisziplinäre Fragestellungen und Untersuchungsfelder die Reihe repräsentieren und ihr ein entsprechendes Gesicht geben. Das heißt etwa, dass auch Grenzüberschreitungen aus den Kulturwissenschaften zu Disziplinen gepflegt werden sollen, die herkömmlich den Natur- und Ingenieurwissenschaften zugerechnet werden. Paderborn, im Sommer 2017 Eva-Maria Seng, Frank Göttmann

Inhaltsverzeichnis

Editorial   V Eva-Maria Seng, Reinhard Keil und Gudrun Oevel „studiolo communis“ Einleitung  1 Reinhard Keil Unterstützung kontingenter Wissensarbeit Ein Rahmenwerk für die Entwicklung digitaler Arbeitsumgebungen zur Unterstützung des Forschungsdiskurses in den Kulturwissenschaften   7 Eva-Maria Seng Konstellationsforschung als methodischer Ansatz für kooperative Forschungsumgebungen in der Kunst- und Architekturgeschichte   27 Jörn Sieglerschmidt Wissensordnungen im analogen und im digitalen Zeitalter   35 Michael Franke Erfolgsfaktoren für virtuelle Forschungsumgebungen   57 Andreas Brennecke, Gudrun Oevel und Thomas Strauch Unterstützung des Forschungsprozesses aus infrastruktureller Sicht   67 Martin Warnke Das subversive Bild   77

VIII |     Inhaltsverzeichnis

Doris Annette Hartmann und Andreas Oberhoff „studiolo communis“ Digitale Unterstützung des Forschungsdiskurses in der Kunst- und Architekturgeschichte   85 Joseph M. Shubitowski The Getty Research Portal Unified Access to the Early Literature of Art History   97 Joachim Veit Zum gegenwärtigen Stand und den Perspektiven digitaler Musikeditionen   115 Autorenverzeichnis   137 Abbildungsnachweise   143 Personen- und Sachregister   145

Eva-Maria Seng, Reinhard Keil und Gudrun Oevel

„studiolo communis“ Einleitung

Der vorliegende Tagungsband enthält Beiträge, die anlässlich der Abschlusstagung des Projektes „studiolo communis – eine ko-aktive Arbeitsumgebung für einen erweiterten Forschungsdiskurs in der Kunst- und Architekturgeschichte“ am 22. und 23. Juli 2013 in Paderborn vorgestellt und diskutiert wurden. Das Projekt wurde im Rahmen des Programms „Wissenschaftliche Literaturversorgungs- und Informationssysteme (LIS)“ von der Deutschen Forschungsgemeinschaft (DFG) gefördert. In dem interdisziplinären Forschungsprojekt „studiolo communis“ wurde in Anlehnung an das studiolo der Renaissance – ein mit Kunstwerken, Studienobjekten und Büchern ausgestatteter Raum zum Studieren und zur Kontemplation – eine Arbeitsumgebung im Sinne einer virtuellen Forschungsumgebung entwickelt, die das Untersuchen, Vergleichen, Bewerten, Verknüpfen und Kommentieren von Medienobjekten und Forschungsergebnissen sowohl des einzelnen Forschers als auch der forschenden Gemeinschaft im Austausch untereinander auch über weite Entfernungen hin (studiolo communis) ermöglichen soll. In den vergangenen Jahren hat sich im Bereich der sogenannten eHumanities oder Digital Humanities viel verändert. War die Forschung in diesen Bereichen bislang geprägt von aufwendigen und kostenintensiven Archiv- und Bibliotheksreisen, verspricht die zunehmende umfangreiche Digitalisierung des Quellenmaterials eine globale Verfügbarkeit vom Schreibtisch aus. So wurden inzwischen zahlreiche Archiv-, Bibliotheksund Bildbestände digitalisiert und zur Verfügung gestellt, sodass sich die Geistes- und Kulturwissenschaften insbesondere im Zugriff auf Daten- und Textbestände oder Bilder einer ungeheuren Masse schnell verfügbaren Materials gegenüber sehen. Typische Arbeits- und Forschungsfelder wie Editionen oder Textanalysen sind heute ohne den Einsatz digitaler Medien nicht mehr denkbar. Lexika stellen ihre traditionelle Publika­ tionsform als Druckmedium ein und auf elektronische Veröffentlichungen um. Im Laufe dieser Entwicklung haben sich zahlreiche Arbeitskreise in den verschiedenen geistes- und sozialwissenschaftlichen Fächern gebildet, die sich Methoden der Informations­technik bedienen, um die digitale wissenschaftliche Erschließung und Auswertung des vorgefundenen Materials in den Geisteswissenschaften zu erleichtern oder zu

2

|     Eva-Maria Seng, Reinhard Keil und Gudrun Oevel

verbessern. Überdies entstanden zahlreiche Projekte, die teilweise auch auf umfangreiche Förderprogramme zurückzuführen sind. Den vorläufig letzten Schritt der Etablierung der eHumanities an den Universitäten bildet die Einrichtung neuer Professuren, wie in den vergangenen Jahren an diversen Standorten zu beobachten war. Damit wird das bisher Erreichte, die unterschiedlichsten Forschungsinitiativen und der Umgang mit den verschiedenen Internetportalen und Datenbanken, endgültig in die universitäre Lehre Eingang finden und in das Curriculum der geisteswissenschaftlichen Disziplinen aufgenommen. Doch was versteht man unter eHumanities? Das BM BF (Bundesministerium für Bildung und Forschung) definiert sie auf seiner Homepage anlässlich der Ausschreibung einer aktuellen Förderinitiative folgendermaßen: „Die eHumanities verstehen sich als Summe aller Ansätze, die durch die Erforschung, Entwicklung und Anwendung moderner Informationstechnologien die Arbeit in den Geisteswissenschaften erleichtern oder verbessern wollen.“ Trotz des Forschungsbezuges in dieser Definition lassen die Begriffe Entwicklung und Anwendung und die Absicht des Erleichterns und Verbesserns zunächst einen großen elektronischen Zettelkasten vor dem geistigen Auge des traditio­ nellen Geistes- und Kulturwissenschaftlers auftauchen. Dass damit aber anderes und mehr gemeint ist, erfährt man, wenn dann im weiteren Text erneut auf die Entwicklung neuer Forschungsmethoden auf der Basis digitaler Quellen, Daten oder Werkzeuge hingewiesen wird. Damit wird der Blick auf neuartige Fragestellungen gelenkt, die durch die Analyse großer Datenmengen entstehen, wodurch die Möglichkeiten der Geisteswissenschaften nicht beschränkt werden, sondern im Gegenteil deren Kompetenzbereiche erweitern. Die schon vor geraumer Zeit begonnenen Arbeiten befassten sich in erster Linie mit der Rekonstruktion fragmentarisch überlieferter antiker und mittelalterlicher Quellen oder mit der computergestützten Textanalyse von Romanen und entstammen damit dem Bereich der Literaturwissenschaften und der Linguistik. Auf diesen Feldern beziehungsweise in der interdisziplinären Zusammenschau von Literaturwissenschaft und Anwendung moderner Informationstechnologien ist denn auch ein Großteil der ersten Forschungsprojekte im Gefolge der neuen Lehrstühle angesiedelt worden. Wir hatten uns im Paderborner studiolo-Projekt insbesondere den Bereich der Verknüpfung von Bildern und Bildausschnitten mit anderen Dokumenten vorgenommen. Ausgangspunkt war hier das Prinzip vergleichender Kunstbetrachtung, das bereits zu Beginn des 20. Jahrhunderts durch den Kunsthistoriker und Kulturwissenschaftler Aby Warburg begründet worden war. Erstmals stellte Warburg nicht nur diachrone Vergleiche zwischen einzelnen Bildthemen und deren Darstellungsweise innerhalb der Kunstgeschichte an, um die Kontinuität von Bildmotiven und das vielfältige Weiterleben der Antike in der europäischen Kultur anschaulich zu machen, sondern er bezog ebenso Bildquellen verschiedener Kulturkreise, etwa amerikanischer Indianerstämme, mit ein. Sein Ziel war es, eine kulturwissenschaftliche Bildgeschichte zu etablieren, die auch einen synchronen Vergleich sowohl materieller als auch immaterieller kultureller Äußerungen und ihres symbolischen Gehalts ermöglichen sollte.

„studiolo communis“     |

Um einen virtuellen Arbeits- und Wissensraum ähnlich der Struktur Warburgscher Denkräume zu schaffen, ist für die Kunst- und Architekturgeschichte über den reinen Bildvergleich hinaus die Verknüpfung visueller, audiovisueller Daten und weiterer archivalischer Materialien von zentralem Interesse. Unser über Warburgs Ansatz hinausgehendes Ziel ist es, diese Medien als Forschungsgrundlagen zusammenzuführen, einem weltweit verteilten Netz von Forschern zugänglich zu machen, um sie schließlich durch deren Forschungsmaterialien und -ergebnisse zu ergänzen und zu erweitern. Hieraus leitete sich dann auch der Name des Projekts studiolo communis ab. Das studiolo, der Raum des Gelehrten der Renaissance, der als solitarius dort seinen geistigen Tätigkeiten nachging, soll nun durch die skizzierte Vernetzung zum Gemeinschaftsraum werden. Mit der Entwicklung einer solchen virtuellen Forschungsumgebung war also das Ziel verbunden, neue Möglichkeiten der Zusammenarbeit von Forschern, der Quellensammlung und -strukturierung oder der Annotation und Verknüpfung von Materialien zu schaffen. Konkret sollten in diesem virtuellen Raum Bilder, Interpretationen, Literatur, Diskussionen, Taxonomien etc. für private oder öffentliche Gruppen arrangiert, verknüpft, diskutiert und letztendlich auch publiziert werden können. Darüber hinaus sollten die Arbeitsprozesse in jedem Schritt nachvollziehbar und tranparent bleiben, sowohl in den Verfahrensabläufen als auch der Speicherung, um gegebenenfalls Schritte zu korrigieren, zu überprüfen und auch späteren Forschern den Arbeitsweg zu vermitteln. Nicht zuletzt sollte dieses Verfahren auch der fortwährenden Reflexion des Forschungsprozesses dienen. Die hier versammelten Tagungsbeiträge setzen sich aus interdisziplinärer Sicht mit unterschiedlichen Ansätzen, Problemen, Fragen und Herausforderungen bei der Entwicklung von Forschungsumgebungen auseinander und wagen darüber hinaus auch einen Blick auf zukünftige Entwicklungen und Forschungsperspektiven in den Digital Humanities. Die ersten drei Beiträge behandeln das Thema kooperative Forschungsumgebungen aus methodischer und theoretischer Sicht von unterschiedlichen Fragestellungen aus. Reinhard Keil geht in seinem Aufsatz dem virtuellen Wissensraum als Arbeitsraum für die Wissensarbeit, als Archiv, als Präsentationsmedium und als Ort der Kommunikation nach, der nicht nur Änderungen für alle Beteiligten sichtbar mache und Differenzerfahrungen ermögliche, sondern auch den mentalen Aufwand und damit auch Medienbrüche reduziere. Der Mehrwert solcherart von Wissensräumen mit digitalen Medien liege dabei nicht nur in der Zeit- und Ortsunabhängigkeit, sondern auch in der zeit- und ortsübergreifenden Integration und damit der möglichen Arbeit über die Zeit hinweg an verschiedenen Orten zwischen verschiedenen Personen und Personengruppen. Insbesondere können dadurch die für Forschungsaktivitäten der Kunstgeschichte zentralen Objekte in vielfältiger Form annotiert, referenziert, indexiert und modifiziert werden, was durch Kommunikationsfunktionen oder einem Chat-Kanal an den Objekten den interdisziplinären Forschungsdiskurs erweitere und über lange Zeiträume abrufbar und modifizierbar zur Verfügung stelle. Keil skizziert damit ein Forschungs-

3

4

|     Eva-Maria Seng, Reinhard Keil und Gudrun Oevel

paradigma aus der Sicht der Informatik, das sich darum bemüht, durch eine ausgeprägt mediale Perspektive im Rahmen einer hypothesengeleiteten Gestaltung die Anschlussfähigkeit zur Wissensarbeit und den Forschungsdiskursen in den Geistes- und Kulturwissenschaften herzustellen. Der Aufsatz von Eva-Maria Seng schlägt eine methodische Brücke zwischen den beiden sozial- und geisteswissenschaftlichen Theorie- und Forschungsansätzen der letzten Jahre, nämlich der Akteur-Netzwerk-Theorie (A N T) von Michel Callon und Bruno Latour und der Konstellationsforschung Dieter Henrichs zu kooperativen Forschungsumgebungen. So wurde die Akteur-Netzwerk-Theorie gerade dafür entwickelt, um Innovationen in der Wissenschafts- und Technikgeschichte zu erklären, die weder durch natürliche, technische oder soziale Faktoren angestoßen worden seien, sondern erst die nachträgliche Einschätzung der Innovationen generiere diese allererst. Wie im kooperativen Forschungsraum sahen die Theoretiker der A N T gesellschaftliche Neuerungen aus einer Verbindung heterogener Elemente entstehen, die nur in ihrem Zusammenspiel zum Erfolg führen, wobei Natur und Technik so eng miteinander verzahnt seien, dass keine Seite ohne die andere zu verstehen sei. Der Konstellationsforschung liegt – ausgehend vom deutschen Idealismus um 1800 – die Annahme zugrunde, dass die vielen Talente des deutschen Idealismus in ihrem Schaffen aufeinander angewiesen gewesen seien. Sie kamen allererst durch ein gemeinsames Mitteilen, Mitwissen und damit durch ein Zusammenwirken in einem Denkraum zu neuen Erkenntnissen. Als zentrale Voraussetzung zur Erfassung und Untersuchung dieses Zusammenhangs der beteilig­ ten Akteure erweist sich dabei die Auswertung großer Mengen serieller, höchst unterschiedlicher Dokumente und Medien. Im dritten methodisch-theoretischen Beitrag diskutiert Jörn Sieglerschmidt Ordnungssysteme für Wissen im analogen und digitalen Zeitalter und fordert die semantische Vernetzung von digitalen Inhalten als notwendige Voraussetzung zum Erzeugen von neuem Wissen aus Vorhandenem ein. Sieglerschmidt geht dabei in einem historischen Längsschnitt systematisch den unterschiedlichen Formen des Wissens und deren Erfassung und Ordnung durch die Systematisierung von der Gedächtniskunst der Rhetorik über die Topik bis hin zur Handschriften- und Buchkultur von Mittelalter und Neuzeit mit den insbesondere in der philosophischen, theologischen und juristischen Dogmatik kumulativ und konsistent entwickelten und weitergegebenen älteren Texten nach. Nach diesen Versuchen der Ordnung und letztendlich auch der zur Verfügungstellung des gesamten menschlichen Wissens oder Teilen davon stellt er die unterschiedlichen Ordnungen im Internet vor, um am Ende angesichts des Chaos des Internets zur Entwicklung von Strategien des Authentischen aufzufordern. Die folgenden beiden Aufsätze von Michael Franke und Andreas Brennecke, Gudrun Oevel und Thomas Strauch widmen sich dem Bereich der Infrastruktur und deren notwendiger Nachhaltigkeit und Stabilität als Voraussetzung digitaler Forschungsprozesse. Aus der Perspektive einer Infrastruktureinheit mit dem Auftrag der Sicherung von Forschungsergebnissen beschreibt Michael Franke die Erfolgsfaktoren für einen nach-

„studiolo communis“     |

haltigen Betrieb von virtuellen Forschungsumgebungen, die er in Hinblick auf Funktion, Technik, Handwerk und Politik / Kultur unterscheidet. Andreas Brennecke, Gudrun Oevel und Thomas Strauch analysieren auf Grundlage des digitalen Wissenskreislaufes die Anforderungen an die Organisation von Infrastruktureinrichtungen vor dem Hintergrund der digitalen Transformation. Sie fordern neue Kooperations- und Kollaborationsszenarien zwischen Forschungsgruppen und den zentralen Einrichtungen und verallgemeinern so die von Michael Nentwich eingeführten Aufgabenentwicklungsmodelle insbesondere für Bibliotheken. In vier weiteren Beiträgen werden unterschiedliche Forschungsumgebungen und Projekte aus der Kunstgeschichte und der Musikwissenschaft vorgestellt und diskutiert. Martin Warnke beschreibt die Herausforderungen bei der digital unterstützten semantischen Erschließung von Bildern, die er insbesondere an den Eigenschaften der bild­ orientierten Forschungsumgebung HyperImage aufzeigt. Überdies wagt er einen Blick auf eine zukünftig digitalere Kunstgeschichte. Als praktische Beispiele von Forschungsumgebungen, die sich in der Entwicklung befinden, werden neben dem von Doris Annette Hartmann und Andreas Oberhoff vorgestellten studiolo communis auch die aktuellen Entwicklungen am Getty Research Institute (GR I), und zwar ausgehend von der eingestellten Bibliography of the History of Art (BH A) über das Getty Research Portal bis hin zum Scholar’s Workplace im Beitrag von Joseph M. Shubitowski beschrieben. Konzeptionellen Fragestellungen widmet sich auch Joachim Veit, indem er die Entwicklung und Einbettung von edirom in den musikwissenschaftlichen Diskurs erläutert. Dabei gelten seine Ausführungen zu digitalen Musikeditionen bezüglich Standardisierung, Codierung insbesondere dem auch in anderen geisteswissenschaftlichen Bereichen anzutreffenden Problem des Umgangs mit Mehrdeutigkeit und Notationspraxis. Aktuelle Entwicklungen wie Förderaktivitäten beim BM BF, der DFG, der Akademie der Wissenschaften und der EU, Verbandsgründungen im Umfeld der Digital Humanities im deutschsprachigen Raum, aber auch neu gestartete Projekte demonstrieren die weiterhin virulente Entwicklung im Bereich der Digital Humanities und insbesondere der digitalen Kunstgeschichte. Wir hoffen, mit dem vorliegenden Band nicht nur die Ergebnisse aus unserem Projekt studiolo communis zu dokumentieren, sondern auch zu einem weiteren fruchtbaren Diskurs beizutragen.

5

Reinhard Keil

Unterstützung kontingenter Wissensarbeit Ein Rahmenwerk für die Entwicklung digitaler Arbeitsumgebungen zur Unterstützung des Forschungsdiskurses in den Kulturwissenschaften

1. Einführung Der Begriff der Wissensarbeit wurde von Drucker1 eingeführt, um Arbeitsprozesse zu charakterisieren, zu deren Erledigung die Akteure vorhandenes Wissen anpassen, bewerten und modifizieren müssen. Sie erzeugen dadurch im Arbeitsprozess neues Wissen beziehungsweise passen bestehendes Wissen an. Solche Prozesse sperren sich gegen eine tayloristische Arbeitsgestaltung; sie erfordern Eigeninitiative, Motivation und Gestaltungsspielraum.2 Hinzu kommt, dass Wissen nicht bewusst genutzt beziehungsweise das dem Arbeitsprozess zugrunde liegende Wissen von den Akteuren nicht explizit angegeben werden kann und sich damit einer Anforderungsermittlung ebenso wie einer formalen Modellierung entzieht. 3 Die Beschränkungen der Modellierbarkeit sind anerkannte Charakteristika kreativer Gestaltungs-, Lern- und Forschungsprozesse. Die Unterstützung eines Forschungsdiskurses in den Geistes- und Kulturwissenschaften kann sich also weder auf durchstrukturierte Arbeitsprozesse beziehen noch auf einen formal modellierbaren Arbeitsgegenstand, denn semantische Einheiten und Beziehungen, ebenso wie Einsichten und Erkenntnisse stehen zu Beginn eines Forschungsdiskurses noch nicht fest und unterliegen im Prozess selbst vielfältigen Bewertungen und Modifikationen. Auch wenn bereits Erkenntnisse und strukturelle Einsichten vorliegen, lässt sich aus dem Ergebnis eines Diskurses der Erkenntnisweg nicht beziehungsweise nur sehr beschränkt ableiten. Zudem sind solche Ergebnisse selbst wie1 Drucker, Peter Ferdinand: The Landmarks of Tomorrow, New York 1957. 2 Für eine ausführlichere Diskussion der Unterschiede zwischen manueller Arbeit und Wissens­a rbeit siehe Osterloh, Margit: Human Resources Management and Knowledge Creation, in: Nonaka, Ikujirō / Kazuo, Ichijo (Hg.), Knowledge Creation and Management. New Challenges for Managers, Oxford 2007, S. 158–175. 3 Dieser Umstand ist mit Begriffen wie stillschweigendes oder auch implizites Wissen belegt; ­Polanyi, Michael: The Tacit Dimension, Garden City, NY 1967. Darauf aufbauend entwickelten Nonaka und Takeuchi ihr Konzept der Organisation betrieblichen Wissens; Nonaka, Ikujirō / Takeuchi, Hirotaka: The Knowledge-Creating Company. How Japanese Companies Create the Dynamics of Innovation, New York 1995.

8

|     Reinhard Keil

der Ausgangspunkt weiterer Diskurse, in denen sie erneut bewertet, modifiziert und mit anderen Ergebnissen in Beziehung gesetzt werden (hermeneutischer Zirkel). In Bezug auf hermeneutische Forschungsprozesse und philologische Unternehmungen gibt es keine unteilbaren und nicht wandelbare Basisbausteine, die gewissermaßen als atomare Bedeutungseinheiten einem syntaktischen Konstrukt oder physischen Artefakt eindeutig und fest zugeordnet werden könnten.4 Legt man als Ausgangspunkt für die Entwicklung virtueller Forschungsumgebungen zugrunde, dass man mit Technik nur technische Probleme lösen kann5, stellt sich die Frage, ob und in welcher Form solche Wissensprozesse überhaupt angemessen unterstützt werden können. Es gilt, die technischen Aspekte von Wissensarbeit zu bestimmen und damit als Grundlage der Modellierung von Algorithmen und Datenstrukturen zu erschließen. Dabei sollen zwei Arten des Zugangs unterschieden werden, je nachdem ob der Gegenstand der Forschungsarbeit oder der Forschungsprozess selbst im Vordergrund der Modellierung steht. Beim gegenstandsbezogenen Ansatz geht es beispielsweise darum, mit Informatik­ methoden linguistische Strukturen in meist großen Textcorpora zu erkennen, die mit traditionellen philologischen Arbeitstechniken nicht erschließbar wären. Die unter dem Stichwort distant reading6 referenzierten Anwendungen beziehen sich z. B. auf Probleme der Plagiatsfindung, die Identifizierung von Genres, Rollen und Gattungen bis hin zur Modellierung akustischer Strukturen in der Musik.7 Auch wenn das jeweilige Ergebnis nicht vorhersehbar ist, ist es bei solchen automatisierten Anwendungen mit der Wahl des jeweiligen Modells festgelegt, denn in formalen Systemen hängt das Ergebnis nur von der Form und Anordnung der Zeichen ab, die als Eingabe verarbeitet werden, nicht jedoch davon, wofür sie stehen oder als was sie aufgefasst werden. Schriftlichkeit, Schematisierbarkeit und Interpretationsfreiheit sind entscheidende Bedingungen für Formalismen.8 Die Korrektheit einer mathematischen Berechnung hängt nur von der ordnungsgemäßen Anwendung der Rechenregeln ab, nicht jedoch davon, wofür zum Beispiel bei einer arithmetischen Berechnung die jeweiligen Zahlenwerte stehen. Zwei chemische Substanzen, die zusammengebracht werden, können sich additiv verhalten oder sie können explodieren. Ob die Summe korrekt gebildet wird, hängt von den Regeln

4 Siehe hierzu auch die Überlegungen in Foucaults „Archäologie des Wissens“, inwieweit ein Diskurs in semantische Atome zerlegt werden kann. Foucault, Michel: Archäologie des Wissens, Frankfurt a. M. 1981. 5 Keil-Slawik, Reinhard / Selke, Harald: Mythen und Alltagspraxis von Technik und Lernen, in: Informatik-Forum 12(1) (1998), S. 9–17. 6 Moretti, Franco: Graphs, Maps, Trees: Abstract Models for Literary History, London 2007. 7 Vgl. Volk, Anja / Wiering, Frans / v. Kranenburg, Peter: Unfolding the Potential of Computational Musicology, Proceedings of the13th International Conference on Informatics and Semiotics in Organisations (IC I SO), Leeuwarden 2001, S. 137–144. 8 Krämer, Sybille: Symbolische Maschinen. Die Idee der Formalisierung in geschichtlichem Abriß, Darmstadt 1988.

Unterstützung kontingenter Wissensarbeit     |

der Mathematik ab, ob die Addition jedoch in diesem Handlungskontext sinnvoll ist, muss dagegen empirisch ermittelt werden und hängt von den Regeln der Chemie ab. Die Herausforderung beim distant reading besteht deshalb darin, die jeweiligen Ergebnisse wieder der hermeneutischen Interpretation (close reading) zu unterziehen, d. h. zu bewerten, ob und inwiefern das zugrunde gelegte Modell den Forschungsgegenstand tatsächlich adäquat widerspiegelt beziehungsweise unter welchen Randbedingungen und mit welchen Annahmen die Ergebnisse kritisch gewürdigt werden müssen.9 Da Sinnhaftigkeit der Ergebnisse sich letztlich immer aus der Einbettung in menschliche Arbeits- und Verstehenshandlungen ergibt, erfordert distant reading stets auch zusätzliche inter­disziplinäre Wissensarbeit und entsprechende Kompetenzen zur Bewertung und Überprüfung der eingesetzten Modelle und Instrumente. Auch beim prozessbezogenen Ansatz ist ein interdisziplinärer Zugang erforderlich. Im Gegensatz zu vielen Diensten und Angeboten im Bereich der Forschungsinfrastrukturen10 lassen sich aufgrund der schon skizzierten Charakteristika von Wissens­arbeit innovative Funktionen zur Unterstützung des Forschungsdiskurses weder aus dem Gegenstand ableiten noch im Rahmen einer Anforderungsermittlung präzise erheben, denn –– innovative Möglichkeiten sind den zukünftigen Nutzern in der Regel nicht bekannt, –– die Diskurse sind von ihrer Natur her offene, selbst organisierte Prozesse, –– Gestaltungskonflikte und neue Nutzungsperspektiven offenbaren sich im Prozess der Nutzung und – das weitaus wichtigste – –– auch semantische Strukturen ergeben sich erst zur Nutzungszeit und können daher zum Modellierungs- beziehungsweise Entwicklungszeitpunkt des technischen Systems noch nicht abschließend festgelegt werden. Es gilt somit, technische Entwicklung, Einsatz und Validierung der mit der Entwicklung verbundenen Annahmen und Hypothesen prozesshaft zu verbinden. Das gilt im Sinne des eingangs skizzierten Konzepts der Wissensarbeit für alle Gestaltungsprozesse wie die Entwicklung von Software11, die Nutzung der jeweils gewählten (statistischen)

  9 Genau diese Problematik, verbunden mit ethischen Betrachtungen zum Einsatz Künstlicher Intelli­ genz, bildet den Kern des Buchs von Joseph Weizenbaum, die durch den Titel der deutschen Übersetzung, „Die Macht der Computer und die Ohnmacht der Vernunft“, eher verschleiert als erhellt wird; Weizenbaum, Joseph: Computer Power and Human Reason: From Judgment To Calculation, San Francisco 1976. 10 Vgl. Schubert, Charlotte: Zauberlehrling und Meister: Digital Humanities zwischen Informatik und Geisteswissenschaften?, in: Kobes, Jörn / Ruffing, Kai / Spickermann, Wolfgang (Hg.), 20 Jahre Arbeitsgemeinschaft Geschichte und E DV (Abhandlungen der Arbeitsgemeinschaft Geschichte und E DV 2), Gutenberg 2013, S. 167–186. 11 Naur, Peter: Programming as Theory Building, in: Microprocessing and Microprogramming 15 (1985), S. 253–261.

9

10

|     Reinhard Keil

Methoden12 und insbesondere natürlich auch die Unterstützung philologischer Fein­ arbeit und der damit einhergehenden Forschungsdiskurse. Nicht der Gegensatz von festen Strukturen und offenen Prozessen, formalen Methoden und hermeneutischer Interpretation, hypothesengeleiteter und datengetriebener Forschung13 ist das Entscheidende, sondern dass beide sich wechselseitig im Sinne einer Komplementarität bedingen14 und sich deshalb nur im interdisziplinären Diskurs auflösen lassen. Allerdings gibt es einen wichtigen Unterschied, denn die zugrunde gelegten Forschungshypothesen unterscheiden sich grundlegend in ihrem Bezug. Ist es beim distant reading der Forschungsgegenstand selbst, so handelt es sich beim close reading um invariante Strukturen medialer Unterstützungsfunktionen. Der nächste Abschnitt behandelt deshalb zunächst einige grundlegende Konzepte, die sich für eine hypothesen­ geleitete Gestaltung in diesem Bereich als hilfreich erwiesen haben. Dabei zeigt sich, dass das Konzept der Differenz-Erfahrung in mehrfacher Hinsicht förderlich ist, denn es gestattet, in unterschiedlichsten Kontexten geistige Arbeit in ihrem Zusammenspiel mit physischen Artefakten zu betrachten. Aufbauend auf diesen Überlegungen werden drei grundlegende Leitsätze für die Gestaltung von Arbeitsumgebungen für die ko-aktive Wissensarbeit vorgestellt: –– der Aufbau gemeinsamer Handlungs- und Wahrnehmungsräume, –– die Diskursunterstützung und –– die dynamische Wissensstrukturierung. Diese drei Ansätze bauen in gewisser Weise aufeinander auf. Zugleich ermöglichen sie aber auch, verschiedene Aspekte der Unterstützung von Wissensarbeit unabhängig voneinander zu thematisieren (Trennung von Diskursbereichen). In diesem Sinne handelt es sich nicht um Schichten von Unterstützungsfunktionen, sondern um drei sich wechselseitig ergänzende Sichten auf verschiedene Aktivitäten und Aufgaben bei der Wissensarbeit. Die abschließende zusammenfassende Betrachtung zeigt auf, dass der vorgestellte Ansatz sich bislang für verschiedene Bereiche der Unterstützung von Wissensarbeit als hilfreich erwiesen hat, zugleich verdeutlicht die zugrundeliegende Zugangsweise auch eine Fülle neuer Herausforderungen und Forschungsfragen für die Zukunft.

12 Ein Beispiel hierfür ist die Wissenschaftsdebatte, die unter dem Stichwort „social life of methods“ geführt wird. Vgl. Mair, Michael / Greiffenhagen, Christian / Sharrock, W. W.: Statistical Practice: Putting Society on Display, in: Theory, Culture & Society, 2015, DOI: 10.1177 / 0263276414559058. 13 Schubert, Zauberlehrling, S. 1. 14 Vgl. Floyd, Christiane: Comments on „giving back some freedom to the system designer“ by f. de cindio, g. de michelis and c. simone: Design viewed as a process, Systems Research 2(4) (1984), S. 281– 283; Floyd, Christiane: Softwareentwicklung als Realitätskonstruktion, in: Lippe, Wolfram-M. (Hg.), Software-Entwicklung. Konzepte, Erfahrungen, Perspektiven, Berlin 1989, S. 1–20.

Unterstützung kontingenter Wissensarbeit     |

2. Ansätze für eine hypothesengeleitete Technikgestaltung Traditionell gehört die theoretische Fundierung geistiger Leistungen nicht zum Forschungskanon der Informatik. Disziplinen wie zum Beispiel die Psychologie oder die Soziologie bieten vielfältige Grundlagen, die jedoch aufgrund ihrer speziellen analytischen Fokussierung und disziplinären Ausrichtung nicht oder nur sehr beschränkt auf Gestaltungssituationen übertragbar sind: –– Konzepte, Theorien und Methoden entwickeln sich auch in diesen Bereichen kontinuierlich weiter. –– Empirische Untersuchungen und Laborstudien versuchen einzelne Variablen zu isolieren, Gestaltung zielt dagegen auf das optimale Zusammenspiel aller Variablen einschließlich aller Ziel- und Designkonflikte. –– Es fehlt auf der Seite der Informatik die Kompetenz, konkurrierende Theorien, Modelle und Methoden in anderen Disziplinen zu bewerten und adäquat auszuwählen. Es komme deshalb nach Terry Winograd darauf an, das interdisziplinäre Gulasch in einen kohärenten Zusammenhang zu verwandeln, der im Kontext der Systemgestaltung praktikabel ist.15 Dazu ist es aber erforderlich, einen Rahmen zu definieren, der diese Integration ermöglicht. Die Ausgangshypothese lautet: „Das Denken findet nicht im Kopf, sondern mit dem Kopf statt.“ Oder aus dem Blickwinkel der Gestaltung formuliert: Gegenstand der Theorie- beziehungsweise Hypothesenbildung ist der Gebrauch medialer Artefakte. Im Vordergrund der Betrachtung steht nicht, wie Denkprozesse im Kopf des Menschen modelliert werden können, also ob und in welcher Form beispielsweise „mentale Modelle“, „generative Grammatiken“, „kognitive Schemata“ usw. eine geeignete Grundlage für die Theoriebildung wären, sondern in welcher Weise die Umgebung, in der der Kopf des Menschen denkt, diese Prozesse beeinflusst.16 Gewiss liegt auch diese Fragestellung nicht im traditionellen Bereich informatischer Theoriebildung, doch gestattet diese Sicht eine Zugangsweise an die Problematik, die sich in einer kulturhistorischen Betrachtung auf das Studium medialer Artefakte, insbesondere auch von Rechen- und Konstruktionsmitteln bezieht.17

15 Winograd, Terry: What can we teach about human-computer interaction? in: Proceedings SIG C H I Conference on Human Factors in Computing Systems: Empowering People, Seattle 1990, S. 445. 16 Gibson, James J.: Wahrnehmung und Umwelt. Der ökologische Ansatz in der visuellen Wahrnehmung, München 1982. 17 Vgl. Keil-Slawik, Reinhard: Konstruktives Design. Ein ökologischer Ansatz zur Gestaltung interaktiver Systeme, Habil.-Schr. TU Berlin 1990 (Forschungsberichte des Fachbereichs Informatik, Bericht Nr. 90-14), Berlin 1990; Keil-Slawik, Reinhard: Artifacts in Software Design, in: Floyd, Christiane / Züllighoven, Heinz / Budde, Reinhard / Keil-Slawik, Reinhard (Hg.), Software Development and Reality Construction, Berlin 1992, S. 168–188.

11

12

|     Reinhard Keil

Natürlich kann ein solcher Ansatz, bei dem von anthropologischen über kultur­ historische und technikgeschichtliche bis hin zu kognitionspsychologischen Gebieten Erkenntnisse gestaltungsrelevant miteinander verbunden werden, gegenwärtig nicht den Anspruch einer wissenschaftlich abgesicherten und konsistenten Theoriebildung erheben. Zu viele Ergebnisse und Konzepte aus unterschiedlichen Disziplinen werden miteinander verwoben und können nur schwerlich einer empirischen Überprüfung unterworfen werden. Zugleich scheint dies aber auch ein Charakteristikum transdisziplinärer Arbeit zu sein, zumal Gestaltungsprozesse praktikable Lösungsansätze hervorbringen müssen, die sich nicht aus einer Theorie oder einem formalen Modell stringent ableiten lassen. In diesem Zusammenhang ist es ausreichend, wenn aus den theoretischen Betrachtungen Gestaltungsperspektiven abgeleitet werden können, die sich bei der Entwicklung von technischen Unterstützungssystemen bewähren. Unter diesem Gesichtspunkt ist es schwierig, die gestaltungsleitende Perspektive wissenschaftlich nachzuweisen. Doch da dieser Zugang schon in mehrfacher Hinsicht seine Brauchbarkeit für die Formulierung eines hypothesengeleiteten Gestaltungsansatzes in den Bereichen Software-Ergonomie18, E-Learning19 und der Unterstützung betrieblicher Wissensarbeit20 erwiesen hat, scheint es legitim, ihn auch auf die Entwicklung virtueller Forschungsumgebungen zu übertragen21 und damit zugleich weiter zu entwickeln. Ausgangspunkt ist das Konzept der Differenzerfahrung, das davon ausgeht, dass ohne eine nicht durch menschliche Erwartungen und Vorstellungen gesteuerte Umwelt Wissen und Gewissheit nicht möglich sind. Nur über Handeln in einer sinnlich wahrnehmbaren Umwelt kann nach Gibson eine Unterscheidung zwischen Vorstellung und Wirklichkeit erfolgen, denn „über einen nur vorgestellten Gegenstand oder Sachverhalt ist es nicht möglich, neue Informationen zu gewinnen.“ 22 Die Möglichkeit zur Differenzerfahrung ist ein Potenzial, das ein Individuum mit sich bringt, das sich jedoch erst in einem sozialen Kontext entfaltet. Schon das Ausprägen geteilter Intentionalität (shared intentionality)23 ist auf Differenzerfahrung ange18 Keil, Reinhard: Hypothesengeleitete Technikgestaltung als Grundlage einer kontextuellen Informatik, in: Breiter, Andreas / Wind, Martin (Hg.), Informationstechnik und ihre Organisations­ lücken. Soziale, politische und rechtliche Dimensionen aus der Sicht von Wissenschaft und Praxis, Berlin 2011, S. 165–184. 19 Keil, Reinhard / Jakoblew, Marcel / Winkelnkemper, Felix: Forschendes Lernen durch semantisches Positionieren, in: Forbig, Peter / Magenheim, Johannes (Hg.), H DI 2014 – Gestalten und Meistern von Übergängen. 6. Fachtagung Hochschuldidaktik der Informatik, Freiburg 2014, S. 73–84. 20 Holzweißig, Kai: Ein koaktiver Unterstützungsansatz für Prozesse sozialer Wirklichkeitskonstruktion in Produktentstehungsprozessen, Paderborn 2012, zugl. Diss. Paderborn 2012. 21 Schulte, Jonas / Keil, Reinhard / Oberhoff, Andreas: Unterstützung des ko-aktiven Forschungs­ diskurses durch Synergien zwischen E-Learning und E-Science, in: Köhler, Thomas / Neumann, Jörg (Hg.), Wissensgemeinschaften: Digitale Medien – Öffnung und Offenheit in Forschung und Lehre, Münster 2011, S. 81–91. 22 Gibson, Wahrnehmung, S. 277. 23 Siehe Tomasello, Michael / Carpenter, Malinda: Shared Intentionality, in: Developmental Science 10(1) (2007), S. 121–125.

Unterstützung kontingenter Wissensarbeit     |

wiesen, wie Tomasello feststellt, geht aber in der wechselseitigen Bezugnahme der Individuen deutlich darüber hinaus und verkörpert ein wesentliches Merkmal der kognitiven Leistungen des Menschen, die ihn zur Ausprägung von Kultur als arbeitsteilige Gestaltung seiner Lebenswelt befähigen.24 Die erste Hypothese lautet deshalb, dass eine Voraussetzung für geteilte Intentionalität und für die geistige Entwicklung des Individuums wie auch der kulturellen Entwicklung der Gesellschaft die Möglichkeit ist, gemeinsame beziehungsweise geteilte Handlungs- und Wahrnehmungsräume zu kreieren. Die nächste Hypothese geht davon aus, dass die kognitiven Leistungen des Menschen in vielerlei Hinsicht begrenzt sind, sie aber durch die Anreicherung der Umwelt durch Artefakte erweitert werden können. Unter diesem Blickwinkel lassen sich verschiedene Potenziale für Differenzerfahrung identifizieren, die vom Wechsel einer Betrachtungsperspektive (Bewegung, Standortwechsel) über die Verbesserung der Wahrnehmung durch Instrumente, das Kreieren experimenteller Arrangements, um Naturphänomene systematisch beobachtbar zu machen, die Konstruktion technischer Systeme bis hin zur zwischenmenschlichen Kommunikation reichen.25 Es geht gewissermaßen darum, die Umgebung des Menschen zum Sprechen zu bringen, und dabei kommt medialen Artefakten wie Symbolsystemen, experimentellen Anordnungen, Instrumenten, technischen Konstruktionen etc. eine besondere Rolle zu, denn sie ermöglichen Differenzerfahrungen, die ohne sie nicht oder nur sehr viel umständlicher möglich wären. Die mentalen Fähigkeiten des Menschen werden durch Artefakte erweitert, ohne die unsere heutigen kulturellen, wissenschaftlichen und technischen Leistungen nicht denkbar wären. Eine unmittelbare, direkte und differenzierte Rückmeldung unabhängig von den Intentionen und Erwartungen einer handelnden Person erfordert eine möglichst enge Kopplung von Handlungs- und Wahrnehmungsraum; sie ist auf physischer Ebene die Grundlage für Differenzerfahrung. Das bedeutet aber auch, dass sich Differenzerfahrung in diesem Sinne nur in zeitlich und räumlich geteilten Handlungs- und Wahrnehmungsräumen entwickeln kann. Zwar ermöglicht das menschliche Gedächtnis, eine Brücke zwischen zeitlich oder räumlich separierten Handlungs- und Wahrnehmungsräumen zu schlagen, doch kann Erinnerung nur durch weitere Differenzerfahrung zur sozial verankerten Gewissheit werden. An dieser Stelle kommt das zweite Konzept, das externe Gedächtnis, zum Tragen. Es erlaubt, sowohl individuelle kognitive als auch arbeitsteilige oder kooperative Gemeinschaftsleistungen grundlegend zu erweitern. Entscheidend ist dabei die Persistenz medialer Artefakte, d. h. also, dass die jeweiligen Hilfsmittel über den jeweiligen kognitiven Akt hinaus im Wahrnehmungsfeld präsent und – je nach Erfordernis – manipulierbar sein müssen. Beispielsweise sind unsere Fähigkeiten zum Kopfrechnen sehr begrenzt und erst unter Zuhilfenahme von Recheninstru24 Tomasello, Michael: The Cultural Origins of Human Cognition, Cambridge 1999. 25 Keil, Reinhard: Das Differenztheater. Koaktive Wissensarbeit als soziale Selbstorganisation, in: Bublitz, Hannelore / Marek, Roman / Steinmann, Christina L. / Winkler, Hartmut (Hg.), Automatismen, München 2010, S. 205–229.

13

14

|     Reinhard Keil

menten (Abaki, Rechentische, Papier und Stift etc.) können wir diese Leistung um ein Vielfaches übersteigen. Der Begriff Gedächtnis verweist auf die Tatsache, dass die verwendeten medialen Artefakte nur unter Bezug auf die sie hervorbringenden und benutzenden Handlungen der Menschen verständlich sind.26 Die Verbesserung der Kopplung von Handlungs- und Wahrnehmungsraum wird besonders deutlich beim Übergang von der technisch vermittelten Kommunikation zur Entwicklung virtueller Räume. Durch technische Kommunikation (gedächtnislose Übertragung) können räumlich getrennte Handlungs- und Wahrnehmungsräume zwar partiell zusammengeführt werden, doch ist dabei jeweils ein hoher Aufwand zur Etablierung eines gemeinsamen Handlungskontextes als Verständnisgrundlage erforderlich, da zum einen der jeweilige Übertragungskanal nur einen sehr kleinen Teil der potenziellen Differenzen überträgt, die in einer Präsenzsituation auftreten, und zum anderen die übertragenen Signale flüchtig sind, was zu unterschiedlichen Ausprägungen der jeweils überbrückten Handlungs- und Wahrnehmungsräume (lokale Persistierung) führt. Diese unterschiedlichen Ausprägungen entziehen sich der Wahrnehmung der beteiligten Akteure und müssen – soweit das überhaupt möglich ist – durch zusätzlichen (Kommunikations-)Aufwand reproduziert werden. Genau diese Defizite beziehungsweise dieser Zusatzaufwand sind es, die zu Recht beim Fern- oder virtuellen Lernen als großes Hemmnis gewertet werden.27 Anders ausgedrückt: Wenn Artefakte als Ersatz für soziale Wissensarbeitsprozesse zum Beispiel des Lehrens und Lernens genommen werden, entsteht ein Defizit, werden sie dagegen in solche soziale Prozesse eingebettet, eine Bereicherung.28 Das dritte wesentliche Konzept, das hier skizziert werden soll, könnte mit dem Begriff aktive Typographie bezeichnet werden und bezieht sich auf Rechenprozesse beziehungsweise Algorithmen. Auch sie verkörpern eine Form von Differenzerfahrung, da nach Krämer29, wie schon betont, beim Übertragen einer Problemstellung in ein formales Modell alle Operationen innerhalb des Modells nur durch das zugrundeliegende Kalkül bestimmt sind und die jeweiligen Ergebnisse damit unabhängig von den Erwartungen der Modellierenden sind. Damit eröffnen die moderne Mathematik und insbesondere der Computer ungeheure Möglichkeiten zur Differenzerfahrung, die von der

26 Vgl. dazu auch den aus der Biologie entlehnten Begriff der relativen Semantik (vgl. Keil, Differenz­ theater), der auch genutzt werden kann, um menschliche Informationsverarbeitung und maschinelle Datenverarbeitung zu trennen; Keil-Slawik, Reinhard: Bio-Informatik einmal anders. Zum Verhältnis von menschlicher Informationsverarbeitung und maschineller Datenverarbeitung, in: FIfF-Kommunikation 20(1) (2003), S. 37–41. 27 Vgl. insbesondere das Fazit in Schulmeister, Rolf: Virtuelle Universität – Virtuelles Lernen, München 2001, S. 357. 28 Letzteres wurde von Christiane Floyd auch als Produkt-Prozess-Komplementarität bezeichnet; Floyd, Christiane: Outline of a Paradigm Change in Software Engineering, in: Bjerknes, Gro / Ehn, Pelle / Kyng, Morten (Hg.), Computers and Democracy – a Scandinavian Challenge, Aldershot 1987, S. 191–210; vgl. auch Naur, Peter: Programming as Theory Building. 29 Krämer, Symbolische Maschinen.

Unterstützung kontingenter Wissensarbeit     |

Bearbeitung digitaler Objekte, interaktiver Auswertungsfunktionen und die Vernetzung bis hin zur Schaffung virtueller und digital angereicherter Welten reicht. Die Verknüpfung der Sinn-Welt mit der Rechen-Welt geschieht im Prozess des Modellierens. Generell kann man sagen, dass die Festlegung semantischer Einheiten und Beziehungen zum Modellierungszeitpunkt ein Ersetzungsparadigma oder Simulationsparadigma verkörpert, da das jeweilige Ergebnis nur noch von den Eingaben abhängt und das jeweilige Rechenergebnis durch den Algorithmus beziehungsweise das zugrundeliegende Modell determiniert ist. Aufgrund dieser Einschränkung galt die Forschungsarbeit in den Geistes- und Kulturwissenschaften lange Zeit als grundsätzlich ungeeignet für den Einsatz informatischer Methoden und Systeme, sieht man einmal von der Digitalisierung von Schriften und Kulturgütern und ihrer Archivierung ab. Bei der Digitalisierung wird im Wesentlichen der technisch-materielle Träger ausgetauscht, was in der Regel eine Verbesserung physikalischer Eigenschaften (Auflösungsvermögen, Platzbedarf, Zugriffsgeschwindigkeit etc.) zur Folge hat. Dabei entsteht zwar ein digitalisiertes Objekt, aber noch kein digitales Objekt, das es beispielsweise gestatten würde, Teil-Objekte zu identifizieren und interaktiv zu manipulieren, wie dies zum Beispiel bei einer Suchfunktion geschieht. Digitale Objekte sind nicht nur ein Mittel der Binnenstrukturierung von Objekten beziehungsweise Dokumenten, sondern sie können auch Bezüge zwischen Objekten verkörpern. Soweit es gelingt, mit Hilfe algorithmischer und statistischer Methoden Muster sichtbar zu machen, die sonst dem prüfenden Blick des Forschers entzogen blieben, muss man feststellen, dass mit verschiedenen Formen des distant reading auch in diesen Bereichen Differenzerfahrungen ermöglicht werden, die ohne Informatiksysteme kaum denkbar sind. Neben dem Aufbau von Forschungsinfrastrukturen und der Etablierung von Standards besteht die große Herausforderung darin, die durch distant reading gewonnenen Differenzerfahrungen wieder in den hermeneutischen Zirkel der Interpretation einzubetten und die Systeme entsprechend weiter zu entwickeln. Dies erfordert die Ausprägung entsprechender Kompetenzen und eine Öffnung der jeweiligen Methoden und Herangehensweisen der beteiligten Disziplinen. Genau hier wird jedoch heftig diskutiert, ob dies nicht zu ungewollten Einschränkungen oder Veränderungen her­ meneutischer Ansätze und philologischer Praxis führt.30 Solange es nur um die Digitalisierung von Kulturobjekten und ihre Erfassung in Datenbanken ging, betraf es die Forschungslandschaft der Informatik kaum, weil es primär um die technische Umsetzung bereits erforschter Methoden und Konzepte ging. Doch auch hier ändert sich das Feld rapide, weil mit der zunehmenden Digitalisierung der Forschungsgegenstände auch neue Bearbeitungsmethoden erkennbar werden, die für den Forschungsdiskurs neue Formen der Differenzerfahrung ermöglichen, die sich 30 Die erste deutschsprachige Jahrestagung der Digital Humanities 2014 in Passau stand unter der Überschrift: „Digital Humanities – methodischer Brückenschlag oder ‚feindliche Übernahme‘? Chancen und Risiken der Begegnung zwischen Geisteswissenschaften und Informatik“.

15

16

|     Reinhard Keil

nicht allein auf Aspekte des distant reading beziehen, sondern auch auf Aufgaben und Prozesse im Rahmen eines close reading. Drei mögliche Ansätze hierzu sollen im nächsten Abschnitt skizziert werden. Das Gemeinsame an ihnen ist, dass es nicht um den Gegenstandsbereich geistes- und kulturwissenschaftlicher Forschung geht, sondern um allgemeine mediale Unterstützungsfunktionen, bei denen die Modellierung des Gebrauchs symbolischer Artefakte im Vordergrund steht, um Differenzerfahrungen zu eröffnen. Ziel ist es, virtuelle Handlungs- und Wahrnehmungsräume so zu gestalten, dass neue Möglichkeiten der Differenzerfahrung im Kontext hermeneutischer Praxis eröffnet werden.

3.  Entwicklung virtueller Forschungsumgebungen Bei der Identifizierung medialer Unterstützungsfunktionen wird nicht das Wissen selbst modelliert beziehungsweise betrachtet, sondern der Umgang mit Wissensartefakten. Um diese aber systematisch erschließen zu können, ist es erforderlich, die Möglichkeiten zur Differenzerfahrung auf Prozesse der Wissensarbeit zu beziehen und gegenüber traditionellen Medien die neuen Mehrwerte zu identifizieren, indem die Rationalisierungspotenziale des Mediengebrauchs ausgelotet und in zu validierende Unterstützungsfunktionen transformiert werden. Dabei geht es sowohl um die Erweiterung um neue Formen der Differenzerfahrung als auch um die Entlastung beim Umgang mit medialen Artefakten. Aufbauend auf die Konzepte Differenzerfahrung und externes Gedächtnis und unter Einbeziehung der Charakteristika von Wissensarbeit lautet eine weitere Arbeitshypothese, dass neue Möglichkeiten zur Differenzerfahrung zunächst dadurch ermöglicht werden, dass Nutzer in die Lage versetzt werden, semantische Einheiten und Operationen auf ihnen weitgehend zur Nutzungszeit festlegen zu können und zwar ohne die Notwendigkeit, selbst Kompetenzen im Umgang mit Programmier- oder Skriptsprachen ausprägen zu müssen. Drei zentrale Techniken der Informatik ermöglichen dies in besonderer Weise: –– Interaktivität, –– Hypertext beziehungsweise Hypermedia und –– räumlich-visuelle Benutzungsoberflächen. Mit diesen digitalen Möglichkeiten können zum ersten Mal in unserer Kulturgeschichte persistente Zeichen und Zeichenkonfigurationen ausgewertet und räumlich arrangiert werden. Bei analogen Einschreibtechnologien wird das jeweilige Zeichen in den Zeichenträger eingeschrieben, sodass mit technischen Mitteln nur das Trägermaterial bearbeitet werden kann, nicht jedoch die Zeichen selbst. Zusammen mit der Möglichkeit, mit persistenten Verweisen auch räumlich getrennte Zeichen(-arrangements) miteinander zu

Unterstützung kontingenter Wissensarbeit     |

verknüpfen und auf Knopfdruck in ein gemeinsames Wahrnehmungsfeld zu bringen, erhalten die Nutzer die Möglichkeit, Zeichen und Zeichenarrangements in einem kontinuierlich sichtbaren Wahrnehmungs- und Handlungsfeld zu bearbeiten und zugleich die Zwischenstände zu persistieren.31 Digitale Medien ermöglichen damit die Gestaltung von Arbeitsumgebungen, in denen Zeichen und Zeichengruppen selbst physisch manipuliert werden können. Was dabei jeweils als Zeichen oder Objekt behandelt wird, kann zunächst unabhängig von syntaktischen oder semantischen Strukturen weitgehend im Prozess der Nutzung festgelegt werden. So kann beispielsweise mit interaktiven Systemen unabhängig vom Bildinhalt ein Ausschnitt aus einem Bild kopiert und mit anderen Zeichen kombiniert werden. Man erhält ein weiteres digitales Objekt, dessen Eigenschaft, Teilbild zu sein, sich zunächst nur im Bewusstsein der Nutzer manifestiert, nicht jedoch in entsprechenden syntaktischen oder semantischen Kategorien. Sobald es jedoch um Auswertungsfunktionen geht, zum Beispiel ein Bild als Ausschnitt eines anderen Bildes automatisch zuzuordnen, müssen syntaktische und semantische Aspekte festgelegt werden. Interaktive und räumlich-visuelle Nutzungsoberflächen bilden damit zugleich die Grundlage für ein virtuelles studiolo32, in dem die Nutzer semantische Zusammenhänge und Strukturen durch räumlich visuelle Arrangements erzeugen können. Das Anordnen und Bearbeiten von Bildschirmelementen ebenso wie das Setzen von Verweisen (links) bieten Möglichkeiten, Objekte oder Teilobjekte gemäß der situativen Bedeutung für die Nutzer zu verknüpfen oder zu arrangieren. Die Kopplung über Verweise wird oft auch als semiformale Struktur bezeichnet, weil ein Verweis zwar ein physisches Zeichen­objekt ist, seine Bedeutung aber nur informell durch die Interpretation der Nutzer gegeben ist. Natürlich könnte man Verweise auch typisieren und damit verschiedene Klassen von Verweisen mit jeweils spezifischen Anzeigefunktionen versehen, doch selbst dann wäre ein Verweis unspezifisch in Bezug auf den Inhalt, auf den verwiesen wird. Genau dies ist ja auch beabsichtigt, denn gemäß der ursprünglichen Intention von Ted Nelson, der den Begriff Hypertext geprägt hat, sollen Verweise insbesondere Lesern die Möglichkeit geben, Zeichen(-folgen) nach ihren Nutzungsvorstellungen unabhängig von den Intentio­ nen der Autoren miteinander zu verknüpfen, ohne dabei aber das Original zu verändern.33 Insofern sind Arbeitsumgebungen, die im Wesentlichen auf den drei angesprochenen Techniken basieren, interpretativ vergleichsweise offen, da sie – anders als bei syntaktischen oder semantischen Auswertungsfunktionen und abgesehen von den mit

31 Keil-Slawik, Reinhard: Denkmedien – Mediendenken: Zum Verhältnis von Technik und Didaktik, in: it+ti Informationstechnik und Technische Informatik 44(4) (2001), S. 181–186. 32 Siehe in diesem Band auch Hartmann, Doris Annette / Oberhoff, Andreas: studiolo communis. Digitale Unterstützung des Forschungsdiskurses in der Kunst- und Architekturgeschichte. 33 Die mit seiner Konzeption verbundene Sicht von Hypertext als „nicht-sequenzielles Schreiben“; Nelson, Theodore H.: Computer Lib / Dream Machines, Rev. Ed. Redmond 1987, geht in der Konzeption seiner digitalen Weltbibliothek (vgl. das Projekt Xanadu) weit über die Möglichkeiten des heutigen World Wide Web hinaus; Nelson, Theodore H.: The Unfinished Revolution and Xanadu, in: AC M Computing Surveys 31(4) (1999), Artikelnr. 37.

17

18

|     Reinhard Keil

ihrer materiellen Repräsentation verbundenen Einflüssen34 – sich sehr flexibel den Bearbeitungsprozessen unterwerfen lassen. Interessant werden visuelle Platzierungen und Verweise dann, wenn sie sich nicht nur auf einen bestimmten Medientyp wie Text, Bild oder Audio beziehen, sondern übergreifend für die Gestaltung verteilt genutzter virtueller Handlungs- und Wahrnehmungsräume eingesetzt werden. Auch wenn individuelle kognitive Leistungen meist als Grundlage des Wissens genommen werden35, gilt es festzuhalten, dass Prozesse der Wissensarbeit seit jeher zum einen arbeitsteilig organisiert sind und zum anderen die Erarbeitung von Wissen nicht für sich selbst steht, sondern auf Anschlusshandlungen abzielt. 36 Wissensarbeit als isolierte individuelle Aktivität gibt es immer nur über einen sehr begrenzten Zeitraum, denn ohne Einbettung in soziale Formen der Differenzerfahrung wären Hochkulturen ebenso wie Wissenschaft nicht möglich. Für die Unterstützung von Wissensarbeit erscheint deshalb ein ko-aktiver Ansatz unerlässlich. Der Begriff ko-aktiv soll hier darauf verweisen, dass es um gemeinsam bearbeitete Objekte geht, die aber zeitlich und räumlich in unterschiedlichen Konstellationen stattfinden, unabhängig davon, ob es sich dabei im sozialen Kontext um Formen der Arbeitsteilung, Kooperation, Kollaboration, Koordination etc. handelt. Der entscheidende Punkt bestand gemäß den bisher angesprochenen Gestaltungshypothesen darin, Kommunikationsfunktionen nicht als gedächtnislose Übertragungskanäle zu implementieren (Abb. 1), sondern sie in ko-aktive virtuelle Handlungs- und Wahrnehmungsräume37 zu integrieren (Abb. 2). Obwohl in Abbildung 1 Wissensartefakte und Nachrichten ausgetauscht und damit gewissermaßen geteilt werden, gibt es keinen gemeinsamen persistenten Wahrnehmungs- und Handlungsraum. Die Datenbasen unterscheiden sich je nach individueller Präferenz, spezifischen Aufgaben und Kommunikationsprozessen mit Dritten sowohl im Inhalt als auch in der Strukturierung und schließen damit eine gemeinsame Bezugnahme (Gewärtigkeit, Deixis) ebenso aus wie die Einbeziehung weiterer, bislang nicht 34 Siehe zum Beispiel Hilgert, Markus: ‚Text-Anthropologie‘: Die Erforschung von Materialität und Präsenz des Geschriebenen als hermeneutische Strategie, in: Hilgert, Markus (Hg.), Altorientalistik im 21. Jahrhundert. Selbstverständnis, Herausforderungen, Ziele (Mitteilungen der Deutschen Orient-Gesellschaft 142), Berlin 2010, S. 87–126. 35 In neueren Arbeiten zu sozialen Netzen wird die traditionelle, auf das Individuum bezogene Verankerung von Wissen grundlegend in Frage gestellt; Oeberst, Aileen / K immerle, Joachim / Cress, Ulrike: What is Knowledge? Who Creates it? Who Possesses it? The Need for Novel Answers to Old Questions, in: Cress, Ulrike / Moskaliuk, Johannes / Jeong, Heisawn (Hg.), Mass Collaboration and Education, Berlin 2016, Kapitel 3. 36 Vgl. hierzu den Begriff des soziosymbolischen Universums in Elias, Norbert: Über die Zeit. Frankfurt 1988. 37 Siehe Hampel, Thorsten / Keil-Slawik, Reinhard: opensTeam – Ein Open Source-Projekt zur kooperativen Strukturierung von Informationen im Team, in: DF N Mitteilungen 55(2) (2001), S. 4–6; Geißler, Sabrina / Hampel, Thorsten / Keil-Slawik, Reinhard: Vom virtuellen Wissensraum zur Lern­u mgebung – Kooperatives Lernen als integrativer Ansatz für eine mediengestützte Bildung, in: i-com 3(2) (2004), S. 5–12.

Unterstützung kontingenter Wissensarbeit     |

S/E

DB

Kanal

S/E

DB

Kanal

S/E

DB

S/E

DB 1  Sender und Empfänger (S / E) verwalten Nachrichten und Dokumente in ihren individuellen D ­ atenbanken (DB)

beteiligter Personen. Werden dagegen die Gegenstände der kommunikativen Übertragung in persistenten Strukturen abgelegt, so kann man beispielsweise über ein Rechtemanagement regeln, wer lesen und wer schreiben kann, und auf diese Weise auch ein Sender-Empfänger-Modell nachbilden, aber dieses Mal gewissermaßen mit einem gedächtnisbehafteten Kanal. Analog dem studiolo der Renaissance verkörpert der virtuelle Handlungs- und Wahrnehmungsraum einen Ort, der verschiedene Funktionen gleichermaßen erfüllen kann. Er fungiert als Arbeitsraum für die Wissensarbeit, als Archiv, als Präsentationsmedium, als Ort der Kommunikation etc. und mutiert damit zu einem virtuellen Wissensraum beziehungsweise korrekter ausgedrückt zu einem virtuellen Ort der Wissensarbeit. Dabei können virtuelle Wissensräume sowohl lokal als auch im Netz verteilt sein, da es durch den kontinuierlich möglichen Zugriff keine Rolle mehr spielt, wo sich ein Wissens­artefakt eigentlich befindet (verteilte Persistenz). Dadurch dass jetzt Änderungen am Objekt direkt für alle Beteiligten sichtbar sind, werden nicht nur neue Differenzerfahrungen ermöglicht, sondern durch die lokale Platzie­r ung von zum Beispiel Kommunikations- und Auswertungsfunktionen tritt auch eine Entlastung ein, denn Medienbrüche können ebenso reduziert werden (zum Beispiel Eingabe- und Transformationsaufwand) wie der mentale Aufwand zur Aneignung von zum Beispiel Adressierungsnomenklaturen. Statt überlegen zu müssen, welcher Kommunikationskanal genutzt werden soll und wie für diesen die Adressen der Personen lauten, die an den entsprechenden Änderungen interessiert sein könnten, ist es nun

19

20

|     Reinhard Keil

S/E

S/E

Virtueller Wissensraum

S/E

Virtueller Wissensraum

S/E

2  Der virtuelle Raum verknüpft Kommunikation und Wissensarbeit mit persistenten Objekten

prinzipiell möglich, sich am Ort des interessierenden Objekts als Abonnent für Änderungsmitteilungen einzutragen oder auch explizit eine Nachricht zu verschicken. Das Erkennen oder auch Wiedererkennen solcher Möglichkeiten, die in räumlich-visuellen Arbeitsumgebungen durch Zeigen und Auswählen unterstützt werden können, ist mit deutlich weniger mentalem Aufwand behaftet als das Erinnern. 38 Virtuelle Wissensräume haben sich im Bereich des E-Learning bewährt, können aber auch Forschungsprozesse unterstützen und damit die Verknüpfung von Forschung und Lehre erleichtern.39 In einem weiteren Schritt gilt es spezielle Arten der Wissensarbeit zu identifizieren und diese durch eine geeignete Innenarchitektur virtueller Räume zu unterstützen. Ein spezifisches Element einer solchen Innenarchitektur ist die Koordinierung von Aktivitäten. Neben der impliziten Koordination, die durch die Schaffung eines verteilten, aber gemeinsamen Handlungs- und Wahrnehmungsraums gegeben ist, geht es bei der expliziten Koordination darum, Ereignisse, die der Koordinierung von Aktivitäten dienen, zu erfassen, zu verwalten und anzuzeigen. Der Mehrwert digitaler Medien liegt also nicht in der Zeit- und Ortsunabhängigkeit des medialen Gebrauchs – das ist auch schon mit analogen Einschreibtechnologien wie zum Beispiel dem Buchdruck möglich –, sondern in der zeit- und ortsübergreifenden Integration und sichert damit die Anschlussfähigkeit von Wissensaktivitäten über 38 Shneiderman, Ben: Direct Manipulation: A step beyond programming languages, in: I E E E Computer 16(8) (1983), S. 57–69. 39 Schulte / Keil / Oberhoff, Unterstützung des ko-aktiven Forschungsdiskurses.

Unterstützung kontingenter Wissensarbeit     |

die Zeit, an verschiedenen Orten und zwischen verschiedenen Personen und Personengruppen. Änderungen an Objekten können automatisch mitgeteilt, schriftliche Äußerungen abonniert, Termine abgestimmt etc. werden. Damit ist es möglich, komplexe didaktische Szenarien umzusetzen wie zum Beispiel eine Pyramidendiskussion oder Thesen-Kritik-Replik-Verfahren40, die Arbeit in virtuellen Laboren zu koordinieren und auch Arbeitsabläufe festzulegen.41 Interaktive Funktionen, mit denen Auswertungen, Objektmanipulationen, die verteilte Speicherung und die synchrone Übertragung flexibel miteinander kombiniert werden können, eröffnen durch ihre vielfältigen Verknüpfungsmöglichkeiten eine Welt medialer Möglichkeiten42, dessen Potenziale heute noch nicht absehbar sind. Beispielsweise ist es in virtuellen Wissens(arbeits)räumen möglich, Kommunikationsfunktionen oder auch einen Chat-Kanal an den zu bearbeitenden Objekten zu platzieren oder sie sogar damit zu verknüpfen. Es können Objekte in vielfältiger Form annotiert, referenziert, indexiert, modifiziert etc. werden, wobei die dabei entstehenden Objekte selbst wieder Auswertungen (Berechnungen) unterworfen oder sie mit unterschiedlichen Berechtigungen versehen werden können. Dazu gehört auch, dass die Granularität der zu bearbeitenden Objekte erst zur Nutzungszeit festgelegt werden kann und nicht schon zum Zeitpunkt der Systemerstellung zementiert wird. Das gilt sowohl für die syntaktische Granularität (zum Beispiel Buch, Seite, Kapitel etc.) als auch für die semantische Granularität (zum Beispiel Teilbild, Stilement, Aussage, Rolle etc.). Mit der Vielfalt dieser Möglichkeiten beginnt erst der interdisziplinäre Forschungsdiskurs über die Innenarchitektur virtueller Handlungs- und Wahrnehmungsräume zur Unterstützung des Forschungsdiskurses in den Geistes- und Kulturwissenschaften, denn Funktionen zur Unterstützung von Wissensarbeit und Auswertungsfunktio­ nen können auf immer neue Art und Weise miteinander verzahnt werden (zum Beispiel interaktive Visualisierung). Zugleich können Objekten in virtuellen Räumen Metadaten zugewiesen werden, die sich nicht nur auf den jeweiligen Inhaltsaspekt beziehen (zum Beispiel Provenienz), sondern auch auf Bearbeitungszustände mit entsprechenden Varianten und Versionen. Durch diese enge Verzahnung von Wissensmodellierungsbeziehungsweise Wissensanalysefunktionen und weitgehend inhaltsneutralen Unterstützungsfunktionen für die Wissensarbeit lassen sich Vorteile des distant reading mit philologischer Feinarbeit (close reading) kombinieren. Ein hypothesengeleiteter Ansatz bleibt unerlässlich, muss aber mit klassischen Methoden der Anforderungsanalyse kombiniert werden. Sobald grundlegende Unter40 Blanck, Bettina / Schmidt, Christiane: „Erwägungsorientierte Pyramidendiskussionen“ im virtuellen Wissensraum opensTeam, in: Tavangarian, Djamshid / Nölting, Kristin (Hg.), Auf zu neuen Ufern! E-Learning heute und morgen, Münster 2005, S. 67–76. 41 Keil, Reinhard: Wissensarbeit in lernenden Organisationen, in: Keil, Reinhard / Kerres, Michael / Schulmeister, Rolf (Hg.), eUniversity – Update Bologna. education quality forum 2006, Bd. 3, Münster 2007, S. 11–32. 42 Keil, Differenztheater.

21

22

|     Reinhard Keil

stützungsfunktionen genutzt werden, entstehen unweigerlich Designkonflikte, die mit theoretischen Überlegungen nicht aufgelöst beziehungsweise austariert werden können. Ein Designkonflikt entsteht immer dann, wenn sich eine oder mehrere gleichermaßen berechtigte Anforderungen nur auf Kosten anderer ebenso berechtigter Anforderungen umsetzen lassen. Solch ein typischer Konflikt aus dem Bereich der ergonomischen Gestaltung ist Vollständigkeit der Informationen auf einer Bildschirmseite versus Übersichtlichkeit der Darstellung. Eine übersichtliche Struktur erlaubt ein schnelleres und sicheres Erschließen der Inhalte, benötigt aber Platz und verdrängt damit evtl. benötigte Informationen. Umgekehrt muss beim Aufteilen von Inhalten auf mehrere Seiten häufiger vor- und zurückgeblättert werden und es besteht die Gefahr, dass Informationen übersehen werden. Dies lässt sich an einem einfachen Beispiel verdeutlichen: An einem Fahrkartenautomaten für gelegentliche Nutzer wird man diesen Konflikt eher zugunsten einer besseren Orientierbarkeit auflösen, wohingegen das Personal am Fahrkartenschalter eher die Vollständigkeit der Informationsdarstellung wünscht, um aufgrund der täglichen Vertrautheit mit dem System den Zeitgewinn durch Vermeiden unnötigen Blätterns auszunutzen. Nicht nur bei der Gestaltung ergonomischer Benutzungsoberflächen treten Designkonflikte in vielfältiger Form auf. Ihre Auflösung oder besser Austarierung ist auch für die Gestaltung virtueller Forschungsumgebungen essentiell.43 Gestaltungskonflikte sind dabei nicht nur mit unterschiedlichen Rollen oder Personen verknüpft, sondern mit einer Fülle von Nutzungskonstellationen, die es im Rahmen einer hypothesengeleiteten Technikgestaltung zu identifizieren gilt. Projektbezogene hermeneutische Feinarbeit benötigt beispielsweise ein hohes Maß an Flexibilität, während die Einbettung in vorhandene Infrastrukturen zum Beispiel durch die Langzeitarchivierung einen hohen Grad an Standardisierung erfordert. Hinzu kommt, dass mit neuen innovativen technischen Möglichkeiten sich auch Bedarfe und Anforderungen verändern, die von den Nutzern so nicht antizipiert werden (können). Schließlich gilt, je komplexer eine virtuelle Forschungsumgebung wird, desto größer wird der Einarbeitungs- und Verstehensaufwand für die Nutzer, der letztlich wieder der eigentlichen Forschungsaufgabe im Wege steht. Insofern bleibt die situationsgerechte Verzahnung eines hypothesengeleiteten Gestaltungsansatzes mit einem nutzerzentrierten und aufgabenbezogenen Vorgehen auf längere Sicht auch in den digital Humanities für die Entwicklung virtueller Forschungsumgebungen unverzichtbar.

43 Keil, Reinhard / Schild, Christian: Gestaltungskonflikte in der Softwareergonomie, in: Boll, ­Susanne /Maaß, Susanne / Malaka, Rainer (Hg.), Mensch & Computer 2013: Interaktive Vielfalt, München 2013, S. 67–77; Keil, Reinhard / Schild, Christian: Hypothesengeleitete Gestaltung von Benutzungsoberflächen, in: Koch, Michael / Butz, Andreas / Schlichter, Johann (Hg.), Mensch und Computer 2014, Tagungsband, München 2014, S. 265–274.

Unterstützung kontingenter Wissensarbeit     |

4. Zusammenfassung und Ausblick Statt Wissen zu modellieren oder Modelle zur Aufdeckung von Wissensstrukturen zu entwickeln, untersuchen wir Prozesse der Wissensarbeit, die grundsätzlich in einen ko-aktiven Arbeitszusammenhang eingebettet sind. Zum einen sind diese Prozesse arbeitsteilig organisiert und zum anderen zielt die Erarbeitung von Wissen in der Regel auf Anschlusshandlungen ab. Wissensarbeit als isolierte individuelle Aktivität gibt es immer nur über einen kurzen Zeitraum, auch wenn die Leistungen des Individuums bis zu einem gewissen Grad isoliert analysiert und betrachtet werden können. Für die Unterstützung von Wissens­arbeit ist deshalb ein kooperationsunterstützender Ansatz unerlässlich, denn Wissen wird über einen größeren Zeitraum hinweg entwickelt, modifiziert und verdichtet. Ein fortgeschrittener Ansatz zur Unterstützung der Wissensarbeit, wie er im Projekt „Studiolo communis“ exploriert worden ist, beinhaltet eine Vielzahl von Fragestellungen, die von der Auswahl der Funktionen, der Granularität der zu bearbeitenden Objekte, über die Koordinierung von Aktivitäten bis hin zur Entwicklung von Benutzungsoberflächen reichen, bei denen die Komplexität der Interaktionsmöglichkeiten die Potenziale zur Differenzerfahrung wieder zunichte machen kann. Solche Probleme, ebenso wie technische Innovationen und damit verbundene Designkonflikte können aber von den zukünftigen Nutzern kaum antizipiert und damit in Form konkreter Anforderungen formuliert werden. Deshalb scheint ein hypothesengeleiteter Ansatz zur Technikgestaltung unverzichtbar. Auf der anderen Seite reicht es nicht aus, aktuelle technische Möglichkeiten beliebig zu kombinieren in der Hoffnung, dass das Unterstützungspotenzial damit adäquat ausgeschöpft wird. Insofern ist eine interdisziplinäre Zusammenarbeit in diesem Bereich unerlässlich. Dies gilt insbesondere unter dem Gesichtspunkt, dass es zwar schon einige Ansätze gibt, die Gegenstände hermeneutischer Wissensarbeit in technik- und werkzeugunabhängigen Repräsentationen zu kodifizieren (T EI, M EI etc.). Die Formen und die Zwischenergebnisse der jeweiligen Wissensarbeit beziehungsweise des Forschungsdiskurses selbst so zu kodifizieren, dass sie plattformunabhängig und werkzeugübergreifend standardisiert werden können, ist noch eine weitere große Herausforderung im Feld der E-Humanities. Der hier vorgestellte Ansatz skizziert ein Forschungsparadigma aus der Sicht der Informatik, das sich darum bemüht, durch eine ausgeprägt mediale Perspektive im Rahmen einer hypothesengeleiteten Gestaltung die Anschlussfähigkeit zur Wissensarbeit und zu den Forschungsdiskursen in den Geistes- und Kulturwissenschaften herzustellen. Dabei werden Artefakte, seien es Symbolsysteme, Instrumente oder auch technische Konstruktionen und Systeme, als Denkzeug betrachtet, das neue Differenzerfahrungen ermöglichen kann (medial-technisches Potenzial), aber nicht notwendigerweise muss. Die Potenziale der Nutzung digitaler Medien zur Unterstützung des Diskurses in den Geistes- und Kulturwissenschaften beginnen sich jedoch gerade erst am Horizont abzuzeichnen.

23

24

|     Reinhard Keil

Literatur Blanck, Bettina / Schmidt, Christiane: „Erwägungsorientierte Pyramidendiskussionen“ im virtuellen Wissensraum opensTeam, in: Tavangarian, Djamshid / Nölting, Kristin (Hg.), Auf zu neuen Ufern! E-Learning heute und morgen, Münster 2005, S. 67–76. Drucker, Peter Ferdinand: The Landmarks of Tomorrow, New York 1957. Elias, Norbert: Über die Zeit. Frankfurt a. M. 1988. Floyd, Christiane: Comments on „giving back some freedom to the system designer“ by f. de cindio, g. de michelis and c. simone: Design viewed as a process, in: Systems Research 2(4) (1984), S. 281–283. Floyd, Christiane: Outline of a Paradigm Change in Software Engineering, in: Bjerknes, Gro / Ehn, Pelle /Kyng, Morten (Hg.), Computers and Democracy – a Scandinavian Challenge, Aldershot 1987, S. 191–210. Floyd, Christiane: Softwareentwicklung als Realitätskonstruktion, in: Lippe, Wolfram-M. (Hg.), Software-Entwicklung. Konzepte, Erfahrungen, Perspektiven, Berlin 1989, S. 1–20. Floyd, Christiane: Software-Engineering – und dann? Informatik Spektrum 17(1) (1994), S. 29–37. Foucault, Michel: Archäologie des Wissens, Frankfurt a. M. 1981. Geißler, Sabrina / Hampel, Thorsten / Keil-Slawik, Reinhard: Vom virtuellen Wissensraum zur Lernumgebung – Kooperatives Lernen als integrativer Ansatz für eine mediengestützte Bildung, in: i-com 3(2) (2004), S. 5–12. Gibson, James J.: Wahrnehmung und Umwelt. Der ökologische Ansatz in der visuellen Wahrnehmung, München 1982. Hampel, Thorsten / Keil-Slawik, Reinhard: opensTeam – Ein Open Source-Projekt zur kooperativen Strukturierung von Informationen im Team, in: DFN Mitteilungen 55(2) (2001), S. 4–6. Hilgert, Markus: ‚Text-Anthropologie‘: Die Erforschung von Materialität und Präsenz des Geschriebenen als hermeneutische Strategie, in: Hilgert, Markus (Hg.), Altorientalistik im 21. Jahrhundert. Selbstverständnis, Herausforderungen, Ziele (Mitteilungen der Deutschen Orient-Gesellschaft 142), Berlin 2010, S. 87–126. Hippner, Hajo: Bedeutung, Anwendungen und Einsatzpotenziale von Social Software, in: HMD – Praxis der Wirtschaftsinformatik, 252 (2006), S. 6–16. Holzweißig, Kai: Ein koaktiver Unterstützungsansatz für Prozesse sozialer Wirklichkeitskonstruktion in Produktentstehungsprozessen, Paderborn 2012, zugl. Diss. Paderborn 2012. Keil-Slawik, Reinhard: Bio-Informatik einmal anders. Zum Verhältnis von menschlicher Informationsverarbeitung und maschineller Datenverarbeitung, in: FIfF-Kommunikation 20(1) (2003), S. 37–41. Keil, Reinhard: Wissensarbeit in lernenden Organisationen, in: Keil, Reinhard / Kerres, Michael / Schulmeister, Rolf (Hg.), eUniversity – Update Bologna. education quality forum 2006, Bd. 3, Münster 2007, S. 11–32. Keil, Reinhard: Das Differenztheater. Koaktive Wissensarbeit als soziale Selbstorganisation, in: Bublitz, Hannelore / Marek, Roman / Steinmann, Christina L. / Winkler, Hartmut (Hg.), Automatismen, München 2010, S. 205–229. Keil, Reinhard: Hypothesengeleitete Technikgestaltung als Grundlage einer kontextuellen Informatik, in: Breiter, Andreas / Wind, Martin (Hg.), Informationstechnik und ihre Organisationslücken. Sozia­ le, politische und rechtliche Dimensionen aus der Sicht von Wissenschaft und Praxis, Berlin 2011, S. 165–184. Keil, Reinhard / Jakoblew, Marcel / Winkelnkemper, Felix: Forschendes Lernen durch semantisches Positionieren, in: Forbig, Peter / Magenheim, Johannes (Hg.), HDI 2014 – Gestalten und Meistern von Übergängen. 6. Fachtagung Hochschuldidaktik der Informatik, Freiburg 2014, S. 73–84. Keil, Reinhard / Schild, Christian: Gestaltungskonflikte in der Softwareergonomie, in: Boll, Susanne / Maaß, Susanne / Malaka, Rainer (Hg.), Mensch & Computer 2013: Interaktive Vielfalt, München 2013, S. 67–77. Keil, Reinhard / Schild, Christian: Hypothesengeleitete Gestaltung von Benutzungsoberflächen, in: Koch, Michael / Butz, Andreas / Schlichter, Johann (Hg.), Mensch und Computer 2014, Tagungsband, München 2014, S. 265–274.

Unterstützung kontingenter Wissensarbeit     |

Keil-Slawik, Reinhard: Konstruktives Design. Ein ökologischer Ansatz zur Gestaltung interaktiver Systeme, Habil.-Schr. TU Berlin 1990 (Forschungsberichte des Fachbereichs Informatik, Bericht Nr. 90–14), Berlin 1990. Keil-Slawik, Reinhard: Artifacts in Software Design, in: Floyd,Christiane / Züllighoven, Heinz / Budde, Reinhard / Keil-Slawik, Reinhard (Hg.), Software Development and Reality Construction, Berlin 1992, S. 168–188. Keil-Slawik, Reinhard: Denkmedien – Mediendenken: Zum Verhältnis von Technik und Didaktik, in: it+ti Informationstechnik und Technische Informatik 44(4) (2001), S. 181–186. Keil-Slawik, Reinhard / Selke, Harald: Mythen und Alltagspraxis von Technik und Lernen, in: Informatik-Forum 12(1) (1998), S. 9–17. Krämer, Sybille: Symbolische Maschinen. Die Idee der Formalisierung in geschichtlichem Abriß, Darmstadt 1988. Mair, Michael / Greiffenhagen, Christian / Sharrock, W. W.: Statistical Practice: Putting Society on Display, in: Theory, Culture & Society, 2015, DOI: 10.1177 / 0263276414559058. Moretti, Franco: Graphs, Maps, Trees: Abstract Models for Literary History, London 2007. Naur, Peter: Programming as Theory Building, in: Microprocessing and Microprogramming 15 (1985), S. 253–261. Nelson, Theodore H.: Computer Lib / Dream Machines, Rev. Ed. Redmond 1987. Nelson, Theodore H.: The Unfinished Revolution and Xanadu, in: ACM Computing Surveys 31(4) (1999), Artikelnr. 37. Nonaka, Ikujirō / Takeuchi, Hirotaka: The Knowledge-Creating Company. How Japanese Companies Create the Dynamics of Innovation, New York 1995. Oeberst, Aileen / Kimmerle, Joachim / Cress, Ulrike: What is Knowledge? Who Creates it? Who Possesses it? The Need for Novel Answers to Old Questions, in: Cress, Ulrike / Moskaliuk, Johannes / Jeong, ­Heisawn (Hg.), Mass Collaboration and Education, Berlin 2016, Kapitel 3. Osterloh, Margit: Human Resources Management and Knowledge Creation, in: Nonaka, Ikujirō / Kazuo, Ichijo (Hg.), Knowledge Creation and Management. New Challenges for Managers, Oxford 2007, S. 158–175. Polanyi, Michael: The Tacit Dimension, Garden City, NY 1967. Schulmeister, Rolf: Virtuelle Universität – Virtuelles Lernen, München 2001. Schulte, Jonas / Keil, Reinhard / Oberhoff, Andreas: Unterstützung des ko-aktiven Forschungsdiskurses durch Synergien zwischen E-Learning und E-Science, in: Köhler, Thomas / Neumann, Jörg (Hg.), Wissensgemeinschaften: Digitale Medien – Öffnung und Offenheit in Forschung und Lehre, Münster 2011, S. 81–91. Schubert, Charlotte: Zauberlehrling und Meister: Digital Humanities zwischen Informatik und Geisteswissenschaften? in: Kobes, Jörn / Ruffing, Kai / Spickermann, Wolfgang (Hg.), 20 Jahre Arbeitsgemeinschaft Geschichte und EDV (Abhandlungen der Arbeitsgemeinschaft Geschichte und EDV 2), Gutenberg 2013, S. 167–186. Shneiderman, Ben: Direct Manipulation: A step beyond programming languages, in: IEEE Computer 16(8) (1983), S. 57–69. Tomasello, Michael: The Cultural Origins of Human Cognition, Cambridge 1999. Tomasello, Michael / Carpenter, Malinda: Shared Intentionality, in: Developmental Science 10(1) (2007), S. 121–125. Volk, Anja / Wiering, Frans / v. Kranenburg, Peter: Unfolding the Potential of Computational Musico­ logy, Proceedings of the13th International Conference on Informatics and Semiotics in Organisations ­(ICISO), Leeuwarden 2001, S. 137–144. Weizenbaum, Joseph: Computer Power and Human Reason: From Judgment To Calculation, San Francisco 1976. Winograd, Terry: What can we teach about human-computer interaction? in: Proceedings SIGCHI Conference on Human Factors in Computing Systems: Empowering People, Seattle 1990.

25

Eva-Maria Seng

Konstellationsforschung als methodischer Ansatz für kooperative Forschungsumgebungen in der Kunst- und Architekturgeschichte

Fragt man nach den anstehenden Problemen oder Beziehungen im Forschungsdiskurs der Geistes- und Kulturwissenschaften im Zusammenhang mit Entwicklung und Anwendung moderner Informationstechnologien, so sind dies nicht mehr Aufgaben der Digitalisierung, sondern Verwaltung und intelligente Auswertung großer heterogener Datenmengen und -gruppen. War lange Zeit Vernetzung das entscheidende Schlagwort, wird diese inzwischen schon problematisiert und der Begriff der „Entnetzung“ ins Spiel gebracht.1 Also nicht mehr die Anwendung oder Heranziehung der digitalen Datenmengen in den Geistesund Kulturwissenschaften ist die Aufgabe, sondern die Bewältigung der Datenmengen und die methodische und theoretische Reflexion darüber, was und gegebenenfalls wie ausgewählt werden soll beziehungsweise wie und auf welche Weise Zusammenhänge freigelegt werden können, die den beteiligten Akteuren selbst verborgen blieben, welche Schlüsse und Handlungsoptionen daraus gezogen werden und welche kreativen Prozesse des Denkens damit erschließbar gemacht werden können. Der Begriff der Vernetzung entstammt ursprünglich der Systemtheorie. Es wird dabei von einzelnen Teilen ausgegangen, die untereinander durch allgemeine und besondere Systemeigenschaften auf unterschiedlichste und vielfältigste Arten miteinander in Beziehung gesetzt sind. Dieses Ursache-Wirkungs-Beziehungsgeflecht bezeichnet man auch als Beziehungsnetz. Die Soziologie übertrug den Begriff auf Personen und deren Geflecht von Beziehungen zu anderen Personen oder Organisationen, die sie darin unterstützten, schnell an Informationen zu gelangen, die dazu dienen, Vorteile zu nutzen oder Probleme und Krisensituationen zu bewältigen.

1 Stäheli, Urs: Entnetzt Euch! Praktiken und Ästhetiken der Anschlusslosigkeit, in: Mittelweg 36 (2013), S. 3–28.

28

|     Eva-Maria Seng

Die Akteur-Netzwerk-Theorie Seit einigen Jahren spielt hier die Akteur-Netzwerk-Theorie, die von den französischen Soziologen Michel Callon und Bruno Latour zur Erklärung von Innovationen in Wissenschafts- und Technikgeschichte entwickelt worden war, eine prominente Rolle. Wissenschafts- und Technikentwicklung werden – so die These – weder durch natürliche, technische oder soziale Faktoren angestossen, sondern erst die nachträgliche Bewertung der Innovationen generiere diese. Dementsprechend stehen nicht die Innovationen selbst im Mittelpunkt des Interesses, sondern die entsprechenden Prozesse, d. h. die Verknüpfung heterogener Komponenten zu Netzwerken, die umso erfolgreicher seien, je abgestimmter die beteiligten Komponenten in der Lage seien, aufeinander zu reagieren. Beteiligt sind dabei nach Latour sowohl Eigenschaften und Verhaltensweisen der belebten und unbelebten Natur, der technischen Artefakte und der sozialen Akteure, Normen, Institutionen, die damit alle Gegenstand der wechselseitigen Relationierungen im Netzwerk sind. Latour versteht also auch Dinge als handelnde Akteure sowohl zwischen Dingen als auch in Beziehung zu menschlichen Akteuren, die in netzwerkartigen Kontexten agieren.2 Die Theorie geht davon aus, dass Verbindungen sowohl materiell (zwischen den Dingen) als auch semiotisch (zwischen Konzepten) bestehen. Ich möchte dies kurz an einer Fallstudie von Michel Callon von 1986 verdeut­ lichen, und zwar an einem Beispiel aus dem Bereich von Forschern, Kammmuscheln und Fischern.3 Anfang der 1970er Jahre hatten in der Bucht von St. Brieuc die Kammmuscheln aufgrund von Überfischung und des Anwachsens natürlicher Feinde abgenommen. Zugleich entdeckten drei französische Forscher in Japan ein neues Verfahren, Kammmuscheln durch das Aussetzen von Muschellarven in Kollektoren gezielt im Meer zu kultivieren. Callon rekonstruierte nun den Prozess der Übertragung (Translation) der japanischen Kultivierung der Kammmuscheln auf die Bucht von St. Brieuc, in deren Verlauf durch Redefinition oder Umdefinition der Identität und der Interessen der beteilig­ ten Akteure ein Netzwerk wechselseitiger Verbindungen entstand. Demnach hatten die Forscher den Übertragungsprozess initiiert. Forscher, Fischer wie Kammmuscheln werden unter dieser Perspektive alle als Akteure definiert, die allesamt das Interesse verfolgen, die Muschellarven auf dem Meeresboden anzusiedeln und wachsen zu lassen. Der Erfolg dieses zunächst hypothetischen Netzwerks sei jedoch davon abhängig gewesen, ob alle beteiligten Akteure auch die ihnen zugedachten Rollen („Enrolment“) übernehmen. So hätten die drei Forscher im Verlaufe dieses Prozesses die „schwierigsten“ Verhandlungen mit den Kammmuscheln führen müssen, um sie dafür bereit zu machen, 2 Latour, Bruno: Eine neue Soziologie für eine neue Gesellschaft. Einführung in die Akteur-Netzwerk-Theorie, Frankfurt a.M. 2007, S. 9–38. 3 Callon, Michel: Einige Elemente einer Soziologie der Übersetzung. Die Domestikation der Kammmuscheln und der Fischer der St. Brieuc-Bucht, in: Bellinger, Andréa / K rieger David J. (Hg.), A N T hology. Ein einführendes Handbuch zur Akteur-Netzwerk-Theorie, Bielefeld 2006, S. 135– 174.

Konstellationsforschung als methodischer Ansatz für kooperative Forschungsumgebungen      |

sich in den Kollektoren zu verankern, ebenso mit den Parasiten, Urlaubern, Meeresströmungen und nicht zuletzt mit der eigenen wissenschaftlichen communitiy, die dem Verankerungsexperiment skeptisch gegenüber stand. Auf diesem Weg mußten die Forscher alle Arten von Zugeständnissen eingehen. Die Fischer dagegen hätten ihre Rolle ohne Probleme übernommen, da sie zukünftige Nutznießer der Kammmuschelzucht sein würden. Michel Callon wollte an diesem Beispiel zeigen, dass die Definition und Distribution von Rollen (Kammmuscheln, die sich verankern, Fischer, die überzeugt sind, dass die Kollektoren helfen können, die Bucht zu regenerieren, Kollegen, die an die Verankerung glauben) das Resultat multilateraler Aushandlungen sind, während derer die Identität der Akteure bestimmt und erprobt wird.4

Für unseren Bereich des Forschungsdiskurses der Geistes- und Kulturwissenschaften im Zusammenhang mit Entwicklung und Anwendung moderner Informationstechnologien scheint mir insbesondere die gesellschaftstheoretische Ausweitung der Akteur-Netzwerk-Theorie jenseits des Bereiches der Wissenschafts- und Technik­ forschung von Bedeutung zu sein. Hier führen Callon und Latour zwei Argumente an, nämlich, dass alle gesellschaftlichen Neuerungen aus einer Verbindung heterogener Elemente resultierten, also dass zwar Politik, Wirtschaft, Wissenschaft, Technik, Kunst und Moral voneinander unterschieden werden könnten, jedoch „keine dieser getrennten Bemühungen möglich ist, ohne gleichzeitiges Engagement in den anderen“.5 Und als zweites Argument dafür, dass die menschliche Sozialität mit Natur und Technik so eng verzahnt sei, dass es unmöglich sei, eine Seite der Medaille ohne die Berücksichtigung der anderen zu verstehen, kommt die – für unseren Bereich – so zentrale Mitwirkung der Dinge an der Entstehung gesellschaftlicher Zusammenhänge zum Tragen. Denn – so Latour und Callon – „ohne die Partizipation – in allen Bedeutungen des Wortes – von Nicht-Menschen, insbesondere von Maschinen und Artefakten, ist kein soziales Leben denkbar. Ohne sie würden wir wie Paviane leben.“6

Konstellationsforschung Eine vielleicht noch treffendere Herangehensweise für kooperative Forschungsumgebungen und die Herausbildung kreativer Prozesse des Denkens hält die Konstellationsforschung durch ein relationales Gefüge von Personen, Theorien, Problemen und 4 Schulz-Schaeffer, Ingo: Akteur-Netzwerk-Theorie. Zur Koevolution von Gesellschaft, Natur und Technik , in: Weyer, Johannes(Hg.), Soziale Netzwerke. Konzepte und Methoden der sozialwissenschaftlichen Netzwerkforschung, München 2000, S. 187–211, hier S. 191. 5 Schulz-Schaeffer, Akteur-Netzwerk-Theorie, S. 208; Latour, Bruno: The Politics of Explanation. An Alternative, in: Woolgar, Steve (Hg.), Knowledge and Reflexivity. New Frontiers in the Sociology of Knowledge, London 1988, S. 155–176, hier S. 169; Callon Michel: Techno-Economic Networks and Irreversibility, in: The Sociological Review 38 (1990), Sp. 132–161, hier Sp. 133 f. 6 Schulz-Schaeffer, Akteur-Netzwerk-Theorie, S. 208. Callon, Michel / Latour, Bruno: Don’t Throw the Baby Out with the Bath School! A Reply to Collins and Yearley, in: Pickering, Andrew (Hg.), Science as Practice and Culture, Chicago 1992, S. 343–368, hier S. 359.

29

30

|     Eva-Maria Seng

Dokumenten bereit, die durch den Münchner Philosophen Dieter Henrich für Rekonstruktionen zur Frühphase des deutschen Idealismus in den 1980er Jahren vorgeschlagen wurde.7 Es soll dabei das Zusammenwirken von unterschiedlichen Denkern in einem gemeinsamen Denkraum untersucht werden.8 Zentrales methodisches Element stellt die Auswertung einer großen Menge serieller Dokumente und eine Vielzahl unterschiedlichster Quellen – wie Nachlässe, Briefe, Aufzeichnungen, Bücherverzeichnisse, Promotionsregeln, Rezensionen und Bücher usw. – dar, die gegeneinander gehalten werden, um Gesprächslagen, Horizonte und Aktionen zu rekonstruieren. Wichtig dabei ist auch ein Vorwissen der Erforschten, da eine der Annahmen der Konstellationsforschung ist, dass eine Konstellation gerade nicht so entsteht, wie bislang in früheren Untersuchungen angenommen worden ist. Denn in der Konstellationsforschung läßt sich ein ‚Durchbruch’ in der Forschung für gewöhnlich dann konstatieren, wenn eine Konstellation schon als solche bekannt ist und es daher bereits eine Reihe guter Gründe dafür gibt, ein Aggregat von Gedanken oder Personen im Verbund zu erörtern.9

Ist demnach ein Durchbruch in der Forschung erreicht, verhält es sich nämlich häufig mit dem Denken einer Gruppe so, dass es fast entgegengesetzt zu der bisherigen Meinung über dieses Denken steht. Eine der zentralen Annahmen für die Methode der Konstellationsforschung besteht darin, dass die vielen Talente im deutschen Idealismus in ihrem Schaffen aufeinander angewiesen waren, so dass ein dynamisches Miterleben, Mitteilen, Mitwissen als Grundzug der Methode zu gelten hat. Fünf Charakteristika werden von den Vertretern der Konstellationsmethode angeführt: 1. Eine relationale Zurichtung des jeweiligen Gegenstandes, der es ermöglicht, Transformationen des Denkraumes vorzunehmen und dabei auch bislang nicht berücksichtigte Akteure einzubeziehen; 2. eine spannungsgeladene Sicht auf diese kreativen Prozesse, die innerlich und äußerlich in Antagonismus und Widerstreit ablaufen; 3. die Rekonstruktion der Konstellation muß unpubliziertes, aufwendig recherchiertes Quellenmaterial enthalten, um dadurch 4. Zusammenhänge freizulegen, die den beteiligten Akteuren selbst verborgen blieben, also sich auch dem zeitgenössischen Kontext entzogen. Und 5. soll die Sichtbarmachung systematischer Potenziale eine Aktualisierung der behandelten Ideen ermöglichen. Die Rekonstruktion sollte sich also nicht nur auf historische Abläufe beziehen, sondern sich mit Sachfragen verbinden, die zu einer Argumentenanalyse führen.10

  7 Henrich, Dieter: Konstellationsforschung zur klassischen deutschen Philosophie. Motiv – Ergebnis – Probleme – Perspektiven – Begriffsbildung, in: Mulsow, Martin / Stamm, Marcelo R. (Hg.), Konstellationsforschung, Frankfurt a. M. 2005, S. 15–30, hier S. 16 ff.   8 Stamm, Marcelo R.: Konstellationsforschung – Ein Methodenprofil: Motive und Perspektiven, in: Mulsow / Stamm, Konstellationsforschung, S. 31–73, hier S. 35 ff.   9 Ameriks, Karl: Konstellationsforschung und die kopernikanische Wende, in: Mulsow / Stamm, Konstellationsforschung, S. 101–124, hier S. 111. 10 Dahlstrom Daniel: Seiltänzer. Herausforderungen der Konstellationsforschung in: Mulsow /  Stamm, Konstellationsforschung, S. 125–138, hier S. 127–133.

Konstellationsforschung als methodischer Ansatz für kooperative Forschungsumgebungen      |

Beispiel: Wesersandstein Gewendet auf unsere Fragestellung nach kooperativen Forschungsumgebungen und der Unterstützung des Forschungsdiskurses in den Kulturwissenschaften möchte ich das Ausgeführte an einem Projekt aufzeigen: Ausgehend vom Objekt des Wesersandsteins, dessen Verarbeitung, Transport und Versetzung weltweit vom 16. bis 19. Jahrhundert sollten übergreifende forschungspolitische, theoretische und methodische Ziele verbunden werden. Im Jahr 1976 machte man vor der westaustralischen Küste einen spektakulären Fund: das Wrack des 1629 gesunkenen Handelsschiffes Batavia der niederländischen VOC (Verenigde Oostindische Compagnie). An Bord befand sich ein vorgefertigter Bausatz eines Portals aus 149 Einzelteilen für die Zitadelle von Batavia, dem heutigen Djakarta. Dieser Befund warf eine Reihe von Fragen materiell-technischer, handels- und betriebswirtschaftlicher sowie kultureller Art auf, die mit den Methoden der Kunstund Architekturgeschichte und der Wirtschaftsgeschichte beantwortet werden sollten. Mit der Erforschung der Präfabrikation von Bauten, weltweitem Transport, Export und Kulturtransfer lange vor der Industrialisierung betrat das Projekt Neuland. Die Informatik trug dazu auf zweierlei Weise zur Erforschung bei: Einerseits kann sie mit ihren Methoden die Kluft zwischen archivalischen und immateriellen Befunden und konkreter Materialität der Bauten überprüfen, andererseits serielle Quellen der statistischen Auswertung verfügbar machen und die Ergebnisse strukturieren und in unterschiedliche Präsentationsformen umsetzen und miteinander verknüpfen. Weit vor der Langzeitarchivierung galt es, Forschungsprozesse begleitend zu unterstützen, ohne dass schon ein validiertes und ausdifferenziertes Datenmodell zur Verfügung gestanden hätte. Das Potential Digitaler Rekonstruktionen durch die Architektengruppe (IKA TU Darmstadt) bestand darin, Erkenntnisse interdisziplinärer Forschungsprozesse zu fusionieren, zu verdichten und aufgestellte Thesen mit Hilfe von Modellen zu überprüfen. Der Einsatz von 3D-Modellen ging durch die Entwicklung von Forschungstools über die reine Visualisierung von Bauwerken hinaus. Höchst heterogene Quellen, Objekte und Medien wurden im Projekt identifiziert, aufbereitet und in Beziehung gesetzt. Auf diese Weise wurden Forschungsprozesse allererst initiiert und neue Erkenntnisse generiert. Die besondere Herausforderung bestand in der integrativen Erhebung und Auswertung höchst unterschiedlicher archäologischer, archivalischer, physikalischer, wirtschaftlicher und architektonischer Befunde. Mit der skizzierten Ausrichtung wollte das Forschungsvorhaben sowohl im geistesund kulturwissenschaftlichen Bereich unterschiedliche Perspektiven, die bisher gesondert untersucht worden sind, interdisziplinär miteinander verbinden (Kunst-, Architektur- und Wirtschaftsgeschichte) als auch durch die Einbeziehung der kontextuellen Informatik und der CAD-basierten Computersimulation der Architekten diesen Ansatz allererst verwirklichen. Sachlich, methodisch und theoretisch bedeutet dies eine Verbin-

31

32

|     Eva-Maria Seng

dung von materiellen und immateriellen Daseinswirklichkeiten und somit eine Gesamtschau wirtschaftlicher Verflechtungen und kulturellen Austausches zwischen dem 16. und dem 19. Jahrhundert. Mit dem Wesersandstein und den Implikationen seiner Verwertung stand ein Objekt im Mittelpunkt der Forschung von Vertretern traditionell getrennter Wissenschaftsdisziplinen, nämlich der Kunstgeschichte, der Wirtschaftsgeschichte, der Informatik und der Architektur. Wie hiermit schon unterschiedliche Wissenskulturen in Beziehung traten, geschah das auf der sachlichen Ebene durch die komplexe Erforschung heterogener Wissenskulturen verschiedener Weltregionen. Die Umkehrung der Sichtweise vom fertigen Produkt – sprich: Gebäude – hin zu dessen Material, dessen Verarbeitung und zum gesamten, performativen, Entstehungsprozess verwies auf die dem Objekt eingeschriebenen kulturellen Praktiken und Bedeutungen. Diese gehen auf Akteure unterschiedlicher kultureller Herkunft, andersartigen Wissens- und Kenntnisstandes und Habitus zurück, die wiederum in einem Rückkopplungsprozess eine diesbezügliche Veränderung und Umprägung erfuhren. Durch den Forschungsansatz des Projektes wurden letztlich auch scheinbar festgefügte personale und kollektive Identitätskonstrukte (Stichwort: Weserrenaissance) in Frage gestellt und räumliche Begrenzungen aufgrund der sonst gängigen methodischen und sachlichen Trennung zwischen Material, Produktion und Handel (Stichwörter: Wirtschaft, Technik) einerseits und Entwurf (Stichwort: disegno) und Ausführung (Stichwörter: Architektur, Baugeschichte) andererseits revidiert. Kurz, gewissermaßen die Bezugsgröße solcher methodischen, disziplinären und materiellen Grenzüberschreitungen bildete der Wesersandstein als Objekt. Ein Bereich des Forschungsprojektes untersuchte dabei die Handelsbedingungen und abläufe vom Bruch der Steine bis zu ihrer Auslieferung an die Baustellen sowie daraus resultierende Handelsbeziehungen der beteiligten Akteure. Eine zentrale Frage bildete der mit dem Warenaustausch einhergehende Ideentransfer. Damit war neben reimportierten Gütern der Austausch von immateriellen Gütern, etwa dem Wissen um bestimmte Bautechniken oder dem Aneignen stilistischer Neuerungen gemeint, die aus internationalen Beziehungsgeflechten resultierten. Für den Forschungsprozess war auch entscheidend, dass die aus unterschiedlichsten Quellen und unter Bezug auf unterschiedliche Sammlungen erhobenen Daten mit ihren verschiedensten Ausgangsformaten und Repräsentationen für den Forschungsdiskurs und die Analyse einerseits und die spätere Präsentation andererseits aufbereitet, visualisiert und bearbeitbar gemacht werden konnten. Entscheidend ist für die arbeitsteilige Organisation der Projektarbeiten unter Mitarbeitern unterschiedlicher Disziplinen die Integration in einen verteilten Arbeitsplatz, dem ein heterogenes Repositorium zugrunde liegt, das über unterschiedliche Sichten beziehungsweise Zugänge verwaltet und bearbeitet wird. Im Content Repository wurden so unterschiedliche Objekte wie Bilder, Pläne oder Maße von realen Gebäuden abgelegt.

Konstellationsforschung als methodischer Ansatz für kooperative Forschungsumgebungen      |

Es wurden dabei zahlreiche unbekannte Quellen aus unterschiedlichen Archiven zusammen mit bereits bekannten Zusammenhängen, Relationen, Objekten in Verbindung und Zusammenschau gebracht, um dadurch neue Bezüge, neue Kontexte und neue Einsichten zu gewinnen. Je nach Sicht konnten die jeweiligen Objekte spezifisch nach inhaltlichen Kriterien arrangiert und nicht nur in Listenform angezeigt oder aufbereitet werden. Dadurch war es möglich, unterschiedliche, für die Identifizierung von „Mustern“ benötigte Sichten jeweils zur Bearbeitung anzubieten. Eine solche Sicht kann auf bestimmte Zeitabschnitte bezogen sein oder auch auf eine geografische Topologie oder auf konzeptuelle Relationen. Damit konnten die für die Forschungsarbeit wichtigen Wechsel zwischen Analyse und Visualisierung und bewertender Erfassung und Aufbereitung auf eine flexible und schnelle Art und Weise ermöglicht und im Repository abgelegt werden.11

Resumée Abschließend möchte ich damit nochmals auf meine beiden eingangs vorgestellten Theo­r ien zurückkommen. Wie in der A N T stehen die entsprechenden Prozesse, d. h. die Verknüpfung heterogener Komponenten zu Netzwerken, zunächst im Vordergrund des Projekts, um daraus Innovationen abzuleiten. Und ebenso wie in der Konstellationsforschung bildet ein zentrales methodisches Element die Auswertung einer großen Menge serieller Dokumente und eine Vielzahl unterschiedlichster Quellen, die gegeneinander gehalten werden, um Gesprächslagen, Horizonte und Aktionen zu rekonstruieren. Wichtig dabei ist nicht nur ein Vorwissen der Erforschten, sondern insbesondere auch der Forscher. Zentrales Mittel für die Generierung neuen Wissens ist jedoch der Ausgangspunkt vom Objekt, dessen Kontext, Bezüge und die weitere Zusammenschau und Vergleichbarkeit zahlreicher unterschiedlichster Quellen und Informationen.

Literatur Ameriks, Karl: Konstellationsforschung und die kopernikanische Wende, in: Mulsow, Martin / Stamm, Marcelo R. (Hg.), Konstellationsforschung, Frankfurt a.M. 2005, S. 101–124. Callon, Michel: Techno-Economic Networks and Irreversibility, in: The Sociological Review 38 (1990), Sp. 132–161. Callon, Michel: Einige Elemente einer Soziologie der Übersetzung. Die Domestikation der Kammmuscheln und der Fischer der St. Brieuc-Bucht, in: Bellinger, Andréa / Krieger, David J. (Hg.), ANThology. Ein einführendes Handbuch zur Akteur-Netzwerk-Theorie, Bielefeld 2006, S. 135–174.

11 Es handelt sich hierbei um ein zwischen 2013 und 2016 durch das BM BF gefördertes interdisziplinäres Forschungsprojekt der Universitäten Paderborn (Kunstgeschichte, Wirtschaftsgeschichte, kontextuelle Informatik) und der TU Darmstadt (Digitales Gestalten); www.uni-paderborn.de/ wesa.

33

34

|     Eva-Maria Seng

Callon, Michel / Latour, Bruno: Don’t Throw the Baby Out with the Bath School! A Reply to Collins and Yearley, in: Pickering, Andrew (Hg.), Science as Practice and Culture, Chicago 1992, S. 343–368. Dahlstrom Daniel: Seiltänzer. Herausforderungen der Konstellationsforschung, in: Mulsow, Martin / Stamm, Marcelo R. (Hg.), Konstellationsforschung, Frankfurt a. M. 2005, S. 125–138. Henrich, Dieter: Konstellationsforschung zur klassischen deutschen Philosophie. Motiv – Ergebnis – Probleme – Perspektiven – Begriffsbildung, in: Mulsow, Martin / Stamm, Marcelo R. (Hg.), Konstellationsforschung, Frankfurt a. M. 2005, S. 15–30. Latour, Bruno: The Politics of Explanation. An Alternative, in: Woolgar, Steve (Hg.), Knowledge and Reflexivity. New Frontiers in the Sociology of Knowledge, London 1988, S. 155–176. Latour, Bruno: Eine neue Soziologie für eine neue Gesellschaft. Einführung in die Akteur-Netzwerk-Theo­ rie, Frankfurt a. M. 2007. Schulz-Schaeffer, Ingo: Akteur-Netzwerk-Theorie. Zur Koevolution von Gesellschaft, Natur und Technik, in: Weyer, Johannes (Hg.), Soziale Netzwerke. Konzepte und Methoden der sozialwissenschaftlichen Netzwerkforschung, München 2000, S. 187–211. Stäheli, Urs: Entnetzt Euch! Praktiken und Ästhetiken der Anschlusslosigkeit, in: Mittelweg 36 (2013), S. 3–28. Stamm, Marcelo R.: Konstellationsforschung – Ein Methodenprofil: Motive und Perspektiven, in: Mulsow, Martin / Stamm, Marcelo R. (Hg.), Konstellationsforschung, Frankfurt a. M. 2005, S. 31–73.

Jörn Sieglerschmidt

Wissensordnungen im analogen und im digitalen Zeitalter* Es gibt keine Antworten. Nur Querverweise.1 (Clemens Walter)

1. Einleitung Menschliche Geschichte ist eine solche der Kommunikation. Menschliche Kommunikation dient der Erzeugung, Mitteilung und damit dem Austausch von Zeichen. Eine Untersuchung geschichtlicher Abläufe beginnt mit den Arten und Mitteln des Zeichenaustausches. Erst dann sind auch die Inhalte der Zeichen von Belang. Das Spektrum der Kommunikationsarten liegt zwischen der monologischen (zum Beispiel Selbstgespräch) und der Kommunikation unter unbegrenzt vielen Teilnehmern (Internet) an einem Kommunikationsprozess, das der Kommunikationsmittel zwischen virtuellen, d. h. unfassbaren, und haptischen wie einer Keule. In der überall und ständig laufenden Kommunikation wird Wissen als das bezeichnet, was als geronnene Erfahrung den Inhalten der Kommunikation eine Rahmung gibt.2 Olaf Breidbach (1957–2014) hat von Mustern des Wissens gesprochen, die einer historischen Entwicklung unterliegen.3 Mit Peter Berger und Thomas Luckmann könnte von einer Sedimentation kommunikativer Prozesse in der Erinnerung und Erfahrung geredet werden.4 Wissen verengt damit die Möglichkeiten der Wahrnehmung, macht bestimmte Wahrnehmungen wahrscheinlicher als andere und vermindert daher den Zufall in der Kommunikation, der ansonsten jede Kommunkationssituation beherrschen würde. Es *

1 2 3 4

Mit freundlicher Genehmigung des de Gruyter Verlages formal angepasster Wiederabdruck der Erstveröffentlichung in: Handbuch Kulturportale. Online-Angebote aus Kultur und Wissenschaft, hg. v. Euler, Ellen / Hagedorn-Saupe, Monika / Maier, Gerald / Schweibenz, Werner / Sieglerschmidt, Jörn, Berlin 2015. Für eine kritische Durchsicht des vierten Abschnittes danke ich Regine Stein. www.kulturrecycling.de. Goffman, Erving: Rahmen-Analyse : ein Versuch über die Organisation von Alltagserfahrungen (stw 329), Frankfurt a.M. 2008 (Erstveröff.: Frame analysis: an essay on the organization of experience, New York 1974). Breidbach, Olaf: Neue Wissensordnungen. Wie aus Informationen und Nachrichten kulturelles Wissen entsteht (eu 10), Frankfurt a.M. 2008, S. 16. Berger, Peter L. / Luckmann, Thomas: Die gesellschaftliche Konstruktion der Wirklichkeit: eine Theorie der Wissenssoziologie, Frankfurt a.M. 1969.

36

|     Jörn Sieglerschmidt

ist klar – steht hier aber nicht zur Debatte –, dass neben dem Wissen als Muster symbolischer Zeichen auch andere fassbarere Zeichen, in deren Materialität ebenfalls Wissen inkorporiert ist, dem Zufall der Kommunikation Grenzen setzen. Ordnungsliebe gehört nicht zu den Tugenden, die allgemein geachtet werden, sondern gilt als engstirnig, spießig, wenn nicht sogar die Freudsche Pathologisierung als anale Fixierung die Lebensgeschichte der / s Ordnenden als zwanghaft unfreiwillig offenlegt. Friedrich Wilhelm III. von Preußen (1770–1840) hat in einem Brief an Freiherr vom Stein (1757–1831) am 12.11.1805 aus Anlass der Begründung des preußischen statistischen Bureau deutlich gemacht, worum es geht: Statistik müsse Ordnung, Vollständigkeit und Verlässlichkeit haben; deutsche Sorgfalt, Fleiß und Ausdauer brächten in dieser Hinsicht mehr als brillantes Talent, wenn sie nicht letzteres zerstörten.5 So kann Ordnungsliebe bis zu einem gewissen Grade entbehrliches Genie ersetzen. Bereits Jakob Friedrich Reimmann (1668–1743) hatte „der absurde und fast in summo gradu [in höchstem Ausmaß] pedantische Zustand unserer itzigen inhaltlosen Zeiten … gedauert“,6 ein Pedantismus, der von der Aufklärung nicht nur gegen ihn, sondern insgesamt gegen die humanistische und barocke Universalwissenschaft des 16. und 17. Jahrhunderts erhoben wurde.7 Vor dem Hintergrund einer Abwertung von Wissensordnungen angesichts ihrer geringen räumlichen und zeitlichen Reichweite und ihrer durch fragmentierte gesellschaftliche Formen bedingten Beliebigkeit stellt sich die Frage nach der Wahrheit, nach der Geltung, der Kohärenz und Verbindlichkeit des Wissens. Welche gesellschaftlichen Prozesse finden täglich statt, um Wahrheit, Geltung, Kohärenz und Verbindlichkeit zu erzeugen? Wem glauben wir? An was glauben wir? Diese in die Erkenntnistheorie weisenden Fragen werden an dieser Stelle nicht beantwortet, müssen aber aufgeworfen werden, um deutlich werden zu lassen, dass das Generalthema in einem gesellschaftlichen Feld verortet ist, dem es seine Relevanz verdankt, aber auch gibt. Ordnung ist nicht als solche Wahrheit. Ordnung kann nur ein Wegweiser zur Wahrheit sein. Die Wahrheit selbst muss jeder für sich feststellen auf der Grundlage all der Wissensbausteine, die er in seinem Leben vorgefunden hat. Wissensordnung kann daher lediglich die Struktur abgeben, in deren Aufbau wir uns bewegen. Die Metapher des Bauens – das lateinische structura verweist auf diesen Zusammenhang – mag hier insofern berechtigt sein, als der fertige Bau feste und vernetzte Strukturen aufweist, die nicht ohne gewalt(ät)ige Eingriffe geändert werden können. Auch Ordnungen oder vernetzte Systeme haben solche Eigenschaften, die uns als (technische) Kultur, (sozialer)

5 Hacking, Ian: The taming of chance, Cambridge 1990, S. 27. 6 Mulsow, Martin: Die Paradoxien der Vernunft. Rekonstruktion einer verleugneten Phase in Reimmanns Denken, in: Mulsow, Martin / Zedelmaier, Helmut (Hg.), Skepsis, Providenz, Polyhistorie (Hallesche Beiträge zur Europäischen Aufklärung 7), Tübingen 1998, S. 15–59, hier 57: Zitat aus einem Brief von Reimmann an Christian Thomasius (1655–1728) vom 9. April 1696. 7 Mulsow, Martin / Zedelmaier, Helmut (Hg.): Skepsis, Providenz, Polyhistorie Polyhistorie (Hallesche Beiträge zur Europäischen Aufklärung 7), Tübingen 1998, S. 10 f.

Wissensordnungen im analogen und im digitalen Zeitalter      |

Habitus, Weltanschauung, philosophische Lehre wie Nominalismus oder Realismus, geistesgeschichtliche Epoche wie Humanismus oder Aufklärung begegnen. Ergeben sich durch die zeit- und ortsgleiche Zugänglichkeit (Verfügbarkeit) bildlicher (einschließlich schriftlicher) und akustischer Zeugnisse menschlichen Geistes neue Erkenntnisse, so wie es Paul Otlet (1868–1944) 1934 und André Malraux (1901–1976) 1947 erträumt hatten?8 So jedenfalls versprechen es die sogenannten digitalen Geisteswissenschaften heute wieder. Ist durch frühere Ordnungs- und Präsentationsversuche, die hier als enzyklopädisch zusammengefasst werden, neues Wissen entstanden? Derartige empirische Befunde und darauf sich berufende Aussagen gibt es bisher nicht. Und doch sind wir alle überzeugt, dass Ordnungen des Wissens notwendig sind, um in der Fülle des möglichen Wissens das uns wichtig erscheinende aufzufinden. Gerade die Aufklärung hat aber die enzyklopädisch ausgerichtete Universalwissenschaft des 16. und 17.  Jahrhunderts als geist-, weil einfallsloses Zusammenstellen der Erkenntnisse vergangener Jahrhunderte, als Kompilieren und Eklektizismus bezeichnet. Und doch war bereits den Humanisten klar, dass in das seit dem hohen und späten Mittelalter gewaltig gewachsene Wissen besonders über antike Autoren – verstärkt ab Mitte des 15. Jahrhunderts durch die Medien­revolution des Buchdrucks – ein neues Gefüge, eine neue Wissensordnung eingezogen werden müsse. Humanisten warfen der Aristoteles (384–322) kommentierenden Scholastik selbst vor, sich im inhaltlich leeren Kommentieren zu verzetteln, ohne eigene neue, systematische und methodische Ordnungssysteme zu entwerfen. Die Menge der exponentiell wachsenden Bücherproduktion und damit die als Flut wahrgenommene Menge der Informationen, die spätestens seit dem 16. Jahrhundert und bis heute beklagt wurde, waren Grund genug, über Ordnungssysteme nachzudenken.9

2.  Wissen und Kommunikation Wissen ist so vielfältig definiert worden, dass es schwerfällt, einen weiteren Versuch zu machen, um sich über den Begriff wenigstens für die Lektüre dieses Textes zu verständigen. Es ist schon erstaunlich, dass in einer Gesellschaft, die sich über ihr Wissen als sogenannte Wissensgesellschaft definiert, kein allgemein geteiltes Verständnis darüber herrscht. Wissen entsteht, wird aus der Erinnerung vergegenwärtigt, weitergegeben, bestätigt in der Kommunikation mit sich selbst, anderen Lebewesen und mit Dingen, d. h. in der Auseinandersetzung mit der Welt. Wissen verändert sich täglich in spezi8 Otlet, Paul: Traité de documentation. Le livre sur le livre. Théorie et pratique, Bruxelles 1934, S. 428–431; Malraux, André: Le musée imaginaire, Paris 1965 (Erstveröff. 1947), S. 11–16; Grasskamp, Walter: André Malraux und das imaginäre Museum. Die Weltkunst im Salon, München 2014. 9 Arndt, Johannes / Körber, Esther-Beate (Hg.): Das Mediensystem im Alten Reich der Frühen Neuzeit (1600–1750) (Veröffentlichungen des Instituts für Europäische Geschichte Mainz, Abteilung Universalgeschichte, Beiheft 75), Göttingen 2010, S. 20; Briggs, Asa / Burke, Peter: A social history of the media. From Gutenberg to the internet, Cambridge 2005, S. 64.

37

38

|     Jörn Sieglerschmidt

fischen Kommunikationssituationen, bildet also keinen einmal erworbenen Bestand, der jederzeit abrufbar ist. Ernst Pöppel hat vor kurzem drei methodisch unterschiedene Wissensformen definiert:10 a) Explizites Wissen: algorithmisches, d. h. benennbares, eindeutig kommunizierbares und nach angebbaren Regeln immer gleichartig abrufbares Wissen. b) Implizites Wissen: Handlungswissen (Beherrschung bestimmter Handlungsabläufe); Körperwissen (motorisches Wissen); heuristisches Wissen (alltäglich benötigtes Gewohnheitswissen); intuitives Wissen, gespeist aus Erfahrung und Gefühl; Harold Garfinkel (1917–2011) spricht in diesem Zusammenhang von „embodied practices“ als in der Handlung verkörperten Praktiken.11 c) Bild- beziehungsweise metaphorisches Wissen (visuelle und sprachliche (Geschichten), Sinn machende Bilder): Anschauungswissen (Orientierung in der äußeren Welt); Erinnerungswissen (Orientierung aus der inneren Welt); Abstraktionswissen. Diese Einteilung der Wissensformen erscheint deshalb plausibel, weil sie sich kommunkationstheoretisch und wissenssoziologisch begründen lässt. Enthalten ist eine fast ethnomethodologische Sichtweise, ein Wirklichkeitsmodell, das kommunikationstheoretisch begründet wird. Von allen auf Alfred Schütz (1899–1959) zurückgehenden Modellen der Konstruktion sozialer Wirklichkeit (Peter L. Berger (*1929) / T homas Luckmann (1927–2016), Aaron Cicourel (*1928), Erving Goffman (1922–1982) u.a. Vertreter der sogenannten phänomenologischen Soziologie, des symbolischen Interaktionismus, der Wissenssoziologie) ist dieses das radikalste, indem es eine objektive Wirklichkeit im philosophisch verstandenen realistischen Sinne leugnet. Die Konstruktion sozialer Wirklichkeit vollzieht sich im alltäglichen Handeln. Für Harold Garfinkel fundiert die Einsicht eine Forschungsstrategie, die nach den Konstitutionsbedingungen der sozialen Wirklichkeit fragt und die empirische Forschung angesichts der Brüche, der Risiken des Gelingens alltäglicher Kommunikation ausrichtet auf die Frage nach dem Wie. Soziales Handeln ist immer im nachhinein zurechenbar – „accountable“ nach Garfinkel –, d. h. erzählbar, erklärbar. Vorläufigkeit, Vagheit, Unvollständigkeit, Ambiguität kennzeichnen die alltägliche Kommunikation.12 Keine Sichtweise ist besser geeignet, die 10 Pöppel, Ernst: Wissen – und wie es kommuniziert werden kann, in: Ball, Rafael (Hg.), Wissenschaftskommunikation der Zukunft (Schriften des Forschungszentrums Jülich, Reihe Bibliothek 18), Jülich 2007, S. 11–21 (http://hdl.handle.net/2128/2893). 11 Bergmann, Jörg Reinhold: Ethnomethodologie, in: Flick, Uwe / Kardorff, Ernst von / Steinke, Ines (Hg.), Qualitative Forschung. Ein Handbuch (re 55628), Reinbek 2000, S. 118–135, hier 131. 12 Bergmann, Ethnomethodologie, S. 121–128; Sieglerschmidt, Jörn: Kommunikation und Inszenierung. Vom Nutzen der Ethnomethodologie für die historische Forschung, in: Burkhardt, Johannes / Werkstetter, Christine (Hg.), Kommunikation und Medien in der frühen Neuzeit (Historische Zeitschrift, Beihefte NF 41), München 2005, S. 433–460; Kambartel, Friedrich / Stekeler-Weithofer, Pirmin: Sprachphilosophie. Probleme und Methoden (RU B 18380), Stuttgart 2005, S. 43 u. passim.

Wissensordnungen im analogen und im digitalen Zeitalter      |

virtuelle Welt globaler Kommunikation auszudeuten, da Information immer als indexikalisch, als gebunden an die sozialen Kontexte ihrer Hervorbringung begriffen werden muss.13 Denn sie umschließt zugleich dekonstruktivistische Positionen, die im Logozentrismus, in der Herstellung einer eindeutigen Referenzbeziehung zwischen Wirklichkeit und Wort, einen Grundfehler philosophischen Denkens bis Martin ­Heidegger (1889– 1976) sehen.14 Im Schein einer virtuellen Welt ist jede / r auf die äußeren Merkmale ihrer Performanz, der bildlich und körperlich sichtbaren Aufführung angewiesen, da die sozia­len Kontexte ihrer Hervorbringung nicht rekonstruierbar sind. Virtuelles Wissen muss daher immer vage bleiben, weil es eben nicht von seiner Indexikalität geheilt werden kann. Damit rücken rhetorische Fragestellungen der Präsentation des Wissens, der Plausibilisierung von Wissen wieder in den Blickpunkt. Die Rhetorik hatte spätestens seit Platon (428 / 427–348 / 347) einen ebenso schlechten Ruf wie die Ordnungsliebe heute. Die Täuschungsabsichten rhetorischer Argumentationsfiguren gerieten unter Generalverdacht, als mit dem Aufkommen der sogenannten exakten Naturwissenschaften der Gebrauch des Wortes bereits als Abweg erscheinen konnte. Thomas Sprat (1635–1713) hatte in seiner 1667 veröffentlichten „History of the Royal Society of London for the Improvement of knowledge“ bereits für Wissenschaftler einen unrhetorischen Stil verlangt, der sich an der Sprache der Handwerker und Bauern orientieren solle. Er konnte sich dabei auf die klassische antirhetorische Figur des „Res, non verba“ (Die Sache, keine Wörter) berufen,15 die auch bei Cato (der Ältere, 234– 149) zu finden war: „Rem tene, verba sequuntur“ (Halte Dich an die Sache, die Wörter werden folgen).16 Trotz dieser älteren Tradition sieht auch Stephen Toulmin (1922–2009) den in der Neuzeit vollzogenen Wechsel von der mittelalterlichen, kontextgebundenen Logik zur neuzeitlichen, kontextinvarianten Logik als entscheidend und falsch an, da keine Aussage ohne die Berücksichtigung der Umstände ihrer Äußerung Sinn haben könne. Er weist außerdem darauf hin, dass die Entstehung der neuzeitlichen Auffassung mit dem Aufkommen des Buchdrucks einhergeht und der seitdem vertretenen Meinung, dass Alltagswahrnehmungen im Vergleich zu naturwissenschaftlichen als ungenau einzustufen sind.17

13 North, Klaus: Wissenschaftliche Unternehmensführung. Wertschöpfung durch Wissen, 5. Aufl. Wiesbaden 2011, S. 36. 14 Derrida, Jacques: De la grammatologie, Paris 1967, S. 22–27 u. 71–73; Küster, Marc Wilhelm: Geordnetes Weltbild. Die Tradition des alphabetischen Sortierens von der Keilschrift bis zur E DV. Eine Kulturgeschichte, Tübingen 2006, S. 6–9. 15 Blumenberg, Hans: Anthropologische Annäherung an die Aktualität der Rhetorik, in: Kopperschmidt, Josef (Hg.), Rhetorik Band 2: Wirkungsgeschichte der Rhetorik, Darmstadt 1991, S. 285– 312, hier 310; Fumaroli, Marc (Hg): Histoire de la rhétorique dans l‘Europe moderne 1450–1950, Paris 1999, S. 616. 16 Cahn, Michael: Kunst der Überlistung. Studien zur Wissenschaftsgeschichte der Rhetorik (Theorie und Geschichte der Literatur und schönen Künste 76, N. F., Reihe A 2), München 1986, S. 84. 17 Toulmin, Stephen: Der Gebrauch von Argumenten, 2. Aufl. Weinheim 1996 (Erstveröff.: The uses of argument, Cambridge 1958), S. 93 u. 181 ff.

39

40

|     Jörn Sieglerschmidt

Josef Kopperschmidt will, an Stephen Toulmin und Hans Blumenberg (1920–1996) anknüpfend, die Rhetorik als philosophische Argumentationslehre rehabilitieren und beruft sich dabei auf Aristoteles. Dieser habe – im Gegensatz zu Platon, der die Sophistik als nicht theoriefähig aus der Philosophie ausschließen wollte – die επιστήµη (epistéme), d. h. die (natur)wissenschaftlich-philosophische Erkenntnis, gleichrangig neben die δόξα (dóxa), die Meinung gestellt, über die unterschiedliche Auffassungen möglich sind. Eine Meinung kann Wahrscheinlichkeit für sich beanspruchen, (natur)wissenschaftlich-philosophische Erkenntnis dagegen Wahrheit.18 Das Wahrscheinliche als Hauptgegenstand forensischer Rede und soziopolitischer Kommunikation wird damit nicht abgewertet, sondern lediglich abgesetzt gegen das Notwendige, das zwangsläufig so ist, wie es ist. Erst die imperiale Geste der neuzeitlichen, empirischen Naturwissenschaften hat das Wahrscheinliche in die Nähe des Unwahren gerückt. Sprache wurde im Humanismus und der Barockzeit in den Mittelpunkt einer Wissensmethode und -systematik gestellt, die der Stärkung des Gedächtnisses, der Entwicklung einer ars memoriae, einer Gadächtniskunst galt. Es ging der Topik, in der Grammatik, Dialektik und Rhetorik vereint wurden, um die inventio, d. h. das kunstvoll betriebene Auffinden von Argumenten für die forensische Rede. Neben die ratiocinatio (Vernunftschluss) mit dem logischen Syllogismus und dem Enthymem trat die Induktion, d. h. die Aufzählung von Beispielen, um ein vorgetragenes Argument zu plausibilisieren. War die Topik zunächst zum Beispiel bei Desiderius Erasmus (1466–1536) oder Philipp Melanchthon (1497–1560) eine Sammlung von Zitaten, Sinnsprüchen vornehmlich aus den alten Autoren, so wurde bereits im 16. Jahrhundert mit Rudolf Agricola (Roelof Huysman, 1444–1485), Christoph Mylæus (um 1500–1570), Joachim Sterck van Ringelbergh (1499–1531) und schließlich Pierre Ramée (Petrus Ramus, 1515– 1572) daraus eine sich als Polyhistorie ausgebende Universalwissenschaft, eine Wissenschaftslehre, die die Einteilung des Wissens methodisch, systematisch, kategorial begründen wollte.19 Dabei wurde die Topik durchaus auch in didaktischer Absicht entwickelt, zum Beispiel bei Johannes Alsted (1588–1638) und Amos Comenius (Jan Amos Komenský, 1592–1670).20 Im Zentrum stand aber die enzyklopädische Erfassung und Ordnung des Wissens. Auch in belehrender Absicht entwickelte sich als Teil dieser enzyklopädischen Bemühungen die sogenannte Buntschriftstellerei, die bereits im Titel die Curiositäten, die

18 Aristoteles: Rhetorik, hg. v. Christof Rapp (Aristoteles Werke in deutscher Übersetzung 4), Darmstadt 2002, Erstes Buch, Kap. 2, 1357a, 25 f.; Kopperschmidt, Josef: Das Ende der Verleumdung. Anmerkungen zur Wirkungsgeschichte der Rhetorik, in: Kopperschmidt, Rhetorik 2, S. 1–33; Campe, Rüdiger: Spiel der Wahrscheinlichkeit. Literatur und Berechnung zwischen Pascal und Kleist, Göttingen 2002, S. 7 u. passim. 19 Schmidt-Biggemann, Wilhelm: Topica universalis. Eine Modellgeschichte humanistischer und barocker Wissenschaft (Paradeigmata 1), Hamburg 1983, S. 11–59; Seifert, Arno: Cognitio historica – die Geschichte als Namengeberin der frühneuzeitlichen Empirie, Berlin 1976. 20 Schmidt-Biggemann, Topica, S. 112–154.

Wissensordnungen im analogen und im digitalen Zeitalter      |

Denk- und Merkwürdigkeiten führte. Diese Buntschriftstellerei bot eine Art der Wissenspräsentation, die auf Wirkung angelegt war, um ein großes Publikum zu erreichen, aber durchaus einen enzyklopädischen und belehrenden Anspruch der Wissensvermittlung wie der ethischen Erbauung hatte.21 Diese Art der Wissenspräsentation zeigt mit der Mischung aus Fiktion und Fakten, aus Erfundenem und Wunder- beziehungsweise Verschwörungsberichten die größten Ähnlichkeiten zu den Zeitungen, Illustrierten der früheren und heutigen Zeiten und dem Internet, vor allem in der Form der sogenannten sozialen Medien: Das Geschichtenerzählen, der Klatsch, das Gerücht bilden den Stoff, mit dem die Autoren der Merk- und Denkwürdigkeiten ihr Publikum massenhaft erreichten. Wissensspeicher sind die Medien, von denen aus beziehungsweise mit denen Wissen vergegenwärtigt wird. In früheren Zeiten waren das Bild- und Texterinnerungen, die mündlich weitergegeben wurden, aber auch Sachzeugen wie Kleidung, Ernährung, Behausung, Werkzeug und Technik, Kunst und Architektur, in denen sich Wissen materialisiert hatte. Mit der Schrift, später dem Buch und heute den zahlreichen elektronischen Speichern sind Medien entstanden, die eine langfristige Speicherung von bildlichen und akustischen Inhalten ermöglichen, wobei Texte den verbalen Bildern zugeordnet werden können. Ein entscheidender Unterschied zu früheren Jahrhunderten ist heute die globale Ubiquität und Simultaneität der angebotenen Information, d. h. die physische Präsenz an jedem Ort und zu jeder Zeit. Auch die Wissensgesellschaften der Antike, des Mittelalters und der Neuzeit waren vernetzter, als wir das heute üblicherweise wahrnehmen. Insbesondere die Schrumpfung der Kommunikationswege durch Ausbau der Infrastruktur hat spätestens seit dem 16. Jahrhundert zu einer europäischen, späterhin auch bereits globalen Wissenschaftsgemeinschaft geführt. Gleichwohl bleibt ein erheblicher Unterschied zu den heutigen Möglichkeiten bestehen. Jack Goody (1919–2015) und Ian Watt (1917–1999) haben 1963 auf die Veränderung von Wissensordnungen durch Schriftlichkeit hingewiesen.22 Für sie zeichnete sich das mündlich tradierte Wissen durch eine homöostatische Ordnung aus, die den Eindruck erwecken konnte, immer schon dagewesen zu sein, sich aber doch gesellschaftlichen Veränderungen anpasste, ohne dass die Beteiligten das als Umbruch wahrgenommen hätten. Gesprochene Sprache ist und bleibt Voraussetzung einer schriftlichen Form. Schrift besteht nicht ohne die phonetische Grundlage.23 Ethnomethodologisch erscheint das plausibel, da wahr nur das sein kann, was im gegenseitigen Gespräch erörtert und bekräftigt wurde. Das gesprochene Wort ist primär, weswegen auch wie gedruckt gelogen wird – obwohl wiederum das glaubhaft erscheint, was schwarz auf weiß vorhanden ist. Mündliche Kulturen haben erstaunliche Leistungen vollbracht, um langfristig 21 Schock, Flemming (Hg.): Polyhistorismus und Buntschriftstellerei. Populäre Wissensformen und Wissenskultur in der frühen Neuzeit (Frühe Neuzeit 169), Berlin 2012. 22 Goody, Jack / Watt, Ian: The consequences of literacy, in: Comparative Studies in Society and History 5 (1962 / 1963), S. 304–345. 23 Küster, Geordnetes Weltbild, S. 28.

41

42

|     Jörn Sieglerschmidt

das gesellschaftlich wichtige Wissen zum Beispiel über Herkunft, Recht und Ereig­n isse im gemeinschaftlichen Gedächtnis aufzubewahren.24 Vielfach sind dafür formelhafte Erzählstrukturen gewählt worden, wie sie Mythologie und Märchen kennen. 25 Erfahrungen werden so in Erzählungen verdichtet, um als solche in der Erinne­r ung gespeichert zu werden. Diese Erinnerungen geben wiederum der Erfahrung Struktur, lassen also bestimmte Erfahrungen zu, andere aber erschweren sie. Gleichwohl bleibt die Möglichkeit der neuen Erfahrung, der Ergänzung beziehungsweise Veränderung der Struktur, die kein Käfig ist, wie Empiristen und Sensualisten glaubten. Erzählstoffe dieser Art werden noch heute mündlich weitergegeben als sogenannte urbane Legenden.26 Aber auch in der Wissenschaft wird erzählt, werden Metaphern genutzt, um schwierige Stoffe, wissenschaftliche Zusammenhänge zu verdichten, kurz in einem Begriff beziehungsweise einem Bild zu bündeln. Die Rhetorik (zusammen mit den beiden anderen Disziplinen des Trivium: Dialektik beziehungsweise Logik und Grammatik) war dafür zuständig, das wahrscheinliche Argument zu plausibilisieren. Wird die schriftliche Form eingeführt, so verändert das nur allmählich auch die gesellschaftlichen Umgangsformen, da bis heute beide Formen weiterbestehen, also vielfältige Erinnerungsformen geblieben sind, ohne dass die eine die andere verdrängt hätte.27 Das entscheidende Argument von Goody und Watt geht aber in eine andere Richtung: Philosophische, theologische oder juristische Dogmatik als festgelegte Begriffsordnung lässt sich nur in schriftlicher Form konsistent und vor allem kumulativ entwickeln und weitergeben. Die Handschrift- und Buchkulturen des Mittelalters und der Neuzeit belegen in vielfältiger Weise diese Auffassung, da ein nicht unerheblicher Teil dieser Literatur als Kommentar und / oder Kompilation älterer Texte überliefert ist. Sicherlich wird eine solche Traditon langfristig halt- und damit überlieferbarer Texte zu unterschiedlichen Zeiten auch unterschiedlich wahrgenommen und interpretiert. Doch der notwendige Rückbezug auf diese schriftliche Tradition wird zu einer Forderung intellektueller Redlichkeit. Oder er kann wie bei Friedrich Nietzsche (1844–1900) als Fessel der Phantasie erscheinen.28 In ähnliche Richtung argumentierten bereits die Humanisten in Hinsicht auf das Mittelalter und die (frühe) Aufklärung gegen die Enzyklopädistik des 16. und 24 Richter, Michael: Beyond Goody and Grundmann, in: Ders. / Jaritz, Gerhard (Hg.), Oral History of the Middle Ages. The Spoken Word in Context (Medium Aevum Quotidianum, Sonderband 12; Central European University Medievalia 3), Krems 2001, S. 11–18. 25 Пропп, Владимир Яковлевич: Морфология сказки (Вопрсы Поэтики 21), Ленинград 1928. (Propp, Vladimir Jakovlevič: Morfologija skazki [Morphologie des Märchens] (Voprosy poėtiki 21), Leningrad 1928); Zumthor, Paul: Introduction à la poésie orale, Paris 1983. 26 Brednich, Rolf Wilhelm. Die Spinne in der Yucca-Palme. Sagenhafte Geschichten von heute, München 1990; Vierbacher, Fabian: Die ‚moderne‘ Sage im Internet, München 2007. 27 Teuscher, Simon: Erzähltes Recht. Lokale Herrschaft, Verschriftlichung und Traditionsbildung im Spätmittelalter (Campus Historische Studien 44), Frankfurt a.M. 2007, S. 305–317. 28 Nietzsche, Friedrich: Unzeitgemäße Betrachtungen, Zweites Stück: Vom Nutzen und Nachteil der Historie für das Leben, in: Ders, Werke in drei Bänden 1, Darmstadt 1997, S. 209–285.

Wissensordnungen im analogen und im digitalen Zeitalter      |

17. Jahrhunderts sowie den Polyhistorismus. Ein Vorschlag des Mathias Abele von und zu Lilienberg (1616 / 1618–1677) zielte daher auf die bewusste Herstellung von Unordnung in der Darbietung des Wissens.

3. Ordnungen Wissensordnung erscheint notwendig, um die Vielfalt der Welt in der Erinnerung zu behalten und wieder in das aktuelle Gedächtnis rufen zu können. Seit der Antike sind solche Ordnungen auf Personen, Orte und Sachen sowie auf deren Verbindung in Ereignissen bezogen. Begriffliche Ordnungen der Philosophie in Metaphysik und Topik versuchen einerseits, apriorische, d. h. vor aller Erfahrung liegende, Begriffe zu bestimmen, um danach ihre Verwendung (Grammatik, Logik, Rhetorik) zu diskutieren. Hinter solchen Versuchen steht die Vorstellung, die Welt in ihren bedingten Erscheinungen und Funktionen begrifflich und damit für jeden begreifbar erklären zu können. Ordnungsent­ würfe sind daher immer Epistemologie (Erkenntnistheorie) und Ontologie (Seinslehre) in einem. Bereits die Ordnungsentwürfe der frühen mesopotamischen Reiche sind dem Bedürfnis zu verdanken, „das Wissen über die Welt und damit die Welt selbst verwaltbar und dadurch kontrollierbar zu machen“.29 „Ordine nihil pulchrius, nihil fructiosius esse nemo videt, nisi forte Tiresia sit caecior. Ordo siquidem in amplissimo hujus mundi theatro rebus omnibus conciliat dignitatem, & ipsarum est velut anima.”30 Johannes Heinrich Alsted (1588–1638) stand im Schnittpunkt einer enzyklopädischen Gelehrsamkeit, die sich humanistisch vom scholastischen Kommentieren der antiken Autoren durch eine neue Ordnung des Wissens abheben will, zugleich aber Teile der von der Antike überlieferten artistischen Gelehrsamkeit und ihrer Ordnung in Trivium (Grammatik, Dialektik, Rhetorik) und Quadrivium (Arithmetik, Geometrie, Musik, Astronomie) übernahm. Alsted rezipierte außerdem von humanistischen Gelehrten wie Desiderius Erasmus, Jean Bodin (1529–1596), Christoph Mylæus, Rudolf Agricola und Pierre Ramée – um nur einige zu nennen – die Ausrichtung einer Neuordnung des Wissens auf die Lehr- und Lernbarkeit eines immer umfangreicher werdenden Stoffes, der methodisch und systematisch aufbereitet werden musste. Diese Ordnung diente insbesondere der ars memoriæ, einer Gedächtniskunst, die nicht nur das Lernen erleichtern, sondern auch das Behalten und Erinnern beständig gegen das Vergessen machen sollte. Diese Gedächtniskunst war eine Wissensordnung 29 Küster, Geordnetes Weltbild, S. 79. 30 Alstedius, Johannes-Henricus: Encyclopædia septem tomis distincta. […] Herbornae Nassoviorum 1630, tom. 1, 1: „Daß nichts schöner und fruchtbarer sei als die Ordnung, sieht nur der nicht, der noch blinder ist als Teiresias [griechischer Gott, den Hera erblinden ließ, Zeus aber mit der Sehergabe versah]. Denn die Ordnung verleiht auf dem sehr ausgedehnten Schauplatz dieser Welt allen Dingen ihre Würde und ist wie deren Seele.“ Die hier und im folgenden zitierte ältere Literatur vor 1850 (teilweise auch danach) ist über „www.ddb.de“ oder „www.europeana.eu“ online zugänglich und kann heruntergeladen werden.

43

44

|     Jörn Sieglerschmidt

für Sparten des damaligen Wissens, das noch keine Trennung in Natur- und Geisteswissenschaften kannte. Die Aufbereitung dieses Wissens sollte im Rahmen einer allgemeinen Topik, einer topica universalis stattfinden. Die Topik war zunächst ein ungeheurer Kasten, in dem das überlieferte Wissen verzettelt war. Diese Orte des Wissens (τόπος, tópos = Ort) mussten aufgefunden und in eine sinnvolle Argumentation eingefügt werden können. Die Topik umfasste daher Dialektik wie Rhetorik und sollte Grundlage aller Wissenschaften (Theologie, Jurisprudenz, Medizin, späterhin auch anderer Fächer) sein.31 Typisch für diese Art der methodischen Systematisierung des Wissens waren die nicht selten binär aufgebauten Begriffsverzweigungen, die sich von den Oberbegriffen zu den untergeordneten Begriffen entfalteten, eine Technik, die nicht erst seit Ramée üblich wurde, aber für viele ein äußerliches Kennzeichen ramistischer Wissensordnung darstellt.32 Es ist wichtig, dass der Anspruch solcher Einteilungen die Abbildung des gesamten menschlichen Wissens, also ein enzyklopädischer ist. Dieser enzyklopädische Anspruch wird verbunden mit einer auf Ramón Llull (Raimundus Lullus, um 1232–1316) zurückgehenden Kombinatorik grundlegender Begriffe des Wissens, den sogenannten „arbores scientiae“ (Wissensbäumen), die bei Ramée auch Axiome genannt werden. Heute mutet uns diese Art der Kombinatorik, die durch beliebige Kombination von Begriffen eine erschöpfende Anzahl unterschiedlicher Argumente erzeugen wollte, seltsam an. Als Maschine konzipiert, wie sie als sogenannte Automaten in der Barockzeit für das Rechnen oder die Musikerzeugung gebaut wurden, gleicht das einem algorithmisch gesteuerten Rechnerprogramm zur Erzeugung fachlich sinnvoller Argumente, einem Expertensystem wissenschaftlicher Argumentation. Die Zeit dieser enzyklopädischen Entwürfe ging um 1700 zuende. Die Polyhistorie repräsentierte bis zu Gottfried Wilhelm Leibniz (1646–1716) noch eine Universalwissenschaft mit dem Primat von Logik, Dialektik und Rhetorik, neben dem Quadrivium die artistischen Disziplinen, die artes liberales. Mit René Descartes (1596–1650) und Francis Bacon (1561–1626) führte jedoch der Primat der Empirie und der mathematisch formulierenden, quantifizierenden Naturwissenschaft zu einem allmählichen Ende der Universalwissenschaft, die als sprachlich orientierte Wissenschaft spätestens mit Christian Wolff (1679–1754) philosophisch nicht mehr den Anspruch einer Wissenschaft erheben konnte. 33 Abgelöst wurde die Universalwissenschaft von alphabetisch geordneten Enzyklopädien, Bibliographien und Fachlexika. Diese unterlegten den Lemmata 31 Hotson, Howard: Johann Heinrich Alsted 1588–1638. Between renaissance, reformation, and universal reform, Oxford 2000, bes. S. 164–172; Schmidt-Biggemann, Topica. 32 Michel, Paul: Verzweigungen, geschweifte Klammern, Dezimalstellen. Potenz und Grenzen des taxonomischen Ordnungssystems von Plato über Theodor Zwiger bis Melvill Dewey, in: Herren, Madeleine / M ichel, Paul / Rüesch, Martin (Hg.), Allgemeinwissen und Gesellschaft. Enzyklopädien als Indikatoren für Veränderung der gesellschaftlichen Bedeutung von Wissen, Bildung und Information, Aachen 2007, S. 103–141, hier 117 f. 33 Schmidt-Biggemann, Topica, S. 208–212 u. 300–302.

Wissensordnungen im analogen und im digitalen Zeitalter      |

zuweilen ein systematisches Raster, um so die sachlichen Verweise von einem Artikel auf andere ordnen zu können, doch war das weder überall der Fall – wie die Enzyklopädie von Johann Heinrich Zedler (1706–1751) zeigt – noch war der Erfolg einer solchen Bemühung immer erfolgreich – wie die Encyclopédie von Denis Diderot (1713–1784) und Jean-Baptiste le Rond d‘A lembert (1717–1783) offenbart.34 Gleichwohl zeugen die Versuche, Wissen und Wissenschaften in einem System darzustellen, davon, dass es neben dem Alphabet als offenste Anordnung einen Zusammenhang unter den Wissengebieten gibt. Ramón Llull hatte noch eine philosophisch-theologische Kategorienlehre zugrundegelegt,35 die von Athanasius Kircher (1602–1680) weiterent­ wickelt wurde zu einer Art Begriffssprache. Er war es insbesondere, der in der Welt alles mit allem zeichenhaft zusammenhängen sah, das Große im Kleinen und das Kleine im Großen, den Makrokosmos im Mikrokosmos und umgekehrt.36 Obwohl es also attraktiv blieb, die Welt auf eine kleine Anzahl von Begriffen und deren Kombination zu reduzieren, blieben die unendlich vielen kombinatorischen Möglichkeiten ein Problem, das auch Gottfried Wilhelm Leibniz nicht lösen konnte.37 Die an Logik, Dialektik und Rhetorik, also der Topik orientierte Polyhistorie konnte seit der Zeit um 1700 nicht mehr bestehen, als für die herrschende Wissenschaftskonzeption der Vorrang des Artistischen entfiel.38 Wissenschaftssysteme wurden jenseits dieser didaktisch, kombinatorisch und damit topisch orientierten Versuche in der Neuzeit vielfach entworfen. 39 Besonders erfolgreich war das erkenntnistheoretisch nach den Verstandesvermögen angeordnete System von Francis Bacon, das er 1623 in „De dignitate et augmentis scientiarum“ entwarf. Er unterschied auf oberster Ebene Gedächtnis (memoria, historia), Vernunft (ratio, philosophia) und Phantasie (imaginatio, poesia),40 eine Unterscheidung, die im bekannten „Système général de la connaissances humaines“ der Encyclopédie differenziert wiedergegeben

34 Schneider, Ulrich Johannes: Die Erfindung des allgemeinen Wissens. Enzyklopädisches Schreiben im Zeitalter der Aufklärung, Berlin 2013, S. 53–83. 35 Lullus, Raimundus: Arbor scientiæ […], Liber ad omnes scientias utilissimus [Wissensbaum, ein Buch zum höchsten Nutzen aller Wissenschaften]. Lugduni: Francoys Fradin 1515, S. 238–243; Schmidt-Biggemann, Topica, S. 162 f.; Kircherus, Athansius: Ars magna sciendi sive combinatoria […] [Die große oder kombinatorische Kunst des Wissbaren], Amstelodami: Joannes Janssonius à Waesberge & Vidua Elyzeus Weyerstraet 1669, S. 8–14. 36 Porter, Martin: Windows of the soul. Physiognomy in European culture 1470–1780, Oxford 2005; Leinkauf, Thomas: Mundus combinatus. Studien zur Struktur der barocken Universalwissenschaft am Beispiel Athanasius Kirchers SJ (1602–1680), 2. Aufl. Berlin 2009, S. 369–375; Breidbach, Neue Wissensordnungen, S. 99 f. 37 Schmidt-Biggemann, Topica, S. 176–185 u. 193 ff. 38 Ebd., S. 212. 39 Tega, Walter: Encyclia & Paideia. Percorsi e destini del sapere disciplinare nell’età moderna, in: Groult, Martine (Hg.): Les Encyclopédies. Construction et circulation du savoir de l’antiquité à Wikipédia, Paris 2011, S. 161–186, hier 163–173. 40 Greiner, Götz: Allgemeine Ordnungslehre, Frankfurt a.M. 1978, S. 9 f.

45

46

|     Jörn Sieglerschmidt

wird.41 Die dadurch sich ergebende Wissensordnung sollte Grundlage der aus pragmatischen Gründen linear alphabetisch aufgebauten Encyclopédie werden, insbesondere die Verzahnung („entrelacement“) beziehungsweise Verkettung („enchaînement“) der Verweise, der „renvois.“42 Ephraim Chambers (um 1680–1740) hatte bereits ein Vierteljahrhundert vor Erscheinen der Encyclopédie in seiner „Cyclopædia“ ein Schema der Wissenschaften geboten, das in zahlreiche auch praktische Wissensgebiete wie zum Beispiel Jagd oder Gartenbau ausgriff, ein Verfahren, das auch im „Système général“ wiederzufinden ist (Abb. 1).43 Diese systematischen Anstrengungen und diejenigen des 19. Jahrhunderts waren von der enzyklopädischen Vorstellung der Ordnung des gesamten menschlichen Wissens  – oder einzelner fachlicher Teile davon – geprägt. Eine andere Tradition kann als praktische, an den Bedürfnissen der Bibliotheken orientierte bezeichnet werden. Ob die Tradition, wie es die historische Überlieferung will, tatsächlich auf die Bibliothek von Alexandria zurückgeht, sei dahingestellt. Wichtig ist, dass der praktische Zweck und eine wie immer geartete Sachsystematik ineinandergehen und daher an die bisher angeführten historischen Beispiele anknüpfen. Zu nennen wären neben den Univeralklassifikationen „Dewey Decimal Classification“ und „Universal Decimal Classification“ und dem Universalthesaurus „Gemeinsame Normdatei“ der Deutschen Nationalbiblio­thek auch zahlreiche Spezialthesauri für Orts- und Personen- beziehungsweise Körperschaftsnamen sowie einzelne Fachgebiete wie zum Beispiel Ikonographie (Iconclass). Solche Vokabulare sind heutzutage deswegen wichtig, weil im Gegensatz zu den vielen partikularistischen und fragmentierten Vokabularen in den genannten Fällen zumindest die enzyklopädische Idee bestehen bleibt, das gesamte Wissen in einer begrifflichen Ordnung abzubilden. Ein vielen bekanntes Beispiel aus der Wissenschaft ist die gelungene Nutzung des DDC für die sachliche Erschließung der online-Version der Enzyklopädie von Johann Georg Krünitz (1728– 1796).44 Der Wert eines solchen Verfahrens mag in Zweifel gezogen werden, doch Vokabulare gewinnen dann an Wert, wenn es um strukturierte Begriffe nach DIN / ISO handelt, die die Begriffe untereinander verknüpfen und damit erst das schaffen, was wir üblicherweise als begriffliche Ordnung ansehen. In dieser Form sind sie eine Grundlage für systematische beziehungsweise semantische Ordnungen des Wissens im Internet und damit ein mögliches, nützliches Werkzeug in allen virtuellen, kooperativen Forschungsumgebungen, insbesondere dann, wenn es sich um interdisziplinäre handelt.

41 Diderot, Denis / d ’A lembert, Jean-Baptiste le Rond (éd.): Encyclopédie ou dictionnaire raisonné des sciences, des arts et des métiers […], tome premier, Paris: Briasson, David, Le Breton, Durand 1751, S. XLVII–LII; Baladrán, Zbyněk / Havránek, Vít (Hg.): Atlas of transformation, Prag 2010, Faltblatt α. 42 Küster, Geordnetes Weltbild, S. 538–543. 43 Chambers, Ephraim: Cyclopaedia: or, an universal dictionary of arts and sciences […]. 2 vol. 5th ed. London 1741 / 1742, S. I I I (http://data.onb.ac.at/A BO/%2BZ159511001); Abb.1 aus: Gottfried Wilhelm Leibniz Bibliothek, Sign. P-A 10011, Foto: Birgit Zimny. 44 Seifert, Hans-Ulrich: Dewey meets Krünitz. A classificatory approach to lexicographic material, in: Herren / M ichel / Rüesch, Allgemeinwissen, S. 95–104.

1  Ephraim Chambers: Cyclopaedia, Abb. 1 (Gottfried Wilhelm Leibniz Bibliothek, Sign. P-A 10011)

Wissensordnungen im analogen und im digitalen Zeitalter      | 47

48

|     Jörn Sieglerschmidt

4. Ordnungen im Internet Im Internet ist nichts wahr im aristotelischen Sinne, sondern alles (allenfalls) wahrscheinlich. Weit über den aristotelischen Begriff des Wahrscheinlichen als Inbegriff der öffentlich zu erörternden, kontroversen Meinungen hinaus eröffnen sich allerdings in heutiger Zeit erheblich mehr Mittel der Täuschung. Die Möglichkeiten der digitalen Veränderung von Ton und Bild erlauben keine Schlüsse mehr – und schon gar keine sicheren – auf die Glaubwürdigkeit der gebotenen Inhalte. Auch die Rhetorik stand ja im heroischen Zeitalter der empirisch-naturwissenschaftlichen Epoche seit Mitte des 17., verstärkt im 18. und 19. Jahrhundert im Ruf, lediglich der Täuschung der Zuhörenden zu dienen, eine Absicht, die ihr seit Platon immer wieder unterstellt wurde. Lediglich allgemeine Erfahrungsregeln in der Tradition der loci communes schienen eine Orientierung zu erlauben. Werden Digitalisate oder digitale Dienstleistungen von einer anerkannten Agentur der vom Steuerzahler alimentierten Institutionen – auch des Kultur- und Wissenschaftsbetriebes – angeboten, so ist die Wahrscheinlichkeit sehr hoch, dass zuverlässige Information geboten wird, soweit diese Agenturen nicht selbst Agenten eines repressiven, Wissen verbergenden und Meinungen einschränkenden Staates oder seiner geheimdienstlichen Institutionen sind. Heutzutage gibt es daher keine allgemein anerkannten Regeln für die Beurteilung der Glaubwürdigkeit digitaler Inhalte. Selbst die üblichen Faustregeln bieten kaum eine Gewähr. Wir sind also noch weit entfernt von einer Topik des Internets, zumal es sich dabei eben nicht um eine topica universalis, eine allenthalben, d. h. global über alle Kulturen dieser Welt hinweg als gültig wahrgenommene Wissensordnung handeln kann. Olaf Breidbach hat vor einigen Jahren bereits festgestellt, dass objektive Wissensordnungen oder gar Sicherheit durch Einsatz immer besserer Expertensysteme eine Fiktion sei.45 Darin unterscheiden wir uns in erheblichem Maße von früheren Jahrhunderten, die vielfach realistisch noch an eine eindeutige Referenz von Begriff und Welt glaubten, Ordnungssysteme also für solche der Welt hielten. Trotz der fehlenden Sicherheit wissen wir, dass die begriffliche Ordnung des Wissens notwendig ist, um Wissen zu speichern und wieder aufzufinden. Ordnungen sprachlicher Art, wie wir sie aus der barocken Universalwissenschaft und der Enzyklopädistik der Neuzeit kennen, gibt es für die im Internet angebotenen Wissensmengen in vielfältiger Art. In einer algorithmisch aufbereiteten und daher maschinenlesbaren Sprache steuern sie sämtliche Prozesse im Internet: Suchmaschinen, Übersetzungshilfen, Entitätenabgleich, Verknüpfungen von Informationen. Sämtliche Ordnungen dieser Art sind menschliche Projektionen, Wahrnehmungen der Welt, die in Algorithmen gefasst werden.46 Die Art der Wissenspräsentation hat einen Nach45 Breidbach, Neue Wissensordnungen, S. 47–50 u. 74 f. 46 Ebd., S. 118.

Wissensordnungen im analogen und im digitalen Zeitalter      |

teil gegenüber dem menschlichen Gehirn, für das bildhaft viele Dinge gleichzeitig und am gleichen Ort präsent sind: sowohl die Prozessschritte eines Algorithmus als auch die Ergebnisse einer fertigen Prozesskette müssen linear abgearbeitet werden. Meistens werden diese sogar in mehr oder weniger unzusammenhängenden Listen angeboten – je nach Präzision der Frage und des Suchalgorithmus. Diese Art der fragmentierten Wissenspräsentation soll und wird seit einigen Jahren durch sogenannten semantische Techniken abgelöst, die versuchen, Fragen in einen Kontext zu stellen und damit zumindest ansatzweise der Leistung des menschlichen Gehirns näher zu kommen. Im Bereich der kollaborativen Wissenschaftsplattformen bedeutet diese Einsicht einen Strategiewechsel: Nicht die Quantität allein ergibt ein vielfältiges und gutes Angebot, sondern die intelligente Vernetzung der Informationen, die Ausschöpfung der semantischen Potentiale, die in den vorhandenen Daten bereits enthalten sind – einmal vorausgesetzt, dass die aus Mitteln des Steuerzahlers alimentierten Wissenschaftlerinnen und Wissenschaftler auch bereit sind, dieses Wissen öffentlich zu machen und nicht als arcanum ihrer Genialität zu betrachten. Ein solcher Strategiewechsel bedeutet, dass für die Infrastruktur einer semantischen Vernetzung von Informationen erheblich mehr Entwicklungsaufwand betrieben werden muss. Viele Schritte sind bei der Entwicklung von Regelwerken und Ontologien bereits getan worden, um auch den globalen Anforderungen des Internet zu genügen. Unterschieden werden im folgenden die Regelwerke für die Erfassung von Wissensobjekten von denen für die sachliche Anreicherung. Regelwerke für die formale Beschreibung von Wissensobjekten gibt es zahlreiche. Hier soll zwischen Metadatenformaten wie zum Beispiel „Dublin Core Metadata Element Set“ (DC M ES) (http://dublincore.org/documents/dces/) und Ontologien wie dem „Conceptual Reference Model“ (C R M) unterschieden werden. Bei Metadatenformaten, die es außer für den Bibliotheksbereich auch für den Archiv- und Museumsbereich gibt, handelt es sich um eine flache Datenstruktur, datenbanktechnisch vergleichbar einem flat file, d. h. diese Formate sind nicht in der Lage, ohne zusätzliche Hilfsmittel sachliche Verknüpfungen zwischen den Inhalten herzustellen. Metadatenformate können komplexe Sachverhalte der Quelldaten nicht angemessen darstellen und sind starr, was die Aufnahme unerwarteter Information angeht beziehungsweise meist nicht einfach erweiterbar. Sie sind gegenüber proprietären Formaten aber allemal ein Vorteil, auch wenn sie nicht für eine Konsistenz der Inhalte bürgen können. Im Bereich bibliographischer Beschreibung sind mit den „Functional Requirements for Bibliographic Records“ (F R BR) und dem „Ressource Description and Access“ (R DA) Katalogisierungsregeln in Richtung einer Objektorientierung gemacht worden, die aber erst allmählich ihre Vorteile bei der Datenpräsentation ausspielen werden. Einen weiteren Schritt in Richtung Objektorientierung haben die F R BR durch die Harmonisierung mit dem CR M gemacht.47 47 Funktionelle Anforderungen an bibliographische Datensätze, hg. v. Arbeitsstelle für Standardisierung, Leipzig 2006 (http://www.ifla.org/files/assets/cataloguing/frbr/frbr-deutsch.pdf).

49

50

|     Jörn Sieglerschmidt

Das C R M versteht sich als eine Ontologie zur Beschreibung wissenschaftlicher Objekte, insbesondere der wissenschaftlichen Beschreibung von Museumsobjekten. 48 Dabei ist es unerheblich, in welcher medialen Form dieses Objekt vorliegt. Auch kann der Entstehungs- und Verwertungsprozess eines Objektes lückenlos dokumentiert und die unterschiedlichen Ausprägungen eines Objektes (Original, Kopie, mediale Ausprägungen wie Druck, Film, Hörstück usw.) sinnvoll miteinander verknüpft werden. Das C R M vermag daher komplexe wissenschaftliche Zusammenhänge problemlos abzubilden. Ein Beispiel wäre die Expedition Charles Darwins (1809–1882) mit der Beagle nach Westindien (1831–1835). Dabei hat es nicht nur viele Beteiligte gegeben, sondern in diesem Zusammenhang sind zahlreiche Gegenstände vor Ort gesammelt worden, Manuskripte, Zeichnungen und gedruckte Bücher entstanden, die alle einen engen Bezug zu dem genannten Ereignis haben. Das CR M vermag als ereigniszentrierte Ontologie einen solchen Sachverhalt mit seinen 90 Klassen (entities) und 148 Eigenschaften (properties) (vgl. Abb. 2) in all seiner Komplexität kategorial zu erfassen – und die erfassten Daten für die weitere rechnergestützte Analyse und Verarbeitung aufzubereiten. Es wäre an der Zeit, Natur- und Kulturobjekte auf dieser Grundlage zu erfassen und für das Internet bereitzustellen. Auch die Verknüpfung der Daten mit anderen Internetressourcen durch „linked (open) data“ könnte längst Standard sein.49 Davon sind die meisten wissenschaftlichen Projekte in den digitalen Geisteswissenschaften noch weit entfernt. Regelwerke für die Sacherschließung kommen nicht selten dem nahe, was oben in den enzyklopädischen Entwürfen des Humanismus und Barock als Ergebnis der Wissenssys­tematisierung erörtert wurde. Solche Regelwerke, deren technische Einteilung (Taxonomie, Klassifikation, Thesaurus usw.) und Aufbereitung (mono- oder poly­hierarchisch, facettiert usw.) hier nicht erörtert werden sollen, sind früher für die Beschreibung von Natur- und Kulturobjekten genutzt worden, um Personen, Orte und Sachen (Ereignisse, Begriffe usw.) eindeutig bestimmten Objekten zuzuordnen. Die Unterhaltung solcher Regelwerke ist außerordentlich aufwendig, heute aber umso notwendiger, da sich neue Einsatzmöglichkeiten durch Entitätenabgleich bei digital vorliegenden Texten und Hördokumenten ergeben haben. Durch den Abgleich der gehörten oder gelesenen Wörter mit den Begriffen solcher Regelwerke – möglichst unter Nutzung einer vielleicht vorhandenen begrifflichen Hierarchie – lassen sich erfasste Daten semantisch anreichern und damit für die Nutzung erheblich attraktiver machen. Auch in dieser Richtung könnte für virtuelle Forschungsumgebungen erheblich mehr erreicht

48 Lampe, Karl-Heinz / K rause, Siegfried / Doerr, Martin (Hg.): Definition des C I DOC Conceptual Reference Model […] (ICOM Deutschland Beiträge zur Museologie 1), Berlin 2010, S. 9 ff. 49 Kummer, Robert: Towards semantic interoperability of cultural information systems making ontologies work, Magisterarbeit Universität zu Köln 2007; Kummer, Robert: Intelligent information access to linked data. Weaving the cultural heritage web, Diss. phil. Köln 2012.

Wissensordnungen im analogen und im digitalen Zeitalter      |

Entität  Geschehendes Phase  Ereignis Handlung  Bearbeitung Herstellung  Merkmalszuweisung   Begriffliche  Schöpfung   Daseinsbeginn Herstellung  Begriffliche  Schöpfung   Daseinsende Seiendes  Sache  Rechtsobjekt Materielles  Hergestelltes Sinnbild  Künstliches   Hergestelltes Begrifflicher  Gegenstand Ausgangsobjekt Recht  Sinnbild 

Informationsgegenstand  Benennung 

Typus   

Informationsgegenstand 

Akteur  Menschliche  Gruppe Ort  Maß  Zeitprimitiv 

Primitiver  Wert  Zeichenprimitiv Zeichenkette

2  Klassen (Über- und Unterklassen) des C R M in hierarchischer Ansicht (Unterklassen sind mengentheoretisch vollständige Teilmengen der Überklasse, erweitern also die Zahl der Instanzen und damit die Extension der Überklasse.) (Lampe / K rause / Doerr 2010, S. 15 u. 21 f.)

51

52

|     Jörn Sieglerschmidt

werden. Insbesondere für die semantische Vernetzung der Informationen und damit für die Phantasie der Nutzerinnen und Nutzer wäre damit viel erreicht.50

5. Abspann Ordnung ist das halbe Leben, lautet die Volksweisheit. Ethnomethodologisch ist es das ganze Leben, da wir immer bemüht sind, die Indexikalität unserer Wahrnehmung – der Welt – zu heilen, in Ordnung zu bringen, um das alltägliche Risiko in gesicherte Bahnen zu lenken. Insofern sollten wir lernen, die Sekundärtugend der Ordnungsliebe höher zu schätzen – nicht als Heilsbringer oder gar zwanghaft, sondern als Begleiter unseres Lebens. Von Sinn zu sprechen, erforderte an dieser Stelle einen weiteren und erheblichen Begründungsaufwand, der vielleicht an anderer Stelle erbracht werden kann. Das Chaos des Internet wird nicht restlos zu bändigen sein, sondern nur teilweise domestiziert werden können. Unethische oder betrügerische, ja verbrecherische Nutzung des Internet werden in einem solchen Chaos nicht wirklich kontrollierbar sein, es sei denn, der freie Zugang zu den Informationskanälen würde von staatlicher Seite erheblich eingeschränkt, so wie es bereits in einigen Staaten praktiziert wird. Geschichte eröffnet uns Erweiterungen der Gegenwart, die uns auch Vergleiche mit zeitgleichen Kulturen geben könnten. Geschichtliche Forschung erweitert den Erfahrungsraum der Gegenwart. Sie kann gegenwärtige Wissensbestände beglaubigen oder infragestellen, bestätigen oder relativieren. Von zeitlicher – oder auch örtlicher – Vertiefung zu sprechen, wäre bereits eine starke metaphorische Aussage über die Gegenwart, die schwer zu begründen wäre. Geschichten – vor allem gute – sind Schleppanker der Erfahrung, die – im Moment erinnert – unser aktuelles Handeln beeinflussen können. Das Internet, das in der langen Tradition der Presseveröffentlichungen, aber auch des enzyklopädischen Wissens steht, hat die Macht, Geschichten auf wirksame Weise zu erzählen und für deren weltweite Verbreitung zu sorgen. Die erste Frage lautet, in welchen sozialen Zusammenhängen diese Geschichten eine entscheidende Rolle spielen. Die zweite Frage betrifft die Feststellung der Wahrscheinlichkeit – Plausibilität – der Geschichten, d. h. ob sie in die jeweilige topische Erfahrung der Zuhörerinnen und Zuschauerinnen zu integrieren sind. Die Antwort auf beide Fragen kann nur kommunikationstheoretisch, d. h. ethnomethodologisch beantwortet werden. Ein fester Grund für unsere Wahrnehmung ergibt sich daraus nicht. So bleibt die Welt, so bleibt jede mögliche Ordnung dynamisch. „Honi soit qui mal y pense.“ Ein Schelm ist, wer Böses dabei denkt. Im Zeitalter des Konsumismus beziehungsweise der Kommodifizierung der Dinge – alles wird zur Ware – sollten Wahrheiten konsequent kommerzialisiert und in Läden oder online verkauft werden. Das eröffnete den Einsatz sämtlicher Marke50 Einen Überblick gibt es bei Basel Register of thesauri, ontologies, and classifications (http://bartoc. org/).

Wissensordnungen im analogen und im digitalen Zeitalter      |

tingstrategien: Werbung, genaue Zielgruppenansprache, Rabatte, Schlussverkäufe usw. Auf diese Weise könnten Wahrheiten vielleicht größere Verbreitung finden als bisher – meine oder unsere jeweiligen Wahrheiten. Außerdem ließe sich der Wert der Wahrheit in quantifizierbaren Geldeinheiten messen. Es gäbe Wahrheiten, die uns teuer zu stehen kommen, billig zu haben oder unerschwinglich wären. Jenseits solcher ernst zu nehmenden Scherze bleibt zu fragen, was angesichts einer unausweichlichen Wahrscheinlichkeit unsere Welt planbarer, sicherer machen kann. Wissenschaftliche Angebote, die in Deutschland fast ausnahmslos aus Steuergeldern finanziert werden, haben einen Stil der Faktenpräsentation entwickelt, der auch in der Öffentlichkeit als glaubwürdig wahrgenommen wird. Diese Kultur der genauen, gut geordneten und sachangemessenen Präsentation des Wissens gilt es, jenseits aller weltanschaulichen Moden zu bewahren. Insbesondere gilt es, den Wert der präsentierten wissenschaftlichen Ergebnisse herauszuheben, ihre Attraktivität deutlich werden zu lassen. Wenn im Zuge eines missverstandenen Relativismus der Massengeschmack einer Müllkultur zum wertvollen Kulturerbe geadelt wird – Millionen, die DSDS sehen, können nicht irren –, dann muss dieses Faktenwissen gegenüber solchen Eingemeindungen kenntlich gemacht und in seiner wichtigen Aufgabe für unser Denken und Handeln gestärkt werden. Wissenschaftliche Angebote haben in dieser Hinsicht ähnlich wie die barocken Erinnerungskünste eine Erziehungsaufgabe. In der Welt des Wahrscheinlichen gilt es, Strategien beziehungsweise Rhetoriken des Authentischen zu entwickeln und eine Spur der Glaubwürdigkeit zu legen. Für die Attraktivität der Inhalte ist eine semantische Vernetzung erforderlich, die kreative Potentiale anzuregen, tatsächlich neues Wissen aus den ubiquitär zuhandenen Informationen zu erzeugen vermag.

Literatur Die ältere Literatur vor 1850 (teilweise auch danach) ist über www.ddb.de oder www. europeana.eu online zugänglich und kann heruntergeladen werden. Abele von und zu Lilienberg, Mathias: Vivat oder so genannte künstliche Unordnung […]. I.–V. Theil. […] Nürnberg: Michael und Johann Friedrich Endter 1669–1675. Agricola, Rodolphus: De inventione dialectica libri tres. Argentinae: Ioannes Knoblochus 1521. Alstedius, Johannes-Henricus: Encyclopædia septem tomis distincta. […] Herbornae Nassoviorum 1630. Aristoteles: Rhetorik, hg. v. Christof Rapp (Aristoteles Werke in deutscher Übersetzung 4), Darmstadt 2002. Arndt, Johannes / Körber, Esther-Beate (Hg.): Das Mediensystem im Alten Reich der Frühen Neuzeit (1600–1750) (Veröffentlichungen des Instituts für Europäische Geschichte Mainz, Abteilung Universalgeschichte, Beiheft 75), Göttingen 2010. Bacon, Francis [Baro de Verulamio, Vice-Comes Sancti Albani]: De dignitate et augmentis scientiarum libri IX. Londini: Joannes Haviland 1623. Baladrán, Zbyněk / Havránek, Vít (Hg.): Atlas of transformation, Prag 2010. Bayle, Pierre: Dictionaire historique et critique. 4 tom. Rotterdam: Reinier Leers 1697. Berger, Peter L. / Luckmann, Thomas: Die gesellschaftliche Konstruktion der Wirklichkeit: eine Theorie der Wissenssoziologie, Frankfurt a.M. 1969. Bergmann, Jörg Reinhold: Ethnomethodologie, in: Flick, Uwe / Kardorff, Ernst von / Steinke, Ines (Hg.), Qualitative Forschung. Ein Handbuch (re 55628), Reinbek 2000, S. 118–135.

53

54

|     Jörn Sieglerschmidt

Blumenberg, Hans: Anthropologische Annäherung an die Aktualität der Rhetorik. In: Blumenberg, Hans: Ästhetische und metaphorologische Schriften (stw 1513), Frankfurt a.M. 2001, S. 406–431. Blumenberg, Hans: Anthropologische Annäherung an die Aktualität der Rhetorik, in: Kopperschmidt, Josef (Hg.), Rhetorik Band 2: Wirkungsgeschichte der Rhetorik, Darmstadt 1991, S. 285–312. Blumenberg, Hans: Paradigmen zu einer Metaphorologie (stw 1301), Frankfurt a.M. 1991. Brednich, Rolf Wilhelm. Die Spinne in der Yucca-Palme. Sagenhafte Geschichten von heute, München 1990. Breidbach, Olaf: Neue Wissensordnungen. Wie aus Informationen und Nachrichten kulturelles Wissen entsteht (eu 10), Frankfurt a.M. 2008. Briggs, Asa / Burke, Peter: A social history of the media. From Gutenberg to the internet, Cambridge 2005. Büttner, Frank / Friedrich, Markus / Zedelmaier, Helmut (Hg.): Sammeln, Ordnen, Veranschaulichen. Zur Wissenskompilatorik in der Frühen Neuzeit ( Pluralisierung & Autorität 2), Münster 2003. Cahn, Michael: Kunst der Überlistung. Studien zur Wissenschaftsgeschichte der Rhetorik (Theorie und Geschichte der Literatur und schönen Künste 76, N. F., Reihe A, Bd. 2), München 1986. Campe, Rüdiger: Spiel der Wahrscheinlichkeit. Literatur und Berechnung zwischen Pascal und Kleist. Göttingen, 2002. Chambers, Ephraim: Cyclopaedia: or, an universal dictionary of arts and sciences […]. 2 vol. 5th ed. London: Midwinter 1741 / 1742 (http://data.onb.ac.at/ABO/%2BZ159511001; letzter Zugriff am 28.7.2017). Derrida, Jacques: De la grammatologie, Paris 1967. Diderot, Denis / d’Alembert, Jean-Baptiste le Rond (éd.): Encyclopédie ou dictionnaire raisonné des sciences, des arts et des métiers […], tome premier, Paris 1751. Dublin Core Metadata Element Set, Version 1.1. 2012 (http://dublincore.org/documents/dces/; letzter Zugriff am 28.7.2017). Fumaroli, Marc (Hg.): Histoire de la rhétorique dans l’Europe moderne 1450–1950, Paris 1999. Funktionelle Anforderungen an bibliographische Datensätze, hg. v. Arbeitsstelle für Standardisierung, Leipzig 2006 (http://www.ifla.org/files/assets/cataloguing/frbr/frbr-deutsch.pdf; letzter Zugriff am 28.7.2017). Garfinkel, Harold: Studies in ethnomethodology, Englewood Cliffs 1967. Giesecke, Michael: Der Buchdruck in der frühen Neuzeit. Eine historische Fallstudie über die Durchsetzung neuer Informations- und Kommunikationstechnologien, Frankfurt a.M. 2006 (Erstveröff. 1991). Goffman, Erving: Rahmen-Analyse : ein Versuch über die Organisation von Alltagserfahrungen (stw 329), Frankfurt a.M. 2008 (Erstveröff.: Frame analysis: an essay on the organization of experience, New York 1974). Goody, Jack / Watt, Ian: The consequences of literacy. In: Comparative Studies in Society and History 5 (1962 / 1963), S. 304–345. Goody, Jack (Hg.): Literacy in traditional societies, Cambridge 1968. Grasskamp, Walter: André Malraux und das imaginäre Museum. Die Weltkunst im Salon, München 2014. Greiner, Götz: Allgemeine Ordnungslehre, Frankfurt a.M. 1978. Hacking, Ian: The taming of chance, Cambridge 1990, Handbuch Kulturportale. Online-Angebote aus Kultur und Wissenschaft, hg. v. Euler, Ellen / Hagedorn-Saupe, Monika / Maier, Gerald / Schweibenz, Werner / Sieglerschmidt, Jörn, Berlin 2015. Herren, Madeleine / Michel, Paul / Rüesch, Martin (Hg.): Allgemeinwissen und Gesellschaft. Enzyklopädien als Indikatoren für Veränderung der gesellschaftlichen Bedeutung von Wissen, Bildung und Information, Aachen 2007. Hotson, Howard: Johann Heinrich Alsted 1588–1638. Between renaissance, reformation, and universal reform, Oxford 2000. Kambartel, Friedrich: Erfahrung und Striktur. Bausteine zu einer Kritik des Empirismus und Formalismus, Frankfurt a.M. 1968. Kambartel, Friedrich / Stekeler-Weithofer, Pirmin: Sprachphilosophie. Probleme und Methoden (RUB 18380), Stuttgart 2005. Kircherus, Athanasius: Ars magna sciendi sive combinatoria […] [Die große oder kombinatorische Kunst des Wissbaren]. Amstelodami: Joannes Janssonius à Waesberge & Vidua Elyzeus Weyerstraet 1669. Kircherus, Athanasius: Ars magna sciendi sive combinatoria […] [Die große oder kombinatorische Kunst des Wissbaren], Amstelodami: Joannes Janssonius à Waesberge & Vidua Elyzeus Weyerstraet 1669.

Wissensordnungen im analogen und im digitalen Zeitalter      |

Kopperschmidt, Josef: Das Ende der Verleumdung. Anmerkungen zur Wirkungsgeschichte der Rhetorik, in: Kopperschmidt, Josef (Hg.), Rhetorik 2: Wirkungsgeschichte der Rhetorik, Darmstadt, 1991, S. 1–33. Krünitz, Johann Georg (Hg.): Ökonomisch-technologische Encyclopädie, oder allgemeines System der Staats-, Stadt-, Haus- und Landwirthschaft und der Kunstgeschichte in alphabetischer Ordnung, 242 Bde., Berlin 1773–1858. Kummer, Robert: Towards semantic interoperability of cultural information systems making ontologies work, Magisterarbeit Universität zu Köln 2007. Kummer, Robert: Intelligent information access to linked data. Weaving the cultural heritage web, Diss. phil., Köln 2012. Küster, Marc Wilhelm: Geordnetes Weltbild. Die Tradition des alphabetischen Sortierens von der Keilschrift bis zur EDV. Eine Kulturgeschichte, Tübingen 2006. Kutschmann, Werner: Von der Natursprache zur Warensprache. Die Sprache der Naturwissenschaften zwischen Objektivität und sinnlicher Verlockung, in: Bungarten, Theo (Hg.), Wissenschaftssprache und Gesellschaft. Aspekte der wissenschaftlichen Kommunikation und des Wissenstransfers in der heutigen Zeit, Hamburg 1986, S. 94–112. Lachmann, Renate: Die Unauslöschlichkeit der Zeichen: das semantische Unglück des Mnemonisten, in: Haverkamp, Anselm (Hg.), Gedächtniskunst. Raum – Bild – Schrift, Studien zur Mnemotechnik (es 653), Frankfurt a.M. 1991, S. 111–141. Lampe , Karl-Heinz / Krause, Siegfried / Doerr, Martin (Hg.): Definition des CIDOC Conceptual Reference Model […] (ICOM Deutschland Beiträge zur Museologie 1), Berlin 2010. Leinkauf, Thomas: Mundus combinatus. Studien zur Struktur der barocken Universalwissenschaft am Beispiel Athanasius Kirchers SJ (1602–1680), 2. Aufl. Berlin 2009. Lullus, Raimundus: Arbor scientiæ […], Liber ad omnes scientias utilissimus [Wissensbaum, ein Buch zum höchsten Nutzen aller Wissenschaften], Lugduni: Francoys Fradin 1515. Lullus, Raimundus: Opera ea quae ad adinventam ab ipso artem vniversalem, scientiarum artiumque omnium brevi compendio […] pertinent. […]. Argentinae: Lazarus Zetzner 1598. Malraux, André: Le musée imaginaire, Paris 1965 (Erstveröff.: 1947). Michel, Paul: Verzweigungen, geschweifte Klammern, Dezimalstellen. Potenz und Grenzen des taxonomischen Ordnungssystems von Plato über Theodor Zwiger bis Melvill Dewey, in: Herren, Madeleine / Michel, Paul / Rüesch, Martin (Hg.), Allgemeinwissen und Gesellschaft. Enzyklopädien als Indikatoren für Veränderung der gesellschaftlichen Bedeutung von Wissen, Bildung und Information, Aachen 2007, S. 103–141. Mulsow, Martin / Zedelmaier, Helmut (Hg.): Skepsis, Providenz, Polyhistorie Polyhistorie (Hallesche Beiträge zur Europäischen Aufklärung 7), Tübingen 1998. Mulsow, Martin: Die Paradoxien der Vernunft. Rekonstruktion einer verleugneten Phase in Reimmanns Denken, ebd., S. 15–59. Nietzsche, Friedrich: Unzeitgemäße Betrachtungen, Zweites Stück: Vom Nutzen und Nachteil der Historie für das Leben, in: Ders, Werke in drei Bänden 1, Darmstadt 1997, S. 209–285. North, Klaus: Wissenschaftliche Unternehmensführung. Wertschöpfung durch Wissen, 5. Aufl. Wiesbaden 2011. Otlet, Paul: Traité de documentation. Le livre sur le livre. Théorie et pratique, Bruxelles 1934. Pöppel, Ernst: Wissen – und wie es kommuniziert werden kann, in: Ball, Rafael (Hg.), Wissenschaftskommunikation der Zukunft (Schriften des Forschungszentrums Jülich, Reihe Bibliothek 18), Jülich 2007, S. 11–21 (http://hdl.handle.net/2128/2893). Porter, Martin: Windows of the soul. Physiognomy in European culture 1470–1780, Oxford 2005. Пропп, Владимир Яковлевич: Морфология сказки (Вопрсы Поэтики 21), Ленинград 1928. (Propp, Vladimir Jakovlevič: Morfologija skazki (Morphologie des Märchens) (Voprosy poėtiki 21), Leningrad 1928). Resource Description and Access (RDA). Cataloging Rules for the 20th Century (http://www.rda-jsc. org/docs/5rda-scoperev4.pdf; http://www.rda-jsc.org/docs/5rda-elementanalysisrev3.pdf; http:// www.rda-jsc.org/docs/5rda-prospectusrev7.pdf; letzter Zugriff jeweils 28.7.2017). Richter, Michael: Beyond Goody and Grundmann, in: Ders. / Jaritz, Gerhard (Hg.), Oral History of the Middle Ages. The Spoken Word in Context (Medium Aevum Quotidianum, Sonderband 12; Central European University Medievalia 3), Krems 2001, S. 11–18.

55

56

|     Jörn Sieglerschmidt

Schmidt-Biggemann, Wilhelm: Topica universalis. Eine Modellgeschichte humanistischer und barocker Wissenschaft (Paradeigmata 1), Hamburg 1983. Schneider, Ulrich Johannes: Die Erfindung des allgemeinen Wissens. Enzyklopädisches Schreiben im Zeitalter der Aufklärung, Berlin 2013. Schock, Flemming (Hg.): Polyhistorismus und Buntschriftstellerei. Populäre Wissensformen und Wissenskultur in der frühen Neuzeit (Frühe Neuzeit 169), Berlin 2012. Seifert, Arno: Cognitio historica – die Geschichte als Namengeberin der frühneuzeitlichen Empirie, Berlin 1976. Seifert, Hans-Ulrich: Dewey meets Krünitz. A classificatory approach to lexicographic material, in: Herren / Michel / Rüesch, Allgemeinwissen, S. 95–104. Sieglerschmidt, Jörn: Kommunikation und Inszenierung. Vom Nutzen der Ethnomethodologie für die histo­rische Forschung, in: Burkhardt, Johannes / Werkstetter, Christine (Hg.), Kommunikation und Medien in der frühen Neuzeit (Historische Zeitschrift, Beihefte NF 41), München 2005, S. 433–460. Tega, Walter: Encyclia & Paideia. Percorsi e destini del sapere disciplinare nell’età moderna, in: Groult, Martine (Hg.): Les Encyclopédies. Construction et circulation du savoir de l’antiquité à Wikipédia, Paris 2011, S. 161–186. Teuscher, Simon: Erzähltes Recht. Lokale Herrschaft, Verschriftlichung und Traditionsbildung im Spät­ mittel­alter (Campus Historische Studien 44), Frankfurt a.M. 2007. Toulmin, Stephen: Der Gebrauch von Argumenten, 2. Aufl. Weinheim 1996 (Erstveröff.: The uses of argument, Cambridge 1958). Vierbacher, Fabian: Die ‚moderne‘ Sage im Internet, München 2007. Zedelmaier, Helmut: Bibliotheca universalis und Biblioteca selecta. Das Problem der Ordnung des gelehrten Wissens in der frühen Neuzeit, Köln 1992. Zumthor, Paul: Introduction à la poésie orale, Paris 1983.

Michael Franke

Erfolgsfaktoren für virtuelle Forschungsumgebungen

In den letzten Jahren wurde die Entwicklung digitaler Hilfsmittel in der Wissenschaft massiv gefördert. Die Deutsche Forschungsgemeinschaft (DFG) stellt seit 2007 Gelder zur Entwicklung sogenannter virtueller Forschungsumgebungen bereit. Weitere Fördertöpfe stellten das Bundesministerium für Bildung und Forschung (BM BF) und die Europäische Union zur Verfügung. Nach dieser ersten Goldgräber-Phase ist es nun an der Zeit, Bilanz zu ziehen über die gewonnenen Erkenntnisse und den State of the Art auf diesem Gebiet. Hierbei fällt auf, dass nur wenige der Projekte nach der geförderten Entwicklungsphase in eine, wie auch immer, nachhaltig finanzierte Betriebsphase übergehen. Oftmals können die entstandenen Software-Artefakte aus unterschiedlichsten Gründen nicht weiter genutzt werden, etwa weil Technologien bereits veraltet sind oder die Software lizenz- oder urheberrechtlichen Beschränkungen unterworfen ist. Oftmals ist auch das für die Software nötige Knowhow verloren. Dieser Vortrag soll erörtern, welche Maßnahmen getroffen werden können, um eigene Projekte auf diesem Gebiet erfolgreich gestalten zu können. Hierzu soll zunächst der Begriff der virtuellen Forschungsumgebung näher beleuchtet werden. Anschließend wird dargestellt, welche Indikatoren herangezogen werden können, um den Erfolg von Unternehmungen in diesem Bereich zu messen. Die darauffolgende Betrachtung der Erfolgsfaktoren wird eingeteilt in Funktion, Technik, Handwerk und Politik / Kultur. Teile dieses Vortrags, insbesondere jener zu den Erfolgsindikatoren, sind inspiriert durch die Diskussion „Kritische Erfolgsfaktoren“ im Rahmen des Werkstattgesprächs „Virtuelle Forschungsumgebungen in der Praxis“ am 19.3.2013.1

1 www.dini.de/veranstaltungen/workshops/vfu-in-der-praxis/; letzter Zugriff am 28.7.2017.

58

|     Michael Franke

Virtuelle Forschungsumgebungen Weder der verwendete Begriff noch die mit ihm verbundene Bedeutung sind bisher klar definiert. Die Verwendung des Begriffs „virtuell“ wurde vermutlich aus dem Englischen übernommen, wo in diesem Zusammenhang von „virtual research environments“ (V R E) die Rede ist. Dieser Begriff ist wiederum abgeleitet vom älteren „virtual learning environment“ (V LE), was Computersysteme zum gemeinsamen, verteilten Lernen bezeichnet. Während bei letztgenanntem die Konnotation des virtuellen Klassenzimmers leicht verständlich ist, wurde bei Forschungsumgebungen darauf hingewiesen, dass das Unwirkliche, Scheinbare, das dem Virtuellen anhaftet, der Sache nicht gerecht würde und man stattdessen eher den Begriff „digitale Forschungsumgebung“ verwenden sollte. Weitere Begriffsbildungen zielen auf die Möglichkeit ab, mithilfe von Software im Team zusammenarbeiten zu können beziehungsweise kommunizieren zu können. So finden sich auch die Begriffe „kollaborativ“2, „kooperativ“3 und „koaktiv“4 in Verbindung mit Forschungsumgebungen. In diesem Beitrag wird weiterhin der gebräuchlichste Begriff, also „virtuelle Forschungsumgebung“ beziehungsweise das englische Akronym V R E verwendet. Was aber ist nun eine V R E? Die vielzitierte und breit rezipierte Definition der Arbeitsgruppe „Virtuelle Forschungsumgebungen“ lautet: Eine virtuelle Forschungsumgebung ist eine Arbeitsplattform, die eine kooperative Forschungstätigkeit durch mehrere Wissenschaftler an unterschiedlichen Orten zu gleicher Zeit ohne Einschränkungen ermöglicht. Inhaltlich unterstützt sie potentiell den gesamten Forschungsprozess – von der Erhebung, der Diskussion und weiteren Bearbeitung der Daten bis zur Publikation der Ergebnisse – während sie technologisch vor allem auf Softwarediensten und Kommunikationsnetzwerken basiert. Virtuelle Forschungsumgebungen sind wesentliche Komponenten moderner Forschungsinfrastrukturen.5

Mehr Fokus auf den Forschungsprozess legt die DI N I Arbeitsgruppe vForum. Für sie beschreibt der Begriff […] ein breites Spektrum an IT-gestützten Forschungsszenarien, das von der Kommunika­t ion in der Gruppe über das verteilte Schreiben bis zur gemeinsamen Durchführung von Experimenten und den Zugriff auf tausende Kilometer entfernte Geräte und Sensoren reicht.6

2 3 4 5

Z. B. bei „Astro-Grid“ oder „HyperImage“. Z. B bei „KoForum“ oder im Titel dieses Symposiums. Bei „studiolo communis“. Arbeitsgruppe „Virtuelle Forschungsumgebungen“ in der Schwerpunktinitiative „Digitale Information“ in der Allianz der deutschen Wirtschaftsorganisationen: Definition Virtuelle Forschungsumgebungen, 2011. 6 DI N I Arbeitsgruppe „vForum“: Virtuelle Forschungsumgebungen.

Erfolgsfaktoren für virtuelle Forschungsumgebungen      |

Hier ist der Bezug auf die Zusammenarbeit der Wissenschaftler deutlich, ebenso wie in der Definition von Wikipedia: „A virtual research environment (V R E) or virtual laboratory is an online system helping researchers collaborate.”7 Hierbei fallen zwei Details auf, die zumindest diskussionswürdig erscheinen: Erstens die bereits erwähnte Kooperation durch mehrere Wissenschaftler. Falls es nur darum geht, Wissenschaftler durch die Bereitstellung moderner, computergestützter Hilfsmittel in ihrer Arbeit zu unterstützen, so müssen diese nicht notwendigerweise kooperativ sein. Sicher gibt es, gerade in Zeiten der Globalisierung, die Notwendigkeit für Wissenschaftler, sich mit Kollegen abzustimmen, etwa bei der gemeinsamen Nutzung technischer Großanlagen wie Teleskope oder Teilchenbeschleuniger. Dies bedeutet aber nicht automatisch, dass auch die eigentliche Forschung im Team geschehen muss. Auch dürfte es hier große Unterschiede zwischen verschiedenen Disziplinen und Teildisziplinen geben. Vielleicht entstammt die Forderung nach kooperativem Arbeiten dem Paradigma der V LEs, welche tatsächlich stark auf kooperatives Lernen fokussiert sind. Vielleicht schwingt aber auch die Vorstellung mit, kooperative Forschung sei erfolgreicher, was zu beweisen wäre. Zweitens wird verlangt, dass virtuelle Forschungsumgebungen potenziell den gesamten Forschungsprozess unterstützen. Auch hier ist zunächst nicht ersichtlich, warum dies für die Definition wichtig ist. Möglicherweise hat die bildliche Vorstellung der Forschungsumgebung, beziehungsweise mehr noch die des englischen environments, dazu beigetragen, dass man sich ein solches System als umfassend gedacht hat. Ein solches System muss allerdings zwingend Komponenten beinhalten, mit denen Wissenschaftler bereits versorgt sind, etwa Kommunikationswerkzeuge (E-Mail etc.) oder Tools zur Projektorganisation. Hieraus ergeben sich allerdings zwei Problemkomplexe: Zum einen müssten unter erheblichem Aufwand Softwarekomponenten entwickelt beziehungsweise in das System integriert werden, die den Wissenschaftlern bereits zur Verfügung stehen. Zum anderen müssten sich diese wiederum an neue Werkzeuge gewöhnen für Aufgaben, für die es bereits etablierte Lösungen gibt. Alternativ dazu könnte ein System auch nur diejenigen Bereiche abdecken, in denen es bislang keine ausreichende Unterstützung gab.

Erfolgsindikatoren Die folgenden Größen könnten heran gezogen werden, um die Güte eines Systems zu testen. Mit Sicherheit ist die vorliegende Liste nicht erschöpfend, wichtig ist hier aber, dass die Möglichkeit besteht, objektivierbare Metriken auf den einzelnen Indikatoren zu erstellen. Solche Metriken oder gar vergleichbare Messungen bei bestehenden Systemen gibt es freilich noch nicht. 7 Wikipedia: Virtual research enviroment, 2011.

59

60

|     Michael Franke

Verwenden viele Wissenschaftler ein System, deutet dies darauf hin, dass es entweder unverzichtbar oder sehr geeignet für die jeweilige Aufgabe ist. In beiden Fällen stellt dies einen Erfolg dar. Die Zahl der Anwender zu messen ist einfach, jedoch muss man bei Vergleichen auch die Größe der jeweiligen Community beachten. Bietet ein System die Möglichkeit, mit anderen Wissenschaftlern in Kontakt zu treten und / oder mit ihnen zusammenzuarbeiten, so kann das Maß an Kollaboration Erfolg anzeigen. Dahinter steht der Gedanke, dass ein System nicht nur viele, möglicherweise inaktive, Benutzer hat, sondern diese auch tatsächlich aktiv mit dem System arbeiten. Ob dies messbar ist, hängt von der Implementierung des Systems ab. Es sollte also bereits bei der Planung an eine solche Möglichkeit gedacht werden. In ähnlicher Weise könnte auch die Messung der Menge an Forschungsdaten relevant werden, welche innerhalb eines betrachteten Systems importiert, bearbeitet, getauscht oder archiviert werden. Vergleichende Messungen sind hier allerdings nur sehr eingeschränkt möglich, da die hohe Heterogenität der Daten, disziplinspezifische Besonderheiten und Unterschiede in Qualität, Originalität und Formatierung der Daten der Vergleichbarkeit enge Grenzen setzen. Bei der Betrachtung virtueller Forschungsumgebungen sollte stets analytisch zwischen Software und Instanz unterschieden werden. Meistens wird Software entwickelt, um innerhalb einer bestimmten Organisations- und Hardwareumgebung zu laufen. Oftmals kann eine entwickelte Software aber nicht nur innerhalb der ursprünglich intendierten Umgebung laufen, etwa innerhalb der Institution, in der sie entwickelt wurde, sondern kann, zumindest theoretisch, von anderen Interessenten für ihre eigenen Zwecke nachgenutzt werden. Je nach Funktionalität und Architektur der Anwendung kann dies innerhalb derselben Forschungsdomäne stattfinden oder darüber hinaus. Bestehen die entsprechenden Voraussetzungen, etwa eine Open Source-Lizenzierung der Software und eine übersichtliche Programmierung, kann sich eine Software-Community bilden, welche die nachhaltige Weiterentwicklung der Software gewährleistet. Ein solches Szenario der Nachnutzung der Software stellt ohne Zweifel ein Erfolgsmodell dar. Ebenso bemerkenswert wäre eine kommerzielle Verwertung der Software, etwa durch Verkauf oder das Anbieten von Dienstleistungen. Viele virtuelle Forschungsumgebungen konzentrieren sich auf die Verarbeitung von Forschungsdaten, also auf deren Import, Transformation, Anzeige, Bearbeitung, Kombination, Anreicherung, Dissemination und Archivierung. Eine Nachnutzung dieser Daten durch Dritte kann zur Gewinnung neuer Erkenntnisse führen und zur Steigerung der Reputation derer, die originär mit ihnen geforscht haben. Das kann man als Erfolg auch der Forschungsumgebung auffassen. Ein Maß, welches sich aus Sicht der Wissenschaft anbieten könnte, wäre der Publikationsoutput der das System verwendenden Wissenschaftler. Analog zur derzeitigen Praxis der Evaluation von Wissenschaft könnte anhand bibliometrischer Größen der Impact einer Forschungsumgebung gemessen werden. Der Vorteil dieses Indikators läge darin, dass direkt Forschung erfasst würde, welche aufgrund der Verwendung des

Erfolgsfaktoren für virtuelle Forschungsumgebungen      |

Systems ermöglicht oder vereinfacht wurde. Die große Herausforderung andererseits bestünde darin, wissenschaftliche Publikationen einer bestimmten Forschungsumgebung zuzuordnen. Das Forschen über Disziplingrenzen hinweg gilt gemeinhin als förderlich für die Wissenschaft. Falls also eine Forschungsumgebung interdisziplinäre Zusammenarbeit ermöglicht oder vereinfacht8, so kann auch dies als Leistung gewertet werden. Die Messbarkeit dürfte hier über eine bloße Ja / Nein-Aussage allerdings kaum hinauskommen. Schließlich kann als Erfolgsindikator gelten, ob eine virtuelle Forschungsumgebung nach einer im Allgemeinen mit Drittmitteln geförderten Entwicklungsphase in eine nachhaltig finanzierte Betriebsphase übergeht: Der Betrieb eines solchen Softwaresystems erfordert neben der Bereitstellung der benötigten Hardware und der Administration des Systems auch die laufende Wartung der Anwendung, etwa durch das Beseitigen von Fehlern oder das Update von Drittsoftware-Komponenten. Auch das Anwachsen von Datenbestand oder Benutzerkreis bedarf gelegentlicher Anpassungen. All dies muss finanziert werden. Wenn also ein Modell für eine derartige Finanzierung zustande gekommen ist, stellt dies ein klares Signal für die Nachfrage und Akzeptanz, ergo des Erfolgs dar. Die hohe Varianz bei virtuellen Forschungsumgebungen hinsichtlich Motivlage, Forschungsdisziplin und Funktionalität führt dazu, dass keiner der genannten Indikatoren als notwendig erachtet werden kann. Gleichwohl könnten die meisten Indikatoren beim jetzigen Stand der Dinge als hinreichend gelten.

Funktionale Faktoren Eine gelungene virtuelle Forschungsumgebung bedient die funktionalen Anforderungen der Benutzer, d. h. sie stellt genau diejenigen Funktionalitäten zur Verfügung, welche benötigt werden, um die avisierten Forschungsaufgaben effizient leisten zu können. Unabdingbar hierfür ist es, Wissenschaftler in den Planungsprozess mit einzubinden. Es scheinen zwei Bemerkungen angebracht. Erstens sollte man darauf achten, nach Möglichkeit solche Wissenschaftler heranzuziehen, die aktuell im Forschungsbetrieb aktiv und mit den neuesten Methoden vertraut sind beziehungsweise darüber hinaus bereit sind neue, innovative Methoden zu akzeptieren und einzusetzen. Ansonsten wird man womöglich nur bereits Bestehendes reproduzieren. Zweitens sollte man sich als Produzent einer V R E darüber im Klaren sein, dass die Mitwirkenden im Entwicklungsprozess, also auch die beteiligten Wissenschaftler, ebenfalls eine Entwicklung durchlaufen: Durch das Planen, Testen und Arbeiten mit dem System kann sich ihre Einstellung ändern, ebenso ihre Fertigkeiten im Umgang mit der Software. Man sollte darauf hinwirken, dass das Endergebnis auch noch für Wissenschaftler einsetzbar ist, die nicht in den Entwicklungsprozess involviert waren. 8 Etwa durch Formatkonversionen oder die Kombination disziplinspezifischer Plattformen.

61

62

|     Michael Franke

Wie soeben erwähnt, sollte eine virtuelle Forschungsumgebung nicht nur bestehende Funktionalitäten reproduzieren, sondern sollte Neues bieten und damit einen klar erkennbaren Mehrwert für den Wissenschaftler. Dies kann in der Implementierung neuer Methoden liegen oder in der innovativen Rekombination bereits bestehender. Es sollten keine Funktionalitäten entwickelt werden, die nicht explizit benötigt werden beziehungsweise bereits durch bestehende Software abgedeckt sind. Nicht nur, dass die Entwicklung solcher Komponenten zusätzlichen Aufwand bedeutet, sie erzeugt auch Unsicherheit bezüglich der Benutzung. Im schlimmsten Fall werden mehrere Systeme parallel für dieselben Aufgaben verwendet, was unweigerlich zu Koordinierungsproblemen führt. Es ist weiterhin wichtig, die einzelnen Funktionalitäten einer V R E zeitlich in den Forschungsprozess einzuordnen und dies auch in der Kommunikation zu berücksichtigen. Insbesondere im Umgang mit Forschungsdaten können so Verunsicherungen vermieden werden. So muss zum Beispiel sichergestellt sein, dass die Daten eines Wissenschaftlers solange für andere unzugänglich sind, wie dies für seinen individuellen Forschungsprozess notwendig ist. Abschließend sei hier noch auf Besonderheiten hingewiesen, die sich aus der jeweiligen wissenschaftlichen Disziplin ergeben. Die Geisteswissenschaften, genauer Digital Humanities, zeigen sich generell sehr aufgeschlossen virtuellen Forschungsumgebungen gegenüber, da oft schon das Erschließen und Zugänglichmachen digitaler Ressourcen als wissenschaftliche Leistung anerkannt und honoriert wird. Manche Disziplinen, etwa Teile der Physik (Astronomie, Klimaforschung) oder Informatik sind bereits recht gut mit digitalen Hilfsmitteln ausgestattet. Einerseits bedeutet dies eine hohe Technik­ affinität, wobei die kausale Ausrichtung hier nicht geklärt werden soll. Andererseits fällt es Infrastrukturdienstleistern schwerer, in diesen Bereichen Innovationen anzubieten. Ähnlich verhält es sich in der medizinischen und pharmazeutischen Forschung. Die Ursache der weit verbreiteten digitalen Zusammenarbeit ist hier in gesetzlichen Regelungen zur Dokumentation zu suchen. Wieder andere Disziplinen, etwa Biologie und Chemie, zeigen sich überaus unwillig, ihre aktuellen Forschungsdaten in ein OnlineSystem einzupflegen, aus Angst, diese Daten könnten in fremde Hände gelangen.9 Dem muss bei der Planung von Forschungsumgebungen ebenfalls entsprechend Rechnung getragen werden. Schließlich gibt es in verschiedenen Disziplinen in sehr unterschiedlichem Maße ausgeprägte Standards für Datenformate und Metadaten, die den Austausch über Disziplingrenzen hinweg erschweren.

Technische Faktoren Einige der bisher entwickelten virtuellen Forschungsumgebungen warten mit einer Unmenge an Funktionalitäten auf. Dies mag der, oben bereits diskutierten, Forderung nach vollständiger Abdeckung des Forschungsprozesses geschuldet sein oder schlicht 9 Ebenso die Archäologie, wie ich auf dem Symposium lernte.

Erfolgsfaktoren für virtuelle Forschungsumgebungen      |

einem üppigen Anforderungskatalog entspringen. Es hat sich gezeigt, dass derartige Systeme relativ schlecht von den Benutzern akzeptiert werden. Dies liegt sicherlich am Einarbeitungsaufwand, der mit jeder zusätzlichen Funktionalität steigt. Liegt zusätzlich noch eine monolithische Architektur vor, also eine Softwarestruktur, die keine einheitlichen Schnittstellen zwischen den einzelnen Funktionalitäten bietet, kommen zusätzlich unkalkulierbare technische Schwierigkeiten hinzu. Solche Systeme gelten im Allgemeinen als schwer zu warten, unflexibel und kaum erweiterbar. Stattdessen empfiehlt sich eine modulare Architektur mit standardisierten Schnittstellen, auch und gerade innerhalb eines Systems. Dies ermöglicht die schnelle und einfache Anpassung einzelner Funktionalitäten, bis hin zum Austausch ganzer Module. Auch sollte eine solche Anwendung eine überschaubare Anzahl von Funktionalitäten aufweisen, um die Kernaufgabe klar herauszustellen. Werden im Forschungsprozess weitere unterstützende Funktionalitäten benötigt, so können und sollten diese durch lose gekoppelte Import- / Export-Mechanismen angesteuert werden können. Oftmals bestehen nämlich schon Werkzeuge und Anwendungen, welche diese Aufgaben bereits zufriedenstellend erledigen. Wichtig ist, hierbei auf Interoperabilität zu achten. Das betrifft sowohl die technischen Schnittstellen als auch die verwendeten Austauschformate. Es sollten also möglichst technische und fachliche Standards beachtet werden. Je nach wissenschaftlicher Community sollte dies auch im internationalen beziehungsweise globalen Kontext bedacht werden. Ein weiterer technischer Faktor, der selbstverständlich erscheint, in der Realität allerdings meist genauso selbstverständlich ignoriert wird, ist die gute technische Dokumentation der Software. Eine übersichtliche Programmierweise und verständliche Erläuterungen des Codes sind entscheidend dafür, dass Software von Dritten adaptiert werden kann. Gerade in einem Bereich wie dem wissenschaftlichen Informationsmanagement, der von projektbasierter Arbeit und somit von befristeten Anstellungsverträgen gekennzeichnet ist, trägt gute Dokumentation zum Überleben von Software bei.

Handwerkliche Faktoren Der Begriff Handwerk soll sich in diesem Zusammenhang auf die Aufgaben einer Infrastruktureinrichtung beziehen, welche virtuelle Forschungsumgebungen entwickelt und / oder für die Wissenschaft betreibt. Zu den vordringlichsten Aufgaben zählt die Softwareentwicklung und damit ein Komplex von verschiedenen Tätigkeiten, deren professionelle Ausübung über Erfolg oder Misserfolg entscheiden kann. Nach der oben bereits erwähnten Anforderungserhebung steht die Anforderungsanalyse und Spezifikation der geplanten Funktionalitäten. Ebenfalls besprochen wurde die Softwarearchitektur, ergänzend sei hierzu die Technologieauswahl erwähnt. Durch die Nachnutzung erprobter, nachhaltig entwickelter Softwarekomponenten können Entwicklungszeit und -kosten erheblich gesenkt werden. Die

63

64

|     Michael Franke

Wahl eines geeigneten Softwareentwicklungsmodells (z. B. V-Modell, Scrum, Kanban) hängt von den jeweiligen projektbezogenen Gegebenheiten ab wie etwa Anzahl der Entwickler, Rollen der Projektbeteiligten sowie Art und Umfang der Software. Wünschenswert ist zusätzlich ein unabhängiges Qualitätsmanagement und, falls mehr als ein Projekt geplant ist, ein objektives Controlling. In der Praxis hat sich gezeigt, dass die Akzeptanz für ein Produkt steigt, wenn es zeitnah realisiert werden kann, bevor sich potenzielle Nutzer nach anderen Hilfsmitteln umsehen oder gar ihr Tätigkeitsfeld verlagern. Es ist also wichtig, die verfügbaren Ressourcen nicht zu sehr auf unterschiedliche Aufgaben zu verteilen. Ist eine Anwendung fertig entwickelt, so gilt es, den Nutzern den Zugang durch Information und Unterstützung (Anwendersupport), niedrige Hürden und gute Dokumentation so leicht wie möglich zu gestalten, da gerade bei neuen und unbekannten Programmen die Toleranz- und Frustrationsschwelle besonders niedrig liegt. Dasselbe gilt ebenso gegenüber der Bedienbarkeit einer Anwendung. Auf diese ist gegebenenfalls mehr Wert zu legen als etwa auf optische Feinheiten. Abschließend soll hier auf die Vorteile einer Open Source-Lizenzierung von Software verwiesen werden. Die eigene Software quelloffen zu legen bietet nicht nur anderen die Möglichkeit, an der im Allgemeinen durch Steuergelder finanzierten Entwicklung teilhaben zu können und somit das Gemeinwohl zu steigern, sondern kann auch die nachhaltige Weiterentwicklung der Software fördern, falls sich nach der Förderphase eine Community findet, deren Interesse so groß ist, dass sie sich um die Pflege der Software kümmert. Dies wird freilich nur geschehen, wenn der Software nicht nur formal eine entsprechende Lizenz erteilt wird, sondern der Code auch auffindbar und gut dokumentiert ist (Installationshinweise). Umgekehrt sei hier nochmals auf den (Nach-)Nutzen von quelloffener Software anderer verwiesen.

Politische und kulturelle Faktoren Gegen Ende des Beitrags sollen noch Faktoren genannt werden, welche nicht direkt erfüllt, aber vielleicht durch stetes Einwirken beeinflusst werden können, nämlich solche, die den Wissenschaftsbetrieb und die Förderpolitik betreffen. Obwohl Forschung teilweise, gerade in den Geisteswissenschaften, langfristig gedacht wird, ist deren (Drittmittel-)Förderung darauf ausgelegt, innerhalb einer definierten Förderperiode Ergebnisse zu liefern, welche dann in Veröffentlichungen dem wissenschaftlichen Publikum vorgelegt werden. Eine derartige Veröffentlichung ist das intersubjektive Artefakt, welches das Destillat der Forschung enthält. Virtuelle Forschungsumgebungen werden zwar durch dieselben Institutionen gefördert wie die Wissenschaft (z. B. DFG, BM BF, EU), aber hier verhält es sich etwas anders: Geht man davon aus, dass eine solche Anwendung über die Entwicklungsphase hinaus betrieben werden soll, so müsste man diese Betriebsphase in der Förderung mit bedenken, d. h. entweder der Betrieb wird mitgefördert oder es sollte bereits in der Antragstellung ein

Erfolgsfaktoren für virtuelle Forschungsumgebungen      |

Finanzierungskonzept mit eingefordert werden.10 Anderenfalls gehen einerseits gute Lösungen verloren, bevor sie eine angemessene Verbreitung erreicht haben, oder es etabliert sich andererseits eine Kultur von Demonstratoren, welche letztlich der Wissenschaft keinen Nutzen bietet. Obwohl sich die erste Aufbruchsstimmung beim Thema „Virtuelle Forschungsumgebungen“ insbesondere seitens der Förderer etwas gelegt zu haben scheint und dies angesichts der beschriebenen Herausforderungen auch nachvollziehbar ist, scheint es doch sinnvoll, weiter zu ergründen, wie man Wissenschaftler aller Disziplinen mit neuen Technologien bei ihrer Arbeit unterstützen kann. Vielleicht kann das derzeit massiv beund geförderte Thema „Offener Zugang zu Forschungsdaten“ hier eine Brücke schlagen. Da in Forschungsumgebungen Daten meistens eine zentrale Rolle spielen, liegt es nahe, diese beiden Themen zu verzahnen und beispielsweise Möglichkeiten zu bieten, nach getaner (Forschungs-)Arbeit diese Daten der wissenschaftlichen Langzeitarchivierung zuzuführen und offen zugänglich zu machen.

Literatur Arbeitsgruppe „Virtuelle Forschungsumgebungen“ in der Schwerpunktinitiative „Digitale Information“ in der Allianz der deutschen Wissenschaftsorganisationen: Definition Virtuelle Forschungsumgebung (2011). (http://www.allianzinitiative.de/de/handlungsfelder/virtuelle-forschungsumgebung/definition/; letzter Zugriff am 28.7.2017). DINI Arbeitsgruppe vForum: Virtuelle Forschungsumgebungen (o. D.) (www.dini.de/ag/vforum/). Virtuelle Forschungsumgebungen in der Praxis (2013) (www.dini.de/veranstaltungen/workshops/vfu-inder-praxis/; letzter Zugriff am 28.7.2017). Wikipedia: Virtual research environment (2011) (en.wikipedia.org/wiki/Virtual_research_environment; letzter Zugriff am 28.7.2017).

10 Es wurde in der Diskussion völlig zu Recht darauf hingewiesen, dass es auch zukünftig möglich sein muss, prototypisch Software zu entwickeln, um neue Konzepte überprüfen zu können. Dies sollte meines Erachtens aber ebenfalls bei der Antragstellung kenntlich gemacht werden.

65

Andreas Brennecke, Gudrun Oevel und Thomas Strauch

Unterstützung des Forschungsprozesses aus infrastruktureller Sicht

Einordnung Virtuelle Forschungsumgebungen1 wie „studiolo communis“ stellen Wissenschaft­ lerinnen und Wissenschaftler sowie Infrastruktureinrichtungen vor neue Herausforderungen. Diese entstehen zum einen durch die digitale Transformation, durch die Medien zunehmend digital − als born digital oder retrodigitalisiert − vorliegen und verwaltet werden müssen. Zum anderen ändern sich technologisch bedingt Werkzeuge und Verfahren zum Umgang mit den Forschungsdaten. Hinzu kommen die Schnelligkeit, mit der die Digitalisierung fortschreitet, sowie komplett neue Anforderungen im Forschungsdatenmanagement insbesondere bezüglich Nachhaltigkeit und Langzeitarchivierung. Gleichzeitig und in wechselseitiger Abhängigkeit erfolgt die Veränderung der eigentlichen Forschungsprozesse. Auf der technischen und prozessualen Seite gibt es in Folge erheblichen Aufwand bei der Gestaltung optimaler Werkzeuge und Umgebungen zur Unterstützung des Forschungsprozesses, die sich grob über die Begriffe Medienbrüche, Schnittstellen, Architekturfragen und Standards charakterisieren lassen 2. Schon auf dieser Ebene ergeben sich neuartige Herausforderungen für Infrastruktureinrichtungen. Eine grundsätzliche Problematik verschärft die Situation: Die klassische Organisation der Arbeitsteilung zwischen Wissenschaft und Infrastruktureinrichtung im sogenannten Wissenskreislauf muss neu bewertet werden.

1 Der Begriff wird hier wie in: Gesamtkonzept für die Informationsinfrastruktur in Deutschland. Empfehlungen der Kommission Zukunft der Informationsinfrastruktur im Auftrag der Gemeinsamen Wissenschaftskonferenz des Bundes und der Länder, April 2011, S. 249 als Oberbegriff verwendet für „flexible Infrastrukturen, die es Forschern erlauben, die Potenziale el. Medien und Technologien für das kollaborative Arbeiten zu nutzen und daraus auch neue Forschungsmethoden und -gegenstände zu entwickeln“. 2 Vgl. im vorliegenden Bd. Hartmann, Doris / Oberhoff, Andreas: „studiolo communis“ – Digitale Unterstützung des Forschungsdiskurses in der Kunst- und Architekturgeschichte.

68

|     Andreas Brennecke, Gudrun Oevel und Thomas Strauch

Neue Arbeitsteilung im digitalen Wissenskreislauf Wissen wird in einem Wissenskreislauf produziert, falsifiziert, verifiziert, variiert, archiviert etc. In diesem Prozess treten zyklisch mehrere Phasen auf, die von verschiedenen Autoren unterschiedlich zusammengefasst und benannt werden. In der Agenda 2020 der Projekte C L A R I N und DA R I A H sind dies beispielsweise Erzeugung, Management, Auffindung, Verarbeitung und Distribuierung3. Michael Nentwich nennt Wissensproduktion, Kommunikation (Diskurs) und Distribution.4 Der klassische Wissenskreislauf (oder Forschungszyklus) lässt sich damit grob in die Phasen „Vorbereitung“, „Durchführung“ und „Transfer“ unterteilen (Abb. 1). In der analogen Welt existierte entsprechend etwa folgende inhaltliche und organisatorische Arbeitsteilung: Die Bibliothek hielt Recherchemöglichkeiten, Literatur und Informationsmedien vor und wurde hauptsächlich in der Phase der Vorbereitung für die Recherche genutzt. Mit der nachhaltigen Bereitstellung von digitalen Publikatio­ nen auf eigenen Publikationsservern kam die Transferphase hinzu. Ein klassisches Rechen­zentrum war dagegen maximal in der Durchführungsphase von Interesse, wenn Rechenleistung für numerische Operationen oder Simulationen gefragt war. Das ana-

Transfer ∙ produzieren ∙ kommunizieren ∙ präsentieren ∙ publizieren

Vorbereitung ∙ informieren ∙ problematisieren ∙ planen

∙ erheben ∙ analysieren ∙ differenzieren ∙ strukturieren Durchführung 1  Der klassische Wissenskreislauf 3 AHD. Agenda 2020 für eHumanities in Deutschland – Fahrplan für die Etablierung einer virtuellen Forschungsumgebung für die Humanities, vorgelegt von CLARIN und DARIAH, August 2007. 4 Nentwich, Michael: Cyberscience: Die Zukunft der Wissenschaft im Zeitalter der Informationsund Kommunikationstechnologien, M PI fG Working Paper 99 / 6 (Mai 1999).

Unterstützung des Forschungsprozesses aus infrastruktureller Sicht      |

loge Medien­zentrum unterstützte schwerpunktmäßig bei der Visualisierung und Präsentation von Ergebnissen in der Transferphase. Die Durchführung des eigentlichen Forschungsvorhabens lag autonom im Wissenschaftsbereich. In der digitalen Welt sind sowohl die Medienobjekte als auch die Werkzeuge zu deren Bearbeitung und Verwaltung komplett digital verfügbar. Die Verschiebung der Zuständigkeiten wurde u. a. bereits von Nentwich 5 für die Bibliotheken und Strauch6 im Bereich der Medienzentren beziehungsweise E-Learning thematisiert. Der eScience-Kreislauf der Universität Bremen (Abb. 2)7 demonstriert dagegen beispielhaft, aber sehr anschaulich, wie heute bei jedem Schritt digitale Informations-, Kommunikations- und Produktionsmedien verwendet werden. In dieser Sichtweise wird klar, dass die klassischen Trennlinien der Aufgabenbereiche einer Bibliothek, eines Medien- oder Rechenzentrums sowie der Wissenschaft zunehmend verschwimmen und neu betrachtet werden müssen.

Literaturdatenbanken

Personal Information Management

Suchmaschinen

Open Access Publikation Recherche

Visualisierung

Analyse Plattformen

Text Mining

eScience

Communities

Datenerfassung

Proposal

Studie Datenbanken

Wissensbasen

2  eScience-Kreislauf der Universität Bremen

Data Mining

Forschungsfrage

Wikis

Studiendesign

CMS Blogs

Grids

WorkflowManagement

5 Nentwich, Cyberscience. 6 Strauch, Thomas: E-Kompetenzentwicklung im öffentlichen Hochschulraum. Herausforderung für zentrale Einrichtungen, in: Bibliothek Forschung und Praxis 32 / 2 (2008), S.160-167. 7 http://www.escience.uni-bremen.de/index.php?id=25 (04.05.2015).

69

70

|     Andreas Brennecke, Gudrun Oevel und Thomas Strauch

Diese Verschiebung der Zuständigkeiten verstärkt sich zudem in der aktuellen Diskussion um das Forschungsdatenmanagement. Nicht erst seit den Publikationen der Kommission Zukunft der Informationsinfrastruktur (2011)8, der EU (2010)9 und der DFG (2012)10 wird die Verwaltung von Forschungsdaten als eines der wichtigsten Themen bei der Digitalisierung der Wissenschaft gesehen. Bei diesen sogenannten Forschungsprimärdaten liegt die große Herausforderung in deren einfacher Nachnutzung. Hier sind neben rechtlichen Fragen des Urheberschutzes und des Verwertungsrechts insbesondere auch Fragen zur Auffindbarkeit von Daten, zur Reproduzierbarkeit, zur Zitierbarkeit und zur dauerhaften Langzeitarchivierung zu klären.11 Bei den sogenannten Forschungsprimärdaten handelt es sich typischerweise um nicht-textuelle Daten wie beispielsweise Messreihen, Video- oder Audiomaterial, Bilddaten, Umfrage-Ergebnisse, die einer breiten (Nach-)Nutzung zugeführt werden sollen. Bezüglich der privaten, kooperativen oder öffentlichen Bereitstellung unterscheidet man nach Ludwig / Enke (2013)12 mehrere Domänen der Datenhaltung mit strukturierten Übergängen (Abb. 3). Früher lagen die Daten im Forschungsprozess lediglich auf den Arbeitsplatzrechnern der Wissenschaftlerinnen und Wissenschaftler. Eine Nachnutzung wurde auf persönlicher Ebene organisiert und hatte meist den kompletten Austausch von Daten zur Folge. Der Bereich „Zugang und Nachnutzung“ bezog sich lediglich auf gedruckte Publikationen im üblichen Transferprozess. Seit vielen Jahren fördert u.a. die Deutsche Forschungsgemeinschaft (DFG) im Zuge ihrer Programme im Rahmen der Wissenschaftlichen Literaturversorgungs- und Informationssysteme13 den Aufbau von dauerhaften Repositorien für unterschiedliche Materialien in der dauerhaften Domäne sowie den Übergang von der dauerhaften Domäne in die Nachnutzung. Viele Wissenschaftsbereiche haben begonnen, ihre Daten fachspezifisch zusammenzuführen und gegenseitig zu nutzen. So wird beispielsweise im Projekt „Humanities Data Centre“ ein Forschungsdatenzentrum für die Geisteswissenschaften konzipiert.14 Andere Beispiele sind: das Projekt „German Federation for Biological Data (GF Bio)“ für eine nationale Dateninfrastruk  8 Gesamtkonzept.   9 EU: Riding the wave How Europe can gain from the rising tide of scientific data. Final report of the High level Expert Group on Scientific Data A submission to the European Commission October 2010. 10 DFG: Die digitale Transformation weiter gestalten. Der Beitrag der Deutschen Forschungsgemeinschaft zu einer innovativen Informationsinfrastruktur für die Forschung, Positionspapier der Deutschen Forschungsgemeinschaft, Ausschuss für Wissenschaftliche Bibliotheken und Informationssysteme, Bonn (3. Juli 2012). 11 Vgl. z. B. http://www.forschungsdaten.org. 12 Ludwig, Jens / Enke, Harry (Hg): Leitfaden zum Forschungsdaten-Management, Handreichung aus dem WissGrid-Projekt, Glücksstadt 2013; in Anlehnung an: Treloar, Andrew / Harboe-Ree, Catherine: Data management and the curation continuum: how the Monash experience is informing ripository relationships, 2008. 13 http://www.dfg.de/foerderung/programme/infrastruktur/lis/. 14 http://humanities-data-centre.org.

Unterstützung des Forschungsprozesses aus infrastruktureller Sicht      |

Datenmanagement Private Domäne

Erweitertes Datenmanagement Gruppendomäne

Dauerhafte Domäne

Zugriffsberechtigungen Zugang und Nachnutzung

3  Domänenmodell mit strukturierten Übergängen

tur für biologische und umweltbezogene Daten15 oder das Projekt „Forschungsdatenzentrum Archäo­logie und Altertumswissenschaften (I A N US)“.16 Das Rechenzentrum ist in dem o.a. schematischen Domänenmodell (Abb. 3) klassisch als Bereitsteller von physikalischen Speicherressourcen bekannt, die Bibliothek kümmert sich um das Management der Metadaten. Auch hier stellt sich die Frage nach der Neujustierung von Aufgaben, denn bereits für das Datenmanagement in der privaten und in der Gruppendomäne braucht es heute Know-how in Bezug auf Daten- und Metadaten-Management, so dass die oben charakterisierten Übergänge in der Praxis heute nicht mehr trennscharf sind. Es kommt ein weiterer Punkt im digitalen Wissenskreislauf hinzu: In vielen Projekten werden Software-Bausteine entwickelt, um die Forschungsdaten im Forschungsprozess zu analysieren, zusammenzuführen, zu vergleichen und zu bewerten. Diese Software-Bausteine als Teile einer virtuellen Forschungsumgebung erreichen in Projekten jedoch maximal den Status eines Prototyps, dessen dauerhafter Betrieb typischerweise nicht gewährleistet ist.17 Gern wird hier die Rolle der Infrastruktureinrichtungen für einen nachhaltigen Betrieb betont. Es stellt sich aber heraus, dass die Entwicklungsphasen von einem Prototyp hin zu einem nachhaltigen Produkt eine Infrastruktureinrichtung allein überfordert. Auch hier verschieben sich die klassischen Grenzen zwischen Forschung und Infrastruktureinrichtungen. Letztere sind als reine Betreiber am Ende der Prozesskette nicht mehr gefragt beziehungsweise können diese Aufgabe in der heutigen Komplexität nicht mehr leisten. Zusammengefasst stellt sich daher erneut die Frage nach der Neuausrichtung der Aufgaben einer zukunftsfähigen Infrastrukturein15 http://www.gfbio.de. 16 http://www.ianus-fdz.de. 17 Vgl. Buddenbohm, Stefan / Enke, Harry / Hofmann, Matthias / K lar, Jochen / Neuroth, Heike / Schwiegelshohn, Uwe: Erfolgskriterien für den Aufbau und nachhaltigen Betrieb Virtueller Forschungsumgebungen, in: DA R I A H-DE Working Papers Nr. 7, Göttingen 2014.

71

72

|     Andreas Brennecke, Gudrun Oevel und Thomas Strauch

richtung. Nentwich hat dazu für Bibliotheken drei mögliche Modelle zur Diskussion gestellt.18 Modell 1 beinhaltet die Aneignung von intensiven Kenntnissen im Bereich Cyberscience, wie er die zukünftige digitale Wissenschaftswelt nennt, durch die Wissenschaftlerinnen und Wissenschaftler selbst. Im Modell 2 übernehmen sogenannten Information Broker gewissermaßen als Zuarbeiterinnen und Zuarbeiter die Recherche und Aufarbeitung der wissenschaftlichen Informationsvielfalt für die kreativen, wissenschaftlich tätigen Personen. Als am wahrscheinlichsten schätzt er das dritte Modell ein, in dem zukünftig Bibliothekarinnen und Bibliothekare mit Wissenschaftlerinnen und Wissenschaftlern verstärkt zusammenarbeiten. Die Entwicklung zeigt, dass sich „Information Broker“ bisher eher an den bereits oben genannten nationalen Datenzentren etablieren. Wir vertreten zusätzlich die These, dass die beiden anderen Modelle im Wissenskreislauf vorkommen und ihre Berechtigung haben.

Vom Forschungsdiskurs zu gesichertem Wissen und zurück Forschungsdaten werden im Forschungsprozess nicht allein durch einen gerichteten Fluss zwischen den Domänen (von privat bis öffentlich) weitergereicht. Zwischen den Domänen bestehen je nach Forschungsgebiet unterschiedliche wechselseitige Beziehungen. So können Forscherinnen und Forscher ihre individuell verarbeiteten Daten direkt in Forschungsdatenbanken eintragen oder veröffentlichen (etwa erhobene Wetter­daten in eine meteorologische Datenbank). Gleichzeitig werden institutionell organisierte Datenbestände in der individuellen Arbeit oder im kooperativen Forschungsdiskurs genutzt (beispielsweise werden Bilder aus Bildarchiven mit eigenen Materialien verknüpft, annotiert, kommentiert etc.). In den einzelnen Domänen muss daher nicht nur die Funktionalität an unterschiedliche Bedürfnisse der individuellen, kooperativen oder institutionellen Arbeit angepasst sein, sondern es müssen auch unterschiedliche Strukturen in den Daten ermöglicht werden. Wir greifen hier eine Forderung u.a. aus Locher / Warnke (2013) auf19 und wollen dies mit den Begriffen „Strukturieren vs. Ordnen“ charakterisieren. Strukturieren steht für eine flexible Anordnung und Verknüpfung gemäß dem mit den jeweiligen Objekten und Artefakten verbundenen Wissen. Metadaten können dabei eine Rolle spielen. Der Zwang für jedes Objekt, beim Hochladen aber zuerst einen formal vollständigen Metadatensatz zu erzeugen, ist hier kontraproduktiv und behindert die Kreativität.

18 Nentwich, Cyberscience. 19 Locher, Hubert / Warnke, Martin: Ergebnisse des Round Table „Kritische Massen. Zur Anschlussfähigkeit digitaler Bildbestände an die aktuelle Kunsthistorische Forschung, Marburg, 18. Oktober 2013“.

Unterstützung des Forschungsprozesses aus infrastruktureller Sicht      |

Strukturieren

Organisieren Zugangsverwaltung

Digitale Zusammenarbeit

Digitale Forschungsdaten Kooperativ

Institutionell

Digitaler Diskurs

Nutzung digitaler Dienste/Werkzeuge

Archivierung

Privat/ Individuell

Arbeitsplatzrechner

4  Idealisierter Wissenskreislauf unter Berücksichtigung der Domänen

Flexibilität Kreativität

Öffentlich Digitale Publikationen Recherche Nachweissysteme Lange Lebensdauer

Ordnen hingegen erzeugt eine langfristig verfügbare und archivierbare, für eine Community oder sogar fachübergreifend durchsuchbare Anordnung und Verschlagwortung, wobei der Fokus u. a. auf definierten Metadaten liegen kann. Damit ergibt sich aus unserer Sicht eine Verfeinerung des Wissenskreislaufs (Abb. 4). Virtuelle Forschungsumgebungen, Werkzeuge und Schnittstellen sollten nach unserer Auffassung diese Unterscheidung berücksichtigen, um sich adäquat im Forschungsprozess verorten zu können. Sie können prinzipiell alle Domänen unterstützen, sind in der Regel jedoch auf die optimale Unterstützung einzelner Prozesse und Fachwissenschaften ausgelegt und dienen so jeweils mehr oder weniger gut dem Strukturieren beziehungsweise Organisieren. Bezogen auf die Arbeitsteilung zwischen Wissenschaft und Infrastruktureinrichtungen zeigt sich im Bereich des Strukturierens nach wie vor die Domäne der Wissenschaft. Hier haben Forscherinnen und Forscher das Know-how für ihre digitale Forschung gemäß Modell 1 selbst aufgebaut. In der Domäne des Organisierens sind die Infrastruktureinrichtungen gefragt. An den Schnittstellen zwischen Strukturieren und Organisieren findet die „verstärkte Zusammenarbeit“ gemäß Modell 3 von Nentwich statt.

73

74

|     Andreas Brennecke, Gudrun Oevel und Thomas Strauch

Ergebnisse von studiolo in Hinblick auf die Organisation im digitalen Wissenskreislauf Die oben entwickelten Ideen sollen im Folgenden exemplarisch am Beispiel der Digitalen Bildwissenschaft und des Projekts „studiolo communis“ verdeutlicht werden. Die Arbeitsweisen und Forschungstätigkeiten in der Digitalen Bildwissenschaft beinhalten nach Kohle:20 Suchen, Analysieren, Schreiben / Publizieren / Bewerten, Präsentieren / Rekonstruieren. Sie setzen zunächst voraus, dass die nicht-textuellen Materia­lien inklusive Metadaten für Recherchen digital nutzbar sind. Sie knüpfen zudem daran an, dass für die Analyseprozesse primäres Bildmaterial mit anderen Daten (Text, Publikatio­ nen, Ereignisse, Lebensläufe etc.) verknüpft werden kann.21 Der Ausgangspunkt von „studiolo communis“ an der Universität Paderborn war eine lokale Bilddatenbank, aus der Objekte aber auch mit „prometheus – Das verteilte digitale Bildarchiv für Forschung & Lehre“ ausgetauscht werden. Dazu ist die Bilddatenbank als Ordnungssystem aufgebaut. Metadaten erlauben die Suche und den schnellen Zugriff auf die Bilder. Für die individuelle Arbeit konnten Bilder in persönlichen Mappen zusammengestellt werden, es fehlten jedoch weitergehende Möglichkeiten der Strukturierung. Für den Bilddiskurs wurde dazu in einer virtuellen Forschungsumgebung zusätzlich die Möglichkeit geschaffen, Bilder aus der Bilddatenbank per Referenz zu übernehmen, diese zu positionieren, zu annotieren und zu kommentieren, Ausschnitte zu markieren und mit Texten und anderen Objekten zu verknüpfen. Die Bildobjekte wurden dabei aus ihrer generischen Ordnung in der Bilddatenbank herausgelöst und im Sinne der eigenen Forschung und Fragestellungen strukturiert. Diese Verknüpfung beinhaltet komplexe Prozesse, die nur in enger Kooperation von Wissenschaftlerinnen und Wissenschaftlern sowie Infrastruktureinrichtungen erreicht werden konnten. Auch in der Betrachtung der Forschungsprimärdaten hat sich gezeigt, dass die reine Ablage und das Wiederfinden für die Unterstützung des Forschungsprozesses nicht ausreichend sind. Um zum Beispiel das Suchen in großen Datenmengen forschungsnah zu unterstützen, mussten etwa technische Anpassungen an der Datenbank vorgenommen werden. Auch ist die im Projekt entwickelte virtuelle Forschungsumgebung, obwohl als lose gekoppelte Architektur und komponentenorientiert konzipiert, so speziell für die Kunsthistorie angepasst, dass sie nicht einfach auf andere Fächer oder auf das gleiche Fach an anderen Hochschulen übertragbar ist. Dies belegt anschaulich, wie eng digitale Forschungsprojekte und Infrastruktureinrichtungen zusammenarbeiten müssen, um Forschungshypothesen digital gestützt zu untersuchen.

20 Kohle, Hubertus: Digitale Bildwissenschaft, Glücksstadt 2013. 21 Siehe auch Locher / Warnke, Ergebnisse.

Unterstützung des Forschungsprozesses aus infrastruktureller Sicht      |

Zusammenfassung Der vorliegende Beitrag analysiert auf Grundlage des digitalen Wissenskreislaufes und vor dem Hintergrund des Projekts „studiolo communis“ die Anforderungen an die Organisation von Infrastruktureinrichtungen vor dem Hintergrund der digitalen Transformation. Er stellt heraus, dass die klassische Arbeitsteilung zwischen Wissenschaft und Infrastruktureinrichtung nicht mehr ausreichend ist, um erfolgreich Projekte im Bereich eScience durchzuführen. Es bedarf neuer Kooperations- und Kollaborationsszenarien zwischen Forschungsgruppen und den zentralen Einrichtungen, um die Forschungsprozesse insbesondere auch in den „Digital Humanities“ technologisch und organisatorisch erfolgreich zu implementieren. Dazu müssen im Wissenskreislauf beide Organisationsformen „Strukturieren“ und „Organisieren“ optimal durch Werkzeuge unterstützt werden. Die von Nentwich eingeführten Aufgabenentwicklungsmodelle für Bibliotheken konnten vor diesem Hintergrund verallgemeinert und entsprechend der allgemeinen Entwicklung und mit den Erfahrungen aus dem Projekt „studiolo communis“ neu bewertet werden.

Literatur AHD. Agenda 2020 für eHumanities in Deutschland. Fahrplan für die Etablierung einer virtuellen Forschungsumgebung für die Humanities, vorgelegt von CLARIN und DARIAH, August 2007 (https:// kitwiki.csc.fi/twiki/pub/Nealt/SigInfra/Agenda_eHumanities-v4.pdf, letzter Zugriff am 5.4.2017). Buddenbohm, Stefan / Enke, Harry / Hofmann, Matthias / Klar, Jochen / Neuroth, Heike / Schwiegelshohn, Uwe (2014): Erfolgskriterien für den Aufbau und nachhaltigen Betrieb Virtueller Forschungsumgebungen. DARIAH-DE Working Papers Nr.7. Göttingen: DARAIH-DE, 2014 (urn:nbn:de:gbv:7-dariah-2014-5-4, letzter Zugriff am 4.5.2015). DFG: Die digitale Transformation weiter gestalten. Der Beitrag der Deutschen Forschungsgemeinschaft zu einer innovativen Informationsinfrastruktur für die Forschung, Positionspapier der Deutschen Forschungsgemeinschaft, Ausschuss für Wissenschaftliche Bibliotheken und Informationssysteme, Bonn (3. Juli 2012) (http://www.dfg.de/download/pdf/foerderung/programme/lis/positionspapier_digitale_transformation.pdf, letzter Zugriff am 4.4.2017). EU: Riding the wave How Europe can gain from the rising tide of scientific data. Final report of the High level Expert Group on Scientific Data A submission to the European Commission October 2010 (http:// ec.europa.eu/information_society/newsroom/cf/dae/document.cfm?doc_id=707, letzter Zugriff am 5.4.2017). Gesamtkonzept für die Informationsinfrastruktur in Deutschland. Empfehlungen der Kommission Zukunft der Informationsinfrastruktur im Auftrag der Gemeinsamen Wissenschaftskonferenz des Bundes und der Länder, April 2011. (https://www.leibniz-gemeinschaft.de/fileadmin/user_upload/downloads/ Infrastruktur/KII_Gesamtkonzept.pdf, letzter Zugriff am 5.4.2017). Hartmann, Doris / Oberhoff, Andreas: „studiolo communis“ − Digitale Unterstützung des Forschungsdiskurses in der Kunst- und Architekturgeschichte (in diesem Band). Kohle, Hubertus: Digitale Bildwissenschaft. Glücksstadt 2013 (Volltextzugriff: http://archiv.ub.uni-heidelberg.de/artdok/volltexte/2013/2185, letzter Zugriff am 4.5.2015). Locher, Hubert / Warnke, Martin: Ergebnisse des Round Table „Kritische Massen – Zur Anschlussfähigkeit digitaler Bildbestände an die aktuelle Kunsthistorische Forschung, Marburg, 18. Oktober 2013“ (http://nbn-resolving.de/urn/resolver.pl?urn=urn:nbn:de:bvb:355-kuge-348-2, letzter Zugriff am 28.7.2017).

75

76

|     Andreas Brennecke, Gudrun Oevel und Thomas Strauch

Ludwig, Jens / Enke, Harry (Hg.): Leitfaden zum Forschungsdaten-Management. Handreichungen aus dem WissGrid-Projekt. Glücksstadt 2013. Nentwich, Michael: Cyberscience: Die Zukunft der Wissenschaft im Zeitalter der Informations- und Kommunikationstechnologien. MPIfG Working Paper 1999 / 6 (Mai 1999) (http://www.mpifg.de/pu/ workpap/wp99-6/wp99-6.html, letzter Zugriff am 5.4.2017). Strauch, Thomas: E-Kompetenzentwicklung im öffentlichen Hochschulraum. Herausforderung für zentrale Einrichtungen, in: Bibliothek Forschung und Praxis 32 / 2 (2008), S. 160–167. Treloar, Andrew / Harboe-Ree,Catherine (2008): Data management and the curation continuum: how the Monash experience is informing repository relationships. (http://www.valaconf.org.au/vala2008/papers2008/111_Treloar_Final.pdf, letzter Zugriff am 18.4.2015).

Martin Warnke

Das subversive Bild

Das Leitmedium der zweiten Hälfte des zwanzigsten und des angebrochenen einundzwanzigsten Jahrhunderts ist ohne Zweifel der Computer. Und da Medien unsere Lage bestimmen1, wie Friedrich Kittler prägnant schrieb, ist das Verhältnis der Computermedien zu den Geisteswissenschaften eine hochgradig wissenschaftspolitische Frage. Ob hier eventuell ein Emporkömmling, die kesse Informatik, die das viele Geld heranschafft, ob diese vielleicht etwa die altehrwürdigen Geisteswissenschaften kapert und übernimmt, das ist in diesen Tagen die Befürchtung und damit die Frage. In der Frankfurter Allgemeinen Zeitung vom 19. Juli 2013 schreibt Jan Röhnert, Junior-Professor für neuere und neueste Literatur in der technisch-wissenschaftlichen Welt an der TU Braunschweig, dass sich die Geisteswissenschaften gegen falsche Ansprüche der Informatik wehren müssten. Mit martialischem Vokabular ist hier von der Zumutung seitens der Informatik die Rede, es solle „mit dem Einzug der Digitalisierung auch das Arsenal ihrer mathematischen Methoden und Instrumente über interpretationsintensive, hermeneutisch ausgerichtete Disziplinen […] triumphieren“. Angesichts der ebenfalls im Artikel angeführten Schließung geisteswissenschaftlicher Fächer und der allbekannten Tatsache, dass etwa in Großbritannien die Humanities zu Gunsten der Technik- und der Lebenswissenschaften praktisch abgewickelt werden, brachte, so der Autor, die „Alarmglocken der Delegierten“ des philosophischen Fakultätentages in Chemnitz „zum Klingeln“.2 Und in der Tat, die Informatik hat in Gestalt der digital oder auch eHumanities Methoden beizusteuern, die in den Geisteswissenschaften ungewöhnlich sind. Material­massen zu durchstöbern, ohne dass dabei der Intellekt eines Menschen beteiligt wäre, überspringt die interpretierende Instanz eines Wissenschaftlerinnen- oder Wissenschaftler-Bewusstseins und schaltet das Reale direkt mit dem Symbolischen kurz, unter ­Auslassung des

1 Kittler, Friedrich: Grammophon Film Typewriter, Berlin 1986. 2 Röhnert, Jan: Feindliche Übernahme, in: FA Z 19.07.2013, S. 9.

78

|     Martin Warnke

Imaginären, um mit den drei Lacanschen Registern zu reden.3 Texte müssen nicht gelesen werden, können gar nicht mehr gelesen werden, um mit den Methoden des Data Mining in Big Data nach Auffälligkeiten durchsucht zu werden, wie es die Geheimdienste tun mit Prism und Tempora nach Hinweisen auf Staatsschädigendes oder die großen Internetfirmen nach der richtigen Empfängeradresse für bezahlte Werbeanzeigen. Dieser Stallgeruch des militärisch-industriellen Komplexes ist nicht zu leugnen, und ich vergesse auch so bald nicht, dass eine Gutachterin oder ein Gutachter für ein von mir beantragtes DFG -Projekt auch Anstoß nahm an Big Data in der Kunstgeschichte. Vorgemacht hat es Gregory Crane mit seinem Perseus-Projekt, das 1985 begann und 1992 mit der Version 1.0 an die Öffentlichkeit trat.4 Es publizierte im Volltext und in englischer Übersetzung sowie mit einer Lemmatisierung des Griechischen sämtliche dichterischen Texte des antiken Griechenland auf einer CD-ROM. Jeder Depp, der eine Scheibe in einen Schlitz stecken konnte, konnte auch sämtliche griechischen Termini im Gesamtkorpus der antiken Dichtung nachweisen. Dieser Schock saß tief. Es gab Anfeindungen, denn Crane hat mit einem Schlag Gräzistik-Ordinarien erheblicher Teile ihrer akademischen Existenzberechtigung beraubt, indem er ihre Expertise, nämlich im Kopf zu haben, was wo steht, schlicht frei gab: So begannen die eHumanities. Allerdings hat damals die Informatik die Gräzistik nicht übernommen. Nicht alle Neuerungen sind katastrophale Bifurkationen im Sinne René Thoms5,Gabelungen‘, die nur in die eine oder andrere Richtung führen können. Was sich mit perseus ereignete, war keine digitale Gräzistik im Sinne des Gegensatzes zwischen einer digitalisierten versus einer digitalen Kunstgeschichte6, wie ihn Hubertus Kohle und Claus Pias diskutiert haben7, sondern es war eine digitalisierte: Sie tat, was die Gräzistik schon immer tat, nur eben mit Unterstützung durch Computer. Schleichend daher kommen allerdings auch die epochalen Zäsuren, etwa in der Spionage, wenn Tiefseekabel angezapft werden, um überhaupt alles abzuhören. Niemand hat es gemerkt, und geändert hat es alles, bis hin zur endgültigen Abschaffung aller Privatheit. Denn wir sind schließlich alle Ausländer, jedenfalls fast überall, so dass auch fast alle Dienste fast überall lauschen dürfen, was im Digitalen dann sogar besonders einfach ist. Der Machtkampf zwischen den Geisteswissenschaften und der Informatik spielt sich eher dort ab, wo man von einer digitalen Geisteswissenschaft sprechen könnte, die 3 Diese Beobachtung wurde von Friedrich Kittlers Text über Fiktion und Simulation angeregt (Kittler, Friedrich: Fiktion und Simulation, in: Barck, Karlheinz (Hg.), Aisthesis, Leipzig 1991, S. 196– 213). Dort spricht er davon, in der Computersimulation springe das Symbolische, die Schrift, direkt hinüber ins Reale. 4 www.perseus.tufts.edu; letzter Zugriff am 28.7.2017. 5 Thom, René: Die Katastrophen-Theorie: Gegenwärtiger Stand und Aussichten, in: Otte, Michael (Hg.), Mathematiker über die Mathematik, Berlin 1974, S. 124–137. 6 www.zeitenblicke.de/2003/01/; letzter Zugriff am 28.7.2017. 7 Pias, Claus: Bilder – Bücher, Digitalisierte und digitale Kunstgeschichte, in: A K M B news, 4 / 1998, S. 3–7 (www.uni-due.de/~bj0063/texte/akmb.html; letzter Zugriff am 28.7.2017).

Das subversive Bild     |

nicht nur beschleunigt tut wie immer, sondern mit neuen Methoden neue Fragen und neue Typen von Einsichten hervorbringt. Der eingangs erwähnte Jan Röhnert etwa führt die Arbeiten Franco Morettis an, der mit seinem Buch „Graphs, Maps, Trees“8 eine neue Form der Literaturwissenschaft vorschlug, das „Distant Reading“, das massenhaft Daten über Bücher auswertet und in Form von Graphen wie in der quantitativen Geschichtsschreibung, Plänen wie in der Geographie und Bäumen wie in der Entwicklungsbiologie anordnet, um zu Einsichten zu gelangen, die einem verschlossen blieben, wenn man nur die Bücher läse. Es ist die Vollendung des Programms des perfekten Bibliothekars, wie es schon Musil in seinem „Mann ohne Eigenschaften“ schilderte: Er fährt wir ein Affe eine Leiter hinauf und auf einen Band los, förmlich von unten gezielt, gerade auf diesen einen, holt ihn mir herunter, sagt: ‚Herr General, hier habe ich für Sie eine Bibliographie der Bibliographien‘ […] und will verschwinden. Aber ich packe ihn noch rechtzeitig an seinem Jackett und halte mich an ihm fest. ‚Herr Bibliothekar‘, rufe ich aus, ‚Sie dürfen mich nicht verlassen, ohne mir das Geheimnis verraten zu haben, was Sie sich in diesem‘ – also ich habe unvorsichtigerweise Tollhaus gesagt, denn so war mir plötzlich zumute geworden – ‚wie Sie sich‘, sage ich also, ‚in diesem Tollhaus von Büchern selbst zurechtfinden. […] Wie ich ihn nicht gleich loslasse, richtet er sich plötzlich auf, er ist förmlich aus seinen schwankenden Hosen herausgewachsen, und sagt mit einer Stimme, die jedes Wort bedeutungsvoll gedehnt hat, als ob er jetzt das Geheimnis dieser Wände aussprechen müßte: ‚Herr General,‘ sagt er, ‚Sie wollen wissen, wieso ich jedes Buch kenne? Das kann ich Ihnen nun allerdings sagen: Weil ich keines lese! […] Wer sich auf den Inhalt einläßt, ist als Bibliothekar verloren!‘ hat er mich belehrt. ‚Er wird niemals einen Überblick gewinnen! Ich fragte ihn atemlos: ‚Sie lesen also niemals eines von den Büchern?‘ ‚Nie, mit Ausnahme der Kataloge.‘[…] Ich muß dir gestehn, wie er mich danach allein gelassen hat, hat es nur zweierlei gegeben, was ich gern getan hätte: entweder in Tränen ausbrechen oder mir eine Zigarette anzünden; aber beides war mir an diesem Ort nicht gestattet!9

Wenn man sich nun auch noch vorstellte, dass die Kataloge automatisch aus von Computern lesbaren Inhalten erzeugt würden, sich die Maschinen dann doch auch auf Inhalte einließen und anschließend eine Rasterfahndung nach Personal, Tatorten und Beziehungen statt fände, hätte man eine konkrete Vorstellung von Big Data in einer digitalen Literaturwissenschaft, wie eben bei Moretti. Jan Röhnert zieht nun aber für sich und die Philosophie folgendes Fazit: Die Geisteswissenschaften, so der Tenor auf dem Sommerplenum des Fakultätentages, sind also weder technik- noch informatikfeindlich, wollen sich jedoch von außen keine Vorschriften machen lassen, wie sie mit der Digitalisierung umzugehen haben. Und das ist […] auch gut so. Die Computer liefern eben nach wie vor nur die Fakten und Formeln, während die Reflexion und Kreativität bei den Forschern selbst verbleiben. Bei wem auch sonst?

Man hört regelrecht das Pfeifen im Walde. Bei wem auch sonst, wenn nicht beim Menschen, läge Informationsverarbeitung? Da fällt uns heutzutage auch noch mehr ein.

8 Moretti, Franco: Graphs, Maps, Trees: Abstract Models for a Literary History, Verso 2005. 9 Musil, Robert: Der Mann ohne Eigenschaften, Reinbek bei Hamburg 1981, S. 461 f.

79

80

|     Martin Warnke

Text Text nämlich, der spätestens nach Durchsetzung des Buchdrucks mit beweglichen Lettern schon selbst digital ist, war von Anfang an bestens auf den Computer vorbereitet. Er besteht aus diskreten und endlich vielen verschiedenen Zeichen und könnte schon deshalb sofort von einer Turing-Maschine, dem mathematischen Vorbild jedes baubaren Computers, verarbeitet werden. Unter einer solchen Verarbeitung dürfen wir uns alles das vorstellen, was rein syntaktisch beschreibbar ist, ohne dass menschliches an Bedeutungen orientiertes Interpretationsvermögen im Spiele wäre, also ohne das Imaginäre auskommt. Und es klappt ja ganz wunderbar: Die Textkultur hat die Rede in diskrete Atome zerlegt, die Buchstaben, und darüber hinaus dann auch wieder diese Buchstaben zu Bedeutung tragenden Wörtern aggregiert, die vom Computer auswertbar sind. Diese Erfindung des Wortes, typografisch durch Einführung der Leerstelle umgesetzt, geschah erst spät, in der Scholastik. Ivan Illich schreibt: Wir vergessen manchmal, daß Wörter Kreaturen des Alphabets sind. […] Unsere Art ›Wörter‹ nahmen, wie die anderen syntaktischen Bestandteile des Sprechens, erst Bedeutung an, nachdem sie während der ersten Jahrhunderte der Alphabetbenutzung mit dessen Hilfe ›ausgebrütet‹ worden waren.10

Und sie, die Erfindung des Wortes, geschah als kultureller und sozialer Prozess, nicht etwa algorithmisch, sondern provoziert durch Schrift und letztlich vollendet durch den Buchdruck. Das bereits digitalisierte Material, der Text, wurde zu Sinneinheiten zertrennt, was Wörterbücher ermöglichte. Wörter sind die signifikanten Textmarker, an denen sich Bedeutung ablesen lässt, und genau das hat den Siegeszug nicht nur der Web-Suchmaschinen, sondern auch der eHumanities ermöglicht. Recht eigentlich ist das Wort ein Vorläufer einer intellektuell getaggten Textstruktur. Das Tagging haben viele Generatio­ nen von Schreibenden, Lesenden, Setzenden, Druckenden kollektiv entwickelt, das Tag selbst ist die Leerstelle, ebenso wichtig wie die Null beim Rechnen.11 Der blühende Zweig der textbasierten eHumanities mit seiner eigenen, höchst ausdifferenzierten Text Encoding Initiative, die die syntaktische Auszeichnung von Textmaterial sehr weit vorangetrieben hat, ist fast schon zum Paradigma der digitalen Geisteswissenschaften als Ganzer geworden. Man muss die Texte nicht mehr lesen, man kann sie nicht mehr lesen, man zeichnet sie formal aus, am liebsten algorithmisch, und verarbeitet mit Computern die so hervorgerufenen Strukturen.

10 Illich, Ivan: Im Weinberg des Textes – Als das Schriftbild der Moderne entstand, Frankfurt a.M. 1991, S. 42. 11 Warnke, Martin: Bildersuche, in: Zeitschrift für Medienwissenschaft 1 (2009), S. 28–37.

Das subversive Bild     |

In Form von Ontologien versucht man in diesem Rahmen sogar, Semantik formal zu erfassen, vom Realen unter Umgehung des Imaginären direkt ins Symbolische zu springen. Eine Wissenschafts-strategische Frage der eHumanities scheint mir allerdings zu sein, welchen Platz das Imaginäre, mithin die Interpretation und die Hermeneutik, spielen sollten. In den Text-eHumanities steht der Musilsche Bibliothekar emblematisch für die systematische Auslassung der Kategorie des Imaginären, das Geschäft des Text-Encoding und der Ontologien für seine algorithmische Perfektionierung. Wie und ob das noch zusammenkommen kann mit traditionellen Verfahren, das scheint mir noch nicht ausgemacht. Pfeifen im Walde wird allerdings nicht viel helfen.

Bild Beim Text hört Kulturerbe natürlich nicht auf: Die Materialien sind oft eher bild- als texthaft.12 Einunddreißigtausend Bildern stehen viertausendsiebenhundert Texte in der Europeana gegenüber, wenn man dort im Sommer 2013 nach Material zum Thema „­Europa“ sucht. Bilder sind jedenfalls nicht in der Minderheit. Was geschieht mit den Bildern im Computer? Computer sind großartige Bildmedien. Wo Photographie und Druck mit verrauschtem Korn oder gerasterten Druckpunkten der unendlichen Differenzierung von Bildern beizukommen versuchen, können Computermonitore Volltöne darstellen. Auf den modernen Monitoren, etwa denen vom „Retina“-Typ, ist dier Auflösung so hoch, dass keine Pixel mit bloßem Auge mehr zu unterscheiden sind. Dennoch ist jede Stelle im Bild beliebig genau zu adressieren. Das ist großartig, wenn man auf Stellen zeigen will, es hilft nur leider – oder gottseidank, wie man es sehen will – nichts dabei, Sinneinheiten in Bildern zu unterscheiden, wie man es bei Texten in Form von Wörtern kann. Niemandem ist es bislang gelungen, Bilder semantisch überschneidungsfrei zu taggen, indem man sie in Bildatome zerlegt. Es gibt das universelle Bild-Wort nicht. Denn was ist eine semantische Bildeinheit? Bilder sind renitent und resistent gegenüber syntaktischer Rubrizierung. Nehmen wir etwa die Suche nach Bildern! Selbst die Ähnlichkeitssuche bei Google verwendet offenkundig auch noch Texteinträge in der Nähe von Bildern auf Webseiten, um einige Treffgenauigkeit herzustellen. Die ­Google-Suche nach visuell ähnlichen Bildern verwendet die bekannte Technik des Query by Image Content13, gekreuzt mit Textsuche, die sich auf das seit Jahrhunderten absegmentierte Wort stützt. Selbst bei bekannten Sujets, etwa nackten Menschen, die man auch deshalb automatisch finden will, um Kinderpornographie ebenso automatisch verfolgen zu kön-

12 www.europeana.eu; letzter Zugriff am 28.7.2017. 13 Eakins, John P.: Automatic image content retrieval – are we getting anywhere? in: De Montfort University, Milton Keynes (1996), S. 123–135.

81

82

|     Martin Warnke

nen, klappt Erkennung nicht so recht.14 Einiges wird richtig als Abbildung unbekleideter Menschen rubriziert, anderes sehr Deutliche dann wieder nicht (false negatives), und anhand der false positives, der Bilder, auf denen der Algorithmus fälschlicherweise Nuditäten ausmacht, würde man bei menschlichen Erkennern auf seltsamste Obsessio­ nen und Fetischisierungen schließen müssen, die aus irgendwelchem Gerümpel nackte Menschenleiber machen. Bilder müssen also durch das Bewusstsein gehen, um semantisch zerlegt zu werden, das Imaginäre ist der eigentliche Ort des Bildes. Nelson Goodman schrieb das so auf: The image is syntactically and semantically dense in that no mark may be isolated as a unique, distinctive character (like a letter in an alphabet), nor can it be assigned a unique reference or ›compliant‹. Its meaning depends rather on its relation with all the other marks in a dense, continuous field.15

Oder auch Gottfried Boehm: Bilder verfügen weder über eine diskrete Menge wiederkehrender Elemente oder Zeichen, noch sind die Regeln der Verkoppelung in irgendeiner Weise systematisierbar – um nur zwei Aspekte der Barriere zwischen den Medien zu benennen.16

Also, die semantische Erschließung von Bildern ist, informatisch gesprochen, ein „hard problem“17. Und um es mit Heinz von Foerster18 zu sehen: Unlösbare Probleme müssen wir selber lösen, das kann man keinem formalen System überlassen, dafür muss man dann aber eben auch die Verantwortung übernehmen für das, was dabei herauskommt. Die Lösung genau dieses unlösbaren Problems interessiert mich, und so will ich kurz beschreiben, wie wir die schwierige Arbeit der jeweiligen Neuerfindung des Bildatoms mit unserer Software unterstützen.

HyperImage Am Anfang steht ein Bildvorrat, in unserem aktuellen Fall prometheus, das verteilte digitale Bildarchiv für Forschung und Lehre,19 in gewisser Weise ein studiolo für die Kunstgeschichte. Nach Zusammenstellung eines Bildkorpus in prometheus kann man 14 Fleck, Margaret / Forsyth, David / Bregler, Chris: Finding Naked People, in: Buxton, Bernard / Cipolla, Roberto (Hg.), 4th European Conference on Computer Vision, Vol. II, Berlin 1996, S. 592– 602. 15 Mitchell,William J. T.: Iconology – Image, Text, Ideology, Chicago, London 1986, S. 67. 16 Boehm, Gottfried: Die Wiederkehr der Bilder, in: Boehm, Gottfried (Hg.), Was ist ein Bild? München 1994, S. 22. 17 Ahn, L. von / Blum, M. / Hopper, N. / Langford, J.: C A P TC H A: Using Hard AI Problems for Security, in: Biham, Eli (Hg.), Advances in Cryptology – Eurocrypt 2003, International Conference on the Theorie and Applications of Cryptographic Techniques, Warschau, 4.–8. Mai 2003 (Lecture Notes of Computer Science, 2656), Berlin 2003, S. 294–311. 18 Foerster, Heinz von: Wissen und Gewissen, Frankfurt a.M. 1993. 19 www.prometheus-bildarchiv.de; letzter Zugriff am 28.7.2017.

Das subversive Bild     |

auf diesem Korpus mit Hilfe des Meta-Image-Editors Bilddetails händisch markieren, annotieren und verlinken, zoombar, unabhängg von der Größe und der Auflösung des Bildes. Dies setzt eine Entscheidung der HyperImage-Autorinnen und Autoren voraus, welche die interessierenden Bildatome sein sollen und wie der Zusammenhang zwischen den markierten Bildatomen strukturiert werden soll. Um diese Vorgehensweise in Augenschein zu nehmen, besuchen Sie am besten unsere Web-Seite20 und steuern die Abteilung „Demo“ an. An die Stelle des Wollfadens mit Nadelspitze, wie das angeblich Aby Warburg auf seinen Mnemosyne-Tafeln21 getan hat, tritt der Pointer, der den Zusammenhang zwischen den Bilddetails technisch im Hintergrund herstellt.22 Was Warburg noch mit Nadel und Faden tat, ist nun per Hand mit dem Computer zu tun. Jemand hat händisch-intellektuell Ort und Form der beiden Motive festzulegen und mit einer Drag-und-Drop-Operation miteinander zu verknüpfen. Die bürokratische Verwaltung aller Polygon-Koordinaten und Verweisadressen wird intern vom Computer erledigt. Der Pointer ersetzt den Wollfaden, und es gibt keine Obergrenze der Komplexität eines solcherart aufgespannten Verweisnetzes. Bilder, ihre Details, Text, Web-Adressen und Zusammenfassungen von alledem lassen sich annotieren und mit Metadaten versehen. In HyperImage sind die bildhafte Fußnote am Bilddetail und der bildhafte Querverweis zwischen Bilddetails technisch realisiert worden. Diese Struktur wird dann auf zweierlei Weise verwendet: Sie wird dem menschlichen Auge durch eine Web-Seite dargeboten, und die internen Verweisstrukturen werden vom Computer ausgewertet und in Form von Indexen dargeboten. Die Web-Fassung ist unmittelbar auf einem Web-Server oder auf einem lokalen Datenträger zu veröffentlichen. Der Querverweis zwischen den Bildmotiven wird Web-konform durch Anklicken ausgelöst. Projekte, die diese Verweistechniken an kunsthistorischen Fragestellungen demonstrieren, sind auf der HyperImage-Seite unter „Beispiele“ einzusehen.

Was heißt das? Dass die Bilder unbedingt durch den Kopf müssen, heißt nun nicht, dass es bei einer digitalisierten Kunstgeschichte bleiben muss. Eine digitale Kunstgeschichte kann durchaus entstehen, nämlich dort, wo neue Antworten und eventuell sogar neue Fragen aufscheinen. So halte ich es für ausgeschlossen, dass nicht auch bei der Analyse von Bildkorpora solche Arbeitstechniken eine enorme Wirkung entfalten werden, wie sie die Philologie auf ihrem Felde hat, etwa durch das Anlegen von Indexen und Konkordanzen. Nehmen Sie die „Rückverweise“-Funktion in HyperImage! Sie fügt Bildkorpora das Strukturele20 www.leuphana.de/institute/icam/forschungsprojekte/hyperimage.html. 21 Warburg, Aby: Der Bilderatlas Mnemosyne, in: Warnke, Martin / Brink, Claudia (Hg.), Aby Warburg, Gesammelte Schriften, Abt. 2, Bd. 2 / 1, Berlin 2000. 22 Warnke, Martin: „God Is in the Details“ or The Filling Box Answers, in: Grau, Oliver / Veigl, Thomas (Hg.), Imagery in the 21st Century, Cambridge, Massachusetts 2011, S. 339–374.

83

84

|     Martin Warnke

ment des Indexes hinzu, für die Textwissenschaften markierte das den Übergang vom Mittelalter in die Neuzeit. Stellen Sie sich vor, die Disziplin der Kunstgeschichte würde die Bezüge zwischen Bildern explizit offenlegen! Man könnte im Sinne eines Distant Reading netzwerkanalytisch kunsthistorische kollektive Beobachtungspraxis beobachten. Dieses käme zustande durch kluge Arbeitsteilung zwischen Menschen und Maschinen: Menschen lösten durch scharfes Hinsehen die very hard problems, Computer machten, was sie am besten können: Massendatenverarbeitung in Windeseile. Zusammen ergäbe das etwas Neues. Unzweifelhaft wird der Computer auch in der Kunstgeschichte tiefe Spuren hinterlassen, und zwar nicht nur in der Digitalisierung der Dia-Doppelprojektion. Weil aber das Bild so wundervoll subversiv ist, wird es, und das ist jetzt die steile These, nicht so weit kommen, dass das Imaginäre – und damit der menschliche Intellekt – zur Gänze übersprungen werden wird, wenn der Computer uns hilft, vom Realen zum Symbolischen zu wechseln.

Literatur Ahn, L. von / Blum, M. / Hopper, N. / Langford, J.: CAPTCHA: Using Hard AI Problems for Security, in: Biham, Eli (Hg.), Advances in Cryptology – Eurocrypt 2003, International Conference on the Theorie and Applications of Cryptographic Techniques, Warschau, 4–8. Mai 2003 (Lecture Notes of Computer Science, 2656), Berlin 2003, S. 294–311. Boehm, Gottfried: Die Wiederkehr der Bilder, in: Boehm, Gottfried (Hg.), Was ist ein Bild? München 1994. Eakins, John P.: Automatic image content retrieval – are we getting anywhere? in: De Montfort University, Milton Keynes (1996), S. 123–135. Europeana (www.europeana.eu; letzter Zugriff am 28.7.2017). Fleck, Margaret / Forsyth, David / Bregler, Chris: Finding Naked People, in: Buxton, Bernard / Cipolla, Roberto (Hg.), 4th European Conference on Computer Vision, Vol. II, Berlin 1996, S. 592–602. Foerster, Heinz von: Wissen und Gewissen, Frankfurt a.M. 1993. Illich, Ivan: Im Weinberg des Textes – Als das Schriftbild der Moderne entstand, Frankfurt a.M. 1991. Kittler, Friedrich: Grammophon Film Typewriter, Berlin 1986. Kittler, Friedrich: Fiktion und Simulation, in: Barck, Karlheinz (Hg,), Aisthesis. Wahrnehmung heute oder Perspektiven einer anderen Ästhetik, 3. Aufl. Leipzig 1991, S. 196–213. Mitchell, William J. T.: Iconology – Image, Text, Ideology, Chicago, London 1986. Moretti, Franco: Graphs, Maps, Trees: Abstract Models for a Literary History, Verso 2005. Musil, Robert: Der Mann ohne Eigenschaften, Reinbek bei Hamburg 1981, zuerst Hamburg 1952. Perseus (www.perseus.tufts.edu; letzter Zugriff am 28.7.2017). Pias, Claus: Bilder – Bücher. Digitalisierte und digitale Kunstgeschichte, in: AKMB news, 4 / 1998, S. 3–7, (http://www.uni-due.de/~bj0063/texte/akmb.html; letzter Zugriff am 28.7.2017). Prometheus Bildarchiv (www.prometheus-bildarchiv.de; letzter Zugriff am 28.7.2017). Röhnert, Jan: Feindliche Übernahme, in: FAZ 19.7.2013, S. 9. Thom, René: Die Katastrophen-Theorie: Gegenwärtiger Stand und Aussichten, in: Otte, Michael (Hg.), Mathematiker über die Mathematik, Berlin 1974, S. 124–137. Warburg, Aby: Der Bilderatlas Mnemosyne, in: Warnke, Martin / Brink, Claudia (Hg.), Aby Warburg, Gesammelte Schriften, Abt. 2, Bd. 2 / 1 Berlin 2000. Warnke, Martin: Bildersuche, in: Zeitschrift für Medienwissenschaft 1 (2009), S. 28–37. Warnke, Martin: „God Is in the Details”, or The Filing Box Answers, in: Grau, Oliver / Veigl, Thomas (Hg.), Imagery in the 21st Century, Cambridge, Massachusetts 2011, S. 339–374. Zeitenblicke (www.zeitenblicke.de/2003/01/; letzter Zugriff am 28.7.2017).

Doris Annette Hartmann und Andreas Oberhoff

„studiolo communis“ Digitale Unterstützung des Forschungsdiskurses in der Kunst- und Architekturgeschichte

Digitalisierung von materiellem und immateriellem Kulturerbe stellt nicht nur die klassischen Bewahrer von Kulturgütern (Bibliotheken, Museen, Archive) vor neue Herausforderungen, sondern insbesondere auch Forscherinnen und Forscher, welche diese Materialien als Ausgangspunkt für ihre Forschungsarbeit nutzen und miteinander in Beziehung setzen. Sie verwenden dabei heute vielfältige digitale Kataloge und Datenbanken, können die dort vorhandenen Objekte aber nicht einfach aus ihren Strukturen herauslösen und für ihre eigenen Zwecke arrangieren. Archive werden als Ordnungssysteme aufgebaut, d. h. die Ablage erfolgt nach festgelegten Taxonomien (beispielsweise: preußischer Bibliothekskatalog). In der eigentlichen Forschung steht aber meist nicht die Einordnung entsprechend einer Taxonomie im Vordergrund, sondern die flexible Strukturierung gemäß dem mit den jeweiligen Objekten und Artefakten verbundenen Wissen. Dieser zeitlich und räumlich disparate Prozess ist bislang mit vielfältigen Medienbrüchen verbunden und wird nur unzureichend technisch unterstützt. Aus diesem Grund lautet unsere Prämisse, den Handlungsraum mit dem Wahrnehmungsraum1 zu verknüpfen und so zu gestalten, dass die im Forschungsprozess erforderlichen Operationen direkt an den Medienobjekten durchgeführt werden können. Die Objekte sollen zusätzlich aggregiert beziehungsweise in Teilobjekte zerlegt und die entstandenen Arrangements durch individuelle Informationen oder Referenzen auf andere Quellen angereichert werden können. Das Konzept der ko-aktiven Wissensräume2 ermöglicht die räumlich und zeitlich unabhängige Nutzung und Strukturierung von digitalen Materialien und verbindet sie mit vielfältigen Möglichkeiten der Kommunikation, Koordination und Kooperation. Dieser Ansatz schließt gewissermaßen an das „Studiolo“ der Renaissance an, einem Ort der Sammlung, Bearbeitung und kooperativen Kontemplation. 1 Keil, Reinhard: Das Differenztheater. Koaktive Wissensarbeit als Selbstorganisation, in: Bublitz, Hannelore et al. (Hg.), Automatismen, München 2010, S. 205–230. 2 Hampel, Thorsten: Virtuelle Wissensräume. Ein Ansatz für die kooperative Wissensorganisation, Diss. rer. nat. Paderborn 2001.

86

|     Doris Annette Hartmann und Andreas Oberhoff

Das Projekt „studiolo communis“ und seine Vorgeschichte In dem an der Universität Paderborn durchgeführten DFG-Projekt „studiolo communis“ wurde dieser Grundstein einer flexiblen Strukturierung von Wissen in einem virtuellen Studiolo zusammengeführt, um den Forschungsdiskurs am digitalen Kulturerbe zu unterstützen. Der Lehrstuhl für „Materielles und Immaterielles Kulturerbe“, die „Kontextuelle Informatik“ und das „Zentrum für Informations- und Medientechnologien“ entwickelten in diesem Projekt eine virtuelle Arbeitsumgebung, die auf Basis der erwähnten Konzepte und mit Hilfe neuester Webtechnologien den erweiterten Forschungsdiskurs in der Kunst- und Architekturgeschichte unterstützt. Ziel war, eine webbasierte Plattform als festen Ort für die kooperative Forschung von Wissenschaftlern an digitalem Kulturerbe zu etablieren, die das Grundprinzip der vergleichenden Kunst­ betrachtung in Abhängigkeit des Kontextes ihrer Entstehung – wie es seit Aby Warburg bekannt ist – unterstützt und in die neuen Medientechnologien überträgt. Auch wenn der Beginn der Digitalen Geisteswissenschaften bereits mit dem Oxford Concordance Program beziehungsweise dem „Oxford Text Archive“ in den 1970er Jahren oder der Erstellung einer Computerdatenbank für das CENSUS-Projekt ab 1981 festgesetzt werden kann, fand die erste Welle einer dezidierten Auseinandersetzung mit den Möglichkeiten einer computergestützten geisteswissenschaftlichen Forschung erst Ende der 1990er Jahre mit dem Beginn der digitalen Erfassung von Bibliotheks- und Archivbeständen in Datenbanken statt. Im gleichen Zug begann auch in der Kunst- und Architekturgeschichte die umfangreiche Retrodigitalisierung von Quellenbeständen im Rahmen zahlreicher Digitalisierungsprojekte für die Wissenschaft und Lehre. Ebenso befassen sich seit dieser Zeit verschiedene Programme und Forschungsprojekte mit den Möglichkeiten der digitalen Erfassung und Bewahrung des materiellen und immateriellen kulturellen Erbes. So wurde im Jahr 1992 vom damaligen Generaldirektor der United Nations Educational, Scientific and Cultural Organization (­U NESCO), Federico Mayor Zaragoza, das „Memory of the World“-Programm initiiert. Es soll dem Schutz des dokumentarischen Erbes der Menschheit dienen, wobei nicht nur die analoge und digitale Sicherung aller Arten von Dokumenten, einschließlich gedruckter Texte, Zeitungen, Manuskripte, Tondokumente, Foto- und Filmdokumente etc., vorangetrieben wird, sondern insbesondere die Demokratisierung ihrer Zugänglichkeit. 3 Zu den ersten geförderten Projekten gehörte die Digitalisierung einiger historischer Manuskripte der Tschechischen Nationalbibliothek in Prag. Weitere beispielhafte Projekte sind die vollständige digitale Erfassung der Gutenberg-Bibel der Niedersächsischen Staats- und Universitätsbibliothek Göttingen und deren Aufarbeitung für das Internet 3 U N ESCO: Programme „Memoire du Monde“. Première réunion du Comité consultatif international du Programme „Mémoire du monde”. Consultation régionale sur la conservation, la sauve­garde et la promotion du patrimoine documentaire des pays d’Europe centrale et orientale, Pultusk, Pologne, 12–14 septembre 1993, Rapport final, S. 5 [http://unesdoc.unesco.org/images/0009/000963/096365fb.pdf].

„studiolo communis“     |

sowie die virtuelle Zusammenführung der Renaissance-Bibliothek des Königs Matthias Corvinus in der „Bibliotheca Corviniana digitalis“, die durch die Nationalbiblio­thek in Budapest vorbereitet wird. Neben diesen klassischen Dokumenten gehören aber z. B. auch das Archiv des Büros zum Wiederaufbau Warschaus nach dem Zweiten Weltkrieg, das Architekturarchiv von Oscar Niemeyer oder der Teppich von Bayeux zu den „dokumentarischen Zeugnisse[n] von außergewöhnlichem Wert“4, welche wiederum durch ihre zunehmend leichtere Verfügbarkeit verstärkt in den Forschungsprozess aufgenommen werden können. Im Bereich der Kunstgeschichte, welche sich stets als Bewahrerin des kulturellen Erbes verstand, gilt die Digitalisierung von Objekten und / oder Texten und deren Präsentation und Verfügbarkeit in diversen Repositorien oder auf projektspezifischen Webportalen bereits fast als Standard. Gleichzeitig wirft gerade die Quantität der digitalisierten Daten neue Fragen und Probleme zum Nutzen und zur Nutzung auf, da es nicht reichen kann, kulturelle Zeugnisse zu digitalisieren und verfügbar zu machen, sondern eine Erläuterung, Einordnung und Kontextualisierung zwingend notwendig ist.

Von der reinen Digitalisierung zur digital unterstützenden Arbeitsumgebung Mit der digitalen Verfügbarkeit des Quellenmaterials geht zunehmend ein deutlicher kollaborativer und generativer Forschungsansatz5 einher. Dabei liegt ein Schwerpunkt derzeit in der Anreicherung der Daten mit weiterführenden Informationen. Basierend auf strukturierten Metadaten werden so nicht nur Daten miteinander vernetzt, sondern im Sinne des Semantic Web um Bedeutungsinformationen ergänzt. Ein weiterer Schwerpunkt findet sich in der Entwicklung virtueller Forschungsumgebungen, die es ermöglichen, „genuin digital zu arbeiten“6 und die Zusammenarbeit von Forschern zu erleichtern, sowie neue Möglichkeiten der Quellensammlung und -strukturierung, der Annotation und Verknüpfung bieten. Das Prinzip Aby Warburgs „mittels einfacher, flexibler Schautafeln die formalen Hintergründe und inhaltlichen Bezüge visueller Forschungsobjekte sichtbar zu machen und zu organisieren, steht stellvertretend für das Bemühen, mediale Grenzen zu überwinden, welche durch die konventionelle Arbeit mit Zettelkasten, Fotosammlung und

4 Deutsche U N ESCO Kommission: Gedächtnis der Menschheit: „Memory of the World“ (www.unesco.de/mow.html; letzter Zugriff am 20.7.2013). 5 Burdick, Anne / Drucker, Johanna / Lunenfeld, Peter / Presner, Todd / Schnapp, Jeffrey: Digital_ Humanities, London 2012, S. 3. 6 Schweizer, Tobias / Rosenthaler, Lukas: SA L SA H – eine virtuelle Forschungsumgebung für die Geisteswissenschaften, in: Elektronische Medien & Kunst, Kultur und Historie. E VA 2011 Berlin, Konferenzband: die 18. Berliner Veranstaltung der Internationalen E VA-Serie Electronic Imaging & the Visual Arts; 9.–11. November 2011 in den Staatlichen Museen zu Berlin am Kulturforum Potsdamer Platz, Bienert, Andreas / Bracht, Christian (Hg.), Berlin 2011, S. 147–153, hier S. 147.

87

88

|     Doris Annette Hartmann und Andreas Oberhoff

1  Das Projekt „studiolo communis“. Integration der Forschungsumgebung in die bestehende Infrastruktur

Biblio­thek gegeben waren“.7 Auf das digitale Zeitalter übertragen bedeutet dies die Überwindung der Bildsammlungen in Arbeitsmappen, der Funde aus Online-Bibliotheken und unzähligen Dokumenten auf dem eigenen Rechner oder in einer sogenannten Cloud. Über diese Anforderungen der kunsthistorischen Arbeit am Bild hinaus geht es darum, die flexible Strukturierung des mit den jeweiligen Forschungsobjekten verbundenen Wissens zu unterstützen und damit die Bewahrung und insbesondere die wissenschaftliche Erschließung von kulturellem Erbe mit digitalen Techniken zu befördern und in der Arbeitsumgebung „studiolo communis“ zu vereinen. Ein weiteres Ziel des Projekts war demnach eine möglichst nahtlose Integration der Plattform in bestehende Hochschulinfrastrukturen (Abb. 1).

7 Bruhn, Mathias: Der Bilderatlas vor und nach dem Zeitalter der Digitalisierung, in: Flach, Sabine / Münz-Koenen, Inge / Streisand, Marianne (Hg.), Der Bilderatlas im Wechsel der Künste und Medien, München, 2005, S. 181–197, hier S. 181.

„studiolo communis“     |

Als Ausgangslage für ein solches Vorhaben findet man heute an Hochschulen meist eine funktionsorientierte Sichtweise vor, welche durch die Bereitstellung unterschiedlicher Dienste oder webbasierter Verwaltungsprozesse versucht, Rationalisierungspotenziale zu erschließen. Solche Dienste mögen hilfreich sein, beschränken den Betrachtungshorizont aber nur auf eine reine Produzentensicht. So können Forschende beispielsweise Materialien von Servern anderer Wissenschaftler herunterladen, sind aber bezüglich einer weiteren Verarbeitung und Verwaltung lokal auf sich gestellt. Es fehlt eine gemeinsame virtuelle Arbeitsumgebung, in der die verteilten, digitalen Materialien verschiedener Personen und Forschungsgebiete organisiert, bearbeitet, annotiert und mit anderen diskutiert und ausgetauscht werden können. Die technische Entwicklung muss sich aber weitaus näher an den Prozessen der Wissensarbeit selbst orientieren, da die wissenschaftliche Arbeit der Forschenden sonst nicht in optimaler Weise unterstützt wird.8 Medienbrüche vielfältigster Art und damit einhergehender unnötiger Mehraufwand führen dazu, dass spezialisierte Forschungsumgebungen häufig alleinstehende Insellösungen darstellen und nicht in bestehende Infrastrukturen integriert werden.9 Medienbrüche können überall dort auftreten, wo verschiedene Technologien und unterschiedliche Systeme aufeinander treffen und so innerhalb des Arbeitsprozesses ein Medienwechsel erzwungen wird. Damit digitale Medienbrüche methodisch abgebaut werden können, müssen sich eben diese Methoden und Konzepte einer virtuellen und verteilt vernetzten Wissensorganisation öffnen. Insgesamt ist festzuhalten, dass heutige Forschungsumgebungen sowohl für die fachspezifische als auch die fachübergreifende Unterstützung von Forschungsprozessen auf allen Prozessebenen grundlegende Defizite aufweisen. Ursachen dafür finden sich sowohl in der individuellen als auch in der institutionellen Ausgestaltung der Wissensorganisation sowie in einem Mangel an Schnittstellen dazwischen. Bis dato gibt es noch keine universelle Plattform, die es möglich macht, Bilder und Videos, deren Metadaten und Literatur und darauf aufsetzende Diskussionen und resultierende Ergebnisse in einem virtuellen Arbeitsraum individuell, aber auch gemeinsam für private oder öffentliche Arbeitsgruppen zu arrangieren, zu verknüpfen, zu diskutieren und schluss­ endlich auch zu publizieren. Darüber hinaus sollte die durchgängige Nachvollziehbarkeit des kompletten Forschungsdiskurses und seiner Ergebnisse möglich und archivierbar sein, im Gegensatz zur reinen Publikation von Resultaten ohne die Möglichkeit von Referenzen auf Ausgangsmaterialien in Form von Bildern oder audiovisuellen Daten.10

  8 Keil, Reinhard / Oberhoff, Andreas / Schulte, Jonas: Unterstützung des ko-aktiven Forschungsdiskurses durch Synergien zwischen E-Learning und E-Science, in: Köhler, Thomas / Neumann, Jörg (Hg.), Wissenschaftsgemeinschaften, Digitale Medien – Öffnung und Offenheit in Forschung und Lehre, Münster 2011, S. 81–91.   9 Keil-Slawik, Reinhard / Selke, Harald: Mythen und Alltagspraxis von Technik und Lernen, in: Informatik-Forum 12, 1 (1998), S. 9–17. 10 Keil / Oberhoff / Schulte, Unterstützung des ko-aktiven Forschungsdiskurses.

89

90

|     Doris Annette Hartmann und Andreas Oberhoff

Innovative Ansätze zur Konzeption einer Forschungsumgebung Ein Anspruch bei der Konzeption der Forschungsumgebung „studiolo communis“ war neben einer möglichst medienbruchfreien und nahtlosen Integration in die bestehende Hochschulinfrastruktur (siehe oben) auch die Nutzung von Synergieeffekten durch den Einsatz bereits bewährter Konzepte zur Wissensarbeit. Da Forschungsprozesse immer auch als Lernprozesse charakterisiert werden können,11 liegt es nahe, für den Aufbau von Wissenschaftlerarbeitsplätzen auch bewährte Konzepte des E-Learning zu übernehmen, um durch die Übertragung mehr Innovation in den Gestaltungsprozess von Forschungsumgebungen zu bringen und Synergien zu erschließen. Durch diese hypothesengeleitete Technikgestaltung12 lassen sich Aspekte berücksichtigen, die durch eine klassische Anforderungsanalyse allein nicht ableitbar gewesen wären, sich aber im E-Learning bereits etabliert haben. Trotzdem wurden zu Projektbeginn natürlich auch Anforderungen für eine konkrete Plattform für den Forschungsdiskurs in der Kunstund Architekturgeschichte ermittelt. Erst in einem zweiten Schritt wurde überprüft, ob bereits bewährte Konzepte synergetisch adaptiert werden konnten. Durch eine Analyse der vorherrschenden Arbeitsprozesse in der Forschungsarbeit und eine Befragung der Wissenschaftler wurden Anforderungen an eine virtuelle Forschungsumgebung erhoben und Problemstellungen identifiziert. Als ein grundsätzliches Problem im alltäglichen Forschungsprozess wurde die Notwendigkeit eines gemeinsamen Handlungsraums erkannt, welcher als Arbeitsbereich für die ko-aktive Zusammenarbeit der Forschenden dienen soll. Medienobjekte verschiedenster Typen (Bilder, Audio, Video, Dokumente etc.) sollen dort arrangiert, annotiert, verknüpft und diskutiert werden können. Diese Daten können aber aus unterschiedlichen Repositorien und Datenbanken stammen und sollen unabhängig von ihren Speicherorten für den Benutzer transparent verwendbar sein, auch um digitale Duplikate zu vermeiden. Der gemeinsame Handlungsraum sollte dabei möglichst kongruent mit dem Wahrnehmungsraum sein, in dem die oben genannten Bearbeitungsfunktionen ko-aktiv stattfinden. D. h., dass Operationen direkt an den Medienobjekten selbst durchgeführt werden können, um Medienbrüche zu verhindern. Zusätzlich sollen unterschiedlichste Objekte aggregiert beziehungsweise Teilobjekte erzeugt werden können. Beispielsweise sollen Diskussionen dem Bild zugeordnet werden können, über das sie handeln, oder Teilausschnitte von Bildern werden zu neuen eigenständigen Objekten. Teil eines ko-aktiven Diskurses sind aber immer auch unterschiedliche Kontexte, in denen gearbeitet wird. Aus diesem Grund ist es neben einem gemeinsamen Handlungs- und Wahrnehmungsraum ebenfalls notwendig, dass unterschiedliche Sichten auf 11 Willke, Helmut: Systematisches Wissensmanagement, 2. Aufl. Stuttgart 2001. 12 Keil, Reinhard: Hypothesengeleitete Technikgestaltung als Grundlage einer kontextuellen Informatik, in: Breiter, Andreas / Wind, Martin (Hg.), Informationstechnik und ihre Organisations­ lücken. Soziale, politische und rechtliche Dimensionen aus der Sicht von Wissenschaft und Praxis, Berlin 2011, S. 165–184.

„studiolo communis“     |

2  Die Arbeitsumgebung „studiolo communis“ mit beispielhafter Bilddiskussion und Anbindung von Diensten und Repositorien

die Medieninhalte möglich sind. Diese Sichten müssen sowohl hinsichtlich der Darstellung von Objekten als auch der Funktionalität, mit denen sich diese bearbeiten lassen, anpassbar sein. Ein Arbeitsbereich, in dem fremde und eigene Objekte betrachtet und modifiziert werden, braucht die Möglichkeit, differenzierte Berechtigungen objektbezogen zu vergeben, denn nur so kann ein kooperativer Umgang mit medialen Objekten auf allen Ebenen des Forschungsprozesses sichergestellt werden. Ein konkretes Beispiel für einen bisherigen Forschungsprozess ist der per E-Mail geführte Diskurs zu einem Bild (Abb. 2). Hier fehlen sowohl der gemeinsame Handlungsraum als auch der gemeinsame Wahrnehmungsraum. Funktionen wie das Weiterleiten oder das Beantworten von E-Mails erzeugen Duplikate oder, schlimmer, unterschiedliche Varianten des Bildes und der Diskussion darüber. Es entstehen zwangsläufig verzweigte Diskussionsstränge, die gar nicht oder nur schwer wieder zusammengebracht werden können.13 Ähnliches ist auch in (wissenschaftlichen) Blogs und Diskussions­ foren zu beobachten.

Ausgestaltung des „studiolo communis“ anhand adaptierter, bewährter Konzepte Bei der Entwicklung von Systemen zur Unterstützung von Wissensarbeit durch digitale Techniken werden Konzepte benötigt, welche sowohl die Umsetzung als auch die Prozesse selbst erleichtern können. An dieser Stelle sollen zwei bewährte E-Learning-Kon-

13 Wan, Stephen / McKeown, Kathy: Generating overview summaries of ongoing email thread discussions, in: Proceedings of the 20th international conference on Computational Linguistics (­C OL I NG ’04), Association for Computational Linguistics, Article 549, Stroudsburg, PA, USA 2004.

91

92

|     Doris Annette Hartmann und Andreas Oberhoff

zepte vorgestellt werden, deren Adaption für den Forschungsdiskurs im Folgenden erläutert wird. Als grundlegende Basis und gleichermaßen als strukturgebender Rahmen für E-Lear­ning-Plattformen wird oft auf das Konzept der virtuellen Wissensräume zur kooperativen Wissensorganisation zurückgegriffen.14 Dieses ursprünglich zur Förderung des individuellen Lernens, unabhängig von zeitlichen, räumlichen und sozialen Rahmenbedingungen, entwickelte Konzept dient diesen Systemen nicht nur zur räumlichen Ausgestaltung und Unterteilung von Arbeitsbereichen, sondern vor allem auch zur ko-aktiven Nutzung medialer Objekte.15 Virtuelle Wissensräume bieten vielfältige Unterstützungsfunktionen für die Wissensarbeit. Objekte können erstellt, bearbeitet und arrangiert werden, zusätzlich sind Kommunikationsfunktionen und eine Ereignissteuerung eng mit den Medienelementen und ihrer Manipulation verwoben sowie mit Berechtigungen und damit verbundenen Funktionen ausgestattet. Neben den virtuellen Wissensräumen gibt es auch noch ein zweites bewährtes Konzept für die Wissensarbeit namens „Mediarena“, welches seinen Ursprung ebenfalls im Bereich des E-Learning hat. Es beschreibt verschiedene Aspekte im Umgang mit media­ len Objekten und ist eng verzahnt mit der Architektur virtueller Wissensräume.16 Das Konzept der Mediarena soll verdeutlichen, welches die grundlegenden technischen Qualitäten sind, die es gestatten, technisch bedingte Hindernisse zu beseitigen, die der Differenzerfahrung (also dem Lernen) im Wege stehen. Zugleich verdeutlichen die von Keil genannten Handlungsbereiche Auswertung, Objektorientierung, Berechtigung und Koordination, welche Möglichkeiten Nutzern zur Ausgestaltung spezifischer Nutzungsszenarien seitens der Systementwickler eröffnet werden können. Mit Mediarena sollen hier neue Dimensionen in der Verknüpfung und Ausgestaltung ko-aktiver Wissensarbeit eröffnet werden, um sich der Fragestellung zu widmen, wie durch Technikgestaltung Hindernisse aus dem Weg geräumt werden können, welche die Entfaltung der kooperativen Wissensarbeit behindern. Hinter dem Handlungsbereich der Koordination aus dem Konzept der Mediarena verbirgt sich unter anderem die Unterstützung verteilter Persistenz. Unterschiedliche Speicherorte können aufgrund von Vernetzung und der Schnelligkeit des Datentransports als ein einziger Speicher in Bezug auf den Umgang mit persistenten Inhalten betrachtet werden. Der Zugriff auf entfernte Medienobjekte in verteilten Archiven oder Datenbanken und deren Manipulation erfolgt transparent für den Benutzer. Dies eröffnet die Möglichkeit, Daten aus unterschiedlichen Repositorien in den Handlungsraum des Forschenden zu heben. Im studiolo communis werden auf diese Art beispielsweise ein digitales Bildarchiv, eine Dokumentenbibliothek und eine Literaturdatenbank nahtlos in die Forschungsumgebung integriert und somit die Anzahl 14 Hampel, Virtuelle Wissensräume. 15 Keil-Slawik / Selke, Technik und Lernen. 16 Keil, Differenztheater.

„studiolo communis“     |

der Medienbrüche verringert. Für die Ausgestaltung des Arbeitsbereichs kommt das Konzept der virtuellen Wissensräume zum Einsatz. Zusammen mit den interaktiven Aspekten (Objektorientierung und Auswertung) der Mediarena ermöglicht dies die Einbeziehung unterschiedlicher Medientypen und deren Arrangement, Annotation, Verknüpfung und Diskussion. Beispielsweise können Bilder aus dem zentralen Bildarchiv in einen Wissensraum geladen und dort arrangiert werden. Diskussionen können direkt an diesen Bildern initiiert werden, was unmittelbar zur nächsten Anforderung führt. Durch die von Keil erwähnte Objektorientierung soll ein Objekt der Wahrnehmung zugleich zum Objekt der Manipulation gemacht werden, was nur in einer digitalen Umgebung möglich ist. Sie strukturiert zusammen mit der Qualität der Auswertung (Responsivität) das Handlungsfeld und unterstützt nicht nur das beschriebene Arrangieren von Medienobjekten, sondern vor allem auch das Aggregieren von Entitäten beziehungsweise das Zerlegen in Teilobjekte. In der Forschungsumgebung manifestiert sich dieser Aspekt beispielsweise durch die Möglichkeit, Bilder beliebig anzuordnen, Medien­objekte zu gruppieren, durch Texte oder Freihandzeichnungen anzureichern und Bildausschnitte zu markieren, um sie als neues Objekt zu definieren und wiederum einen Diskurs daran zu initiieren. Neben der Verschmelzung von Handlungs- und Wahrnehmungsraum verlangt der ko-aktive Diskurs auf Grund von unterschiedlichen Kontexten immer auch unterschiedliche Sichten auf die Arbeitsbereiche und deren Medieninhalte. Im studiolo communis können verschiedene Benutzer beispielsweise die gleichen im Bildarchiv zentral abgelegten Bilder in einem persönlichen Arbeitsbereich individuell arrangieren, mit eigenen Informationen anreichern und zur Diskussion stellen. Zusätzlich können sich diese Sichten beispielsweise auf Grund von Berechtigungen auch im Umfang ko-aktiver Bearbeitungsfunktionen unterscheiden. Der Einsatz unterschiedlicher Sichten stammt aus dem Konzept der virtuellen Wissensräume, ebenso wie das dafür erforderliche Rechtemanagement. Um überhaupt zwischen persönlicher oder gemeinsamer Wissensarbeit unterscheiden und unterschiedliche Sichten mit unterschiedlichen Funktionalitäten realisieren zu können, wird ein fein granulares Rollen- und Rechtemanagement eingesetzt, welches beispielsweise die flexible Raumstrukturierung, eine fein granulare Abstimmung der Zugriffskontrolle auf Arbeitsbereiche, deren Inhalte und die Definition ihrer Darstellung ermöglicht. Ein durch die Mediarena-Qualität der verteilten Persistenz (Koordinierung) ermöglichter gemeinsamer Wahrnehmungs- und Handlungsraum muss durch Vergabe von Berechtigungen dem jeweiligen Forschungsprozess und seinen Vorgaben angepasst werden können. In der Forschungsumgebung wird dazu auf eine vorhandene Umsetzung der virtuellen Wissensräume gesetzt, in der ein solches flexibles Rollen- und Rechtemanagement bereits ausgereift verfügbar ist. Das konkrete Beispiel des Bilddiskurses per E-Mail kann nun durch die beschriebenen Adaptionen der E-Learning-Konzepte verbessert werden. So findet der Diskurs zu

93

94

|     Doris Annette Hartmann und Andreas Oberhoff

einem Bild nun in einem gemeinsamen Arbeitsbereich (Handlungsraum) und direkt am Objekt (Wahrnehmungsraum) selbst statt. Digitale Duplikate werden vermieden und der Diskursverlauf ist für die Teilnehmer durchgehend verfolgbar.

Zusammenfassung und Ausblick In der Diskussion um den Einbezug der Neuen Medien, deren Möglichkeiten und Nutzen für die kunsthistorische Forschung wurde in den vergangenen zwei Jahrzehnten immer wieder dem Wunsch Ausdruck verliehen, eine digitale Forschungsumgebung zur Verfügung zu haben, die sowohl der Wissensvernetzung als auch der Generierung von Wissen dient.17 Dabei sollten nach Möglichkeit die analogen Arbeitsweisen „einfach“ übertragen und im digitalen Medium widergespiegelt werden. Dies wird ebenfalls durch die projektbezogenen Entwicklungen der letzten Jahre im Bereich der Kunstgeschichte verdeutlicht. Auch das Projekt „studiolo communis“ stellte sich diesen Anforderungen sowohl aus Sicht der Informatik als auch aus fachwissenschaftlicher Perspektive. Bei der Planung und Entwicklung der Forschungsumgebung „studiolo communis“ hat sich herausgestellt, dass zwischen den Bereichen E-Learning und E-Science ein erhebliches Synergiepotenzial vorhanden ist. Voraussetzung für dessen Nutzung ist aber immer eine durchgängige IT-Infrastruktur, um Medienbrüche zu verhindern oder gezielt zu reduzieren. Nur die nahtlose Integration in die hochschulweite Dienste-Infrastruktur garantiert einen Forschungsdiskurs, der nicht von Systemgrenzen unterbrochen wird und eine hohe Akzeptanz erreicht. Für die konkrete Ausgestaltung des „studiolo communis“ wurden dazu etablierte Gestaltungskonzepte des E-Learning auf das E-Science übertragen. Die hierbei verwendeten Konzepte wurden so ausgewählt, dass deren Adaption für die Forschungsumgebung auch vielfältige Synergieeffekte erzeugen kann. Die vorgestellte Vorgehensweise ist insoweit wegweisend, als dass sie Gestaltungsdimensio­ nen betrachtet, die weder durch das klassische „Requirements Engineering“ noch durch sozio-technische Analysen berücksichtigt werden. Beim „Requirements Engineering“ werden zwar Nutzeranforderungen erfasst, diese lassen sich jedoch nicht immer technisch umsetzen oder sind unvollständig. Die Adaption von bewährten Gestaltungsprinzipien anderer Disziplinen kann wichtige Impulse für die Implementation von spezifischen Forschungsumgebungen geben. Die Forschungsumgebung „studiolo communis“ verdeutlicht die Unterstützung der Forscherinnen und Forscher in besonderer Weise bei der Strukturierung von Wissen. Objekte aus Repositorien mit starren Ordnungssystemen können medienbruchfrei in 17 Kohle, Hubertus / Kwastek, Katja (Hg.): Digitale und digitalisierte Kunstgeschichte. Perspektiven einer Geisteswissenschaft im Zeitalter der Virtualität. Zeitenblicke. Online-Journal Geschichtswissenschaften 2 / 1 (2003). – Simon, Holger: Kunstgeschichte im digitalen Informationszeitalter – eine kritische Standortbestimmung, Plenumsvortrag am 14. März 2007 auf dem 29. Deutschen Kunsthistorikertag in Regensburg, 2007.

„studiolo communis“     |

die Wissensräume integriert werden, wo ein flexibles Strukturieren möglich ist. Die Objekte lassen sich so im Forschungsprozess arrangieren, manipulieren und mit zusätzlichen Informationen, Referenzen und Wissen anreichern. Diese Strukturen sind die Basis für den kommunikativen Austausch und den kooperativen Forschungsdiskurs. Dennoch bestehen noch viele offene Fragen und ergeben sich Forschungsperspektiven. So handelt es sich bei „studiolo communis“ zu einem gewissen Teil um einen individuellen Zuschnitt für die Arbeit eines Kunst- und Architekturhistorikers. An dieser Stelle könnten sich Überlegungen zum Umgang mit nicht textuellen Objekten im Allgemeinen anschließen. Bei der Integration von vorhandenen Diensten in eine digitale Arbeitsumgebung und die Zusammenführung bestehender Infrastrukturen rund um eine solche Plattform wie „studiolo communis“ ist ebenfalls noch Forschungsbedarf vorhanden, was beispielsweise zuverlässige Schnittstellen und die längerfristige (standardisierte) Persistierung von erzeugten Daten angeht sowie die Frage der Codierung von Arbeitsprozessen unabhängig von den jeweils eingesetzten Softwarewerkzeugen.

Literatur Bruhn, Mathias: Der Bilderatlas vor und nach dem Zeitalter der Digitalisierung, in: Flach, Sabine / Münz-Koenen, Inge / Streisand, Marianne (Hg.), Der Bilderatlas im Wechsel der Künste und Medien, München, 2005, S. 181–197. Burdick, Anne / Drucker, Johanna / Lunenfeld, Peter / Presner, Todd / Schnapp, Jeffrey: Digital_Humanities, London 2012. Deutsche UNESCO Kommission: Gedächtnis der Menschheit, „Memory of the World“ (www.unesco.de/ mow.html; letzter Zugriff am 20.7.2013). Haber, Peter: Geschichte schreiben im digitalen Zeitalter, in: Schomburg, Silke / Leggewie, Claus / Lobin, Henning / Puschmann, Cornelius (Hg.), Digitale Wissenschaft. Stand und Entwicklung digital vernetzter Forschung in Deutschland. Beiträge der Tagung Köln 20. / 21. September 2010, Köln 2011, S. 21–26. Hampel, Thorsten: Virtuelle Wissensräume. Ein Ansatz für die kooperative Wissensorganisation, Diss. rer. nat. Paderborn 2001. Keil, Reinhard / Oberhoff, Andreas / Schulte, Jonas: Unterstützung des ko-aktiven Forschungsdiskurses durch Synergien zwischen E-Learning und E-Science, in: Köhler, Thomas / Neumann, Jörg (Hg.), Wissenschaftsgemeinschaften, Digitale Medien – Öffnung und Offenheit in Forschung und Lehre, Münster 2011, S. 81–91. Keil, Reinhard: Das Differenztheater. Koaktive Wissensarbeit als Selbstorganisation, in: Bublitz, Hannelore et al. (Hg.), Automatismen, München 2010, S. 205–230. Keil, Reinhard: Hypothesengeleitete Technikgestaltung als Grundlage einer kontextuellen Informatik, in: Breiter, Andreas / Wind, Martin (Hg.), Informationstechnik und ihre Organisationslücken. Soziale, politische und rechtliche Dimensionen aus der Sicht von Wissenschaft und Praxis, Berlin 2011, S. 165–184. Keil-Slawik, Reinhard / Selke, Harald: Mythen und Alltagspraxis von Technik und Lernen, in: Informatik-Forum 12, 1 (1998), S. 9–17. Kohle, Hubertus / Kwastek, Katja (Hg.): Digitale und digitalisierte Kunstgeschichte. Perspektiven einer Geisteswissenschaft im Zeitalter der Virtualität. Zeitenblicke. Online-Journal Geschichtswissenschaften 2 / 1 (2003). Schweizer, Tobias / Rosenthaler, Lukas: SALSAH – eine virtuelle Forschungsumgebung für die Geisteswissenschaften, in: Elektronische Medien & Kunst, Kultur und Historie. EVA 2011 Berlin, Konferenzband: die 18. Berliner Veranstaltung der Internationalen EVA-Serie Electronic Imaging & the Visual Arts; 9.–11. November 2011 in den Staatlichen Museen zu Berlin am Kulturforum Potsdamer Platz, hg. v. Bienert, Andreas / Bracht, Christian, Berlin 2011, S. 147–153.

95

96

|     Doris Annette Hartmann und Andreas Oberhoff

Simon, Holger: Kunstgeschichte im digitalen Informationszeitalter – eine kritische Standortbestimmung, Plenumsvortrag am 14. März 2007 auf dem 29. Deutschen Kunsthistorikertag in Regensburg, 2007. UNESCO: Programme „Memoire du Monde“. Première réunion du Comité consultatif international du Programme „Mémoire du monde”. Consultation régionale sur la conservation, la sauvegarde et la promotion du patrimoine documentaire des pays d’Europe centrale et orientale, Pultusk, Pologne, 12–14 septembre 1993, Rapport final (http://unesdoc.unesco.org/images/0009/000963/096365fb.pdf; letzter Zugriff am 7.3.2017). Wan, Stephen / McKeown, Kathy: Generating overview summaries of ongoing email thread discussions, in: Proceedings of the 20th international conference on Computational Linguistics (COLING ’04), Association for Computational Linguistics, Article 549, Stroudsburg, PA, USA 2004. Willke, Helmut: Systematisches Wissensmanagement, 2. Aufl. Stuttgart 2001.

Joseph M. Shubitowski

The Getty Research Portal Unified Access to the Early Literature of Art History* 1

The Getty Research Institute (GR I) is one of the preeminent art history research libraries and centers in the world. It has a large library and vast archival and special collections documenting art and visual culture. The GR I has a number of significant precursors, in particular the now defunct Art History Information Program, established in 1983 which provided information resources and automation tools for the community at large. The history is important as it laid the groundwork for the Research Portal as well as the Scholars’ Workspace projects that I will detail in my following paper. In late 2009, during the global financial difficulties, the Getty decided that it could no longer afford to support the Bibliography of the History of Art (BH A). This is a joint project that the Getty collaborated on with I N IST / C N R S (Institut de l’information scientifique et technique / Centre national de la recherché scientifique) in France. It was decided that the staffing costs were just spiraling too high, as well as the information space that the BH A operated in was rapidly changing, making comprehensive coverage of the literature of art history somewhat of a losing battle. Needless to say, there was much outcry from the community worldwide and the Getty was castigated from all angles. One prominent art and visual culture blogger even went so far as to call our decision ”The End of Art History”, which was just a slight exaggeration – but it did generate even more public denouncement. Seriously, though, it was a difficult time at the Research Institute as we lost 29 full time staff members across the library departments, BH A , scholars program, etc.

The Future of Art Bibliography In 2010, the GR I began a series of international conversations on the Future of Art ­Biblio­g raphy (FA B) to gather a wide range of ideas and opinions for new collaborative models for facilitating 21st century art research and discovery – a new kind of art *

The contribution is based on a conference talk which was given on 22 May 2013 in the course of the "studiolo communis" project. The original text of this lecture was largely maintained.

98

|     Joseph M. Shubitowski

Proquest/Getty IBA contract announced Phase 1: awareness NY (FAB meetings)-Boston (ARLIS) 2010 Phase 2: discussion LA (FAB meetings part 2)Gothenburg (IFLA)-Lisbon (artlibraries.net) 2010

Projects Phase 3: project planning, demonstration, and advocacy: NY (CAA) -LA (Portal)-Minneapolis (ARLIS)-Paris (Portal)-Munich (artlibraries.net)-LA (CAA)-Toronto (ARLIS)-Nuremberg (CIHA)-Helsinki (IFLA) 2011-2012

1  Future of Art Bibliography (FA B): timeline 2010–2012

­ ibliography – that would differ radically in scope, content, and sustenance from tradi­ b tional art historical bibliographies. The FA B task force – comprised of an international group of academics, librarians, technologists, and scholars – developed an optimistic and ambitious goal to work toward an integrated discovery system for art historical bibliography of all varieties – taking into account the broad array of printed sources, digitized texts, websites, and other born-digital materials – that would together make up a future-looking and dynamic bibliography for the discipline – one that would have the capacity to grow and to facilitate all manner of future art historical research. It was rather ambitious in 2010 and it remains ambitious today, but we have made much headway with demonstration projects and applications as well as advocacy and collaborative efforts with other North American and European projects. The FA B initiative – graciously funded by the Getty Research Institute and the ­Samuel H. Kress Foundation – held a series of worldwide meetings prior to and following the cessation of the BH A database to engage as many of our colleagues as possible in the discussion (fig. 1). FA B meetings and presentations continue on a regular basis and there were three such gatherings just in the past month in Amsterdam as well as around Los Angeles. Despite the advances in web / tele-conferencing, and shared collaboration and document authoring tools, the FA B task force has felt that the best work always gets done by bringing practitioners and developers together to meld ideas and discuss progress and plan for the future. As many of you know, it isn’t very glamorous flying all over the world to go to working meetings, but it is still the best way to get real cooperative efforts underway. I want to quickly return to this slide and discuss the projects that are underway (fig. 2). The FA B initiative today has become an umbrella for tracking and encouraging

The Getty Research Portal     |

∙Contributor ∙Contributor ∙Contributor ∙Contributor ∙Contributor ∙Contributor ∙Contributor ∙Contributor ∙Contributor

Research Digitized content

Bibliographic content

User tools

Discovery environment

Born-cigital content

2  Future of Art Bibliography (FA B): initiative schematic

various collaborative projects that have developed to address gaps in the searchable art historical literature – all of which might eventually be embraced under the broader art history metasearch system: –– a major re-visioning of the primary aggregation of art historical library catalogs, artlibraries.net, led by the Zentralinstitut für Kunstgeschichte in Munich and the Kunsthistorisches Institut in Florenz; –– some experiments in capturing and archiving ephemeral web content, such as webbased auction and exhibition content, and archaeological and historic preservation documentation, led by the Frick Art Reference Library and the Avery Architectural and Fine Arts Library – both in New York and the main topic of my talk today, – the Getty Research Portal, which – through an international collaboration – aims to provide unified open access to the digitized literature of art history held in research libraries throughout the world.

The Getty Research Portal – Goals and Structure On the more global scale, in summer 2011, in response to some of the needs identified in the FA B conversations, the Getty Research Institute, again with the assistance of the Kress foundation, convened a meeting of a small group of collaborators to develop plans for a union registry of metadata that would link out to digitized versions of art history texts in their home environments. The Getty Research Portal was launched formally in late May 2012, with the following mission to be:

99

100 |     Joseph M. Shubitowski

an online search platform providing global access to digitized art history texts in the public domain. Through this multilingual, multicultural union catalog, scholars can search and download complete digital copies of publications for the study of art, architecture, material culture, and related fields. The Portal is free to all users.

At present, the Portal includes nearly 24,000 metadata records representing over 31,000 volumes from 9 institutions. Due to legal requirements, all texts linked to in the Portal must be in the public domain or have their rights cleared. For the Getty’s own digitization program in the United States, public domain is defined as having been published before 1923 or before 1909 if published elsewhere. In addition, material where the copyright is owned by the digitizing institution (such as museum publications) or where the rights have been cleared is also welcome in the Portal, regardless of when it was published. The contributing institutions, whose respective countries have different copyright laws, accept the responsibility for having reviewed copyright concerns for all digitized texts for which they are providing records and links in the Portal. The click-through contribution agreement captures the copyright agreement, as well as stipulates that all metadata in the Portal are freely available under a Creative Commons Zero license. A major goal of the project is to bring important art historical literature to researchers who otherwise would not have access to these books without extensive travel. With this goal in mind, we are taking two complementary approaches to defining the Portal’s scope and contents. We are populating the Portal with the foundational literature that defines the world of art history as outlined in classic bibliographies such as Julius von Schlosser’s Die Kunstliteratur from 1924 and translated into Italian and updated in 1935, and the bibliography of the library of Count Leopoldo Cicognara, the Italian archaeologist and writer on art. Many of these fundamental and foundational art history texts are held in the foremost libraries of art history in the world, including those of our initial contributors, and it is our hope that, with the addition of more libraries, we will be able to collaborate on completing the digitization of the contents of the bibliographies and then link to these copies via the Portal. One of our major goals of the Portal project is to provide a trusted destination for finding foundational art history texts. To give a very basic example, a scholar interested in comparing the various editions of Vasari’s Lives of the Artists, can look at digital copies of books held at the Getty, the University of Heidelberg, the INHA (Institut national d’histoire de l’art) in Paris, and the Avery Library in New York by performing a simple search on Vasari. If I wish to compare Vasari’s chapter on the Life of Raphael from a 1568 edition held at the Getty with the 1840 French translation held at the INHA, or with the later German critical edition by Herman Grimm held at the University of Heidelberg, I can do so today in the Portal. Note in this slide that each link is to the respective library’s home environment – the Getty uses the Internet Archive, Heidelberg and INHA use their own custom manifestation and display applications (fig. 3). The features provided in each result are different depending on the functionality that is built into the contributing institutions’ home environment.

The Getty Research Portal

3

| 101

Giorgio Vasari, Life of Raphael: Comparison with later Translations

Importantly, the Portal researcher can download all the books to his own laptop or iPad for further research and study, or one can download a single image for a PowerPoint. Today one already pulls up 29 results when doing this search on Vasari. Clearly there are many more editions of Vasari located in libraries that are not included in the Portal or that have not yet been digitized. Simultaneous goals of the Portal are to include records to works that have already been digitized as well as to help to encourage cooperative digitization of important texts by libraries now planning their own digitization strategies. The potential exists for the Portal to become the research destination for fi nding digital copies of foundational art history texts. Besides using some classic bibliographies as checklists for foundational literature, we are also gathering a wide variety of art historical resources not cited in the classic bibliographies – including exhibition catalogs, auction sales catalogues, and other rare books  – that have been digitized according to the strengths of the contributing institutions. For example, we can rely on the French libraries’ copies of digitized exhibition catalogues from the Louvre, or on the copies of catalogues from the Macbeth Galleries in New York City available via the Metropolitan Museum of Art’s site. The holdings from an auction house such as Hotel Drouot are pieced together from a few institutions, or if duplicated, can be compared for annotations, through the contributions of records link-

102 |

4

Joseph M. Shubitowski

Libraries – Contributers of Records

ing to digitized copies at Heidelberg, the Getty, Avery, the Met, and the Philadelphia Museum of Art (fig. 4). Overall, it is our broader goal is to look outside the traditional boundaries of western art history and to identify contributing institutions that are digitizing their holdings in non-western areas, as well as to review any existing authoritative bibliographies in these areas. Already the Portal includes some examples of non-western languages, such as this early book found by conducting a search on Chinese Bronzes, and, as well as documentation of discoveries and conquests of the new worlds in Latin and South America. By continuing to add to the Portal in these two ways – through classic bibliographies and by capturing institutional strengths and priorities, it is envisioned that the Portal will become the art history metasite for digitized material important to art historical research. This critical mass of records with links to aggregated art history texts has the potential to facilitate new kinds of art historical research simply by virtue of having them all discoverable, available, and fully accessible from one location. The Portal has been introduced to various art history and library communities over the past year in North America and Europe. Already more libraries are planning to or already working with us to contribute their metadata for their digitized texts. We invite contributions from any library, and in fact, I am headed to the Herzog August Bibliothek in Wolfenbüttel to discuss their digitization efforts and what they wish to contribute to the Portal. Once again, the guidelines for contributions are available on the Portal website.

The Getty Research Portal     | 103

Technical Aspects of the GRP Now I want to talk about the technical side of the Portal. I shall try hard not to use many acronyms and / or tech jargon. Oddly, the main driving force behind the Portal development was that the GR I Director, Thomas Gaehtgens, decided in December 2011 that the Portal would launch with an international colloquium on May 31, 2012, which meant we had to go from zero to Portal launch in about four months. That is everything from harvesting metadata from all the contributors to figuring out the search engine configurations to building the search application. It was an intense four month period I assure you. The core of the Portal is a Solr index. The Getty uses Solr and / or Lucene for multiple applications so there was good familiarity with its capabilities. As many of you know, Solr is fairly lightweight, highly scalable, easy to configure and load and maintain. The Portal is actually running in a fairly old release of Solr, and future plans call for the upgrade to a current release. Solr / Lucene forms the basis of many large search / d iscovery applications such as Europeana, Hathi Trust, as well as commercial discovery application such as Ex Libris’s Primo. Solr’s flexibility is critical as we are aggregating multiple metadata formats and content standards so mapping was truly an issue. The search application was written in Java and is fairly simple. We, unfortunately, did not have a lot of time for nice add-ons and bells-and-whistles but we did get record export in R IS format so users could drop Portal records into Zotero, Mendeley, or EndNote, and we also built in links to social media applications as well. The power of Solr is not just in its highly configurable search engine, but also in its support for building facets. Discovery systems such as the Portal use facets to lever­ age the highly granular data that is contained within the search engine. Facets provide a structured drill-down browse mechanism to assist novice and expert users alike. The facets pictured on this slide (fig. 5) – left to right – come from the Portal, ­Europeana, and the Hathi Trust. I did a simple search for ”Vasari” in all three repositories and just grabbed the initial facet list from the result set. Facet creation can be fairly precise depending on the level of homogeneity in the structure and content of the metadata. All three of these repositories tend towards the ”bigger bucket” approach when it comes to faceting. Drilling down by object types, subject headings, personal or corporate names is relatively straightforward as even the most diverse metadata formats generally support these facet types. One of the issues in multi-national repositories is the presence of multi­lingual terminology within a given facet. Even with our initial group of contributors, we have a surprising degree of variety in metadata even when institutions were using metadata structural containers and description rules. It has been generally easier to parse and process M A RC21 based data, as it is fairly rigid in its structure. There are many similarities between the GR I and the Frick M A RC records. The major differences in the record sets are how each institution utilizes M A RC and A AC R 2 (Anglo American Cataloging Rules) and what fields they choose

104 |

5

Joseph M. Shubitowski

Power of Facets

to populate. We need to analyze M A RC records structurally to make sure we capture metrics on which fields are present, and then we can analyze how they are used and how they should be mapped. We have had good success utilizing OA I-PM H harvesting (Open Archives Initiative  – Protocol for Metadata Harvesting). These are examples of Dublin Core based metadata coming from vendor hosted repositories supporting the Metropolitan Museum of Art in New York and from I N H A in Paris. The OA I framework is somewhat rigid, but as you can see each OA I server implementation can serve its data slightly differently – and still conform to the OA I standards. Each OA I harvest configuration needs to be done from scratch to make sure that we determine and program for that particular implementation of the OA I standard. We currently harvest two ContentDM digital repositories both hosted by OC LC (Online Computer Library Center) – the large US based library services and metadata organization. Each of these repositories requires totally different harvesting code because of their differences in application interfaces support. Finally, we are also harvesting M ETS packages from our biggest contributor, the University of Heidelberg library. M ETS (Metadata Encoding and Transmission Standard) is a wrapper structure surrounding other descriptive and technical metadata formats. Heidelberg repurposes bibliographic metadata from their library catalog into MODS (Metadata Object Description Schema) format which they use in their digital repository. We then harvest the MODS which is embedded within the M ETS package.

The Getty Research Portal     | 105

As you can see, each contributor needs to be handled somewhat differently, so we are working on a more generalized processing software environment back in Los Angeles that will allow the Portal to scale up with contributors without becoming a massive technical processing stumbling block. As I alluded to, the metadata aggregation and subsequent mapping and normalization is a great deal of work. There is a degree of relationship management that comes along with the process as we have to deal with both metadata and technical experts at each institution. We also have to understand a given institutions implementation ­methodologies of M A RC or Dublin Core or whatever format we get, plus what content standards they have used to populate the data elements. About the only element that most institutions agree upon is the use of title – everything else seems to be in flux. Early on, we realized we need a date facet – based on date of publication – and we are working out a strategy for making this happen. We have done little to help the user when searching or faceting with multilingual data. Our scholar advisors all say that true scholars know how to search in multiple languages, but we realize this doesn’t help the novice user very much. We think an internationalized user interface would be very helpful, and we will tap our contributors to help us with translation work for the application. Finally, we have had many institutions ask us about harvesting the Portal metadata for reuse, and at present, this is quite difficult because of the data model of the Solr index.

Work in Progress – Challenges About nine months ago we began to work on use cases, requirements, and specification for a Phase 2 development process for the Portal. We have been working on a metadata transformation / normalization engine which will ingest metadata files, provide analysis of type of metadata format, field structures, metrics, and then provide a generalized mapping and / or programmatic normalization as output so that then tweaks could be applied where necessary for a given institution. This work will continue throughout the summer. In ongoing meetings with the contributors, everyone agrees that we need to have some sort of Back Office functionality that can handle some of the administrative tasks such as registration of an institution and submission of metadata file streams, but also provides a fairly rich collaborative set of tools that will allow for better decision support among the institutions. Libraries wish to have an ongoing dialog with their peers about decisions related to digitization choices and strategies going forward. We also want to provide the users with a dashboard where they can see at a glance when records are harvested, any outstanding mapping or loading issues, etc. Major application features in the pipeline include: –– Upgrade to latest Solr release and retooling search application search architecture to take advantage of new features.

106 |     Joseph M. Shubitowski

–– Personalization – user can register and then logon, save searches, get R SS feeds for automatically rerun searches, etc. –– Date faceting and a date slider so users can easily expand / contract a date span to see what is included and / or what falls out of a range. –– The possible incorporation of Getty thesauri so that we could build geographic hierarchies in records, search for non-preferred and / or multilingual term variants, etc. As stated before, we will also work on a more modular internationalized user interface as well. –– We are going to reexamine and strengthen / tighten the data model. This will mean more upfront work when an institution signs up to contribute, but it will mean we have a more standards based data model that should allow for metadata exports and harvesting. –– With a more structured indexing schema, we should be able to add the Portal records to search scopes in other discovery system, such as our own Primo based system or something like arthistoricum.net. Even with better data model standardization, we will still have discrepancies in the implementation of metadata standards. This means that there is much human data anal­ ysis needed even with better tools. Our colleagues at OC LC and University of Michigan who are in the business of data harvesting and aggregation told us early on that OA I harvesting is not one-size-fits-all. We have definitely learned this, but are still trying to come up with an OA I code profile that will work for 90% of our harvesting needs. Integration of specialized thesauri would greatly enhance search results with records in other languages that most users would not know how to find. Since we have control of the source data and we have the source thesauri, it is a natural thing to pursue for the Getty. Digitization standards and manifestations vary widely so users can be faced with a myriad of book readers, page image viewers download methodologies, etc. While each institution may provide more features on a local basis than we would ever have on the Portal aggregation, users have to become familiar and savvy with multiple delivery ­system options. We still have copyright and access issues for some Portal material. This is especially true for institutions that point to their digitized texts with the Hathi Trust. These may be viewable and downloadable within the United States but some books are not viewable at all in Europe. On the content side, we realized that there must be a point person in each institution to talk to about scope and metadata issues. As the Portal scope begins to expand, local collection knowledge is critical so the Portal can have a wider collection development strategy. We must build the tools to allow libraries and content experts to strategize about the best digitization decisions that will allow for less duplication of material and use of scarce resources. As Digital Humanities scholar Johanna Drucker from

The Getty Research Portal

| 107

UC L A (University of California, Los Angeles) remarked, tools like the Portal are really about ”collecting access instead of objects”. This really brings us full circle in our FA B ideas and efforts. Digitized texts are only the beginning. How to expand and unify access to all our archival and manuscript holdings and make these more easily fi ndable and usable? How do we integrate all our vast images collections, all the born digital research and web resources, and stay current on access to current literature? We will continue to revisit and refi ne our FA B goals and principles that the Portal is just part of.

scholars’ Workspace And now I want to give you a brief glimpse of our current fledgling development effort that we call Scholars’ Workspace. Colleagues and I presented these slides at the Art Libraries Society of North America annual conference 2013, so I thought I would just reprise them here. Scholars’ Workspace represents our biggest leap into the digital humanities arena so far. There have been many studies done on the information seeking behavior of art historians that delve into their research habits. These studies conclude that the ”St. Augustine” mentality is still alive and well in art history research practice. The image at the left is a shot of the office interior of one of the GR I ’s current residential scholar – taken a few weeks ago. It demonstrates that the analog methods of research and analysis are still alive and well. Scholars work by themselves. Paper copies and Xeroxes abound. Image study is on still paper based despite digital surrogates being available. The researcher makes use of primary source material and then retreats to his desk to work in isolation – with the goal of producing a print monograph in a few years time (fig. 6). For art historians, the promise of digital scholarship can be groundbreaking. We have seen these collaborations work so successfully in other disciplines, but the uptake in the humanities – and art history specifically – has been somewhat slower. The ability

6

Analog Scholarship

108 |

Joseph M. Shubitowski

to capture the discourse of the research process is huge. The ability to use and generate linked open data has enormous potential for visualization technologies as well as driving the creation of new knowledge. The scholarly print monograph is still the gold standard for getting academic tenure and recognition, and digital humanities and digital publishing need to become valid methodologies for professional advancement (fig. 7). Our original prototype project based a collaborative research environment around a digitized 16th century manuscript. It was and still is a huge learning process both for our scholars and our technologists as we try to model and capture the research process. The goal was to capture everything in structured data that could then be reused and shared. The outcome will be a digital critical edition with fully annotated translations and transcriptions seen in parallel with critical analysis essays and discussion forums (fig. 8). The prototype was build on top of Drupal version 6, the widely used and supported open source content management system. Using out of box Drupal and its content types, we have been able to ingest text and images, plus structured data in T EI (text encoding initiative X M L markup), into the datastore. A Drupal community sourced plug-in for text

7 The Promise of Digital Scholarship

8 Digital Mellini – Proof of Concept

The Getty Research Portal

| 109

annotations was also incorporated to allow collaborative annotations of transcriptions and translations. When we compare the staff resources involved in this prototype project with the solo scholar approach, we see that it takes the skill sets of many individuals to bring a rather simple digital humanities project together. Some of these staff resources work in other divisions with the Getty, some are external consultants, and the art historians are from four separate academic institutions in the United States and Western Europe. Coordination of all this talent was probably more difficult than the project components themselves (fig. 9).

From two prototype projects towards a collaboration research Environment The initial two prototype projects – Mellini being heavily text oriented, and Montagny being heavily image oriented – gave us an opportunity to try and capture the scope and specifications for a more generalized platform and toolset that we knew we wanted to build (fig. 10). The collaboration tools and aspects of these projects were key. We need to

9 The Team – Communication is key

10 Digital Mellini & Digital Montagny

110 |     Joseph M. Shubitowski

be able to capture the research process and the discourse among scholars as the research is unfolding, and then after it is published. We want to be able to take advantage of all the authoritative research and catalog data that already exists, so the ability to mine these standardized structured data resources is critical as we move ahead. Also neither of our demonstration projects were able to use good image processing nor analysis tools, so these are vital for a new collaborative environment that will focus on visual arts and culture. The prototype projects demonstrated that the most critical element needed is good project management. Many people, many time zones, many disciplines coming together, make project management the glue that holds everything together. While good communication is vital, we found that the art historians and the technologists speak different languages even when talking on the same topics. Bridging the semantic barriers is an ongoing effort so everyone is working towards a common goal and understanding. Humanists need to better understand the concept of iterative development. These types of collaborations do not happen in a linear fashion. The Research Institute decided to go forward and build a generalized environment which would allow small research projects and teams to get up and running with a minimum of effort. We also decided to build something that would be distributable and community owned and maintained. This is not new groundbreaking work as there are many projects going on right now to build the same sort of collaborative environment, e.g. Stanford’s Open Canvas, the Mellon funded ResearchSpace project working in partnership with the British Museum, as well as Paderborn’s own Studiolo project. Our difference factor is that we want to be able to build a platform and toolset that can be installed and used by any institution or group of scholars with a modicum of technical savviness. Thus we embraced our initial Drupal paradigm, and are developing the new workspace in Drupal 7 with the goal of producing a Drupal distribution that will be downloadable from Drupal.org and will unpack and build its own environment including all software dependencies, on a standard commodity L A M P (Linux, Apache, MySQL , PH P) server. Our first two development sprints are concentrated on building out the core ”­canvas” environment and then integrating robust custom tools for –– –– –– ––

Text annotation (fig. 11) Image annotation (fig. 12) Image crop / zoom / create new image (fig. 13) Light table functionality (fig. 14)

Art historical research revolves around images. The light table functionality is critical to any collaborative workspace. Users need the ability to load / ingest a myriad of images into the workspace, assign them to various projects, and then have a space on which they can drag and drop and compare images side-by-side. We are working to mimic the analog behavior that was used in countless slide libraries across the world where 35mm color slides were laid in a backlit glass table and moved around and gathered into sets.

The Getty Research Portal

11

Text Annotation

12

Image Annotation

13

Image Crop and Zoom

| 111

Having robust annotation capabilities is also key to collaborative research. Our custom text annotation module will allow annotation down to a single letter / character, allow for threaded annotations, and allow for overlapping annotations of same text areas. We need

112 |

Joseph M. Shubitowski

14

Light Table

to be able to have the same annotation functionality for images as well – annotating just a few pixels of a detail, overlapping image annotation boxes, threaded annotations, etc. Working in tandem with the light table and the image annotation tools is our custom crop and zoom module for zooming in and out of images, setting a crop box on any portion of an image whether zoomed or at original resolution, and cutting out this detail image and creating a new image of the same fi letype while maintaining the integrity of the original image.

concluding remarks In conclusion, we are hoping to develop a portable collaborative research environment that eventually our community will embrace and help to collaborative develop and maintain. We want to be able to capture the research process, allow for multiple viewpoints to be layered together, support metadata in standard formats, and allow for the production and generation of digital publications that truly break from the analog tradition within our discipline.

literature Baca, Murtha / Rodriguez Ortega, Nuria: Pietro Mellini’s Inventory in Verse, 1681: A Digital Facsimile with Translation and Commentary, Los Angeles: Getty Research Institute 2015 (http://hdl.handle. net/10020/mellini; last accessed on July 28th, 2017). Cobb, Joan / Mather, Mala / Shubitowski, Joseph: Use of Unicode and Java in a Bibliographic Application, in: Thirteenth International Unicode Conference, San Jose (California), September 10–11, 1998, Conference proceedings, San Jose 1998. Fabian, Carole Ann / Salomon, Kathleen: Future of Art Bibliography Initiative: Charting a New Future, Art Documentation, in: Journal of the Art Libraries Society of North America 31.2 (2012), S. 176–185. Gaehtgens, Thomas W.: Thoughts on the Digital Future of the Humanities and Art History, in: Visual Resources 29, 1–2 (2013), S. 22–25.

The Getty Research Portal     | 113

Salomon, Kathleen: Facilitating Art-Historical Research in the Digital Age: The Getty Research Portal, in: Getty Research Journal 6 (2014), S. 137–41. Shubitowski, Joseph / Washburn, Bruce: Imagining the future of art bibliography: using prototypes to evaluate technical approaches, in: Art Libraries Journal 36, 3 (2011), S. 40–45. (https://www.getty.edu/research/scholars/digital_art_history/getty_scholars_workspace/index. html; https://stash.getty.edu/projects/GRIIS/repos/scholars-workplace/browse; last accessed on July 28th, 2017).

Joachim Veit

Zum gegenwärtigen Stand und den Perspektiven digitaler Musikeditionen

Das Verhältnis der Musikwissenschaft zur digitalen Welt ist gegenstandsbedingt ein doppeltes, denn einerseits geht es in unserem Fach um Musik-Wissenschaft im engeren Sinne, andererseits kann dieses Fach zu einem wesentlichen Teil aber auch zu den Text-Wissenschaften gezählt werden. Zugleich ist zu bedenken, dass die Realisierungsformen von Musik und damit die Gegenstände der wissenschaftlichen Beschäftigung höchst unterschiedlich ausfallen können: Betrachte ich Musik als sich in der Aufführung ereignendes akustisches und zugleich soziales Ereignis oder beschäftigte ich mich mit der Repräsentation dieser Musik in der symbolischen Umschrift einer Notengrafik oder eines vom Computer erzeugten Notensatzes? Oder interessiert mich einfach nur das akustische Substrat, das ich als Audio-Datei goutieren, als elektronische Signalverarbeitung analysieren oder als mechanischen Vorgang der Tonerzeugung auf einem Instrument nachvollziehen kann? Oder existiert zum Beispiel ein Werk wie Beethovens „Neunte“ nur als Abstraktum vor meinem inneren Ohr beziehungsweise in meiner Vorstellung? Würde ich gar auf mittelalterliche Vorstellungen zurückgehen, könnte ich mich auch mit Musik als Harmonie der Sphären oder als Ausdruck von Zahlenproportionen beschäftigen. Zahlreiche weitere Formen des Umgangs mit Musik sind denkbar. Auf der anderen Seite begegnet Text in der Musik sowohl als unterlegter Text, also als Gesangstext, ebenso aber auch in Form diverser Nebentexte, etwa als Tempo- oder Spielanweisung, als Akkordbezeichnung oder als Bühnenanweisung bei Opern. Umgekehrt verhält es sich in der Musiktheorie beziehungsweise in Musiktraktaten: Hier treten zu einem überwiegend verbalen Text Notenbeispiele als den Text unterbrechende, illustrierende Einschiebsel. In analytischer Literatur kann Musik mit verbalen Mitteln so umschrieben werden, dass eine Art Ersatzrepräsentation entsteht, die in der Regel kaum die volle Wirklichkeit des musikalisch Gemeinten wiedergeben kann – ebensowenig wie im übrigen Noten als grafisch-symbolisches Substrat beziehungsweise als Ausführungsvorschrift dies in vollem Umfang zu leisten vermögen.1 Dass Musikwissen1 Zu diesem Aspekt vgl. Danuser, Hermann / Plebuch, Tobias (Hg.): Musik als Text. Bericht über den Internationalen Kongreß der Gesellschaft für Musikforschung Freiburg im Breisgau 1993, 

116 |     Joachim Veit

schaft sich schließlich auch mit Schriften, Briefen und Tagebüchern von Komponisten, mit Werkrezensionen, Aufführungsbesprechungen und vielem anderen Textlichen mehr beschäftigt, muss hier eigentlich kaum betont werden. Eine solche doppelte Ausrichtung kennzeichnet auch die Musikedition als Teilbereich der Musikwissenschaft – und daher vollzieht sich der Übergang der Musikedition zu digitalen Formen ebenfalls auf beiden Feldern. Der Ausschnitt der ins Auge gefassten Wirklichkeit ist hierbei in der Musikedition eher klein: Sie hält sich traditionell vornehmlich an das, was uns von der Musik auf Papier geronnen erhalten geblieben ist, d. h. an die Notengrafik – also die Notenhandschriften und -drucke einer Komposition – und selbstverständlich an die darin enthaltenen textlichen Bestandteile sowie als Hilfsmittel in der Regel an all jene Egodokumente eines Komponisten, die mit dem Gegenstand in Zusammenhang stehen.2 Was letztere – wie überhaupt die gewöhnlichen Textanteile unserer Arbeit – betrifft, so dürfte einleuchten, dass hier im Vergleich mit den Textwissenschaften keine Sonderwege notwendig sind, sondern sich die Musikwissenschaft an deren digitalen Errungenschaften orientieren kann. Deshalb lag zum Beispiel bei den am Musikwissenschaftlichen Seminar Detmold / Paderborn initiierten Projekten im Bereich der digitalen Edition der Bezug auf eine virtuelle Forschungsumgebung wie TextGrid ebenso nahe wie die Beteiligung am Aufbau digitaler Forschungsinfrastrukturen für die Künste und Geisteswissenschaften im DA R I A H-Verbund oder auch das Engagement innerhalb der Text Encoding Initiative (T EI). 3 Zugleich stand bei Einrichtung dieser Projekte aber fest, dass für den spezifischen Gegenstand Musik keine Hilfe von außen zu erwarten war, sondern im Fach selbst Notwendigkeiten und Bedürfnisse zu ermitteln und fachspezifisch umzusetzen waren und sind.4 Die folgenden Ausführungen konzentrieren sich auf diese fachspezifischen Aspekte, ohne aber die damit unmittelbar verbundenen textbezogenen Fragen auszuklammern. Dabei geht es zunächst um einen Überblick über die Entwicklungen der vergangenen Jahre und abschließend um den Versuch, aus der subjektiven Sicht des Autors heraus

Bd.  1: Hauptreferate, Symposien, Kolloquien, Kassel 1998, speziell S. 69–107 u. S. 246–286. Für Hans Heinrich Eggebrecht „ist Notenschrift kein Text“ (ebd., S. 75) und Notenschrift verfahre „gegenüber dem Klingenden und klingend Gemeinten stets selektiv“ (S. 76). Manfred Hermann Schmid unterscheidet eine „Komponierschrift“ von der „Notenpultschrift“, beide erfüllen völlig unterschiedliche Funktionen (ebd., S. 81). Vgl. auch die Diskussion der Rolle von Common Western Notation (C M N) in David Meredith’s Vorwort zu Crawford, Tim / Gibson, Loma (Hg.): Modern Methods for Musicology. Prospects, Proposals, and Realities, Farnham 2009, S. 3. 2 Erst seitdem in jüngerer Zeit die Musik des 20. Jahrhunderts als Aufgabenfeld der Editoren entdeckt wurde, kommen auch Ton- und Videoaufnahmen oder gar sonstige elektronische Aufzeichnungsformen als Quellen in den Blick. Rein mündliche Überlieferung spielt dagegen vornehmlich im Bereich der Musikethnologie eine Rolle. 3 Vgl. dazu www.textgrid.de und www.dariah.de. In der T E I (www.tei.c-org) betrifft das Engagement vor allem die Special Interest Group (SIG) Correspondence sowie die SIG Music. 4 Dies betrifft vor allem das inzwischen abgeschlossene, nachfolgend beschriebene DFG -Projekt Edirom (www.edirom.de), zum anderen aber auch das DFG -N E H-Projekt zur Förderung eines für wissenschaftliche Zwecke tauglichen Musikcodierungs-Standards (vgl. www.music-encoding.org).

Zum gegenwärtigen Stand und den Perspektiven digitaler Musikeditionen      | 117

weitere Perspektiven aufzuzeigen. Wenn bei diesem Überblick das Musikwissenschaftliche Seminar Detmold / Paderborn übergebührlich oft genannt zu werden scheint, so liegt dies schlicht in dem Faktum begründet, dass von hier wesentliche Impulse für die Entwicklung in unserem Fach ausgingen – was letztlich damit zusammenhängt, dass das DFG -Projekt Edirom, von dem noch die Rede sein wird, als Aufgabe die Entwicklung eines Werkzeug-Sets für die editorische Arbeit im digitalen Bereich und die kritische Begleitung dieser Entwicklung zu erfüllen hatte und dafür außerordentlich kompetente, kreative und engagierte Mitarbeiter gewinnen konnte. Ausgehend von diesem Projekt lassen sich durchaus grundsätzliche Fragen digitaler Musikedition beleuchten, so dass dies auch den stark verengten Horizont der folgenden Ausführungen rechtfertigen mag.5

Das Edirom-Projekt Der Ausgangspunkt des Edirom-Projekts war – wie dies in der Wissenschaft öfter der Fall zu sein scheint – ein eher zufälliges Ereignis: Im Rahmen eines Editionsseminars zu Carl Maria von Webers Klarinettenquintett, das der Autor gemeinsam mit seinem früheren Doktorvater Gerhard Allroggen durchführte, beklagte sich einer der Teilnehmer über die gängige Art der verbalen Beschreibung von editorischen Entscheidungen und Abweichungen zwischen den Quellen: Der Abdruck dieser Apparat-Texte separat von den Noten sei unanschaulich und mit seinen oft kryptischen Abkürzungen und verkürzten Formulierungen für einen Außenstehenden kaum nachvollziehbar – dies könne mit heutigen Mitteln wesentlich benutzerfreundlicher bewerkstelligt werden. Und so mündete die Kritik 2002 in eine Schulmusik-Examensarbeit, die neben dem üblichen Typoskript auch eine CD-ROM enthielt, mit der Ralf Schnieders (so der Name des Studenten) versucht hatte, seine Vorstellungen eines anschaulicheren Kritischen Berichts umzusetzen.6 Dieses Konzept, das in Abbildung 1 in seiner damaligen Umsetzung zu sehen ist (Abb. 1), hat sich in modifizierter Form bis in die jüngsten Versionen der

5 Zu nennen ist hier ergänzend das zu einem vergleichbaren Zeitpunkt (nach einer Pilotstudie 2003 / 4) startende, von der Mellon Foundation geförderte Projekt einer Online Chopin Variorum Edition, das gemeinsam von der University of Cambridge und dem King’s College London getragen wird und in zwei Phasen (2005–2009 und 2011–2014) eine von Anfang an online geplante „Variorum Edition“ der Klavierwerke Chopins erarbeitet, bei der nicht eine Neuedition, sondern die Dokumentation der Abweichungen in der Überlieferung der Werke im Mittelpunkt steht. Die entwickelten Tools weisen aber eine Verwandtschaft zu Edirom auf, denn auch in dem Chopin-Projekt lassen sich Quellen taktweise aufrufen und synchronisiert durchblättern. Dabei können seit der zweiten Förderphase angemeldete Benutzer sogar eigene Annotationen erstellen. Nähere Informationen finden sich unter www.ocve.org.uk/. 6 Schnieders, Ralf: Neue Medien in der Editionswissenschaft. Die Problematik des kritischen Berichts bei der Edition musikalischer Werke, dargestellt am Beispiel des Klarinettenquintetts von Carl Maria von Weber. Schriftliche Hausarbeit vorgelegt im Rahmen der Ersten Staatsprüfung für das Lehramt für die Sekundarstufe I und II in Musik, Detmold 2002.

118 |     Joachim Veit

1  Ursprungskonzept Edirom von Ralf Schnieders

Edirom erhalten.7 Schnieders hatte im unteren Bereich des Bildschirms den neu edierten Text dargestellt und in den Fenstern darüber die zugehörigen Ausschnitte der einschlägigen Quellen zusammen mit dem Anmerkungstext angezeigt. Man konnte sogar schon an den farblich hervorgehobenen Symbolen auf der Mittelleiste sehen, um welche Art von Anmerkung es sich handelte (im Beispiel ist links das Symbol der Kategorie „Bogensetzung“ markiert) und die fraglichen Stellen waren in der Edition mit roten Aufmerksamkeitsovalen versehen. Der Nutzer konnte nun selbst in den Quellen (also der symbolisierenden Notenschrift) nachvollziehen, wovon in der Anmerkung verbal die Rede war. Aber Schnieders war in seiner kleinen Pilotstudie sogar weitergegangen und hatte sich daran gewagt, Varianten bestimmter Stellen in einer MusicX M L-Codierung fest-

7 Der Name der Software geht ebenfalls auf Schnieders zurück, der von einer „Editions-CD-ROM “, abgekürzt „Edi-ROM “ sprach. Obwohl längst keine CD-ROM mehr genutzt wird, ist der im Fach rasch verbreitete einprägsame Name geblieben.

Zum gegenwärtigen Stand und den Perspektiven digitaler Musikeditionen      | 119

zuhalten und diese codierten Varianten über ein Auswahlmenü wieder in den Notentext zu integrieren.8 Diese anregende Examensarbeit war dann Ausgangspunkt eines kleinen, einjährigen DFG -Projekts, in dem eine komplette Edition des Klarinettenquintetts erarbeitet wurde, die dann 2005 als Begleit-CD der regulären Printedition beigelegt wurde.9 Die CD lieferte den Beleg, dass dieses Verfahren gewinnbringend eingesetzt werden könnte – sie zeigte aber deutlich auch Grenzen und Probleme auf. Zum einen klagte Johannes Kepper, der damals als studentische Hilfskraft in dem Projekt arbeitete, über die Mühen des Extrahierens und Retuschierens von ca. 1.400 Einzelbildern, die in eine begrenzte Anzahl von zur Verfügung stehenden Rahmengittern einzufügen waren.10 Zum anderen trat eine weitere Schwierigkeit an einer Stelle auf, an der sie am wenigsten vermutet wurde: Während die Fenster-Darstellung der Faksimiles auf der Verwendung des proprietären Programms Macromedia Director beruhte, wurden Textteile in diese Software als PDF eingebunden. Mit nachfolgenden Versionen des Acrobat-Readers aber versagte just das Plug-In zum Einbinden dieser PDF ’s – dann häuften sich Meldungen von Subskribenten, die mit der CD nicht mehr zurechtkamen. Die peinliche Lehre daraus konnte nur lauten: 1. Nutze keine proprietäre Software, da Du keine eigene Kontrolle über deren Weiterentwicklung hast. 2. Langlebigkeit von Lösungen können nur offene, international gebräuchliche Standards garantieren. 3. Entwickle Lösungen, die die Zeit-Ressourcen der Mitarbeiter schonen! Das im Anschluss an die erfolgreiche erste CD-Publikation startende DFG -Projekt Edirom, das sich offiziell „Entwicklung von Werkzeugen für digitale Formen wissenschaftlich-kritischer Musikeditionen“ nannte, blieb nun ausdrücklich nicht mehr auf Weber beschränkt, sondern sollte die Bedürfnisse verschiedenartigster Musikerausgaben berücksichtigen, um generell einsetzbare Werkzeuge zu entwickeln. Es erarbeitete daher die Software von Grunde auf neu auf der Basis offizieller Standards wie X M L oder der verwendeten Java-Technologien. Damit konnten plattformunabhängige Werk-

  8 Dies war selbstverständlich im Rahmen der Arbeit nur in kleineren Ausschnitten möglich, aber es machte deutlich, dass der Rückgriff auf die Varianten über deren Codierung praktikabel wäre.   9 Kepper, Johannes / Schnieders, Ralf: Digitale Edition des Quintetts op. 34, in: Allroggen, Gerhard / Holtsträter, Knut / Veit, Joachim (Hg.), Carl Maria von Weber. Sämtliche Werke, Kammermusik mit Klarinette, Serie VI, Bd. 3, Mainz 2005. 10 In Abb. 1 ist nur eine Vorform eines dieser Rahmengitter zu sehen. Um den Anforderungen unterschiedlicher Bildausschnitte gerecht zu werden, war eine begrenzte Zahl solcher Gitter erstellt worden, die jedoch meist nur eine annähernd genaue Einpassung der Bildfragmente erlaubte. Deshalb wurden für die jeweilige Aussage nicht notwendige, aber im Ausschnitt noch sichtbare Teile der Bilder retuschiert – was den Arbeitsaufwand erheblich erhöhte.

120 |     Joachim Veit

zeuge entstehen, die zudem als offene Software kostenlos zugänglich und auch indivi­ duell weiter­entwickelbar sein sollten.11 Zu den wichtigsten Neuerungen zählte die grundlegende Revision des Konzepts der Quellenabbildungen. Diese standen nun grundsätzlich als komplette Seiten zur Verfügung, in denen einzelne Takte durch Aufziehen eines Rechtecks mit der Maus markiert und die Koordinaten des Taktes in einer X M L-Datei automatisch so abgespeichert werden konnten, dass später jeder einzelne Takt aufrufbar wurde. Dabei war der Nutzer flexibel, ob er mit einer Markierung alle simultanen Stimmen eines Taktes der Partitur erfasste oder nur einzelne Stimmen – wie dies zum Beispiel mit der Solostimme in einer späteren Edition von Webers Klarinettenkonzerten geschah.12 Eine durchgängige Markierung der Takte in allen Einzelstimmen erhöht den Arbeitsaufwand jedoch deutlich, und halbautomatisierte Formen der Vertaktung funktionieren erst bei Drucken in halbwegs erträglicher Form. Hier wird die Zukunft sicherlich weitere Optimierungen bringen. Dieses Kartografieren ermöglicht nun das Parallelisieren verschiedener Faksimiles, so dass das Kollationieren von Quellen für den Editor wie später für den Leser erheblich erleichtert wird. Von besonderem Vorteil ist dabei die Handhabung von Stimmenmaterialien, die durch diesen Mechanismus sogar zu einer Art künstlicher Partitur zusammengestellt werden können, wobei an einer Zentralachse der jeweilige Takt angewählter Stimmen synchron übereinander dargestellt wird.13 Eine zweite Neuerung betraf die engere räumliche Verbindung von Anmerkung und Notentext: Farbige Icons im Notentext symbolisierten nun Anmerkungen einer bestimmten Kategorie. Auf Mausklick hin öffnete sich dazu ein Anmerkungsfenster, in dem zu dem erläuternden Text auch alle notwendigen Faksimile-Ausschnitte untergebracht waren, die sich wiederum in größeren Ausschnitten zu dem verbalen Text hinzuschalten ließen, so dass der Nutzer selbst in den Noten die beschriebenen Sachverhalte nachvollziehen konnte. Schließlich ist noch ein dritter Vorteil zu erwähnen, der das Einblenden von selbstdefi­nierten Layern in die Quellenfaksimiles betrifft: Will man etwa im Erstdruck der

11 Die DV D zu Webers Klarinettenquintett wurde in der erarbeiteten neuen Version nochmals vorgelegt und kostenlos an die Subskribenten der Ausgabe verteilt. Zu einem Vergleich mit der vorherigen Version vgl. Röwenstrunk, Daniel: Die digitale Version von Webers Klarinettenquintett. Ein Vergleich der Edirom-Versionen 2004 und 2008, in: Stadler, Peter / Veit, Joachim (Hg.), Digitale Edition zwischen Experiment und Standardisierung. Musik – Text – Codierung (Beihefte zu editio, 31), Tübingen 2009, S. 61–78. 12 Bohl, Benjamin Wolff / Röwenstrunk, Daniel / Veit, Joachim / Jacobsen, Philemon (Hg.): Carl Maria von Weber. Konzertante Werke für Klarinette und Orchester, Serie V, Bd. 6, Digitale Edition, Detmold / Paderborn 2011 (basierend auf der Edition von Frank Heidlberger in der 2011 erschienenen analogen Version der Sämtlichen Werke). 13 Da die zu parallelisierenden Takte in der Regel in den Instrumentalstimmen unterschiedlich breit sind, bleibt die Übersichtlichkeit nur in unmittelbarer Nähe dieser Zentralachse gewahrt; es kann jedoch jeder Takt an dieser Zentralachse positioniert werden.

Zum gegenwärtigen Stand und den Perspektiven digitaler Musikeditionen      | 121

Solostimme eines Weber-Klarinettenkonzerts die Menge und den Ort der Differenzen zum Autograph deutlich machen, schaltet man einfach eine zweite Schicht mit Markierungen hinzu (Abb. 2) und vermittelt dem Leser so deutlicher als viele Worte, wie groß der Anteil dieser Unterschiede ist und welche Art von musikalischen Details dabei betroffen sind. Auch Fremdeintragungen im Manuskript lassen sich auf diese Weise leicht nach Schreibern differenziert darstellen. Innerhalb von Quellenbeschreibungen können komplexere Sachverhalte – etwa Löschungen und Überschreibungen – durch (zum Beispiel in Photoshop bearbeitete) Farbfaksimiles verdeutlicht werden, wie überhaupt die Integration oder Verlinkung von Manuskriptausschnitten die Nachvollziehbarkeit gerade dieser sonst oft mühsam zu lesenden Beschreibungen wesentlich erleichtert.14 Hinsichtlich der Integration von Quellenabbildungen in eine Edition bieten die Edirom-Werkzeuge also inzwischen vierlei Möglichkeiten, und nach der Umstellung der Edirom von einer datenträgerbasierten Software auf eine webbasierte im Jahr 2012 lassen sich diese Möglichkeiten noch flexibler nutzen. Sie werden zur Zeit zum Beispiel eingesetzt in dem BM BF-Projekt Freischütz Digital15 und wurden erstmals öffentlich präsentiert in einer Anfang 2012 publizierten studentischen Edition der auf Texte Theo­dor Storms komponierten Fiedellieder des mit Johannes Brahms befreundeten Geigers Carl Louis Bargheer.16 Dort werden zum Beispiel die verschiedenen Entwicklungsstufen einzelner Lieder durch Abbildungen aus den verschiedenen Quellen in Verbindung mit am linken Bildschirmrand eingeblendeten Anmerkungen beschrieben. Dabei sind in den Einzelquellen zum Teil weitere Überarbeitungsvorgänge zu beobachten – erkennbar zum Beispiel an Bleistifteintragungen, Rasuren und Überschreibungen. Unterschiedliche Stadien der Textentwicklung können dabei durch farbige Hervorhebung von ausradierten Zwischenformen kenntlich gemacht werden. Aber letztlich braucht der Nutzer doch eine extrahierende Darstellung wie die normalisierte Wiedergabe (Abb. 3), bei der die Einzelstadien der Veränderung einer Melodie zeilenweise in Neusatz übertragen wurden – erst in dieser direkten Synopse kann die Art der Veränderungen rascher und besser verstanden werden. Die Entwicklung der Komposition ist an dieser Stelle zwar in der Edirom durch die (teils retuschierende) Abbildung aller Quellenfaksimiles noch halbwegs nachvollziehbar, aber eigentlich müssten die im Neusatz verdeutlichten vier 14 Es ist dabei sogar durch die Fenstertechnik möglich, Überlagerungen von Faksimiles zur Bestimmung übereinstimmender Notenzeilen-Rastrale in verschiedenen Quellen zu verwenden. 15 Vgl. www.freischuetz-digital.de; die Software wird hier zunächst zur internen Arbeit eingesetzt; eine erste Freischaltung von editorischen Teilen dieses Projekts ist für 2014 zu erwarten. Die Web-Version wird auch im Frankfurter OPE R A-Projekt genutzt, dort werden die Ergebnisse aber noch über einen Verlag als individuell zu installierende Software vertrieben, siehe dazu Betzwieser, Thomas (Music Edition) / La Salvia, Adrian (Text Edition) / Siegert, Christine (Editing Supervisor): Giambattista Casti. Antonio Salieri. Prima la musica e poi le parole. Divertimento teatrale in un atto (opera. Spektrum des europäischen Musiktheaters in Einzeleditionen 1), Kassel 2013. 16 Zu erreichen unter: www.edirom.de/llb-bargheer.de. Im Rahmen des studentischen Projekts konnten die Vorteile der Online-Version zwar genutzt, aber aus Zeitgründen selbstverständlich nicht in einer in idealer Weise auf den Benutzer zugeschnittenen Form umgesetzt werden.

122 |     Joachim Veit

2  Markierungen der Differenzen zum Autographen im Erstdruck der Klarinettenstimme von C. M. v. Webers Klarinettenkonzert Nr. 1 f-Moll (WeV N.11) (Ausschnitt Edirom)

Zum gegenwärtigen Stand und den Perspektiven digitaler Musikeditionen      | 123

3  Carl Louis Bargheer, Fiedellieder für Singstimme, Violine und Klavier, Nr. 2, T. 32–34 der Singstimme in den verschiedenen Überarbeitungsstadien

Hauptstadien durch eine Filmsequenz in und mit den Handschriften dargestellt werden, um sie dem Benutzer klarer vor Augen zu führen. An diesem Beispiel wird deutlich: Faksimiles sind etwas Statisches und um das, was darin einmal geschehen ist, sichtbar zu machen, um also den Schreibprozess wieder lebendig werden zu lassen, ist eigentlich eine Auflösung dieser Statik erforderlich. Und das zweite Problem wird durch die (in der Software einblendbare) Übertragung in Noten-Neusatz deutlich: Solange die Varianten einer Notenzeile oder auch hier die verschiedenen zeitlichen Entwicklungsstadien einer Melodie nur im Bild vorliegen, können sie nicht wirklich genutzt werden. Sie lassen sich weder in eine praktische Musiziervorlage portieren, noch lässt sich etwa – von der anderen Seite herkommend – im Computer nach bestimmten Formen dieser Varianten suchen. Die damit angedeutete Barriere zu überwinden, war eines der Ziele in der Endphase des Edirom-Projekts und gehört zu den entscheidenden Aufgaben im jetzt laufenden Freischütz-Digital-Projekt, denn erst dieser Schritt öffnet die Tür zu einer wirklich digitalen Edition.

124 |     Joachim Veit

Neue Möglichkeiten durch die Musikcodierungskonzepte von MEI Bei diesem Schritt geht es, vereinfacht gesagt, darum, dass Varianten nicht in einer bloß grafischen Form oder gar bloß umschreibend erfasst bleiben, sondern – um nutzbar zu sein – in den Computercode, der einen solchen Notensatz erzeugen kann, integriert werden. Damit würden die Prinzipien der Erfassung von Varianten, wie sie im Textbereich die Codierungen der Text Encoding Initiative T EI leisten, auf Musik übertragen. Genau dies bietet das seit einigen Jahren existierende M EI, das in Music Encoding Initiative aufzulösende musikalische Pendant der T EI. Dieses Format wurde zunächst von Perry Roland an der University of Virginia entwickelt und ist dank einer gemeinsamen Förderung durch die DFG und die amerikanische Partnerorganisation N E H (National Endowment for the Humanities) inzwischen in eine der T EI vergleichbare internationale Gemeinschaftsinitiative übergegangen – allerdings mit sehr viel bescheideneren Dimensionen als die T EI.17 In M EI wird nun gezielt versucht, Musiknotation für wissenschaftliche Zwecke durch X M L-Markup zu beschreiben und dabei möglichst die Phänomene in ihrer gesamten Breite, aber auch in jener notwendigen Offenheit zu erfassen, die durch die vielen Mehrdeutigkeiten musikalischer Zeichen entsteht. Dies gelingt dort am besten, wo das System musikalischer Zeichen noch nicht zu komplex, aber gleichzeitig bereits fixiert genug ist. Eine Note, wie wir sie kennen, ist in der Regel bereits zusammengesetzt aus einer Reihe von individuell festzuhaltenden Informatio­ nen, die nicht nur Tonhöhe und Dauer betreffen, sondern sowohl durch die Stellung im System als auch durch zahlreiche Artikulationsangaben, aber gegebenenfalls auch durch bestimmte historisch begrenzt geltende Regeln in ihrer Bedeutung modifiziert werden kann. Erinnert sei in diesem Kontext etwa an die sogenannten Appoggiatur-Regeln, die zum Beispiel bei einer melodisch absteigenden Gesangsphrase besagen können, dass die vorletzte von zweien, diese Phrase auf der gleichen Tonhöhe beschließenden Viertel­noten nicht wie notiert, sondern dem an drittletzter Stelle vorausgehenden Ton entsprechend erklingen soll – und die damit eine Differenzierung zwischen dem regulären pitch­name (im X M L-Code: ) und dem sogenannten gestural pitchname () erforderlich machen, also eine Unterscheidung zwischen notierter und klingender Tonhöhe.18 Das Codierungsformat M EI ist so leistungsfähig, dass solche Unterscheidungen unproblematisch bleiben, und der große Vorteil dieses Formats ist sein Zwang, Sachverhalte formalisiert genauestens zu beschreiben und dabei auch Unsicherheiten präzise zu artikulieren. Ferner können Varianten – statt in den Lesarten eines Kritischen Apparats – in dieser Codierung an Ort und Stelle als sogenannte readings ( innerhalb 17 Vgl. dazu die Website der Initiative: http://www.music-encoding.org, wo sich auch eine knappe Darstellung ihrer Geschichte findet. 18 Ein Beispiel aus der Wolfsschluchtszene (Nr. 10) in Webers Freischütz: Hier endet Max’ Phrase auf den Text „ich kann nicht rückwärts“ mit den drei Viertelnoten es1, d1, d1 (vgl. T. 203 f.). Durch die Appoggiaturregel wird aus dem vorletzten notierten d1 in der Ausführung ein klingendes es1.

Zum gegenwärtigen Stand und den Perspektiven digitaler Musikeditionen      | 125

eines Apparat-tags ( eingefügt werden. Liegen mehrere Fassungen vor, so kann später bei Bedarf zum Beispiel eine Fassung 2 durch Auslesen der readings von Quelle 2 problemlos wieder extrahiert werden. Auch komplexere Beispiele der Textentwicklung, wie in dem erwähnten Bargheer-Beispiel, lassen sich in einer solchen Codierung formalisiert an Ort und Stelle festhalten, indem die verschiedenen Textstadien sauber erfasst werden – in Abbildung 4 etwa ein mehrteiliger Substituierungsvorgang, der durch das Attribut „seq“ (sequence) in zeitlich strukturierten Schritten dargestellt werden kann: Demnach wird hier in einem ersten Schritt eine Note überschrieben (rend=“overwritten“) und dabei werden als Korrektur () drei Noten eingefügt; diese werden im nächsten Schritt wieder überschrieben () und mit Schritt 4 () durch zwei Noten ersetzt (Abb. 4).19 Man kann sich nun vorstellen, dass diese exakte Beschreibung in Noten quasi wörtlich in eine Sequenz von entsprechenden Notendarstellungen überführt werden könnte – und damit sind wir von der Vision einer Auflösung statischer Bilder in prozessierbare Codierungsformen nicht mehr weit entfernt. Was zur Zeit fehlt beziehungsweise noch in den Kinderschuhen steckt, ist die Visualisierung dieser Codierung – aber auch hier verläuft die Entwicklung rascher als noch vor wenigen Jahren zu erwarten war.

4  Sequentielle Codierung eines doppelten Überarbeitungsvorgangs in M E I

19 Es sei darauf hingewiesen, dass es sich hier um eine vereinfachte Darstellung handelt; die sinnvollste Form der Erfassung solcher Substitutionsvorgänge wird in der M E I-Community augenblicklich noch diskutiert.

126 |     Joachim Veit

Im Kontext unserer eigenen Arbeiten hat zum Beispiel Johannes Kepper im BM BF-Projekt Freischütz-Digital eine rudimentäre Visualisierung der M EI-Codierung im Kontext eines Korrekturlesetools entwickelt (Abb. 5). Dabei wird die Codierung für jeweils eine Zeile der am oberen Rand sichtbaren faksimilierten Partitur (a) im unteren Bildbereich angezeigt (c) und in der Mitte im Neusatz „gerendert“ (b). Durch Klick auf eine Note (wie etwa die in der Abbildung markierte) wird die entsprechende Codierung im unteren Fenster hervorgehoben und kann dann gegebenenfalls im Angesicht der originalen Vorlage korrigiert werden.20 Weitere – jedoch unmittelbar aus dem M EI-Code erzeugte – Darstellungsmöglichkeiten bietet der sogenannte M EI-Score-Editor M EISE , der innerhalb des Projekts TextGrid von Julian Dabbert entwickelt wurde21 und momentan im BM BF-Projekt DA R I A H-DE durch Nikolaos Beer weitergeführt wird beziehungsweise künftig in eine Web-Anwendung portiert werden soll.22 Hier können Varianten von Quellen, die als „readings“ () codiert sind, in einer groben Voransicht dargestellt werden. Generell wachsen die Darstellungsprobleme mit dem Fortschreiten der Entwicklung der Notation zu einer immer mehr Parameter umfassenden Symbolsprache. Daher konnten bisher die besten Umsetzungsformen im Bereich der älteren Musik erreicht werden, wo in jüngster Zeit ein wahrer Boom an Entwicklungen zu verzeichnen ist.23 Die Komplexität der Renderingprozesse für Musik führt dazu, dass die Kapazitäten einzelner Projekte in der Regel kaum ausreichen, um Codierungen in einen wirklich anschaulichen und ästhetisch halbwegs zufriedenstellenden Notensatz zu überführen. Wichtig bleibt aber, dass solche Entwicklungen unter den Augen der Fachwissenschaftler geschehen, damit wirklich brauchbare Werkzeuge entstehen und nicht Marktbedürfnisse zur einseitigen Berücksichtigung kommerziell verwertbarer Lösungen führen.

20 Nach eingehendem Experimentieren mit den Darstellungsmöglichkeiten, die auf einer Konvertierung von M E I-Daten in das A BC-Format beruhen, wurde das Rendering auf die Basisdaten einer Note beschränkt, während die meisten der sekundären Parameter (etwa Bogensetzung) durch ein zweites Korrekturtool abgedeckt werden. 21 Vgl. www.textgrid.de. Dort steht der Editor als Plug-In für die Software TextGridLab zur Verfügung. 22 Vgl. https://de.dariah.eu/mei-score-editor; bedingt durch die Entwicklung unter der in TextGrid genutzten Eclipse RC P ergaben sich mancherlei Restriktionen für die Darstellungsmöglichkeiten. In der geplanten zweiten Phase des DA R I A H-Projekts soll das M E I SE-Tool daher zu einer Webanwendung im DA R I A H-Portal umgebaut werden. 23 Verwiesen sei z. B. auf die Beiträge von Morent, Stefan / D umitrescu, Theodor / van Berchum, Marnix, in: Stadler, Peter / Veit, Joachim (Hg.), Digitale Edition zwischen Experiment und Standardisierung. Musik – Text – Codierung (Beihefte zu editio 31), Tübingen 2009, ferner auf die M E I verarbeitende Aruspix-Software von Laurent Pugin (genutzt z. B. für die neue Luca Marenzio-Edition MODE , www.marenzhio.org) bzw. auf die Entwicklungen an der McGill University in Montreal (ddmail.music.mcgill.ca). Jüngst haben Zoltán Kőmíves und Raffaele Viglianti am Maryland Institute for Technology in the Humanities (M I T H) eine weitere Darstellungsmöglichkeit mit Hilfe von VexFlow verwirklicht (http://mith.umd.edu/mei-to-vexflow/). Vgl. zu diesem Komplex auch http://music-encoding.org/activities/projects).

Zum gegenwärtigen Stand und den Perspektiven digitaler Musikeditionen      | 127

5  Korrekturlese-Werkzeug im Freischütz-Digital-Projekt mit Visualisierung der M E I-Codierung

Kontextualsierung musikalischer Phänomene Wenigstens in Kürze seien in dieser Beschreibung noch einige Aspekte erwähnt, die die Verbindung von Musik mit Texten betreffen. Zu einem wesentlichen Teil ist damit eine Kontextualisierung der musikalischen Phänomene gemeint, nicht die direkte Verbindung von Musik und Text zum Beispiel in Vokalwerken. In diese letztere, engere Verbindung gehört im übrigen auch der Bereich der Oper, in der Musik mit den Textanteilen, also der Wiedergabe von Gesangs-, aber auch Zwischen- und Nebentexten eine Einheit bildet. Das frühere Bayreuther, inzwischen Frankfurter Akademieprojekt OPER A von Thomas Betzwieser beginnt in diesem Jahr mit der Veröffentlichung einer Hybrid-Edition, die die lange vernachlässigte Gattung des Librettos neu in beispielhafte Editionen von musikalischen Bühnenwerken integrieren wird.24 Die Detmolder Edirom-Werkzeuge wurden dazu so erweitert, dass die Libretto­ edition sowohl als selbständige Textedition nutzbar ist als auch ihre Verbindung mit den musikalischen Quellen deutlich wird. Der Weg führt daher nicht nur von der Musik zum Text, sondern aus den Textabdrucken heraus auch zur Musik, indem die im Libretto am Rande als Icons platzierten Anmerkungen nach dem Öffnen auch die zugehörigen 24 Vgl. die in Anm. 15 erwähnte Edition von Prima la musica e poi le parole. Der digitale Anteil ist nur für Subskribenten der Ausgabe zugänglich und muss auf dem PC des Nutzers installiert werden.

128 |     Joachim Veit

Details der Musikquellen präsentieren, die zu größeren Ausschnitten oder kompletten Partiturseiten erweiterbar sind. Was hier als Verbindung von T EI-Textcodierungen mit M EI-Metadaten funktioniert, aber bei den Noten auf die abschnittsweise Integration der Quellendigitalisate beschränkt bleibt, soll im Projekt Freischütz Digital (FreiDi) durch eine Verknüpfung mit der M EI-Musikcodierung selbst erweitert werden. Sowohl OPER A als auch FreiDi gehen dabei durch die Verbindung von Text und Musik konzeptionell über das hinaus, was auf dem Gebiet der Librettoedition etwa die in Kürze mit ersten Texten online gehende Digitale Mozart-Edition in Salzburg (auf der Grundlage eigener X M L-Codierungsformen)25 oder das italienische Projekt Varianti all’opera der Universitäten Mailand, Padua und Siena26 beabsichtigen – dort stehen Vergleiche von Textfassungen (unabhängig von der Musik) im Mittelpunkt, die sich mit diesen Mitteln teils sehr komfortabel handhaben lassen. Die andere, mit dem Begriff Kontextualisierung bezeichnete Einbindung von Texten, aber auch von Bildmaterial, kann zum Beispiel bei der Karlsruher Max-Reger-Werkausgabe beobachtet werden. Unter der Rubrik „Umfeld der Werke“ bauen die Mitarbeiter der Reger-Ausgabe eine von Band zu Band kumulierte kleine Enzyklopädie auf, in der zum Beispiel Briefe oder Postkarten in Faksimile und Übertragung abgerufen werden können, ebenso Orgeldispositionen oder Beschreibungen und Abbildungen der Orgeln, aber genauso Biographien der Interpreten, die mit Reger zusammengearbeitet haben und vieles andere mehr.27 In ähnlicher Form sollen die allesamt in T EI codierten Textteile auf der Website der Weber-Gesamtausgabe28 als „Kontext“ an die digitale Freischütz-Edition andockbar sein, d. h. Briefe, Tagebücher, Schriften, Aufführungsbesprechungen, Werkrezensionen, Archivmaterialien usw., die sich in Beziehung zu Werk oder Komponist setzen lassen. Peter Stadler hat für diese Website eine an soziale Netzwerke angelehnte Struktur geschaffen, in der das Netzwerk dieser Texte so abgebildet ist, dass Perspektivenwechsel möglich werden, indem zum Beispiel verschiedene Akteure jeweils mit den ihnen zugewiesenen Objekten in den Mittelpunkt gerückt werden können. Dadurch wird rein hypothetisch die Zentriertheit des Projekts auf Weber aufgehoben, auf jeden Fall aber deutlich, dass ein solches Textkorpus nach allen Seiten offen und anschlussfä-

25 Die ersten Libretti werden Anfang 2014 zugänglich unter dme.mozarteum.at. Die beeindruckende Präsentation erlaubt u.a. umfangreiche und bequeme Vergleiche zwischen Textfassungen bis hin zu metrischen Analysen. Das Konzept wurde vorgestellt von Iacopo Cividini, Adriana De Feo und Franz Kelnreiter beim Internationaler Mozart-Kongress, der vom 27. bis 30. September 2012 in Salzburg stattfand. 26 http://variantiallopera.it; über die hinter den gut gestalteten Seiten genutzten Techniken bzw. Codierungen ist leider auf der Website nichts zu erfahren. 27 Diese Hybrid-Ausgabe steht unter der Leitung von Susanne Popp und Thomas Seedorf in Zusammenarbeit mit Thomas A. Troge. Die hauptamtlichen Mitarbeiter (Alexander Becker, Christopher Grafschmidt, Stefan König und Stefanie Steiner-Grage) geben die Bände in der Regel gemeinsam heraus. Bislang sind in der Reihe der Orgelwerke zwischen 2010 und 2013 vier Bände erschienen; vgl. dazu http://www.max-reger-institut.de/de/pub_dmri.php. 28 http://www.weber-gesamtausgabe.de.

Zum gegenwärtigen Stand und den Perspektiven digitaler Musikeditionen      | 129

hig bleibt, ja dass durch die Integration von Texten weiterer Autoren perspektivisch ein umfassenderes Bild eines historischen Zeitfensters oder eines regional bestimmten Kulturbereichs entstehen könnte.29 Die Integration dieser Objekte einschließlich der laufenden Aktualisierungen ist erst durch die Umstellung von Edirom auf eine Web-basierte Software möglich geworden. So lange die Editionen als „standalone-Version“ auf eine DV D gepresst werden mussten – wie etwa bei der erwähnten Hybrid-Edition der Klarinettenkonzerte Webers –, wurden zum Beispiel Brieftexte von der Website auf die DV D kopiert und damit aus dem weiteren Optimierungs- oder Anreicherungsprozess herausgenommen. Die webbasierte Version macht die Editionen nicht nur im Hinblick auf die erwähnten Aktualisierungen flexibler. Insbesondere die nahtlosere Integration des X M L-Editors in die Software brachte für die tägliche Arbeit erhebliche Fortschritte. So lässt sich nun parallel zur Textanzeige auf der Website deren Datenbasis in einem X M L-Editor wie Oxygen standortunabhängig bearbeiten und nach einem Speichervorgang der Eingriff unmittelbar sichtbar machen. Das gilt selbstverständlich auch für die Apparateinträge zu den Notentexten, und es hilft, Fehler rascher zu erkennen und zu beseitigen. Zudem kann nun flexibler und ressourcen­ schonender auf externe Websiteninhalte zurückgegriffen werden, sofern dies rechtlich unproblematisch ist.30 Eine kompliziertere Form der ressourcenschonenden Einbindung externer Faksimiles ist auch in der Edirom-Software bereits angedacht: Dabei geht es darum, die Kartografie-Daten (also zum Beispiel die Taktkoordinaten) auf die ­Digitalisate eines Bibliotheksservers zu projizieren und dadurch Einzeltakte abrufen zu können. Ein solches ferngesteuertes Verfahren würde die lokalen Festplatten nicht länger mit unnötigen Doppelungen von Digitalisaten belasten, und auch aus rechtlichen Gründen wäre jene Lösung sicherlich sinnvoller – aller denkbaren Performance-Probleme zum Trotz. Schließlich sei noch ein letzter, eher technischer Aspekt genannt: die Integration von Audio-Daten, die in einer Musikedition bislang keine Rolle spielten, die aber spätestens mit der Edition von Werken des 20. Jahrhunderts akut wird. Im Verbundprojekt Freischütz Digital, in dem es darum geht, ein genuin digitales Editionskonzept zu entwickeln und umzusetzen, wird der Projektpartner Meinard Müller (International Audio Labs Erlangen) erstmals eine Verbindung von Notencodierung und historischen Aufnahmen sowie Möglichkeiten des Interpretationsvergleichs in einer kritischen Edition umsetzen.31 Dabei geht es nicht nur um eine Segmentierung des horizontalen Verlaufs einer

29 Einen ersten Schritt in Richtung solcher Verknüpfungen im Bereich von Briefeditionen geht das Trierer Projekt „Vernetzte Korrespondenzen. Visualisierung von mehrdimensionalen Informationsstrukturen in Briefkorpora“, vgl. http://kompetenzzentrum.uni-trier.de/de/projekte/projekte/ briefnetzwerk/. 30 Im studentischen Bargheer-Projekt wurden etwa Übertragungen von Briefen des Detmolder Kapellmeisters August Kiel an Louis Spohr in Kassel mit den Faksimiles der Universitätsbibliothek Kassel / Landesbibliothek und Murhardtschen Bibliothek der Stadt Kassel verlinkt (vgl. http:// edirom.de/llb-bargheer; dort unter „Handschriftliche Dokumente / Sonstige Institutionen“). 31 Vgl. dazu http://freischuetz-digital.de/work-packages.html.

130 |     Joachim Veit

Audio-Aufnahme, sondern es soll auch versucht werden, vertikale Segmentierungen durchzuführen, etwa um im Idealfall bestimmte Instrumente oder Instrumentengruppen in der Audioaufnahme hervorzuheben, so dass eine einfachere Wahrnehmung und Vergleichbarkeit spezifischer Details möglich wird. Das in diesem Projekt zentrale Thema der Varianz wird dadurch nicht nur im Bereich der schriftlichen, sondern auch der akustischen Überlieferung in den Fokus genommen.

Bilanz und Perspektiven Im Anschluss an diesen, auf Projekte im eigenen Umkreis zentrierten Überblick über die Entwicklung beziehungsweise den Stand rechnergestützter Techniken zur Unterstützung der Arbeit von Musikeditoren soll nun noch der Blick auf die im Titel des Beitrags genannten zukünftigen Perspektiven gelenkt werden. Dabei sind einige Punkte anzusprechen, die auf den ersten Blick sehr fachspezifisch anmuten mögen, die aber vermutlich doch zum Teil verallgemeinert werden können. Zunächst fällt in der bisherigen Beschreibung auf, dass sich offensichtlich der Inhalt dessen, was wir bislang als „Edition“ bezeichnet haben, wandelt. Das Erstellen eines „Edierten Textes“, wie er auch in der Musikwissenschaft bisher oberstes Gebot war, scheint angesichts einer sich immer stärker ausweitenden „Kontextualisierung“ in den Hintergrund zu treten und vielleicht sogar aus dem Blick zu geraten. Selbst wenn man die Krise des Werkbegriffs und den Wandel der Editionswissenschaften spätestens seit den 70-er Jahren des vorigen Jahrhunderts berücksichtigt und angesichts der historisch zu verortenden Texte lieber im Plural von „Edierten Texten“ spricht, rücken vielfältige andere Informationen diese Texte in ein veränderndes Licht. Dieses Wuchern von Informationen um die Texte herum führt andererseits dazu, dass man die entstehenden Datenberge eher mit der Vorstellung eines strukturierten „Archivs“ als mit der einer doch immer auswählenden „Edition“ verbindet. Frans Wiering hat vor einigen Jahren ein Modell digitaler Musikeditionen vorgestellt, das dieser Vorstellung sehr nahe kommt. 32 Er spricht in Anlehnung an Jerome McGann von einem „kritischen Archiv“, das aus virtuellen Kopien der Quellen, Verbindungen zwischen diesen Quellen, Anmerkungen mit kritischen oder Kontextinformationen und analytischen Such- und Vergleichstools besteht.33 Dieses kritische Archiv „documents the genesis, transmissions and reception of a text through the material instances by which it survives“.34 Wierings „multidimensional model for a digital 32 Wiering, Frans: Digital Critical Editions of Music: A Multidimensional Model, in: Crawford, Tim / Gibson, Loma (Hg.): Modern Methods for Musicology. Prospects, Proposals, and Realities, Farnham 2009, S. 23–45. 33 Ebd., S. 25 f.: „The solution McGann proposes is HyperEditing, the creation of critical, fully networked hypermedia archives. […] A critical archive consists of virtual copies of the sources, connections between these, annotations with critical and contextual information, and analytical tools for searching and comparing the materials.“ 34 Ebd., S. 26.

Zum gegenwärtigen Stand und den Perspektiven digitaler Musikeditionen      | 131

critical edition of music“35 bezieht neben den Digitalisaten auch Codierungen der Quellen mit ein und reichert diese durch umfangreiche Annotationen und Links zu verwandten Werken an. Die „Edition“ besteht letztlich aus der Gesamtheit der Objekte und ihrer Beziehungen in einem solchen „Archivraum“, der Nutzer legt sich durch diesen Raum aber eigene Lesepfade und stellt sich so gewissermaßen seine Edition zusammen. Das Bereitstellen von Objekten samt ihren umfassenden Verknüpfungsmöglichkeiten ist insofern wichtiger als die subjektive Sicht und Auswahl der Objekte für eine bestimmte Edition oder einen individuellen Lesevorgang, die beide stets dem Augenblick geschuldet sind und – wenn sie zur verbindlichen Deutung erklärt werden – etwas Statisches, der sich wandelnden Historie Widersprechendes an sich haben. Die Einzel­ edition verliert also in diesem Kontext an Bedeutung. Dies sei aus einer anderen Perspektive heraus erläutert, die sich aus der Beobachtung des Umgangs mit den Werkzeugen der Edirom-Software ergeben hat: Bei den Kolleginnen und Kollegen, die mit dieser Software arbeiten, verschiebt sich durch die Integration der Quellen in die Edition im Laufe der Zeit die Wahrnehmung und das Erkenntnis­ interesse: In traditionellen Editionen mussten Details etwa der handschriftlichen Quellenüberlieferung oft unterdrückt werden, um den Leser nicht mit Informatio­nen zu überfrachten, die dieser ohnehin nicht nachvollziehen kann, weil er nur die fertige Edition vor sich hat. Dabei war die Versuchung groß, auch Dinge zu verschweigen, die ohnehin aufgrund mangelnder Nachvollziehbarkeit nur verwirren oder beim Erfüllen der Forderung nach einem eindeutigen Text – zumindest für die musikalische Praxis – stören. Der eigene Zugang zu den Quellen in einer digitalen Edition aber offenbart oft ein sehr viel reichhaltigeres Bild, als uns die verbalen Beschreibungen Kritischer Berichte suggerieren. Ja, dieses Bild hilft in vielen Fällen zu einem tiefergehenden Verständnis, aber es kann umgekehrt auch das Verstehen erschweren, indem es sich hartnäckig eindeutigen Auslegungen widersetzt. Zwei kleine, auch für Nicht-Notenkenner sicherlich nachvollziehbare Beispiele dazu – das erste aus den Editionsarbeiten an einem Kammermusikwerk Webers stammend (Abb. 6a): Es geht um die Frage, ob an der durch Pfeil beziehungsweise Stern bezeichneten Stelle im letzten Satz von Webers Violin­sonate Nr. 3 ein Akzidens vor der Note d1 steht oder nicht?36 Die hier repetierten Akkorde sind eigentlich nichts anderes als eine Wiederholung der Harmonie zu Beginn dieses Taktes in einer anderen Lage. Blickt man ins Autograph (Abb. 6b) sieht man an dieser Stelle ein Erniedrigungszeichen „♭“, das aber nicht genau vor dem Notenkopf steht, sondern irgendwie zwischen den beiden unteren Notenköpfen. Wofür gilt es nun? Man kann argumentieren, ein „♭“ stünde ja schon vor der mittleren Note des ersten Akkords im Takt, müsse also nach den geltenden musikalischen Regeln nicht wiederholt werden und folglich gelte das Vorzeichen für den oberen Ton, also sei dieser als des zu interpretieren. Aber nach 35 Ebd., S. 30, Figure 3.2. 36 Vgl. hierzu Fukerider, Andreas / T heis, Claudia (Hg.): Six Sonates progressives für Violine und Klavier (WeV P.6), in: Carl Maria von Weber, Sämtliche Werke, Serie VI, Bd. 1, Mainz 2013, bes. S. 70.

132 |     Joachim Veit

6  Unterschiedliche editorische Interpretationen einer undeutlich notierten Akzidentiensetzung im Autograph von C. M. Webers Violinsonate D-Dur (WeV P.6/3)

Zum gegenwärtigen Stand und den Perspektiven digitaler Musikeditionen      | 133

den gleichen musikalischen Regeln wäre es empfehlenswert, dieses Vorzeichen in dieser Situation zu Beginn des nächsten Takts aufzuheben (durch „♮“) – das ist jedoch nicht der Fall. Andererseits: Wenn das Akzidens für die untere Note gilt (und dafür könnte das ebenfalls zu hoch notierte „♭“ im Takt zuvor sprechen), warum sollte Weber das Akzidens wiederholen, wo es doch schon am Taktanfang steht? Die Erfahrung lehrt, dass er dies zwar durchaus öfter tut und auch die zu hohe Notierung bei ihm häufig ist. Was aber ist die Konsequenz? Der Stecher gibt im Erstdruck (Abb. 6c) ein des wieder, die spätere Titelauflage mit den gleichen Platten (Abb. 6d) beseitigt das des – aber das geschieht erst einige Jahre nach Webers Tod. Was ist zu tun? Steht nur etwas zu dieser Frage im Kritischen Bericht, wird an dieser Stelle wohl niemand das Bedürfnis haben, dort nachzusehen, wenn er nicht wie hier dazu aufgefordert wird. Man kann dieses Problem im Kritischen Bericht verbal erläutern, einsichtiger wird es dem Leser aber, wenn er die Quellen selbst in Augenschein nehmen kann – er findet dann die Begründung für die Abweichung zwischen den beiden Drucken in der Uneindeutigkeit des Autographs und er findet vielleicht sogar selbst Argumente für eine eindeutige Lösung, falls es diese hier gibt. Zugleich zeigt dieses Beispiel aber auch, dass man Faksimiles der handschriftlichen Quellen als Begründung nur dann sinnvoll heranziehen kann, wenn man auch mit den Schreibgewohnheiten des Komponisten vertraut ist – Bilder allein beziehungsweise wörtlich genommen können durchaus zu eklatanten Fehlschlüssen führen. Ein zweites Beispiel illustriert vielleicht noch deutlicher die Richtung, die sich hier andeutet: Am Anfang des zweiten Satzes von Webers 1. Klarinettenkonzert breiten die Streicher unter der Klarinettenstimme einen Klangteppich aus nahezu durchlaufend parallelen Achtelbewegungen in den Begleitstimmen aus. 37 Die Bögen, die dazu gesetzt sind, sollten entsprechend dieser Parallelbewegung eigentlich ebenso parallel in allen Stimmen gesetzt sein (also an den gleichen Stellen beginnen und enden). In Webers Autograph findet sich aber stattdessen ein Gewirr von in den Stimmen an unterschiedlicher Position beginnenden oder endenden und zudem unterschiedlich langen Bögen, ja teilweise sind Bögen sogar überlappend über und unter dem System gesetzt. In diesem Falle existiert ein zweites Autograph des Komponisten, das in der Bogensetzung ähnlich chaotisch verfährt, dabei aber keineswegs mit dem Chaos des ersten Autographs übereinstimmt.38 Was bedeutet das? Man wagt es bei auf Akuratesse bedachten Editoren kaum auszusprechen: Offensichtlich ist völlig gleichgültig wie diese Bögen notiert sind! Wir nehmen also hier Zeichen – die Bögen – in einer Quelle wahr und diese widersprechen dem, was wir mit diesen Zeichen normalerweise verbinden: Ein unter einem Ab- oder Aufstrich der Streicher zu verwirklichendes legato der so bezeichneten Noten 37 Vgl. hierzu: Heidlberger, Frank (Hg.): Carl Maria von Weber. Sämtliche Werke, Serie V, Bd. 6: Konzertante Werke für Klarinette, Mainz 2010, S. 82 ff.; der Anfang der Bogensetzung in Autograph 1 ist in Abb. 7a wiedergegeben. 38 Zur näheren Beschreibung vgl. ebd., S. 357. In ähnlichen Varianten taucht das hier beschriebene Problem an vielen anderen Stellen auf, vgl. dazu Veit, Joachim: Es bleibt nichts, wie es war – Wechselwirkungen zwischen digitalen und ‚analogen‘ Editionen, in: editio 24 (2010), S. 37–52, bes. S. 39 f.

134 |     Joachim Veit

7  Zwei mögliche Lösungen für die Wiedergabe der Bogensetzung der Streicher zu Beginn von Satz II in C. M. v. Webers 1. Klarinettenkonzert

mit anschließendem Wechsel der Bogenrichtung. Die Zeichen hier sind aber nur so zu erklären, dass ein immerwährendes, unkontrolliert wechselndes legato-Spiel gemeint ist und offensichtlich ein gleichzeitiger Wechsel des Bogenstriches in allen Stimmen – der musikalisch als kleiner Einschnitt wahrgenommen würde – vermieden werden soll. Der Klangteppich soll vermutlich ohne sicht- oder hörbare Nahtstellen durchgewebt bleiben. Welche Konsequenzen man hieraus für den Neusatz der Edition ziehen soll, scheint fraglich (vgl. Abb. 7): Man kann die Bögen so wiedergeben, wie sie dastehen (Abb. 7a) – aber natürlich nur nach einem der beiden Autographe. Wenn die Bogensetzung aber schlichtweg nur ein durchgängiges legato bezeichnen soll, könnte nach einem Bogen­ beginn die Fortsetzung auch einfach durch die verbale Anweisung „sempre legato“ fortgesetzt werden (Abb. 7b) – dabei verliert man jedoch das Suggestive der Überlappungen, die das Einschnittslose dieser sanft pulsierenden Begleitung andeuten. Ein Editor könnte an dieser Stelle aber auch das Interesse an einer Wiedergabe im Neusatz verlieren, weil er in den Handschriften plötzlich spannende Phänomene entdeckt, die in Neueditionen entweder durch Nivellierung zugedeckt oder schlichtweg überhaupt nicht erwähnt sind. Und es überfällt ihn an dieser, aber auch an zahlreichen anderen Stellen ein neues Interesse an Phänomenen der Schriftlichkeit – sei es im Handschriftlichen, sei es in der wesentlich durch Fragen des Herstellungsprozesses oder der Materialität mitbedingten gedruckten Überlieferung. Erstmals bieten sich hier durch die

Zum gegenwärtigen Stand und den Perspektiven digitaler Musikeditionen      | 135

wachsende digitale Verfügbarkeit von Vergleichsmaterialien neuartige Möglichkeiten, den dabei entdeckten Fragestellungen auch fruchtbar nachzugehen.

Künftige Entwicklungen Hier stellt sich nun die Frage nach der künftigen Entwicklung: Ich bin überzeugt davon, dass der Wandel zur digitalen Musikedition mit einem ähnlichen Wandel verbunden sein wird, wie wir ihn in der Musikpraxis durch die Diskussion um die sogenannte historische Aufführungspraxis erlebt haben. Das durch die Digitalisierung beförderte neue Interesse an Grundsatzfragen und an Phänomenen der schriftlichen Überlieferung wird zu einer Neubewertung vieler Notationseigentümlichkeiten beitragen, zugleich wird die Musikwissenschaft aber nach und nach auch von neuartigen Auswertungsmöglichkeiten großer Datenkorpora vielfältig profitieren können. Letzteres wird aber Zeit brauchen, denn große Datensammlungen – etwa in Form codierter Musik – gibt es, zumindest was tiefenerschließende Codierungen betrifft – so gut wie nicht. Die Musikwissenschaft hat zwar mit dem internationalen Quellenlexikon R ISM 39 eine weltweite Erfassung musikalischer Quellen verwirklicht, die es so in keiner der anderen Textwissenschaften gibt, in Hinsicht auf die Durchdringung dieses Materials aber steht sie noch in den Anfängen. Es mögen maximal fünf bis acht Prozent dieser Quellen mittlerweile digitalisiert sein, in einer maschinenverarbeitbaren codierten Form liegt vermutlich nicht einmal ein Prozent davon vor. Und die eigentliche wissenschaftliche Arbeit fängt ja traditionell erst jenseits des Zugänglichmachens solcher Quellen an, auch wenn diese Trennung bei digitaler Erschließung so nicht mehr gilt. Jedenfalls erscheint angesichts des Riesenbergs vor uns liegender Aufgaben eine effektivere Zusammenarbeit aller Beteiligten dringlich geboten. Virtuelle Forschungsumgebungen können hierbei eine wichtige Funktion übernehmen. Die Musikwissenschaft hat bisher keine eigene virtuelle Forschungsumgebung entwickelt, allenfalls eine kleine Werkzeugsammlung, um erste Schritt in diese Richtung zu unternehmen. Wir werden wahrscheinlich in einigen Jahren das belächeln, was wir heute tun – aber wir müssen dringend weiter daran arbeiten, damit wir dann in einigen Jahren auch wirklich amüsiert schmunzeln können!

Literatur Betzwieser, Thomas (Music Edition) / La Salvia, Adrian (Text Edition) / Siegert, Christine (Editing Super­ visor): Giambattista Casti. Antonio Salieri. Prima la musica e poi le parole. Divertimento teatrale in un atto (opera. Spektrum des europäischen Musiktheaters in Einzeleditionen 1), Kassel 2013. Bohl, Benjamin Wolff / Röwenstrunk, Daniel / Veit, Joachim / Jacobsen, Philemon (Hg.): Carl Maria von Weber. Konzertante Werke für Klarinette und Orchester, Serie V, Bd. 6, Digitale Edition, Detmold / Paderborn 2011.

39 Répértoire Internationale des Sources Musicales; vgl. ausführlicher zu der seit 1952 tätigen Organisation http://www.rism.info.

136 |     Joachim Veit

Crawford, Tim / Gibson, Loma (Hg.): Modern Methods for Musicology. Prospects, Proposals, and Realities, Farnham 2009. Danuser, Hermann / Plebuch, Tobias (Hg.): Musik als Text. Bericht über den Internationalen Kongreß der Gesellschaft für Musikforschung Freiburg im Breisgau 1993, Bd. 1: Hauptreferate, Symposien, Kolloquien, Kassel 1998. Fukerider, Andreas / Theis, Claudia (Hg.): Six Sonates progressives für Violine und Klavier (WeV P.6), in: Carl Maria von Weber, Sämtliche Werke, Serie VI, Bd. 1, Mainz 2013. Heidlberger, Frank (Hg.): Carl Maria von Weber. Sämtliche Werke, Serie V, Bd. 6: Konzertante Werke für Klarinette, Mainz 2010. Kepper, Johannes / Schnieders, Ralf: Digitale Edition des Quintetts op. 34, in: Allroggen, Gerhard / Holtsträter, Knut / Veit, Joachim (Hg.), Carl Maria von Weber. Sämtliche Werke, Kammermusik mit Klarinette, Serie VI, Bd. 3, Mainz 2005. Röwenstrunk, Daniel: Die digitale Version von Webers Klarinettenquintett. Ein Vergleich der EdiromVersio­nen 2004 und 2008, in: Stadler, Peter / Veit, Joachim (Hg.), Digitale Edition zwischen Experiment und Standardisierung. Musik – Text – Codierung (Beihefte zu editio, 31), Tübingen 2009, S. 61–78. Schnieders, Ralf: Neue Medien in der Editionswissenschaft. Die Problematik des kritischen Berichts bei der Edition musikalischer Werke, dargestellt am Beispiel des Klarinettenquintetts von Carl Maria von Weber. Schriftliche Hausarbeit vorgelegt im Rahmen der Ersten Staatsprüfung für das Lehramt für die Sekundarstufe I und II in Musik, Detmold 2002. Stadler, Peter / Veit, Joachim (Hg.), Digitale Edition zwischen Experiment und Standardisierung. Musik – Text – Codierung (Beihefte zu editio 31), Tübingen 2009. Veit, Joachim: Es bleibt nichts, wie es war – Wechselwirkungen zwischen digitalen und ‚analogen‘ Editio­ nen, in: editio 24 (2010), S. 37–52. Wiering, Frans: Digital Critical Editions of Music: A Multidimensional Model, in: Crawford, Tim / Gibson, Loma (Hg.): Modern Methods for Musicology. Prospects, Proposals, and Realities, Farnham 2009, S. 23–45.

Internet-Ressourcen http://dme.mozarteum.at https://de.dariah.eu/ https://de.dariah.eu/mei-score-editor http://www.edirom.de http://edirom.de/llb-bargheer http://www.freischuetz-digital.de http://freischuetz-digital.de/work-packages.html http://kompetenzzentrum.uni-trier.de/de/projekte/projekte/briefnetzwerk/ https://www.marenzio.org http://mith.umd.edu/mei-to-vexflow/ http://www.music-encoding.org http://music-encoding.org/activities/projects http://max-reger-institut.de/de/reger-werkausgabe/ http://www.ocve.org.uk/ http://www.rism.info http://www.tei-c.org/http://www.textgrid. de http://variantiallopera.it http://www.weber-gesamtausgabe.de

Autorenverzeichnis

Brennecke, Andreas, Dipl.-Ing., Dipl.-Inform. Wissenschaftlicher Mitarbeiter im Zentrum für Informations- und Medientechnologien der Universität Paderborn; Dipl.-Ing. der Fachhochschule Braunschweig / Wolfenbüttel und Dipl.-Informatiker der Universität Paderborn; Forschungstätigkeit am Nixdorf Institut Paderborn in den Bereichen Geschichte der Informatik, Software-Ergonomie und E-Learning; Arbeitsgebiete: Datenschutz und Einsatz neuer Medien in Lehr-, Lernund Forschungsprozessen. – Veröffentlichungen: zus. mit G. Oevel / A. Strothmann: Vom Studiolo zur virtuellen Forschungsumgebung, in: P. Müller / B. Neumair / G. Dreo Rodosek (Hg.): 4. DF N-Forum Kommunikationstechnologien – Beiträge der Fach­ tagung 20. Juni bis 21. Juni 2011 Bonn. Lecture Notes in Informatics (L N I), P-187, 2011, S. 69–78; zus. mit S. Finke / G. Oevel / A. Roth: Dienste-Infrastrukturen für eLearning – Konzeption, Aufbau und Betrieb, in: W. Hauenschild / D. M. Meister / W. Schäfer (Hg.): Hochschulentwicklung innovativ gestalten. Das Projekt Locomotion an der Universität Paderborn, 2010, S. 41–56. Franke, Michael, Dipl.-Soz. Bereichsleiter Collections, Max Planck Digital Library, München; seit 2014: Lehrauftrag für Forschungsdatenmanagement, F H V R München; Studium der Soziologie, Sozial­ psychologie, Informatik an der L M U München; Arbeitsschwerpunkte: Publikationsund Forschungsdatenmanagement, wissenschaftliche Software, Open Science. Hartmann, Doris Annette, M.A. 2006–2014 wissenschaftliche Mitarbeiterin am Kompetenzzentrum für Kulturerbe: materiell – immateriell – digital an der Universität Paderborn; Studium der Kunstgeschichte und Anglistik / A merikanistik an der Universität Halle-Wittenberg; Arbeitsschwerpunkte: Kunst 20. Jahrhundert, bes. der DDR und Mittelosteuropas; Digital Humanities. – Veröffentlichungen: Concrete Art in the GDR , Poland and Hungary, in: J. Bazin u.a. (Hg.), Art Beyond Borders. Artistic Exchange in Communist Europe (1945– 1989), 2016, S. 201–209; zus. mit A. Oberhoff: Kulturerbe digital – Bewahrung und

138 |     Autorenverzeichnis

Erschließung im virtuellen ‚Studiolo‘, in: C. Y. Robertson-von Trotha / R. H. Schneider (Hg.), Digitales Kulturerbe: Bewahrung und Zugänglichkeit in der wissenschaftlichen Praxis (Kulturelle Überlieferung – Digital 2; K I T Scientific Publishing), 2015, S. 145– 157 (open access: http://www.zak.kit.edu/2643.php). Keil, Reinhard, Prof. Dr.-Ing. Seit 1992 Hochschullehrer, Heinz Nixdorf Institut und Institut für Informatik, Universität Paderborn; Studium der Elektrotechnik in Siegen und der Informatik in Berlin; 1985 Promotion (Softwaretechnik) und 1990 Habilitation (Informatik) an der TU Berlin; Wissenschaftlicher Mitarbeiter (1979–1984), Hochschulassistent (1985–1991) und Privatdozent (1992–1992) an der TU Berlin und Research Fellow an der University of Maryland, College Park, MD (1990–1991); Arbeitsschwerpunkte: Medienergonomie, Rechtliche Aspekte der Systemgestaltung, E-Learning, Kooperationsunterstützende Systeme und verteilte Wissensarbeit. – Veröffentlichungen: Gestaltung virtueller Forschungsumgebungen für die philologische Detailarbeit, in: K. Richts / P. Stadler (Hg.), „Ei, dem alten Herrn zoll’ ich Achtung gern‘“. FS f. Joachim Veit zum 60. Geburtstag, 2016, S. 437–461; Wissensintegrationsprozesse und verteilte Wissensorganisation, in: S. A. Keller / R. Schneider / B. Volk (Hg.), Wissensorganisation und -repräsentation mit digitalen Technologien, 2014, S. 162–179; Perspektiven der Wissensarbeit im digitalen Zeitalter, in: P. Stadler / J. Veit (Hg.), Digitale Editionen zwischen Experiment und Standardisierung (Beih. editio 31), 2009, S. 9–22. Oberhoff, Andreas, Dipl.-Inform. Wissenschaftlicher Mitarbeiter am Heinz Nixdorf Institut der Universität Paderborn, Fachgruppe Kontextuelle Informatik; Studium der Informatik an der Universität Paderborn; Forschungs- und Arbeitsschwerpunkte: Konzeption und Entwicklung kooperativer, virtueller Arbeitsumgebungen im Bereich E-Learning und E-Science. – Veröffentlichung: zus. mit D. Hartmann: Kulturerbe digital – Bewahrung und Erschließung im virtuellen ‚Studiolo‘, in: C. Y. Robertson-von Trotha / R. H. Schneider (Hg.), Digitales Kulturerbe: Bewahrung und Zugänglichkeit in der wissenschaftlichen Praxis (Kulturelle Überlieferung – Digital 2; K I T Scientific Publishing), 2015, S. 145–157 (open access: http://www.zak.kit.edu/2643.php). Oevel, Gudrun, Prof. Dr. rer.nat., Dipl.-Math. Leiterin des Zentrums für Informations- und Medientechnologien an der Universität Paderborn (seit 2004); seit 2012 C IO der Universität Paderborn; 1980–1986 Studium der Mathematik, (Diplom und Lehramt Sekundarstufe II) an der Universität-GHS Paderborn; 1990 Promotion zum Thema „Reduktion integrabler Systeme auf ihre Multisoliton Mannigfaltigkeiten“; Wissenschaftliche Mitarbeiterin im FB Mathematik / Informatik (1986–1991); Arbeitsschwerpunkte: IT-Sicherheit, E-Learning, E-Science und Green IT. – Veröffentlichungen: zus. mit A. Brennecke / S. Finke / A. Roth: Dienste-Infrastrukturen

Autorenverzeichnis     | 139

für eLearning – Konzeption, Aufbau und Betrieb, in: W. Hauenschild / D. M. Meister / W. Schäfer (Hg.), Hochschulentwicklung innovativ gestalten. Das Projekt Locomotion an der Universität Paderborn, 2010, S. 41–56; zus. mit J. Budde: Innovationsmanagement an Hochschulen: Maßnahmen zur Unterstützung der Digitalisierung von Studium und Lehre, in: H. C. Mayr / M. Pinzger (Hg.), I N FOR M AT I K 2016, Lecture Notes in Informatics (L N I), Gesellschaft für Informatik, 2016, S. 947–959; zus. mit J. Budde / I. Neiske: Ausgestaltung einer sozio-technischen Infrastruktur für die Verbreitung und nachhaltige Verankerung digitaler Lehre, in: M. Eibl / M. Gaedke (Hg.), I N FOR M AT I K 2017, Lecture Notes in Informatik (L N I), Gesellschaft für Informatik, 2017 (im Druck). Seng, Eva-Maria, Prof. Dr. phil. Seit 2006 Lehrstuhl für Materielles und Immaterielles Kulturerbe an der Universität Paderborn; 2009 / 2010 Chaire Alfred Grosser an der Sciences Po, Paris; Studium der Kunstgeschichte, Geschichte und Empirischen Kulturwissenschaft / Europäischen Ethnologie in Tübingen und München; 1992 Promotion an der Universität Tübingen; 2000 Habilitation an der Universität Halle-Wittenberg; Mitglied in Kulturinstitutionen; Gutachterin in der Wissenschaftsförderung; Forschungsschwerpunkte: Kirchenbau 17. bis 21. Jh., Architekturgeschichte, -theorie und Städtebau des 16. bis 21. Jh., Kulturelles Erbe; nationale und internationale Forschungsprojekte. – Veröffentlichungen: Der evangelische Kirchenbau im 19. Jh., die Eisenacher Bewegung und der Architekt Christian Friedrich von Leins, 1995; Stadt – Idee und Planung. Neue Ansätze im Städtebau des 16. und 17. Jh., 2003; Kulturerbe zwischen Globalisierung und Lokalisierung, in: W. Speitkamp (Hg.), Europäisches Kulturerbe. Bilder, Traditionen, Konfigurationen, 2013, S. 69–82; Materiell gleich immateriell / immateriell gleich materiell. Die zwei Seiten einer Medaille, in: B. Franz / G. Vinken (Hg.), Denkmale – Werte – Bewertung. Monuments – Values – Assessment. Denkmalpflege im Spannungsfeld von Fachsituation und bürgerschaftlichem Engagement, 2014, S. 48–55. Shubitowski, Joseph M. Leiter der Informationssysteme am Getty Research Institute (GR I) in Los Angeles; zuvor ebd. Leiter der Bibliotheksinformationssysteme und Technology Manager am Canadian Centre for Architecture in Montreal; Studium der Kunst und der Kunstgeschichte. – Arbeitsgebiete: seit den 1980er Jahren Beteiligung an Programmierungen im Bereich der Kulturwissenschaften an Museen, Archiven und Bibliotheken; Digital Humanities / Digital Art History; Linked data and semantic architecture; search architecture; Library automation. – Veröffentlichungen: zus. mit B. Washburn: Imagining the future of art bibliography: using prototypes to evaluate technical approaches, in: Art Libraries Journal 36, 3 (2011), S. 40–45; zus. mit J. Cobb / M. Mather: Use of Unicode and Java in a Bibliographic Application, in: Thirteenth International Unicode Conference, San Jose (California), September 10–11, 1998, Conference proceedings, 1998.

140 |     Autorenverzeichnis

Sieglerschmidt, Jörn, Privatdozent Dr. phil. 1965–1972 Studium der Geschichte und des Russischen in Berlin und Konstanz; 1972– 1974 Studienreferendariat in Kiel; 1974–1978 wissenschaftlicher Angestellter im SF B 8 Spätmittelalter und Reformation; Promotion 1977; Habilitation 1986; 1978–2005 an den Universitäten Konstanz, Karlsruhe und Mannheim als wissenschaftlicher Assistent, ab 1986 als Privatdozent tätig; 1987–2011 Konservator am Landesmuseum für Technik und Arbeit in Mannheim (Technoseum) und am Bibliotheksservice-Zentrum Baden Württemberg in Konstanz; 1999–2007 Aufbau des BA M-Portals, ab 2007 der Deutschen Digitalen Bibliothek; seit 2005 Teilherausgeber der Enzyklopädie der Neuzeit, Bereich Naturwahrnehmung und Naturerfahrung; Forschungsschwerpunkte: Kirchen-, Sozial-, Wirtschafts- und Umweltgeschichte der frühen Neuzeit. – Veröffentlichungen: Bevölkerungsgeschichte, in: G. Schulz u.a. (Hg.), Sozial- und Wirtschaftsgeschichte. Arbeitsgebiete – Probleme – Perspektiven. 100 Jahre Vierteljahrschrift für Sozial- und Wirtschaftsgeschichte (VSWG Beih. 169), 2004, S. 249–282; Kommunikation und Inszenierung. Vom Nutzen der Ethnomethodologie für die historische Forschung, in: J. Burkhardt / C. Werkstetter (Hg.), Kommunikation und Medien in der Frühen Neuzeit (HZ Beih. 40), 2005, S. 433–460; zus. mit T. Kirchhoff / W. Schweibenz: Archives, libraries, museums and the spell of ubiquitous knowledge, in: Archival Science 8 (2008), S. 251–266; Zyklizität, in: F. Jäger (Hg.), Enzyklopädie der Neuzeit, Bd. 15, 2012, Sp. 645–656; Complexion and climate. An attempt at an outline of weather outlooks in Europe from the beginnings until today, in: C. Leggewie / F. Mauelshagen (Hg.), Europe (Climate and Culture vol. 4), 2017, 1–48 (im Druck). Strauch, Thomas, Dr. phil. Wissenschaftlicher Angestellter am Zentrum für Informations- und Medientechnologien an der Universität Paderborn; zeitweise kommissarischer Leiter des Medienzentrums der Universität Essen; Studium der Germanistik, Sozialwissenschaften und Erziehungswissenschaften; Arbeitsbereiche: Autor, Regisseur, Produzent für das W DR Fernsehen; Medienpraxis; praktische Ästhetik. – Veröffentlichungen und Filmdokumente: Niklas Luhmann – Beobachter im Krähennest (45 Min., W DR 1989); zus. mit R. Arnheim: Dialogue, in: K. Kleinmann / L . van Duzer (Hg.), Rudolf Arnheim – Revealing Vision, Ann Arbor 1997, S. 7–15; zus. mit W. Gödden (Hg.): Ich schreibe weil… 36 westfälische Autorinnen und Autoren im Interview, 2011. Veit, Joachim, Prof. Dr. phil. Hochschule für Musik Detmold; Studium der Schulmusik, Musikwissenschaft und Anglistik in Saarbrücken und Detmold / Paderborn; 1988 Promotion mit einer Arbeit über den jungen Carl Maria von Weber; Mitarbeiter der Weber-Gesamtausgabe, inzwischen Editionsleiter; seit 2006 Leitung mehrerer Projekte zur Entwicklung digitaler Musik­editionen und Mitwirkung an den BM BF-Verbundprojekten TextGrid und DA R I A H; seit 2014 gemeinsam mit B. R. Appel Leiter des Akademieprojekts „Beetho-

Autorenverzeichnis     | 141

vens Werkstatt“ und Koordinator des Verbundprojekts Zentrum Musik – Edition – Medien (ZenM E M); Vorstandsmitglied des Verbands Digital Humanities im deutschsprachigen Raum (DHd). – Veröffentlichungen: Der junge Carl Maria von Weber. Studien zum Einfluß Franz Danzis und Abbé Georg Joseph Voglers, 1990; Digitale Musikedition, in: Musikphilologie (Kompendien Musik, Bd. 3), hg. von B. R. Appel / R. Emans, 2017, S. 44–55; zus. mit J. C. Meister: Digital Humanities – Neue Netzwerke für die Geisteswissenschaften, in: Zeitschrift für Bibliothekswesen und Bibliographie 61, 4–5 (2014), S. 263–266; Carl Louis Bargheers musikalische Ausbildung in Bückeburg und Kassel im Spiegel seines fragmentarischen Tagebuchs aus den Jahren 1848 und 1849, in: Das historische Erbe in der Region. FS f. D. Hellfaier, hg. v. A. Halle / H. Pilzer / J. Hiller von Gaertringen / J. Eberhardt, 2013, S. 263–273. Warnke, Martin, Prof. Dr. rer. nat. Hochschullehrer für Digitale Medien an der Leuphana Universität Lüneburg, Institut für Kultur und Ästhetik digitaler Medien; Studium der Physik und Mathematik in Berlin und Hamburg; 1984 Promotion in Theoretischer Physik in Hamburg; anschließend Aufbau des Faches Kulturinformatik und Direktor der DFG -Kollegforschergruppe „Medien­k ulturen der Computersimulation“ an der Universität Lüneburg; dort 2008 Habilitation im Lehrgebiet Informatik / Digitale Medien; Forschungsschwerpunkte: Digitale Bildwissenschaften, Medienkulturen der Computersimulation. – Veröffentlichungen: Ästhetik des Digitalen: Das Digitale und die Berechenbarkeit, in: Zeitschrift für Ästhetik und Allgemeine Kunstwissenschaft 59,2 (2014), S. 278–286; „God Is in the Details“, or The Filing Box Answers, in: O. Grau T. Veigl (Hg.), Imagery in the 21st Century, 2011, S. 339–348; Theorien des Internet zur Einführung, 2011.

ABBILDUNGSNACH WE IS E

Keil Archiv des Autors. Sieglerschmidt Abb. 1: Birgit Zimny; Abb. 2: Entwurf des Autors nach Lampe /Krause / Doerr 2010, S. 15 u. 21 f. Brenneke, Oevel, Strauch Abb. 1, 3, 4: Archiv der Autoren; Abb. 2: Universität Bremen: eScience lab - http://www. escience.uni-bremen.de/index.php?id=25. Hartmann, Oberhoff Abb. 1, 2: Archiv der Autoren. Shubitowski all figs.: © Joseph Shubikowsi, Getty Research Institute, Los Angeles. Veit alle Abb.: Archiv des Autors.

Register

Seitennennunzg: nf. = Seite und folgende Seite; nff. = Seite und die beiden folgende Seiten; n–nn = Seiten von bis. – Die Begriffe „Arbeitsumgebung“ und „Forschungsumgebung“ wurden aufgrund ihrer Häufigkeit nicht aufgenommen.+

Personenregister Abele von und zu Lilienberg, Mathias  43 Agricola, Rudolf  40, 43 Alembert, Jean-Baptiste le Rond d’  45 Allroggen, Gerhard  117 Alsted, Johannes Heinrich  40, 43 Aristoteles  37

Descartes, René   44 Drucker, Johanna  106 Drucker, Peter Ferdinand  7

Bacon, Francis  44, 45 Bargheer, Carl Louis  121, 123 Beer, Nikolaos  126 Beethoven, Ludwig van  115 Berger, Peter  35, 38 Betzwieser, Thomas  127 Blumenberg, Hans  40 Bodin, Jean  43 Boehm, Gottfried  82 Brahms, Johannes  121 Breidbach, Olaf  35, 48

Floyd, Christiane  10, 14 Foerster, Heinz von  82 Friedrich Wilhelm III., König von Preußen  36

Callon, Michel  4, 28f. Cato d. Ä.  39 Chambers, Ephraim  46 Cicourel, Aaron  38 Comenius, Amos  40 Crane, Gregory  78 Dabbert, Julian  126 Darwin, Charles  50 *

Enke, Harry  70 Erasmus, Desiderius  40, 43

Gaehtgens, Thomas  103 Garfinkel, Harold  38 Gibson, James J.  12 Goffman, Erving  38 Goodman, Nelson  82 Goody, Jack  41f. Heidegger, Martin  39 Henrichs, Dieter  4, 30 Kepper, Johannes  119, 126 Kircher, Athanasius  45 Kittler, Friedrich  77 Kohle, Hubertus  74, 78 Kopperschmidt, Josef  40 Krämer, Sybille   14 Krünitz, Johann Georg  46

Wir danken Gerrit Mauritz für seine Mitarbeit an der Erstellung des Registers.

146 |     Register

Latour, Bruno  4, 28f. Leibniz, Gottfried Wilhelm  44f. Leopoldo Cicognara  100 Locher, Hubert  72 Luckmann, Thomas   35, 38 Ludwig, Jens  70 Lullus, Raimundus  44f. Malraux, André  37 Matthias Corvinus, König von Ungarn  87 Mayor Zaragoza, Federico  86 McGann, Jerome  130 Melanchthon, Philipp  40 Moretti, Franco  79 Müller, Meinard  129 Musil, Robert  79 Mylaeus, Christoph  40, 43 Nelson, Ted  17 Nentwich, Michael  5, 68f., 72f., 75 Niemeyer, Oscar  87 Nietzsche, Friedrich  42 Otlet, Paul  37 Pias, Claus  78 Platon  39f., 48 Pöppel, Ernst  38 Ramée, Pierre  40, 43f. Raphael (Raffaello Sanzio da Urbino)  100

Reimmann, Jakob Friedrich   36 Röhnert, Jan  77, 79 Roland, Perry  124 Schlosser, Julius von  100 Schnieders, Ralf  117, 118 Schütz, Alfred  38 Sprat, Thomas  39 Stadler, Peter  128 Stein, Heinrich Friedrich Karl Reichsfreiherr vom und zum Stein  36 Sterck van Ringelbergh, Joachim  40 Storm, Theodor  121 Thom, René  78 Tomasello, Michael  13 Toulmin, Stephen  39f. Vasari, Giorgio  100f. Warburg, Aby  2f., 83, 86f. Warnke, Martin  72 Watt, Ian  41f. Weber, Carl Maria von  117, 119f., 128f., 131–134 Wiering, Frans  130 Winograd, Terry  11 Wolff, Christian  44 Zedler, Johann Heinrich  45

Sachregister 3D-Modell  31

Bildeinheit, semantische  81

Agenda 2020 für eHumanities in Deutschland (AHD)  68 Akteur-Netzwerk-Theorie (ANT)  4, 28f., 33, Algorithmus, algorithmisch  8, 14f., 38, 44, 48f., 80ff. Archiv, Archivierung  3, 15, 19, 22, 31, 60, 65, 67, 70, 73, 85, 87, 92f., 98f., 130f. Art Libraries Society of North America  107 Aufklärung  36f., 42 Avery Architectural and Fine Arts Library  99

CAD  31 CENSUS-Projekt  86 Chat-Kanal  3, 21 Conceptual Reference Model (CRM)  49f.

Barock  36, 40, 44, 48, 50, 53  Bibliography of the History of Art (BHA)  97 Bibliotheca Corviniana digitalis  87 Big Data  78f.

DARIAH  116, 126 data, linked open  50, 108 Data Mining  69, 78 Deixis  18 Deutsche Initiative für Netzwerkinformation (DINI)  57f. Dialektik  40, 42f., 44f. Differenzerfahrung  3, 12–16, 18f., 23, 92 digital Humanities  V, 1, 3, 5, 22, 62, 75, 106–109

Register     | 147

digitale Kunstgeschichte  5, 83, digitale Geisteswissenschaft  78 distant reading  8ff., 15f., 21, 79, 84 Domänen, modell  70–73 Dublin Core Metadata Element Set (DCMES)  49, 104f. edirom  5, 117, 121, 127, 129, 131 eHumanities  1f., 23, 77f., 80f. E-Learning  12, 20, 69, 90–94 Entnetzung  27 Enzyklopädie, enzyklopädisch  37, 40f., 43f., 45f., 50, 52, 128 Enzyklopädistik  42, 48 Epistemologie  43 eScience  69, 75 Europeana  53, 81, 103 Faksimile  119ff., 123, 126, 128f., 133 Fiedellieder  121, 123 Forschungsdatenzentrum Archäologie und Altertumswissenschaften (IANUS)  71 Freischütz-Digital-Projekt  121, 123, 126–129 Frick Art Reference Library New York  99 Functional Requirements for Bibliographic ­Records (FRBR)    49 Future of Art Bibliography (FAB)  97f., 107 Gedächtnis, kunst  4, 13f., 16, 18f., 40, 42f., 45 German Federation for Biological Data (GFBio)  70 Getty Research Institute (GRI)  5, 97f., 99, 107, 110 Grammatik  11, 40, 42f. Gutenberg-Bibel  86 Hathi Trust  103 Herzog August Bibliothek in Wolfenbüttel  102 Humanismus  37, 40, 50 Humanities Data Centre  70 HyperImage  5, 82, 83 Hypermedia  16 Hypertext  16f. Idealismus  4, 30 Infrastruktur, -einrichtung  4f., 9, 15, 22, 41, 49, 58, 62f., 67, 70f., 73ff., 88ff., 94f., 116 Institut de l’information scientifique et technique/ Centre national de la recherché scientifique (INIST/CNRS)  97 Institut national d’histoire de l’art (INHA)  100, 104

Kommunikation  13f., 18–21, 35–41, 52, 58f., 62, 68f., 87, 92 Komplementarität  10 Konstellationsforschung  3f., 27, 29f., 33 Kontextuelle Informatik  31, 86 Kulturerbe  53, 81, 85f. Kunsthistorisches Institut Florenz  99 Linguistik, linguistisch  2, 8 Literaturwissenschaft  2, 79 Logik  39, 42–45 Medienbruch  3, 19, 67, 85, 89f., 93f. Metadata Encoding and Transmission Standard (METS)  104, 105 Metadata Object Description Schema (MODS) 104, 105 Metadaten  21, 49, 62, 71–74, 83, 87, 89, 99f., 102–106, 112 Metaphysik  43 Metropolitan Museum of Art New York  101 Mnemosyne-Tafeln  83 Mündlichkeit  41f. Music Encoding Initiative (MEI)  23, 124, 126, 128 National Endowment for the Humanities (NEH)  124 Online Computer Library Center (OCLC)  104, 106 Ontologie  43, 49f., 81 Open Archives Initiative – Protocol for Metadata Harvesting (OAI-PMH)   104 Open Source  60, 64, 108 OPERA-Projekt  127f. Oxford Text Archive  86 Perseus-Projekt  78 Philadelphia Museum of Art  102 Polyhistorie  45 prometheus – Das verteilte digitale Bildarchiv für Forschungs und Lehre  74, 82 Rekonstruktion  2, 30f. Renaissance  V, 1, 3, 19, 85, 87 Repository  32f., 105 Responsivität  93 Rhetorik, rhetorisch  4, 39f., 42–45, 48, 53 Samuel H. Kress Foundation  98f. Scholastik, scholastisch  37, 43, 80

148 |     Register

Schriftlichkeit, schriftlich  8, 21, 37, 41f., 130f., 133ff. Simulation  15, 31, 68 Sinneinheit  V, 80f. Softwareentwicklungsmodell  64 Software-Ergonomie  12 Soziologie  11, 27, 38 Systemtheorie  27 Text Encoding Initiative (TEI)  23, 80, 108, 116, 124, 128 Text, musikalisch  115f. TextGrid-Projekt  116, 126 Textkultur  80 Topik, topisch  4, 40, 43ff., 48, 52

Universitätsbibliothek Göttingen  86 Universitätsbibliothek Heidelberg  104 University of California, Los Angeles (UCLA)  107 Vernetzung  4, 27 Virtual Research Environment (VRE)  58f. Weserrenaissance  32 Wesersandstein  31f. Wissensgesellschaft  37, 41 Wissenskreislauf  5, 67f., 71ff., 75 Wissensordnung  36f., 41, 43f., 46, 48 Wissenssoziologie  38 Zentralinstitut für Kunstgeschichte München  99