Digitale Edition zwischen Experiment und Standardisierung: Musik – Text – Codierung 9783110231137, 9783110231144

This volume documents the contributions of the conference “Digital Editions between Experiment and Standardization”, whi

176 49 17MB

German Pages 329 [330] Year 2009

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
Frontmatter
Inhaltsverzeichnis
Vorwort
Sektion I
Perspektiven der Wissensarbeit im digitalen Zeitalter
Merkmale kompositorischer Varianten
Überlegungen zu einer digitalen textgenetischen Darstellung von Robert Schumanns Adagio und Allegro op. 70
Zur digitalen Edition von Antonín Dvořáks Humoreske Ges-Dur, op. 101, Nr. 7
Joseph Haydns Arienbearbeitungen auf Papier und am Bildschirm
Die digitale Edition von Webers Klarinettenquintett
Zusammenfassung der Diskussion
Sektion II
Digitale Edition älterer Musik am Beispiel des Projekts TüBingen
Musical Variants in Digital Practice
The CMME Occo Codex Edition:
Editing Renaissance Music: The Aruspix Project
Using MusicXML 2.0 for Music Editorial Applications
MEI as an Editorial Music Data Format
Zusammenfassung der Diskussion/
Sektion III
Einige Anmerkungen zu Retrodigitalisierungs-Verfahren und Perspektiven digitaler Briefeditionen
Konzepte einer retrospektiven Digitalisierung einer Briefedition am Beispiel des Heinrich-Heine-Portals
Die Codierung digitaler Briefeditionen mit TEI P5
Mind Mapping (Musik)edition
Zusammenfassung der Diskussion
Materialien
Die Auszeichnung von Briefen in XML/TEI
Anforderungen an ein musikeditorisches Codierungsformat
Codierungsbeispiel eines Heine-Briefes
Editions- und Codierungsbeispiel eines Weber-Briefes
Auszug aus Webers Tagebuch, 17.–25. März 1817
Backmatter
Recommend Papers

Digitale Edition zwischen Experiment und Standardisierung: Musik – Text – Codierung
 9783110231137, 9783110231144

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

B E I H E F T E

Z U

Herausgegeben von Winfried Woesler

Band 31

Digitale Edition zwischen Experiment und Standardisierung Musik - Text - Codierung Herausgegeben von Peter Stadler und Joachim Veit

Max Niemeyer Verlag T$bingen 2009

n

Publiziert zum Abschluss der ersten Arbeitsphase des DFG-Projekts »Entwicklung von Werkzeugen f!r digitale Formen wissenschaftlich-kritischer Musikeditionen« in Kooperation mit der Carl-Maria-von-Weber-Gesamtausgabe

Bibliografische Information der Deutschen Bibliothek Die Deutsche Bibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet !ber http://dnb.ddb.de abrufbar. ISBN 978-3-11-023113-7

ISSN 0939-5946

6 Max Niemeyer Verlag, T!bingen 2009 Ein Imprint der Walter de Gruyter GmbH & Co. KG http://www.niemeyer.de Das Werk einschließlich aller seiner Teile ist urheberrechtlich gesch!tzt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages unzulBssig und strafbar. Das gilt insbesondere f!r VervielfBltigungen, Cbersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Printed in Germany. Gedruckt auf alterungsbestBndigem Papier. Druck und Einband: AZ Druck und Datentechnik GmbH, Kempten

Inhaltsverzeichnis

Vorwort . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1

Sektion I Konzepte digitaler Editionen Reinhard Keil Perspektiven der Wissensarbeit im digitalen Zeitalter

. . . . . . . . .

9

Bernhard R. Appel Merkmale kompositorischer Varianten . . . . . . . . . . . . . . . . . .

23

Anette Müller Überlegungen zu einer digitalen textgenetischen Darstellung von Robert Schumanns Adagio und Allegro op. 70 . . . . . . . . . . . . . .

33

Markéta Štědronská Zur digitalen Edition von Antonín Dvořáks Humoreske Ges-Dur, op. 101, Nr. 7 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

47

Christine Siegert Joseph Haydns Arienbearbeitungen auf Papier und am Bildschirm . .

53

Daniel Röwenstrunk Die digitale Edition von Webers Klarinettenquintett. Ein Vergleich der Edirom-Versionen 2004 und 2008 . . . . . . . . . . . . . . . . . .

61

Zusammenfassung der Diskussion

79

. . . . . . . . . . . . . . . . . . . . . .

Sektion II Probleme der Codierung von Musik Stefan Morent Digitale Edition älterer Musik am Beispiel des Projekts TüBingen . .

89

Eleanor Selfridge-Field Musical Variants in Digital Practice . . . . . . . . . . . . . . . . . . . 111

VI

Inhaltsverzeichnis

Theodor Dumitrescu and Marnix van Berchum The CMME Occo Codex Edition: Variants and Versions in Encoding and Interface . . . . . . . . . . . . . . . . . . . . . . . . . 129 Laurent Pugin Editing Renaissance Music: The Aruspix Project . . . . . . . . . . . . 147 Michael D. Good Using MusicXML 2.0 for Music Editorial Applications . . . . . . . . . 157 Perry Roland MEI as an Editorial Music Data Format Zusammenfassung der Diskussion

. . . . . . . . . . . . . . . . 175

. . . . . . . . . . . . . . . . . . . . . . 195

Sektion III Probleme der Textauszeichnung bei Briefen und Tagebüchern Andrea Rapp Einige Anmerkungen zu Retrodigitalisierungs-Verfahren und Perspektiven digitaler Briefeditionen . . . . . . . . . . . . . . . . . . . 203 Thomas Burch und Bernd Füllner Konzepte einer retrospektiven Digitalisierung einer Briefedition am Beispiel des Heinrich-Heine-Portals. Probleme und Aussichten

. . 207

Joachim Veit Die Codierung digitaler Briefeditionen mit TEI P5. Konzepte und Probleme am Beispiel der Carl-Maria-von-Weber-Briefausgabe . . . . 217 Roland S. Kamzelak Mind Mapping (Musik)edition

. . . . . . . . . . . . . . . . . . . . . . 233

Zusammenfassung der Diskussion

. . . . . . . . . . . . . . . . . . . . . . 237

Materialien Hans-Werner Bartz und Stefan Büdenbender Die Auszeichnung von Briefen in XML/TEI: Eine Hinführung Johannes Kepper und Stefan Morent Anforderungen an ein musikeditorisches Codierungsformat

. . . . 251

. . . . . . 265

Inhaltsverzeichnis

VII

Thomas Burch und Bernd Füllner Codierungsbeispiel eines Heine-Briefes . . . . . . . . . . . . . . . . . . 281 Peter Stadler und Joachim Veit Editions- und Codierungsbeispiel eines Weber-Briefes

. . . . . . . . . 291

Dagmar Beck Auszug aus Webers Tagebuch, 17.–25. März 1817 . . . . . . . . . . . . 309 Autorinnen und Autoren der Beiträge . . . . . . . . . . . . . . . . . . . . 315 Register

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 319

Vorwort

Vom 6. bis 8. Dezember 2007 führte das DFG-Projekt „Entwicklung von Werkzeugen für digitale Formen wissenschaftlich-kritischer Musikeditionen“ (bekannter unter dem Namen „Edirom-Projekt“) gemeinsam mit der Carl-Maria-von-WeberGesamtausgabe im Heinz-Nixdorf-Museumsforum in Paderborn eine internationale und zugleich interdisziplinäre Tagung zum Thema „Digitale Edition zwischen Experiment und Standardisierung“ durch. Diese Tagung verstand sich als Fortsetzung eines im Wesentlichen von Vertretern der Germanistik und Musikwissenschaft getragenen Dialogs über digitale Editionsformen, der bei der Konferenz „Digitale Medien und Musikedition“ im November 2006 in der Mainzer Akademie der Wissenschaften und der Literatur in Gang gekommen war. Das damalige, vom Trierer Kompetenzzentrum für elektronische Erschließungs- und Publikationsverfahren in den Geisteswissenschaften mit organisierte Treffen hatte bei allen Beteiligten den Wunsch nach einem intensiveren, fächerübergreifenden Austausch über Erfahrungen mit entsprechenden Projekten geweckt – musste man doch feststellen, dass die Probleme und Anforderungen, die sich für die textbezogenen Wissenschaften mit den inzwischen nicht mehr wirklich ‚neuen‘ Medien verbinden, zu großen Teilen ähnlich sind und dass fehlende Kommunikation rasch die Gefahr von Doppel- und Mehrfacharbeit heraufbeschwört. Wenn langfristig verwertbare Ergebnisse entstehen sollen, erweist sich die Erarbeitung von Insellösungen – mögen diese auch noch so innovativ sein – als Fehlinvestition oder zumindest als mühsamer Umweg beim Erreichen eines durch gemeinsame Bemühungen schneller in greifbare Nähe rückenden Ziels. Exakt dieses Zwischenstadium, in dem einerseits Experimente einzelner Wissenschaftler oder Arbeitsgruppen das Bild prägen, andererseits aber längst innerhalb dieser Experimente oder durch nationale oder internationale Kooperationen mit anderen Projekten und Wissenschaftlern an der Bildung gemeinsamer, projektund fächerübergreifender Lösungen bzw. der Etablierung entsprechender Standards gearbeitet wird oder anderseits bereits ‚fertige Lösungen‘ für Teilbereiche angeboten werden, wollte die Paderborner Tagung mit ihrem Titel thematisieren. Dabei ging die Initiative in diesem Fall von der Musikwissenschaft aus, deren Gegenstand sich auf den ersten Blick in noch stärkerem Maße als Literatur gegen eine ‚Texterfassung‘ sperrt, die ihren Gegenstand ‚operationalisierbar‘ machen will und muss, wenn ein rechnergesteuerter Zugriff möglich werden soll. Inwieweit musikalische Texte mit ihren häufigen Mehrdeutigkeiten oder ihrer Offenheit für Interpretationen dabei nur graduell oder grundsätzlich von Schrift-Texten zu unterscheiden sind, bleibt eine berechtigte Frage, die auch nach dieser Tagung weiter verfolgt werden muss.

2

Vorwort

Fragen der Codierbarkeit von Musik und die im Rahmen musikeditorischer Vorhaben an diese Codierung zu stellenden Anforderungen bildeten das Zentrum der in drei Sektionen eingeteilten Veranstaltung. Johannes Kepper (Detmold/Paderborn) und Stefan Morent (Tübingen) hatten dazu im Rahmen der Arbeitsgruppe „Musikcodierung“ der Mainzer Akademie der Wissenschaften ein Anforderungspapier erarbeitet, das an einigen kurzen Beispielen auf grundlegende Notwendigkeiten der editorischen Erfassung musikalischer Sachverhalte hinwies und gleichzeitig deren Grenzen mit in den Blick nahm. Dieses Papier war im Vorfeld der Tagung an die beiden Vertreter der zur Zeit avanciertesten XML-basierten Codierungsformate zur Stellungnahme versandt worden. Michael Good (Los Altos) als Vertreter des inzwischen als Industriestandard geltenden Austauschformats MusicXML und Perry Roland (Charlottesville) als Entwickler eines für den akademischen Bereich konzipierten, an TEI angelehnten Formats unter dem Namen MEI (Music Encoding Initiative) konnten so während der Tagung an konkreten Fällen Lösungen für editorische Probleme demonstrieren. Im gleichen Kontext thematisierte Eleanor Selfridge-Field (Stanford), die an der Erarbeitung eines umfangreichen Korpus ASCII-basierter Musikcodierungen mit MuseData sowie an der Entwicklung dieses Formats beteiligt war, die Behandlung von Varianten. Der Bereich der Codierung älterer Musik war einerseits mit Theodor Dumitrescu und Marnix van Berchum (Utrecht) vertreten, die sich mit der Behandlung von Varianten und Fassungen in der Codierung und Bildschirmdarstellung beschäftigten, sowie mit Stefan Morent (Tübingen), der die speziellen Probleme der Codierung von neumatischer Notation erläuterte, während sich Laurent Pugin (Montreal) in seinem Aruspix-Projekt auf den Aspekt der automatisierten Erkennung von Varianten in Musikdrucken der Renaissance konzentrierte. Damit deckte diese Sektion einen weit über die engeren Grenzen der sogenannten ‚Common Western Notation‘ hinausgehenden Bereich ab. Vorausgegangen war eine Sektion, die sich vornehmlich mit Konzepten digitaler Edition befasste. Hier wurde zunächst bewusst der Blickwinkel geweitet, indem Vertreter der Informatik, der Medien-, Literatur- und Musikwissenschaft konzeptionelle Fragen aus ihrer jeweiligen Sicht beleuchten sollten. Abgedruckt in diesem Tagungsbericht sind die Beiträge des Informatikers Reinhard Keil (Paderborn), der eine Vision künftiger Formen von Wissensarbeit entwarf, sowie des Musikwissenschaftlers Bernhard Appel (Bonn), der am Beispiel des Begriffs der „kompositorischen Variante“ aufzeigte, wie anspruchsvoll die Aufgabe einer angemessenen Übersetzung musikalischer Sachverhalte in eine im digitalen Kontext notwendige klare Beschreibungssprache ist. Die Beiträge des Medienwissenschaftlers Rolf Bäumer (Paderborn), der sich unter dem Thema „Abbrüche, Umbrüche, Konvergenzen? Aspekte des Medienwandels“ mit den Problemen digitaler Edition von Filmen beschäftigte, sowie des Literaturwissenschaftlers Fotis Jannidis (Darmstadt), der eine Arbeitsfassung der TextGrid-Oberfläche und damit verbunden eine zukünftige digitale Infrastruktur für die Geisteswissenschaften (speziell die Editionsphilologie) vorstellte, sind in diesem Band nicht abgedruckt, jedoch in den Diskussionsbeiträgen thematisiert.

Vorwort

3

In einem zweiten Teil dieser Sektion standen einzelne digitale Musikeditionen im Mittelpunkt. Die von Ulrich Leisinger (Salzburg) vorgestellte digitale Mozart-Edition entsteht in Zusammenarbeit mit dem Packard Humanities Institute (dieser Beitrag ist ebenfalls nur in der Diskussion besprochen), während die übrigen vorgestellten Projekte auf die in Detmold entwickelte Edirom-Software zurückgreifen. Wie vielfältig dabei die augenblicklich erst zu einem geringen Teil zu erfüllenden Anforderungen an eine Editionssoftware sind, zeigte sich insbesondere an den Überlegungen von Anette Müller (Zwickau) zu digitalen Darstellungsformen textgenetischer Prozesse bei Robert Schumann und an den Ausführungen von Christine Siegert (Köln) zu komplexen Bearbeitungsformen von Arien durch Joseph Haydn und deren möglicher Darstellung, während Markéta Štědronská (Prag) über ihre Erfahrungen bei der Retrodigitalisierung einer kürzlich erschienenen Edition von Antonín Dvořáks Humoreske op. 101, Nr. 7 berichtete. Dagegen konnte Daniel Röwenstrunk (Detmold/Paderborn) aufzeigen, dass trotz der noch kurzen Laufzeit des Edirom-Projekts bereits eine Fülle von konzeptionellen und technischen Neuerungen im Vergleich zur ersten digitalen Musikedition verwirklicht wurden. Musikwissenschaftliche Editionen sind zu einem wesentlichen Teil aber auch Texteditionen, und Dokumente zum Leben und Werk des Komponisten spielen dabei eine herausragende Rolle – die Edition von Briefen und Tagebüchern etwa gehört zu den Kernaufgaben musikwissenschaftlicher Editoren und unterscheidet sich in (fast) nichts von einer entsprechenden Edition in anderen Textwissenschaften. Hier fachspezifisch nach Lösungen für digitale Editionsformen suchen zu wollen, wäre eine ebenso große Ressourcenverschwendung wie die fortgesetzte Erstellung kurzlebiger DVD- oder Internetveröffentlichungen ohne eine auf Standards basierende Textauszeichnung. Als besonders fruchtbar erwies sich daher die gemeinsame Diskussion von Problemen der Textauszeichnung bei Briefen und Tagebüchern in der dritten Sektion der Tagung. Einerseits wurde hier am Beispiel des Heinrich-Heine-Portals von Thomas Burch und Andrea Rapp (Trier) sowie Bernd Füllner (Düsseldorf) verdeutlicht, was eine retrospektive Digitalisierung zu beachten hat, wenn sie langfristig haltbare Daten erzeugen soll, andererseits forderte Joachim Veit (Detmold/Paderborn) eine an den neuen Möglichkeiten von TEI P5 orientierte Auszeichnung bei genuin digitalen Editionen. Die im Anhang abgedruckten Materialien dienten als Grundlage der Diskussion über Wege und Methoden der Standardisierung während der Tagung und sollen zugleich die Forderungen illustrieren, die sich aus beiden Verfahren ergeben. Diese ausführlichen Diskussionen waren ein wesentlicher Bestandteil des Tagungskonzepts. Insbesondere die Brief- und Tagebuchsektion war von Anfang an als eine Mischung aus Kurzreferaten und Diskussionen geplant. Hierzu haben auch Gabriele Buschmeier (Mainz) und Werner Wegstein (Würzburg) mit beigetragen; ihre Beiträge sind in den Zusammenfassungen der Diskussionen dokumentiert, während die resümierenden Gedanken von Roland Kamzelak (Marbach) am Ende der Sektion wiedergegeben wurden. Auf die wortgetreue Wiedergabe der Diskussionen wurde verzichtet, stattdessen sind die Gespräche in einer nach sachlichen

4

Vorwort

Gesichtspunkten gegliederten Form ergebnisorientiert protokolliert. Dass diese Diskussionen in einer intensiven und ertragreichen Atmosphäre stattfinden konnten, ist vor allem den Teilnehmern der drei Podien zu verdanken: Bernard Appel (Bonn), Thomas Burch (Trier), Gabriele Buschmeier (Mainz), Nobert Eke (Paderborn), Reinmar Emans (Bochum), Bernd Füllner (Düsseldorf), Kurt Gärtner (Trier), Michael Good (Los Altos), Oliver Huck (Hamburg), Roland Kamzelak (Marbach), Franz Kelnreiter (Salzburg), Johannes Kepper (Detmold/Paderborn), Andreas Kornstädt (Hamburg), Andreas Kuczera (Mainz), Stefan Morent (Tübingen), Andrea Rapp (Trier), Perry Roland (Charlottesville), Daniel Röwenstrunk (Detmold/Paderborn), Eleanor Selfridge-Field (Stanford) und Werner Wegstein (Würzburg). Ergänzt wurden diese eher theoretischen Teile durch eine Reihe praktischer Workshops: Die von Hans-Werner Bartz und Stefan Büdenbender vorbereitete Einführung in die Textauszeichnung mit TEI und ein zweiter Workshop, der sich speziell der Briefauszeichnung widmete, wurden aufgrund einer kurzfristigen Erkrankung dankenswerterweise von Stefan Büdenbender alleine durchgeführt. Johannes Kepper, Daniel Röwenstrunk und Peter Stadler boten einen Workshop zu grundlegenden Arbeiten im Vorfeld digitaler Musikeditionen an sowie einen weiteren zur editorischen Arbeit mit Unterstützung der Edirom-Werkzeuge. Für die Publikation wurden die Vorträge überarbeitet und dabei zum Teil wesentlich erweitert, so dass einige Beiträge infolge veränderter Akzentsetzung auch einen neuen Titel erhielten. Die Texte sind im vorliegenden Band den jeweiligen Sektionen zugeordnet, im Abschnitt Materialien wurde dabei eine im Sinne einer Hinführung zur XML-Codierung ausgearbeitete Fassung des Workshops von Hans-Werner Bartz und Stefan Büdenbender mit aufgenommen, ferner sind die bereits vor der Tagung im Netz veröffentlichten und weiterhin als Bezugspunkt geltenden Anforderungen an ein musikeditorisches Codierungsformat abgedruckt worden. Vollständige Codierungsbeispiele eines Heine- und Weber-Briefes sowie ein Auszug aus Webers Tagebuch ergänzen die als Grundlage weiterer Diskussionen zu verstehende Sammlung. Am Ende eines solchen Tagungsberichts steht der Dank: Vorab ein ganz persönlicher, sehr herzlicher Dank an Johannes Kepper und Daniel Röwenstrunk, ohne deren Ideen, Arbeit und Engagement diese Tagung nicht hätte stattfinden können. Dank ferner an alle Teilnehmer der Tagung und Beiträger dieses Bandes, Dank aber auch allen, die diese Tagung und die Publikation des Bandes gefördert haben, besonders die Deutsche Forschungsgemeinschaft und die Union der Akademien der Wissenschaften in Mainz, Dank dem Team des Heinz-Nixdorf-Museumsforums als zuvorkommender Gastgeber (besonders Frau Gabriele Himmelsbach), ein persönlicher Dank für vielfältige Hilfe an Frau Dr. Gabriele Buschmeier (Mainz), Frau Prof. Dr. Barbara Becker (Paderborn), Herrn Prof. Dr. Reinhard Keil (Paderborn), Herrn Klaus Eisert (Blomberg) und an die zahlreichen helfenden Hände während der Tagung, speziell an Frau Marleen Hoffmann, die auch die Einrichtung und Korrektur der Manuskripte für den vorliegenden Band unterstützte. Für weitere Hilfen bei der Vorbereitung dieser Veröffentlichung und der Durchfüh-

Vorwort

5

rung der Tagung sei Frau Josefine Hoffmann und Frau Mareike Bahr sowie den Herren Christoph Albrecht, Simon Blümer, Kostadin Delinikolov, Heiko Fabig, Florian Hesse, Ruben Heuer, Philemon Jacobsen, Anton Ratsimar und Florian Weidemann gedankt. Herrn Prof. Dr. Winfried Woesler und dem Verlag Niemeyer gilt unser herzlicher Dank für die Aufnahme des Tagungsberichts in die Reihe der Beihefte zu editio. Schließlich gilt ein besonderer Dank für die freundlichen Worte zur Eröffnung der Tagung auch den Rektoren der beiden Hochschulen, die gemeinsam Träger des Musikwissenschaftlichen Seminars sind, Herrn Prof. Dr. Nikolaus Risch (Präsident der Universität Paderborn) und Herrn Prof. Martin Christian Vogel (Rektor der Hochschule für Musik Detmold), ferner dem Dekan des Fachbereichs für Kulturwissenschaften der Universität, Herrn Prof. Dr. Volker Peckhaus (Paderborn), sowie der Geschäftsführenden Leiterin des Musikwissenschaftlichen Seminars, Frau Prof. Dr. Rebecca Grotjahn (Detmold). Sie wies in ihren Begrüßungsworten darauf hin, dass elektronische Editionen wie die Edirom in besonderer Weise dazu geeignet sind, Ergebnisse der philologischen Arbeit stärker in die künstlerisch-praktische Musikausbildung hineinzutragen und durch die mit den neuen Techniken erreichbare größere Transparenz und Offenheit das informierte, selbstverantwortliche Musizieren wesentlich zu fördern. Dies ist sicherlich ein sehr wichtiges, über den engen Bereich der Fachwissenschaft hinauswirkendes, zukünftiges Ziel digitaler Editionen, das die Veranstalter der Tagung gerne auch als das ihrige betrachten. Ein zweites, kurzfristiger erreichbares Ziel wurde während der Tagung von vielen Teilnehmern formuliert: die Fortsetzung des hier gepflegten intensiven Austauschs zu unterschiedlichsten Aspekten digitaler Edition über die Fach- und Landesgrenzen hinaus, denn nur durch gegenseitige Information und weitere Kooperationen lassen sich dauerhafte Lösungen und Standards in diesem Bereich effizient – und damit in naher Zukunft – erreichen. In diesem Sinne versteht sich der Tagungsbericht als Beitrag zur Intensivierung dieser Diskussionen auf dem Weg in eine gemeinsame Zukunft digitaler Edition. Detmold im Frühjahr 2009

Peter Stadler Joachim Veit

Sektion I Konzepte digitaler Editionen

Reinhard Keil

Perspektiven der Wissensarbeit im digitalen Zeitalter

Einleitung Unsere mediale Wissenskultur zeichnet sich durch eine ausgeprägte Einbahnstraßenmentalität aus. Ein Grund dafür liegt gewiss in der starken Fokussierung auf eine Perspektive, in der Wissen als Produkt betrachtet und behandelt wird: Wissen kann weitergegeben und übertragen sowie z. B. durch das Drucken von Büchern vervielfältigt werden. Konsequenterweise muss Wissen unabhängig vom Produzenten wie vom Rezipienten sein. Tatsächlich gibt es ein solches in Artefakten repräsentiertes Wissen ebenso wenig, wie es semantische Atome gibt, die durch eine physische Einheit verkörpert werden und aus denen Wissen zusammengesetzt bzw. abgeleitet werden kann.1 Technik kann aber nur dort ansetzen, wo physische Korrelate geistiger Prozesse bearbeitet werden. Folglich kommt es entscheidend darauf an, wie sich materielle und gedankliche Einheiten zueinander verhalten. Der Begriff der „Wissensarbeit“ soll dabei einerseits den Blick auf die praktische Tätigkeit des Forschens als Umgang mit Wissensartefakten lenken, andererseits verdeutlichen, dass Wissen eigentlich nicht als statisches Produkt, sondern nur als dynamisches Ergebnis eines kontinuierlichen Prozesses der Bedeutungskonstitution bzw. Sinnstiftung betrachtet werden kann. In technischen Publikationen dominiert die Produktperspektive. Dafür sind vermutlich viele Faktoren verantwortlich. Sowohl unsere Alltagssprache als auch unsere Alltagspsychologie folgen einer Transportmetapher. Wissen wird im Kopf erzeugt, dann in Form von Sprache, Gestik oder Schrift externalisiert, an andere physisch übermittelt und dort wieder aufgenommen. Dem liegt das klassische Sender-Kanal-Empfänger-Schema zugrunde, das inhärent mit Begriffen wie Informationstheorie und Kommunikationstheorie verknüpft ist.2 Nach demselben Schema funktionieren auch der Computer und unsere traditionellen Mediensysteme. Insofern ist es auch nicht verwunderlich, dass hier Begriffe wie Wissensverarbeitung, Wissensmanagement etc. gebräuchlich sind. Im Folgenden soll mit dem Konzept der Differenzerfahrung ein Ansatz für eine Prozessperspektive geschaffen werden, der die Beziehung zwischen mentalen Prozessen und ihren materiellen Ankerpunkten über den Begriff des „externen Gedächtnisses“ herstellt. Der Begriff der „Medi@rena“ soll dann verdeutlichen, wie 1 2

Michel Foucault: Archäologie des Wissens. Frankfurt 1981. Vgl. Warren Weaver und Claude Elwood Shannon: The Mathematical Theory of Communication. Urbana (Illinois) 1949.

10

Reinhard Keil

sich eine solche Prozesssicht in Unterstützungsfunktionen für die Wissensarbeit niederschlagen kann. Die abschließende Bewertung behandelt das Zusammenspiel dieser beiden grundsätzlichen Perspektiven.

1 Forschen als Wissensarbeit Der Begriff „Wissensarbeit“ betont dabei zweierlei. Zum einen die notwendige Nutzung physischer Medien, um Wissen erzeugen, kommunizieren und verarbeiten zu können, zum anderen die Tatsache, dass jedwede Form von Wissensarbeit davon ausgehen muss, dass ein wesentlicher Teil dieser Arbeit darin besteht, bedeutsame Zusammenhänge zwischen Medienobjekten herzustellen, die in dieser Form nicht explizit angelegt und physisch repräsentiert sind. Dies kommt in dem Leitspruch zum Ausdruck: „Das Denken findet nicht im Kopf, sondern mit dem Kopf statt.“ 1.1 Differenzerfahrung Nicht die Unterscheidung in Innen- und Außenwelt ist entscheidend, sondern die zwischen Illusion und Realität. Sie ist für den Psychologen J. J. Gibson dadurch möglich, dass man über einen realen Gegenstand durch Handeln neue Informationen gewinnen kann.3 Bei einem nur in der Vorstellung existierenden Gegenstand ist dies nicht möglich, denn jeder Versuch, durch rein gedankliches Drehen, Beleuchten, Zerschneiden etc. zu neuen Erkenntnissen zu gelangen, ist zum Scheitern verurteilt, da die jeweilige Operation der eigenen Bewusstseinssteuerung unterliegt und damit nur das produzieren kann, was der Geist antizipiert. Diesen Gedanken kann man weitertreiben, denn echte Überraschung oder – neutraler formuliert – Differenzerfahrung als Voraussetzung für Informationsgewinnung ist nur in Auseinandersetzung mit einer außerhalb der neuronalen Sphäre liegenden gegenständlichen Welt möglich, setzt also physisches Handeln und sinnliche Wahrnehmung voraus. Das bedeutet letztlich, dass Informationsverarbeitung als Prozess der Sinnstiftung oder Bedeutungskonstitution nicht im Kopf stattfindet, sondern als Prozess der Auseinandersetzung des Menschen mit seiner physischen Umwelt, zu der andere Menschen ebenso gehören wie Medien und Formalismen. Ein Wort muss gehört, ein Zeichen gesehen und eine Blume gerochen werden, um zu wirken. Unsere Sinne sind nicht passive Filter für Signale, die erst später im Hirn eine Bedeutung erlangen. Unsere Erwartung prägt unsere Wahrnehmung. Einen Gegenstand wahrzunehmen erfordert, die physikalisch unzusammenhängenden Reize zu organisieren, eine bedeutungsvolle Form zu schaffen, eine Gestalt, wie es die Psychologen nennen. Nebeneinander liegende Bildpunkte werden in Vorder– und Hintergrund aufgeteilt und nacheinander eintreffende Schallwellen werden zu einer Melodie gruppiert. Auf diese Weise entsteht Sinn. Das Wort 3

James Jerome Gibson: Wahrnehmung und Umwelt. Der ökologische Ansatz in der visuellen Wahrnehmung. München 1982, S. 276 ff.

Perspektiven der Wissensarbeit im digitalen Zeitalter

11

Abbildung 1: Schiefe Ebene zur Ermittlung der Fallbeschleunigung

„sin“ bedeutet noch im Mittelhochdeutschen „Weg“, das ist der durch die Sinnesorgane gefundene Weg. Erst durch die sinnliche und motorische Aktivität des Körpers wird etwas Gedachtes oder Vorgestelltes zum Faktischen und damit Kommunizierbaren. Dieser Prozess kann schon im Bereich der Wahrnehmung als fortwährendes Hypothesenbilden betrachtet werden.4 Das gilt auch für das Denken, Planen, Verwalten und für das Rechnen, denn die Möglichkeiten für Differenzerfahrungen können durch Instrumente und manipulierbare physische Arrangements erweitert werden. Das Fernrohr beispielsweise ermöglichte es Galileo Galilei, neue Wahrnehmungsdifferenzen zu erschließen, denn erst mit seiner Hilfe konnte er deutlich erkennen, dass die Schattenlinie auf dem Mond nicht geradlinig verläuft. Gemäß den Gesetzen der Optik ist das aber nur möglich, wenn den Lichtstrahlen der Sonne Berge im Weg stehen bzw. sich ihnen Täler öffnen, der Mond also nicht gleichmäßig rund ist und die Schattierungen lediglich als Einfärbungen des Materials zu betrachten sind. Ähnliches gilt für zeitliche Verläufe, die sich z. B. aufgrund ihrer Geschwindigkeit der direkten Wahrnehmung entziehen, wie Galilei mit seinen experimentellen Anordnungen zum Studium der Fallgesetze zeigte. Mit den damaligen Mitteln war es nicht möglich, beispielsweise zwei Körper vom schiefen Turm von Pisa fallen zu lassen und dabei zu entdecken, dass jeder Körper unabhängig von seiner Masse proportional beschleunigt wird. Mit bloßem Auge und den damaligen Geräten ist dies nicht möglich, denn bei 56 Metern Höhe schlägt ein Gegenstand innerhalb von 3,4 Sekunden mit einer Geschwindigkeit von ca. 120 km/h auf dem Boden auf. Dabei kann man maximal feststellen, ob zwei Gegenstände gleichzeitig aufschlagen, nicht aber, welche Geschwindigkeit sie haben oder welche Beschleunigungen sie erfahren, weil die zeitlichen Differenzen so klein sind, dass sie mit damaligen Mitteln nicht messbar sind. Deshalb ersetzt Galilei den freien Fall durch eine schiefe Ebene, die Messung der Zeit durch das Wiegen von Wasser und die Beobachtung der Beschleunigung ergibt sich aus der Anordnung von Glocken, die im Laufe von mehreren Versuchen 4

Richard L. Gregory: Eye and Brain. The Psychology of Seeing. Oxford 1998; Deutsche Ausgabe: Auge und Gehirn. Psychologie des Sehens. Reinbek 2001.

12

Reinhard Keil

so gesetzt werden, dass sie synchron zu einem Pendel erklingen, das am Ende der schiefen Ebene angebracht ist und einen gleichmäßigen Zeittakt verkörpert (siehe Abb. 1). Schaut man auf den Abstand der Glocken, so sieht man, dass sich der Abstand jeweils pro Zeiteinheit vergrößert, wir es also mit einer beschleunigten Bewegung zu tun haben. Durch das Herauslösen aus der Zeitlichkeit werden Differenzen der sinnlichen Wahrnehmung zugänglich, die ohne ein solches Arrangement nicht einsehbar wären (Strecke, die ein Körper pro Zeiteinheit fällt). Es wird somit nicht nur das Unsichtbare sichtbar gemacht, sondern die sichtbaren Zeichen sind zugleich manipulierbar, um jeweils Annahme und Wirklichkeit systematisch überprüfen zu können. Die Natur spricht auf diese Weise zum Experimentator zurück. Für den Historiker Morris Berman ist dies die Grundlage der modernen Naturwissenschaft: „Etwas zu erkennen, heißt es zu zerlegen, zu quantifizieren und wieder zusammenzufügen; man muß nach dem ‚Wie‘ fragen und nie in dem unübersichtlichen Gestrüpp des ‚Warum‘ hängen bleiben“.5 Allerdings sind solche Wahrnehmungserweiterungen erst vor dem Hintergrund sozialer Systeme als quasi eigenständige Erkenntnisprozesse ablösbar, da die Interpretation solcher Differenzen bereits komplexe Prozesse der Modellbildung voraussetzt. Da andere Menschen unabhängig vom jeweiligen Ich agieren, denken, fühlen und handeln, entsteht im systemtheoretischen Sinne das Problem der doppelten Kontingenz.6 Die Offenheit ist der zentrale Punkt, denn solange ein Problem noch nicht geistig abschließend durchdrungen ist, müssen durch immer wieder neue Differenzerfahrungen (Sprechen und Widersprechen) Möglichkeiten für Erfahrungen geschaffen werden und zwar so lange, bis sich wiederholte Bestätigungen zur Gewissheit verdichten (Konventionalisierung). Dabei ist es insbesondere auch erforderlich, Fehler machen zu können und zumindest gedanklich Grenzen zu durchbrechen, um zu verstehen, was etwas ist und was es nicht ist. Ohne soziale Einbettung kein Verständnis und kein Wissen. Jürgen Habermas schreibt dazu: „Mit der Analyse des Begriffs »einer Regel folgen« führt Wittgenstein den Nachweis, daß die Identität von Bedeutungen auf die Fähigkeit zurückgeht, intersubjektiv geltenden Regeln zusammen mit mindestens einem weiteren Subjekt zu folgen; dabei müssen beide über die Kompetenz sowohl zu regelgeleitetem Verhalten wie auch zur kritischen Beurteilung dieses Verhaltens verfügen. Ein vereinzeltes und einsames Subjekt, das zudem nur über eine der genannten Kompetenzen verfügt, kann das Konzept der Regel so wenig ausbilden wie Symbole bedeutungsidentisch verwenden.“7 Egal aus welchem Blickwinkel oder mit welcher theoretischen Grundlegung man an das Phänomen geht, es bleibt festzuhalten, dass sich Bedeutung im Kontext menschlichen Handelns konstituiert und somit diesen Handlungen zu5 6

7

Morris Berman: Wiederverzauberung der Welt. Am Ende des Newton’schen Zeitalters. München 1983. Tilman Sutter: „Interaktivität“ neuer Medien – Illusion und Wirklichkeit aus der Sicht einer soziologischen Kommunikationsanalyse. In: Weltweite Welten. Internetfigurationen aus wissenssoziologischer Perspektive. Hrsg. von Herbert Willem. Wiesbaden 2008, S. 57–73. Jürgen Habermas: Theorie des kommunikativen Handelns. Frankfurt 1982, Bd. 2, S. 34.

Perspektiven der Wissensarbeit im digitalen Zeitalter

13

geschrieben werden muss und nicht den Zeichen selbst. Auch bei einem stark konventionalisierten Gebrauch von Zeichen geht diesem selbst ja wiederum ein sozialer Prozess der Konventionalisierung voraus. Das gilt sowohl für flüchtige (Laute, Gesten etc.) als auch für persistente (Schrift, Bild etc.) Zeichen. Eine direkte Interaktion zwischen Menschen ermöglicht es, verständnisvoll und motivierend auf die aktuelle Problemlage einzugehen, hat aber den Nachteil mangelnder Dauerhaftigkeit (Persistenz). Äußerungen sind so schnell verflogen, wie sie kommen, und sind damit der Wahrnehmung zu einem späteren Zeitpunkt oder an einem anderen Ort nicht mehr zugänglich, es sei denn, man verwendet eine Aufzeichnungstechnik oder notiert Zwischenergebnisse symbolisch. 1.2 Externes Gedächtnis Wissen, Konstruieren, Verwalten etc. haben bezüglich ihrer Unterstützungsfunktionen medial die gleichen Wurzeln bzw. Grundlagen.8 Nicht umsonst werden sie in unseren heutigen Computersystemen zunehmend zusammengeführt. Schriftliche Repräsentationen sind dabei ein notwendiges Mittel, um Erkenntnis-, Lern-, Konstruktions- und Verwaltungsprozesse arbeitsteilig gestalten zu können. Das wird deutlich, wenn man sich den Streit zwischen dem ‚Rechnen auf Linien‘ (analog zum Abakus) und dem schriftlichen Rechnen mit arabischen Ziffern vor Augen hält (vgl. Abb. 2). Ersteres war in Mitteleuropa bis zum 15. Jahrhundert gängig, weil das Rechnen mit römischen Zahlzeichen massive Probleme bereitete. Deshalb wurden Rechenpfennige auf Linien mit entsprechender Wertigkeit (Einer, Zehner, Hunderter etc.) gelegt und durch Hinzulegen bzw. Hinwegnehmen einer entsprechenden Anzahl von Pfennigen Additionen und Subtraktionen ausgeführt. Dieses Verfahren wurde durch das arabische Ziffernrechnen ersetzt, das sich aufgrund seiner Vorteile über die Mauren von Südspanien allmählich nach Mitteleuropa ausbreitete. Beim schriftlichen Rechnen bleibt die Spur des Rechenprozesses erhalten. Will man ein mit dem Abakus oder dem Rechenbrett erzieltes Ergebnis überprüfen, muss man einen Medienwechsel vollziehen, um das Ergebnis zu notieren, und dann den gesamten Rechenprozess so oft wiederholen, bis der Vergleich mit den jeweils notierten Ergebnissen einen entsprechenden Grad an Übereinstimmung aufweist. Dieser Prozess lässt sich nicht abkürzen und schwerlich aufteilen. Im Gegensatz dazu kann man beim schriftlichen Rechnen Teilergebnisse unabhängig voneinander überprüfen, weil alle Zwischenergebnisse aufgezeichnet sind. Diese Unabhängigkeit ist zugleich der Schlüssel für die Aufteilung des Berechnungsverfahrens auf verschiedene Rechner. Und es können jetzt unterschiedliche Rechenspuren gleichzeitig ins Wahrnehmungsfeld gebracht werden, eine wesentliche Voraussetzung, um Invarianten in den Rechenspuren erkennen zu können. Dies ist eine wesentliche Voraussetzung für den Übergang vom Rechnen mit Zahlen zum Rechnen mit Strukturen (Algebra). 8

Peter Damerow und Wolfgang Levèvre (Hrsg.): Rechenstein, Experiment, Sprache. Historische Fallstudien zur Entstehung der exakten Wissenschaften. Stuttgart 1981.

14

Reinhard Keil

Abbildung 2: Rechentisch vs. schriftliches Rechnen. Titelholzschnitt eines Rechenbüchleins, Krakau um 1520. Entnommen aus: Horst Schiffler und Rolf Winkeler: Tausend Jahre Schule. Eine Kulturgeschichte des Lernens in Bildern. Stuttgart 3 1991, S. 50

Ohne physische Hilfsmittel wie Stift und Papier oder Rechengeräte beschränkt sich die Fähigkeit eines Durchschnittsmenschen auf einfache Additions- oder Multiplikationsaufgaben. Schon wenn man mehr als zwei bis drei Zwischenergebnisse zusätzlich im Kopf behalten muss, ist man im Alltag meist nicht mehr in der Lage oder auch willens, verlässlich zu rechnen. Selbst wenn eine Person solche außergewöhnlichen kognitiven Fähigkeiten hätte, könnten andere Menschen mit einer geringeren kognitiven Leistungsfähigkeit diese Leistung weder überprüfen noch würdigen; sie könnte nicht konventionalisiert werden. Grundpfeiler der wissenschaftlichen Methodik wie Messbarkeit, Überprüfbarkeit, Wiederholbarkeit etc. wären als rein gedankliche Verrichtungen ungeeignet, den organisierten Prozess des Wissenschaffens zur Entfaltung zu bringen. Erst mit persistenten Repräsentationen werden komplexe gesellschaftliche Verwaltungsprozesse ermöglicht, kann sich so etwas wie eine stabile kulturelle Iden-

Perspektiven der Wissensarbeit im digitalen Zeitalter

15

tität ausprägen9 und können durch eine entsprechende Arbeitsteilung überhaupt erst große und komplexe Artefakte und Gebilde arbeitsteilig entworfen und gestaltet werden.10 Persistenz und Flexibilität im manipulierenden Umgang stehen im Widerspruch zueinander, denn bei analogen Aufzeichnungs- bzw. Einschreibtechniken kann nur noch der Medienträger physisch manipuliert werden, nicht mehr das einzelne Zeichen wie z. B. der Rechenpfennig. Zahlen, einmal geschrieben, können nicht mehr sortiert werden; sie können nur erneut, dieses Mal sortiert, aufgeschrieben werden. Damit sind erhebliche Medienbrüche verbunden. Zwar kann man einzelne Wissensartefakte leicht mit sich nehmen, doch ist dies für ein Arrangement von Wissensartefakten sehr aufwendig oder gar unmöglich, weil das Arrangement entweder nicht stabil genug fixiert werden kann oder der Aufwand zum Zerlegen und Wiederaufbauen zu groß ist. In jedem Fall aber erfordern Arrangements von Wissensartefakten einen Raum, auch wenn er nur temporär oder von einem Einzelnen genutzt wird (z. B. der Leseplatz in einer Bibliothek), um jeweils neue Arrangements für weitere Differenzerfahrungen zu schaffen. 1.3 Formalismen und Computer Schriftliches Rechnen zeichnet sich gegenüber der lautsprachlichen Schrift durch eine Besonderheit aus: Zeichenketten, die geformt werden, haben nicht nur eine Grammatik (Syntax), sondern sie werden ausschließlich gemäß vorgegebener Regeln umgeformt bzw. ausgewertet (Semantik). Die Rechenregeln beziehen sich dabei nicht auf das, was im Kopf stattfindet oder wofür oder warum ein Mensch rechnet, sondern nur darauf, wie und in welcher Reihenfolge beispielsweise Kugeln, Ziffern oder geometrische Elemente physisch erzeugt, arrangiert und gelöscht werden müssen. Der Rechenprozess selbst ist sinnfrei. Mit der Entwicklung mathematischer Kalküle wurden schließlich formale Zeichensysteme geschaffen, bei denen alle gültigen Arrangements (Zeichenketten) durch die wiederholte Anwendung einiger weniger Transformationsregeln auf einen endlichen Zeichenvorrat (Alphabet) entstehen. Formale Operationen eines Kalküls beziehen sich somit immer nur auf die Form und die Anordnung der Zeichen, nicht darauf, wofür sie stehen. Schriftlichkeit, Schematisierbarkeit und Interpretationsfreiheit sind deshalb auch die entscheidenden Merkmale von Formalismen.11 Dadurch ist es möglich, korrekt zu rechnen, ohne zu verstehen, was man tut. Wo Verständnis nicht erforderlich ist, braucht man auch kein interpretierendes Bewusstsein und kann folglich für die Zeichentransformationen einen entsprechenden Mechanismus bzw. eine Maschine, z. B. einen Computer, entwerfen.12 9

10 11 12

Jan Assmann: Das kulturelle Gedächtnis. Schrift, Erinnerung und politische Identität in frühen Hochkulturen. München 1992; siehe auch Michael Giesecke: Sinnenwandel, Sprachwandel, Kulturwandel. Studien zur Vorgeschichte der Informationsgesellschaft. Frankfurt 1992. Christopher Alexander: Notes on the Synthesis of Form. Cambridge (MA) 1964. Sybille Krämer: Symbolische Maschinen. Die Idee der Formalisierung in geschichtlichem Abriß. Darmstadt 1988. Reinhard Keil-Slawik: Konstruktives Design. Ein ökologischer Ansatz zur Gestaltung interaktiver Systeme. Berlin 1990 (Forschungsberichte des Fachbereichs Informatik. Bericht Nr. 90-14); Ders.: Artifacts in Software Design. In: Software Development and Reality

16

Reinhard Keil

Computer bzw. digitale Medien stellen damit neben physischen Konstruktionen, sozialer Interaktion und dem externen Gedächtnis eine weitere Stufe dar, die neue Formen der Differenzerfahrung eröffnet. Der Kalkül spricht zu uns zurück, da die Abarbeitung seiner formalen Operation nicht durch unsere Absichten und Intentionen gelenkt wird. Ein lautsprachlicher Text kann das nicht, weil der Umgang mit ihm auf unserem Verständnis basiert. Diese Form der Responsivität ist auch die eigentliche Qualität im Umgang mit dem Computer, die häufig eher irreführend als Interaktivität bezeichnet wird, denn unabhängig davon, ob es sich um einen Batch-Prozess oder den Aufruf einer Einzelfunktion handelt, wertet ein Prozessor die jeweiligen Eingabedaten aus und gibt Rückmeldung. Das kann der Ablauf einer komplexen Simulation sein, das Unterschlängeln eines fehlerhaften Wortes bei einer Rechtschreibkontrolle, das Anzeigen einer Webseite, die sich hinter einem Verweis verbirgt, oder das Ergebnis einer Datenbankabfrage. Potenziell sind alle möglichen Ergebnisse im System angelegt, d. h. bereits eingeschrieben. Aber welches letztlich in welcher Anordnung oder Reihenfolge im Wahrnehmungsfeld der Nutzer aufscheint, legen diese erst mit ihrer Anfrage fest. Die spezifische Unterscheidung zwischen Stapelbetrieb und Interaktivität verweist darauf, dass hier Medienbrüche reduziert werden, indem an passenden Stellen ein persistenter, mehrere Funktionsbereiche umfassender Wahrnehmungsund Handlungsraum geschaffen wird. Eine bestimmte Klasse responsiver Funktionen soll aufgrund ihres bedeutsamen Gebrauchswerts als eigenständige Medienqualität hervorgehoben werden. Es geht um diejenigen Funktionen, die es einem Nutzer gestatten, die Datenstrukturen direkt an einem Bildschirm zu manipulieren. Ivan E. Sutherland demonstrierte mit seinem System Sketchpad bereits 1963, dass es möglich ist, grafische Objekte an einem Bildschirm mit Hilfe eines Zeigegeräts zu manipulieren, sie zu verschieben, ihre Größe zu ändern etc.13 Grafische Benutzungsoberflächen basieren auf dieser von Ben Shneiderman als „direkte Manipulation“14 bezeichneten Technik und waren das entscheidende Moment, das dem PC zum allgemeinen Durchbruch verhalf. Dasselbe lässt sich für das Internet feststellen, denn erst mit der Möglichkeit des World Wide Web, mit Hilfe eines Browsers Daten auf anderen Rechnern zu betrachten und zu manipulieren, konnte es diesen enormen Durchbruch in nahezu alle Gesellschaftsbereiche verbuchen. Da der Einschreibprozess im Speicher eines Rechners weitaus schneller erfolgt als jede menschliche Handlung, entsteht der Eindruck, dass man Medienobjekte direkt manipulieren oder Texte wie Gummibandlinien erweitern und schrumpfen lassen kann: “Think of hypermedia as a collection of elastic messages that can stretch and shrink in accordance with the reader’s actions.”15 Für die Nutzer bedeutet dies, dass prinzipiell jede Gestalt bzw. jedes wahrnehmbare Zeichen 13 14 15

Construction. Hrsg. von Christiane Floyd et al. Berlin 1992, S. 168–188. Ivan E. Sutherland: SketchPad. A Man-Machine Graphical Communication System. In: Proceedings of the AFIPS Spring Joint Computer Conference. Detroit 1963, S. 329–346. Ben Shneiderman: Direct Manipulation. A Step beyond Programming Languages. In: IEEE Computer 16, 1983, Heft 8, 57–69. Nicholas Negroponte: Being Digital. New York 1996.

Perspektiven der Wissensarbeit im digitalen Zeitalter

17

innerhalb eines vernetzten Rechnersystems potenziell zugleich zu einem manipulierbaren Zeichen wird – eine Qualität, die mit keinem anderen persistenten Medium erreicht werden kann, da bei analogen Einschreibvorgängen mit technischen Mitteln immer nur der Medienträger, aber nie das Zeichen selbst manipuliert werden kann.

2 Transport, Transformation, Transkription Ein Unterschied im Wahrnehmungsfeld wird erst durch seine Verarbeitung im Hirn bedeutsam und damit zu einem Zeichen. Dies entspricht auch der qualitativen Definition des Informationsbegriffs durch Gregory Bateson: „Information ist ein Unterschied, der einen Unterschied macht.“16 Zeichen im Sinne der Semiotik werden erst durch Differenzerfahrung konstituiert. Insofern ist ein bit (abgeleitet von binary digit) als kleinste Informationseinheit auch nicht die kleinste bedeutungstragende Einheit, sondern nur die kleinste potenziell bedeutungsunterscheidende Einheit. Information im Sinne von Shannon ist also nicht identisch mit Bedeutung: Ersteres beschreibt die Menge an Entscheidungen, die notwendig sind, um ein Zeichen eindeutig bestimmen zu können, letzteres verweist auf die Handlungen, warum wir das tun bzw. was wir damit verbinden. Ein falsches bit in einem digitalisierten Bild mag sowohl für den Wahrnehmungs- als auch den maschinellen Verarbeitungsprozess ohne Bedeutung sein; als Fehler in einer Berechnung kann es aber verheerende Konsequenzen nach sich ziehen. Will man somit menschliche Wissensarbeit unterstützen, muss man entsprechende Möglichkeiten zur Differenzerfahrung schaffen. Bedeutung wird durch Konventionalisierung von Differenzerfahrung im sozialen Raum geschaffen, die durch mediale Arrangements unterschiedlichster Formen unterstützt wird. Die Manipulierbarkeit eines Arrangements von Zeichen ist nicht nur für die Gewinnung experimenteller Einsichten wichtig, sondern ein integraler Bestandteil nahezu jeder Art von Wissensarbeit. Das fängt beim Rechnen an und setzt sich über das Verwalten und Konstruieren oder das Verfassen einer wissenschaftlichen Publikation bis hin zum Bearbeiten eines komplizierten Schadensfalls in einem Versicherungsunternehmen fort. Immer kommt es darauf an, verschiedene Dinge, Geräte, Dokumente etc. auf eine bestimmte Art und Weise miteinander in Beziehung zu setzen, sie zu bewerten, zu gewichten, zu annotieren und Auszüge in ein neues Dokument zu übernehmen oder auf ein anderes Objekt zu verweisen. In gewisser Weise verkörpert das Arrangement der Artefakte den jeweiligen Arbeitsfortschritt in der Wissensarbeit. Wird dieses Arrangement durch Dritte zerstört, beispielsweise durch Aufräumen, geht ein Teil des Arbeitsergebnisses verloren bzw. muss neu erarbeitet werden. Umgekehrt kann eine Person nicht einfach auf Basis eines fremden Arrangements die Arbeit fortsetzen. Selbst in teilweise stark konventionalisierten Zusammenhängen muss sich die jeweilige Person erst einarbeiten, indem sie sich die Bedeutung des frem16

Gregory Bateson: Ökologie des Geistes. Anthropologische, psychologische, biologische und epistemologische Perspektiven. Frankfurt 1981, S. 582.

18

Reinhard Keil

den Arrangements erschließt und es dabei zugleich ihren eigenen Vorstellungen und Vorlieben anpasst. Der Begriff Wissensarbeit ist ursprünglich von Peter Drucker eingeführt worden, um zu betonen, dass viele Arbeitsprozesse in Unternehmen zunehmend weniger konventionalisierbar und automatisierbar, sondern wissensbasiert sind.17 Dazu gehört auch, dass automatisierte Abläufe nur dann auch ökonomisch Sinn machen, wenn sie re-kontextualisiert werden. Insofern ist auch nicht verwunderlich, dass nach Drucker die wichtigsten Charakteristika von Wissensarbeitern Selbstständigkeit und Eigenverantwortlichkeit sind, denn hier geht es nicht um rein faktisches explizites Wissen, sondern darum zu wissen, wie die anstehenden Aufgaben unter Ausnutzung der vorhandenen Mittel optimal erledigt werden können. Es gilt aber noch ein weiteres entscheidendes Merkmal von Wissensarbeit zu beachten. Der Titel von Druckers Buch heißt „The Age of Discontinuity: . . . “, im Deutschen leider mit „. . . Zeitalter der Ungewißheit“ übersetzt, und verweist damit auf die Tatsache, dass es bei der Wissensarbeit darauf ankommt, Wissen aus verschiedenen Quellen vor dem Hintergrund eigener Erfahrungen so miteinander in Beziehung zu setzen, dass damit die anstehenden Aufgaben gelöst werden können. Es geht also um zweierlei: Wissen muss über Zeiträume hinweg erschlossen und tradiert und über verteilte Standorte hinweg zusammengeführt und wieder verteilt werden. In diesem Sinne ist auch die Philologie eine Form der Wissensarbeit, deren disparate Aufgabe in der Zusammenführung und Bewertung verschiedener Quellen und Interpretationen ebenfalls nur zu bewältigen ist, wenn es zeit- und ortsübergreifende Instanzen gibt, die es gestatten, dass sich z. B. eine Forschergemeinschaft ein externes Gedächtnis aufbaut, bei dem durch Ausnutzung der zuvor beschriebenen Medienfunktionen die dabei auftretenden Medienbrüche auf ein Minimum reduziert werden. Das ist nur möglich, wenn die Übertragung von Wissensartefakten über gedächtnislose Kommunikationskanäle mit der jeweils lokalen Wissensorganisation von Sender und Empfänger in einem virtuellen Wissensraum zusammengeführt wird (Abb. 3). Bibliotheken und Archive können diese Funktion nur partiell abbilden, da sie lediglich Aggregationen von Wissensobjekten verkörpern, die durch die Nutzung nicht verändert werden sollen. Erst die Überlagerung von Handlungsund Wahrnehmungsraum ermöglicht neue Formen der medialen Destillation, die über die bloße Aggregation von Wissensartefakten hinausgeht und persistente Transkriptionen ermöglicht.18 Virtuelle Wissensräume sind ein Ansatz, Persistenz und Flexibilität für eine verteilte Gruppe von Forschern umzusetzen, und bieten eine Fülle von Möglichkeiten an, innovative Nutzungsszenarien zu schaffen.19 Die besondere Qualität der 17

18

19

Peter Drucker: The Age of Discontinuity. Guidelines to our Changing Society. New York 1969; Deutsche Ausgabe: Die Zukunft bewältigen. Aufgaben und Chancen im Zeitalter der Ungewißheit, Düsseldorf 1969 und 1998. Sabrina Geißler: Mediale Destillation als innovative Qualität sozialer Software. Dissertation. Universität Paderborn 2008. urn:nbn:de:hbz:466-20080715018 bzw. http://ubdok. uni-paderborn.de/servlets/DerivateServlet/Derivate-6860/Diss_Geissler.pdf. Reinhard Keil: Medienqualitäten beim eLearning. Vom Transport zur Transformation von

Perspektiven der Wissensarbeit im digitalen Zeitalter

19

Abbildung 3: Integration von Handlungs- und Wahrnehmungsraum

Integration von kommunikativen, kollaborativen, kooperativen, koordinierenden etc. Aktivitäten über verschiedene Räume hinweg wird dabei durch den Begriff des ko-aktiven Schreibens bezeichnet. Ko-aktives Schreiben impliziert nicht, dass alle jederzeit alles dürfen, sondern dass für die jeweilige Nutzungssituation mit einfachen Mitteln festgelegt werden kann, wer welche Teile in welcher Abhängigkeit verändern darf. Zum ersten Mal in der Kulturgeschichte medialer Ausdrucksmittel verfügt die Menschheit über technische Möglichkeiten, Wissensartefakte nicht nur zeit- und ortsunabhängig zu nutzen, sondern ihre Bearbeitung zeitund ortsübergreifend zu integrieren. Mit dem Konzept der Medi@rena wird die Idee der verteilten visuellen Strukturierung in Wissensräumen noch einen Schritt weitergetrieben. Neben der ObjektWissen. In: Bibliothek. Forschung und Praxis 31, 2007, Heft 1, S. 41–50.

20

Reinhard Keil

orientierung und der Möglichkeit, mediale Objekte aufgrund ihrer persistenten Ablage in virtuellen Wissensräumen kontinuierlich über einen bestimmten Zeitraum verteilt zu erstellen und zu bearbeiten, existieren jetzt auch neue Formen der Responsivität, d. h. der algorithmischen Auswertung von Medienarrangements durch einen Prozessor. Das Konzept der semantischen Positionierung geht davon aus, dass jedes Medienobjekt als ein weiteres Attribut auch seine Position im Raum erhält. Diese Position lässt sich dann in Bezug auf andere Objekte auswerten, indem z. B. durch Hinterlegung einer Zeitachse die historisch korrekte Positionierung von Dokumenten überprüft wird. Eine Zeitachse wiederum ließe sich mit Ereignissen koppeln, die Aktionen auslösen etc.20 Auf diese Weise ist es prinzipiell möglich, mit wenig Aufwand unterschiedlichste Szenarien der Wissensarbeit zu realisieren. Diskursstrukturierungsverfahren verkörpern z. B. ein bestimmtes zeitliches und räumliches Arrangement von Medienobjekten, wobei durch das Setzen von Rechten oder das Bewerten oder Annotieren von Dokumenten eine spezielle Methodik umgesetzt wird. Pyramidendiskussionen oder das Thesen-Kritik-Replik-Verfahren sind Ansätze zum erwägenden Umgang mit Wissensvielfalt, in denen die Beteiligten methodisch strukturiert Positionen und Bewertungen bearbeiten müssen. Solche Verfahren lassen sich schon allein aufgrund des enormen Aufwands mit traditionellen Einschreibmedien nicht realisieren und in ihrem Verlauf dokumentieren.21 Die Reichhaltigkeit der Möglichkeiten für eine räumlich persistente Wissensorganisation mit neuen responsiven Auswertungsmöglichkeiten ist potenziell unbeschränkt und es gibt ein breites Potenzial an Forschungsansätzen, die sich mit neuen Formen der ko-aktiven Wissensorganisation befassen. Neben den bereits erwähnten Diskursstrukturierungsverfahren gehören dazu u. a. die Erforschung von Handlungsschemata als Brücke zwischen visueller und begrifflicher Wissensstrukturierung, die Frage der Integration von „Hardware in virtuellen Räumen“22 für experimentelle Zwecke wie zur Erleichterung von Lernprozessen oder die Integration von Bibliotheksarchiven und virtuellen Wissensräumen23 beispielsweise in Form virtueller Semesterapparate als Teil der Hochschullehre.24

20

21 22

23

24

Patrick Erren und Reinhard Keil: Semantic Positioning as a Means for Visual Knowledge Structuring. In: Innovative Approaches for Learning and Knowledge Sharing. Hrsg. von Wolfgang Nejdl und Klaus Tochtermann. Berlin 2006, S. 591–596. Siehe die Beiträge in: Erwägen Wissen Ethik (vormals: Ethik und Sozialwissenschaften). Streitforum für Erwägungskultur 18, 2007, Heft 2, S. 313–339. Ferdinand Ferber et al.: Homogeneous Administration of Experiments in Material Science for Configuration, Monitoring and Analysis. In: Proceedings of the 13th International Conference on Experimental Mechanics ICEM13. Hrsg. von Emmanuel Gdoutos. Alexandroupolis (GR) 2007. Thomas Bopp et al.: MISTEL – an Approach to Access Multiple Resources. Proceedings of the 8th International Conference on Enterprise Information Systems (ICEIS 2006). Hrsg. von Yannis Manolopoulos et al. Paphos (Cyprus) 2006, S. 319–322. Alexander Roth et al.: KoaLA – Integrierte Lern- und Arbeitswelten für die Universität 2.0. In: DeLFI 2007. Tagungsband der 5. e-Learning Fachtagung Informatik. Hrsg. von Christian Eibl et al. Bonn 2007, S. 221–232.

Perspektiven der Wissensarbeit im digitalen Zeitalter

21

3 Produkt-Prozess-Komplementarität Wo Forschen, Lehren und Lernen eine entscheidende Rolle spielen, ist die Erzeugung, Bearbeitung und Archivierung von Wissensartefakten und die damit zusammenhängende Frage der Ausgestaltung und Unterstützung dieser Art von Wissensarbeit ein wichtiges Zukunftsthema. Dabei geht es zum einen darum, persistente Produkte (Wissensartefakte bzw. Medienobjekte) erzeugen und bearbeiten zu können. Zum anderen gilt es, einen Raum für soziale Prozesse zu schaffen, in dem anhand dieser Produkte Bedeutungshorizonte gegeneinandergestellt werden können und so Wissen erschlossen werden kann. Zum ersten Mal in unserer Kulturgeschichte ist es möglich, durch ko-aktives Schreiben zeit- und ortsübergreifend das Objekt der Wahrnehmung auch zum Objekt der (verteilten) Manipulation zu machen. Bei der klassischen Medieneinbahnstraße sitzen die Beteiligten jeweils als Autor/Sender bzw. Leser/Empfänger an den beiden Enden eines Transportwegs bzw. Übertragungskanals. Das Konzept der virtuellen Wissensräume geht dagegen davon aus, dass alle Nutzer, sobald sie im System angemeldet sind, einen eigenen Wissensraum haben und anderen Personen nach dem Prinzip der Selbstadministration Zutritt und Schreibrechte einräumen können. Auf diese Weise haben nicht nur alle Beteiligten die Möglichkeit zum ko-aktiven Schreiben, sondern sie können über die Verknüpfung von Räumen vernetzte Wissensstrukturen aufbauen, die nicht von einer Instanz vorgegeben werden. Neben dem Transport von Wissensartefakten von Raum zu Raum und ihrer Transformation mit Hilfe von responsiven Funktionen sind damit auch grundlegende Möglichkeiten der Transkription geschaffen, bei der Inhalte, soziale Erschließungsformen und technische Bearbeitungsfunktionen untrennbar miteinander verknüpft werden.25 Wichtig ist dabei, dass Technik nur einen Raum an Möglichkeiten schaffen kann, in dem neue Möglichkeiten der Differenzerfahrung eröffnet werden, die mit analogen Aufzeichnungstechniken nicht möglich sind. Im Gegensatz zu Ted Nelson, der den Begriff Hypertext geprägt und als „nicht-sequenzielles Schreiben“ definiert hat,26 implizieren virtuelle Wissensräume nicht notwendigerweise seine Vision einer digitalen Weltbibliothek. In Nelsons Konzeption des Projekts Xanadu kann jeder Lesende zugleich auch als Schreibender agieren und über private (nicht öffentlich sichtbare) und öffentliche Verweise eigene semantische Zusammenhänge unabhängig von der Sicht der Autoren etablieren. Damit solche Zusammenhänge aber ebenso wenig verloren gehen können wie z. B. Zitate, die durch eine Referenz in einen eigenen Text eingebettet werden, dürfen Autoren keine publizierten Texte löschen. Ob jedoch eine solche Bibliothek aufgrund der Größe und der damit verbundenen Einschränkungen ein wirksames Mittel für alle Formen der verteilten Wissenserschließung sein kann, ist fraglich, insbesondere wenn man vermeiden will, dass man zum Gefangenen der eigenen Entwicklungsgeschichte wird. Der 25

26

Ludwig Jäger et al.: Transkriptivität. Operative Medientheorien als Grundlage von Informationssystemen für die Kulturwissenschaften. In: Informatik Spektrum 31, 2008, Heft 1, S. 21–29. Ted Nelson: Computer Lib/Dream Machines. Revised edition. Redmond (WA) 1987.

22

Reinhard Keil

Weg zur Erkenntnis ist oftmals nicht der kürzeste Weg zur Vermittlung dieser Erkenntnis in anderen Arbeitszusammenhängen. Der grundlegende Gestaltungskonflikt zwischen Persistenz und Flexibilität wird nicht auflösbar sein. Er stellt, wie viele andere Gestaltungskonflikte, ein Designdilemma dar, wo man nur entscheiden kann, welche Anforderung man auf Kosten welcher anderen, gleichberechtigten Anforderung bevorzugt umsetzen will. Gleichwohl werden allmählich die Umrisse einer Innenarchitektur virtueller Wissensräume erkennbar, die ein innovatives Gestaltungspotenzial für den Einsatz digitaler Medien in der Wissensarbeit bereithält.

Bernhard R. Appel

Merkmale kompositorischer Varianten

Was den editorischen Umgang mit kompositorischen Varianten so schwierig macht, ist nicht allein das komplexe Textphänomen selbst, sondern auch die angemessene Übersetzung musikalischer Strukturen in eine klare Beschreibungssprache. Und eben sie ist unabdingbar, um Varianten als textgenetische Erscheinungen zu begreifen und zu verstehen. Welche logisch-formalen Beschreibungskriterien in den Blick zu nehmen sind, versucht der vorliegende Beitrag zu skizzieren. Diese Überlegungen beziehen sich ausschließlich auf Autor- oder Entstehungsvarianten, auf partielle Textänderungen also, die innerhalb des Kompositionsprozesses vom Komponisten selbst vorgenommen worden sind. Sogenannte Fremd-, Rezeptionsoder Überlieferungsvarianten bleiben unberücksichtigt; sie gehören nicht zum Schaffensprozess. Einerseits sind Varianten konkret fassbare Texterscheinungen1 und andererseits sind sie aus Befunden abgeleitete hermeneutische Konstrukte.2 Editoren sind sich mutmaßlich darüber einig, dass unter einer Variante ein Text-Segment zu verstehen ist, das vom Komponisten mit mindestens zwei voneinander abweichenden, sinnvollen Textversionen besetzt worden ist.3 Hinter dieser ziemlich äußerlichen, keinesfalls hinreichenden Begriffsbestimmung verbirgt sich ein Bündel relationaler Teilaspekte, die als weitere, unabdingbare Definitionsbestandteile zu berücksichtigen sind. Dabei müssen in musikalischen Werkstatthandschriften wenigstens zwei Gattungen von Varianten voneinander unterschieden werden: Revisions-Varianten einerseits und Sofort-Varianten andererseits.

1 Revisions-Varianten Der Terminus Variante ist ein komplexer Beziehungsbegriff, der nur komparativ benutzt werden kann, denn der Begriffsgebrauch setzt mindestens zwei Textpassagen voraus, die zueinander in einem besonderen Austauschverhältnis stehen. 1 2

3

In Form von Überschreibungen, Tekturen, Einlageblättern usw. konkretisieren sich Varianten materiell. Die typologische Bestimmung einer Variante als Ersetzung, Tilgung, Erweiterung, Umstellung usw. und mithin ihre Funktionsbestimmung innerhalb des Textgefüges, dem sie angehört, ist eine Interpretation des materiellen Befundes. Dem in allen Kunstformen und in jedweder Textüberlieferung anzutreffenden Phänomen der Variantenbildung widmet sich der Band Varianten – Variants – Variantes. Hrsg. von Christa Jansohn u. Bodo Plachta. Tübingen 2005 (Beihefte zu editio. 22). Zur Musik vgl. dort den Beitrag des Verfassers: Variatio delectat – Variatio perturbat. Anmerkungen zu Varianten in der Musik, S. 7–24.

24

Bernhard R. Appel

Austauschbarkeit bzw. wechselseitige Ersetzbarkeit ist ein Schlüsselkriterium von Revisions-Varianten. Unter dem Oberbegriff Substitution lassen sich vier Variantentypen4 unterscheiden. Sie erfüllen unterschiedliche Textfunktionen. Ersetzung: Tilgung: Erweiterung: Umstellung:

A A Null XAY

→ → → →

B Null A AXY (oder:) XYA

Tabelle 1: Variantentypen

Die Geburt von Varianten ist mit textlichen Umwertungen verbunden. Varianten verändern den Status eines komponierten Textgefüges. Für eine Variante vom Typ Ersetzung lässt sich das Text-Szenario etwa so beschreiben (siehe Abb. 1): Variante V2

Textschicht 2: B(V2)C Textschicht 1: B(V1)C

A

B Variante V1 C

Textstufe 2: A–B(V2)C–D D

Textstufe 1: A–B(V1)C–D

Abbildung 1: Revisions-Varianten vom Typ Ersetzung

Eine innerhalb eines größeren Textzusammenhangs bereits bestehende Textpassage V1 (Variante 1) wird im Schaffensprozess für ungültig erklärt und durch die Textgestalt V2 (Variante 2) ersetzt. V1 wird demnach durch den neu konzipierten Textrivalen V2 funktional entmachtet und darüber hinaus überhaupt erst als V1 definiert. Denn V1 gewinnt seine Physiognomie – sein ‚Alleinstellungsmerkmal‘, als besonderes, isolierbares und mithin definierbares Textsegment (mit Anfang, Mitte und Ende) – überhaupt erst durch die Geburt von V2. Das heißt, V1 und V2 sind komparativ aufeinander bezogen; zwischen ihnen bestehen zwillingshafte Bande und zugleich ein Ausschlussverhältnis. Von V1 kann nur gesprochen werden, wenn V2 existiert und umgekehrt. Als integrative Bestandteile eines Textgefüges schließen sie sich jedoch wechselseitig aus: Dem Textgefüge kann stets nur V1 oder V2 angehören. Spätestens hier wird einsichtig, dass das Phänomen Variante eine befundgestützte hermeneutische Konstruktion ist. Die durch Substitution definierte und durch Vergleich erfahrbare Korrespondenz zwischen Varianten ist zwangsläufig an zwei weitere Merkmale geknüpft, an 4

Die Typologie folgt Almuth Grésillon: Literarische Handschriften. Einführung in die „critique génétique“. Aus dem Französischen übersetzt von Frauke Rother und Wolfgang Günther, redaktionell überarbeitet von Almuth Grésillon. Frankfurt/M., Bern u. a. 1999, S. 184. Georg Feder unterscheidet dagegen fünf Variantentypen (Tilgung, Zufügung, Ersetzung, Verrückung und Austausch), die jedoch mit Grésillons strengerer Systematik kompatibel sind: Zufügung entspricht der Erweiterung; Verrückung und Austausch können unter Umstellung zusammengefasst werden. Vgl. Georg Feder: Die Vorstellung von Varianten in musikalischer Kritik und Hermeneutik. In: Musikalische Hermeneutik im Entwurf. Thesen und Diskussionen, hrsg. von Gernot Gruber und Siegfried Mauser. Laaber 1994 (Schriften zur musikalischen Hermeneutik. 1), S. 205–232, hier S. 214.

Merkmale kompositorischer Varianten

25

ein kontextuelles und an ein temporäres Merkmal. Das Substituendum, die zu ersetzende Textversion V1, und das Substitutum, die Ersatzversion V2, sind in ein und denselben Kontext eingebettet. Die Nahtstellen, also jene beiden Stellen, an denen beide Varianten mit dem Kontext verbunden sind, sind bei Revisions-Varianten vom Typ Ersetzung stets identisch (in Abbildung 1: die Textstellen B und C). Revisions-Varianten dieses Typs besitzen die selben (Kon-)Textscharniere.5 Da Varianten zwangsläufig in temporärem Abstand voneinander entstehen und niedergeschrieben werden, ist die Variante V2 Bestandteil einer eigenen, neuen Textschicht. Die Dynamik der Textschichten resultiert aus der Textbewegung, welche durch die Arbeit am Notentext, insbesondere durch Variantenbildung ausgelöst wird. Die Textoberfläche, d. h. der für jede einzelne Arbeitsphase jeweils gültige Text, der sich aus dem Geflecht von Variantenschichtungen ergibt, formiert eine bestimmte Textstufe. Für die Statik oder die Konstanz der Textstufe sorgt der mehr oder weniger unverändert bleibende Kontext, der die Varianten einschließt. (In Abbildung 1 bilden die Textstrecken A–B und C–D den unveränderten Kontext.) Auf der Grundlage der bisherigen Merkmalsbeschreibung kann nun die bisher noch fehlende begriffliche Bestimmung von Revisions-Varianten nachgeliefert werden. Revisionsgezeugt sind diese Ersetzungs-Varianten, weil die ursprüngliche Textversion V1 bereits verbindlich in einen Kontext eingebettet war, bevor sie durch V2 verdrängt wurde. Revision bedeutet Wiederbetrachtung von etwas, das bereits vorhanden und verbindlich gesetzt ist. Dem distanzierten Blick des Wiederlesens hält das schon gewonnene, ganz in den Kontext integrierte Segment V1 nicht mehr Stand, weshalb es durch V2 ersetzt wird. Da V1 Bestandteil der bereits geschlossenen Textstufe A–B(V1)C–D war, muss die Ersatzversion V2 notwendigerweise an den Kontextscharnieren B bzw. C analoge Textqualitäten wie V1 aufweisen. Das aber heißt, Revisions-Varianten begründen aufgrund ihrer besonderen Texteigenschaften zwar unterschiedliche, aber prinzipiell gleichwertige Textstufen. Qualitative ästhetische Wertungen sind für die Variantenbestimmung bedeutungslos. Ob eine Variante ‚besser‘ ist als die andere, ist unter textgenetischen Gesichtspunkten irrelevant. Eine weitere relationale Grundeigenschaft von Varianten betrifft semantische Qualitäten: Jede Revisions-Variante vom Typ Ersetzung muss isoliert für sich genommen ein sinnvolles Textsegment darstellen und sich ebenso sinnvoll in die vom Komponisten klar im Werktext definierte Position einfügen. Ersetzungs-Varianten korrespondieren nicht nur formal (hinsichtlich ihrer identischen Kontexteinbettung bzw. ihrer identischen Kontextscharniere), sondern auch semantisch (als sinnvolle Textpassage) miteinander. Semantische Korrespondenz bedeutet allerdings nicht, dass zwischen V1 und V2 eine inhaltlich-strukturelle Ähnlichkeitsbeziehung oder eine quantitative Identität bestehen müsste. Auch die Textlängen 5

Varianten vom Typ Ersetzung, die bei Satzanfängen oder -schlüssen auftreten, sind an einer Stelle jeweils mit einem Null-Scharnier ausgestattet. Im erstgenannten Fall geht dem Variantenbeginn kein Text voraus, im zweiten Fall folgt dem Variantenende kein Text nach. In beiden Fällen fungieren Grenzen des komponierten Textes (Anfang und Schluss) als Scharnierstellen.

26

Bernhard R. Appel

von V1 und V2 können sich beliebig voneinander unterscheiden. Lediglich die Kontextscharniere müssen bei beiden Varianten semantisch und syntaktisch stimmig sein; welcher und wie viel Text zwischen den Scharnieren steht und die Varianten substantiell voneinander unterscheidet, kann inhaltlich und quantitativ nahe beisammen oder weit auseinander liegen. Weil Revisions-Varianten vom Typ Ersetzung als gleichwertige Text-Zwillinge formale und semantische Eigenschaften miteinander teilen, kann man sie auch als korrespondierende oder parallele Varianten bezeichnen. Was hier abstrakt beschrieben wurde, teilt sich in folgendem Beispiel (Abb. 2) unmittelbar mit: Die Spielfigur in Violine I (T. 31, 3. Zählzeit bis T. 32 einschließ-

Abbildung 2: Ludwig van Beethoven, 6. Symphonie („Pastorale“) op. 68, 2. Satz: Szene am Bach, T. 31–33; autographe Partitur (D-BNba; Signatur: BH 64, fol. 50 recto)

lich 2. Zählzeit) ist gestrichen. Im untersten, ansonsten leer mitlaufenden System der Partitur wird die Variante notiert, welche die gestrichene Passage ersetzt. Ein Vi= =de-Vermerk zwischen dem System der Violine I und dem untersten System stellt den gemeinten Bezug her. Der Textschluss jeder Variante wird jeweils durch ein segno markiert.

U

27

Merkmale kompositorischer Varianten

Das Beispiel zeigt, dass Revisions-Varianten in einer parallelen bzw. in einer paradigmatischen Beziehung stehen: In einer Aufführung könnten beide Varianten alternativ gewählt werden, und beide Male wäre sinnvolle Musik zu hören.6 Durch die genannten Merkmale sind Ersetzungs-Varianten klar von der Korrektur abgegrenzt. Im etymologischen Sinn (und man sollte sich auf einen engen, rigiden Begriffsgebrauch einigen) meint Korrektur die Berichtigung eines Schreibversehens oder eines Textfehlers. In der Korrektur verläuft die Textbewegung von falsch zu richtig bzw. von sinnlos zu sinnvoll, wogegen durch Variantenbildung der Text zwar sinnverändert wird, aber in allen Varianten stets sinnvoll ist. Dass die Unterscheidung zwischen Korrekturen und Varianten für den Editor manchmal eine schwierige, nicht selten sogar eine unlösbare Aufgabe ist, sei nicht verschwiegen.

2 Sofort-Varianten Revisions-Varianten müssen nicht nur von Korrekturen, sondern auch von der Gattung der Sofort-Varianten abgegrenzt werden. Wie der etwas sperrige Begriff anzeigt, treten Sofort-Varianten als unmittelbar zeitlich aufeinander folgende Konzeptionsänderungen auf, in denen eine vorliegende Textpassage sofort nach ihrer Niederschrift durch eine Neuformulierung ersetzt oder sonst wie geändert wird (Abb. 3). ‚Variante V4‘

Textschicht 3: F(‚V4‘)H Textschicht 2: E–F Textschicht 1: E–G

H E

F G

E

G

Textstufe 2: E–F–H

Textstufe 1: E–G

Abbildung 3: Sofort-Varianten

Sofort-Varianten sind von sehr begrenzter Haltbarkeit.7 Die Variante V3 verfügt zwar über einen Kontextanschluss F zu Beginn, jedoch über keinen KontextAnschluss am Ende. Sie endet als Abbruch G quasi in einer konzeptionellen Sackgasse. Im Unterschied zum Fehler oder Schreibversehen ist der sofort gestrichene Textabschnitt V3 aber keinesfalls sinnlos oder fehlerhaft, sondern er ist – für sich als Textsegment betrachtet – sinnvoll, korrekt und musikalisch akzeptabel. Aufgrund der genannten Merkmale besitzt der ad hoc verworfene Textteil V3 keine textkonstitutive Standfestigkeit (Firmitas), weshalb er zwar einer eigenen Textschicht, aber nicht einer geschlossenen Textstufe angehört. Bestandteil einer 6

7

Ob der aufführungspraktische Rückgriff auf die frühere, verworfene Variante durch eine konsistente Fassung legitimiert ist, ist dagegen zweifelhaft. Zur Problemlage vgl. die nachfolgenden Darlegungen zur Variantenkohärenz. In Tabelle 2 (S. 32) wird die Variantenhaltbarkeit Firmitas genannt.

28

Bernhard R. Appel

vollständig ausgebildeten Textstufe, einer wirklichen Fassung, wird erst die neue Textversion ‚V4‘, die allerdings mehr ist als nur ein Textäquivalent für V3. Auch diese abstrakten Darlegungen können durch ein Beispiel konkretisiert werden (Abb. 4):

Abbildung 4: Ludwig van Beethoven, Sonate für Klavier und Violine G-Dur op. 96, 3. Satz: Scherzo. Allegro, Ende des Scherzo-Teils, Beginn des Trios, T. 24–32, , + 33–58. Arbeitsmanuskript (US-NYpm; Signatur: MA 16; fol. 11 verso und 12 recto; Faksimile-Ausgabe. Hrsg. von Martin Staehelin. München 1977)

Der gestrichene, 13 Takte umfassende Teil, T. , zeigt den ursprünglichen Entwurf zum Trio-Beginn des Scherzo-Satzes aus Beethovens Violinsonate op. 96. Dieses Notat (nennen wir es unserer Abbildung 3 gemäß V3) ist in der für die Entwurfsphase typischen Weise als streng lineares (d. h. einstimmiges) Leitstimmen-Konzept, das zwischen den Partitursystemen wechselt, fixiert. Im Textvergleich zwischen Streichung (T. ) und Neukonzeption (T. + 33–45: nennen wir diese Neukonzeption mit Vorbehalt ‚V4‘) zeigt sich, dass der Melodieverlauf des ursprünglichen Leitstimmen-Entwurfs in der definitiven Neufassung nahezu tongetreu erhalten geblieben ist; er wurde dort lediglich ‚uminstrumentiert‘. Dennoch stehen Leitstimmen-Entwurf V3 (T. ) und die mit ihm offenkundig inhaltlich korrespondierende Neukonzeption ‚V4‘ (T. + 33–45) nicht in einem gleichwertigen Ersetzungs-Verhältnis, wie wir es bei Revisions-Varianten

Merkmale kompositorischer Varianten

29

kennen gelernt haben. Diese Ungleichwertigkeit zwischen V3 und ‚V4‘ hat mehrere Gründe. 1. Man erkennt die Ungleichwertigkeit schon anhand des skripturalen Erscheinungsbildes: Die Version V3 ist ein fleischloser Skelettsatz, wogegen die Version ‚V4‘ als vollständig ausformulierter Tonsatz auftritt.8 In dieser Form ist er auch in den Erstdruck der Violinsonate (S. A. Steiner, Wien Juli 1816) eingegangen. Mit anderen Worten, nur ‚V4‘ gehört einer geschlossenen Textstufe, nämlich der Ausarbeitung, an. Das verworfene Leitstimmen-Konzept V3 dagegen war Bestandteil der noch offenen Entwurfsphase. Während im gezeigten Manuskript die Textstufe Ausarbeitung vollständig zugänglich ist, ist die Textstufe Entwurf naturgemäß nur unvollständig, als Fragment oder textuelles Relikt greifbar. 2. Der Leitstimmen-Entwurf schließt zwar logisch und grammatisch korrekt an das Scherzo-Ende (T. 32) an, aber der Leitstimmen-Schluss (T. ) ist ein Abbruch ohne syntaktische Verbindung zu T. 46. Mit anderen Worten: V3 fehlt ein zweites Kontextscharnier. Die definitive Textversion ‚V4‘ fügt sich natürlich organisch-logisch in den Kontext ein. Ihr Beginn (T. + 33) lässt sich exakt bestimmen, aber nicht ihr Ende, weil zwischen der Neufassung und dem sich anschließenden Kontext keine Scharnierstelle festgelegt werden kann. In Analogie zur gestrichenen ersten Variante den T. 45 als ‚Schluss‘ der neuen Version bzw. als Übergangsstelle zwischen ‚V4‘ und Kontext zu definieren wäre schiere Willkür. Das heißt, die endgültige Textversion ‚V4‘ ist an ihrem ‚Schluss‘ buchstäblich nahtlos in den umgebenden Kontext integriert, das Leitstimmen-Konzept V3 dagegen nicht. Damit bestätigt sich ein zweites Mal, dass das Leitstimmen-Konzept (T. ) niemals Bestandteil einer geschlossenen Frühfassung des Scherzo-Satzes gewesen sein kann. Es wurde ad hoc gestrichen, also bereits verworfen, bevor der Satz seinen kompositorischen Abschluss gefunden hat. Sofort gestrichene Textpassagen sind immer textliche Sackgassen; sie verfügen zwar über einen kontext-adaptierten Eingang (weil sie den vorangegangenen Text logisch fortschreiben), besitzen aber keinen kontext-adaptierten Ausgang, weil sie abbrechen und sich die Frage nach einem folgenden, noch gar nicht existenten und auch niemals zukünftig existierenden Anschluss logischerweise gar nicht stellt. (In Fällen, wo sich ausnahmsweise auch der Schluss einer ad hoc gestrichenen Textpassage grammatisch-logisch in den Kontext einfügte, wäre dies ein zufälliges, aber kein spezifisches Merkmal einer Sofort-Variante.) Trotz der beschriebenen Differenzen sind Sofort-Varianten ebenso wie Revisions-Varianten sinnvolle Textgestalten, wodurch sie sich eindeutig von Schreibversehen unterscheiden. 3. Sofort-Varianten unterscheiden sich von Revisions-Varianten außerdem darin, dass sie in einer nicht-paradigmatischen Beziehung zueinander stehen. Ei8

Dass auch ‚V4‘ ursprünglich bloß einmal ein einstimmiges Leitstimmenkonzept analog zu V3 gewesen ist, darf als sicher angenommen werden. Wir können ‚V4‘ jedoch nur noch als ausgearbeiteten Text und nicht mehr in seiner Urform wahrnehmen und diese auch nicht sicher rekonstruieren.

30

Bernhard R. Appel

ne Klangprobe aufs Exempel würde dies hörfällig machen. Sofort-Varianten können aufführungspraktisch nicht gegeneinander ausgetauscht werden. Zu behaupten, die definitive Textversion ‚V4‘ gehöre dem Varianten-Typ Ersetzung an, trifft den Sachverhalt nicht. Denn V3 gehört zunächst zur 1. Textschicht (Entwurf). Sie wird in der 2. Textschicht (Ausarbeitung) fallengelassen und dadurch erst als Variante definiert, und sie wird schließlich in einer 3. Textschicht durch eine Neukonzeption ausgetauscht, die man nur noch in Anführungsstrichen als ‚V4‘ bezeichnen kann (weil sie qualitativ und quantitativ mehr als bloß einen Ersatztext für V3 liefert). Wir haben es (wie aus Abbildung 3 ersichtlich) demnach mit drei Textschichten, aber nur mit zwei unterschiedlichen Textstufen zu tun. Brächte man die erste Textgestalt einer Sofort-Variante in einen kontextuellen Zusammenhang mit dem sich anschließenden Text, so entstünde daraus eine unzulässige Textstufen-Kontamination. (Derlei geschieht nicht selten bei amateurhaften Fassungsrekonstruktionen.) Unzulässig ist eine Textstufen-Kontamination deshalb, weil sie temporär, inhaltlich und qualitativ differente Textzustände in einen Zusammenhang bringt, der offensichtlich niemals so bestanden hat und der somit den komponierten Textsinn verfälscht. Diese Feststellung führt notwendigerweise zu einem weiteren wesentlichen Aspekt der Variantenbildung, der bei einer textgenetischen Analyse und ihrer editorischen Präsentation zu berücksichtigen ist. Treten in ein- und derselben Textschicht (Revisions-)Varianten an verschiedenen Textorten auf, so besteht zwischen ihnen eine Varianten-Kohärenz, die in Verbindung mit den unverändert bleibenden Kontextpassagen eine besondere Textstufe begründet. Textstufen bzw. Fassungen definieren sich nicht nur durch die Summe ihrer Varianten, sondern durch fassungsinterne Variantenzusammenhänge. Hierzu gehören Parallelstellen mit identischen oder ähnlichen Variantenbildungen ebenso wie differierende, aber im selben chronologischen Überarbeitungszusammenhang installierte Varianten. Dieser systemische Bezug zwischen mehreren Varianten definiert für eine spezifische Textstufe deren Kohärenz. Die Beobachtung der Varianten-Kohärenz ist eine Grundvoraussetzung für die editorische Konstitution von Fassungen. Als ein Exempel hierfür sei nochmals das erste Notenbeispiel aus dem 2. Satz von Beethovens 6. Symphonie in Erinnerung gerufen und mit einer Parallelstelle in Verbindung gebracht. Mit der in Abb. 2 gezeigten Variante der Violinstimme in T. 31–32 korrespondiert wenig später, in T. 36–37 eine gleichartige konzeptionelle Änderung.9 Beide textlich voneinander getrennten Varianten sind kohärent: Die ursprünglichen Varianten von T. 31–32 und T. 36–37 gehören gemeinsam zu einer frühen, die nachfolgenden Varianten von T. 31–32 und T. 36–37 gemeinsam zu einer späteren Textstufe. Eine frühe Variante der ersten Textstelle (T. 31 f.) darf nicht mit der späten Variante der zweiten Textstelle (T. 36 f.) kontaminiert werden. (Das gilt natürlich auch vice versa.) 9

Ludwig van Beethoven, 6. Symphonie („Pastorale“) op. 68, 2. Satz: Szene am Bach, T. 36–37; autographe Partitur (D-BNba; Signatur BH 64, fol. 50 verso – 51 recto). Abbildung abrufbar im Digitalen Beethoven-Haus, www.beethoven-haus-bonn.de, Zugriff August 2008.

Merkmale kompositorischer Varianten

31

Um unterschiedliche Textgestalten zu codieren und in einer digitalen Edition verfügbar zu machen, ist es unabdingbar, die habituelle Unschärfe musikphilologischer Begriffe zu vermeiden oder wenigstens zu vermindern. Textgenetische Sachverhalte müssen durch eine Begrifflichkeit erfasst werden, die sich mittels eindeutig festgelegter Parameter in eine technische Codierung umsetzen lässt. Einen vorläufigen, noch unscharfen Ansatz zur Bestimmung von Varianten-Kriterien liefert die im Anhang beigefügte Tabelle. Bekanntermaßen finden abstrakte methodische und terminologische Reflexionen bei Musikphilologen nicht nur wenig Interesse, sondern stoßen nicht selten auf vehemente Abwehr. Mit dem gleichermaßen kurzschlüssigen wie anmaßenden Argument, das Œuvre eines jeden Komponisten zeichne sich durch eine individuelle Problemlage aus, die im praxisfernen Methodendiskurs nicht zu erfassen sei, sondern die – wenn überhaupt – nur durch die geballte Kompetenz eines auf den Komponisten spezialisierten Editors gelöst werden könne, wird die Theorie- und Methodendiskussion beendet, bevor sie überhaupt begonnen hat. Dem gegenwärtigen Umbruch zwischen Papier- und digitaler Edition, den die Paderborner Tagung nicht nur thematisiert, sondern zugleich fördert, wird auch der in Konventionen verstrickte Editor sich auf Dauer nicht entziehen können. Neue technische Möglichkeiten fordern unerbittlich Antworten ein: Es wäre nicht das erste Mal, dass technische Anforderungen quasi nebenbei das methodische Denken disziplinieren. Und selbst wenn der digitalen Edition engere Grenzen gesetzt sein sollten als erhofft, hat sie einen lohnenden Diskurs in Gang gesetzt.

Anhang In der nachfolgenden Kriterien-Tabelle zur Erfassung von Varianten werden zwei Befundkategorien (Topographie und Skriptur) und zwei hermeneutische Gesichtspunkte (Chronologie und Taxonomie) unterschieden, die mit ihren Unterpunkten jene Merkmale liefern, die bei einer digitalen Codierung zu berücksichtigen wären.

32

Bernhard R. Appel

Kategorien/Kriterien:

Erläuterungen:

1 1.1 1.2

Topographie Textzeuge Textkoordinaten

1.3

Textlänge

örtliche Befunddaten Autograph, Manuskript, Sigle, Signatur kontextuelle Verortung innerhalb des Zeugen (Anfang/Ende): Seite, Folio, Akkolade, System (Stimme), Taktzähler etc. Taktumfang gemäß 1.2

2 2.1 2.2 2.3

Skriptur Schreiber Schreibmittel Notierungsform bzw. Aufhebungsform

2.4

Verbindung

3 3.1

Chronologie Textschicht

3.2

Textstufe

3.3

Firmitas

3.4

Textstatus

4 4.1 4.2

Taxonomie Autorisation Varianten-Typ

4.3

Fassungs-Relevanz

4.4

Varianten-Kohärenz

materielle Befunddaten Komponist, im Auftrag handelnder Kopist Blei, Tinte, Rötel Grundschicht, Überschreibung, Interlinear-, Marginalnotat, Beiblatt-Notierung etc. Streichung, Rasur, Tektur ‚link‘ zwischen V1 und V2: Einfügungs- oder Verweisungszeichen, Vi-de, Zuordnungsstriche, Pfeile etc. zeitbezogene Befund-Interpretationen relative Chronologie der Variantenbildung: Textschicht 1,. . . ,n Ausarbeitungsstadium: z. B. Entwurf, Arbeitsmanuskript, Reinschrift oder jeweils gültige Textoberfläche: Textstufe 1,. . . ,n temporär gültige (aufgehobene) oder definitive Textversion ‚Variantengattung‘: Revisions-Variante oder SofortVariante textkonstitutive Wertungen direkt (autograph), indirekt (Anweisung) Revisions-Varianten: Substitutionsform: Ersetzung; Tilgung; Erweiterung; Umstellung; Sofort-Varianten Revisions-Variante = geschlossene Fassung begründend; Sofort-Variante 6= keine geschlossene Fassung begründend systemischer Zusammenhang der Variante mit anderen Varianten der selben Textschicht

Tabelle 2: Kriterien genetischer Varianten in Kompositionen (jeweils anzugeben für mindestens zwei Segmente: V1 (Substituendum) und V2 (Substitutum))

Anette Müller

Überlegungen zu einer digitalen textgenetischen Darstellung von Robert Schumanns Adagio und Allegro op. 70 Mit Robert Schumanns Adagio und Allegro op. 70 für Klavier und Horn (ad libitum Violoncello oder Violine) soll im Rahmen des Edirom-Projektes1 erstmals eine digitale textgenetische Edition erarbeitet werden. Eine elektronische Ausgabe, deren Ziel die Darstellung kompositorischer Entscheidungsprozesse ist, stellt grundlegend andere Forderungen an den Editor, an seine Arbeitsmethoden und an die technischen Arbeitsmittel als eine Ausgabe, die einen geschlossenen, gewissermaßen statischen Werktext präsentiert. Anders als bei einer kritischen Edition, bei der ein authentischer Werktext konstituiert wird und editorische Entscheidungen zugunsten bestimmter Lesarten und Varianten begründet werden, ist bei der textgenetischen Ausgabe der Blick auf den Kompositionsverlauf gerichtet. Zu beschreiben sind hier nicht nur sämtliche materiellen Textträger mit den in ihnen enthaltenen Textschichten bis hin zur ‚Fassung letzter Hand‘, sondern es sind auch innere Zusammenhänge aufzuzeigen, die Bestandteile der Textentwicklung sind. Hieran lässt sich die Arbeitsweise des Komponisten ablesen und zugleich die Genese des Werks nachvollziehen. Sie zeigt sich in einer durchstrukturierten Hierarchie: Der Komponist notiert zunächst nur die für ihn wichtigsten Textteile, das musikalische Substrat. Vergleichbar einem textilen Gewebe wird der Werktext anschließend weiter ausgearbeitet, Verknüpfungen und Rückbezüge werden hergestellt und eine zunehmend komplexere Textur geschaffen.2 Diese Prozesse sind in einer elektronischen genetischen Werkausgabe zu dokumentieren und zugleich darzustellen. Hierin liegt eine besondere Herausforderung: Aus philologischer Sicht erfordert dieser Editionstyp eine umfassende Beschreibung und editorische Aufbereitung aller verfügbaren Text-Quellen. Diese Informationen sind datentechnisch so zu verarbeiten, dass Kompositionsprozesse und strukturelle Verflechtungen adäquat visualisiert werden. Die digitale Publikationsform verspricht dabei bedeutend effizientere Darstellungsmöglichkeiten als der Informationsträger Papier dies vermag. Schumanns Adagio und Allegro op. 70 bietet sich für eine Probeedition mit der Edirom aus mehreren Gründen an. Die Quellen, die den Kompositionsverlauf dokumentieren, sind nahezu lückenlos überliefert: Vom ersten musikalischen Entwurf über die mehrfach revidierte autographe Klavierpartitur, die Stichvorlagen 1 2

Vgl. http://www.edirom.de, Zugriff August 2008. Der Aspekt des Prozesshaften steht auch im Mittelpunkt der musikalischen Skizzenforschung und der in Frankreich aus der literarischen Editionsphilologie herausgebildeten critique génétique. Zu den Problemen der literatur- oder musikbezogenen textgenetischen Forschung vgl. Bernhard R. Appel: Über die allmähliche Verfertigung musikalischer Gedanken beim Schreiben. In: Die Musikforschung 56, 2003, S. 347–365.

34

Anette Müller

von Kopistenhand, einen eigenhändigen Titelentwurf Schumanns, bis hin zu den Originalausgaben von Klavierpartitur und Einzelstimmen und einem Korrekturexemplar des Komponisten von einem Stimmen-Erstdruck sind, mit Ausnahme der verschollenen Korrekturfahnen, sämtliche Quellen überliefert, die man überhaupt erwarten kann.3 Günstig für einen editorischen Modellfall ist auch die an sich banale Tatsache, dass das Werk nur 221 Takte umfasst und durch die kammermusikalische Besetzung für Klavier und Horn (ad libitum Violoncello oder Violine) einen quantitativ kleinen und vergleichsweise leicht überschaubaren Notationsraum beansprucht. Hinzu kommt, dass Sekundärquellen, die die Entstehungs- und Rezeptionsgeschichte erhellen (wie beispielsweise Briefe oder Tagebuchnotizen), zahlreich überliefert sind, so dass sowohl für die Dokumentation und Edition als auch für die Kommentierung optimale Bedingungen vorliegen. Da sich die Probeedition mit der Edirom zurzeit noch in der Konzeptions- und Planungsphase befindet, wird im Folgenden nur ein vorläufiger Problemaufriss zur Diskussion gestellt. Die Vision von einer idealen textgenetischen Werkausgabe in digitaler Form zielt im Wesentlichen auf folgende Punkte: 1. eine vollständige und vielfältig nutzbare Darstellung aller Quellen, die zur Textgenese gehören, 2. eine editorische Aufbereitung sämtlicher Kompositionsdokumente, 3. eine umfassende Erschließung der Notentexte unter werkgenetischen Aspekten, 4. eine verbale Quellenbeschreibung und Kommentierung, 5. eine kritische Edition des authentischen Werktextes und 6. eine audiovisuelle Präsentation aller Varianten, die zur Werkentstehung gehören. Ad 1: Als Hauptbestandteile einer genetischen Edition sollten die Notentexte in zweifacher Form zugänglich sein: zum einen als digitale Farbfaksimiles und zum anderen in einer editorisch aufbereiteten Transkription, wobei eine Quelle wahlweise in einer dieser Wiedergabeformen abrufbar oder beide Darstellungsweisen miteinander kombinierbar sein sollten (vgl. Abb. 1). Um den Kompositionsverlauf zu rekonstruieren und einen direkten Lesartenvergleich zwischen den Textquellen 3

Der erste Entwurf des Komponisten und das stark überarbeitete Particell befinden sich heute im Heinrich-Heine-Institut, Düsseldorf, Sammlung Dr. R. Dittert und Frau Gisela Dittert-Roes. Schumanns Dresdner Kopist Carl Gottschalk erstellte die Stichvorlagen für den Erstdruck von Partitur und Stimmen. Die Manuskripte werden im Robert-Schumann-Haus Zwickau unter der Archiv-Nr.: 2–A1 aufbewahrt. Das Schumann-Haus besitzt darüber hinaus auch einen autographen Titelentwurf (Archiv-Nr.: 415–A3). 1849 erschienen die Erstausgaben von Partitur und Stimmen bei Friedrich Kistner in Leipzig. Prof. Dr. Reinhard Kapp (Wien) schenkte dem Schumann-Haus 2002 eine gedruckte Partitur nebst Streicherstimmen aus dem Besitz des Geigers Wilhelm Josef von Wasielewski, Schumanns späterem Konzertmeister in Düsseldorf (Archiv-Nr.: 02.18–D1/A4). Hierzu gehört auch eine Violinstimme mit einer handschriftlichen Einzelkorrektur des Komponisten.

Überlegungen zu einer digitalen textgenetischen Darstellung von R. Schumanns op. 70

35

zu ermöglichen, sollte darüber hinaus auch eine Paralleldarstellung verschiedener Textträger möglich sein (vgl. Abb. 2). Dass das neue Medium dabei weitaus mehr Darstellungs- und Kombinationsmöglichkeiten bietet als eine gedruckte Notenedition, liegt auf der Hand. Ad 2: Im Zuge einer textgenetischen Edition sind alle Kompositionsdokumente beschreibend und kommentierend aufzuarbeiten. Grundlage der Edition ist die Quellentranskription. Daher ist zunächst die jeweils letzte gültige Textschicht der Kompositionsdokumente in modernem Notensatz wiederzugeben, wobei eigentümliche Schreibweisen (z. B. hinsichtlich der Behalsungsrichtung oder der Bogensetzung) getreu zu übernehmen sind (vgl. Abb. 1). Über textliche und materielle Manuskriptmerkmale wie die verschiedenen Schreiberhände, Revisionsmaßnahmen oder Manipulationen am Textträger (z. B. Rasuren oder Tekturen) informieren editorische Anmerkungen, die über Links sowohl vom Faksimile als auch von der diplomatischen Umschrift aus abrufbar sind. In der digitalen Wiedergabe der Entwurf-Fassung von Schumanns Adagio und Allegro (Abb. 1) leitet ein Icon4 in dem gestrichenen Takt 141 den Nutzer weiter zu einer Synopse, die über die Korrektureingriffe des Komponisten in T. 141 ff. informiert (vgl. Abb. 3). In dieser Darstellung wird sowohl die Grundschicht im Entwurf wiedergegeben als auch die von Schumann korrigierte Textversion. Beide Textschichten sind Bestandteile der Werkgenese und als solche editorisch zu präsentieren. Grundsätzlich sollte die Edition weitgehend selbsterklärend sein, also möglichst wenig Verbalhinweise enthalten und vorzugsweise mit grafischen Mitteln wie farblicher Kennzeichnung und diakritischen Zeichen arbeiten. Durch eine weitgehend non-verbale Darstellung sind die übermittelten Informationen nicht nur visuell schnell zu erfassen, sondern auch für einen internationalen Nutzerkreis – insbesondere im Hinblick auf eine mögliche Internet-Präsentation – leichter zu verstehen. Ad 3: Im Idealfall bietet eine elektronische Edition nicht nur die Möglichkeit, alle sondierten Text-Schichten innerhalb eines Kompositionsdokumentes in ihrer Schreibchronologie synoptisch darzustellen, sondern auch die verschiedenen TextStufen innerhalb des Kompositionsverlaufs zu vermitteln. Dies setzt voraus, dass Editor und Nutzer sich auf zwei Beschreibungsebenen bewegen können: zum einen einer materiellen Beschreibung der Textträger und zum anderen einer interpretierenden Darstellung unter textgenetischen Aspekten. Die synoptische Wiedergabe stellt die Schaffensgenese weitgehend selbsterklärend dar. Der Kompositionsverlauf, der sich in einer Sequenz von Entscheidungsprozessen manifestiert, welche aus den Textzeugen editorisch zu rekonstruieren sind, ist also auch ohne verbale Erläuterungen in hohem Maße nachvollziehbar. Eine elektronische Edition sollte über die Paralleldarstellung von Textschichten und -stufen hinaus auch die Möglichkeit bieten, Textkohärenzen aufzuzeigen (wie 4

Das Icon ist ein kleiner roter Punkt, der über der Taktzahl angezeigt wird. Alle Icons – wie auch die Taktzahlen – sind für jedes Quellenfenster individuell ein- und ausblendbar.

36

Anette Müller

Abbildung 1: Edirom-Screenshot, Entwurf, T. 137–: Faksimile und Transkription in Paralleldarstellung (Autograph: Heinrich-Heine-Institut, Düsseldorf, Sammlung Dr. R. Dittert und Frau Gisela Dittert-Roes)

Abbildung 2: Edirom-Screenshot, Beginn des Adagio: vergleichende Darstellung von Erstdruck und Stichvorlage (Partitur-Erstdruck: Handexemplar R. Schumanns, Robert-Schumann-Haus Zwickau, Archiv-Nr.: 4501,14-D1/A4; Kopistenhandschrift: Robert-Schumann-Haus Zwickau, Archiv-Nr.: 2–A1)

Überlegungen zu einer digitalen textgenetischen Darstellung von R. Schumanns op. 70

37

Abbildung 3: Edirom-Screenshot, Entwurf, T. 139 ff.: Transkription und Paralleldarstellung der Grundschicht (obere Akkolade) und der von Schumann korrigierten Textversion (untere Akkolade)

z. B. parallele Variantenbildungen). Im Idealfall verfolgt eine digitale textgenetische Ausgabe also den ehrgeizigen Anspruch auf Totalität und Vollständigkeit ebenso wie eine transparente Editorik, in der alle Entscheidungen des Herausgebers überprüfbar sind. Alles, was in einem kompositorischen Zusammenhang steht und aufeinander bezogen werden muss, sollte auch visuell in Beziehung gesetzt sein.

Ad 4: Neben einer möglichst selbsterklärenden Quellenedition ist eine präzise verbale Beschreibung und Typologie der Kompositionsdokumente unverzichtbar. Über den Navigator (vgl. Abb. 3, rechter Bildausschnitt), der den Nutzer in Form eines ‚Inhaltsverzeichnisses‘ durch die verschiedenen Bereiche der elektronischen Edition leitet, können jederzeit Erläuterungen zur Werkgeschichte (Entstehungsund Rezeptionsgeschichte), zur Textgenese (Kompositionsverlauf, idiomatische Schreibweisen) und zu den nachweisbaren Quellen (Quellenbeschreibung und -bewertung) abgerufen werden. Dokumente, die zur Kommentierung herangezogen werden – wie Briefe, Korrekturzettel oder Rechnungen – sind sowohl als Faksimile als auch in Transkription verfügbar. Die Möglichkeit der Volltextsuche erleichtert zudem eine Recherche im Kommentarteil.5 5

In der Probeedition von Schumanns op. 70 sind bislang nur die Notenquellen erfasst und mithin im Navigator aufgeführt. Zu den Zugriffsmöglichkeiten auf verbale Textquellen und editorische Kommentare vgl. den Beitrag von Markéta Štědronská: Zur digitalen Edition von Antonín Dvořáks Humoreske Ges-Dur, op. 101, Nr. 7, S. 47–52, hier insbesondere die Screenshots.

38

Anette Müller

Ad 5: Als Weiterführung und Ergänzung der genetischen Edition sollte eine kritische Ausgabe des Werktextes erstellt werden, die auf den Erkenntnissen der Quellenüberlieferung und der Textgenese gründet.6 Ad 6: Eine hilfreiche Ergänzung zum bloßen Notentext bietet eine audiovisuelle Präsentation aller Varianten, die zur Werkentstehung gehören. Sie ermöglicht es, kompositorische Entscheidungen im Verlauf der Werkgenese auch hörend nachzuvollziehen. Wie weit sich diese genannten Leitvorstellungen technisch realisieren lassen, wird an Schumanns Komposition zu erproben sein. Eine der Kernfragen ist, wie sich textdynamische Prozesse visualisieren lassen. Wie lässt sich die Statik der Textzeugen in eine Textbewegung überführen, von der behauptet werden darf, sie rekonstruiere den Schaffensprozess? Da die Chronologie von textgenetischen Prozessen immer nur als Reihung von Schnitten und nicht als fließendes Kontinuum dargestellt werden kann, bestimmte Zusammenhänge also nur punktuell an Beispielen aufgezeigt werden können, werden Möglichkeiten und Grenzen einer genetischen Edition mit der Edirom im Folgenden an sechs Takten (T. 141–146) aus Schumanns Kompositionsmanuskripten exemplifiziert. Die Genese dieser Takte verlief nicht im Sinne einer kontinuierlichen Textentwicklung von der frühesten Skizze über Arbeitsmanuskript und Stichvorlage bis hin zur ‚Fassung letzter Hand‘, sondern vollzog sich zunächst zirkulierend zwischen Entwurf und Arbeitsmanuskript. Erst durch eine Textschichtenanalyse werden diese Zusammenhänge deutlich: Schumanns erste Niederschrift des Adagio und Allegro erfolgt in der für den Komponisten typischen Particellform (vgl. Abb. 4). Das heißt, Schumann fixiert zunächst die bereits weitgehend verbindlich ausgearbeitete Leitstimme, die stellenweise auch artikulatorische und dynamische Vortragsbezeichnungen enthält. In den beiden unteren Systemen skizziert er den Bassverlauf und implizit den harmonischen Rhythmus weitaus weniger differenziert. Durch Generalbassziffern wird die Harmonik an einigen Stellen präzise fixiert. Da der Werktext virtuell in Schumanns Kopf präsent ist, werden Wiederholungen nicht ausgeschrieben, sondern lediglich durch Ziffern oder Buchstabenverweise angedeutet. Dass sich zu manchen dieser Rückverweise keine korrespondierenden Referenzstellen finden, ist ebenfalls symptomatisch für Werkstattmanuskripte, die ausschließlich für den eigenen Gebrauch des Komponisten bestimmt sind und nur von ihm selbst ganz verstanden werden konnten. Der Entwurf enthält bereits alle wesentlichen Bestandteile des später ausgearbeiteten Werks. Die Hierarchien, in denen Schumann beim Komponieren denkt, werden in diesem arbeitsökonomisch subtil organisier6

Ralf Westermann (geb. Schnieders) und Johannes Kepper erarbeiteten bereits mit der Vorgängerversion der aktuellen Edirom eine kritische Edition von Carl Maria von Webers Klarinettenquintett B-Dur, op. 34. Die digitale Edition wurde 2005 als Beilage zum Gesamtausgabenband veröffentlicht (Carl Maria von Weber: Sämtliche Werke. Serie VI, Bd. 3, Mainz 2005) und ist inzwischen in einer überarbeiteten, plattformunabhängigen Version verfügbar.

Überlegungen zu einer digitalen textgenetischen Darstellung von R. Schumanns op. 70

39

Abbildung 4: Entwurf, S. 4 (T. 138–221): Faksimile des Autographs (Heinrich-Heine-Institut, Düsseldorf, Sammlung Dr. R. Dittert und Frau Gisela Dittert-Roes)

ten Manuskript manifest: Zunächst notiert er nur das musikalische Substrat – die Leitstimme und das harmonische Gerüst. Die Ausarbeitung folgt später in

40

Anette Müller

einer separaten Klavierpartitur.7 Auch Vortragsbezeichnungen, also akzidentelle Textelemente, werden in der Hauptsache erst in einer späteren Arbeitsphase ergänzt. Nach Beendigung des Entwurfs beginnt Schumann mit der Ausarbeitung des Werks in einer Klavierpartitur (vgl. Abb. 5). Dabei überträgt er die Hornstimme aus dem Entwurf in das Arbeitsmanuskript, ergänzt weitere Vortragsbezeichnungen und füllt das Außenstimmengerüst im Klavierpart durch Begleitfiguren, Mittelstimmen und Akkorde. Bei der anschließenden Revision geht Schumann wie schon bei der Skizzierung und der kompositorischen Ausarbeitung keineswegs systematisch vor, sondern widmet sich kleinen syntaktischen Einheiten. Er korrigiert die Überleitung zur Reprise zunächst bis T. 141 (vgl. Abb. 5, vierte Akkolade), gerät dann offenbar ins Stocken und kehrt – obwohl die Ausarbeitung zu diesem Zeitpunkt bereits abgeschlossen ist – wieder zum Entwurf zurück. Hier setzt er mit einer Korrektur in T. 141 an (vgl. Abb. 4, oberste Akkolade, vorletzter Takt), bricht dann aber ab, um die Takte 141 und 142 zu streichen und die Überleitung zur Reprise in der letzten Akkolade, nun um vier Takte erweitert, neu zu konzipieren (Abb. 4, letzte Akkolade). Anschließend kehrt Schumann zur Klavierpartitur zurück und arbeitet die neu skizzierten Takte auf einer noch leeren Manuskriptseite aus (Abb. 6). Er streicht die verworfene Textversion im Arbeitsmanuskript (vgl. Abb. 5, T. 142 ff.) und verweist durch einen „vi-de“Vermerk auf den Einschub am Manuskriptende. Abschließend unterzieht er die neu konzipierten Takte einer Revision. Die Komposition dieser Takte verlief also keineswegs ‚linear‘ im Sinne einer kontinuierlich und bruchlos wachsenden Entwicklung von einem Textzeugen zum nächsten. Vielmehr entwickelte Schumann den Werktext in einer Art Pendelbewegung, in der er zwischen Einfall und Ausarbeitung wechselte, sofern konzeptionelle Änderungen dies notwendig machten. Demzufolge darf sich eine textgenetische Edition des Werks nicht darauf beschränken, Entwurf und Arbeitsmanuskript als voneinander getrennte materielle Textzeugen zu behandeln, sondern sie hat vielmehr die textdynamischen Verflechtungen zwischen den Quellen aufzuzeigen. Wie diese komplexen Zusammenhänge mit Hilfe der Edirom-Software vermittelt werden können, wird momentan erprobt. Ein möglicher Lösungsansatz wäre folgender: Um den Kompositionsverlauf visuell nachvollziehen zu können, sind die einzelnen Textzeugen als Farbfaksimiles abrufbar. Dabei können wahlweise ganze Seiten oder auch frei definierbare Manuskriptteile ausgewählt werden. Abb. 7 zeigt eine solche Ausschnittvergrößerung der Takte 140–148 aus dem Entwurf. Der ausgewählte Textausschnitt erstreckt sich im Manuskript über die Akkoladen 1 und 2 und schließt außerdem eine nachträgliche Einfügung in Akkolade 8 mit ein (vgl. hierzu Abb. 4). Die Edirom-Software ermöglicht es, diese Takte am Monitor 7

Bernhard R. Appel bezeichnet diese Kompositionsweise Schumanns als „syntagmatischen Arbeitsweg“, den der Komponist ab 1845 fast ausnahmslos in seinen Werken beschreitet. Vgl. Bernhard R. Appel: Poesie und Handwerk. Robert Schumanns Schaffensweise. In: Schumann Handbuch, hrsg. von Ulrich Tadday. Stuttgart und Weimar 2006, S. 140–193, besonders S. 156–165.

Überlegungen zu einer digitalen textgenetischen Darstellung von R. Schumanns op. 70

41

Abbildung 5: Arbeitsmanuskript, S. 5 (T. 125–199): Faksimile des Autographs (Heinrich-HeineInstitut, Düsseldorf, Sammlung Dr. R. Dittert und Frau Gisela Dittert-Roes)

in die vorgesehene Anordnung zu bringen, d. h. an Akkolade 1, die eine frühe, verworfene Textversion enthält, schließt Akkolade 8 mit den neu konzipierten Überleitungstakten unmittelbar an; es folgt die Reprise in Akkolade 2. Derartige dynamische Darstellungsweisen sind in gedruckten Editionen nicht umzusetzen.

42

Anette Müller

Abbildung 6: Arbeitsmanuskript: Teilfaksimile von S. 7 mit den neu konzipierten Überleitungstakten (Heinrich-Heine-Institut, Düsseldorf, Sammlung Dr. R. Dittert und Frau Gisela Dittert-Roes)

Darüber hinaus lassen sich – wie unter Punkt 2, S. 35 beschrieben – durch Verlinkung zusätzliche Informationen bereitstellen. In dem dargestellten Beispiel wird auf diese Weise von T. 141 im Entwurf aus zu einer Übersicht geleitet, die sämtliche konzeptionsändernden Maßnahmen in den angegebenen Takten dokumentiert. Wie eine solche Synopse aussehen könnte, zeigt Abb. 3: In der Paralleldarstellung sind die beiden Textschichten im Entwurf einander gegenübergestellt – die obere Akkolade gibt die erste Skizzierung des Textausschnitts wieder und die untere Akkolade Schumanns Korrektur, die einerseits aus der Streichung der beiden Überleitungstakte T. 141 und 142 und andererseits aus einer um vier Takte erweiterten Neukonzeption besteht. Optisch wird bei dieser Darstellungsweise suggeriert, dass sich die Textgenese in diesen beiden Kompositionsschritten vollzogen hat, dass also die Neukonzeption der Takte unmittelbar nach der Skizzierung des Werks erfolgt ist. Eine Darstellung, die diese Botschaft transportiert, wäre jedoch irreführend. Wie bereits ausgeführt wurde, sind die beiden Textschichten im Entwurf nicht identisch mit den frühesten kompositorischen Textstufen. Die erste Textschicht repräsentiert auch die erste Stufe im Kompositionsverlauf. Die zweite Textschicht aber – also die Neukonzeption der Überleitungstakte – korrespondiert nicht etwa mit der zweiten, sondern mit einer deutlich späteren textgenetischen Stufe. Sie entstand erst, nachdem Schumann das Werk bereits auskomponiert und anschließend revidiert hatte. Eine bloße Wiedergabe der Textschichten ohne Einbettung in ihren textgenetischen Kontext würde daher nicht nur wesentliche Informationen über den Kompositionsprozess unterdrücken, sondern liefe auch Gefahr, Sachverhalte zu verfälschen. Eine saubere textgenetische Edition hat also auch die textgenetischen Verflechtungen des Entwurfs mit anderen Quellen aufzuzeigen.

Abbildung 7: Edirom-Screenshot: zusammenhängende Ausschnittvergrößerung der Takte 140–148 aus dem Entwurf (Heinrich-Heine-Institut, Düsseldorf, Sammlung Dr. R. Dittert und Frau Gisela Dittert-Roes)

Überlegungen zu einer digitalen textgenetischen Darstellung von R. Schumanns op. 70

43

44

Anette Müller

Eine anschauliche und sich selbst erklärende Darstellung könnte hingegen wie folgt aussehen: Über einen Link an der Korrekturstelle gelangt der Nutzer zu einer Synopse der einzelnen Kompositionsschritte (vgl. Abb. 8): Die früheste Textschicht im Entwurf bildet zugleich die 1. Textstufe innerhalb der Genese (Abb. 8, 1. Akkolade, hier grau hinterlegt). Die 2. genetische Stufe wird durch die auskomponierten Takte im Arbeitsmanuskript repräsentiert (2. Akkolade), die 3. Stufe durch die revidierte Textversion im Arbeitsmanuskript (3. Akkolade). Bei der 4. Textstufe, die wieder im Entwurf manifest wird, handelt es sich um die Neukonzeption der Überleitungstakte zur Reprise (4. Akkolade, in der Abb. grau hinterlegt). Schumann komponierte die Takte anschließend im Arbeitsmanuskript aus und erreichte damit die 5. Textstufe (5. Akkolade). Es folgte eine abschließende Revision (6. Akkolade). Um zu verdeutlichen, dass sich die textdynamischen Prozesse in zwei getrennten, aber dennoch aufeinander bezogenen Dokumenten entwickeln, wurden die Textstufen im Entwurf farblich von den Kompositionsstufen im Arbeitsmanuskript abgehoben und in der Synopse grau hinterlegt. Farblich hervorgehoben sind in der elektronischen Edition auch die konkreten textlichen Veränderungen zwischen den aufeinanderfolgenden Textschichten, wodurch sie auf einen Blick als Varianten erkennbar sind.8 Da eine wesentliche Aufgabe einer genetischen Werkedition in einer umfassenden Kommentierung besteht, werden alle Passagen, in denen sich neue Textschichten ausprägen, miteinander verlinkt. Dass diese Möglichkeit der technischen Vernetzung einer Visualisierung textdynamischer Verflechtungen eher entgegenkommt als die Darstellungsmöglichkeiten, die eine gedruckte Edition bietet, dürfte außer Frage stehen. Zusammenfassend lässt sich festhalten, dass die neue Technik bedeutend vielfältigere und differenziertere Darstellungs- und Kombinationsmöglichkeiten bietet als eine konventionelle Papier-Edition. Auf digitalem Weg wird das Verstehen von Tiefenstrukturen der Textgenese überhaupt erst in anschaulicher Weise möglich. Durch das Moment des Deiktischen, das in der synoptischen Anordnung der Textstufen wirksam wird, ist eine weitgehend selbsterklärende Darstellung erreicht. Umständlich formulierte, wenig anschauliche Editionskommentare können entfallen oder erheblich reduziert werden, die Ausgabe wird benutzerfreundlicher. Zudem ist eine weitgehend beliebige Verlinkung verschiedenster Komponenten möglich. Die neue Technik bietet dem Nutzer also vielfältige Möglichkeiten. Sie nimmt aber den Editor durch erheblich größeren Arbeitsaufwand in die Pflicht und macht ihn zugleich zum ‚gläsernen Philologen‘: Jede seiner schaffensgenetischen Interpretationen, jede Transkription und jede editorische Text-Entscheidung ist unmittelbar überprüfbar. Die editorischen Schwierigkeiten einer digitalen genetischen Ausgabe bestehen vorerst noch in der Diskrepanz zwischen dem hohen Anspruch, sehr komplexe 8

Eine mehrfarbige Wiedergabe ist im Rahmen dieser Publikation leider nicht möglich.

j œ n œœ œœœ b n œœœ

cresc.

j œœ n œœ œœ n œ

œ œœœ

œœ œœ

b & b b b c ‰ n œœ œœ

? bb c bb nw nw 139 bb b c ˙ . & b

b & b b b c ‰ n œœ œœ

b & b bb c ˙ .

j œ nœ œœœ n œœ

œ œœœ

b & b b b c ‰ n œœ œœ

? bb c bb nw nw

139



cresc.

? bb c bb nw nw 139 bbb c ˙ b . &

139

œ œœœ

j œ nœ œœœ n œœ



b & b b b c ‰ n œœ œœ

139 cresc.

‰ œ b œœ ^ b˙. w

˙

‰ œ b œœ ^ b˙. w

˙

w

139

? bb b c b nw

˙

‰ œ b œœ ^ b˙. w

œ œœ

œ œœ

œ œœ

Ó

Ó œ œœ

œ œœ

œ œœ







nœ nœ



œ nœ

˙ ˙

˙ ˙ nœ

w w

˙ ˙

j j œ ‰ œ œ œ nœ n œœœ b œœœ œœœ œœœ œœ

˙.

w w

j j œ ‰ œœ œœ œœ n œœ n œœœ b œœ œœ œœ œ

˙.

w

w

œ

w w

j j œ ‰ œ œ œ nœ n œœœ b œœœ œœœ œœœ n œœ j œ

j œ

j œ

^ w˙ .

‰ œœ œœ

˙

^ ˙ w.

‰ œœœ œ

˙

w

œ

˙

^ ˙ w.

‰ œœ œœ

˙.



˙.

w

‰ œœ œœ

˙.

˙.

w

w

b˙.





j j œ œœ ‰ œ œ œ n œ œœœ n œœ b œœœ œœœ œœœ n œœ

˙.

w

˙



w

œ œœœ



˙.

w

‰ œ b b œœœ

w

b & b b b c n b ww

? bb c bb nw nw 139 bb b b c b ˙ . &

139

139



cresc.

139

b & b bb c ˙ . nœ

w

139

? bb b c b nw

˙ b˙.



b & b b b c n b ww

bb & b b c b˙.

139



œœ œœ

œœ œœ

œœ œœ

œœ œœ

œœ

Ó

Ó

œ

Ó

œœ œœ

œœ œœ

œœ œœ

œœ œœ









œ

nw

˙

œ

œ

œ

œ

œ

œ

œ

w

˙

œ

œ

œ

n˙ n˙

œ

w

œ œ œ

w n˙

˙ ˙

œœ œ

j j œ ‰ œœ œœ œœ œœ ‰ œœ œœ œœ œœ œœ n œœœ œœ

œ

w n˙

j j œ œ œ œ œ œ n œœœ ‰ œœœ œœœ œœœ œœœ ‰ œœœ

j œ n œœœ

f œœ ‰

j œ n œœœ

f œœ ‰

œ œ œ œ



œ Œ

œ Œ

œ

œœ œœ

œœ œœ

œ

œ

˙

œ

œ bœ Ó

w Ó

j œœ œœ ‰ œœ œœ œ # œœ

œ

w Ó

j œœ œœ ‰ œœœ œ # œœ œ œ bœ Ó

˙

œ

œ

œ

˙

œœ œœ

œœœ œ

˙ ˙

œ

˙ ˙

œœ œœ

œ

œœ œ

j œœœ ‰ n œœœ nœ œ

n˙.

œœ œ

j œœœ ‰ nn œœœœ œ

n˙.

œ œœœ œ

˙

œ

˙ œ

œ

œ Œ

œ Œ

˙

œœ œœ

œœ œœ

œ œ

‰ f

f œ

œ œ

œœ

œœ

œ

n œw

œ

œœ

œœ

> > > œ œ nœ

f

b œœœ

œ f b œœœ

f

b œœ œ

œ f b œœœ



œ œ nœ

œ œ

œœ

fœ œ.

. fœ œœ

f

œœ œœ f œ˙



b œœœœ

œ

œœ œœ

œ

b n œœœ nœ

œ œ

œœ œ

fœ œ.

. fœ œœ

œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ

Im er=sten Tempo a tem

j nœ œ ˙ f

‰ nœ œ œ

Ó

Ó

œ œ nœ œ bœ œ

Ó

Ó

œ œ œ nœ œ bœ

Ó

Ó

œ œ œ œ œ œ

Ó

Ó

œ œ œ nœ œ œ

œ œ œ œ œ œ œ

œ œ œ

œ

œ œ œ œ

œ œ œ

œ

œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ

Im er=sten Tempo a tem

œ

> > > œ œ nœ

‰ œ œ nœ œ w nœ > > > w œ œ œ œ œ œ œ nœ œ œ œ œ

‰ n œ ˙ .. ˙ ..

œ

‰ œ œ nœ œ w nœ > > > w œ nœ œ œ œ œ œ œ œ œ œ œ

j ^ œœœ n ˙˙˙˙ œ

œ œ

j œœ ‰ œœœ œœ œ f œ œ

œ

œœ œœ

‰ f

œ œ

œœ œ nœ ‰ œ S



œ œ

œ

nœ œ œ œ œ œ œ œ œ œ œ œ œ œ œ

‰ n œ ˙ .. ˙ ..

œ

n œw

œ œ œ œ œ œ œ nœ œ œ œ œ œ œ œ œ œ œ œ

Überlegungen zu einer digitalen textgenetischen Darstellung von R. Schumanns op. 70

45

Abbildung 8: T. 139–148: synoptische Darstellung der einzelnen Textstufen. Von oben: 1. Textstufe = Entwurf (EW), 1. Textschicht (hier grau hinterlegt) – 2. Textstufe = Arbeitsmanuskript (AM), 1. Textschicht – 3. Textstufe = AM, 2. Textschicht – 4. Textstufe = EW, 2. Textschicht (hier grau hinterlegt) – 5. Textstufe = AM, 3. Textschicht – 6. Textstufe = AM, 4. Textschicht

46

Anette Müller

textdynamische Zusammenhänge transparent darzustellen, und der immensen Unsicherheit, textuelle Sachverhalte korrekt zu interpretieren. Unsichere Lesarten und Probleme bei der chronologischen Zuordnung erschweren dem Editor häufig die Rekonstruktion genetischer Prozesse. In vielen Fällen ist es nicht möglich, einzelne Textschichten eines Dokumentes zweifelsfrei in eine zeitliche Abfolge zu bringen. Auch der Versuch, verschiedene Varianten inhaltlich oder zeitlich zueinander in Beziehung zu stellen, ist oft zum Scheitern verurteilt. Das neue Medium zwingt den Editor jedoch zu Präzision und konsequentem Handeln. Aus technischer Sicht bietet der Computer zwar die Möglichkeit, sich auf einer Metatext-Ebene zu bewegen, auf der der Editor über sein eigenes Tun reflektiert, doch können dem Nutzer immer nur jene kompositorischen Zusammenhänge aufgezeigt werden, die zuvor vom Herausgeber erkannt und entsprechend aufbereitet worden sind. Dabei hat der Editor seine Methode nicht nur den neuen technischen Möglichkeiten anzupassen, sondern er hat zugleich gewisse didaktische Leistungen mit Blick auf den Nutzer zu erbringen, indem er dessen Wahrnehmung auf bestimmte Zusammenhänge lenkt, ihn quasi durch die vielfältigen Verknüpfungsund Kombinationsmöglichkeiten, die die digitale Edition bietet, ‚navigiert‘. Gegenüber dieser Fülle an Visualisierungsmöglichkeiten treten die engen methodischen Grenzen einer textgenetischen Edition besonders deutlich zutage. Inwieweit der mit einer genetischen Ausgabe verbundene immense editorische und technische Aufwand das Ergebnis rechtfertigt, wird vielleicht der Testfall von Schumanns op. 70 zeigen.

Markéta Štědronská

Zur digitalen Edition von Antonín Dvořáks Humoreske Ges-Dur, op. 101, Nr. 7

Die Digitalisierung einer wissenschaftlich-kritischen Musikedition ist weniger eine ungewöhnliche als vielmehr eine selbstverständliche Reaktion auf die Entwicklung im Zeitalter der Technisierung. Die Herausforderung einer digitalen Musikedition besteht dabei nicht nur in der Herstellung entsprechender Software und Editorentools, sondern vor allem in ihrer erfolgreichen Umsetzung in die Praxis. Da hinsichtlich des letzteren immer noch viel Skepsis und Misstrauen herrscht, ist es sehr wichtig, über die ersten gesammelten Erfahrungen beim Ausprobieren solcher ‚Neuheiten‘ zu berichten und sie zu diskutieren. Um einen solchen Zwischenbericht geht es auch in diesem Beitrag. Er soll zum einen die erste Zusammenarbeit zwischen der Neuen Dvořák-Gesamtausgabe 1 und dem Edirom-Projekt2 vorstellen, zum anderen kurz auf die Spezifika der digitalen Edition von Dvořáks Humoreske Ges-Dur, op. 101, Nr. 7 eingehen. Die Kooperation zwischen der Neuen Dvořák-Gesamtausgabe Prag (NDE) und der Edirom-Forschungsstelle Detmold/Paderborn ist insofern einmalig, als es sich in beiden Fällen um relativ junge Projekte handelt. Während das erste Konzept einer Edirom-Software 2004 von Ralf Westermann (geb. Schnieders) entwickelt wurde, gab den entscheidenden Impuls für die Entstehung der NDE ein internationaler musikwissenschaftlicher Kongress Antonín Dvořák – stav souborného kritického vydání (Antonín Dvořák – Stand der Gesamtausgabe), der 1999 in Prag stattgefunden hat.3 Im Unterschied zur ersten Dvořák-Gesamtausgabe setzt sich die NDE zum Ziel, ein viel breiteres Quellenspektrum zu berücksichtigen, wobei ihr Schwerpunkt vor allem in bisher nicht publizierten Opernwerken von Dvořák liegt. Die 2006 beim Bärenreiter-Verlag publizierte Urtextedition von Dvořáks Humoreske Ges-Dur aus dem Opus 1014 ist noch unabhängig von der NDE erschienen, sie stützt sich aber schon im Wesentlichen auf deren Editionsrichtlinien.5 Diese Einzelausgabe diente als Grundlage für die Erstellung der digitalen Edition, die anlässlich der Sitzung des Editorial Board der NDE im September 2007 in Prag vorgestellt worden ist und die als internes Material der Edirom-Forschungsstelle zur Verfügung steht. Die gedruckte Urtextedition ist 1 2 3 4 5

http://www.antonindvorak.org, Zugriff August 2008. http://www.edirom.de, Zugriff August 2008. Die Kongressbeiträge sind abgedruckt in: Hudební věda 37 (2000), S. 2–59. Antonín Dvořák: Humoreske Ges-Dur, op. 101, 7 für Klavier. Hrsg. von Petra Kvasničková und Markéta Štědronská. Kassel u. a. 2006 (Bärenreiter Urtext). Zu den Editionsrichtlinien der NDE siehe Hudební věda 40 (2003), S. 247–281 sowie http://www.antonindvorak.org/index.php?option=com_content&task=view&id= 15&Itemid=32, Zugriff August 2008.

48

Markéta Štědronská

ein Jahr vor der Edirom-Version entstanden, also völlig unabhängig von ihr. Die Herausgeberinnen waren in der Zeit der Vorbereitung der gedruckten Ausgabe noch nicht mit der Edirom-Software vertraut und haben diese auch nicht als Hilfsmittel der editorischen Arbeit verwendet. Der zeitliche Abstand sowie die Möglichkeit, ein Jahr später mit einem modernen Medium zu arbeiten, sind zwei Aspekte, die zu beachten sind, wenn man nach den qualitativen Unterschieden zwischen den beiden Editionstypen fragt. Zunächst sei jedoch auf einige quantitative Differenzen hingewiesen. Die Urtextedition der Humoreske ist dank der abgedruckten autographen Quellen zugleich eine Faksimileausgabe. Trotz dieser vorteilhaften Ausstattung kann der traditionelle, gedruckte Notenband kaum noch eine vollständige Fassung des Erstdrucks bringen, geschweige denn sämtliche sekundären Quellen wie Briefe im ganzen Umfang wiedergeben. Eine solche komplette Quellendarstellung ermöglicht erst die digitale Edition, die auf nahezu unbegrenzten Speicherplatz zurückgreifen kann. Sie erlaubt zugleich eine Erweiterung der aus der Urtextedition übernommenen Texte, insbesondere der Generellen Anmerkungen, die in der Edirom nicht nur umfassender, sondern dank der Verlinkung auch eng miteinander verknüpft sind. Zum einen werden in diesem Teil des Kritischen Berichts manche editorisch bedeutsamen Fälle und charakteristischen Merkmale des (in mehreren Quellen) überlieferten Notentextes herausgegriffen, zum anderen bisher stillschweigend vorgenommene editorische Eingriffe thematisiert. Während sich die gedruckte Edition z. B. mit den einzelnen Schichten des Notentextes nur am Rande beschäftigt, untersucht die Edirom alle vorkommenden Korrekturformen. Die Generellen Anmerkungen gehen etwa auch auf Dvořáks Notationsgepflogenheiten (Kürzung/ Verlängerung der Bögen, Notierung von Pausen und Vorschlagsnoten etc.) ein. Obwohl manche dieser Aspekte über den Rahmen eines üblichen Revisionsberichts hinausgehen, ist ihre Berücksichtigung durchaus von Bedeutung, zumal sie wesentlich zum besseren Verständnis des neu edierten Notentextes beitragen. Das Problem, das eine derartige Erweiterung der Kommentare im Kritischen Bericht mit sich bringen könnte, nämlich die Gefahr der Unübersichtlichkeit und einer unnötigen Informationsfülle, wird im digitalen Medium mühelos durch Einund Ausblendungsfunktionen gelöst (Abb. 1). Die Vorteile der digitalen Darstellungsweise erschöpfen sich keineswegs in den unbegrenzten Möglichkeiten der Quellenvisualisierung. Selbst in einem bildarmen Teil des Kritischen Berichts – in den Einzelanmerkungen – können die Werkzeuge der Edirom sehr effektiv eingesetzt werden. Auch wenn schon in den Einzelanmerkungen des gedruckten Kritischen Berichts auf Parallelstellen verwiesen wurde, konnten dort nicht alle Analogien und Zusammenhänge angesprochen werden. Erst durch die Sortierfunktionen der digitalen Edition sind die Einzelanmerkungen zu einem vernetzten und aussagekräftigen Komplex geworden. Indem die Anmerkungen zu den verschiedenen musikalischen Kategorien (Diastematik, Rhythmik, Dynamik etc.) eng aufeinander bezogen sind, kann sowohl der in den Quellen überlieferte als auch der neu edierte Text auf spezifische Probleme hin untersucht und befragt werden (Abb. 2).

Zur digitalen Edition von Antonín Dvořáks Humoreske Ges-Dur, op. 101, Nr. 7

49

Abbildung 1: Edirom Screenshot: Generelle Anmerkungen mit ein- und ausblendbaren Faksimile-Ausschnitten

Abbildung 2: Edirom Screenshot: Einzelanmerkungen (gefiltert nach Diastematik)

50

Markéta Štědronská

Die Sortiertools werden auch für weitere Kategorien wie Notationsungenauigkeiten, Korrekturen oder Editorische Eingriffe verwandt, so dass der Benutzer schnell einen Überblick etwa über Stellen bekommt, an denen die Edition die Lesart des Autographs übernimmt und somit von der Hauptquelle – dem Erstdruck – abweicht. Die Orientierung und die Nachvollziehbarkeit der Einzelanmerkungen werden in der Edirom auch dadurch erleichtert, dass jeder Kommentar auf eine Prioritätsskala (hier: 1–3) bezogen wird (Abb. 3).

Abbildung 3: Edirom Screenshot: Einzelanmerkungen mit Kurzbeschreibungen

So sieht man bereits auf den ersten Blick, welche Anmerkungen auf wichtige editorische Eingriffe oder auf gravierende Abweichungen zwischen den Quellen hinweisen und welche umgekehrt nur marginale, für die Gestalt des edierten Notentextes sekundäre Informationen enthalten.6 Schließlich sollte ein sehr wichtiges Merkmal der digitalen Edition hervorgehoben werden, und zwar ihre Eingängigkeit. Mag dieser Zug für manche mit dem Rechner nicht befreundete Benutzer als strittig erscheinen, kann die Edirom schwer verbalisierbare editorische Sachverhalte auf sehr verständliche und einfache Weise darstellen. Dies kann man gut am Beispiel des siebten Taktes dokumentieren (Abb. 4), zu dem man in den Einzelbemerkungen des gedruckten Kritischen Berichts folgende Information findet: “a suggestion of slurs from the 6

Anzumerken ist, dass die in den Einzelanmerkungen besprochenen Sachverhalte nicht nur in der abgebildeten Listenform (Abb. 3) abgerufen werden können, sondern auch aus den Faksimiles bzw. der Neuedition des Notentextes.

Zur digitalen Edition von Antonín Dvořáks Humoreske Ges-Dur, op. 101, Nr. 7

51

first beat in both voices: because of the mixture of versio primo with the newer layer their endpoint is not clear”7 (bezieht sich auf den Part der linken Hand im Autograph). Eine genaue Vorstellung von den vorgenommenen Korrekturen in diesem Takt kann jedoch erst die Zoomfunktion der Edirom vermitteln. Dank des visualisierten Vergleichs mit allen analogen Stellen ist es obendrein möglich, die Bedeutung des ersten Bogens der Oberstimme der linken Hand in diesem Takt genau zu bestimmen: Ähnlich wie in den Takten 20 oder 24 liegt hier ein Bogentypus vor, mit dem Dvořák die Geltungsdauer einer Note zu veranschaulichen pflegte.

Abbildung 4: Antonín Dvořák, Humoreske Ges-Dur, op. 101, Nr. 7, Autograph (CZ-Pnm-MAD, Inv.-Nr. 1616, folio 6v), T. 7.

Die ausgewählten Beispiele haben deutlich gemacht, dass der Beitrag der digitalen Edition weit über die bloße digitale Quellendarbietung und über die Übertragung von der herkömmlichen Ausgabe in das digitale Medium hinausgeht. Die digitale Edition von Dvořáks Humoreske Ges-Dur, op. 101, Nr. 7 ist in erster Linie als eine Erweiterung und Vertiefung der gedruckten Urtextausgabe zu verstehen. Da sie die gedruckte Edition ergänzt und gewissermaßen revidiert, besitzt sie fraglos ein höheres qualitatives Niveau. Die digitale Visualisierung und Kontextualisierung sind keineswegs nur neue Darstellungsformen bereits bekannter Tatsachen und Sachverhalte. Sie werfen neue Fragen auf und regen dazu an, sich mit Problemen zu beschäftigen, auf die man vorher nicht geachtet oder – und das muss offen gestanden werden – die man gar nicht als solche wahrgenommen hatte. So konnten viele Merkmale der Dvořákschen Notationsweise erst dann analysiert, genau beschrieben und verstanden werden, als man die Möglichkeit bekam, den Notentext als Zeugnis eines dynamischen Prozesses kompositorischer Entscheidungen8 zu betrachten und die Anmerkungen des Kritischen Berichts zu vernetzen. Wenn eine digitale Edition auf diese Art und Weise angelegt ist, läuft sie sicher nicht Gefahr, eine bloß technische Spielerei zu bleiben. Ganz im Gegenteil ist sie eine Voraussetzung dafür, dass alle editorischen Entscheidungen für den Benutzer tatsächlich nachvollziehbar, überprüfbar und nicht zuletzt kritisierbar werden, mit anderen Worten, sie garantiert dem Benutzer, dass er sich als ebenbürtiger Gesprächspartner des Editors fühlen kann. 7 8

Dvořák 2006 (Anm. 4), S. 8. Vgl. dazu in diesem Band den Beitrag von Anette Müller: Überlegungen zu einer digitalen textgenetischen Darstellung am Beispiel von Robert Schumanns Adagio und Allegro op. 70, S. 33–46.

52

Markéta Štědronská

Obwohl sich die besprochene digitale Edition nur mit einem sehr kurzen Musikstück von Dvořák befasst, kann sie dennoch als Ansatzpunkt für eine zukünftige Zusammenarbeit zwischen der NDE und dem Edirom-Projekt angesehen werden. Die Digitalisierung könnte beispielsweise bei umfangreichen, besonders bekannten bzw. in editorischer Hinsicht komplizierten Kompositionen Dvořáks als Ergänzung und Vertiefung der gedruckten Ausgabe fungieren. Sie könnte den Notentext aus noch anderen Perspektiven beleuchten, neue Zusammenhänge schaffen oder mithilfe einer visualisierten Textgenese einen Einblick in die Werkstatt des Komponisten geben.

Christine Siegert

Joseph Haydns Arienbearbeitungen auf Papier und am Bildschirm

Bearbeitungsprozesse stellen einen Editor oder eine Editorin stets vor besondere Herausforderungen. Dies gilt auch für die Bearbeitungen von Arien und Szenen anderer Komponisten, die Joseph Haydn als Esterházyscher Kapellmeister für den Opernbetrieb in Eszterháza angefertigt hat. Die Bearbeitungen werden derzeit für die Gesamtausgabe Joseph Haydn Werke zur Edition vorbereitet. Das Editionsverfahren ist, dem Gegenstand entsprechend, für die Ausgabe ungewöhnlich. So lag es nahe, gerade mit den Arienbearbeitungen noch einen Schritt weiterzugehen und eine digitale Edition auszuprobieren. Für die Arie „Vorrei punirti, indegno“ und die Szene „Mora l’infido“ – „Mi sento nel seno“, die beide selbst innerhalb des Korpus von Haydns Bearbeitungen noch Sonderfälle darstellen, hat das Team des DFG-Projekts Digitale Musikedition gemeinsam mit der Verfasserin eine Edirom-Ausgabe entwickelt.1 Die für die Gesamtausgabe erarbeiteten Editionsverfahren sind schon mehrfach thematisiert worden2 und können hier deshalb kurz zusammengefasst werden. Grundsätzlich gilt für die Edition, dass Ausgangs- und Endfassung klar erkennbar und der Bearbeitungsprozess nachvollziehbar sein soll. Je nach Art der Bearbeitung werden simultane, sukzessive und synoptische Darstellungsformen kombiniert, nicht zuletzt, um Platz zu sparen. Die Stichvorlage wird per Computersatz erstellt. Um eine Hierarchisierung der Fassungen möglichst zu vermeiden, werden Haydns Eingriffe in der Edition grau unterlegt, Kürzungen werden ge1

2

Für ihren Einsatz und die gute freundschaftliche Zusammenarbeit möchte ich mich sehr herzlich bei Johannes Kepper, Daniel Röwenstrunk, Peter Stadler und dem Projektleiter Joachim Veit bedanken. Vgl. Armin Raab: Die Edition von (Opern-)Bearbeitungen in Komponistengesamtausgaben. In: Bearbeitungspraxis in der Oper des späten 18. Jahrhunderts. Bericht über die Internationale wissenschaftliche Tagung Würzburg, 18. bis 20. Februar 2005. In Verbindung mit Armin Raab und Christine Siegert hrsg. von Ulrich Konrad. Tutzing 2007 (Würzburger musikhistorische Beiträge. 27), S. 305–322; Christine Siegert: Losgelöst vom Autorwillen? Gattungstypische Distributionsphänomene der Opera buffa und Möglichkeiten ihrer Edition. In: Autoren und Redaktoren als Editoren. Internationale Fachtagung der Arbeitsgemeinschaft für germanistische Edition und des Sonderforschungsbereichs 482 „Ereignis WeimarJena: Kultur um 1800“ der Friedrich-Schiller-Universität Jena, veranstaltet von der Klassik Stiftung Weimar. Hrsg. von Jochen Golz und Manfred Koltes. Tübingen 2008 (Beihefte zu editio. 29), S. 189–203. Die vollständige Edition der rekonstruierten C-Dur-Fassung der von Haydn bearbeiteten Arie „Dove mai s’è ritrovata“ ist abgedruckt in Christine Siegert: Die Fassungen der Arie „Dove mai s’è ritrovata“ aus Pasquale Anfossis Oper „I viaggiatori felici“. In: Perspektiven und Aufgaben der Haydn-Forschung. Bericht über den Internationalen wissenschaftlichen Kongreß Köln, 23.–25. Juni 2005. München 2006 (Haydn-Studien. 9), S. 107–136, hier S. 121–136.

54

Christine Siegert

strichen wiedergegeben. Mit der Stichvorlage wird ein vollständiger Vorschlag für den Seitenumbruch erarbeitet, um die Darstellung der Bearbeitungsvorgänge möglichst übersichtlich zu gestalten.3

1 „Vorrei punirti, indegno“ Die Arie „Vorrei punirti, indegno“ aus Pasquale Anfossis Dramma giocoso La finta giardiniera hat Haydn gleich zweimal bearbeitet; entsprechend erscheint sie in den Bänden der Haydn-Gesamtausgabe doppelt, und zwar, da das Ordnungsprinzip der Chronologie von Haydns Bearbeitungen folgt, in zwei verschiedenen Bänden, was für den Vergleich der beiden Fassungen von großem Vorteil ist. Die erste Bearbeitung stammt von 1780, als La finta giardiniera in Eszterháza aufgeführt wurde.4 Außerdem findet sich die Arie als Einlage in der für die Esterházysche Aufführung verwendeten Partitur von Giuseppe Sartis Fra i due litiganti il terzo gode,5 und zwar in einer bereits bearbeiteten Version. Für die Aufführung von Sartis Oper in Eszterháza hat Haydn die Arie, ausgehend von der neuen Vorlage, 1783 erneut bearbeitet.6 Weshalb er seine erste Fassung nicht einfach wiederverwendete, ist unklar; beide Bearbeitungen waren für die Sängerin Luigia Polzelli bestimmt. Der Akkoladenumbruch der beiden Fassungen stimmt in Joseph Haydn Werke soweit als möglich überein. Dies soll den Vergleich beider Bearbeitungen möglichst erleichtern (siehe zum Beginn der Arie Abb. 1 und 2). In Haydns erster Bearbeitung von „Vorrei punirti, indegno“ (Abb. 1) hat er Oboen- und Hornstimmen hinzugefügt, in einem zweiten Schritt gegen Schluss vier Takte gestrichen, die deshalb als 117a bis d bezeichnet werden, und durch zwei neue Takte, 118 und 119, ersetzt. Auf den Ersetzungsvorgang wird durch eine Klammer zusätzlich hingewiesen. Bei seiner zweiten Bearbeitung (Abb. 2) verzichtete Haydn auf Oboen- und Hornstimmen, dafür ist im Esterházyschen Aufführungsmaterial eine Fagottstimme erhalten. Sie ist (wahrscheinlich eigenverantwortlich) vom Hauptkopisten des Opernbetriebs, Johann Schellinger, geschrieben und wird deshalb in Kleinstich gesetzt; Haydn hat sie aber durch die Aufführung von Fra i due litiganti als Teil seiner Bearbeitung autorisiert. In der Edition dienen Taktzahlen in Klammern als Konkordanzen für die Version 1780. 3 4 5 6

Mein herzlicher Dank gilt dem G. Henle-Verlag, dass er sich auf das Editionskonzept eingelassen hat. Vgl. Dénes Bartha, László Somfai: Haydn als Opernkapellmeister. Die Haydn-Dokumente der Esterházy-Opernsammlung. Budapest 1960, S. 229–233. Vgl. Bartha/Somfai 1960 (Anm. 4), S. 277–279. Zu Haydns Bearbeitungen von „Vorrei punirti, indegno“ vgl. Christine Siegert: „. . . auf unser Personale (zu Esterház in Ungarn) gebunden“. Bemerkungen zu Joseph Haydns Opernbearbeitungen am Beispiel von Pasquale Anfossis La finta giardiniera. In: Musik und kulturelle Identität. Bericht über den Internationalen Kongress der Gesellschaft für Musikforschung in Weimar 2004. Hrsg. von Detlef Altenburg und Rainer Bayreuther. Kassel 2009, im Druck; Dies.: Rezeption durch Modifikation. Verbreitungswege italienischer Opern des späten 18. Jahrhunderts im deutschsprachigen Raum. In: Oper im Aufbruch. Gattungskonzepte des deutschsprachigen Musiktheaters um 1800. Hrsg. von Marcus Chr. Lippe. Kassel 2007 (Kölner Beiträge zur Musikwissenschaft. 9), S. 111–131.

55

Joseph Haydns Arienbearbeitungen auf Papier und am Bildschirm Allegro

Oboe I

b &b c ‰

˙.

œ œ

˙

œ

œ

œ

œ

œ

Œ

Ó

Œ

Oboe II

b &b c ‰

˙.

œ œ

˙

œ

œ

œ

œ

œ

Œ

Ó

Œ

˙

Ó

œ

Œ

Ó



œ

Œ

Ó



œ

œœ œ ‰ œœœ œœœ

Corno I in B

&

c‰

˙

Ó

Corno II in B

&

c‰

˙

Ó

Violino I

Violino II

Viola

˙

b & b c œj ˙ . œœœœ f B bb c ‰ œ œ œ œ

Arminda

b &b c ‰

Bassi

? b c‰ b

˙.

œ œ

b &b c ‰

f

Ó

œ œ

b &b ˙

œ

œ

(

)

f

f œœ œ ‰ < step >G < octave >3

< duration >2 < voice >1 < type > quarter < stem > none < lyric number = " 1 " > < syllabic > begin < text > so

< note > < pitch > < step >G < octave >3

< duration >2 < voice >1 < type > quarter < stem > none < lyric number = " 1 " > < syllabic > begin < text > so

< note > < pitch > < step >G < octave >3

< duration >2 < voice >1 < type > quarter < stem > none

Tabelle 1: Codierung der Lesart von Codex R (links) und Codex D (rechts) in MusicXML

< staff def = " 1 " > < layer def = " 1 " > < note pname = " g " oct = " 3 " stem . len = " 0 " > < verse > < syl >so -

< appst id = " app1 " > < srdg source = " D " > < note pname = " g " oct = " 3 " stem . len = " 0 " / >

< srdg source = " R " / >

...

< annot staff = " 1 " start = " app1 " plist = " D R " >

D: One additional note G

Listing 1: Codierung der Lesarten von Codex D und R in MEI

Listing 2: Einfügung im Header der MEI-Datei

Digitale Edition älterer Musik am Beispiel des Projekts TüBingen < n eu me d_ s yl la bl e > < syllable >so - < neume >& STA ;& punctum ;& G ;& up ;& punctum ;& a ;& up ;& END ; ...

99

< n eu me d_ s yl la bl e > < syllable >so - < neume >& STA ;& punctum ;& G ;& up ;& punctum ;& G ;& EQ ;& punctum ;& a ;& up ;& END ; ...

Tabelle 2: Codierung der Variante in Codex R (links) und Codex D (rechts) in NeumesXML

Die Neumen selbst erhalten mit dem Attribut id eine eindeutig identifizierbare Nummer. < annot staff = " s1 " plist = " d1 d2 d3 d4 d5 " >

quilisma scandicus3 subtripunctis

< syllable > < syl > se_ < uneume id = " d1 " name = " punctum " > < note pname = " e " oct = " 3 " / >



Tabelle 3: Beispiel für die Auffassung als Quilisma-Scandicus subtripunctis

Zur Codierung einer varianten Lesart wird an den variierenden Stellen im Code das Element appst eingesetzt, das für Abweichungen steht. Das Attribut id muss eine eindeutig identifizierbare Bezeichnung tragen. Die Varianten selbst werden mit dem Element srdg codiert. Im Beispiel in Tabelle 4 ist das zweite Element srdg leer, da ein zusätzliches Punctum in Quelle D codiert wird.

< appst id = " app1 " > < srdg source = " D " / > < uneume id = " d19 " name = " punctum " > < note pname = " g " oct = " 3 " / >

< srdg source = " R " / >

Tabelle 4: Variante Lesart mit zusätzlichem Punctum

100

Stefan Morent

Der entsprechende Kommentar zu dieser Variante wird wiederum mit dem Element annot erstellt, wobei das Attribut idref auf die codierte Variante verweist (Listing 3). < annot staff = " s1 " idref = " app1 " >

D: One additional punctum G

Listing 3: Kommentar zu codierter Variante

Die speziellen Erweiterungen durch meiNeumes werden durch einen Aufruf im Head einer MEI-Datei aktiviert (Listing 4).

Listing 4: Aufruf im Head einer MEI-Datei für die Erweiterungen durch meiNeumes

Die in den Hildegard-Handschriften verwendeten C- und F-Schlüssel (mit der in Form eines Punktes verwendeten Nebenform für den F-Schlüssel) und die Zahl der Linien, die zwischen vier und fünf variieren, können, wie in Listing 5 zu sehen, codiert werden. < staffdef id = " s1 " lines = " 5 " > < clef line = " 4 " shape = " C " / > < clef line = " 2 " shape = " F " altsym = " dot " / >

Listing 5: Codierung der in den Hildegard-Handschriften verwendeten C- und F-Schlüssel und der zwischen vier und fünf variierenden Linien

Weitere Elemente erlauben die Codierung von Schlüsselwechseln und der Foliobzw. Zeilennummer innerhalb der Handschrift. Das Element syllable enthält den Text des Gesangs und die eigentlichen Neumen. Der Text ist innerhalb des Elementes syl codiert. Im folgenden Beispiel sind Zusatzinformationen, wie die Gestaltung einer Silbe als rote Initiale, zu erkennen. Im Sinne eines neumierten Textes folgen auf den Text die Neumen. Das Element uneume („uninterrupted written neume“) entspricht einem graphisch nicht unterbrochenen, in einem Schreibvorgang geschriebenen Neumenzeichen, hier einem Porrectus. Im Attribut name ist vermerkt, welche Neume dargestellt wird. Das Element note kommt je nach Neume unterschiedlich oft vor und speichert die Tonhöhe (Tabelle 5). Neumen, die aus graphisch nicht verbundenen Elementen bestehen, werden mit dem Element ineume („interrupted written neume“) codiert, das dann die einzelnen Elemente enthält. Bei komplexeren Neumen kann auch eine Verschachtelung erforderlich sein, weshalb das Element ineume sich selbst enthalten kann. Das Beispiel in Tabelle 6 zeigt die Codierung eines dreitönigen Scandicus. Spezielle Neumenformen werden mit dem Attribut form codiert. So etwa das rautenförmige Punctum im Gegensatz zum normalerweise in den Hildegard-

Digitale Edition älterer Musik am Beispiel des Projekts TüBingen

101

Handschriften verwendeten lanzettförmigen Punctum oder, wie im Beispiel in Tabelle 7 zu sehen, der Quilisma-Pes. < syllable > < syl type = " initial " > < rend color = " red " >0

< uneume name = " porrectus " > < note pname = " e " oct = " 3 " / > < note pname = " d " oct = " 3 " / > < note pname = " e " oct = " 3 " / >

Tabelle 5: Codierung der Silben-Initiale „O“ mit Porrectus

< syllable > < syl > si_ < ineume name = " scandicus " > < uneume name = " punctum " > < note pname = " a " oct = " 2 " / >

< uneume name = " punctum " > < note pname = " b " oct = " 2 " / >

< uneume name = " virga " > < note pname = " c " oct = " 3 " / >



Tabelle 6: Codierung eines dreitönigen Scandicus

< uneume id = " d2 " name = " pes " form = " quilismatic " > < note pname = " f " oct = " 3 " / > < note pname = " g " oct = " 3 " / >

Tabelle 7: Codierung des Quilisma-Pes

102

Stefan Morent

6 Projektphase 2 Nachdem die Erweiterung von MEI durch das Modul meiNeumes in Projektphase 1 abgeschlossen war, widmet sich Projektphase 2 der Entwicklung von webbasierten Visualisierungskonzepten für meiNeumes. Ein entsprechend gestaltetes Tool sollte es sowohl dem Editor ermöglichen, den Code für die Edition aufgrund der Quellen möglichst komfortabel zu erstellen, als auch dem Benutzer erlauben, die Entscheidungen des Editors leicht und transparent nachvollziehen und die Edition seinen Bedürfnissen anpassen zu können. In einem ersten Ansatz wurde hierzu der Prototyp eines solchen Graphical User Interfaces entworfen, der als Grundlage für die weiteren Entwicklungen dienen sollte. Die Abb. 2 zeigt im Entwurf des Prototypen eine hyper- und multimediale digitale Darstellung des Beginns der Antiphon O splendidissima gemma von Hildegard von Bingen. Im unteren Fensterbereich ist eine moderne Transkription der Codierung nach der Lesart von Codex R in sogenannter ‚Eierkohlennotation‘ zu erkennen. Die optisch hervorgehobene Stelle deutet auf eine Variante in Codex D hin, die im mittleren Fensterbereich ebenfalls in ‚Eierkohlennotation‘ erscheint. Oben rechts ist der Text des Kritischen Berichts wiedergegeben. In zusätzlichen Fenstern erscheinen jeweils die entsprechenden Ausschnitte der Faksimiles von Codex R und D. Links oben sind weitere Medieninhalte, wie entsprechende Audio-, MIDIoder Videofiles, verlinkt. Die Abb. 3 zeigt eine weitere wichtige Funktionalität des zu entwickelnden Visualisierungstools im Entwurf des Prototypen: Entsprechend den Anforderungen des Benutzers der Edition können verschiedene Transkriptionstypen aus der Codierung erzeugt werden. Da Darstellung und Codierung des Inhalts getrennt sind, können sie als verschiedene Views auf ein- und dieselbe Codierung aufgefasst werden: So im unteren Fensterbereich die bereits angesprochene ‚Eierkohlennotation‘, im mittleren Bereich eine Transkription in Quadratnotation oder im oberen Bereich eine hypothetische, MIDI-ähnliche Transkription mit rhythmischen Vorgaben, die für Benutzer, die mit der Interpretation von Neumen keinerlei Erfahrung haben, einen ersten Anhaltspunkt bieten könnte.

7 meiNeumes-Viewer Unter den zahlreichen zu realisierenden Funktionalitäten eines solchen Visualisierungstools konzentrierte sich Projektphase 2 im Sinne einer Aufteilung in Unterprobleme zunächst auf die Visualisierung der Codierung der HildegardGesänge in meiNeumes in ‚Eierkohlennotation‘ sowie auf die Darstellung der Varianten im Web mit dem sogenannten meiNeumes-Viewer. Obwohl die ‚Eierkohlennotation‘ nur eine der Möglichkeiten einer modernen Transkription mittelalterlicher Neumennotation darstellt und wie jede andere mit Nachteilen behaftet ist, wie bereits ein Blick in die verschiedenen Editionsformen

Digitale Edition älterer Musik am Beispiel des Projekts TüBingen

103

Abbildung 2: Entwurf eines GUI für das Projekt TüBingen: Quellendarstellung mit Varianten

Abbildung 3: Entwurf eines GUI für das Projekt TüBingen: Verschiedene Transkriptionsmodi

104

Stefan Morent

Abbildung 4: meiNeumes-Viewer: Transkription des Beginns der Antiphon O splendidissima gemma von Hildegard von Bingen in ‚Eierkohlennotation‘ mit darüber gesetzten Neumen

der Musik Hildegards zeigt,37 bietet sie den Vorteil, auch für nicht-spezialisierte Benutzer leichter lesbar zu sein; zudem hält sich der Aufwand für die Generierung der entsprechenden Notationssymbole in Grenzen. Um den Informationsgehalt, den die originalen Neumen bieten, nicht zu verlieren, wurden diese direkt über die entsprechenden Noten in der modernen Transkription gesetzt (Abb. 4). Ohne auf Details einzugehen, seien hier kurz die im meiNeumes-Viewer verwendeten Techniken zusammengefasst:38 Als Grundlage dienen die in MEI bzw. seiner Erweiterung meiNeumes codierten Gesänge Hildegards, die mit der entsprechenden DTD („Document Type Definition“) definiert sind. Auf den XMLDokumenten werden Operationen mithilfe des DOM („Document Object Model“) und mit Programmen wie XPath ausgeführt. Weitere Funktionalitäten wurden mit JavaScript und PHP implementiert. Bei der Kommunikation zwischen Client und Server und beim Aufbau der Seiten kommt die moderne Webtechnologie Ajax („Asyncronous JavaScript And XML“) zum Einsatz. Die Darstellung der Notation wurde mithilfe von SVG („Scalable Vector Graphics“) realisiert. Bei SVG handelt es sich um eine zweidimensionale Vektor-Grafik, die vom W3C („World Wide Web Consortium“) zur Darstellung im Web empfohlen wird.39 Das Format basiert auf XML und besitzt daher auch dessen Vorteile, wie z. B. die gute Lesbarkeit des Codes. Ein weiterer Vorteil besteht darin, dass in SVG erstellte Grafiken ohne Qualitätsverluste frei skalierbar sind und deshalb an variable Fenstergrößen des Browsers leicht angepasst werden können. SVG erlaubt zudem Animation und Interaktion sowie eine leichte dynamische Generierung, was vor allem zur Darstellung der Varianten und bei der Kommunikation mit dem Benutzer wichtig ist. Für den meiNeumes-Viewer werden deshalb die Transkriptionen in ‚Eierkohlennotation‘ sowie die Neumenzeichen und die Variantenfenster in SVG erzeugt. Bis auf den Internet Explorer unterstützen die gängigsten Browser wie 37

38

39

Hierzu Peter Jost: Zu den Editionen der Gesänge Hildegards von Bingen. In: Mittelalter und Mittelalterrezeption. Festschrift Wolf Frobenius. Hrsg. von Herbert Schneider. Hildesheim u. a. 2005, S. 22–53. Zur Eierkohlen- oder Punktnotation vgl. Bruno Stäblein: Editionstechnik. In: MGG 3, 1954, Sp. 1113. Ausführliche Informationen hierzu in der Diplomarbeit von Gregor Schräder: Webbasierte Visualisierungskonzepte für digitale kritische Musikedition am Beispiel von meiNeumes. Tübingen 2008; zur Veröffentlichung vorgesehen unter http://www.dimused.uni-tuebingen. de/downloads/diplomarbeit.pdf. http://www.w3.org/Graphics/SVG, Zugriff August 2008.

Digitale Edition älterer Musik am Beispiel des Projekts TüBingen

105

Abbildung 5: Schematische Darstellung des Ablaufes der Anwendung zwischen Client und Webserver

Abbildung 6: Menü-Bereich des meiNeumes-Viewers

Mozilla Firefox, Opera und Safari gegenwärtig SVG nativ, wenn auch in unterschiedlichem Grade. Der Internet Explorer benötigt als Plugin den SVG-Viewer von Adobe.40 Die Webtechnologie Ajax ermöglicht einen schnelleren Seitenaufbau, da auf einer Website nur bestimmte Unterteile bei entsprechender Anforderung neu geladen werden. Schematisch stellt sich der Ablauf der Anwendung zwischen Client und Webserver wie in Abb. 5 zu sehen dar. Der meiNeumes-Viewer öffnet sich in einem eigenen Fenster, das im oberen Bereich die Menü-Struktur enthält (siehe Abb. 6). Das Auswahl-Fenster links listet die bisher codierten und für den Viewer zur Verfügung stehenden Gesänge Hildegards von Bingen auf. Über Quelle lassen sich die verschiedenen CodierungsVarianten eines Stückes anzeigen. In blau erscheinende Quellenangaben bedeuten hierbei, dass die Codierung gemäß der Lesart dieser Quelle erfolgte und die varianten Lesarten der eventuell vorhandenen anderen Quellen desselben Stückes 40

Auch wenn die Unterstützung dieses Plugins durch Adobe aufgegeben wird, ist eine weitere Unterstützung von SVG in Zukunft für die gängigsten Browser zu erwarten.

106

Stefan Morent

Abbildung 7: Markierung und Benennung von INeumes und logischen Gruppen im meiNeumesViewer bei Mouse over

visualisiert werden. Auch eine vom Editor erstellte Version, die unter Umständen den besten Lesarten verschiedener Quellen folgt, wird so – wie in Abb. 6 zu sehen – realisiert. Schwarze Quellenangaben visualisieren die Lesart dieser Quellen, allerdings ohne Varianten. Weitere Informationen lassen sich über die Anzeigeoptionen einblenden: INeumes markiert mit orangenen Klammern graphisch getrennt geschriebene, aber logisch zusammengehörende Neumen (sogenannte Interrupted Neumes in MEI). Beim Überfahren mit der Maus erscheinen die Bezeichnungen der Neumen eingeblendet. Logische Gruppen markiert mit grünen Klammern vom Editor als logische Einheiten interpretierte Folgen von Neumenzeichen. Beim Überfahren mit der Maus erscheinen die Bezeichnungen dieser Neumengruppen eingeblendet, wie in Abb. 7 zu sehen ist. Mit Varianten lassen sich (soweit vorhanden) die varianten Lesarten eines Stückes in anderen Quellen anzeigen. Die originalen Abkürzungen des Textes für die jeweils dargestellte Quelle lassen sich mit Abkürzungen in magenta einblenden. Seiten- und Zeilenumbrüche der Quelle erscheinen mit Seiten- und Zeilenumbrüche in roten, senkrecht gestrichelten Linien unter Angabe von Folio- und Zeilennummer. Mit Skalierung lässt sich die Darstellungsgröße der Notation in verschiedenen Stufen vergrößern und verkleinern. Hierbei wird jeweils der maximale Fensterplatz genutzt. Mithilfe schwarzer Pfeile kann durch die Edition geblättert werden. Über Sprache lässt sich die Menü-Sprache in Deutsch oder Englisch darstellen. Die Export-Funktion erlaubt einen Ausdruck der Edition im PDF-Format. Das Notenbild der eigentlichen Edition erscheint unterhalb des Menüs zunächst grundsätzlich in ‚Eierkohlennotation‘ im oktavierten Violin-Schlüssel, mit den originalen Neumenzeichen über der Notation. Blau hervorgehobene Noten und Neumen weisen hierbei auf eine oder mehrere Varianten hin. Beim Überfahren mit der Maus öffnet sich ein halbtransparentes Variantenfenster, das die entsprechende Variante an dieser Stelle sowie den unmittelbaren Kontext visualisiert. Je nach Platz erscheint dieses Fenster über- oder unterhalb der Notation. Links vom Notensystem der Variante wird die Quellensigle der dargestellten Variante

Digitale Edition älterer Musik am Beispiel des Projekts TüBingen

107

Abbildung 8: Screenshot des meiNeumes-Viewers: Variante Lesarten der dargestellten Edition sind blau markiert. Im unteren Bereich hat sich das halbtransparente Variantenfenster geöffnet, das die Lesart der Quelle Z an dieser Stelle zeigt. Im oberen Bereich des Variantenfensters befindet sich der verkürzte Kritische Bericht, am rechten Rand eine blaue Schaltfläche, um die Lesart der Quelle R anzuzeigen.

angegeben, darüber erscheint ein Textkommentar, der dem Kritischen Bericht entspricht. Bei mehreren vorhandenen Varianten können diese durch die blauen Schaltflächen rechts mit der jeweiligen Quellensigle angewählt werden. Das Variantenfenster kann durch das „x“ rechts oben geschlossen werden; beim Überfahren einer anderen Variante schließt sich das momentan offene Fenster ebenfalls und es erscheint das neue Variantenfenster (siehe Abb. 8). Abhängig vom Quellenbefund kann die Visualisierung der Varianten einigermaßen komplex werden. Das Beispiel in Abb. 9 zeigt einen Abschnitt aus Hildegards Responsorium O vos imitatores, in dem sechs Stellen mit Varianten unmittelbar aufeinander folgen, die teilweise in drei verschiedenen Quellen überliefert sind. Der meiNeumes-Viewer muss hierbei flexibel auf die jeweilige Positionierung des Variantenfensters reagieren sowie den darzustellenden Kontext vor und nach der Variante entsprechend berücksichtigen. Der Screenshot in Abb. 10 zeigt den meiNeumes-Viewer in vollständiger Darstellung mit allen aktivierten Optionen.41

8 Zusammenfassung und Ausblick Die Erweiterung von MEI mit dem Modul meiNeumes zeigt, dass die bereits bestehenden Vorteile dieses Formats für musikwissenschaftliche Editionen durch flexible Adaptionen an die speziellen Anforderungen älterer Musik sehr gut genutzt werden können. Kommentare und Varianten sowie die Neumenformen der Hildegard-Handschriften lassen sich so komfortabel codieren. 41

Der meiNeumes-Viewer ist unter der Adresse http://www.dimused.uni-tuebingen.de/ hildegard zu erreichen (Zugriff August 2008).

108

Stefan Morent

Abbildung 9: Folge von Varianten im Responsorium O vos imitatores: Zur Verdeutlichung sind die varianten Quellenbefunde markiert und statisch dargestellt.

Abbildung 10: Der meiNeumes-Viewer unter Opera 9.5b2 mit allen aktivierten Hervorhebungen: Beginn der Antiphon O splendidissima gemma

Digitale Edition älterer Musik am Beispiel des Projekts TüBingen

109

Mit dem meiNeumes-Viewer liegt ein Tool vor, das die Visualisierung der Codierung im Browser erlaubt. Verschiedene Details der Edition können entsprechend dem Informationsbedürfnis des Benutzers flexibel angezeigt oder ausgeblendet werden; hier sind besonders die Varianten anzusprechen. Weitere Schritte innerhalb des Projekts TüBingen wären die Implementierung eines graphischen Editors zur komfortablen Eingabe der Codierung, die Realisierung weiterer Transkriptionsmodi, wie z. B. Quadratnotation, sowie die Integration von Faksimiles, soweit sich die damit verbundenen Rechtefragen klären lassen. Im Zuge der weiteren Codierung der Gesänge Hildegards könnte so eine digitale Edition entstehen, die Editor wie Benutzer einen flexibleren und transparenteren Umgang mit diesem Musikrepertoire erlaubt und eine gute Ergänzung zu einer nach wie vor wünschenswerten gedruckten Edition darstellt.

Eleanor Selfridge-Field

Musical Variants in Digital Practice

The word “variant” conjures up associations with several different phenomena. (1) At the most general level, a piece of music which intentionally quotes material from another piece may be considered, with respect to this shared core, a variant, although it is usually considered a derivative and enjoys as its primary identity that of an independent composition. (2) Substitute material (often a whole movement, sometimes the resetting of an entire vocal or instrumental part) constitutes another hypothetical species of the variant material. Here the context is shared by what are usually considered two related works. (3) The ordinary variants that are encountered in editing music are generally more limited in scope and may amount to only a few notes here and there, the existence of versions for somewhat different performing resources or those involving a change of key. (4) Non-ordinary variants are those which involve some kind of difference which is unusual in its nature or extent. Our focus here is on (3) minor, ordinary variants and (4) major, extensive variants in the context of digital philology. Quite apart from the variety of phenomena to which the word “variant” is applied, the possibilities for constructing a typology of variants are also very numerous. In practice, files containing musical data are usually tailored to a particular use. They are constrained by the representation system in which they are embedded. They may be constrained or enhanced by data structures, which are often optimized for specific software, rather than for a specific musical goal. The encoding of complete scores usually aims at one of four goals: (a) The creation of a specifically visual instantiation of a musical work. (b) The production of material suitable for electronic output of sound (MIDI). (c) The creation of an authoritative source for reference. (d) The preservation of a series of digital images.1 These goals—which relate to the professions of publishing, performance, musicology, and librarianship—necessarily influence one’s approach to the handling of variants, and therefore the typology of variants that is most congenial to the goal. Our goal at the Center for Computer Assisted Research in the Humanities (CCARH) at Stanford University has been to create an archive of encodings of 1

Digital preservation does not require any machine understanding of the content. It only stores information about pixels in a digital image.

112

Eleanor Selfridge-Field

complete scores which can support (a) screen-viewing, (b) sound output, and (c) a basis for making new editions, authoritative or not. We do not attempt (d) preservation-quality archiving of digital images unless we work from materials that are otherwise rare. The MuseData databases2 are conceived for multiple practical uses. The most important are to provide a secure basis for such activities as future editions (musicology), musical analysis (music theory), classroom use (music pedagogy), and data conversion (extensible uses of one data set). Being intended for the support of applications in notation, sound, and analysis, the MuseData encoding scheme is more articulate in pitch and more practical in its rhythmic scheme than MIDI. It supports notation directly, which the Humdrum encoding scheme (optimized for analysis) does not.3 We handle minor variants within the context of a single file when only random notes require a correction to pitch or duration. In this case, the typology that works best is a functional (end-use) typology. What is surprising, however, is how many varieties of minor variants we encounter in the scope of a repertory that is limited to about 200 years of musical history (c. 1700–1900). These are discussed in the first category, functional typologies, because we design solutions based on what use we expect users to make of the data. Major variants necessarily require multiple encodings of the affected portion of the work—one movement, one voice, or one instrument. Since some of our encodings are of complete operas and oratorios, multiple movements may require special treatment. In some cases we encoded multiple early sources for the purpose of exploring the degree to which a ‘work’ differs between or among them. Ideally, the deductive exploration of variants could be instructive for later editors and software developers. In these cases it is most useful to categorize variants hierarchically, that is, according to the extent of the work they affect. Because we frequently begin with out-of-copyright editions, we encounter numerous notational styles which are obsolescent. If we ‘encode the source,’ we retain some of these obsolescent features (clef signs, ornaments etc). Examples will be found below. If we encode a newly commissioned edition, then of course a modern style is used. Quite often, we retain the obsolete features in the original encoding but make a spin-off modernized edition. The PDFs of J. S. Bach’s chorales and Well-Tempered Clavier as well as Haydn’s last twelve and Beethoven nine symphonies on our website4 are ‘modernized’ to facilitate readability and playability.5 2

3 4 5

These databases contain fully encoded scores of music by Corelli (72 works), J. S. Bach (520), Handel (102), Telemann (70), Vivaldi (97), Haydn (77), Mozart (62), Beethoven (33), Schubert (15), and Brahms (1). For a thorough discussion of various music formats including Humdrum see Eleanor SelfridgeField (Ed.): Beyond MIDI. The Handbook of Musical Codes. Cambridge (MA) 1997. http://www.musedata.org, consulted August 2008. The PDFs found at http://www.musedata.org are made not from scanned images but from newly printed material generated from the stored ‘Stage 2’ data at the same website. Those in search of images which actually correspond to processable data will find it here.

113

Musical Variants in Digital Practice

The greatest degree of change occurs in one of the most familiar repertories— Bach’s four-part chorale harmonizations. A century ago, readers of the Bach Gesellschaft (BG) edition could be expected to sight-read the SATB (soprano, alto, tenor, and bass) C-clefs with ease. Today (at least in the US) they are most comfortable with the four voices shown on two staves (G- and F-clefs) and without text underlay.6 A compromise version of the 185 BG chorales—retaining the text underlay and the four-clef arrangement but modernizing the clef signs and pitch notation—was created from our original encoding (Figure 1).

&c œ

Christ der

&c œ

œ œ œ

œ

j j œ œ #œ œ

œ



lag ist

in To - des wie - der er

-

œ

ban stan

œ

U -

œ œ

den den

für und

U œ œ # œj œ œ J

œ œ œ œ J

œ œ #Uœ œ

Vc œ œ

œ

œ œ œ

?c œ

œ

œ #œ œ œ œ œ U œ œ œj J œ #œ

œ

œ

un - ser hat uns

œ

Sünd' bracht

œ œ ge das

œ œ #œ œ œ. œ



œ

œ

œ œ œ œ #œ œ œ

-

œ œ œ

ge Le

j j œ #œ œ

-

U

. œ .

ben, ben.

U j .. œ œ U

œ œ œ œ œ .. œ

œ

U

œ ..

Figure 1: Chorale no. 25, “Christ lag in Todesbanden,” in the MuseData adaptation of the Bach Gesellschaft version

The main aim of CCARH has always focused on (c), the creation of authoritative reference material which may form the basis of future editions of multiple kinds. In our case, this has been pursued through the encodings themselves, whereas in projects of more recent origin, such as that of the C. M. von Weber edition,7 it has been focused on coordinating graphical views of multiple sources for the same work. The first is costly in encoding time and verification of data; the second is expensive in terms of storage space. Only a generation from now will we truly know which one is more durable. ASCII encodings (of which CCARH’s MuseData corpora all consist) seem to survive the seemingly infinite number of changes of operating systems that commercial vendors inflict on scholars. Methods for data interchange and graphical interfaces change fairly often. 6

7

Part of the confusion among US students comes about from their greater familiarity with the Riemenschneider collection of chorale harmonizations, which contains not only the 185 works provided by the Gesellschaft but also the chorale harmonizations collected by Bach’s followers after his death. Cf. Johann Sebastian Bach: 371 harmonized chorales and 69 chorale melodies with figured bass. Ed. and rev. by Albert Riemenschneider. New York 1941. Cf. the digital edition of Weber’s Clarinet Quintett op. 34, which was published as addendum to the volume Carl Maria von Weber: Collected Works. Series VI, Vol. 3. Mainz 2005.

114

Eleanor Selfridge-Field

1 Functional and end-use typologies in MuseData In early experiments with multiple uses of MuseData encodings, we encountered many situations in which what is best for notation is inappropriate for sound, or vice versa. Some instances include works with ornamentation or with transposing instruments. For ornamentation, one wants a mere symbol for a score but a series of notes for a playback. Walter Hewlett came up with the idea of embedding in the encoded material what he calls “sound suggestions” and “print suggestions.”8 (Both concepts were subsequently inscribed in MusicXML). We soon found ourselves producing variant encodings to facilitate one or another end use of material from single sources. Although this is not a standard context for the use of the word “variant,” it seems inevitable that the digital world will require differentiation of materials according to their intended purpose. 1.1 Sound suggestions Sound suggestions are single records added to MuseData encodings to suggest points at which tempo or dynamics changes may enhance playback via MIDI. The records can become quite elaborate when they indicate the possible realization of an ornament in a MIDI playback.9 MIDI files are cloyingly stuck in a metronomic rut unless such editorial refinements are introduced. The ear tires very quickly of their lack of expressive features, but since ideas of dynamics and tempo are generally considered the province of performers, one does not want to confer a one-size-fits-all interpretation on entire works. Sound suggestions offer a middle ground of possible interpretation to those who do not want to hand-edit MIDI files or are not yet experienced in adding nuances. A more complicated usage of sound suggestions is to provide the realization of ornaments in Baroque music. Passages for violin and for solo harpsichord sound barren without the realization of ornaments. Here, sound suggestions can address the middle ground: the user may employ them (with software equipped to interpret them) or ignore them. In Table 1 we see sound suggestions (highlighted) in the flute part for the second movement (Andante) of the Second Brandenburg Concerto (BWV 1047). Another feature of the MuseData encoding system addresses the discrepancy between what is literally written and what should be understood in a sound interpretation. A recurrent item of attention is the dotted note. In the case of French double-dotting, the widely subscribed view is that in the French overture style, the single dot was really a double dot and the complementary sixteenth note which followed was really a 32nd . A well known example occurs in the D Major Fugue of Book One of the Well-Tempered Clavier (Figure 2). 8 9

Walter B. Hewlett: The Representation of Musical Information in Machine-Readable Format. In: Directory of Computer Assisted Research in Musicology 3, 1987, pp. 1–22. The same indications could be used in any symbol-based context designed to generate sound output, such as CSound. To our knowledge, no such implementations have been made.

115

Musical Variants in Digital Practice

measure 5 rest rest A5 measure 6 Bf5 A5 G5 Bf5 A5 measure 7 F5 S C33:uwn8s14t50 E5 D5 A5 measure 8 B5 C6 D6 C6 B5 C6 measure 9 G#5 S C33:uhn8s14t50 F#5 E5 C6

4 4 4

q q q

d

6 2 1 1 2

q. e s s e

d d d d d

4

q

d

2 2 4

e e q

d d d

6 1 1 1 1 2

q.n s s s s e

d d d d d d

4

q #

d

2 2 4

e # e q

d d d

[[ =] ]

( ) t

[ ]

( )

( [[ ]] [[ =] ]

) ( ) t

[ ]

( )

Table 1: Sound suggestions (highlighted) in the flute part for the second movement (Andante) of the Second Brandenburg Concerto (BWV 1047). (The flute rests in the first four bars.) Lines showing against a grey background indicate possible sound-realizations of ornament symbols written in the score

In a sense, accommodation of such discrepancies offers a way of dealing with a certain kind of musical variant. Examples are particularly prevalent when editions of different eras are compared, for common Western notation has continually evolved and has always varied somewhat from publisher to publisher.

116

Eleanor Selfridge-Field

Figure 2: J. S. Bach: Fugue in D Major from Book I of the Well-Tempered Clavier (BWV 850)

In the music of Handel, it is also not uncommon for double-dotting to be given in one part, while single-dotting is found in another. Debates have raged for years over Handel’s ‘intentions.’ Were discrepant values to be synchronized in performance? Did the resolution depend on the specific instrumentation (score and part, violin as opposed to accompanying keyboard, and vocal as opposed to instrumental parts)? There is scope to argue in many directions. One value of encoded material is that different hypotheses can be tested with sound output (as they can in resolving diverse notions of ratios between sections in duple and triple meter in music of the Renaissance). 1.2 Print suggestions Print suggestions, given in records which can be ignored in notation software, indicate how best to lay out a piece of music on the page. Computers do not know how to find the inflection points most suitable for system and page breaks. Much of the labor in producing high-quality editions from garden-variety notation software packages can lie in adjusting the position of such breaks. Performers, for example, never want to find the last bar of a movement on a new page. Notation software allocates horizontal space from the start of a movement. It has no ‘eye’ to notice the approach of an ending. Print suggestions tell savvy software programs where they might want to space the score horizontally to avoid unwieldy breaks. The grammar and format are similar to those for sound suggestions. 1.3 MIDI-One and MIDI-Plus Since MIDI is the most widely used music format in the realm of symbolic data, we carried this scheme for functional differentiation one step further by translating the data into parallel sets of MIDI files. MIDI-One is largely the standard product adapted for more pleasurable listening by modulations of tempo and dynamics but also by the realization of ornaments (from sound suggestions) and so forth. MIDI-Plus is a derivative format enhanced by articulate pitch information (since that is available in the MuseData from which it is generated), quantized to produce barlines correctly in regularly metered music, and otherwise suited to printing. Both versions are available at our download site.10 10

http://www.musedata.org, consulted August 2008.

Musical Variants in Digital Practice

117

1.4 Other end-uses of MuseData in translation The principal formats we support by direct translation from MuseData are (1a) MIDI-One, (1b) MIDI-Plus, (2) **kern (for analysis with the Humdrum Toolkit), (3) SCORE (for further editing in a professional-level notation program), and (4) PDF for immediate consultation and use in performance. For any given work, the data in all these formats at our website11 is in agreement on accidentals, instrumentation, etc., since all the formats come from a single electronic source file.12 In recent years, an explosion in the uses of Kern code encouraged Craig Stuart Sapp, a researcher at CCARH and the Centre for the History and Analysis of Recorded Music (CHARM) at the University of London, to set up the KernScores websites.13 The KernScores repertory represents a conflation of translations from MuseData encodings with works from other periods newly acquired via optical recognition, then converted on-the-fly into a dozen or more additional file formats.14 KernScores provides automatic translations into the open-source Guido music notation format (*.gmn), MusicXML (*.xml), piano-roll graphics in two modes (one showing pitch height, the other metric weight of each event), and harmonic-root analysis with or without Roman-numeral labeling as well as formats congenial to use with research software for a range of special purposes in cognitive and analytic studies.

2 The Encoding of Variants In digital philology, all of the issues associated with conventional editing are present but they mingle with several others specific to digital technology. If there is an obvious error in the underlying source, should it be corrected or only annotated? Is the presentation of the original material suited to the software available for intended output? Although it is generally true that, once encoded, music can be re-edited for other purposes, if the intended use changes, it may be necessary to re-encode it, particularly if some aspect of the music not originally indicated is required for the new application. A part-by-part encoding generally allows greater flexibility for later use than a score encoding. In the case of the Bach chorales, for example, it is easier to make a two-stave version of the four-part chorales from parts than to extract the four voices from a score and then reorganize the layout. Such practical issues also influence the handling of variants in large-scale encoding projects. Sometimes the first choice is the most efficient, while the second choice saves the drudgery of extensive hand correction. 11 12 13 14

http://www.musedata.org, consulted August 2008. Users who ‘mix and match’ instantiations of ‘the same work’ from different sources court the likelihood of myriad inconsistencies and lapses in content. http://kern.ccarh.org, consulted August 2008. MuseData files (although not free of errors in content or encoding) are proofread many times before they are posted. KernScores are proofheard once via MIDI but notated conversions are not proofread.

118

Eleanor Selfridge-Field

Schemes which do not afford the possibility of replicating ambiguities in the underlying score force encoders, as first interpreters, to render some decision. An ubiquitous need for encoding ambiguity as such occurs in eighteenth-century manuscripts. The manuscripts of G. F. Handel are filled with slurs that have a clear initiation point (coincident with a specific note) but a vague termination point. Our data specialists study the source for clues to the interpretation. Handel’s manuscripts are notoriously full of contradictions to any rule of visual grammar, however, and the more sources one consults, the less clear a resolution may be. We must assume that serious editors will consult the underlying sources for themselves. We must also hope that editors working from encoded material will develop the habit of looking in the file for notes about such interpretations. Although the examples presented here all come from repertories encoded in MuseData, instances in which something exact is required in an encoding where something approximate is usual in notation occur in every historical period of music history. If our subject were music of the Renaissance, then the practice of musica ficta would generate the need to distinguish between written accidentals as they were customarily used at the time and those assumed in performance but rarely written. A great deal of monophonic music of the Middle Ages has been encoded, invariably without rhythmic values but sometimes with indications of the neume types from which the pitches have been inferred. The generation of sound output from inspecific rhythmic information is all but impossible (at least in MIDI). Quantized output of Gregorian chant in uniform note-values is hardly representative of any human practice of the past. Myriad problems of sound output exist for the more grandiose of nineteenth-century repertories. Leaving aside the deficiencies of arbitrary meters and simulated timbres for most of the classical music studied today, we see from all of our experiences with encoding standard repertory into symbolic formats that common Western notation is far from systematic or complete. It is the product of centuries of interaction between those who compose, those who perform, those who transcribe, and those who teach.

3 A Hierarchical Typology for Variants One practical way to classify variant types is to consider what level of the score they affect and the degree to which they affect it. Here we organize categories of this quantitative approach into five categories: (a) note level, (b) note-group level, (c) phrase-level, (d) part-level, and (5) tree-structure variants. The first three may often concern choices in how to interpret particular symbols or passages, while the last two are usually focused on genuine differences in content. 3.1 Note-level variants When one tries to straddle the sound/notation divide, the problem of one-tomany relations can come about in several ways. The case most familiar to us

Musical Variants in Digital Practice

119

is that of ornaments in Baroque music. A single sign in notated music usually calls for a series of notes in actual performance (described in Sound Suggestions, Table 1). The substitution of a single long note for a Beethoven trill or a Mozart turn can render unmediated sound output quite foreign to a piano sonata. Yet the presence of a series of notes of very short values in a score can be confusing to performers accustomed to the shorthand of a trill or turn sign. Such series are completely inscrutable to software lacking the ability to identify groups of notes in MIDI input as matching the note-pattern represented in notation by one shorthand symbol. Basso continuo figuration can also present similar divergence between numerals (often giving incomplete information, sometimes giving wrong information) and the harmonic realization which could make a sound file seem more complete. Such divergences according to intended use pose one-to-many problems. In both cases the exact number of notes to be added to produce a sound realization may be variable. How many notes must there be in a fullmeasure trill? How many tones should sound above the continuo? Ultimately the number varies according to the will of the performer. Duplicate files with implemented sound or print suggestions can solve all of these problems, but most commercial systems do not make provision for them. Rhythmic interpretation proves to be a more frequent cause of encoding quandaries than pitch. The role of choices made at the time of encoding is well illustrated by our first encoding of the D Major Fugue of Book One of the Well-Tempered Clavier (music shown in Figure 2). Our encoder used the literal values implied by the BG notation. A value of six thirty-seconds was given to the first two dotted eighth notes, but for the third he assigned the value of five thirty-seconds. (This implies that one divides the single visual object, a dotted quarter, into two virtual objects—an eighth note tied to a thirty-second note which precedes the three written thirty-seconds.15 The sound encoding of the bass voice in which these three dotted notes occur is shown in Table 2. In bar 1, the sixteenth-note following the dotted eighth gives a literal indication that in eight subdivisions of the (quarter-note) beat, the dotted note would occupy six sub-beats, the sixteenth two. A representation intended to produce the correct notation would have to assume this relationship. A second interpretation is allowable, however, because this movement is generally considered to be in the French overture style and therefore to be subject to double-dotting (elongation of the dotted notes at the expense of the sixteenths). Where opinions differ is on whether all dotted notes throughout the piece should be treated in the same manner and on whether the over-dotting should be constrained by precisely binary increases or whether it should be freer and more variable from instance to instance. In bar 2, matters are slightly more complicated. The dotted note in the left hand on beat 2 spans the duration of either six or seven thirty-seconds, depending on whether double-dotting is assumed. A representation intended to 15

This is a historically founded usage which is ubiquitous in printed scores and manuscripts of nineteenth-century Germany. What it demonstrates, however, is a third meaning for a dot.

120

Eleanor Selfridge-Field

rest D3 E3 F#3 G3 F#3 E3 F#3 D3 B3 B3 A3 G3 measure 2 F#3 G3 F#3 E3 D3 E3 measure 3 A2 A2 E3 F#3 G3 A3 G3

8 1 1 1 1 1 1 1 1 6 2 6 2

q t t t t t t t t e. s e. s

d d d d d d d d d d d d

[[[ === === === === === === ]]] [ ]\ [ ]\

6 2 6 2 8 8

e. s e. s q q

d d d d d d

[ ]\ [ ]\

41 1 1 1 16 8-

e t t t t h q

d d d d d d d

[ =[[ === === ]]]

-

Table 2: Encoding of dotted eighth-notes in the bass voice of the D Major Fugue from the Well-Tempered Clavier, Book I. Cf. Figure 2

produce a pedagogical edition could simply provide a double dot followed by a thirty-second, but the notation as shown here is the more widely used one. These considerations pale in comparison to the rhythmic interpretation of the left-hand on beat 1 of bar 3. Here the dotted note can correspond to five, six, or seven thirty-seconds. In the Bach Gesellschaft edition from which we work it is usually the five-thirty-seconds interpretation that is intended by this

Musical Variants in Digital Practice

121

obsolete notation, in which the dot is really a substitute for a tie to an unprinted thirty-second. Thus the three written thirty-seconds are real thirty-seconds. To reproduce this graphical presentation in commercial notation software, however, one would need to suppose the three thirty-seconds to be triplets (so as to give the dotted note its implied written value). To perform the work with double-dotting, one could also lengthen the dotted note and change the three thirty-seconds to three sixty-fourths. If one takes the view that the dotted-note equals six thirty-seconds, then the three written thirty-seconds are triplets. If one takes the view that the dot should be read as double, then the three thirty-seconds are triplet sixty-fourths. The encoder avoided treating any of the dotted notes as doubly dotted, for this decision should rest with the editor and/or performer. However, the encoder is forced to make some decisions, for although the software can store information on pitch variants, storing information for rhythmic variants is more complicated, as it may involve several notes. Machines cannot process indefinite information. Because of examples like this, the details of encoding will always pose problems in some contexts. Careful design and good documentation should keep encoded repertories serviceable for a long time to come. 3.2 Note-group and phrase-level variants After interpretation, performance options traceable to the composer offer another area of consideration by the encoder. It may be preferable to encode for different instruments, but it will depend on the degree of difference between the two versions. Bach’s keyboard transcriptions of Italian concertos for violin and string orchestra illustrate a case in which two encodings are necessary. The quantitative note-for-note differences are extremely numerous because of changes to the texture of the music. Yet in sound reproduction, the cognitive similarity of the two instantiations would be very high. Bach is not necessarily illustrative of all keyboard transcriptions of instrumental music. In our Vivaldi corpus, the four Concerti from op. 3 which were transcribed for keyboard in an English manuscript known as “Anne Dawson’s book” offer another useful model of the need for separate encodings: the texture is simplified rather than enhanced, but the ornamentation issues from the vocabulary of English keyboard music. The octave register is altered here and there in the transcription to suit both the mechanics and the sonority of the new instrument (Figures 3 and 4). Even in this relatively simple texture we see immediately that the transcription is not consistently a skimming off of treble and bass but instead the product of a more complex process of selection, reflecting in part the alternation between the violins in the orchestral model. Sometimes there is no choice but to completely modernize a part. The editors of the Bach Gesellschaft did not know that the oboe d’amore was a transposing instrument, but it would be ludicrous to reproduce the untransposed part in a modern edition. Though we always retain the source transcription, the treatment of such incidents requires an extra pass to produce something useable today.

122

Eleanor Selfridge-Field [ Allegro]

## œ œ œ œ œ œ œ & # 43 ‰ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ m ? ### 3 œ 4

‰ œ œ œ œ

‰ œ œ œ œ

‰ œ œ œ œ

‰ œ œ œ œ

‰ œ œ œ œ

‰ œ œ œ œ

‰ œ œ œ

Figure 3: Transcription for clavichord of Vivaldi’s Violin Concerto op. 3, no. 5, third movement, from Anne Dawson’s Book Allegro

## œ œ œ œ & # 43 ‰ œ œ œ œ œ œ œ œ œ œ Allegro

œ œ œ

œ

œ œœ œœ

p

? # # # 43 ‰ j œ œ ‰ œ œ œ œ ‰ j œ œ ‰ œ œ œ œ ‰ j œ œ ‰ œ œ œ œ œ œ œ J J p Figure 4: Violino Principale and Violoncello from the third movement of Vivaldi’s Violin Concerto op. 3, no. 5

In Vivaldi’s Violino Principale parts, a recurrent problem is that of arpeggios. Sometimes the realized arpeggio appears in the printed or manuscript original. Sometimes only a chord is given. Sometimes a quasi polyphonic, quasi-chordal notation is present. Here most performers and analysts are accustomed to a realization. Such passages can be open to interpretation in the order of the notes. Many of the ‘repetitive’ or ‘mechanical’ passages mocked by Vivaldi’s detractors are actually editorial realizations to which little thought was applied. Consider, for example, the passage from Vivaldi’s concerto op. 8, no. 8, shown in Figure 5.16 In the original print, bars 51–75 are rendered as dotted half-note chords. There is no auditory evidence to prove that Vivaldi invariably recommended the downdown-up figuration. In many cases two possible melodic lines can be extrapolated from long series of arpeggiation chords. In other cases invertible figuration, or passages in which downward, upward, and mixed-direction arpeggios produce the most musical result (that is, the one most in keeping with voice-leading practices of the time) may be found. Vivaldi can be very precise about note-groups and bowing in long passages of running sixteenth notes. When he is, the figuration is not easily reduced to a simple pattern. Consider, for example, the passage from op. 8, no. 11 shown in Figure 6. He clearly differentiates between the open E string (shown in the original with a slash across the stem) and the stopped A string (on which many E’s are also played). This passage is arguably one which at another time could 16

Antonio Vivaldi: The Four Seasons and Other Concertos in Full Score, op. 8. Ed. by Eleanor Selfridge-Field. Mineola (NY) 1995. Our edition began with a full encoding of all twelve works in the Le Cène print of 1725 as well as all known manuscript sources from Vivaldi’s time.

123

Musical Variants in Digital Practice

b & b #œ œ nœ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ 51

b &b œœœœœœœœœœœœ œœ 55

58

&b 62

&b



œœœ

œ

œœœ

œ

œ œœ



œœœ

œ

œœœ

œ

œ

b nœœ œœ œ œ œ œ œ nœœ œœœ œœ œ œ nœœ œœœ œ œœ œ œ œ œ œœ œ œœ œ œ œ œ œ œ œ #œ œ œ #œ œ œ b œœ œœœ œœœ œ œœœœœœœœœœœœ œœ œœœ œœœ œ nœ œ œ #œ œ œ

b nœ œ œ nœ œ œ œ œ œ & b nœ œ #œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ 65

69

&b

b œ nœ œ œ nœ œ œ œ œ œ œ œ œ œ #œ œ nœ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ

b nœ œ œ œ œ & b #œ œ nœ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ #œ œ nœ œ œ œ œ œ œ œ œ 72

œ œ b nœ & b œ œ n œ œ œ œ œ œ # œ œ œ œ œœœ œ œ œ # œ œ 75

œ

œ œ œ œ œ #œ nœ œ

Figure 5: Vivaldi arpeggios from the Violino Principale of op. 8, no. 8, Allegro

have been indicated by a chordal shorthand for bariolage, although the details of execution would be entirely obscured. In the related area of scordatura notation, Vivaldi sources are inconsistent. Pisendel’s transcriptions of Vivaldi’s instrumental music present their own idiosyncracies of bowing and other articulation indications.17 They occasionally give note diminutions in the violoncello part which are not found in other sources. 17

Cf. Pisendel’s transcriptions of some of the Concertos in Vivaldi’s op. 8 preserved in the Sächsische Landesbibliothek – Staats- und Universitätsbibliothek, Dresden.

124

Eleanor Selfridge-Field

Ÿ œœ Ÿ œœ r œ œ œ œ #œ œ œ œ œ œ œ œ œ œ œ # œ ## œ œ œ œ œ œ œ #œ œ œ œ œ œ œ œ œ œ J J J J œ œ & 56

r r r r ## œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œœ œ œ œœ & 60

r r r r ## œ œ œœ œœ œœ œ œ œœ œ œœ œ œœœœ œ œ œ œ œ œ & œœœ œ œ œ 62

r r r r r ## œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œ œœ œ œ œœœ œ œœœ œ œ œ œ œœ Œ & 64

Figure 6: Unusual style of bowing indicated in Violino Principale of the first movement of Vivaldi’s op. 8, no. 11

They sometimes require separate encoding. Continuo figuration varies in curious ways between Vivaldi’s autographs and prints made in Amsterdam, such that one must suppose amateur players were uppermost in the publisher’s mind. Vivaldi’s 6–5 indication is in some cases changed to 6–4! 3.3 Part-level and orchestral variants One of the most pernicious problems in encoding, in score-and-part production, and in data translation is that of divisi strings. This problem owes to space-saving layouts, which often also aid the rapid visual appraisal of a score. If the violins play in unison, they may be notated on one staff. Frequently, however, the parts divide into two (or more) true parts here and there. Because Handel in particular is full of divisi passages of several kinds (two violins in some passages, three in others; violin with intermittent oboe, continuo with intermittent cello or bassoon), we have been prompted to work with several varieties of this problem. Not all problems related to Handel’s divisi can be solved by encoding ploys. Handel was quite careless about indicating the components of the starting ensemble. Cues saying “senza oboi” are common in contexts where no oboe has previously been mentioned. Determining whether the oboes have been present from an opening ritornello or were called in at the last change of meter or texture can require arbitrary judgment. Vivaldi introduces a slightly different range of alternating and combined instruments. In many of his manuscripts, a series of empty staves sits above a fundamental bass and the words “con li bassi” are sprinkled here and there.

Musical Variants in Digital Practice

125

What this means is that the bass gives the basic outline of the music, which may be mimicked at higher octaves in the violin and viola parts, if present. In such cases, the manuscript is not a complete score. The likely realization of the string parts is obvious at a general level, but in concerto textures the nature of the accompaniment may be subject to interpretation. In fully written scores, slow movements commonly omit continuo and sometimes cello as well so the process may work in the opposite direction. In fully written scores it is also common to find more activity (that is, more notes) in an obbligato cello part than in a perfunctory continuo line. How much latitude may be taken in an encoding of such a work? Our general approach to the encoding of divisi parts now favors keeping the encodings for each individual instrument in a separate file and providing an additional file in which two or more instruments are combined. This has the advantage that when parts need to be differentiated on one staff by stem direction, there is recourse to a composite view. The composite will not serve for sound output, if the timbres are different. For this the single-instrument files can be used. Differences which subsist only in the substitution of one instrument for another are generally easy to handle and may not require separate encoding, except in the timbral requirements of sound output. The Vivaldi repertory is rife with truly alternative versions of concertos (violin or oboe, violin or bassoon, et al.). Most suggest adaptation to changed circumstances, which sometimes implies differences in the skill of the intended soloist(s). These circumstances require close inspection of the variants in order to determine whether the versions differ other than by the instrumental label applied at the start of each movement. 3.4 Tree-structure variants Any thought of encoding variants in a single set of files evaporates in the face of tree-structure variants. In the third movement of Vivaldi’s Violin Concerto op. 8, no. 11, five different readings are supported by one manuscript source.18 They particularly affect the content of the solo episodes but they somewhat affect ritornellos downstream of these solos. A map of the movement’s overall plan is shown in Figure 7. The versions vary in length. They all end with slightly different iterations of Ritornello (“Rit”) A5. The episodes (“Ep”) diverge on their third appearance. The schema shown in Figure 7 is a simplification that ignores minor differences. If all these versions were ‘encoded’ in one file, the result would be chaos. It is not an isolated case in the Vivaldi repertory. In op. 8 two other works (no. 7 and no. 9) have movements with similar (but simpler) problems. A very different result from changing circumstances is represented by the progressive reworkings of the aria “How beautiful are the feet” in Part Two of 18

Biblioteca Nazionale Universitaria di Torino: Giordano 30, fol. 184–206 und Giordano 29, fol. 304.

126

Eleanor Selfridge-Field Rit A1 Ep 1 Rit A2

Ep 2

Ep 2

Rit A2

Rit A3

Ep 3

Ep 4

Ep 3

Ep 5

Rit A4

Rit A5 (1)

Rit A6

Rit A3

Ep 6 Ep 7 Ep 8

Rit A5 (2) Ep 8

Rit A5 (4)

Rit A5 (3)

Rit A5 (5)

Paths: Rit A1, Ep Rit A1, Ep Rit A1, Ep Rit A1, Ep Rit A1, Ep

1, Rit A2, Ep 1, Rit A2, Ep 1, Rit A2, Ep 1, Rit A2, Ep 1, Rit A2, Ep

2, Rit A2, Ep 2, Rit A2, Ep 2, Rit A2, Ep 2, Rit A3, Ep 2, Rit A3, Ep

3, Rit A4, Ep 4, Rit A4, Ep 4, Rit A5(1). 3, Rit A6, Ep 5, Rit A3, Ep

6, Ep 8, Rit A5(4). 6, Rit A5(2). 7, Ep 8, Rit A5(3). 7, Rit A5(5).

148 bars 163 bars 205 bars 197 bars 201 bars

Figure 7: Possible paths through the third movement of Vivaldi’s manuscript of the Violin Concerto op. 8, no. 11, diagrammed as a tree structure. (The chart is oversimplified, as several more branches and incisions are possible. Episodes are highlighted)

Handel’s Messiah. In encoding this work (1987) we surveyed the variant material linked to its nine earliest performances (1742–1759). Five settings of this aria emerged. They vary by key, instrumentation, voicing, texture, and structure. In the first instance (1), the aria is set in G Minor for soprano, two violins, and continuo. It is through-composed. In the second case (2), it begins in the same way but takes on a da capo structure. The B section consists of SATB chorus and an orchestra of two violins, two oboes, viola, and basso continuo. The key remains the same. The third version (3) is again da capo, but the movement has been transposed to C Minor. A contralto sings the solo in the A Section, a tenor in the B section. The A section calls for unison violins; the B section is accompanied by continuo only. In the fourth and fifth versions (4, 5), the movement is set throughout for chorus (SATB in 4, SAATB in 5) and orchestra. It is in D Minor. Soprano and alto solos set an octave apart in Version 4 are

127

Musical Variants in Digital Practice Larghetto Violino I Violino II Soprano Bassi 4

How beau ti ful are the feet of them that preach the gos pel of peace

,

Figure 8: “How beautiful are the feet” from Part Two of Handel’s Messiah in the original version (1742)

changed to solos for alternating altos in Version 5, where they sing at the same pitch, as though in canon. The opening bars of the first version are shown in Figure 8. What identifies the versions are all holding the same position and providing the same function on the overall structure of the oratorio is, of course, the text. It is unvarying. In a digital environment, there is no escape from five encodings to capture all these possible settings.

Conclusions What makes digital frameworks desirable is that they enable multiple resolutions to the problems that arise from the kinds of differences discussed here. Although pioneers in the encoding of musical scores were optimistic that the computer would soon provide an apparatus for source filiation, that possibility only exists after all the sources have been encoded. For some repertories survived by myriad sources of questionable value, the effort involved does not justify the result. Sometimes the informed eye is the better tool. New possibilities are opening for variants differentiated more by the range of notational styles in which they are preserved than by music content. The pioneer

128

Eleanor Selfridge-Field

in exploring its corollary—flexible output schemes reflecting different ideas of musical interpretation—is Theodor Dumitrescu, through his Computerized Mensural Music Editing project (CMME).19 A user may elect to view a particular piece with Mensurstriche or conventional barring, while meanwhile the encoding of manuscripts of Renaissance music proceeds apace. What is ultimately important about digital editions is their malleability—the possibilities for fashioning new readings, for demonstrating new interpretations, and for presenting the material from new perspectives. At the present time the gap between data used in music publishing (which is hard-wired for a specific task and style but is hypothetically useable towards other ends) and data made freely available by academically-based collections, such as MuseData, KernScores, and CMME, to those with diverse special purposes is peculiarly wide. There are no technical impediments to the pooling of much larger collections of data, to which questions of musical content and style could be addressed with the expectation of revelations impossible by analog means. The obstacles are entirely administrative.

19

http://www.cmme.org, consulted August 2008.

Theodor Dumitrescu and Marnix van Berchum

The CMME Occo Codex Edition: Variants and Versions in Encoding and Interface

Initiated in 1999 as an undergraduate honors thesis at Princeton University, the CMME Project (Computerized Mensural Music Editing) has in recent years received funding to expand into a publicly-available online resource. The project, aimed since its earliest days at the development of a software environment for online publication of music in mensural notation (the standard form of polyphonic music notation in 14th–16th-century Europe and the direct ancestor of Common Western Notation), encompasses a number of sub-systems operating together toward this goal: a data-encoding format tailored to the specifics of this notation (CMME-XML), graphical software tools for transcribing/editing/viewing scores, and a website embedding editions within a network of meta-data including inventories of major musical sources.1 Development stands now at a stage where corpus-building goes hand in hand with continually active software engineering. Test repertories serve simultaneously as a ‘proof of concept,’ as a stimulus to necessary software expansions, and as the first musicological publications of the project in their own right.2 CMME Editorial Project 2 is a complete edition, by Utrecht musicologists Jaap van Benthem, Marnix van Berchum, Anna Dieleman, Theodor Dumitrescu, and Frans Wiering, of Manuscript IV. 922 of the Bibliothèque Royale de Belgique, known commonly as the “Occo Codex” since its acquisition from private ownership in 1972.3 Already one of the best-known choirbooks of the 16th century, this source represents one out of c. 50 surviving manuscripts produced under the care of Habsburg-Burgundian court scribes of the period, chief among them Petrus Alamire.4 A luxury product featuring costly illuminations and careful professional script, the book was created for the prosperous Amsterdam businessman Pompeius Occo probably around 1515–1520. Its c. 300 pages contain a variety of polyphonic compositions associated mainly with the celebration of the mass, focusing on the feast of Corpus Christi and including a heavy concentration of composers active in France such as Jean Mouton, Antoine de Févin, and Mathieu Gascongne (a complete inventory appears below in Table 1). With a project 1 2

3 4

Cf. http://www.cmme.org, consulted August 2008. E. g., Theodor Dumitrescu: A choirbook for Henry VIII and his sisters. CMME Project 2006. http://www.cmme.org/?page=database&view=projects&num=1, consulted August 2008. Bernard Huys: Occo Codex. (Brussels, Royal Library Albert I, MS. IV. 922). Buren 1979. See Figure 1 below. Herbert Kellman: The treasury of Petrus Alamire. Music and art in Flemish court manuscripts 1500–1535. Ghent 1999.

130

Theodor Dumitrescu and Marnix van Berchum

of this magnitude (over 6000 measures of typically 4- and 5-part polyphony), regularization and editorial policy become pressing concerns, as the CMME itself develops into the home of a scholarly edition series. An expanded source situation featuring a considerable number of concordant manuscripts and printed books, moreover, forces an engagement with deep-rooted and consequential intellectual choices with a bearing upon the ontological status of the system’s editions and the music these purport to ‘represent.’ One of the fundamental concerns of the CMME Project in its current round of financial support is the exploration of philological applications as developed within digital environments. Changing attitudes toward the status of the ‘work’ and ‘text’ in the field of medieval literary studies have increasingly found resonance in musicology in recent years. New text-critical perspectives have emerged rejecting the applicability of the traditional, fixed-work concept to pre-modern repertories.5 Both in musical and literary studies, it has become increasingly difficult to reconcile the conceptual implications of the conventional printed edition with the new attitudes toward early textualities. Indeed, the very idea of constructing an Urtext of a given medieval ‘work’—and presenting it in the fixed form of the traditional codex—is now seen by many as having its roots in cultural attitudes that are antithetical to a pre-modern mode of textual construction, in which variance and even instability are essential elements.6 For the ‘digital’ editor, the material transformations concomitant with a move to an electronic medium may offer an opportunity for exploration of new practices in the philological realm, but technological development is a prerequisite. Especially in the field of notated music representation, still lacking the format coordination and markup standards of text-based technologies, current projects are bound to play a key role in shaping the first attempts at standardization and offering experiments in visualization and manipulation of music scores along hypertextual models.7 In this sense the CMME Occo Codex Edition can serve as more than a mere testbed for new software features; it is—for better or worse— another stage in a technological development which steps ever further from the intellectual and conceptual framework of the printed edition.

1 The Occo Codex Edition and variation patterns in 16th-century transmission Handling sources transmitting the widely-distributed central repertory of the early 16th century implies working with compositions with multiple concordances in other sources, always with variant readings. In the case of the Occo Codex, such concordances with other sources amount to 67 in total (distributed among 54 sources), including other manuscripts from the Alamire scriptorium, choir5 6 7

E. g., Lydia Goehr: The imaginary museum of musical works. Oxford and New York 1992. Bernard Cerquiglini: Éloge de la variante. Histoire critique de la philologie. Paris 1989. See, e. g., the contribution of Stefan Morent to this volume (pp. 89–109) for another approach to interactivity in the presentation of variant readings for an early repertory.

The CMME Occo Codex Edition: Variants and Versions in Encoding and Interface

131

books from the Vatican, printed collections, lute intabulations, and an excerpt in a theoretical treatise. Only five items are unique to the Occo Codex. The number of concordances for the other pieces range from one to as many as 25 (for the Missa Pange lingua by Josquin Desprez). In the case of this last mass, the unusually high number of 16th-century sources allows one to consider its transmission from a broader viewpoint reminiscent of the source situations in classical textual philology; but the more typical situations offer only between four and seven total versions restricted often to a smaller timespan for copying. Table 1 and Table 2 offer an overview of the number of concordant sources per piece in the Occo Codex and the distribution over different types of sources. Looking more specifically at the variants which occur in sixteenth-century sources, numerous categories can be detected. They may be layout-related; they may be clear mistakes; they may involve ornamentation of a particular passage; or differences in voice designations or cleffing, to name just several of the possibilities. The Kyrie of the Missa Benedictus dominus by Jean Mouton can serve as example for a common textual history of an early 16th-century mass movement. Comparing the readings of the Occo Codex (Figure 1) to those of just two different types of concordant sources (out of seven total sources) offers an interesting point of departure. A 1515 print of masses by Mouton (M 4015; Figure 2) and a late sixteenth century manuscript in score format (ParisBNC 851; Figure 3) provide concordances of a markedly different aspect and purpose than the Occo manuscript. The varying character of these two sources (set of printed partbooks versus late 16th-century handwritten study score) generate different kinds of readings, contrasting in various respects with the (choirbook layout) copy in the Occo Codex. In ParisBNC 851, for instance, the many ties between notes, and divisions of breve rests into several semibreve rests, are a direct result of the use of barlines for the purposes of scoring (at this period still an extremely rare occurrence). These striking differences in the notational surface of the piece do not necessarily represent any variation in the underlying conception of the musical text. A traditional philological perspective sees these as variations of textual accidentals, against the substantive variants which would affect elements such as rhythms and pitches.8 Table 3 considers substantive variants appearing in these three sources in a tabular layout such as might appear in a typical printed form, setting them against each other without setting one necessarily as the central ‘copy text’ (such as typically occurs when printing only a single score). They include variants in cleffing, pitch, rhythm, and major differences in texting. Excluded here are in fact the majority of variants: those concerning seemingly inconsequential features such as direction of note stems, positions of dots, and location of line breaks. Exact underlay of text is likewise excluded from this tabulation on account of 8

See James Grier: The critical editing of music. History, method, and practice. Cambridge 1996; but for a potent criticism of the theory of non-substantive variants, see Jerome McGann: A critique of modern textual criticism. Chicago 1983.

132

Theodor Dumitrescu and Marnix van Berchum

Fols.

Title

Composer

4r 4v–5r 4v–5r 5v–6r 6v–8r 8v–10r

O salutaris hostia O salutaris hostia O salutaris hostia O salutaris hostia Tantum ergo Cibavit eos ex adipe frumenti O salutaris hostia Missa de Venerabili sacramento Missa Pange lingua Missa Benedictus dominus Missa Mijn herte altijt heeft verlanghen Missa L’oserai-je dire Missa L’homme armé Kyrie (Missa Paschalis a6) Kyrie Paschale Kyrie (Missa Paschalis ad organum) Gloria / Sanctus / Agnus (Missa Paschalis a6) Missa pro Fidelibus defunctis

[Gaspar van Weerbeke] Anonymous [Pierre de La Rue] Anonymous Anonymous Anonymous

2 4 -

Anonymous Hotinet Barra

3

Josquin Desprez Jean Mouton Mathieu Gascongne

25 6 6

Jean Mouton Mathurin Forestier Henricus Isaac Laurentius de Vourda [Henricus Isaac]

3 3 4 1 2

[Henricus Isaac]

4

[Antoine de Févin]

4

10v–11r 12v–27v 28v–41r 42v–66r 67v–82v 83v–102r 103v–116v 117v–121r 121v–123r 123v–131r 123v–131r 133v–148r

Concordant sources

Table 1: Contents of the Occo Codex with numbers of concordant sources

Type Manuscript Print Intabulation Theoretical treatise

Number 46 3 4 1

Table 2: Types of concordant sources

The CMME Occo Codex Edition: Variants and Versions in Encoding and Interface

133

its extreme level of variation: the exact placement of text can be expected to vary almost without fail from source to source for most items of the 16th-century repertory. Traditionally the majority of editions avoid the attempt to report text-positioning in any complete or consistent manner. Measure

Voice

Occo

1 1

Clef: C2 Mensuration:

1–30

I I, II, III, IV III

112 –122 151 191–2

III I III

221 371 –381

II III

374 414–6 422–3 452–3 523 –531 543 –551 561 754 781 832 873 –881 882 –891 913 951–2 962

I III I III IV III IV IV III IV IV II IV IV IV

M4015

_

Clef: C1 Mensuration:

ParisBNC 851

`

Cantus firmus text in red Sb-dot m Sb g’ m d’ m d’

No cantus firmus text Sb-dot m Sb a’ m d’ m d’

B-dot m-dot c’ sm a m b SB d’ m c’ Sb c” sm c’ f b f a m sm m-dot a sm g b-mol before 523 m m b-mol before 561 Sb-dot m-rest b-mol before 832 lig-Sb Sb lig-Sb Sb – lig-Sb Sb –

B Sb Sb c’ m c’ m a m" dot b sm c’ m-dot c” sm b’ sm b sm a m-dot Sb a b-mol before 531 Sb – Sb m – – no lig no lig b-mol before 913 no lig b-mol before 962

Clef: C1 Mensuration:

`

No cantus firmus text Sb Sb-dot m a’ m d’ m d’ m d’ m d’ B Sb Sb c’ m c’ m a m" dot b sm c’ m-dot c” sm b’ sm b sm a m-dot Sb a b-mol before 531 Sb – Sb m m-rest – no lig no lig b-mol before 913 no lig –

Table 3: Mouton, Missa Benedictus Dominus, Kyrie: variants

In category and extent, these readings convey an entirely typical image of the variability encountered as this repertory is recovered from multiple exemplars. The most common forms of ‘significant’ variants involve simple rhythmic differences such as splitting of a single pitch into several shorter notes on the same pitch, or graphical forms such as ligation (representation of multiple notes as a single connected neume, affecting text underlay), coloration (with possible minor

134

Theodor Dumitrescu and Marnix van Berchum

Figure 1: Mouton, Missa Benedictus dominus, Kyrie Occo Codex, f. 42v (detail)

Figure 2: Mouton, Missa Benedictus dominus, Kyrie M 4015: Missarum Joannis Mouton. Liber primus (Venice, 1515): Superius, sig. Aiv

The CMME Occo Codex Edition: Variants and Versions in Encoding and Interface

135

Figure 3: Mouton, Missa Benedictus dominus, Kyrie ParisBNC 851: Paris, Bibliothèque Nationale, Département de la Musique, Fonds du Conservatoire, MS Rés. Vma. 851, p. 391 (detail)

rhythmic consequences), and explicit notation of musical accidentals (diesis and b rotundum, now sharp and flat). Besides these relatively brief variants in certain passages or groups of notes, more substantial differences do appear on occasion. In the aforementioned Missa Pange lingua of Josquin Desprez, the Benedictus section in the Occo Codex has been silently replaced with the corresponding section of Gascongne’s Missa Es hat ein sin. In this case, any printed edition of Josquin’s mass will at best make a note of the discrepancy in the critical commentary and entirely discard Occo’s interloping music. It is beyond the practical scope of the printed book to offer a new score of the mass for every source (and, as noted below, this could be viewed as an extremely dubious editorial policy). The confinement of textual differences large and small to the packed world of the appendix naturally has consequences for the use of the edition. The form of critical apparatus in Table 3 is useful for formulating an overview of the intertwining appearances of variants of different forms. It is far less suited to understanding at a glance how these appear in musical notation; there is an extra level of indirection brought by the text-based codes which the reader must decipher (in certain editions reaching a truly medieval level of abbreviation; typical examples can be found in the edition of Mouton’s Missa Benedictus dominus from 1967).9 Where more printed space is available, variants can be 9

Johannes Mouton: Opera omnia I. Ed. by Andreas C. Minor. Corpus Mensurabilis Musicae 43. n. p.: American Institute of Musicology 1967.

136

Theodor Dumitrescu and Marnix van Berchum

represented in music notation directly, considerably easing the reader’s task, but there still remains the difficulty of transfering these readings mentally onto a score, often in a different section of the printed product and forcing a reconstruction process over top of a single version which is seen as the default score. It remains to be seen how the introduction of electronic editions with data-encoded variants may affect the reading practices which currently surround the critical apparatus.

2 The CMME approach to variants: Representation decisions The problems of implementing a system for variant-encoding cannot be confined simply to the realm of data representation. If any sort of practical usage is envisioned, a decisive aspect of design will be the interaction between the representation format’s structure and the software environments in which it can be situated, from the perspective of programming as well as interface. To take one example: on a conceptual level, variations in the musical text could be represented with the utmost simplicity in the deliberately naive approach of storing each source version of a composition separately (e. g., the Missa Benedictus dominus of the Occo Codex in one file, the version from the Petrucci print in another file, etc.). Whatever advantages such an approach might have in the abstract—especially in not forcing one particular systematic division of variant readings into rigidly defined categories—it presents extreme difficulties and dangers in practical implementation, foremost among them a high level of data redundancy which brings with it versioning and branching issues (e. g., if a modification is made to a ‘non-variant’ passage in one source’s dataset, there must be a way to ensure that this same modification is applied in the datasets for all other sources, a non-trivial technical task requiring complex coordination between these datasets). Interface possibilities are also limited by this design: if the format itself contains no information about where individual variations are located, in what ways can this data be visualized? A user in this case could cycle through different source versions of a score, for instance, and be expected to perform comparisons for himself, a decidedly unhelpful presentation. Alternatively, it might be the role of an automated software function to detect all the variations between versions and mark these for users, in which case an enormous programming task enters the equation and may never be able to provide readings which correspond well with musicological understandings of where variant readings begin and leave off (it becomes at a certain point a task for Artificial Intelligence rather than Automation). The representation format, ultimately, is always embedded in a symbiotic multi-way relationship with software and usability issues. Considering representation design from this ‘interconnected’ perspective, the requirements of the CMME’s repertory suggest a certain number of constraints and approaches likely to yield favorable working conditions. As noted above, the categories of variation encountered regularly within different 16th-century sources of a composition are manifold and their interrelations sometimes quite

The CMME Occo Codex Edition: Variants and Versions in Encoding and Interface

137

complex. The present discussion thus limits itself to variants within the musical text of compositions/sections transmitted in multiple copies; cases which fall outside this scope include: instances of translation between significantly different notational systems (such as lute intabulations of polyphonic vocal models); largescale musical reworkings which present deliberately modified and elaborated transformations of complete compositions; wholesale replacement of sections within multi-part compositions (in which there is no case of variation of musical readings); re-titling, rearrangement of mis en page, and other meta-textual variations. This leaves numerous more readily circumscribed types of musical variants to be treated. From the perspective of format implementation, several divergent situations must be accounted for by an encoding system: — Differing number of events in variants When two or more sources diverge in their readings at a given point, it is frequently the case that the number of musical events (notes, rests, etc.) in the sources differs, as in the following common rhythmic example:

`& %

(Source A) vs.

`& (% (%

(Source B)

While musically straightforward, this characteristic leads to notable consequences for a representation system, most importantly ensuring that it must handle variable-length readings. Simply offering alternative versions of individual events is insufficient for representation. — Differing musical length of variants Unlike the example just considered, many variants present readings of differing length (e. g., a reading in Source A lasts two semibreves while the reading in Source B lasts three semibreves). In most instances, these variations stem from copying errors, as they affect voice alignment within polyphonic sections. Software scoring functions, therefore, must be able to draw information from the representation about the presence of rhythmic errors and, when presenting the readings of a single source in score form, must be able to ‘correct’ the score misalignments produced by such readings. At the same time, these functions cannot simply normalize readings to a common length, as cases do exist where some readings are legitimately longer than others without error (e. g., variant post-cadential passages at section endings). — Simultaneous variation categories The types of musical variants encountered regularly in 16th-century sources are not mutually exclusive: a single variable passage or event can diverge within its readings on multiple levels, e. g., a note which is given on a different pitch in one source than the others, while a different source diverges in the length given to the note. The convergence of multiple variation forms within a single set of readings is common enough that it must be accommodated at a fundamental level within the representation scheme. The specific system for encoding and representing variants introduced in the 0.9 beta release of the CMME system builds upon the format whose principles

138

Theodor Dumitrescu and Marnix van Berchum

have been laid out by Dumitrescu in 200110 (although the technical details of the format have changed significantly since that publication, not least with the conversion to an XML-based file format in 2005).11 The design of this format works upon a simple basis of storing musical data as lists of events, encapsulated within separate voice parts within individual sections (see Figure 4). Every significant element visible on a source page—a note, rest, clef, dot, a feature specific to early notation such as the custos—is encoded as an event within one of these lists, as are a number of purely interpretational items or changes of notational state, for example changes of note-coloration or the application of rhythmic proportions. The alignment of these separate event lists into score format and measure structures in the CMME software is performed programmatically (and represents only one of the forms of visualization of the data); in other words, the representation is linked more closely to the original notational states of the music while the software side of the system can apply various transformations to produce different visual forms. Working upon the strengths of these representation decisions (e. g., encoding into a format based on compositions’ original notation rather than a Common Western Notation translation; avoiding the rhythmic and editorial pitfalls of storing in a measure-by-measure format), the basics of a straightforward variant system are easily integrated into the event-list structuring. Variants of the forms described above can be understood in an abstract sense as introducing temporary branches within the largely linear form of an event list, in their own right miniaturized event lists which rejoin the main sequence at their endings (see Figure 5). Programmatically, within the framework of a data-rich XML-based format (which by its nature exhibits a tree structure), such an arrangement is easily accommodated. The extract in Listing 1, from an early version of the XML Schema file defining the formal grammar of a CMME-XML score file, defines a simple event list as a node element (EventList) with any number of children, each representing a single event. In Listing 2 this list form is expanded so that each child of EventList is either a single event (SingleEventData) or a collection of two or more alternative readings (VariantReadings), each one containing its own list of events (Music) and connected to one or more music sources declared elsewhere in the file (VariantVersionID). The flag “Error” marks whether one reading is considered by the composition’s editor to be erroneous in some way. For possibilities of automated stemmatic construction based on principles of conjunctive/separative error, this offers a necessary aid; more immediately, however, it is an indispensible marker for software scoring functions which need to re-align polyphony after a rhythmic error has appeared, while allowing non-erroneous rhythmic variants to affect the polyphonic texture. 10

11

Theodor Dumitrescu: Corpus mensurabilis musice ‘electronicum’. Toward a flexible electronic representation of music in mensural notation. In: The virtual score. Representation, retrieval, restoration. Ed. by Walter B. Hewlett und Eleanor Selfridge-Field. Cambridge (MA) 2001 (Computing in Musicology. 12), pp. 3–18. For a general history see http://www.cmme.org, consulted August 2008.

The CMME Occo Codex Edition: Variants and Versions in Encoding and Interface

PIECE

SECTION

SECTION

SECTION

VOICE

VOICE

VOICE

VOICE

EVENT

EVENT

EVENT

EVENT

EVENT

(EVENT = NOTE / REST / DOT / ETC.) Figure 4: Basic CMME representation

VOICE

EVENT

VARIANT READINGS

EVENT

EVENT

EVENT

EVENT

EVENT

EVENT

EVENT

Figure 5: CMME representation with variant readings

139

140

Theodor Dumitrescu and Marnix van Berchum

At its base, the currently implemented CMME representation of variants within its data format is hardly more complicated than this. It follows a design principle which has always guided the system’s development, namely that simplicity of representation format is more important than the simplicity of programming software tools (although in practice the two often go hand in hand). The format remains the true heart of the system, potentially capable of interaction with software clients not created by the project’s developers and ultimately responsible for carrying CMME scores into future use. < xs:element name = " EventList " > < xs:c omplexTy pe > < xs:sequence > < xs:group ref = " S in g le Ev en t Da ta " minOccurs = " 0 " maxOccurs = " unbounded " / >

Listing 1: CMME-XML Schema (extract); event list structure without variants

< xs:element name = " EventList " > < xs:c omplexTy pe > < xs:sequence > < xs:group ref = " EventListData " minOccurs = " 0 " maxOccurs = " unbounded " / > < xs:group name = " EventListData " > < xs:choice >

< xs:group ref = " S in g le Ev en t Da ta " / >

< xs:element name = " Va r ia nt Re a di ng s " > < xs :complex Type > < xs:sequence > < xs:element name = " Reading " minOccurs = " 2 " maxOccurs = " unbounded " > < xs:co mplexTyp e > < xs:sequence > < xs:element name = " V a r i a n t V e r s i o n I D " type = " xs:string " minOccurs = " 1 " maxOccurs = " unbounded " / > < xs:element name = " Error " minOccurs = " 0 " maxOccurs = " 1 " / > < xs:choice > < xs:element name = " Lacuna " / > < xs:element name = " Music " > < xs: complexT ype > < xs:sequence > < xs:group ref = " S in g le Ev en t Da ta " minOccurs = " 0 " maxOccurs = " unbounded " />



Listing 2: CMME-XML Schema (extract); event list structure with variants

3 The CMME approach to variants: Experiments in interface A representation format is not enough. As noted above, no facile separation of representation, interface, and programmatic design is feasible let alone desirable. One of the basic tenets of CMME design is that software systems destined for widespread employment in humanities fields cannot afford to ignore aspects of interface and usability even when these are conceptually secondary to ‘invisible’ technical elements such as data representation. Encoding must be accompanied, in other words, by concrete means of retrieval, visualization, and manipulation,

The CMME Occo Codex Edition: Variants and Versions in Encoding and Interface

141

which, especially from the viewpoint of the non-specialist end user, are crucial in shaping the practice of interacting with the data. One cannot control reception— the formulation of an encoding scheme and interface will never precisely determine how the system’s data will be read and used—but the programmatic software elements nevertheless stand in a privileged position in this relationship, positioned as the primary gateway between user and data. At a first glance, it seems that this power relation might bear only marginally upon actual practice. Experimenting with the creation of an interface to visualize variant readings is in certain ways a matter of seeking the most ‘straightforward’ translations of the list structures described above into the CMME’s score-based visual rendering model. Figure 6 reproduces a CMME score window in which substantive variants (primarily differences of pitch and rhythm between different sources) have been marked with unobtrusive colored horizontal lines, allowing a reader to see the precise extent of each point of variation (signalling the presence of variants without displaying their contents). V-shaped colored ticks mark positions where extra material is present in a different version. Exactly what these variations signify—from what does a reading ‘vary’ if there is no proposed archetype?—depends on which version is currently being viewed (displayed on the right side of the toolbar, next to the zooming controls). In this case the version labeled “Occo Codex” is presented in the score window; all readings correspond to what appears in that one source, so any marked variant represents a departure in a different version from this source’s readings, rather than a departure from a central editorial version. Within the CMME viewer program, right-clicking on the score at a position where a variant has been marked will open a pop-up window containing a ‘comparative’ listing of all readings at that position, in musical notation (see Figure 7). In keeping with the principles of a ‘dynamic’ edition, configurable in terms of visualization forms, CMME variant display can be controlled by end users to highlight different categories of information. Variant display can be turned off entirely, resulting in a ‘clean’ score. Combined with the automatically-compiled listing of variants in a separate window, this edition ‘state’ corresponds in many respects to the layout of many traditional printed editions with its conceptual separation of score and critical apparatus (see Figure 8). Perhaps more interesting is the fact that the program must automatically detect which types of variation are present within each set of alternative readings (for instance, rhythmic, pitch, or ligation variants), and can therefore offer a high level of configurability in allowing users to specify precisely which sorts of variants to mark (or eventually search or otherwise manipulate). More than a mere customization issue, this capability affects and foregrounds a matter of editorial policy which typically remains underspecified, namely the determination of precisely what constitutes noteworthy variation between sources. Figure 9 presents two views of the same CMME score file, corresponding to different source versions transcribed as precisely as allowed by the encoding format. When the viewer software is set to mark every instance of variation regardless of category

142

Theodor Dumitrescu and Marnix van Berchum

Figure 6: CMME score showing positioning of ‘substantive’ variants

Figure 7: Variants visualized in popup windows

The CMME Occo Codex Edition: Variants and Versions in Encoding and Interface

143

Figure 8: Variants listed in Critical Notes window

(Figure 10), a surprising overall level of variation is made evident. The majority of instances marked here are those typically passed over silently as inconsequential for the musical text: differences of stem direction, vertical position of dots, line endings, etc. The extent to which these can be considered ‘non-substantive’ is questionable: the positioning of line breaks, for instance, will have an effect on an editor’s interpretation of the duration of manuscript accidentals, or stem direction may actually have an effect on rhythm in certain notational styles (as in some brands of 14th-century notation). The relation of the CMME’s capabilities to these editorial issues gathers significance from what it allows rather than what it forces: offering the transcriber the ability to notate variation in virtually any aspect of a musical event which is included in the representation format, the system leaves the question of significance open—it remains a matter of editorial policy, and not of the medium. At this point the dynamic visualization aspects of the CMME system have already brought the digital edition quite a ways from the tightly-packed and usually cryptic variant lists inhabiting the back pages of the printed edition. The scholarly editor likewise works with the concept of variants in a new ‘interface:’ the input method for variants involves switching the score to display an individual source version, after which any modification is registered as a variant particular to the source. These seemingly cosmetic translations, however, can only too easily cover over the modified theoretical ideas which must accompany them. The conceptual understanding of the ‘variant reading,’ for instance, becomes more concrete when instances of variants must be delimited precisely: in a printed variant list, the length of individual variants affects primarily the readability and

144

Theodor Dumitrescu and Marnix van Berchum

Figure 9: Comparison of two source versions in CMME score

Figure 10: CMME score showing positioning of all variants

The CMME Occo Codex Edition: Variants and Versions in Encoding and Interface

145

comprehensibility of the apparatus; whereas in the digital system where variants are expressed as data to be manipulated programmatically, their parameters affect the functioning of the software elements and the feasability of the encoding. The possibility of ‘overlapping’ variants—where, e. g., a passage in one source diverges from another, and then a third source begins to diverge from both in the middle of this reading and extends farther—has the potential to wreak havoc with the software’s utility, creating readings so lengthy that they would pass well beyond current conventions. But this situation turns out not to arise in practice, even with many sources and frequent variants, as long as the editor has followed the principle of making readings no longer than they need to be, splitting them into smaller units if necessary. It becomes apparent that editorial policy is intertwined in certain ways with the encoding, and indeed it must be so—as indeed it always has been in the case of the printed edition, where the materiality of the medium imposes and encourages certain working methods. Another ‘conceptual’ observation concerns the philological problem of prioritizing sources. As noted above, it has seemed to some observers that an almost inevitable consequence of traditional editorial publishing is the explicit or implicit creation of hierarchical source relationships, privileging certain states of the text in a search for a perhaps chimerical ‘archetype.’ Even those who see little merit in the endeavor (and not a little distortion) are forced by the material conditions of paper publication to elevate certain versions or readings by choosing them for printing centrally, or otherwise to risk shirking editorial duty by focusing on one or two sources/versions (with the greater danger that readers only engage with these, and treat the edition as a ‘diplomatic’ transcription representing a source rather than the editor’s interpretation of it). The removal of such constraints in the context of online publishing seems to offer a way out, and indeed the CMME representation decisions discussed above avoid the necessity to create one central reading: ordering of variants within a score file is a purely superficial matter which a software program is under no obligation to preserve, so that any number of apparently equal versions of a composition can appear in a CMME file. Making the leap, however, from passive representation format (encoded music notation stored electronically) to active software environment (visualization and presentation of encoded music notation) necessarily grants considerable importance to interface, and at this point the controlling force of the dispositif is felt, problematizing the reality of this Utopian ideal of the text without Urtext.12 The interconnected layers of software translation and social practice which link the user/reader to the intangible musical data stored electronically somewhere on a server or hard disk permit no simple escape from the traditional modes of edition-reading and their implicit value hierarchies. 12

On the dispositif or “apparatus” concept, borrowed originally from film theory to treat socio-technological interface, see Jean-Louis Baudry: Ideological effects of the basic cinematographic apparatus. Trans. by Alan Williams. In: Narrative, Apparatus, Ideology. A Film Theory Reader. Ed. by Philip Rosen. New York 1986, pp. 286–298.

146

Theodor Dumitrescu and Marnix van Berchum

In more concrete terms: if there is no ‘central’ reading of a 16th-century musical composition, no archetypal form from which the others deviate, what does the user see when looking at a CMME score? What is a ‘default’ version which appears when a score file is first opened, if not the version which the reader has been trained to accept as the most important, indeed for a non-critical reader often understood as identical with the work itself? What of the editor’s task, which includes interpretational decisions that depend on the variant readings of individual sources (especially in the realms of text underlay and handling accidentals/pitch realization)? The scholar who must create 25 sets of performing decisions for a single piece, each reflecting the idiosyncracies of a single source, will find that the business of digital editing has multiplied his workload mercilessly. More significantly yet, there is the matter in all this of editorial responsibility to a readership, not to pretend merely to provide untouched primary materials, but rather to offer the fruits of expertise and intimate involvement with the composition’s sources. The responsible use of an edition by a reader should not require the same level of expertise as the editor’s. In practice, then, when viewed as the fusion of representation format and software environment—a view which we have argued is necessary for understanding a digital edition system on critical terms—the CMME’s variant system at its current stage can claim principally to provide only an initial response to an issue extending far beyond the confines of technical experimentation. Major conceptual questions problematize attempts to set the digital edition on a ‘posttextual’ philological footing, questions which have less to do with the material conditions of software development than with the inescapable social practices tied to edition usage, reading, and interface in general. The parameters of the game have undoubtedly shifted: less and less will the low-level practical concerns of the 20th-century editor serve as the locus of intellectual tension, as these move into the domain of the reader (e. g., the choice of cleffing or the specific textual codes representing musical variants in a critical apparatus). However, the shift to a new understanding of textual variance, sought by some in the promise of information technology, will not come simply by virtue of a transfer of medium. Experimentation in new forms of visualization and manipulation, unquestionably still at a rudimentary stage highly dependent upon traditional printed models, can only progress hand in hand with the gradual developments in our conceptualization of textual-oral materials—what it means to ‘read’ a (musical) text, what the defining parameters of a ‘work’ are and were, the role of authorship, at what point the identifying characteristics of a musical item meld into the spaces under performative/scribal control. Without these concerns in the long term, not even the most sophisticated encoding will bring the early music edition beyond its deep-rooted traditional archetype.

Laurent Pugin

Editing Renaissance Music: The Aruspix Project

Digital music editions offer very promising possibilities for publishing music critical editions. The technology used may differ significantly from one project to another. Some make use of web browsers, others are based on dedicated software applications, but the key advantage of all is that the medium always gives the user the opportunity to read and browse the edition in a much more flexible way than with paper-based editions. The linking capabilities of the digital technology enables the multiple cross-references resulting from the critical process to be consulted in a much more comfortable way than by turning the pages back and forth to read critical comments or to look at a variant. Digital technology can also enable different sources or source fragments to be displayed and juxtaposed very easily, which may be of great benefit when the original text has to be presented to the user. In some cases, the full digital encoding of the music content itself is also available. As a digital representation is transformable into other formats, having such a representation opens new perspectives in the field of music editing. In addition to the high flexibility that digital technology offers for presenting the edition, it also tackles a more fundamental weakness of the paper-based editions, being that all the decisions have to be taken definitively, fixing and freezing the interpretation of the text. Where the paper-based edition is one set representation of the work, a digital edition can be a dynamic representation of the work that can be manipulated further by the reader in an interactive way according to his needs and knowledge. The Aruspix Project 1 was not originally related to digital editing. On the contrary, the project emerged in the field of traditional editing, where the goal is to produce paper-based editions. Fundamentally, the aim of the Aruspix Project is to use digital technology to build the edition and, more specifically, to create a tool that enables the different sources to be exhaustively compared. Here the digital infrastructure is not primarily intended for publishing the edition, but more for creating it. In other words, the target user is the editor rather than the reader. The Aruspix Project, however, has intrinsic links with digital editing since the adoption of a digital technology for the editing work produces a valuable amount of encoded data that can be used to produce a digital edition. The more the Aruspix Project evolves, the more its natural connection with digital editing became obvious: a clear demonstration that digital material offers a great adaptability once it is available. 1

http://www.aruspix.net, consulted August 2008.

148

Laurent Pugin

The Aruspix Project focuses on Renaissance music, and more specifically on typographical printed sources. Typographic music printing was introduced to Italy by Ottaviano Petrucci in the early Sixteenth century. The printing process was simplified a couple of decades later by Pierre Attaingnant, in France, in 1527. He introduced an innovative technique using a new kind of printing type that enabled the whole content of the music page to be printed with a single impression step. This innovation greatly simplified the printing process and made the music printing venture much more profitable and much more interesting from a commercial point of view. As music printing made music scores more easily accessible, the middle classes started to be more and more interested in music, in particular in the madrigal repertoire, which in the end increased the demand. The market grew extremely quickly, reaching a peak during the second half of the Sixteenth century, with Venice being by far the most productive city in Europe. Typography remained the predominant music printing technique until the end of the Seventeenth century, when it began to be superseded by music engraving. Editing Renaissance music presents many points in common with editing music of other periods. As in most editing enterprises, one of the major challenges is the comparison of the different sources available. However, the typographic music printing technique itself, as well as the financial constraints that greatly influenced the production of the time, raises specific editorial challenges that motivated the Aruspix Project and that will be presented here.

1 Stop-press corrections The introduction of music printing, and of printing in general, drastically modified the way music, or literature, was disseminated throughout the world. With this new technique, it became possible to mass produce hundreds or even thousands of copies of the same book. In a very short period of time, identical books started to become available in different places, whereas earlier there had been only distinctive manuscripts, available in only one place. From an editorial point of view, years later, the same distinction still applies, and, by the nature of the production technique used, prints are fundamentally different from manuscripts. Manuscripts are defined as being unique sources, whereas several copies of the same printed edition may be taken to be one and the same source. This is true in theory. At least, the editor may expect the different copies issued during the same print run to be the same. But in practice, the situation has proven to be much more complicated, especially with early typographic printed music. One important innovation with the typographic printing technique was that it made the printing material (i. e., the types and the formes) reusable. This was not the case with woodcuts, an earlier printing technique, where a block of wood had to be cut for every single page or part of page to be printed. Nor would the printing material be reusable with engraving, the subsequent printing technique, where a distinct plate would have to be engraved for every single page. With typography, on the contrary, the types were reusable. They were

Editing Renaissance Music: The Aruspix Project

149

set into the printing forme, and after the print run the forme was disassembled and the types were ready to be re-used. This particular characteristic of the typographic printing technique should, in principle, have no impact on editors’ work today. But the important point is that the ability to move the typographic types did not just influence their reusability. Benefiting from it, the printers very often carried out stop-press corrections during the printing process. As soon as an error, or something that could improve for example the layout, was noticed during the production the press was stopped, the forme was corrected by moving or replacing the types, and the press was resumed. Because paper was very expensive, sheets that had already been printed with the error or without the improvement were usually kept and used for the edition. In some cases though, the error was corrected, either by hand or by sticking a cancel slip on it. Consequently, for the present day editor all the available copies of the same music printed book cannot be expected to be identical. In fact, one may say that the problem is that they are identical bibliographical references with a potentially different content. And the situation is even more confusing. As the sheets were piled up during the printing process and gathered into books only at the very end of the printing process once all the pages were printed, a copy of a book is very likely to contain a mix of corrected and uncorrected sheets. In other words, in most cases it is not possible to distinguish between different print runs across the different copies of a book because the different stages of correction are mixed up across the copies.2 For the present day editor, it is therefore important to be aware of the differences that the different copies of a book can present. It is not only a question of finding them and compiling a list of errors, corrections and improvements. This is in fact the minimum one may expect from any editorial project. It is also that, by investigating the way the corrections and the modifications were done, unexpected scenarios that occurred during the printing process may be revealed.3 In the Aruspix Project, a complete software application for finding stop-press corrections and the differences between the different copies of the same edition has been designed and implemented. The comparison is performed by superimposing two digital images of the sources using dedicated image processing algorithms. The idea of using image superimposition for the comparison of music sources is not new,4 but in Aruspix the whole process is performed in a fully automatic mode that works perfectly well in most cases. The distortion of the images is corrected, 2

3

4

John Milsom: Tallis, Byrd and the ‘Incorrected Copy’: Some Cautionary Notes for Editors of Early Music Printed from Movable Type. In: Music & Letters, vol. 77, no. 3, Aug. 1996, pp. 350–54. One should mention the extremely interesting cases presented by Smith, where different copies of the same book were revealed to be hidden editions reprinted years later. Cases like this can be highlighted only if the different copies of the books are systematically compared. See Jeremy L. Smith: Thomas East and Music Publishing in Renaissance England. Oxford 2003, pp. 43–54. Laurent Pugin: Aruspix: An Automatic Source-Comparison System. In: Music Analysis East and West. Ed. by Walter B. Hewlett and Eleanor Selfridge-Field. Cambridge (MA) 2006 (Computing in Musicology. 14), pp. 50–51.

150

Laurent Pugin

they are resized and deskewed, and finally aligned. When the automatic mode cannot handle the process correctly, because of the document degradation or because of an uncommon page layout, the process can be performed in a semiautomatic mode where the user may control certain crucial steps of the process. In both cases, the result is a superimposed image where the two sources are aligned and superimposed. The differences are highlighted in colour, with red for one source and green for the other. The software application also provides a visualization user interface that enables the detected differences to be checked quickly against the original sources by clicking with the mouse.

2 Re-editions A comparison of the different copies of an edition is one problem for the editor when dealing with early typographic prints. Another, by far as challenging, is the comparison of the different re-editions of the same work. This is of course not specific to Renaissance music and not specific to early typographic prints, but the fact is that the number of re-editions produced during this period can be unusually high, with sometimes several dozens of re-editions. In a printing venture in the Sixteenth or Seventeenth centuries, the market had a strong influence on the editorial strategies of the printers. At that time, the cost of paper was very high and it was an extremely important factor in the profitability of the operation. It is one reason why printers very often used the sheets printed before a stop-press correction occurred, even if they contained an error. It is also one reason they usually produced rather small print runs, as unsold copies would represent a serious financial loss. They preferred keeping the option of reprinting the book if it turned out to be a good seller, which is why the number of re-editions can be very high at this period. Of course, it goes without saying that the different re-editions may present more or less significant differences. Some errors may have been corrected, as was very often claimed on the title pages of the editions of the time, or new errors introduced. But some substantial changes may also have been made intentionally. A good example is the case highlighted by Etienne Darbellay in Frescobaldi’s Canzoni. In one of the re-editions, by Vincenti, the musical text was modified and simplified in different places by the printer, almost certainly because he did not have the printing material to reproduce the original edition by Robletti.5 All these differences have to be brought to light by the editor, and to do so an exhaustive comparison of the different editions and re-editions is required. But with books where several re-editions are available, this task becomes highly time-consuming to the point where editors often renounce doing it, or do it very superficially. 5

Girolamo Frescobaldi: Il primo libro delle canzoni a una, due, tre, e quattro voci, nelle edizioni di Roma 1628 e Venezia 1635: con l’aggiunta delle tre canzoni pubblicate nella raccolta Raverij 1608. Ed. by Etienne Darbellay. Milano 2001 (Girolamo Frescobaldi: Opere Complete. 8. Monumenti musicali italiani. 22).

Editing Renaissance Music: The Aruspix Project

151

The Aruspix Project aimed to find a solution to this problem by providing the editor with a tool that performs this comparison digitally. With re-editions, however, the superimposition technique used for the comparison of the different copies of a book is not applicable. The reason is that, with re-editions, the layout may be quite different. The superimposition of two editions where the layout is not the same will clearly not work, for example when one is in an upright format, and the other in a landscape format. But even with cases where two editions are very similar, for example when a re-edition is a direct copy of a previous edition, the layout can still be slightly different, and superimposition will not work either. To tackle this problem, Aruspix uses a dedicated optical music recognition (OMR) technology that enables the musical content of the different editions to be read and transformed into a digital encoding. Once the encoded version is available, it is possible to collate the re-editions digitally and to spotlight the differences. Optical music recognition is a whole research field in itself that has been investigated by numerous projects over the last decades. It is known for being a difficult task, combining several fields such as image processing, document analysis, pattern recognition, machine learning, music modelling and music encoding. For the Aruspix Project, completely new experiments had to be undertaken as no existing technology was suitable for early typographic prints. Specific characteristics of the document being processed required that innovative solutions be found. In particular, the image pre-processing phase of the process, a crucial step in optical music recognition, needed new experiments to be done in order to find the best algorithms for handling degraded music documents. The machine learning technology used in Aruspix, hidden Markov models, is an original approach in the field. It enabled several serious difficulties due to the printing irregularities and to the document degradations to be overcome. Another innovative aspect of the optical music recognition technology developed for Aruspix is that it improves itself dynamically when the software application is used. Whereas most commercial software applications for optical music recognition act as black-boxes that keep making the same errors, Aruspix ‘learns’ and obtains better and better results with each page that is processed. The Aruspix software application also includes an integrated music editor that enables the recognition results to be checked and quickly corrected if necessary, as shown in Figure 1. Once the re-editions of a book have been processed by optical music recognition, their digital content is available for further processing. Aruspix provides another workspace for collating the different editions. The alignment of the digital content is done with the Levenshtein distance, a technique for aligning sequences of events widely used in natural language processing or in bio-informatics. The alignment is performed using one reference edition to be selected by the editor, most likely the editio princeps when it is available, but any other edition can be selected as reference for the collation if there is a reason to do so. During the collation phase, all the re-editions are aligned against the reference edition, enabling the differences to be spotted. As in the other workspaces of the software application,

152

Laurent Pugin

Figure 1: The optical music recognition workspace in Aruspix. Both the original image and the recognition results are displayed together, which enables the recognition errors to be easily detected and corrected within the integrated music editor.

the interface is very intuitive and provides the editor with functionalities for quickly checking the detected errors in the original sources, as ultimately the editor must take the final decision. The left panel displays the list of the sources, with the different voices and different editions, as well as a preview of the selected page. The aligned version of the encoded editions (i. e. the encoded collation) is displayed in the central panel. The original images are loaded into the panels on the right, as shown on Figure 2. The detected differences are highlighted in colour in the encoded collation, and when the editor clicks on a symbol with the mouse, the image of the corresponding page in the corresponding edition is loaded and displayed in the right-hand panel, with the focus on the selected symbol. With this in hand, the editor can very comfortably go through the list of differences highlighted automatically in the encoded collation. Managing a digital collation is a challenging problem. In a typical editorial project, several re-editions will have to be processed and collated together. For a book of madrigals printed in partbooks, for example, there will be about 25 pages per book per part to be processed, which means a total of about 100 pages for an edition of madrigals at four voices. If there are a dozen editions to be collated,

Editing Renaissance Music: The Aruspix Project

153

Figure 2: The collation workspace in Aruspix. The digital collations can be browsed in the left-hand panel. The central panel displays the encoded collation, with the detected differences highlighted in colour. The content of the encoded collation is linked with the images of the original sources that can be displayed in the right-hand panels.

more than 1000 pages, with the original image and the symbolic encoded version, will have to be stored and linked together.6 Creating the links between the original image and the encoded version and also across the different editions (i. e. across the different encoded versions) is precisely the challenge. The main reason being that the different editions do not necessarily have the same layout, nor the same distribution across the pages. For example, a madrigal may have been printed on a single page in one edition but over two pages in another edition. This means that several mapping levels were required in order to go back from a symbol in the encoded collation to the corresponding symbol in the original image of a particular edition. The collation in Aruspix is built onto three different levels of files,7 as shown in Figure 3. At the lowest level there are the page files, 6

7

Aruspix is currently being used in an editorial project on the secular works of Luca Marenzio led by Prof. Mauro Calcagno. The First book of madrigals for four voices has been fully processed. The four available copies of the first edition and 8 re-editions yielded a set of 1400 images and encoded pages. All the Aruspix files are ZIP archives, with at least an XML file for content description.

154

Laurent Pugin

corresponding to the page within the original source and also to the optical music recognition unit. A page file contains the processed image, the encoded version resulting from the optical music recognition process, and an XML file for mapping the position in the encoded version with the image. The second level of files corresponds to a book. The book files are also created during the optical music recognition process. They contain references to the original image files that were used as input to the optical music recognition process, references to the Aruspix page files, and an XML file providing some bibliographical information about the book.8 Finally, at the highest level is the collation file that contains references to the Aruspix book files, the encoded version of the collation generated using the alignment algorithm, and an XML file for mapping the position in the encoded version with the page of a book. When a symbol is selected in the encoded version, the mapping structure and the reference to the Aruspix book file enables the Aruspix page file to be selected, where the mapping structure enables the correct position in the image file to be displayed. One key aspect of the structure is that most of the content is handled by references to files. This has been shown to be absolutely necessary, as duplicating thousands of images within every single digital collation would not be a valid approach.

Figure 3: The different levels of files in Aruspix. The lowest level is the page, the second is the book, containing several pages, and the highest is the collation of several books. Links across the files are handled through references and mapping information.

8

The book files also contain the Aruspix optimised model files for the book, generated during the optical music recognition process, which store how the system ‘learned’.

Editing Renaissance Music: The Aruspix Project

155

3 Perspectives The Aruspix Project has been motivated by editorial issues that the editors of Renaissance printed music commonly faced. Finding the differences across the different copies of an edition and across the multiple re-editions has always been a Danaids’ jar for them. It turned out that digital technology offers a great deal of potential for assisting the editors in this task. The more the Aruspix Project progresses, the more it also emerges that the technology developed is of great help no matter what medium will be used for publishing the edition. The tools needed for creating and publishing music digital editions are certainly much more complex than with text digital editions. One fundamental reason for this is the complexity of representing and processing music, as demonstrated by the numerous formats designed over the years.9 Implementing computer tools that integrate user interfaces for editing these formats is also a complicated task. The Aruspix Project, with the development of a specific optical music recognition technology, took an original approach towards digital editing, without initially intending to do so. The current stage of development reached by the project clearly demonstrates the benefits of optical music recognition for music digital editing. In addition to the music encoding itself, optical music recognition can also provide links with images of the original sources. These links can be exploited within the editorial process, as in Aruspix, by generating digital collations for the editor, but nothing prevents the links, or some of the links, from being used in the publishing structure, since visualising the original source can be worthwhile for the end user of the edition as well. Aruspix is an ongoing research project that is continually being improved and extended. The current developments include further enhancements of the image processing and machine learning techniques, as well as recognition and processing of lyrics. Very promising preliminary results have also been obtained with Renaissance music manuscripts, which would considerably extend the application field of the project. Aruspix will strengthen its link with the digital music editing field by adopting a more compatible format for the music encoding. Currently, a binary encoding format compatible with the Wolfgang10 music notation software application is being used. This format has been adopted as it fully fills the requirements for Renaissance music encoding, such as ligatures, proportions and coloration. The plan is to adopt an XML format that would bring together the MEI11 and CMME12 formats. Having an encoding format in Aruspix that would integrate the flexibility of the MEI approach and the accuracy for encoding Renaissance music offered by CMME would certainly be of great benefit to all three projects. 9 10 11 12

Eleanor Selfridge-Field (ed.): Beyond Midi. The Handbook of Musical Codes. Cambridge (MA) 1997. http://www.winwg.com, consulted August 2008. http://lib.virginia.edu/digital/resndev/mei/, consulted August 2008. http://www.cmme.org, consulted August 2008.

Michael D. Good

Using MusicXML 2.0 for Music Editorial Applications

1 Introduction to MusicXML 2.0 During the last part of the 20th century, the creation of sheet music publications became an increasingly computerized process. The historical production process of plate engraving gave way to computerized engraving. In the 21st century, nearly any publication of Western music that uses common Western music notation will be produced using music notation software. In 2009, the most common notation software products are Finale and Sibelius. In the past, other programs like Score and Amadeus were used more frequently, and they still remain in use today. All of these programs have their own internal, proprietary data formats for representing music notation. In the past, it was not possible for people to share music notation effectively between different programs. The MIDI format1 was the only interchange format widely supported by commercial music software, but MIDI includes only a small fraction of the information represented in music notation.2 Earlier efforts to create a standard notation format such as NIFF3 and SMDL4 were never widely adopted, due to a combination of technology and social issues.5 Around the turn of the century, many people realized that the XML language provided an excellent opportunity to at last create a standard music notation interchange language.6 XML provided a technology for representing complex data from different applications in a standard, Unicode, text-based format that was readable both by computers and people. XML attracted widespread interest 1

2 3 4 5

6

MIDI Manufacturers Association Inc.: The Complete MIDI 1.0 Detailed Specification. Document version 96.1. Los Angeles 1996. Also see http://www.midi.org, consulted August 2008. See Eleanor Selfridge-Field (Ed.): Beyond MIDI. The Handbook of Musical Codes. Cambridge (MA) 1997. See Cindy Grande: The Notation Interchange File Format. A Windows-Compliant Approach. In: Selfridge-Field 1997 (note 2), pp. 491–512. See Donald Sloan: HyTime and Standard Music Description Language. A DocumentDescription Approach. In: Selfridge-Field 1997 (note 2), pp. 469–490. See Michael Good: Lessons From the Adoption of MusicXML as an Interchange Standard. In: Proceedings of the XML 2006 conference (Boston, December 5–7), http: //2006.xmlconference.org/proceedings/46/presentation.pdf, consulted August 2008. See Gerd Castan, Michael Good, and Perry Roland: Extensible Markup Language (XML) for Music Applications. An Introduction. In: The Virtual Score. Representation, Retrieval, Restoration. Ed. by Walter B. Hewlett and Eleanor Selfridge-Field. Cambridge (MA) 2001, pp. 95–102.

158

Michael D. Good

from the information technology industry, so musicians could now leverage the base technology investments made by much larger industries. The Recordare® MusicXML™ format7 was placed on a strong technical foundation by building on the two leading academic formats for symbolic music: the MuseData format8 and the Humdrum format.9 The first versions of MusicXML were basically an XML version of MuseData, with key concepts from Humdrum added in. Soon MusicXML added features for popular music and other areas that went beyond the original MuseData and Humdrum designs. MusicXML also followed best practices for XML language design, using elements for musical data and attributes for musical metadata such as formatting and performance information.10 MusicXML was one of numerous proposals for representing common Western music notation in an XML format that emerged at this time. Others included MML,11 MEI,12 and WEDELMUSIC,13 the last of which became the basis for MPEG’s symbolic music representation feature.14 Like SMDL before them, none of these alternative XML proposals attracted support from any commercial music applications. None of them provide a practical, usable solution for music editorial applications. In contrast, MusicXML has become the de facto standard for music notation interchange. As of January 2009, it is supported by over 100 music applications. It is available under a non-revocable royalty-free license that is appropriate for both commercial and academic applications, whether delivered as proprietary or open source software. Figure 1 lists the applications supporting the MusicXML format as of January 2009. The applications in the top section both read and write MusicXML files. Applications in the middle section can write MusicXML files without reading them, and applications in the bottom section read MusicXML files without writing them. Applications on the left hand side are generally available. Applications on the right hand side are in either beta test or prototype stage. 7 8 9 10 11

12

13

14

Michael Good: MusicXML for Notation and Analysis. In: Hewlett and Selfridge-Field 2001 (note 6), pp. 113–124. Also see http://www.recordare.com/xml/, consulted August 2008. See Walter B. Hewlett: MuseData. Multipurpose Representation. In: Selfridge-Field 1997 (note 2), pp. 402–447. See David Huron: Humdrum and Kern. Selective Feature Encoding. In: Selfridge-Field 1997 (note 2), pp. 375–401. Elliotte Rusty Harold: Effective XML. Boston 2004; Good 2006 (note 5). See Jacques Steyn: Framework for a Music Markup Language. In: Proceedings of the First International Conference MAX 2002. Musical Application Using XML (Milan, September 19–20, 2002), pp. 22–29. Also see http://www.musicmarkup.info, consulted August 2008. See Perry Roland: The Music Encoding Initiative (MEI). In: Proceedings of the First International Conference MAX 2002 (note 11), pp. 50–55. Also see http://www.lib.virginia. edu/digital/resndev/mei/, consulted August 2008. See Pierfrancesco Bellini and Paolo Nesi: WEDELMUSIC Format. An XML Music Notation Format for Emerging Applications. In: Proceedings of the First International Conference on Web Delivering of Music (Florence, November 23–24, 2001), pp. 79–86. Pierfranceso Bellini, Paolo Nesi and Giorgio Zoia: Symbolic Music Representation in MPEG. In: IEEE Multimedia 12/4, 2005, pp. 42–49. Also see http://www.interactivemusicnetwork. org/mpeg-ahg/, consulted August 2008.

Using MusicXML 2.0 for Music Editorial Applications

159

Figure 1: MusicXML Adoption as of January 2009

Many different types of music applications support the MusicXML format: — Notation programs such as Finale, Sibelius, capella, PriMus, NOTION, Encore, and LilyPond. — Music scanning applications such as SharpEye, SmartScore, PhotoScore, capella-scan, and Audiveris. — Sequencers such as Cubase, Nuendo, Sequoia, Samplitude, and Rosegarden. — Web browser plug-ins such as the Myriad Music Plug-in. — Digital sheet music retail applications such as musicRAIN. — Electronic music stands such as MuseBook Score and OrganMuse. — Tablature editors such as PROGRESSION, Guitar Pro, TablEdit, and TaBazar. — Automatic composition programs such as JMSL. — Music analysis programs such as MelodicMatch and Humdrum. — Translation tools such as PDFtoMusic Pro and utilities for SCORE and Amadeus files.

160

Michael D. Good

This widespread support at last makes it practical for different people working on a musical project to use the music tool that works best for them. When they exchange their music with somebody using a different application, far less rework is necessary. MusicXML is now used pervasively in commercial music preparation whenever application boundaries need to be crossed. A typical example is when composers use one program and publishers, arrangers, or copyists use another. Another example is when a musical is being transferred between New York, London, or other locations where the music preparation staff use different programs.15 The amount of rework needed when crossing application boundaries depends on the quality of the software. While MusicXML 2.0 is a near-lossless format for music notation, the quality of MusicXML reading and writing software varies greatly. Exporting from recent versions of Finale to MusicXML is highly accurate, allowing digital sheet music retailers like musicRAIN to create a Flash-based retail environment that faithfully maintains the appearance of sheet music originally created in Finale. Each year sees improvements in both quality as well as the quantity of MusicXML translation software. For instance, the MusicXML 2.0 import provided in Sibelius 5.2 far exceeds the accuracy of the initial implementation of MusicXML 1.1 import in Sibelius 4. The availability of a W3C XML Schema version of the MusicXML 2.0 format, released in September 2008, should help accelerate these quality improvements by making MusicXML writing errors easier to diagnose and fix. The amount and complexity of software needed to perform music notation format translations that are accurate enough for practical use is usually underestimated, since it is invisible to the musicians using these programs. MusicXML’s eight-year lead in software development over other XML formats for common Western music notation makes it unlikely that any other XML-based formats in this area will rival it in the future. This large installed base of MusicXML support provides a great opportunity for building new music editorial applications that can integrate directly into the critical edition production process. The high fidelity of the format means that music editorial software can concentrate on issues that are particularly unique to the editorial users, without having to duplicate the notational capabilities of advanced programs such as Finale, Sibelius, and Cubase. A music editorial application can use files created by nearly any notation application and produce files readable by nearly any notation application. This frees editors to use whatever tool they like for notation entry, knowing that the resulting files can be read by engraving and music display software later in the process. This opportunity can only be realized if the MusicXML format can support the demanding needs of music editorial applications. At the Digitale Medien und Musikedition symposium held in Mainz in November 2006, speakers raised several issues that limited MusicXML 1.1’s potential use in editorial applications. When 15

See Michael Good: MusicXML in Commercial Applications. In: Music Analysis East and West. Ed. by Walter Hewlett and Eleanor Selfridge-Field. Cambridge (MA) 2006, pp. 9–20.

Using MusicXML 2.0 for Music Editorial Applications

161

version 2.0 of the MusicXML format was released in June 2007, the feedback from that conference had been incorporated into the 95 new features added to the format. MusicXML 2.0 now meets the needs of editorial applications for common Western music notation. In the remainder of this paper, I will go through the key issues raised by Johannes Kepper and Stefan Morent16 in their requirements for music representation formats. Using annotated versions of Kepper and Morent’s editorial examples from Bach, Beethoven, and Brahms, I will demonstrate the specific MusicXML features that address these different editorial requirements. The MusicXML examples were created by encoding the musical examples using Finale 2008, using the Dolet ® 4 for Finale plug-in to automatically export the MusicXML 2.0 file. The MusicXML 2.0 files were then hand-edited as needed to add music editorial data required by the editorial examples but not yet supported by the Finale or Dolet for Finale software.

2 Editorial Example I: Versions/Adaptations of BWV 655, Herr Jesu Christ dich zu uns wend, bars 1–4 Figures 2 and 3 show annotated versions of the variants in the Bach editorial example used by Kepper and Morent. Note the differences between these versions of the same piece that start in bar 2: differences in slurs and ornamentation in the top staff, and differences in pitches and rhythms in the bottom staff. The numbers added to the music refer to MusicXML example numbers that will follow in this discussion. Kepper and Morent describe the encoding of the soprano C clef in the bottom staff as the main musical challenge in this generally straightforward example. This is not a great challenge as most contemporary formats, including MusicXML, support these movable C clefs. MusicXML’s solution separates the clef sign and the clef placement into separate elements so that they can be processed independently if need be. Listing 1 illustrates the MusicXML representation of the two clefs in this example. The major issue in this editorial example, however, is the issue of representing variants. There are two variants in this editorial example, but there can easily be many more variants in real-life examples. This was the most critical music editorial issue regarding MusicXML 1.1 raised at the Mainz symposium, and it has been addressed in MusicXML 2.0. One of the strengths of the MusicXML format is that, no matter what the musical application, MusicXML documents primarily are modeling a physical musical score, rather than an abstraction of a musical score. It is complex to represent music notation in a near-lossless fashion that incorporates musical se16

Johannes Kepper and Stefan Morent: Requirements for a Music-editorial Data Format. http://www.edirom.de/fileadmin/downloads/Requirements_for_Music_Encoding. pdf, consulted August 2008. The German version including all examples is reproduced in this volume, pp. 266–280.

162

Michael D. Good

mantics and well as fine points of graphical representation. Given this complexity, the clarity provided by this straightforward modeling of a printed score has been essential to the successful adoption of the format. Since version 1.0, MusicXML has always offered XLink-based elements that can represent connections between musical scores. The problem in MusicXML 1.1 is that each variant had to be in a separate file. This type of representation is insufficient because it is far too easy to break the connection between documents, making it very difficult to build robust applications that use this feature. One of the primary additions to MusicXML 2.0 is the addition of a compressed, zip-based file format. This zip format has many uses: — It greatly reduces the size of MusicXML files. The file size reduction is roughly a factor of 20 on average, making MusicXML files roughly the same size as the corresponding MIDI files. This file size reduction makes MusicXML 2.0 files much more effective for digital sheet music distribution. — Compressed MusicXML 2.0 files have their own unique .mxl suffix, rather than the common .xml suffix that is shared by many other applications. They also have a unique registered IANA media type. This makes it much easier for applications and web browsers to do automatic processing of MusicXML files. One example is the Myriad QuickLook plug-in for Mac OS 10.5 that provides automatic MusicXML score previews in the Mac Finder. — Multimedia music files are made much more reliable because graphics and audio files can now be stored in the same file as the music notation file. — Music editorial applications are made much more reliable because multiple variants can now be stored in a single music notation file. — Music editorial applications can also use the zip file structure to store detailed metadata in a specialized format in the same single .mxl file as the multiple variants. This addresses the detailed metadata issues raised in the Weber editorial example II.17 Let us see how this works using the Bach example. First, the individual MusicXML score files contain hyperlinks within the score indicating the connections between them. Listing 2 shows the connection stored in the first variant. The id names reflect that there are no slurs in the top staff of the first variant, while slurs are present in the top staff of the second variant. Listing 3 shows the connection stored in the second variant. Each variant is represented by a separate MusicXML score-partwise document. The first variant is called bach_1.xml and the second is called bach_2.xml. Each of these files is then placed in the bach_1.mxl compressed zip file. A compressed MusicXML zip file always has a file at META-INF/container.xml whose first rootfile element points to the primary music notation file. Listing 4 17

Cf. section Issues from Editorial Examples II and V, p. 172.

Using MusicXML 2.0 for Music Editorial Applications < clef number = " 1 " > < sign >G < line >2

< clef number = " 2 " > < sign >C < line >1

Listing 1: Representing clefs in MusicXML

Figure 2: Bach editorial example, first variant

Figure 3: Bach editorial example, second variant

< bookmark id = " Bar2NoSlurs " / > < link xlink:href = " bach_2 . xml # Bar2Slurs " / >

Listing 2: Representing a link from the first variant to the second variant

< bookmark id = " Bar2Slurs " / > < link xlink:href = " bach_1 . xml # Bar2NoSlurs " / >

Listing 3: Representing a link from the second variant to the first variant

163

164

Michael D. Good

shows the content of the container.xml file in this example, where the first variant is considered the primary file.