Das geschulte Ohr: Eine Kulturgeschichte der Sonifikation [1. Aufl.] 9783839420492

Wie klingt der menschliche Körper? Wie ein rundlaufender Motor - oder wie ein unterseeisches Objekt? Akustische Medien e

402 59 4MB

German Pages 326 Year 2014

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
Inhalt
Informierte Klänge und geschulte Ohren. Zur Kulturgeschichte der Sonifikation. Andi Schoon und Axel Volmar
Das geschulte Ohr in der Geschichte der Wissenschaften
Wie objektiv sind Sonifikationen? Das Ringen um wissenschaftliche Legitimität im gegenwärtigen Diskurs der ICAD
Zeitgenössische Perspektiven auf ästhetische Strategien der Sonifikation
Stethoskop und Telefon – akustemische Technologien des 19. Jahrhunderts
Automobilgeräusche als Information. Über das geschulte Ohr des Kfz-Mechanikers
Hammerwerk. Der Apparat, der Schritte in standardisierten Schall übersetzte
Das Sonische und das Meer. Epistemogene Effekte von Sonar 1940 | 2000
Die Grooving Factory. Logistische Datenanalyse im Klanglabor
Sonifikation als künstlerische Metapher und ästhetische Strategie
Angeschlagene Moderne
Die Stille der Bilder und die Macht der Töne. Spuren einer Medienästhetik der Audifikation in Rilkes Ur-Geräusch
Anmerkungen zur Sonifikationsmetapher in der Instrumentalmusik
Vorläufige Vorläufer. Vordergründige Bezüge und hintergründige Gegensätze zwischen Komposition und Sonifikation
Umdeuten. Das Phänomen der Sonifikation zwischen
Semiotik auditiver Interfaces. Zur Geschichte von Gestaltung und Rezeption auditiver Zeichen in Computer-Interfaces
Sonifikation und Organisation. Von Arbeitsliedern und Corporate Songs/Sounds
Unmerkliche Eindringlinge. Versuch über akustische Kontrolle
Sonarisationen. Ein Projekt künstlerischer Forschung des Deutschlandradio Kultur
Autorenverzeichnis
Abbildungsverzeichnis
Recommend Papers

Das geschulte Ohr: Eine Kulturgeschichte der Sonifikation [1. Aufl.]
 9783839420492

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Reihe Sound Studies

Herausgegeben von Holger Schulze

Volume 4

Beirat Sam Auinger (Linz/Berlin)

Diedrich Diederichsen (Wien/Berlin)

Florian Dombois (Zürich)

Sabine Fabo (Aachen)

Peter Kiefer (Mainz)

Doris Kolesch (Berlin)

Elena Ungeheuer (Berlin)

Christoph Wulf (Berlin)

Sound Studies

Die Buchreihe Sound Studies versammelt Forschungsergebnisse, Studien und Essays zu einem neuen und doch vertrauten Forschungsfeld: Wie leben gegenwärtig, historisch und künftig Menschen und Tiere und Dinge mit den Lauten ihrer jeweiligen Gegenwart zusammen? Wie gestalten sie Sounds, handeln durch sie hindurch und erkunden ihre Welt, in fremden und vermeintlich vertrauten Kulturen? Sound Studies liegen als Forschungsfeld quer zu etablierten Disziplinen und Ausdrucksformen. Die Publikationen dieser Buchreihe stellen künstlerische und gestaltungstheoretische Ansätze gleichermaßen wie kulturwissenschaftliche, kommunikationstheoretische und ethnographische, historisch-anthropologische Ansätze vor; Klangforschungen der Musik-, Kunst- und Literaturwissenschaft haben hier ebenso ihren Ort wie künstlerische Arbeiten, die Verständnisse von Klang anders zu zeigen beabsichtigen. Die Buchreihe Sound Studies öffnet ein Sprechen aus, mit und über Klang – über Fachund Methodengrenzen hinweg, über die Grenzen wissenschaftlichen Sprechens hinaus. Die Reihe wird herausgegeben von Holger Schulze.

Bibliografische Informationen der Deutschen Bibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar

© 2012 transcript Verlag, Bielefeld Die Verwertung der Texte und Bilder ist ohne Zustimmung des Verlages urheberrechtswidrig und strafbar. Das gilt auch für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und für die Verarbeitung mit elektronischen Systemen. Umschlagfoto: Lindenthal / photocase.com Umschlagzeichnung: Loewe, Die Sprache Ihres Wagens, Motor 17, (1929), 21. Redaktion und Lektorat: Andi Schoon, Axel Volmar, 2011 Umschlaggestaltung: Christina Giakoumelou, Axel Volmar, 2011 Satz und Korrektorat: Leonie Häsler, 2011 Druck: Majuskel Medienproduktion GmbH, Wetzlar 2012 ISBN 978-3-8376-2049-8 Gedruckt auf alterungsbeständigem Papier mit chlorfrei gebleichtem Zellstoff. Besuchen Sie uns im Internet: http://www.transcript-verlag.de Bitte fordern Sie unser Gesamtverzeichnis und andere Broschüren an unter: [email protected] Die vorliegende Publikation wurde unterstützt durch die Hochschule der Künste Bern.

Andi Schoon & Axel Volmar (Hg.) Das geschulte Ohr. Eine Kulturgeschichte der Sonifikation

Inhalt

9 Informierte Klänge und geschulte Ohren. Zur Kulturgeschichte der Sonifikation Andi Schoon und Axel Volmar

Das geschulte Ohr in der Geschichte der Wissenschaften 29 Wie objektiv sind Sonifikationen? Das Ringen um wissenschaftliche Legitimität im gegenwärtigen Diskurs der ICAD Alexandra Supper 47 Zeitgenössische Perspektiven auf ästhetische Strategien der Sonifikation Florian Grond und Thomas Hermann 71 Stethoskop und Telefon – akustemische Technologien des 19. Jahrhunderts Axel Volmar 95 Automobilgeräusche als Information. Über das geschulte Ohr des Kfz-Mechanikers Stefan Krebs 111 Hammerwerk. Der Apparat, der Schritte in standardisierten Schall übersetzte Sabine von Fischer 129 Das Sonische und das Meer. Epistemogene Effekte von Sonar 1940 | 2000 Shintaro Miyazaki 147 Die Grooving Factory. Logistische Datenanalyse im Klanglabor Michael Iber, Julian Klein und Katja Windt

Sonifikation als künstlerische Metapher und ästhetische Strategie 165 Angeschlagene Moderne Florian Dombois 171 Die Stille der Bilder und die Macht der Töne. Spuren einer Medienästhetik der Audifikation in Rilkes Ur-Geräusch Jan Thoben 191 Anmerkungen zur Sonifikationsmetapher in der Instrumentalmusik Volker Straebel 207 Vorläufige Vorläufer. Vordergründige Bezüge und hintergründige Gegensätze zwischen Komposition und Sonifikation Michael Harenberg und Daniel Weissberg 223 Umdeuten. Das Phänomen der Sonifikation zwischen Musikgeschichte, Medientechnik und Markt Martin Rumori 243 Semiotik auditiver Interfaces. Zur Geschichte von Gestaltung und Rezeption auditiver Zeichen in Computer-Interfaces David Oswald 265 Sonifikation und Organisation. Von Arbeitsliedern und Corporate Songs/Sounds Nada Endrissat und Claus Noppeney 285 Unmerkliche Eindringlinge. Versuch über akustische Kontrolle Andi Schoon 297 Sonarisationen. Ein Projekt künstlerischer Forschung des Deutschlandradio Kultur Holger Schulze

315 Autorenverzeichnis 323 Abbildungsverzeichnis

Informierte Klänge und geschulte Ohren Zur Kulturgeschichte der Sonifikation Andi Schoon und Axel Volmar

Aus den Lautsprecherboxen wehen uns schwere Atemgeräusche entgegen, die zu einem gemeinsamen Seufzer verschmelzen. Für die Installation Lungs: Slave Labour1 errechnete der englische Klangkünstler Graham Harwood aus den während des Zweiten Weltkriegs erhobenen und sorgfältig in Akten verzeichneten Daten über Alter, Geschlecht und Größe die Werte für die Lungenkapazität von insgesamt 4.500 Zwangsarbeitern, die in der Werkshalle A der Deutschen Waffen- und Munitionsfabriken A. G. in Karlsruhe ihren Dienst verrichten mussten. In dem Gebäude befindet sich heute das Zentrum für Kunst und Medientechnologie, für das Harwood seine Installation im Jahre 2005 eigens konzipierte. Am Originalschauplatz wollte Harwood das Schicksal der Arbeiter in Form eines »software poem memorial« erfahrbar machen: The ›Lungs‹ project is based on ways of bridging the gap between the perception of data and social experience. The aim is to take computer records of local events or communities that have been reduced or demeaned to the status of information and to allow the people to re-experience and/or recover their own value.2 Um eine solche Erfahrung zu ermöglichen, hat sich der Künstler hinsichtlich der klanglichen Gestaltung stark zurückgenommen: So sollten die Klänge nicht Ausdruck einer bewussten und individuellen künstlerischen Intention sein, sondern einen sinnlichen 1 Die Installation wurde im Rahmen der Ausstellung Making Things Public (März bis Oktober 2005) im Zentrum für Kunst und Medientechnologie, Karlsruhe, gezeigt. 2 Mongrel 2006. Vielen Dank an Roberto Simanowski für den Hinweis.

9

Zugang zu dem Datenmaterial schaffen, das der Installation zugrunde lag. Die in Klang übertragenen Datensätze verkörpern die von Harwood errechnete statistische Gesamtmenge der geleisteten Arbeit und bilden damit zugleich ein abstraktes bzw. metaphorisches Maß für das Leid, das den Zwangsarbeitern zugefügt wurde. Das Ziel der akustischen Darstellung bestand darin, eine Übersetzung der quantitativen Werte in eine sinnliche Erfahrung zu erreichen, um den Besuchern einen persönlichen Nachvollzug bzw. eine Vergegenwärtigung der vergangenen Ereignisse zu erleichtern. Womit aber haben wir es hier zu tun? Kann eine rein akustische Repräsentation das am Ort der Installation erlittene Unrecht erfahrbar werden lassen? Welche Informationen verkörpern sich in den verklanglichten Daten und wie werden diese für den Hörer verständlich? Erfahrungen lassen sich bekanntlich nur schwer kommunizieren. Allerdings besteht jedoch gerade das ureigenste Vermögen medialer Erzählungen darin, die Empathie der Zuschauenden und Zuhörenden anzusprechen und dadurch ein Mitfühlen und Mitleiden über zeitliche, räumliche und kulturelle Grenzen hinweg zu ermöglichen. Verfahren, Informationen auf akustischem Wege auszudrücken, zu vermitteln oder zu gewinnen, fassen wir hier unter den Begriff ›Sonifikation‹. Verstanden als akustische Repräsentation von Daten hat die Sonifikation heute einen festen Platz in unterschiedlichsten Gesellschaftsbereichen gefunden: in den Wissenschaften, der Musik und den Künsten ebenso wie in der Alltagskultur, in der Arbeitswelt und im Krieg. Bisher hat sich jedoch noch keine wissenschaftliche Publikation ausschließlich mit dem Verfahren der Sonifikation als einer kulturellen Praxis beschäftigt und diese aus einer kultur- und medienwissenschaftlichen sowie historischen Perspektive behandelt. Diese Lücke möchte der vorliegende, vierte Band der Reihe Sound Studies schließen. Mit den hier versammelten Beiträgen möchten wir insbesondere aufzeigen, wie stark Sonifikation als Kulturtechnik und als mediale Praxis der Übertragung von Daten in Klänge in der vergangenen wie gegenwärtigen Medienkultur tatsächlich verankert ist. Durch das breite Spektrum der ausgewählten Fallstudien möchten wir nicht nur ein Bewusstsein für die vielfältigen Erscheinungsformen und Anwendungsmöglichkeiten der Sonifikation schaffen, sondern mit diesen zugleich Anregungen zu weiterführenden Untersuchungen geben.

1. Sonifikation und Auditory Display als Forschungsgebiet Stellen wir die Sonifikation als künstlerisches Verfahren einen Moment lang zurück und beginnen mit der wissenschaftlichen Methode: Als solche stellt Sonifikation das akustische Pendant zur visuellen Repräsentation wissenschaftlicher Daten dar. Eine seit Jahren anerkannte Definition aus dem Jahre 1997 lautet:

10

Informierte Klänge und geschulte Ohren

Sonification [is the] use of nonspeech audio to convey information; more specifically sonification is the transformation of data relations into perceived relations in an acoustic signal for the purposes of facilitating communication or interpretation.3 Durch die akustische Darstellung werden abstrakte Messwerte der sinnlichen bzw. ästhetischen Erfahrung von WissenschaftlerInnen über den auditiven Erkenntniskanal zugänglich gemacht, um auf diese Weise deren Auswertung und Interpretation zu ermöglichen – ähnlich beispielsweise wie ein Arzt in der Lage ist, durch das Abhorchen des Körpers bestimmte Krankheiten zu diagnostizieren. So besteht auch das Ziel vieler Sonifikationsverfahren darin, spezielle Muster und andere Zusammenhänge, die in den Eingangsdaten enthalten sind, anhand charakteristischer auditiver Gestalten zu erkennen. Sonifikationen können als Verfahren und Praktiken zur Organisation intermedialer Übersetzungsprozesse verstanden werden, bei denen beliebige Eingangsdaten (das können Messsignale oder Datensätze sein) in akustische Ereignisse oder Audiosignale übersetzt und mittels eines akustischen Displays der Interpretation durch einen Hörer zugänglich gemacht werden. Vermittelt über akustische Displays liefern Sonifikationen nach Ansicht der SonifikationsforscherInnen sinnliche oder ästhetische Phänomene, in denen sich Erkenntnisse oder Fakten manifestieren können, weil die auditive Beschaffenheit der Klänge auf die Ursprungsdaten zurückverweist. Absicht und Hoffnung der ErfinderInnen bestehen darin, dass Sonifikationsverfahren auf diese Weise die Produktion von Erkenntnissen und das Aufspüren von Bedeutung – und damit ein auditives Wissen – ermöglichen. Zur wissenschaftlichen Erforschung von Sonifikationsverfahren wurde 1992 die International Community for Auditory Display (ICAD)4 gegründet; zwei Jahre später erschien eine erste umfangreiche Sammelpublikation.5 Seitdem werden unter dem Dach der ICAD die Möglichkeiten der Genese von Wissen durch Klang aus einer primär computer- und ingenieurswissenschaftlichen Perspektive (und vorwiegend auf der Basis digitaler Technologien) diskutiert. Vielfältige Forschungsaktivitäten haben zur Herausbildung diverser Ansätze geführt, nach denen sich Daten in Klänge umwandeln lassen. Die fünf bekann-

3 ICAD. 4 Vgl. www.icad.org. 5 Kramer 1994.

Andi Schoon und Axel Volmar

11

testen Verfahren heißen Audifikation, Parameter-Mapping-Sonifikation, modellbasierte Sonifikation, Earcons und Auditory Icons:6 ∙ Unter Audifikation versteht man die direkte Umsetzung von Messwerten in Schallschwingungen. Die Datenreihen oder Signalfolgen werden entweder direkt oder über den Umweg einer technischen (Zwischen-)Speicherung (ggf. mit veränderter Abspielgeschwindigkeit) über Lautsprecher ausgegeben. Ein noch heute weit verbreitetes Beispiel der Audifikation bildet etwa der Geigerzähler zur akustischen Anzeige von radioaktiver Strahlung. ∙ In der Parameter-Mapping-Sonifikation werden die Messwerte mit akustischen Parametern (wie z. B. Tonhöhe, Lautstärke, Klangfarbe, Filtereigenschaften etc.) eines Klangsynthesesystems verknüpft. Einfache Anwendungen stellen der Peilsender oder akustische Einparkhilfen dar. ∙ Die modellbasierte Sonifikation erlaubt die Auswertung komplexer Datensätze in ihrer Gesamtheit. Mithilfe etwa der Physical Modeling-Synthese werden die Datenstrukturen in virtuelle Instrumente bzw. Klangkörper verwandelt, die über verschiedene Interfaces angeregt (z. B. beklopft oder geschüttelt) und dadurch zum Klingen gebracht werden können. ∙ Als Earcons werden Klänge oder kurze Melodiefolgen zur Darstellung eines informationstragenden Ereignisses bezeichnet. Das Telefonklingeln und alle möglichen Formen von Alarmtönen gehören zu den bekanntesten Beispielen. ∙ Auditory Icons arbeiten in Abgrenzung zu den Earcons mit konkreten, d. h. zumeist gesampelten Klängen, bei denen eine Ähnlichkeitsbeziehung zwischen diesen und dem jeweiligen Ereignis besteht. Verbreitet sind etwa das künstliche Auslösegeräusch digitaler Kompaktkameras oder das Geräusch zerknüllten Papiers, welches das Verschieben einer Computerdatei in den virtuellen Papierkorb begleitet. Sonifikationen basieren auf der Annahme, dass Informationen, charakteristische Merkmale oder Muster, die sich aus den ›unsinnlichen‹ Eingangsdaten mit herkömmlichen Verfahren (etwa durch Visualisierung) nicht oder nur schwer extrahieren lassen, durch den Prozess der medientechnischen Übersetzung in akustische Repräsentationen einem entsprechend ausgebildeten Hörer zugänglich werden könnten. Das Verfahren der Sonifikation geht also von der Prämisse aus, dass Kausalbeziehungen, die in den Daten vorhanden, aber möglicherweise den Sinnen ›verborgen‹ sind, auch in den produzierten Klängen erhalten bleiben. Diesen Punkt unterstreicht eine jüngere Definition aus dem 6 In den ersten beiden Bänden dieser Reihe sind sie bereits ausführlich dargestellt worden. Vgl. Hermann 2008a; 2009.

12

Informierte Klänge und geschulte Ohren

Jahr 2008: »Sonification is the data-dependent generation of sound, if the transformation is systematic, objective and reproducible, so that it can be used as scientific method.«7 Dem Menschen kommt innerhalb des epistemischen Dispositivs der Sonifikation eine Rolle als ›Mustererkennungsmaschine‹ zu, wobei die differenzierten physiologischen und psychologischen Fähigkeiten des menschlichen Gehörs gezielt ausgenutzt werden. Neben dieser reinen Informationsverarbeitung im Gehirn, also etwa dem Erkennen und Unterscheiden bestimmter akustischer Muster und Gestalten, setzen Sonifikationsverfahren auch die Ausprägung kultureller Software, d. h. die Schulung und Optimierung des Gehörs voraus, damit spezifische Höraufgaben gemeistert werden können. Ebenso wie im Fall vieler Visualisierungsverfahren setzt auch die korrekte Interpretation der meisten akustischen Darstellungen zunächst eine längere Zeit des Lernens und der Eingewöhnung voraus. Eine solche Verfeinerung des Gehörs führt in einem hohen Maße zur Ausbildung eines verkörperten bzw. impliziten Wissens (tacit knowledge) im Sinne Michael Polanyis.8 Die Wissenschaftshistoriker Lorraine Daston und Peter Galison haben eine solche, von Naturwissenschaftlern ausgeprägte Expertenschaft in ihrem Buch Objektivität9 mit dem Begriff des ›geschulten Urteils‹ umschrieben und im Hinblick auf die Nutzung und Interpretation wissenschaftlicher Visualisierungen auch speziell als ›geschultes Auge‹ bezeichnet. In diesem Band sprechen wir daher – in Bezug auf Sonifikationen und auditive Verfahren der Erkenntnisproduktion – von Praktiken des geschulten Ohrs. Auch wenn das primäre Ziel der Sonifikationsforschung darin liegt, das Potential von Klang als Medium wissenschaftlicher Erkenntnis zu ergründen und Sonifikationsverfahren zunehmend in verschiedenen Bereichen der Naturwissenschaften zu etablieren, bestehen enge Verbindungen zu Praktiken der Klanggestaltung, die jenseits von streng wissenschaftlichen Anwendungen angesiedelt sind. So erforscht die ICAD bereits seit ihren Anfängen z. B. auch Ansätze zur Gestaltung akustischer Benutzeroberflächen (hierzu gehören u. a. die erwähnten Earcons und Auditory Icons). Zudem wird die jährlich stattfindende ICAD-Konferenz seit dem Jahr 2004 regelmäßig von einem Kompositionswettbewerb sowie von Konzerten und Klangkunst-Ausstellungen begleitet. Sonifikation stellt also eine Praxis dar, die sich sowohl im Hinblick auf ihre Einsatzgebiete als auch auf die mit ihnen verknüpften Ziele als heterogen, vielschichtig und interdisziplinär darstellt.

7 Hermann 2008b. 8 Vgl. Polanyi 1985. 9 Vgl. Daston, Galison 2007.

Andi Schoon und Axel Volmar

13

2. Sonifikation als Gegenstand der Sound Studies Seit einigen Jahren erfährt der Begriff der ›Sonifikation‹ auch in den kulturwissenschaftlichen Disziplinen – und speziell im Feld der Sound Studies – eine erhöhte Aufmerksamkeit. Antrieb dieser Entwicklung ist nicht zuletzt das implizite Versprechen der Sonifikation, über das Ohr einen anderen und damit alternativen Erkenntniszugang zur Welt und ihren Phänomenen zu eröffnen. Als auditive Praxis der Erzeugung und Vermittlung von Fakten, Informationen und Wissen scheint die Sonifikation in der Tat unsere gewohnten Vorstellungen über den Sinn der Sinne herauszufordern, denn noch immer werden Attribute wie Objektivität oder Rationalität primär mit dem Sehsinn und den Medien Bild und Schrift assoziiert, während mit dem Hören eher Begriffe wie Emotion, Intuition, Empfindung und Irrationalität verknüpft sind.10 So scheint allein die Existenz der Sonifikation als klangbasierte Praxis der Wissensgenese neue Denkräume zu generieren, die eine kritische Auseinandersetzung mit den traditionellen Auffassungen von einer ›Hierarchie der Sinne‹ (mit dem Auge als Souverän) nahelegen. Diesbezüglich ist die Sonifikation insbesondere für kultur-, medien-, und sinnesgeschichtliche Untersuchungen interessant geworden.11 Der Nachweis, dass wissenschaftliche Sonifikationen zukünftig den Stellenwert von Visualisierungen einnehmen könnten, steht allerdings noch aus – so ist die Sonifikationsforschung gegenwärtig noch auf der Suche nach einer »Killerapplikation«, die die wesentliche Bedeutung der Sonifikation für die Wissenschaften schlagend beweisen könnte.12 Nicht zuletzt deshalb sowie aufgrund der Tatsache, dass sich die historisch gewachsenen Zuschreibungen über vermeintliche Funktionalitäten der Sinne bis heute hartnäckig halten, hat der aktuelle Forschungsdiskurs zu Sonifikation und Auditory Display mit erheblichen Legitimationsschwierigkeiten und einer Reihe von ernsthaften wissenschaftstheoretischen Problemen zu kämpfen. Seit Jahren wird innerhalb der ICAD eine Debatte hinsichtlich der Frage geführt, ob und wie Sonifikationsverfahren, die per definitionem an die vermeintlich subjektive Hörwahrnehmung gerichtet sind, den Anforderungen wissenschaftlicher Objektivität genügen können.13 Die Forschungspraxis der Sonifikation gibt daher auch Anlass zu wissenschaftstheoretischen Überlegungen und wissenshistorischen Analysen. Tatsächlich hat das Misstrauen gegenüber dem Ohr und seinen subjektiven Empfindungen eine lange Geschichte. Bei genauerer Betrach-

10 Einen Überblick über diese Diskussion geben bspw. Schmidt 2003; Sterne 2003, 1-29. 11 Dombois 2008; Frauenberger 2006; Ingwersen 2005; Volmar 2007. 12 Vgl. Supper 2011. 13 Vgl. den Beitrag von Alexandra Supper in diesem Band.

14

Informierte Klänge und geschulte Ohren

tung zeigt sich allerdings, dass der epistemische Status visueller Darstellungen keineswegs weniger umstritten ist: Prekär erscheint [...] insbesondere die Vernunftfähigkeit visueller Darstellungen. Die darin aufgerufene Opposition zwischen der Rationalität des Diskurses und der Irrationalität des Ikonischen kann dabei auf eine fast ebenso lange Tradition zurückblicken wie die Geschichte der Metaphysik auch, soweit sie die kanonische Differenz zwischen Aisthesis und Logos oder Sinnlichkeit und Verstand impliziert. Gleichwohl behaupten Visualisierungen im Geflecht wissenschaftlicher Versuchsanordnungen, Texten [sic!], Rechnungen usw. einen eigenständigen Rang. Weder lassen sie sich durch andere Verfahren ersetzen, noch sind Daten einfach in Bilder überführbar, vielmehr erweist sich Michael Lynchs Erkenntnis als wegweisend, ›that visual displays [are] more than a simple matter of supplying pictorial illustrations for scientific texts. They are essential to how scientific objects and orderly relationships are revealed and made analyzable‹. Gerade deswegen erweist es sich jedoch als fraglich, was jeweils in ikonischen Medien darstellbar ist und was nicht, welche Reichweite und Grenzen sie aufweisen, worin ihre spezifischen Geltungsmöglichkeiten bestehen und was sie von anderen Darstellungsmedien trennt. Dazu ist allerdings erforderlich, ihre medialen Bedingungen und Strukturen, kurz das, was als ihr ›Dispositiv‹ bezeichnet werden kann, in Augenschein zu nehmen. Bislang blieben solche bild- und medientheoretischen Erwägungen in der Wissenschaftsforschung eher marginal. Das gilt sowohl für Übergänge zwischen textuellen und numerischen Formaten und solchen, die bevorzugt auf der Wahrnehmungsebene operieren – kurz, für die Differenz zwischen diskursiven und aisthetischen Medien –, als auch hinsichtlich von Daten-Bild- und Bild-Bild-Transformationen, vor allem ihre Übersetzung in Hybridformen wie mathematische Graphen, Diagramme, Skizzen, Karten und dergleichen.14 Diese Forderungen – insbesondere die nach der Analyse medialer Bedingungen und Strukturen sowie der Transformationen zwischen Daten und aisthetischen Repräsentationen – können und sollten auch den Imperativ für eine epistemologische Auseinandersetzung mit dem Verfahren der Sonifikation bilden. Mit dieser Perspektive lässt sich auch die Frage aufgreifen, ob und inwiefern auch akustische Darstellungen ein ihnen eigenes Wissen hervorbringen können, das sich nicht ohne Weiteres auf eine andere Weise erzeugen oder in andere Wissensformen überführen lässt. Inwieweit aber können

14 Heßler, Mersch 2009, 14.

Andi Schoon und Axel Volmar

15

Sonifikationen einen ebenso eigenständigen Rang in den Wissenschaften, Künsten und anderen Bereichen behaupten, wie es die Bildwissenschaften seit nunmehr zwei Jahrzehnten für Bilder und Visualisierungen geltend machen? In welchen Situationen und auf welche Weisen entsteht ein Wissen durch Klang? Welche medialen Bedingungen, Strukturen und Praktiken zeichnen die Produktion von Erkenntnissen über den auditiven Sinneskanal aus? Lässt sich am Ende gar eine spezifische auditive Rationalität benennen? Die historische Perspektive – Lauschen in die Vergangenheit Obwohl die hier versammelten Beiträge diese Fragen nur ansatz- und versuchsweise beantworten können, dienen sie ihnen dennoch oftmals als Ausgangspunkt für vielseitige Expeditionen in die Kulturgeschichte der Sonifikation – einerseits in den Wissenschaften und andererseits in den Künsten, in der Musik und im Design, denn auch dort haben Sonifikationsverfahren ihren festen Platz. Gerade im Bereich der experimentellen Musik sowie der Klang- und Medienkunst sind in den letzten Jahren auffallend viele Arbeiten entstanden, die Komponenten der Sonifikation aufweisen (wie etwa das eingangs genannte Beispiel).15 Und tatsächlich sorgen Sonifikationen mittlerweile auch in den musik- und kunstwissenschaftlichen Diskursen für Irritationen und fruchtbare Denkanstöße: Inwieweit und unter welchen Umständen lassen sich datenbasierte Kompositionen und Kunstwerke als auditive Repräsentationen verstehen? Welche künstlerischen Ziele und Zwecke bedingen und motivieren den Einsatz von Sonifikationsverfahren? Dienen die verwendeten Übersetzungsprozesse allein als Kompositionsverfahren und der Erschließung neuen Klangmaterials oder schreibt sich auf diese Weise auch Außermusikalisches in die Klänge ein? Die Webseite www.sonifyer.org dokumentiert die bisherigen Projekte des Forschungsfelds Sonifikation an der Hochschule der Künste Bern (HKB) aus den Jahren 2006-2010: Im Projekt Seismophon wurden Erdbebendaten hörbar gemacht, in Denkgeräusche ging es um die Verklanglichung von EEGs, das Projekt Kartoffel klopfen beschäftigte sich mit der zerstörungsfreien akustischen Untersuchung von Lebensmitteln. Während der Arbeit an diesen Projekten ergab sich innerhalb des Berner Forschungsteams das Bedürfnis, das eigene Tun in historischer und ästhetischer Hinsicht zu reflektieren. Als Ergebnis eines ersten Versuchs in das Feld möglicher Vergangenheiten der Sonifikation einzutauchen, entstand eine Datenbank mit historischen und zeitgenössischen Kompositionen,

15 Stellvertretend für die rezente Inflation der Sonifikationsmethode in den Künsten sei hier auf die Ausstellungen verwiesen, die das 16. International Symposium on Electronic Art (ISEA2010 RUHR) in Dortmund begleiteten, http://www.isea2010ruhr.org/programme/exhibition. Weitere Beispiele finden sich z. B. auf www.sonifyer.org.

16

Informierte Klänge und geschulte Ohren

in denen sonifikationsähnliche Verfahren zum Einsatz kommen. Ein folgerichtiges Ziel des vorliegenden Bands hätte es somit sein können, die in der Datenbank gesammelten (Klang-)Episoden versuchsweise um ihre Entstehungs- und Rezeptionsgeschichten zu erweitern. Die Folge eines solchen Vorgehens hätte allerdings eine starke thematische Beschränkung bedeutet. Auf die Frage nach einer Kulturgeschichte der Sonifikation kann es unserer Auffassung nach jedoch keine in sich geschlossene Antwort geben – und ganz sicher wäre sie nicht ausschließlich auf dem Feld musikalischer Kompositionen zu suchen. Ein Feld, das sich aus so vielen Disziplinen speist wie die Sonifikation, legt die Kombination und den Vergleich verschiedener Sichtweisen nahe. Daher steht auch innerhalb dieses Bandes die Vielschichtigkeit des Gegenstandes und der interdisziplinäre Austausch im Vordergrund. Die in diesem Band behandelten Fallstudien machen deutlich, dass das Verfahren der Sonifikation nicht vom Himmel gefallen ist und trotz der Dominanz visueller Praktiken eine längere Tradition hat. Ein wesentliches Ziel der hier versammelten Beiträge besteht daher in dem Versuch, verschiedene historische Entwicklungsstränge aufzuzeigen und dadurch einen Teil des epistemischen, ästhetischen und medientechnischen Fundaments freizulegen, auf dem die aktuelle Sonifikation beruht. Die historischen Rückblicke der einzelnen Beiträge wurden darüber hinaus im Hinblick auf eine drängende aktuelle Frage unternommen: Ist damit zu rechnen, dass Sonifikationen zukünftig einen selbstverständlichen Bestandteil von wissenschaftlichen und künstlerischen Praktiken bilden werden oder gibt es prinzipielle Grenzen für eine auditive Erkenntnisproduktion? Handelt es sich bei der Sonifikation um eine langfristige Perspektive oder eher um eine kurzfristige Modeerscheinung? Nun mag es möglicherweise als widersinnig erscheinen, Voraussagen über zukünftige Entwicklungen auf der Basis historischer Untersuchungen anstellen zu wollen, zumal es sich bei der institutionalisierten Sonifikationsforschung um ein sehr junges Forschungsfeld handelt, dessen Verfahren noch kaum standardmäßig in der alltäglichen Wissenschaftspraxis verwendet werden. Historische Analysen bieten jedoch gerade den Vorteil, dass auditive Verfahren, die in der Vergangenheit bereits in der Praxis eingesetzt wurden und über die deshalb ein jeweils mehr oder weniger umfangreicher Quellenschatz existiert, hinsichtlich der Kontexte ihrer Genese und Verbreitung untersucht werden können. Anstatt also historische Vorläufer der Sonifikation lediglich anzuführen und mögliche Ähnlichkeiten oder Gemeinsamkeiten zu gegenwärtigen Verfahren zu betonen, versuchen die Fallstudien dieses Bandes möglichst genau zu rekonstruieren, unter welchen Umständen auditive Methoden überhaupt entstanden sind und warum einige von diesen eine weite Verbreitung gefunden haben und andere nicht. Gerade aus (vermeintlich) gescheiterten wissenschaftlichen oder auch künstlerischen Unternehmungen, die im Rahmen einer an bloßen Erfolgen ausgerichteten Fortschrittsgeschichte möglicherweise gar keine Be-

Andi Schoon und Axel Volmar

17

rücksichtigung fänden, lassen sich mitunter überraschende Erkenntnisse gewinnen, die unter Umständen auch dazu beitragen können, ein neues Licht auf die aktuellen Probleme der Sonifikation in der Forschungs- und Kunstpraxis zu werfen. Die Hörbarmachung des Unhörbaren und das geschulte Ohr Trotz ihrer sehr unterschiedlichen Ausprägungen und Einsatzgebiete scheinen sich Sonifikationsverfahren durch zwei wesentliche Aspekte auszuzeichnen: Erstens durch Transformationen von Unhörbarem in hörbare Phänomene – zumeist mithilfe akustischer Medientechnologien. Denn Speicherung, (Re-)Produktion und Übertragung von Schallereignissen zählen zu den Voraussetzungen der Sonifikation, in der anstelle von aufgezeichneten Schallwellen z. B. Messkurven oder Datenreihen abgespielt werden. Zweitens durch konkrete Praktiken des Hin- und Abhörens, bei denen das geschulte Ohr eine zentrale Rolle einnimmt. Während sich der Aspekt der Hörbarmachung primär auf die technische Herstellung und Domestizierung von Klangobjekten bezieht, zielt der zweite Aspekt eher auf die Disziplinierung von Rezipienten, und zwar speziell auf die Ausbildung des Hörsinns im Sinne von »Körpertechniken« (Marcel Mauss). Auf diese Weise lassen sich in Bezug auf die Ausprägung kultureller Praktiken der Sonifikation zwei einander entgegengesetzte Bewegungsrichtungen unterscheiden, die erstens die Verkörperung bzw. Re-/Präsentation von Daten in Form von Klängen und zweitens die Extraktion von Information aus sonifizierten Klängen zum Ziel haben. Während wir es im ersten Fall mit Fragen der akustischen Gestaltung zu tun haben, steht im zweiten Fall die Analyse von Klängen im Zentrum. Sowohl bei der Produktion als auch bei der Rezeption sonifizierter Daten bildet das zugrunde liegende medientechnische Ensemble (oder Dispositiv) einen zentralen Bezugspunkt, denn welche Eingangsdaten überhaupt in welche Arten von Klangphänomenen überführt werden können, hängt jeweils davon ab, welche technischen Schnittstellen, Trägermedien und Verarbeitungsverfahren zur Verfügung stehen: Ohne elektroakustische Schallwandler und Technologien zur Beherrschung elektrischer Ströme würden sich keine »Verschriftungen des Realen«16, d. h. keine analogen Signale zu Gehör bringen, ohne zeitdiskrete Signalverarbeitung keine Börsenkurse und andere digitale Datenstrukturen in künstlich erzeugte Klanggestalten und Hörräume übersetzen lassen. Der analytische Blick auf die vielfältigen akustischen Materialisierungen, Mediatisierungen und Kanalisierungen von Daten und Signalen – sozusagen auf die audiotechnische Logistik der Sonifikation – ist nicht zuletzt auch deshalb so bedeutsam, weil diese in die Kultur und damit auf das Denken selbst zurückstrahlen. Ein weiterer Untersuchungs-

16 Kittler 1986; 1993.

18

Informierte Klänge und geschulte Ohren

aspekt liegt daher auf den Diskursen, die sich um medientechnische Anordnungen der Sonifikation herum ausbilden, denn auch diese entscheiden oftmals wesentlich darüber, wie Sonifikationen genutzt und bewertet werden und in welcher Form sie sich verbreiten. Eine wesentliche Stellung nimmt schließlich auch eine Auffassung bezüglich des Hörens ein, die das Hören nicht als rein biologische Wahrnehmungsfähigkeit, sondern als gestaltbare und damit historisch wandelbare kulturelle und materielle Praxis begreift, die wiederum an sozialen Prozessen der Inklusion, Exklusion und Distinktion mitwirken kann.

3. Vorstellung der Beiträge Thematisch gliedert sich der vorliegende Band in zwei Teile: der erste ist primär einer Wissensgeschichte der Sonifikation, speziell auditiven Erkenntnisweisen und dem Klang als Repräsentationsmedium wissenschaftlicher Erkenntnis, gewidmet. Im zweiten Teil sind Beiträge zur Ästhetik der Sonifikation versammelt, die die Inszenierung datenbasierten Klangmaterials in der Geschichte der Musik, der Künste, der Gestaltung sowie im Feld von Ökonomie und Politik untersuchen. I. Teil: Das geschulte Ohr in der Geschichte der Wissenschaften Der Beitrag von Alexandra Supper, der den Auftakt des ersten Teils bildet, geht der Frage nach, wie das Feld der Sonifikationsforschung mit dem Vorwurf umgeht, dass wissenschaftliche Repräsentationsverfahren prinzipiell mit dem Makel der Subjektivität behaftet und somit unwissenschaftlich seien. Dabei widmet sie sich insbesondere den Aushandlungsprozessen, die sich gegenwärtig innerhalb der International Community for Auditory Display (ICAD) vollziehen. Anhand von Interviews und teilnehmender Beobachtung stellt Supper zwei miteinander konkurrierende Strategien heraus: die erste sucht dem Vorwurf mangelnder Objektivität durch den Einsatz quantitativer Evaluationsverfahren und User-Tests entgegenzutreten, wie sie für das Feld der Psychologie kennzeichnend sind. Supper spricht in diesem Zusammenhang von einer »Kultur des quantitativen Testens«, die jedoch umstritten sei – nicht zuletzt deshalb, weil es sich bei der Sonifikationsforschung um ein heterogenes, interdisziplinäres Feld handele. Die zweite Strategie, die Supper identifiziert hat, räumt der Kompetenz der sonifizierenden und hörenden Experten dagegen einen explizit positiven Stellenwert ein und wirbt für mehr Selbstvertrauen im Umgang mit dem Problem der Subjektivität. Supper vergleicht diese Legitimationsstrategie mit der »wissenschaftlichen Tugend« des »geschulten Urteils« (Daston, Galison) und verdeutlicht durch diese Bezugnahme, dass Subjektivität

Andi Schoon und Axel Volmar

19

einerseits kein spezifisches Problem der auditiven Wissensproduktion darstellt und dass mit dieser Konzeption andererseits eine Lösung zur Verfügung steht, die auch auf die Kontroversen innerhalb der Sonifikationsforschung anwendbar sein könnte. Anstatt scheinbar ontologisch gegebenen Defiziten der Sonifikation durch einen vorauseilenden Gehorsam (in Form von User-Tests etc.) entgegenzuwirken, scheint es für die junge Disziplin ebenso legitim zu sein, die Möglichkeiten der akustischen Darstellung auf eine kreative Weise auszuloten. In ihrem historischen Überblick stellen Florian Grond und Thomas Hermann zahlreiche Beispiele aus der Vorgeschichte der Sonifikation vor und arbeiten dabei eine Reihe von Aspekten heraus, »die beeinflussen, wie wir Klang als Sonifikation hören können«. Aus ihrer historischen Untersuchung ästhetischer Strategien gewinnen Grond und Hermann acht Kategorien, die sie als hilfreich für den Entwurf von Sonifikationssystemen ausweisen. Der Beitrag unterstreicht dadurch noch einmal, dass auch historische Ansätze fruchtbare Beiträge zur zeitgenössischen Sonifikationsforschung leisten können. Den Schwerpunkt des ersten Teils bilden Fallstudien zur Medien- und Wissenschaftsgeschichte der Sonifikation. Anhand von drei historischen Beispielen aus dem Bereich der Medizin und der Physiologie geht Axel Volmar geht der Frage nach, welche Faktoren die Verbreitung »akustemischer Technolgien« (d. h. auditiver Praktiken der Erkenntnisproduktion) befördern bzw. erschweren können. Volmar schildert dabei zunächst die Erfindung der diagnostischen Methode der Perkussion durch den Wiener Arzt Leopold Auenbrugger und gibt verschiedene Gründe dafür an, warum diese akustische Methode, die noch heute zu den größten Errungenschaften der Medizingeschichte zählt, erst mit einer »Verspätung« von etwa fünfzig Jahren anerkannt und im Rahmen der ärztlichen Praxis ausgeübt wurde. Kontrastierend dazu zeigt Volmar, dass sich die um 1816 in Paris entstandene Praktik des diagnostischen Abhorchens mittels des Stethoskops (die sog. mediate Auskultation) wesentlich schneller in der wissenschaftlichen Gemeinde verbreiten konnte, weil sie u. a. dem Professionalisierungswillen der aufstrebenden Ärzteschaft entgegenkam. Das dritte Fallbeispiel rekonstruiert die Karriere des Telefons in der Elektrophysiologie des ausgehenden 19. Jahrhunderts. Dort wurde das Telefon als akustisches Display von vielen führenden Physiologen zur Anzeige bioelektrischer Ströme verwendet. Dennoch konnte sich das Telefon nie als kanonisches Instrument der Lebenswissenschaften etablieren. Volmars Untersuchung zeigt, dass der Erfolg eines erkenntnisproduzierenden Hörverfahrens nicht allein von rein wissenschaftlichen Kritierien abhängt, sondern oft von externen Faktoren wie etwa alternativen Repräsentationsverfahren (v. a. visuellen Darstellungen) und herrschenden wissenschaftlichen Paradigmen bestimmt wird. Stefan Krebs verfolgt die historische Spur des Stethoskops bis in das Automobilwesen der Zwischenkriegszeit. In seinem Beitrag stellt Krebs dar, wie Kraftfahrer in der Aus-

20

Informierte Klänge und geschulte Ohren

übung zweier Hörtechniken geschult wurden, mit denen Fahrzeugdefekte und deren mögliche Ursachen mittels des Gehörs erkannt und unterschieden werden sollten. Nach der Unterscheidung dieser beiden Hörpraktiken in ein beobachtendes, überwachendes Hinhören und ein diagnostisches Abhören schildert Krebs einen »Hörkonflikt«, der zwischen den Kraftfahrern und dem sich entwickelnden Mechanikergewerbe im Hinblick auf die Ausübung dieser Praktiken entstand, weil die Mechaniker – ähnlich wie zuvor die Ärzte im 19. Jahrhundert – einen alleinigen Anspruch auf eine diagnostische Expertise erhoben. Indem Krebs verfolgt, welche Akteursgruppen welche Hörtechniken zu welcher Zeit ausüben durfte, verdeutlicht er, wie zentral die Berücksichtung diskursiver Praktiken im Hinblick auf die Ausübung von auditiven Verfahren sein kann. Krebs zeigt, dass der Hörkonflikt erst gelöst werden konnte, nachdem sich »die gesellschaftliche Zuschreibung, welche Akteursgruppe welche Hörpraktiken anerkanntermaßen ausüben durfte«, gewandelt hatte. Dem Argument, dass nur das geschulte Gehör des professionellen Kfz-Mechanikers (als Teil seines beruflichen Habitus) verlässliche Expertisen hervorbringen könne, kam dabei eine wesentliche Bedeutung zu. Sabine von Fischer widmet sich in ihrem Beitrag keiner Hörpraxis, sondern stellt die akustische Methode zur Messung von Trittschall und bauakustischen Dämmverfahren in den Mittelpunkt. Von Fischer verfolgt hier die Anstrengungen der wissenschaftlichen Bauakustik, die Vielschichtigkeit der häuslichen Alltagsgeräusche in objektive Messverfahren zu überführen und weist darauf hin, dass sich akustische Praktiken nicht zuletzt in standardisierten Verfahren und Normen niederschlagen. So wird dargestellt, wie im Zuge dieser Forschungen um 1930 sog. »Hammerwerke« entwickelt wurden, mit denen Böden und Wände in Form von standardisierten Schlägen angeregt werden konnten und so zur Entstehung eines wissenschaftlich-technischen Diskurses der objektiven Beurteilung von Baumaterialien beitrugen. Das Beispiel der Hammerwerke zeigt jedoch auch, dass die Reduktion der akustischen Wirklichkeit mit ihren vielfältigen Bedeutungen auf wenige normierte und von jeglicher Semantik befreite Schallereignisse zunehmend zu einem Auseinanderfallen »technischer und erfahrener Realitäten« geführt hat, die bis heute wirksam sind. Die Geschichte der Sonartechnik bildet den Gegenstand des Beitrags von Shintaro Miyazaki. Die Orientierung und Navigation mittels des Gehörs unter Wasser (zu zivilen Zwecken, vor allem aber als Kriegstechnik), die nach der Titanic-Katastrophe entwickelt und im Laufe des Zweiten Weltkriegs verfeinert wird, kann als stellvertretend für eine Reihe von auditiven Verfahren angesehen werden, die ab dem Anfang des 20. Jahrhunderts in die Tiefe des Raums vordringen. Dabei werden die materiell-physikalischen und epistemisch-kulturellen Verschaltungen thematisiert, die die Sonartechnik als kulturelle Hörpraxis prägten und die Detektion von Schiffen, U-Booten und Fischschwärmen ermöglichte. Im Rahmen seiner historischen Darstellung arbeitet Miyazaki heraus, wie

Andi Schoon und Axel Volmar

21

die Hörpraxis des Sounding, Navigation and Ranging (SONAR) in den 1980er Jahren zunehmend durch automatische Verfahren der digitalen Signalverarbeitung ersetzt wurde. Damit weist Miyazaki darauf hin, dass auch gegenwärtigen Sonifikationsverfahren immer eine Art Vorläufigkeit eignet und somit »die Repräsentation von nichthörbaren Prozessen durch hörbare Prozesse nur solange praktiziert wird, bis technisch aufwändigere, aber für den Benutzer leichter zugängliche Verfahren, die meist nur das Auge ansprechen, praktisch implementierbar werden«. Der Abschluss des ersten Teils widmet sich einer gegenwärtigen Sonifikationspraxis: der akustischen Darstellung von Prozessabläufen in Fabriken. Anhand des interdisziplinären Forschungsprojekts Grooving Factory berichten Michael Iber, Julian Klein und Katja Windt von ihren aktuellen Forschungen, die sich ebenfalls durch explorative wie konfirmative Ansätze der Datensonifikation auszeichnen, die auf den Bereich der Produktionslogistik übertragen wurden. Zum Einsatz kam hier etwa eine Sonifikation zur sog. Engpassanalyse, bei der problematische Arbeitssysteme, stark fluktuierende Bestände und Überlast hörbar gemacht werden konnten. Der Beitrag macht jedoch auch deutlich, dass die Sonifikationsforschung gegenwärtig noch mit vielen wissenschaftstheoretischen, technischen und praktischen Problemen zu kämpfen hat, deren Lösung möglicherweise einen langwierigen Prozess der Disziplinierung von sowohl technischen und ästhetischen Darstellungspraktiken als auch menschlichen Hörweisen erfordern könnte. II. Teil: Sonifikation als künstlerische Metapher und ästhetische Strategie Den zweiten Teil des Bandes eröffnet Florian Dombois mit einem kritischen Bekenntnis zur Sonifikation. Ausgehend von seiner künstlerischen Arbeit Angeschlagene Moderne (2010), für die er mit dem Deutschen Klangkunstpreis ausgezeichnet wurde, erläutert er sein der Arbeit zugrunde liegendes künstlerische, forschungs- und gesellschaftspolitische Interesse. Dombois plädiert für ein Verständnis von Sonifikation, das den Monopolanspruch des Optisch-Visuellen hinterfragt und als ªSand im Getriebe einer ungebremsten Fortschrittsideologie© fungiert. Auf künstlerischer Seite fasziniert ihn die Verbindung von ästhetischem Hinhören mit dem Versprechen auf eine in den Klängen liegende Erzählung. Ausgangspunkt des Beitrages von Jan Thoben bildet Rainer Maria Rilkes »phonozentristische Wende«, wie sie sich in dem im Jahre 1919 verfassten Text Ur-Geräusch darstellt. Thoben beschreibt Rilkes Gedankenexperiment, in dem dieser sich vorstellt, die mäandernde Kronennaht eines menschlichen Schädels mithilfe einer Phonographennadel zum Klingen bringen zu können, und setzt dieses ins Verhältnis zu Ferruccio Busonis Entwurf einer Ur-Musik. Beiden, dem Dichter und dem Komponisten, dienten akustische Technologien als Nullpunkt ihrer künstlerischen Koordinatensysteme. Was für Busoni die Klangsynthese, sei für Rilke die Phonographie gewesen: Eine Technik, die eine äs-

22

Informierte Klänge und geschulte Ohren

thetische Hörerfahrung zu ermöglichen. Wo es allerdings Busoni um eine Kontrolle über das Klangmaterial gehe, da begnüge sich Rilke damit, mithilfe der Audifikationsmetapher den akustischen Zugang zu einem interessanten Phänomen zu vermitteln. Thoben konstatiert jedoch abschließend, dass Audifikation keineswegs voraussetzungslos verborgene Strukturen offenbare, sondern diese erst durch Nutzbarmachung akustischer Kanäle hervorgebracht würden. Volker Straebel widmet sich einem Strang der Musikgeschichte, den er von der »Metapher der Sonifikation« geprägt sieht. Im Mittelpunkt stehen dabei Kompositionen, die dem Modell der Repräsentation außermusikalischer Inhalte folgen. Während Straebel Werke aus der Programmmusik, der Experimentellen Musik und der Elektroakustischen Musik kommentiert, legt er überraschende Korrespondenzen zwischen der aktuellen Sonifikationsforschung und der Frühromatik frei: In beiden Bereichen gehe es darum, Zugänge zur Welt zu schaffen, indem Phänomene der Natur den Fähigkeiten unserer Sinne gemäß übersetzt werden. Michael Harenberg und Daniel Weissberg nehmen eine wesentlich kritischere Haltung zu der Annahme einer Verbindung zwischen Musikgeschichte und Sonifikation ein. Ganz grundsätzlich weisen sie darauf hin, dass der Erkenntnisgewinn über den akustischen Kanal schlicht ein anderes Wort für das Hören sei. Sie stoßen sich weiter an der Vorstellung, sonifizierte Klänge könnten nicht-intendierte strukturelle Eigenschaften aufweisen. Weil jede kompositorische Äußerung prinzipiell intendiert sei, hätten musikhistorische Bezugnahmen hier zwingend ins Leere zu laufen. Harenberg und Weissberg stellen materialreich dar, warum Sonifikation als musikalische Analyse scheitern muss und plädieren stattdessen dafür, klar zwischen Musik und auditivem Erkenntnisinteresse zu trennen. Auch Martin Rumori fühlt der Sonifikation mit seinem Beitrag auf den Zahn: Er beschreibt die technischen, ästhetischen und gesellschaftlich-sozialen Bedingungen dessen, was er als einen regelrechten Hype um die Methoden der Verklanglichung bezeichnet. Dieser Aufschwung der Sonifikation sei allerdings nicht primär einem wissenschaftlichen Erkenntnisinteresse oder gar einer Unzufriedenheit mit den Ergebnissen von Visualisierungen geschuldet, sondern der zunehmenden Verbreitung einfacher Tools zur (insbesondere digitalen) Gestaltung von Klängen. Über die Eigendynamik des acoustic turns erklärt sich für Rumori auch das bisherige Fehlen bahnbrechender wissenschaftlicher Erfolge der Sonifikation. David Oswald stellt aus Sicht der Designtheorie die Frage, wie sich semiotische Beschreibungsansätze für eine Theorie zur Gestaltung von Benutzeroberflächen nutzen lassen. Welche Zeichenfunktionen können Klänge einnehmen und inwiefern unterliegen diese historischen Veränderungen? Oswald nimmt zu diesem Zweck eine kritische Relektüre des Konzepts der Auditory Icons von William Gaver vor. Die Wahrnehmung

Andi Schoon und Axel Volmar

23

grafischer Benutzeroberflächen habe sich seit der Veröffentlichung des Textes stark weiterentwickelt und dazu geführt, dass sich auch die Funktionen der auditiven Zeichen in diesen Interfaces verändert hätten. Der Beitrag versteht sich damit einerseits als semiotisches Update zur Theorie der Auditory Icons, zeigt aber auch, dass eine Semiotik des Klangs und mithin die Kategorien in Bezug auf die Funktionen und Bedeutungen von Klängen immer historischen Änderungen unterworfen sind. Während Gaver die Auditory Icons noch als ikonische Klangzeichen, d. h. als akustische Abbilder, auffasste, würden diese heute vorwiegend als sozusagen virtuelle physikalische Begleiterscheinung eines Computerprozesses wahrgenommen und so eine indexikalische Funktion erhalten. Da die Klangzeichen aufgrund dieser historischen Verschiebung nicht mehr durch eine Ähnlichkeitsbeziehung, sondern eine Kausalbeziehung zu dem Objekt ausgezeichnet sei, bedeute dies auch eine Reformulierung akustischer Designstrategien. Nada Endrissat und Claus Noppeney untersuchen die Wirtschaftsgeschichte im Hinblick auf akustische Identität. Arbeitslieder, Corporate Songs und Sound Branding fassen sie unter einem weiten Begriff von Sonifikation. Dabei zeigen sie, wie Arbeitslieder den Rhythmus der Arbeitsbewegung und die Beziehung des Arbeiters zu seiner Tätigkeit ausdrücken, wie Corporate Songs die Kultur und die Vision einer Organisation hörbar machen und wie Sound Branding das Image oder den Markenkern einer Organisation für die Konsumenten übersetzt. Die historische Entwicklung offenbart, dass sich auch auf akustischer Ebene Momente von Enteignung vollziehen, wenn etwa die Arbeitslieder nach und nach durch vom Management verordnete Lieder ersetzt oder Corporate Sounds als reines Marketingkonzept vollstreckt werden. Mit ähnlich kritischem Impetus widmet sich der Beitrag von Andi Schoon Praktiken der akustischen Kontrolle in Geschichte und Gegenwart. Schoon stellt dar, dass die Geschichte der Informationsbeschaffung über den akustischen Kanal zumeist durch Misstrauen und Paranoia motiviert gewesen ist. Überdies weist er darauf hin, dass sich der aktuelle Diskurs um die wissenschaftliche Sonifikation einer schleichenden Beeinflussung des Individuums durch Klang sowie der Selbstkontrolle im Zeichen von Fortschritt und Produktivität zu stellen hat. Zum Abschluss unternimmt Holger Schulze am Beispiel des innovativen Radioformats Sonarisationen – Klangforschung live (Deutschlandradio Kultur, Sendestart: 1. Oktober 2011) einen Ausblick auf eine zukünftige Annäherung von Kunst und Wissenschaft im Rahmen einer ›künstlerischen Forschung‹. Der Artikel demonstriert, dass sich fruchtbare Kooperationen gerade aus unterschiedlichen Vorstellungen zu Arbeitsabläufen und deren Ergebnissen herstellen können – und stellt damit den Wert produktiver Experimente zwischen Kunst und Wissenschaft, etwa in der Tradition der Nine Evenings aus dem Jahr 1966, heraus.

24

Informierte Klänge und geschulte Ohren

Durch die thematisch breit angelegte Auswahl der Beiträge versucht der vorliegende Band, Fragen bezüglich der Wissenschaftstheorie, der Ästhetik, dem Vokabular und den Methoden der Sonifikation zu bündeln und einige ihrer historischen Entwicklungslinien aufzuzeigen. Die mitunter recht unterschiedlichen Schwerpunkte und Zugänge reichen von der naturwissenschaftlich geführten Diskussion um wissenschaftliche Objektivität bis hin zur kompositorischen Metapher der Übertragung und Repräsentation außermusikalischen Materials in Klang. Trotzdem aber zeigt sich: Aus welcher Perspektive wir uns einer Kulturgeschichte der Sonifikation auch immer nähern – die medientechnischen Ensembles der Hörbarmachung des Unhörbaren und die Praktiken des geschulten Ohrs bilden stets eine gemeinsame Schnittmenge.

Danksagung Unser Dank gilt allen AutorInnen für ihre Beiträge, Florian Dombois für wichtige Anregungen und Kommentare, Holger Schulze für seine Bereitschaft, den vorliegenden Band in die Buchreihe Sound Studies aufzunehmen, Leonie Häsler für Lektorat, Satz und Geduld, Priska Gisler und dem HKB-Forschungsschwerpunkt Intermedialität sowie der Hochschule der Künste Bern, die das Projekt finanziell unterstützt haben.

4. Quellen Daston, Lorraine / Galison, Peter (2007): Objektivität, Frankfurt a. M. Dombois, Florian (2008): Sonifikation. Ein Plädoyer, dem naturwissenschaftlichen Verfahren eine kulturhistorische Einschätzung zukommen zu lassen, in: Meyer, Petra Maria (Hg.), Acoustic turn, München, 91-100. Frauenberger, Christopher (2006): Sonifikation und Auditory Display. Ansätze der auditiven Informationsdarstellung, in: Motte-Haber, Helga de la / Osterwold, Matthias / Weckwerth, Georg (Hg.), Sonambiente Berlin 2006: Klang Kunst Sound Art, Heidelberg, 366-373. Hermann, Thomas (2008a): Daten hören. Sonifikation zur explorativen Datenanalyse, in: Schulze, Holger (Hg.), Sound Studies. Traditionen – Methoden – Desiderate. Eine Einführung, Bielefeld (Sound Studies, Bd. 1), 209-228. Hermann, Thomas (2008b): Taxonomy and Definitions for Sonification and Auditory Display, in: Proc. Int. Conf. Auditory Display (ICAD 2008), France.

Andi Schoon und Axel Volmar

25

Hermann, Thomas (2009): Sonifikation hochdimensionaler Daten. Funktionaler Klang zum Erkenntnisgewinn, in: Spehr, Georg (Hg.), Funktionale Klänge. Hörbare Daten, klingende Geräte und gestaltete Hörerfahrungen, Bielefeld (Sound Studies, Bd. 2), 65-85. Heßler, Martina / Mersch, Dieter (Hg.) (2009): Logik des Bildlichen. Zur Kritik der ikonischen Vernunft, Bielefeld. ICAD: http://dev.icad.org/node/392, 20.10.2011. Ingwersen, Sören (2005): Sonifikation. Zwischen Information und Rauschen, in: Segeberg, Harro, Schätzlein, Frank (Hg.), Sound. Zur Technologie und Ästhetik des Akustischen in den Medien, Marburg, 332-346. Kittler, Friedrich A. (1993): Draculas Vermächtnis. Technische Schriften, Leipzig. Kittler, Friedrich A. (1986): Grammophon, Film, Typewriter, Berlin. Kramer, Gregory (Hg.) (1994): Auditory Display. Sonification, Audification, and Auditory Interfaces, Reading/Mass. Mongrel (2006): Lung: Slave Labour, http://www.mongrel.org.uk/lungszkm, 20.10.2011. Polanyi, Michael (1985): Implizites Wissen, Frankfurt a. M. Schmidt, Leigh Eric (2003): Hearing Loss, in: Bull, Michael / Back, Les (Hg.) The Auditory Culture Reader, Oxford, New York (Sensory Formations Series), 41-60. Sterne, Jonathan (2003): The Audible Past. Cultural Origins of Sound Reproduction, Durham. Supper, Alexandra (2011): The Search for the ›Killer Application‹: Drawing the Boundaries Around the Sonification of Scientific Data, in: Pinch, Trevor / Bijsterveld, Karin (Hg.), The Oxford Handbook of Sound Studies, 249-270. Volmar, Axel (2007): Die Anrufung des Wissens. Eine Medienepistemologie auditorischer Displays und auditiver Wissensproduktion, in: Schröter, Jens / Thielmann, Tristan (Hg.), Display II: Digital, Navigationen. Zeitschrift für Medien- und Kulturwissenschaften, 7 (2), 105-116.

26

Informierte Klänge und geschulte Ohren

Das geschulte Ohr in der Geschichte der Wissenschaften

Wie objektiv sind Sonifikationen? Das Ringen um wissenschaftliche Legitimität im gegenwärtigen Diskurs der ICAD Alexandra Supper

1. Einleitung In dieser Sammlung von historischen Perspektiven auf Sonifikation widmet sich mein Beitrag der Zeitgeschichte dieser wissenschaftlichen Praktik. Konkret geht es um Auffassungen von Objektivität, Subjektivität und wissenschaftlicher Qualität im Feld der Sonifikationsforschung, wie sie gegenwärtig innerhalb der International Community for Auditory Display (ICAD) ausgehandelt werden. Ausgangspunkt meiner Überlegungen ist eine konstruktivistische Auffassung von Objektivität. Die im Titel formulierte Frage, wie objektiv Sonifikationen sind, ist bewusst irreführend formuliert: Sie zielt nicht darauf ab, ob Sonifikationen nun mehr oder weniger objektiv sind, sondern vielmehr darauf, auf welche Weise sie das sind, bzw. was für ein Objektivitätsbegriff für sie in Anspruch genommen wird. Mein Beitrag versucht demnach, einen Aushandlungsprozess der Bedeutung von Objektivität nachzuzeichnen. Objektivität verstehe ich dabei als historisch gewachsenes und wandelbares Konzept, das nicht auf eine einzige Bedeutung festgenagelt werden kann. Anknüpfend an Arbeiten im Gebiet der Wissenschaftsforschung und Wissenschaftsgeschichte möchte ich in diesem Aufsatz herausarbeiten, wie der Diskurs über Objektivität in der Sonifikationscommunity (oftmals kontrovers) geführt wird. Er wird an die Community oft von Außen herangetragen, indem Sonifikationsforscherinnen und -forscher immer wieder mit dem Vorwurf konfrontiert werden, dass die akustische Darstellung wissenschaftlicher Daten keineswegs objektiv und deshalb auch nicht wissenschaftlich legitim sein könne. Demgegenüber versuchen Mitglieder der Sonifikationscommunity einen Begriff

29

von Objektivität zu entwickeln, der mit der Sonifikationsforschung in Einklang gebracht werden kann. Ich beginne meinen Aufsatz mit einem kurzen Einblick in die Literatur über die Konstruktion von Objektivität aus dem Bereich der Wissenschaftsforschung, insbesondere in Hinblick auf die Rolle und das Zusammenspiel von Bild von Klang (Abschnitt 2-3). Dann liefere ich einen kurzen historischen Abriss über die ICAD-Community (Abschnitt 4) und beschreibe ebenso prägnant das Selbstverständnis dieses wissenschaftlichen Feldes (Abschnitt 5). In den verbleibenden Abschnitten (6-8) beschreibe und analysiere ich den Diskurs über Objektivität, wie er innerhalb der ICAD gegenwärtig stattfindet. Dabei arbeite ich zwei gegensätzliche Positionen zu Objektivität in der Sonifikation heraus und erkläre, wie diese mit unterschiedlichen Forschungsschwerpunkten und disziplinären Hintergründen zusammenhängen. Mein Beitrag beruht auf einem Methodenmix aus qualitativen leitfadengestützten Interviews, teilnehmender Beobachtung bei diversen Sonifikations-Workshops und ICADKonferenzen sowie einer Literaturstudie zu diesem Thema.

2. Objektivität und Visualität Mein Beitrag knüpft bei wissenschaftshistorischen und wissenschaftssoziologischen Arbeiten über Konzeptionen von Objektivität an. Häufig haben sich solche Arbeiten insbesondere mit der Rolle von Bildern und Bildpraktiken in der Konstruktion von Objektivität beschäftigt. Wegweisend ist dabei vor allem die Arbeit von Lorraine Daston und Peter Galison.1 Sie zeigen anhand einer historischen Analyse von wissenschaftlichen Atlanten auf, wie der Begriff der Objektivität historisch gewachsen ist und wie eng Verschiebungen in sog. »epistemischen Tugenden« mit veränderten Bildpraktiken in den Wissenschaften einhergehen und sich in diesen widerspiegeln. Daston und Galison konzentrieren sich auf drei epistemische Tugenden: Naturwahrheit, mechanische Objektivität und geschultes Urteil. Vor allem Letzteres ist für das Verständnis des Objektivitätsdiskurses innerhalb der Sonifikationsforschung von Bedeutung. Alle drei zeigen jedoch, dass sowohl die Bedeutung des Begriffs Objektivität als auch die wissenschaftliche Akzeptanz von bestimmten Darstellungsweisen und Repräsentationstechniken historisch kontingent und wandelbar sind. Aufgrund dieser Einsicht wird die Frage, ob die Sonifikationsforschung nun objektiv ist oder nicht bzw. ob die Verklanglichung von

1 Daston, Galison 2007.

30

Wie objektiv sind Sonifikationen?

Daten wissenschaftlich zulässig ist oder nicht, unbeantwortbar sein. Stattdessen stellt sich jedoch die Frage, ob und wie die Praktik der Sonifikation mit Auffassungen darüber, was aktuell als zulässige Darstellungsweise bzw. als objektive Repräsentation gilt, in Einklang gebracht werden kann. Die epistemische Tugend der Naturwahrheit war laut Daston und Galison bis zur Mitte des 19. Jahrhunderts in den Naturwissenschaften dominant: Im Sinne einer naturgetreuen Darstellung sahen Wissenschaftler (in der Idealfigur des wissenschaftlichen Genies) ihre Aufgabe darin, von all den in der Natur vorkommenden Unvollkommenheiten, Asymmetrien und Besonderheiten zu abstrahieren und ein dahinterliegendes Idealbild darzustellen. Eine gelungene Abbildung einer Pflanze in einem wissenschaftlichen Atlas war demnach also keine originalgetreue Abbildung des Blümchens am Wegrand mit all seinen Eigenheiten, sondern vielmehr ein idealisierter Archetyp der Pflanzenart, perfekter als es ein einziger Vertreter der jeweiligen Gattung je sein könnte. Gegen Ende des 19. Jahrhunderts wurde diese Art der Darstellung weitgehend, wenn auch nicht vollständig, von einer neuen epistemischen Tugend verdrängt, die Daston und Galison als mechanische Objektivität bezeichnen. Während es zuvor als legitim und sogar notwendig erachtet wurde, der Natur durch idealisierte Darstellung etwas nachzuhelfen, wurde nun jede Form der Intervention zum Tabu. Stattdessen sollte die Natur für sich selbst sprechen, und diverse mechanische Apparate und graphische Methoden konnten ihr dabei behilflich sein. Die Rolle des Wissenschaftlers hingegen war nun vor allem durch asketische Zurückhaltung und Nicht-Intervention gekennzeichnet. Im 20. Jahrhundert identifizieren Daston und Galison eine weitere Darstellungspraxis, das geschulte Urteil. Dieses verdrängte die mechanische Objektivität (und auch die weiterhin, wenn auch vermindert, fortbestehende Naturwahrheit) nicht vollständig, stellte ihr aber eine Form der Repräsentation zur Seite, in der menschliche Intervention und Interpretation wieder akzeptiert wurde. Frustriert von den Einschränkungen der mechanischen Objektivität und angespornt durch das im Rahmen der zunehmend professionalisierten wissenschaftlichen Ausbildung erworbene Vertrauen in die eigene Urteilskraft, wurde die zuvor tabuisierte menschliche Intervention nun wieder zur Notwendigkeit erklärt. Denn – so argumentierten die Verfechterinnen und Verfechter des geschulten Urteils – die Hoffnung, dass menschliche Interpretation durch automatisierte Verfahren gänzlich abgelöst werden könne, hätte sich nicht erfüllt. Nicht nur, dass sich im Prozess der automatisierten Visualisierung immer wieder Artefakte in die Bilder einschleichen, die nichts repräsentieren außer den Prozess der Visualisierung selbst; überhaupt müsse man sich in den Bergen von Abbildungen und Grafiken erst einmal orientieren. Dabei könne es hilfreich sein, wenn beispielsweise besonders interessante Aspekte in den Abbildungen hervorgehoben und Artefakte reduziert oder entfernt werden. Die Bilder sprachen nicht mehr für sich selbst, sondern mussten entziffert und interpretiert wer-

Alexandra Supper

31

den. Es handelte sich hier aber nicht einfach um eine Rückkehr zum Ideal der Naturwahrheit, denn das geschulte Urteil basierte nicht auf der Intervention eines Genies oder Weisen, sondern auf jener eines geschulten Experten, der aufgrund einer jahrelangen Ausbildung und Erfahrung seiner eigenen Einschätzung vertrauen konnte. Zweck der wissenschaftlichen Intervention und Interpretation war auch nicht das Finden eines Idealbildes (wie in der Naturwahrheit üblich), sondern der Versuch, »to read, to interpret, to draw salient, significant structures from the morass of uninteresting artifact and background«2. Es ging also um eine pragmatische Erkennung von Strukturen und Mustern in großen Datenmengen, und nicht um eine metaphysische Wahrheitsfindung. Subjektivität war nun im Gegensatz zur mechanischen Objektivität kein Schimpfwort oder Tabu mehr, sondern wurde als unabdinglicher Bestandteil des Erkennens solcher Muster aufgefasst. In dieser Entwicklung erkennen Daston und Galison »a newfound confidence among scientists in the twentieth century«3. Das Konzept des geschulten Urteils kann die Diskussionen über Objektivität innerhalb der Sonifikationsforschung erhellen: Vor die Aufgabe gestellt, die Objektivität der eigenen Arbeit zu belegen, machen Sonifikationsforscherinnen und -forscher immer wieder Gebrauch von Elementen des Diskurses über das geschulte Urteil, wie ich in meinem Beitrag zeigen werde. Kennzeichnend ist dafür, dass Subjektivität und Objektivität nicht als unvereinbare Gegensätze definiert werden; Subjektivität wird auch nicht per se als problematisch abgestempelt. Zur Legitimierung der eigenen Subjektivität wird immer wieder auf die wissenschaftliche Visualisierung verwiesen. Denn wenn subjektive Entscheidungen in der Visualisierung gang und gäbe sind, so lautet das Argument der Sonifikationsforscherinnen und -forscher, dann müssen sie in der Sonifikation ebenfalls erlaubt sein.

3. Sound and Vision Der Bezug auf die Visualisierung ist insofern wenig überraschend, als historische Studien zeigen, dass selbst jene Disziplinen, die sich dem Klang als Objekt ihrer Analyse widmen, häufig Gebrauch von Visualisierungsverfahren machen, um ihr Forschungsobjekt zu objektivieren. Beispielsweise waren graphische Methoden grundlegend für die Entstehung der Akustik als moderne wissenschaftliche Disziplin.4 2 Ebd., 328. 3 Ebd., 313. 4 Kahn 2002, Pantalony 2004.

32

Wie objektiv sind Sonifikationen?

In seiner Studie über den Einzug von Tonaufnahmen als Methode in der Ornithologie liefert Joeri Bruyninckx ein weiteres interessantes Beispiel für das Zusammenspiel von Bild und Klang in der Konstruktion von Objektivität.5 Diese Technologien erlaubten es, in freier Wildbahn sozusagen Laborbedingungen herzustellen, indem z. B. mithilfe von Parabolspiegeln gezielt einzelne Vogelstimmen aufgenommen und andere Geräusche ausgeblendet wurden. Und dennoch, berichtet Bruyninckx, waren manche Ornithologen unzufrieden, denn sie sorgten sich, dass beim Anhören der mechanischen Aufnahmen dann erst recht das subjektive Hörvermögen gefragt war. Insofern füllte der Audio-Spektrograph eine Nische innerhalb der Ornithologie: Anstatt Klangaufnahmen anhören zu müssen, konnten Ornithologen nun auf mechanisch produzierte graphische Repräsentationen zurückgreifen. Bruyninckx verwendet Latours Konzept der Inskriptionen, um den Siegeszug des Spektrographen in der Ornithologie zu erklären. Latour zufolge sind Bilder in der Wissenschaft deshalb so beliebt, weil durch sie komplexe Realitäten und Objekte in flache, zweidimensionale Repräsentationen heruntergebrochen werden können, die sich einfach beherrschen und manipulieren lassen, beliebig miteinander kombiniert und überlagert werden können und problemlos in Texte integriert und zirkuliert werden können.6 Anhand einer Graphik, in der vier spektrographische Darstellungen von verschiedenen Vogelgesangs-Aufnahmen nebeneinander gestellt wurden, argumentiert Bruyninckx die Vorteile dieser Darstellungsweise für die Ornithologie: »To understand its value, one has only to imagine the same fourfold representation of the original recordings but played out loud simultaneously.«7 Die vergleichende Analyse wurde also in dieser Form durch die graphische Präsentation ermöglicht – welche aber wiederum auf dem Vorhandensein einer Klangaufnahme aufbaut und demnach keine rein visuelle Angelegenheit ist, sondern auf dem Zusammenspiel von Klang und Bild beruht. Sonifikation kann ebenfalls als Inskription aufgefasst werden, allerdings als Inskription in das Medium des Klanges. Während Bruyninckx von den Alternativen des 1:1-Anhörens oder der graphischen Darstellung spricht, eröffnet Sonifikation eine weitere Option: Daten können nach beliebigen Kriterien in Klang umgewandelt, Parameter manipuliert und geändert, verschiedene Datensets zusammengefügt oder parallel gehört werden – und nicht zuletzt können die entstehenden Klänge im Zeitalter von Internet und Mp3 auch stets leichter verbreitet werden. Und doch hallt der Einwand der von Bruyninckx beschriebenen Ornithologen, dass das Hören fehlerhaft und subjektiv sei, stets nach: Darf man denn das? Ist das überhaupt wissenschaftlich? Ist das nicht subjektiv? Mit 5 Bruyninckx 2012. 6 Latour 1990. 7 Bruyninckx 2012, 143.

Alexandra Supper

33

solchen Einwänden sehen sich Sonifikationsforscherinnen und -forscher regelmäßig konfrontiert. Um die wissenschaftliche Legitimität ihrer Methode zu etablieren, versuchen sie deshalb, den Einwänden einen Objektivitätsbegriff entgegenzustellen, in dem die Sonifikation einen Platz finden kann. Die Frage, wie innerhalb der ICAD-Community ein Begriff von Objektivität ausgehandelt wird, beschäftigt mich im Rest dieses Beitrags. Zunächst folgt allerdings noch ein kurzer historischer Abriss über diese Community.

4. Zur Entstehung der ICAD Wie die Beiträge dieses Bandes zeigen, kann Sonifikation auf eine reichhaltige Vorgeschichte avant la lettre zurückblicken. Erst in den letzten zwei Jahrzehnten hat sich jedoch eine wissenschaftliche Gemeinschaft herausgebildet, die sich die auditive Darstellung von Information auf die Fahnen geschrieben hat. Die International Community for Auditory Display (ICAD) trifft sich alljährlich zur International Conference on Auditory Display, die ebenfalls das Kürzel ICAD verwendet.8 Ins Leben gerufen wurde ICAD im Jahre 1992 von Gregory Kramer am Santa Fe Institute, einem privaten Forschungszentrum, das sich der Erforschung komplexer Systeme widmet. Kramer, aus der Tradition der elektronischen Musik kommend, hatte in jenem Umfeld erstmals die Idee, Daten klanglich darzustellen. In der Vermutung, dass er mit dieser Idee wohl kaum der Erste gewesen sein konnte, begann Kramer zu recherchieren, »expecting that at any point I would come upon a rich vein of work. And I didn’t.«9 Eine reiche Ader konnte Kramer nicht finden, aber immerhin eine gewisse Anzahl an vereinzelten Veröffentlichungen, in denen einige Forscherinnen und Forscher sich an der klanglichen Darstellung von Daten versucht hatten, größtenteils ohne voneinander zu wissen. Viele der Autoreninnen und Autoren waren zu diesem Zeitpunkt nicht mehr aktiv mit Sonifikation beschäftigt, sondern widmeten sich inzwischen anderen Tätigkeiten. Trotzdem versuchte Kramer, die potenziell Interessierten zusammenzutrommeln und organisierte schließlich 1992 die erste ICAD-Konferenz. Nach eigener Aussage war dabei die Bezeichnung einer »internationalen Konferenz« eigentlich eine Übertreibung. Mit 36 hauptsächlich amerikanischen Teilnehmenden, von Kramer ausgewählt und eingeladen, wäre der Charakter der Veranstaltung vielleicht doch als Workshop zutreffender beschrieben. Und doch ist die Bezeichnung der internationalen Konferenz programmatisch zu verstehen – wenn schon nicht als reine Realitätsbeschreibung, dann doch als 8 Weitere Informationen zur ICAD finden sich auf der Homepage der Community, www.icad.org. 9 Interview Gregory Kramer, Juli 2008.

34

Wie objektiv sind Sonifikationen?

Deklaration der damit verknüpften Ambitionen. Kramer selbst reflektiert 16 Jahre später, dass er damals voller Begeisterung war und sich von der Überzeugung leiten ließ, »this is a field, this could be, this should be, this will be a field«. Die Namensgebung war ein Ausdruck dieser Überzeugung: So calling it something as pompous as the International Conference on Auditory Display, when really it was a handful of researchers doing something, a handful of researchers not doing anything, and a handful of people who were kind of interested maybe – you know, it’s a little bit of a reach, but I trusted it.10 Die Absicht, ein neues Feld zu begründen und nicht nur irgendeinen Workshop zu organisieren, spiegelt sich auch im Tagungsband wider: Neben den Konferenzbeiträgen und einer CD mit Klangbeispielen enthält dieser ein ausführliches historisches Einleitungskapitel von Kramer sowie eine annotierte Liste von Resourcen und Publikationen.11

5. Die ICAD-Community Kramers Versuch einer Begründung eines neuen Feldes war zweifellos erfolgreich. Dies zeigt sich schon darin, dass die ICAD weiterbesteht und sich zur jährlich stattfindenden Konferenz trifft. Der von Kramer herausgegebene Tagungsband zur ersten Konferenz ist auch weiterhin eine wichtige und vielzitierte Ressource innerhalb der Community. Der Zuwachs an Mitgliedern hält sich allerdings in Grenzen: Zwischen der ersten Konferenz 1992, die noch auf einem Einladungsprinzip beruhte, und der öffentlichen Konferenz von 1994 gab es einen großen Sprung, doch danach pendelte sich die Zahl der Teilnehmenden bei ca. 100 ein. Die ICAD-Community versteht sich als interdisziplinäres Feld. Die Teilnehmerinnen und Teilnehmer kommen aus verschiedensten Disziplinen, darunter Informatik, HumanComputer Interaction, Psychologie, Akustik, Design, Musik und Klangkunst. Nicht alle beschäftigen sich mit Sonifikation im engeren Sinne, denn unter den Begriff ›Auditory Display‹ fallen neben der klanglichen Darstellung wissenschaftlicher Daten auch das Sound-Design für Computer-Spiele oder die auditive Gestaltung von Software-Benutzeroberflächen. Allerdings beschreibt Kramer, dass Sonifikation von Anfang an jener Bereich war, der ihn persönlich am meisten interessierte: 10 Interview Gregory Kramer, Juli 2008. 11 Kramer 1994.

Alexandra Supper

35

And, so, if it had been really just what most interested me, ICAD would have just been data sonification, but I realized it couldn’t be, in part because there just weren’t that many people doing sonification, so we couldn’t get enough critical mass. And also because I was realizing that the nature of the field is such that it doesn’t have hard and fast boundaries. So for example, if you have a system of computer alerts, as soon as you introduce any dynamic data to that alert, you’ve crossed the boundary into a little sonification. So where do you draw the lines, you know? And so I decided to be inclusive.12 Die Bemühung nach dem Erreichen einer kritischen Masse schlug sich nicht nur in der thematischen Auswahl nieder, sondern auch in einem Beschluss, keine allzu hohen Qualitätsstandards anzuwenden: While the work itself may not have been all that creative, it added body to the field, it added another chapter to the book that was data sonification – whether or not it was great work at the time didn’t matter as much, because if it had been only great work, it would have been only a few papers.13 Gleichzeitig ergibt sich ein Spannungsfeld zwischen dem Anspruch auf Inklusivität und aktuellen Bestrebungen nach Professionalisierung und Formalisierung, einhergehend mit dem Wunsch nach verbindlichen Qualitätsstandards. So beschreibt etwa der aktuelle ICAD-Vorsitzende Bruce Walker die Offenheit der Community: »I guess that’s part of our social convention, we’re trying to be inclusive and understanding, and not so rigid.«14 Trotzdem, meint Walker, sei der ICAD-Vorstand bemüht, auf sanfte Art und Weise »to encourage increased standards and increased quality of the papers«15, etwa durch Einflussnahme einzelner Vorstandsmitglieder im Peer-Review-Prozess oder durch Vorbildwirkung.

12 Interview Kramer, Juli 2008. 13 Ebd. 14 Interview Bruce Walker, Juni 2009. 15 Ebd.

36

Wie objektiv sind Sonifikationen?

6. Qualität durch Evaluation Dies wirft jedoch die Frage auf, was eine gute Publikation oder eine gute Sonifikation auszeichnet. Walker, als Psychologe und Computerwissenschaftler ausgebildet, unterscheidet in diesem Zusammenhang zwischen Beiträgen, die eine Forschungskomponente enthalten, und solchen, die nur aus »show and tell« bestünden. Eine Forschungskomponente sieht er vor allem dort gegeben, wo die eigene Arbeit evaluiert und in einen theoretischen Kontext gestellt wird.16 Matti Groehn, seines Zeichens langjähriges ICADVorstandsmitglied, betont ebenfalls die Bedeutung von Evaluationen und User-Tests: You need some way to measure what you actually achieve when you‘re using sonification. It’s not enough that you say this, listen, this really sounds better than yesterday. That’s not the result. But if you can show that when you have 10 people doing this task they do things 10 % better when they’re using the auditory display than when they’re not using the auditory display – that’s a result.17 In diesem Zitat wird klar, dass wissenschaftliche Qualität hier vor allem in Hinblick auf Quantifizierung definiert wird: Die Vorzüge einer guten Sonifikation sollen mit harten Zahlen und überzeugenden Signifikanzniveaus demonstriert werden können. Diese Form des quantitativen Experiments ist kennzeichnend für die Psychologie, eine innerhalb der ICAD stark vertretene Disziplin. Historische Studien zeigen, dass Tests und Experimente in der Geschichte der Psychologie eine klare Funktion hatten: Sie trugen zur wissenschaftlichen Legitimation des eigenen Feldes bei, indem methodische Gemeinsamkeiten mit den Naturwissenschaften gesucht und eine stärkere Abgrenzung von den Sozial- und Geisteswissenschaften unternommen wurden.18 Auch im Bereich der Human-Computer Interaction (HCI) ist eine solche, aus der Psychologie abgeleitete Form des Testens eine historisch gewachsene Komponente des Feldes: Diese relativ junge Disziplin, die an der Schnittstelle von kognitiver Psychologie und Computerwissenschaften entstanden ist, hat von Anfang an ihre Legitimität vor allem aus ihrer vermeintlichen Kenntnis der User bezogen; und diese Kenntnis wiederum schöpfte sich vor allem aus einem psychologischen Zugang inklusive einer Kultur des quantitativen Testens.19 Für Wissenschaftlerinnen und Wissenschaftler mit psychologischem oder HCI-Hintergrund ist insofern der Gebrauch von User-Tests eine selbstver-

16 Ebd. 17 Interview Matti Groehn, Juli 2009. 18 Vgl. Ash 1992; Dehue 1997. 19 Vgl. Cooper, Bowers 1995.

Alexandra Supper

37

ständliche Komponente von solider wissenschaftlicher Arbeit. Paul Vickers bringt dies folgendermaßen auf den Punkt: I was working in a computer science department, doing a PhD in human-computer interaction, which is strongly influenced by the psychology way of doing things, and psychologists do experiments. […] I’d been kind of trained in the way, from the viewpoint that you always have to do an evaluation, otherwise you can’t state whether you’ve given a contribution or not.20 Aber dieser disziplinäre Hintergrund – und somit auch die Selbstverständlichkeit, mit der ein quantitativer Nachweis für das Funktionieren einer Sonifikation eingefordert wird – wird nicht in der gesamten Community geteilt. Dies ist wenig überraschend: Soziologische Studien zeigen, dass Qualitätsstandards in interdisziplinären Feldern oft problematisch sind, weil unterschiedliche Disziplinen jeweils ihre eigenen Standards und Vorstellungen von Qualität haben. Diese Situation wird zusätzlich verschärft, wenn manche der beteiligten Felder aus anderen Bereichen als der akademischen Wissenschaft kommen,21 wie dies im Feld der Sonifikation mit seinen vielfachen Überschneidungen in den künstlerischen und Design-Bereich der Fall ist. Insofern ist es kaum verwunderlich, dass die Methode der User-Tests als Nachweis für die wissenschaftliche Qualität von Sonifikation innerhalb der Community zutiefst umstritten ist.

7. Wir evaluieren uns zu Tode Auf den Punkt gebracht wird die in Teilen der Community geübte Kritik am Beharren auf der Notwendigkeit von User-Tests vom Sonifikationsforscher, Chemiker und Medienkünstler Florian Grond, der auf die innerhalb der ICAD bestehende Tendenz hinweist, dass man sich »zu Tode evaluiert«22. Krampfhafte Versuche, die eigene Wissenschaftlichkeit zur Schau zu stellen, könnten demnach dazu führen, »dass man ein Pflänzchen sozusagen killt, bevor es noch überhaupt stark ausgewachsen ist«23. Ähnliche Befürchtungen hegt Thomas Hermann, ausgebildeter Physiker und langjähriges ICAD-Vorstandsmitglied: »Was den Möglichkeitsraum angeht, Daten klanglich zu

20 Interview Paul Vickers, Januar 2011. 21 Vgl. Huutoniemi 2010. 22 Interview Florian Grond, Juni 2008. 23 Ebd.

38

Wie objektiv sind Sonifikationen?

repräsentieren, sind wir erst am Anfang.«24 Deshalb sei es im Rahmen der ICAD sehr inspirierend, wenn »Dinge zu hören sind, die in so einer Weise nie verklanglicht wurden und nie ein Mensch zuvor gehört hat« – also auch dann, wenn diese neuen Ansätze noch keiner Evaluation unterzogen wurden: Und in dem Zusammenhang finde ich es dann schade, wenn solche, mitunter sehr interessanten, neuartigen, innovativen Ansätze vielleicht deswegen nicht als Paper durchkommen, weil ihnen eine Auswertung fehlt.25 Hermann weist darauf hin, dass ein solches Auswahlverfahren auch nicht im Interesse der meisten Konferenzteilnehmerinnen und -teilnehmer sei, die zur ICAD kommen, um Auditory Displays zu hören. Wenn in den Vorträgen dann gar keine Klänge zu hören seien, dafür aber »einige Statistiken [...] mit Signifikanz-Niveaus« abgebildet werden, dann sei dies eigentlich nicht im Sinne des Grundgedankens von Sonifikation. Ein weiteres Problem wird von Alberto de Campo, Sonifikationsforscher und Professor für Generative Kunst, angesprochen. Laut de Campo sind User-Tests nicht unbedingt aussagekräftig für die Brauchbarkeit einer Sonifikation, denn im Zuge dieser Evaluierungsversuche werden oft »recht triviale Aufgabe[n]« entwickelt, um zu messen, wie gut oder wie schnell diese erfüllt werden. Der Komplexität und Offenheit der wissenschaftlichen Praxis, etwa wenn es um explorative Forschung geht, wird diese Form der Evaluation aber nicht gerecht. Dementsprechend, meint de Campo, »misst man zwar etwas, was sich leicht messen lässt, aber etwas, was einen eigentlich nicht interessiert«.26 Hier wird deutlich, dass die Frage, ob eine Evaluation bzw. eine bestimmte Form der Evaluation sinnvoll ist, letztlich sehr viel damit zu tun hat, welchen Zweck diese Sonifikation erfüllen soll und mit welchem Forschungsinteresse sonifiziert wird. Eine quantitative Evaluation mit einer statistisch signifikanten Anzahl an Probanden ist beispielsweise eine naheliegende Methode, wenn es darum geht, wahrnehmungs-psychologische Fragen zu beantworten oder ein auditives Display zu entwickeln, das für breite Schichten der Bevölkerung funktionieren soll. Anders sieht die Situation aus, wenn die Sonifikation von einer sehr spezialisierten wissenschaftlichen Nutzergruppe zur explorativen Erforschung hochkomplexer Daten genutzt werden soll. Denn genau da stellt sich die von de Campo aufgeworfene Frage, ob es überhaupt eine klar definierte Aufgabe gibt, die sich einfach abtesten und messen lässt, oder ob nicht andere Kritierien aussagekräftiger wären. Passendere Maßstäbe für die Brauchbarkeit einer Sonifikation im wissenschaftli24 Interview Thomas Hermann, Oktober 2009. 25 Ebd. 26 Interview Alberto de Campo, Oktober 2009.

Alexandra Supper

39

chen Alltag könnten beispielsweise sein, ob die potenziellen Userinnen und User bereit sind, die klangliche Darstellung in ihre Arbeitsweisen einzubauen und vielleicht nach einer gewissen Zeit der Anwendung tatsächlich neue Erkenntnisse erlangen, die zu theoretischen Fortschritten führen oder durch andere Methoden empirisch bestätigt werden können. Solche Prozesse, die mitunter langwierig und unvorhersehbar sind, können aber nicht einfach in einem User-Test abgefragt werden.

8. Das geschulte Ohr Aufgrund unterschiedlicher disziplinärer Hintergründe, Zielgruppen und Forschungsinteressen ist es also im Feld der Sonifikationsforschung nicht einfach, sich auf einen Begriff von wissenschaftlicher Qualität zu einigen. Dabei ist eine bestimmte Form der Qualitätssicherung, nämlich eine stark wahrnehmungspsychologisch geprägte Form des Testens, zwar keineswegs unumstritten, aber doch tonangebend. Ungefragt haben sich meine Interviewpartner beispielsweise immer wieder genau auf diese Diskussion und diese Art der Evaluierung bezogen, sei es nun positiv oder negativ. So berichtet etwa Florian Dombois über einen Streit innerhalb der ICAD, der im Zuge des Peer-ReviewProzesses für eine Konferenz ausbrach. Damals, so Dombois, seien viele der besten Sonifikationsbeispiele »rauskuratiert« geworden, weil sie nicht durch Evaluationen abgesichert waren: Weil man abstruse Vorstellungen von Evaluierbarkeit und Intersubjektivität hatte, und da hieß es dann, wenn jemand einen Klang macht und er hat nicht eine Reihe mit User-Tests gemacht mit 17 [...] Testpersonen, dann nehmen wir das nicht rein, weil das ist nicht wissenschaftlich. [...] Das ist wie selber wieder sich das abgewöhnen, was man gerade erobert hat, nämlich zu sagen: Das Hören ist eine Instanz.27 Interessant ist hier vor allem die epistemologische Komponente: Laut dieser Argumentation ist das Beharren auf User-Tests nicht nur deshalb schädlich, weil manche Beiträge nicht die verdiente Beachtung erfahren, sondern auch, weil damit die Autorität des Feldes als Ganzes untergraben würde. Denn durch das Bestehen auf User-Tests werde laut Dombois das Signal ausgesendet, Sonifikation sei prinzipiell erst einmal suspekt.

27 Interview Florian Dombois, Februar 2008.

40

Wie objektiv sind Sonifikationen?

Mit dem Hinweis auf die Visualisierung, in der es nicht üblich sei, jede einzelne Graphik vor einer Publikation zu evaluieren, plädiert Dombois für mehr Selbstvertrauen der Sonifikationsforscherinnen und -forscher. Dieses Plädoyer macht deutlich, welche Auffassung von Objektivität den User-Tests innerhalb der Sonifikationsforschung entgegensetzt werden kann und auch wird: nämlich eine Konzeption des geschulten Urteils. Mit einer solchen Auffassung wird die Existenz von Subjektivität legitimiert – ohne damit jedoch einen Anspruch auf Objektivität gleichzeitig aufzugeben. So heißt es beispielsweise in einem ICAD-Beitrag von Thomas Hermann: The reader may have the impression that such sonifications are so strongly tuned to the subjective preferences of the user that they may not be particularly ›objective‹ to communicate structural features in the data. However, sonification is actually always the result of strongly subjective tuning of parameters. Furthermore, each mapping is equally valid as true representation of the data. Only the combination of different (sonic) ›views‹ may yield a more ›objective‹ overall impression of structures in the data.28 Hermann spricht hier von einer Kombination von »sonic views« – mit Hilfe der Verklanglichung sollen unterschiedliche akustische Perspektiven auf ein und denselben Datensatz geliefert werden, beispielsweise indem die Abspielgeschwindigkeit verändert wird oder die Daten mit jeweils unterschiedlichen Klangparametern verknüpft werden. Während es im Paradigma des User-Testings üblich ist, Intersubjektivität herzustellen, indem eine möglichst große Gruppe von Testpersonen die gleiche Sonifikation anhört, steht hier die Hoffnung auf Erkenntnisgewinn durch das Anhören von vielen verschiedenen Darstellungen eines Datensatzes im Vordergrund. Jede einzelne dieser Darstellungen mag subjektiv sein, aber ein geschulter Hörer kann durch das Anhören verschiedener Sonifikationen Muster in den Daten erkennen. Kennzeichend für den Diskurs über Sonifikation als geschultes Urteil ist, dass Subjektivität nicht vermieden oder verleugnet, sondern als Wert hochgehalten wird. So beklagen etwa Thomas Hermann und Andy Hunt in einem gemeinsamen ICAD-Beitrag, dass Subjektivität in der Wissenschaft zunehmend marginalisiert wird und rufen auf zu einem »countertrend which moves towards subjective methods, which will allow greater qualitative understanding of the system under examination«29. Gleichzeitig wird hier aber keineswegs der Objektivität abgeschworen; gerade Thomas Hermann vertritt die Auf28 Hermann 2007, 467. 29 Hunt, Hermann 2004, 3.

Alexandra Supper

41

fassung, dass Sonifikation als objektive, wissenschaftliche Methode definiert werden muss.30 Anstatt also Subjektivität und Objektivität als einander ausschließende Begriffe zu definieren, werden hier Bedingungen festgelegt, unter denen Subjektivität in der Sonifikation erlaubt ist, ohne deshalb den Anspruch auf Objektivität aufgeben zu müssen. Subjektivität wird beispielsweise akzeptiert, wenn es darum geht, Entscheidungen darüber zu treffen, welche Klangparameter den Daten zugeordnet werden und welche Form diese Verknüpfung annimmt. Umstritten ist hingegen das nachträgliche Editing der resultierenden Klänge; Entscheidungen darüber, wie eine Sonifikation klingen soll, müssen also schon in das Modell, nach dem Daten in Klänge umgesetzt werden, eingebaut werden, anstatt die schon erzeugten Klänge nachträglich zu manipulieren. So werden innerhalb der Community legitime und illegitime Formen der Intervention sowie Bedeutungen der Begriffe »objektiv« und »subjektiv« ausgehandelt. Wenn also Daston und Galison vom geschulten Auge sprechen, dann haben wir es hier mit einem Diskurs über das geschulte Ohr zu tun: Eine Auffassung von Objektivität, in der menschliche Intervention und Interpretation – und somit ein gewisses Maß an Subjektivität – akzeptiert wird. Und zwar dann, wenn es von geschulten Expertinnen und Experten angewendet wird, mit dem Ziel, Muster und Strukturen in Daten hörbar zu machen. Laut Florian Dombois ist dies nicht zuletzt eine Frage des Selbstvertrauens der Sonifikations-Community, was ihre eigene Expertise betrifft. Auch hier findet sich eine Parallele zu Dastons und Galisons geschultem Urteil, das ebenfalls auf dem Vertrauen von Forscherinnen und Forschern in das eigene Urteilsvermögen beruht.

9. Fazit In diesem Beitrag habe ich die Debatten über Objektivität und Qualitätssicherung nachgezeichnet, wie sie im Kontext der ICAD-Community stattfinden. Diese Diskussionen nehmen in der Sonifikationsforschung einen großen Raum ein, nicht zuletzt deshalb, weil sich die Community immer wieder mit der Anschuldigung auseinandersetzen muss, dass die Verklanglichung wissenschaftlicher Daten nicht objektiv und somit auch nicht zulässig sei. Innerhalb der ICAD wird auf verschiedene Arten mit diesem Vorwurf umgegangen, und ich habe in meinem Beitrag zwei hauptsächliche Strategien herausgearbeitet: Einerseits gibt es eine durch die Methodik der Psychologie geprägte Herangehensweise, in der mit Hilfe von quantitativen Tests die Qualität der eigenen Arbeit nachge-

30 Vgl. Hermann 2008.

42

Wie objektiv sind Sonifikationen?

wiesen wird und in der Subjektivität mittels Durchschnittsbildung über große Mengen an Versuchspersonen unter Kontrolle gebracht und somit ausgeschaltet werden soll. Andererseits ist eine Auffassung festzustellen, die ich in Anlehnung an Daston und Galison als geschultes Ohr bezeichnet habe und in der dafür plädiert wird, Subjektivität als solche zu akzeptieren und mit dem Selbstbewusstsein des wissenschaftlichen Experten bestimmte subjektive Entscheidungen zu fällen. Vor allem die letztgenannte Strategie knüpft an eine ähnliche Vorgehensweise in der Visualisierung an und versucht so, die stärkere Etablierung und wissenschaftliche Akzeptanz graphischer Darstellungen zum eigenen Vorteil zu nutzen. Die Begriffe Subjektivität und Objektivität sind in den beiden Auffassungen nicht nur unterschiedlich besetzt, sondern nehmen ganz unterschiedliche Bedeutungen an. Zwar handelt es sich nicht um eine simple Lagerbildung innerhalb der ICAD, doch die unterschiedlichen Positionen können als Ausdruck von unterschiedlichen disziplinären Zugängen, Forschungsinteressen und Zielgruppen erklärt werden, die innerhalb der Community existieren. Die Schwierigkeit, sich auf einen gemeinsamen Standard zu einigen, ist insofern nicht untypisch für die Anforderungen interdisziplinärer Zusammenarbeit. Allerdings nehmen sie im Kontext der Sonifikations-Community eine spezielle Brisanz an, einerseits weil sich diese wissenschaftliche Gemeinschaft um eine Verfahrensweise gruppiert hat, deren wissenschaftliche Zulässigkeit oft grundsätzlich in Frage gestellt wird, und andererseits weil hier eine ungewöhnlich große Anzahl an Disziplinen beteiligt oder potentiell beteiligt ist. Denn das disziplinäre Einzugsgebiet der Sonifikation reicht von der Psychologie bis zur Computerwissenschaft sowie von der elektronischen Musik bis zur Akustik und umfasst nicht zuletzt auch all jene Disziplinen, deren Daten verklanglicht werden können – also alle. Auf dem Spiel steht nicht nur die wissenschaftliche Akzeptanz irgendeines zusätzlichen Feldes, sondern die viel grundsätzlichere Frage, welche Formen der Darstellung und Repräsentation in den Wissenschaften legitim sind. In diesem Beitrag ging es mir darum, einen Diskurs nachzuzeichnen und zu analysieren. Allerdings muss festgestellt werden, dass, sofern es die Sonifikation schafft, wissenschaftliche Akzeptanz zu erlangen, dieser Prozess nicht auf einer rein diskursiven Ebene stattfinden würde. Damit meine ich, dass kein noch so schlüssiger Objektivitätsbegriff, der innerhalb der Community entwickelt werden könnte, alleine der Sonifikation zu Akzeptanz verhelfen kann. Für den Erfolg der Sonifikationsforschung müsste ein solcher Objektivitätsbegriff auch überzeugend in die Praxis umgesetzt und mit bestechenden Beispielen untermauert werden. So hat jede Auffassung von Objektivität auch Implikationen dafür, wie Sonifikationen gemacht und evaluiert werden. Wenn beispielsweise Sonifikation im Sinne des User-Testings definiert wird, kann sie sich jedenfalls nicht behaupten, ohne plausible, systematische positive Evaluationen vorweisen zu können;

Alexandra Supper

43

wenn sie hingegen Sinne der zitierten Auffassung von Objektivität als Kombination unterschiedlicher subjektiver Perspektiven aufgefasst wird, ergibt sich eine Präferenz für eine Form des Designs, in der schnell und einfach verschiedene Darstellungsweisen ausprobiert und angehört werden können. Unabhängig von der gewählten Auffassung, kann ein Diksurs über Objektivität alleine der Sonifikation nicht zur weiteren Verbreitung verhelfen, sondern es müssen einleuchtende Beispiele von Sonifikationen mitgeliefert und der Anschluss bei breiteren wissenschaftlichen Entwicklungen gesucht werden.

10. Quellen Ash, Mitchell G. (1992): Historicizing Mind Science: Discourse, Practice, Subjectivity, in: Science in Context, 5 (2), 193-207. Bruyninckx, Joeri (2012): Sound Sterile: Making Scientific Field Recordings in Ornithology, in: Pinch, Trevor / Bijsterveld, Karin (Hg.), The Oxford Handbook of Sound Studies, Oxford, 127-150. Cooper, Geoff / Bowers, John (1995): Representing the User: Notes on the Disciplinary Rhetoric of Human-Computer Interaction, in: Thomas, Peter J. (Hg.), The Social and Interactional Dimensions of Human-Computer Interfaces, Cambridge, 48-66. Daston, Lorraine / Galison, Peter (2007): Objectivity, New York. Dehue, Trudy (1997): Deception, Efficiency, and Random Groups: Psychology and the Gradual Origination of the Random Group Design, in: Isis 88, 653-673. Hermann, Thomas (2007): Relevance-Based Interactive Optimization of Sonification, in: Proceedings of the 13th International Conference on Auditory Display, Montréal. Hermann, Thomas (2008): Taxonomy and Definitions for Sonification and Auditory Display, in: Proceedings of the 14th International Conference on Auditory Display, Paris. Hunt, Andy / Hermann, Thomas (2004): The Importance of Interaction in Sonification, in: Proceedings of the 10th International Conference on Auditory Display, Sydney. Huutoniemi, Katri (2010): Evaluating Interdisciplinary Research, in: Frodemann, Robert / Thompson Klein, Julie / Mitcham, Carl (Hg.), The Oxford Handbook of Interdisciplinarity, Oxford, 309-320. Kahn, Douglas (2002): Concerning the Line: Music, Noise, and Phonography, in: Clarke, Bruce, Henderson, Linda Dalrymple (Hg.), From Energy to Information: Representation in Science and Technology, Art, and Literature, Stanford, 178-194. Kramer, Gregory (Hg.) (1994): Auditory Display. Sonification, Audification, and Auditory Interfaces, Reading.

44

Wie objektiv sind Sonifikationen?

Latour, Bruno (1990): Drawing Things Together, in: Lynch, Michael, Woolgar, Steve (Hg.), Representation in Scientific Practice, Cambridge, 19-68. Pantalony, David (2004): Seeing a Voice: Rudolph Koenig’s Instruments for Studying Vowel Sounds, in: The American Journal of Psychology, 117 (3), 425-442. Interviews Interview mit Alberto de Campo, Berlin, 16. Oktober 2009. Interview mit Florian Dombois, Köln, 17. Februar 2008. Interview mit Florian Grond, Paris, 26. Juni 2008. Interview mit Matti Gröhn, Espoo (Telefoninterview), 1. Juli 2009. Interview mit Thomas Hermann, Bielefeld, 14. Oktober 2009. Interview mit Gregory Kramer in einem Zug der Deutschen Bahn, 1. Juli 2008. Interview mit Paul Vickers, Newcastle upon Tyne (Telefoninterview), 19. Januar 2011. Interview mit Bruce Walker, Atlanta (Telefoninterview), 4. Juni 2009.

Alexandra Supper

45

Zeitgenössische Perspektiven auf ästhetische Strategien der Sonifikation1 Florian Grond und Thomas Hermann

1. Einleitung Klänge und Geräusche kann man auf verschiedene Arten und mit unterschiedlichen Absichten hören. Wenn wir ihnen ausgesetzt sind, beeinflussen viele Faktoren, was und wie wir sie wahrnehmen. Auch Sonifikation, die akustische Repräsentation von Daten, ist zunächst einmal einfach Klang. Ihre Funktion als Sonifikation erhält sie erst, wenn wir aufmerksam zuhören und die abstrakte Information, die sie enthält, extrahieren. Das ist bisweilen schwierig zu erreichen, da Klänge im Zuhörer immer konkrete Bezugspunkte schaffen, seien diese nun musikalischer oder alltäglicher Natur. In diesem Beitrag stellen wir historische Beispiele für Sonifikationen vor, betrachten diese aber aus einer zeitgenössischen Perspektive. Anhand der angeführten Beispiele diskutieren wir einige wesentliche Aspekte, die beeinflussen, wie wir Sonifikationen hören können. Dabei erörtern wir die folgenden Kategorien: getriggerte Klänge, wiederholte Klänge, konzeptionelle Klänge, technologisch vermittelte Klänge, melodische Klänge, vertraute Klänge, multimodale Klänge und vokale Klänge. Wir erörtern im Folgenden, wie diese Kategorien dem Zuhörer helfen, sich auf den Klang einzulassen und wie sie selbst zu Referenzen werden können. Diese unterschiedlichen klanglichen Qualitäten, derer sich die Sonifikation bedient, haben das Potential, Zugänge zur Wahrnehmung der Information in sonifizierten Tönen zu öffnen, aber auch zu verschließen. Sonifikation ist heute eine interdisziplinäre Praxis, welche vor allem die Bereiche Auditory Display, Sounddesign, Klangkunst und Komposition umfasst. Wenn man eine frühe Defi-

1 Dieser Beitrag basiert auf einer englischen Fassung, vgl. Grond 2011.

47

nition heranzieht, dann versteht man unter Sonifikation im Allgemeinen die Repräsentation von Daten in Form nicht-sprachlicher Klänge2. Diese Gebrauchsdefinition ist jedoch sehr allgemein und reflektiert kaum die Vielzahl an Herausforderungen hinsichtlich des Sounddesigns, der Komposition und nicht zuletzt der Implementierung einer gelungenen Sonifikation. Aus einer musikalischen Perspektive beginnt die Sonifikation dort, wo sowohl die mimetische Funktion des Klangs – wie etwa in der Programm-Musik – als auch die indexikalische Funktion – wie zum Beispiel bei Klangaufzeichnungen – endet. Aus einer erkenntnistheoretischen und wissenschaftsgeschichtlichen Perspektive sprechen wir von Sonifikation, wenn Klang als informationstragendes Medium verwendet wird und mehr als sich selbst repräsentiert. Mit anderen Worten, Klänge werden zu Sonifikationen, wenn sie zu Recht in Anspruch nehmen können, Erklärungskraft zu besitzen, wenn sie nicht einfach nur Musik sind, aber auch über die Funktion der Illustration hinausreichen. Obwohl es viele historische und zeitgenössische Beispiele gibt, in denen Klänge die Wissenschaft zu neuen Einsichten geführt haben, so zeigt doch das Wort ›Einsicht‹ alleine schon, wie sehr Begriffe, die auf Wissenszuwachs verweisen, das kulturelle Primat des Sehens unterstreichen. In diesem Beitrag werden wir einige historische und zeitgenössische Beispiele erörtern, in welchen klangliche Repräsentationen oder Manifestationen natürlicher Phänomene verwendet werden – dabei vom gehörten Klang selbst aber abstrahiert wird –, um zu allgemeinen Schlüssen über die den Phänomenen zugrundeliegenden Zusammenhänge zu kommen. Der historische Blick soll uns dabei helfen, zeitlich invariante Erfolgsfaktoren herauszuarbeiten. Das Datensubstrat der Sonifikationen stammt zunehmend aus unserer virtuellen beziehungsweise digitalen Umgebung.3 Sonifikation versucht daher zusehends etwas zu repräsentieren, was keinen akustischen Bezugspunkt hat. Diese Tatsache stellt uns vor die Herausforderung, Klänge zu finden, welche als Repräsentationen für diese abstrakten virtuellen Entitäten fungieren können. Außerdem bezieht sich jeder wahrgenommene Klang immer schon auf bekannte Klänge, denen wir in natürlichen, alltäglichen oder kulturellen Kontexten ausgesetzt waren. Dieses Problem kennt sowohl die künstlerische als auch die wissenschaftliche Sonifikation. Es ist daher aufschlussreich zu beobachten, wie Künstler und Wissenschaftler, die Sonifikation als Darstellungsmittel verwenden, das akustische Bezugs- und Bedeutungsnetz neu gestalten. Dabei müssen sie sowohl auf alltägliche als auch auf kulturelle Klangerfahrungen Rücksicht nehmen, wobei diese beiden Kategorien zusehends durch Technik

2 Vgl. Kramer 1994. 3 Sonifikationen k|nnen prinzipiell auch auf analogen Daten oder Signalen basieren. Aus historischer Perspektive ist es wichtig darauf hinzuweisen, dass Sonifikation nicht erst seit der Digitalisierung eine Repräsentationsmöglichkeit darstellt.

48

Zeitgenössische Perspektiven auf ästhetische Strategien der Sonifikation

verschwimmen. Das sich ständig verändernde akustische Bedeutungsfeld stellt für die Sonifikation insofern eine Herausforderung dar, als dass sich diese Aspekte des klanglichen Gestaltens permanent im Fluss befinden und sich daher nur schwer formalisieren und kaum operationalisieren lassen. Hier kann die Kenntnis der Geschichte der Sonifikation das Bewusstsein für diese Herausforderung schärfen. In diesem Beitrag untersuchen wir die Bezugsnetze solcher Hörkontexte und diskutieren ihre Rolle als ästhetische Strategien innerhalb der Sonifikation. Der Begriff der Ästhetik, auf den wir uns hier beziehen, meint die Betrachtung der ganzen Palette an wichtigen Klangeigenschaften und anderen Einflüssen aus Sonifikationsszenarien, die bestimmen, wie wir wahrnehmen, was wir hören. Der Begriff der Ästhetik mag vielleicht in diesem Zusammenhang etwas überstrapaziert erscheinen, und man mag glauben, dass eine Diskussion der Gattungen und Genres angebrachter wäre. Sonifikation umfasst jedoch viele verschiedene Disziplinen, die zumeist durch technische Verfahren der Klangproduktion und -gestaltung verbunden sind und die von der Wissenschaft bis zur Kunst reichen. Daher finden sich auf dem Gebiet der Sonifikation weder traditionelle Genres noch kanonische Formen. Der Verlust von kanonischen Kategorien ist vergleichbar mit den Herausforderungen, die sich beobachten lassen, wenn Musik auf den Bereich der Klangkunst (Sound Art) ausgedehnt wird.4 In diesem beeinflussen nicht nur klangliche, sondern auch visuelle, haptische und performative Aspekte unsere Wahrnehmung des gesamten Werks und damit auch des Klangs. Es wird daher zu einer ästhetischen Frage, welche dieser Aspekte man einschließt und vor allem wie. Diese Palette der ästhetischen Qualitäten ist zuerst einmal eine allgemeine und nicht auf eine bestimmte disziplinäre Perspektive reduzierte, wie etwa auf physiologische Faktoren des menschlichen Hörens oder auf Gesetze der akustischen Gestaltwahrnehmung. Unabhängig von dieser allgemeinen Herangehensweise spielen die Qualitäten sicher eine unterschiedliche Rolle innerhalb des »analog-symbolischen Kontinuums«,5 in dem sich Klänge bewegen: Sie haben z. B. eine andere Bedeutung für kurze Alarmgeräusche als etwa für zeitlich ausgedehnte Sonifikationen. Obwohl einige der ästhetischen Strategien Bezüge zu etablierten Disziplinen aufweisen, werden wir sie hier aus der historischen und aktuellen Praxis der Sonifikation selbst herausarbeiten. Darüber hinaus hat die Datenstruktur selbst als Grundlage der Sonifikation einen signifikanten Einfluss auf die Form,6 die diese letztlich annimmt. In diesem Fall können die ästhetischen Strategien, die hier entwickelt werden, als Leitlinien verstanden werden, die helfen sollen, zu beurteilen, ob Sonifikation im gewählten Kontext ein geeignetes Medium 4 Vgl. Licht 2007, 210. 5 Vgl. Kramer 1994, 21-29. 6 Vgl. De Campo 2007.

Florian Grond und Thomas Hermann

49

der Datenrepräsentation ist. Zusammenfassend möchte die Sammlung an ästhetischen Strategien in diesem Beitrag folgende Frage erörtern: welche Umstände helfen uns, Klang als Sonifikation zu hören?

2. Getriggerte Klänge Jeder, der sich mit Klangsynthese beschäftigt, kennt den Effekt von ADSR-Hüllkurven, die den folgenden Verlauf beschreiben: Anschlag (attack), Abklingen (decay), Halten (sustain) und Abfallen (release). Als amplitudenmodulierende Hüllkurven formen sie den Verlauf der Lautstärke und geben dadurch dem jeweiligen Klang eine bestimmte Artikulation, die den Zuhörer an den physikalischen Ursprung des Gehörten erinnert. Das trifft vor allem auf den Anschlag zu, welcher sich direkt auf die Handlung bezieht, die den Klang verursacht. Ein Beispiel für eine sehr kurze Anschlagszeit wäre eine gezupfte Saite wie beim Monochord. Dieses historische Instrument wird zusammen mit Pythagoras von Samos oft als frühes Beispiel einer durch Klang erlangten wissenschaftlichen Erkenntnis angeführt. Als Pythagoras der Überlieferung zufolge im 6. Jahrhundert v. Chr. mit diesem Instrument experimentierte, kam er nach sorgfältigem Zuhören beim Verschieben des Stegs zu der Überzeugung, dass die Welt nach harmonischen Verhältnissen geordnet sein müsse. Seine Schlussfolgerung, welche die Welt mit einem einfachen Saiteninstrument erklärt, erscheint uns heute als Versuch, etwas all zu disparate Verstehenszusammenhänge zu erschließen. Hinter der Entdeckung der harmonischen Schwingungsverhältnisse eines gezupften Instruments gibt es jedoch auch heute noch einen Aspekt, der uns weiterhin fasziniert. Es ist die kindliche Freude, die wir erfahren, wenn wir eine Saite zupfend zum Klingen bringen und dabei den darunterliegenden Steg verschieben. Dies verdeutlicht, dass uns allein die vorgestellte Handlung mit einem Klang verbinden kann. Im Vergleich zu Pythagoras hatte der österreichische Arzt Joseph Leopold von Auenbrugger das, was wir heute eine konkrete Forschungsfrage nennen würden. Als Arzt war er mit der Herausforderung konfrontiert, den Zustand der inneren Organe seiner Patienten zu diagnostizieren. Zu diesem Zweck entwickelte er das Verfahren der medizinischen Perkussion. Der Legende nach führte er diese Entdeckung auf eine Erfahrung aus der Kindheit zurück, als er seinen Vater dabei beobachtete, wie dieser den Füllstand von Fässern durch Klopfen auf dieselben feststellte. Inspiriert von dieser Erfahrung klopfte Auenbrugger an den Brustkorb seiner Patienten und analysierte die

50

Zeitgenössische Perspektiven auf ästhetische Strategien der Sonifikation

unterschiedlichen Klänge, welche dabei entstanden.7 In all diesen Fällen ist die starke Kopplung zwischen Handlung und Wahrnehmung essentiell für unsere Beziehung zum Klang. Der Klang ist klar verankert und hat einen physikalischen Ursprung. Zusätzlich erlaubt die geschlossene Rückkopplungsschleife, die Information der Impulsantwort korrekt zu interpretieren und zwar in Bezug auf die eingebrachte Energie. Die Qualität getriggerter Klänge hat eine ähnliche Funktion im Bereich der Echolokation8 sowie verwandter Sonifikationsmetaphern und -modelle wie dem DatenSonogramm: Hierbei wird eine virtuelle Schockwelle in die zu untersuchende Datenwolke gesendet. Die Datenpunkte antworten mit abklingenden Oszillationen in der Reihenfolge ihres Abstandes zum Epizentrum der Schockwelle. Obwohl die Aktion selbst virtuell ist, folgt die Impulsantwort einer invarianten, durch physikalische Gesetze motivierten Dynamik.9 Diese Herangehensweise ist Teil der jüngeren Entwicklung der modellbasierten bzw. interaktiven Sonifikation.10 Ein weiteres Beispiel ist die Software WetterReim von Till Bovermann.11 In dieser Anwendung wird der Anschlag auf der Computertastatur durch ein Kontaktmikrophon aufgenommen. Danach wird der Klang in Echtzeit durch Filter verändert, welche ihrerseits durch Wetterdaten parametrisiert werden. In WetterReim, welches zum Bereich der tangible auditory interfaces gehört, führt der physikalische Ursprung der Anschlagsklänge zu einer besonders überzeugenden Interaktionserfahrung. Aus dem Bereich der Mobiltelefonapplikationen muss hier auch die interaktive Anwendung shoogle12 erwähnt werden, in der das Schütteln des Geräts die Klänge einer Murmelschachtel simuliert, wobei jede Murmel eine SMS Nachricht repräsentiert. Die Herausforderungen beim Design einer interaktiven Sonifikation haben eine gewisse Nähe zum Bereich neuer Interfaces für elektronische Instrumente. Wie das Beispiel Pythagoras zeigt, wird ein Instrument bisweilen nicht nur wegen seines musikalischen Ausdrucks gespielt, sondern auch, um ihm analytisch zuzuhören. Die aufmerksame Zuwendung zum Klang hängt hierbei mit der Handlung zusammen, welche ihn auslöst. Das um Verstehen bemühte analytische Hören wird durch die starke Kopplung von Handlung und Klangcharakteristik unterstützt. Erst der Versuch, die spezifische Ursache im Klang zu erschließen, kreiert die außerklangliche Referenz.

7 Für eine ausführliche Darstellung der Sonifikation in der Medizin vgl. Baier 2008; Volmar 2007 sowie den Beitrag von Axel Volmar in diesem Band. 8 Vgl. hierzu auch den Beitrag von Shintaro Miyazaki in diesem Band. 9 Vgl. Hermann 2002. 10 Vgl. Hermann 2005. 11 Vgl. Bovermann 2009. 12 Vgl. Williamson 2007.

Florian Grond und Thomas Hermann

51

3. Wiederholte Klänge Viele der Beispiele aus der oben angeführten Kategorie weisen eine weitere wichtige Eigenschaft von Sonifikationen auf: die der Wiederholung. Die Wahrnehmung von Wiederholung, die sich als Rhythmus äußert, ist ein Beispiel, bei dem das Ohr den Sehsinn übertrifft. Als ästhetische Strategie in der Sonifikation erlaubt uns die Wiederholung, Ähnlichkeit und Differenz herauszuarbeiten. Wiederholbarkeit ist eine notwendige Vorrausetzung für wissenschaftliches Vorgehen,13 aber es ist auch eine ästhetische Wahl, da durch Wiederholung klangliche Ereignisse anfangen, aufeinander zu verweisen. Ein frühes Beispiel von Wiederholung findet sich bei dem französischen Arzt René Laënnec (1781-1826), der die akustische Diagnose nach Auenbrugger weiterführt. Laënnec entwickelte die Methode der Auskultation durch Zuhören mithilfe eines Stethoskops, welches ironischerweise heute ein visuelles Symbol der Medizin darstellt.14 Auskultation kommt vom lateinischen Wort auscultare und bedeutet aufmerksam zuzuhören. Es wurde zur Diagnose von Herz-, Lungen- und Magen-Darmgeräuschen entwickelt. Besonders Herz und Lunge geben wiederholende Klänge oder besser Geräusche, von sich. Während der Herzschlag eine klare rhythmische Qualität besitzt, welche als akustische Gestalt wahrgenommen werden kann, hat die Atmung in ihrer Länge eher den Charakter einer musikalischen Phrase, wobei sich die Klangtextur im Mittelpunkt der Aufmerksamkeit des Hörens befindet. Auskultation induziert keine Klänge in Form von Impulsen, so wie die medizinische Perkussion. Es ist in diesem Zusammenhang interessant, darauf hinzuweisen, dass der menschliche Körper auf die beiden komplementären Arten durch Hören untersucht werden kann: entweder als Instrument, indem man das Resonanzverhalten interpretiert oder aber, indem man den Klängen zuhört, die er selbstständig produziert. In beiden Fällen ist die Wiederholung der Schlüssel zum Verständnis der akustisch wahrgenommenen Information. Ein weiteres prominentes Sonifikationsbeispiel, in welchem Wiederholung eine wichtige Rolle spielt, ist ein experimentelles Setup von Galileo Galilei.15 In diesem Experiment wurden kleine Glöckchen entlang einer schiefen Ebene positioniert. Wenn der Abstand so eingestellt war, dass eine herabrollende Kugel sie in gleich langen zeitlichen Intervallen anschlug, ließen sich die Gesetze des freien Falls durch das Messen der Abstände der Glöckchen ableiten. Dies ist ein frühes Sonifikationsbeispiel, welches eine empirische Verifikation und Theoriebildung mit einem akustischen Display verknüpft. John Eacotts Werk Hour Angle (2008) ist ein aktuelles Beispiel aus der Musik, das diesen 13 Vgl. hierzu auch neue Definitionen des Sonifikationsbegriffs von Hermann 2008. 14 Für eine ausführliche Diskussion vgl. den Beitrag von Axel Volmar in diesem Band sowie Volmar 2011. 15 Vgl. Drake 1980.

52

Zeitgenössische Perspektiven auf ästhetische Strategien der Sonifikation

Gedanken aufgreift. Hour Angle ist die Echtzeitübersetzung der Spur, welche die Sonne über die Oberfläche der Erde zieht. Diese Spur schreitet sehr langsam voran, wenn man als Vergleich die Länge eines typischen konzertanten Musikstückes heranzieht. In Anlehnung an diese langsame Entwicklung hat der Klang sehr minimalistische, langsam fortschreitende, sich wiederholende Phrasen. Der Zuhörer empfindet diesen Fortschritt nicht als eine starke emotionale Bewegung wie z. B. das Fließen in Smetanas Moldau, sondern als eine äußerst rationale Prozedur des Messens und Zählens. Die repetitive Qualität des Klangs nimmt hier dieselbe Funktion ein wie die Glocken auf der schiefen Ebene von Galilei. Wie oben erwähnt, ist Wiederholbarkeit eine wichtige Voraussetzung für wissenschaftliche Sonifikation. Aus einer musikalischen Perspektive stellt die Wiederholung weitere interessante Fragen: welches sind die Kategorien, die Identität und Differenz ausmachen? Einen Sound können wir beispielsweise in einer uns bekannten Melodie erkennen. Es kann jedoch auch die Interpretation eines bestimmten Musikers sein. Die Wiederholung des selben oder eines ähnlichen Klangs ist der einfachste Weg, einen skeptischen Zuhörer davon zu überzeugen, dass es keiner besonderen Hörfähigkeiten bedarf – wie beispielsweise absolutes Gehör oder das Erkennen von Intervallen und Akkorden –, um zu kontextualisieren, was gehört wurde. Der Bezugspunkt ist der wiederholte Klang selbst. Alleine die Wiederholung gibt uns hier die Möglichkeit, unsein Urteil zu bilden. Wiederholung legt zudem nahe, dass wir mehr hören als nur ein einzigartiges Ereignis, welches aufgrund seiner Singularität im besten Falle fasziniert, aber nicht verstanden werden kann.

4. Konzeptionelle Klänge Ein Nachfolger in der Tradition von Pythagoras ist Johannes Kepler. In seinem Buch Harmonices Mundi (1619) postuliert er den Zusammenhang zwischen der Bewegung der Planeten und der musikalischen Intervalle. Aus heutiger Sicht löst Kepler so das Problem einer Sonifikation, welche keine klangliche Referenz hat, in einem Konzeptkunstwerk auf. Der gedankliche Ursprung ist hierbei eine mathematische Gleichung, die aus einer tatsächlichen Beobachtung abgeleitet wurde, die Partitur ist ein Buch und der postulierte Klang schwingt im Resonanzraum unserer Vorstellung. Kepler drückt es explizit so aus: »Ich möchte hierüber auch das Ohr befragen, jedoch so, dass der Verstand ausspre-

Florian Grond und Thomas Hermann

53

chen soll, was natürlicherweise das Ohr zu sagen haben würde.«16 Kepler präsentiert hier eine Idee, welche, falls sie tatsächlich umgesetzt und damit hörbar gemacht würde, an Stringenz nur verlieren könnte. Eine weitere konzeptionelle Sonifikation ohne Klang findet sich bei Rainer Maria Rilke, der im Jahre 1919 in seinem Essay Ur-Geräusch Zusammenhänge zwischen dem menschlichen Schädel und dem Grammophon entwickelte. In diesem Text berichtet der Erzähler über seine Entdeckung, dass die feinen Mäanderungen der Schädelnähte – dort wo die Schädelplatten zusammentreffen – den Oszillationen der Rillen auf dem frühen Grammophon ähneln und man daher doch, wenn man entlang dieser Schädelnaht mit einer entsprechenden Nadel kratzte, ein Geräusch hören können müsste. Dieser dem Schädel entspringende Klang wäre natürlich etwas sehr Ungewöhnliches, daher bezeichnete Rilke dieses imaginierte Klangereignis als Ur-Geräusch.17 Sowohl bei Kepler als auch bei Rilke wird kein tatsächlicher Klang produziert oder wäre überhaupt produzierbar: der Klang ist vielmehr eine Metapher, welche unsere Einsicht leitet oder, um einen visuellen Bedeutungszusammenhang zu vermieden; der Klang ist dazu da, Assoziationen, gleich gedanklichen Resonanzen, anzuregen. Klang wird selbst ein Vehikel des Denkens und fordert seinen rechtmäßigen Platz neben Bild und Sprache ein. Außerhalb dieser beiden Beispiele aus der Wissenschaft und der Literatur lassen sich konzeptionelle Aspekte in Sonifikationsarbeiten finden, welche nicht als solche konzipiert waren, jedoch im weitesten Sinne des Wortes als durch Daten inspirierte Musik beschrieben werden können. In diesen Beispielen ist Klang nicht als Sonifikation im engeren Sinn zu verstehen, also als Herangehensweise, den Daten inhärente Strukturen systematisch zu übersetzen. Dennoch können diese Arbeiten auch nicht einfach auf einen kanonischen Begriff der Musik reduziert werden, da sie die Idee des kompositorischen Akts, als ein bewusstes und gewolltes Arrangieren von klanglichem Material, hinterfragen. Das erste Beispiel bezieht sich, ähnlich wie bei Kepler, auf den Himmel und die Sterne. Es handelt sich um John Cages Arbeit Atlas Eclipticalis (1961). Cage verwendet hier ein Abbild des Sternenhimmels als Vorlage für eine Partitur, begleitet von detaillierten Spielanweisungen. Abgesehen von den variablen Einflüssen durch die Interpretation der Wiedergabe bildet die statische externe Struktur des Sternenhimmels die Grundlage der Komposition. Obwohl der Kosmos als Referenz als Sternenkarte direkt in die Partitur abgebildet wurde und uns diese Unmittelbarkeit daher an eine zeitgenössische Sonifikation erinnert, zielt die Abbildung nicht darauf ab, Strukturen der Daten zu artikulieren. In Atlas Eclipticalis ist die Rolle der Daten vielmehr 16 Vgl. Kepler 1967, 134. 17 Vgl. Rilke 1919 sowie insbesondere den Beitrag von Jan Thoben in diesem Band.

54

Zeitgenössische Perspektiven auf ästhetische Strategien der Sonifikation

die eines Substrats, welches uns poetisch die Motivation der Auswahl und den Urgrund von Entscheidungen in musikalischen Kompositionen befragen lässt.18 Das zweite Beispiel, ähnlich wie bei Rilke, bezieht sich auf menschliche Hirnströme. Es handelt sich dabei um das Stück Music for Solo Performer aus dem Jahr 1965, einer künstlerischen Aneignung von EEG-Messungen durch den Komponisten Alvin Lucier. In diesem Stück verstärkt Lucier die elektromagnetische Aktivität des Gehirns und übertragt sie in akustische Signale. Perkussionsinstrumente, die mit den Lautsprechern der Wiedergabe verbunden sind, vibrieren durch diese aufgrund der Stärke des Audiosignals. In Music for Solo Performer werden die Echtzeit-Messungen nicht dafür verwendet, Daten zu verstehen, sondern vielmehr dafür, die Natur der Gedanken und mentaler Prozesse hervorzuheben, die wie Musik und Klang Bewegungen in der Zeit sind. Dieses Statement kontrastiert überzeugend mit dem während der Aufführung unbewegt sitzenden Künstler. Der konzeptionelle Aspekt des Klangs wird zudem nochmals verstärkt durch die Tatsache, dass wir den Klang nicht direkt aus den Lautsprechern hören, sondern seine Re-Interpretation durch die verwendeten Perkussionsinstrumente. Das letzte Beispiel zeigt noch einmal, wieso konzeptionelle Aspekte in der Sonifikation so wichtig sind: sie thematisieren, dass die Referenz, auf die der Klang verweist, oft außerhalb der Klangdomäne kommuniziert werden muss und dass die Eigenschaften des Klangs als Medium eben nicht mit der Nachricht verwechselt werden sollten. Im Falle einer Sonifikation muss beim Hören gleichzeitig ein aktiver Akt des Interpretierens stattfinden, welcher Bedeutung jenseits der klanglichen Semantik sucht.

5. Technologisch vermittelte Klänge In manchen Fällen ist es nicht der Klang selbst, der unsere Aufmerksamkeit in Anspruch nimmt, sondern es sind die technischen Verfahren, mit denen der Klang reproduziert wird. Dieser starke Einfluss der Technik auf das, was wir wahrnehmen, zeigt sich schon bei den ersten Messungen elektrischer Potentiale und ihrer akustischen Wiedergabe. Nach der Erfindung des Telefons im späten 19. Jahrhundert wurde gleichzeitig in das selbige alles projiziert, um den Fortschritt voran zutreiben. Aus dieser Zeit, die Florian Dombois auch als die »erste Ära der Sonifikation« bezeichnet hat,19 gibt es mehrere Beispiele für die Verwendung des Telefons in der Experimentalphysiologie.20 Wir möch18 Vgl. hierzu auch den Beitrag von Volker Straebel in diesem Band. 19 Vgl. Dombois 2008. 20 Vgl. hierzu den Beitrag von Axel Volmar in diesem Band.

Florian Grond und Thomas Hermann

55

ten an dieser Stelle nur Nikolai Wedenskiis 1883 publizierten Artikel Die telephonischen Wirkungen des erregten Nerven anführen.21 In diesem beschreibt er detailliert, was er gehört hatte und erklärt, wie es ihm half, verschiedene Phänomene von Interesse zu unterscheiden. Wir finden hier damit eine erste Arbeit, die die Phänomenologie der Sonifikation ins Zentrum der Aufmerksamkeit rückt. Es gibt ferner interessante zeitgenössische Beispiele, in welchen sich die Sonifikation vor allem auf ihre Repräsentation durch Technologie bezieht. Eine Arbeit, die explizit mit den Kategorien der konzeptionellen Sonifikation spielt, ist der G-Player (2004) – oder auch seine portable Form, der G-POD – von Jens Brand.22 Beide Versionen sonifizieren das Profil der Erde, so wie es sich als kleinste Distanzabweichungen von einem Satelliten aus betrachtet zeigt. Die Arbeit G-POD scratched sprichwörtlich über die Oberfläche der Erde. G-POD wird durch eine Verkaufs-Performance präsentiert, die Brand mit der überzeugten Behauptung eröffnet: the earth is a disk! – die Erde sei eine Scheibe, im Sinne eines Tonträgers. Der Zuhörer ist also geneigt zu glauben, dass es ganz natürlich sei, der Erde zuzuhören, genauso wie man einer technischen Evolution von Abspielgeräten, wie Walkman, Diskman oder iPod, zugehört hat. Trotz der stark technologisch-konzeptionellen Komponente ist der G-POD eine Klangidee, die man wirklich hören kann. Die Künstlerin Valentina Vuksic lässt uns auf eine ungewöhnliche Weise der Technologie zuhören, die sich von den oben genannten Beispielen unterscheidet. Ihre Performance tripping through runtime übersetzt den Prozess des Hochfahrens (boot process) verschiedenster Computer mithilfe von elektromagnetischen Tonabnehmern in Klang. Vergleichbar ist das mit den vorherigen Beispielen nur insoweit als das Vuksic etwas, das man bislang nicht hören konnte, in Hörbares verwandelt. Der elektromagnetische Sensor ist jedoch einfach, klein und bleibt im Hintergrund. Die Zuhörer spüren sofort eine gewisse Nähe zum technologischen Objekt der Untersuchung. Unter anderem auch deswegen, weil das vermittelnde Interface unspektakulär bleibt und nicht den Zugang zum hörbaren Bootprozess verstellt. Ähnlich in ihrem Bezug auf die Technologie erlauben es die electric walks von Christina Kubisch, elektromagnetische Wellen aus unserer Umgebung durch Empfangsspulen in Kopfhörern zu erforschen. In dieser Arbeit hören wir ebenfalls die technischen Artefakte, die uns umgeben. Im Vergleich zu tripping through runtime ist es jedoch wahrscheinlicher, dass wir als involvierte Zuhörer die speziellen Ursachen der Klänge identifizieren können. Die intime Nähe ist ebenfalls vorhanden, bezieht sich jedoch vor allem auf den durch die Kopfhörer vermittelten Klang. Technologie, und hier historisch vor allem die analoge Elektrotechnik, war ein zentraler 21 Wedenskii 1983. 22 Vgl. http://g-turns.com.

56

Zeitgenössische Perspektiven auf ästhetische Strategien der Sonifikation

Punkt bei der Umsetzung von Sonifikationen. Die electric walks von Kubisch stehen in dieser analogen Tradition. Bei der Arbeit tripping through runtime sehen wir eine Verschränkung von analoger Technik (dem elektromagnetischen Pickup) und digitaler (dem boot process). Die angeführten Arbeiten illustrieren, dass die fetischhafte Objektfixierung auf technologische Artefakte ein attraktiver Anknüpfungspunkt sein kann, um sich Klängen zuzuwenden. Als solcher schafft sie einen starken Kontext, der beeinflusst, was wir hören.

6. Melodische Klänge, kulturelle Aspekte Melodische und musikalische Aspekte lassen sich besonders zwanglos mit Fragen der Ästhetik verknüpfen. Tonhöhe und harmonische Beziehungen in Klängen, wie sie von Pythagoras entdeckt wurden, bleiben ein wichtiger Faktor für die Sonifikation, vor allem, weil sie zu den zentralen Klangparametern gehören und im Bezug auf das absolute Wahrnehmen von Größen die einzige klangliche Option darstellen. Sie etablieren Struktur und Hierarchien und erlauben es, Klänge unmittelbar zu unterscheiden. Da diese Aspekte der Sonifikationsästhetik schon von Vickers23 besprochen wurden, wollen wir an dieser Stelle nur anhand einiger weniger Beispiele ihre Rolle erörtern. Die typische Verwendung von Auditory Icons und Earcons zeigt, wie melodische Struktur oft die nicht vorhandene akustische Referenz auszufüllen versucht und Platzhalter wird für nicht existierende Objekte. Unter Auditory Icons versteht man Klänge, welche natürlich vorkommen und von einer bestimmten Handlung begleitet bzw. von dieser verursacht werden. Ein oft verwendetes Beispiel ist der Klang zerknüllten Papiers, welches im Papierkorb landet, der bei Benutzeroberflächen oft das Löschen einer Datei repräsentiert. Im Gegensatz dazu sind Earcons akustische Platzhalter für Handlungen, welche keine natürlichen Begleitgeräusche und damit an sich keine klanglichen Bezugspunkte haben. In den meisten Fällen zeigen Earcons harmonische bzw. melodische Strukturen. Das Fehlen einer natürlichen Klangreferenz wird kompensiert durch eine melodische Struktur. In der Interaktion mit dem Computer begegnen einem solche Klänge typischerweise beim Aus- oder Einloggen. Obwohl melodische Ansätze bei Earcons weit verbreitet sind, sind sie nicht die einzige Möglichkeit der Klanggestaltung.24 Während harmonische und melodische Strukturen mehr mit der akustischen Gestaltbildung und Wahrnehmung verknüpft sind, möchten wir uns mit den musikalischen 23 Vgl. Vickers 2005 und Vickers 2006. 24 Für eine ausführliche Diskussion vgl. den Beitrag von David Oswald in diesem Band.

Florian Grond und Thomas Hermann

57

Klängen hier vor allem auf strukturelle Ähnlichkeiten der Sonifikation zu Musik und Komposition beziehen. Ein Bereich, in dem das besonders deutlich wird, sind die zahlreichen Sonifikationen der DNS.25 Es stellt sich die Frage, wieso gerade dieser Datentyp sowohl für Künstler als auch für Wissenschaftler so interessant ist, wenn sie sich der Sonifikation zuwenden. Eine Antwort findet sich im Buch Gödel Escher Bach, in dem der Prozess des Lesens und des Übersetzens der DNS-Sequenz mit der musikalischen Form des Kanons in Verbindung gebracht wird.26 Die Idee hierbei ist, dass Klang, der als Sequenz notiert in der Zeit abgespielt wird, viele verschiedene Querverweise auf sich selbst hervorbringt. Als Konsequenz wird etwas emergent, das über den einzelnen Ton der Sequenz weit hinausreicht. Auf eine ähnliche Weise ergibt die Übersetzung von DNS über RNS in Aminosäurensequenzen ein Makromolekül mit einer Funktionalität die jene ihrer konstituierenden Einheiten weit übertrifft. Sonifikation dieser Datentypen muss nun die Information einer zeitlichen Sequenz so in Klänge abbilden, dass ein ausgewogenes Verhältnis von Bezügen innerhalb der Sonifikation entsteht. Diese Aufgabe kann mit den Herausforderung kompositorischer Arbeit verglichen werden. Die kulturelle Dimension der Musik ist ebenfalls ein wichtiger Faktor für die Sonifikation, wie beispielsweise die Arbeit Antarktika27 von Frank Halbig aufzeigt. Antarktika ist die Sonifikation von Daten aus Eiskernbohrdaten, die aus dem antarktischen Eisschild stammen. Dabei werden die Daten in Noten übersetzt, welche strikt einem Satz von Regeln folgen, die zuvor sorgfältig nach klanglichen Kriterien ausgewählt wurden. Die daraus entstandene Partitur wurde 2006 durch das Helios String Quartet interpretiert und uraufgeführt. Während der Aufführung zeigt Antarktika zusätzlich eine Montage aus found footage-Material von Antarktis-Expeditionen. Die visuelle Dimension der Arbeit hat einen ausgesprochenen Dokumentationscharakter, der im Kontrast zur Rezeption der Aufführung eines Streichquartetts steht. Die kulturellen Faktoren der Dokumentarfilmelemente und die Tradition der musikalischen Aufführungspraxis lassen den Zuhörer zwischen wissenschaftlichen und musikalischen Erwartungen oszillieren. Diese beiden Pole definieren gemeinsam den Raum der Bezüge und beeinflussen damit die Bedeutung, die der Klang der Sonifikation für den Zuhörer gewinnt.

25 Interessante kompositorische Beispiele finden sich etwa bei Gena 1995; einen Überblick über wissenschaftliche DNS-Sonifikation gibt Garcia-Ruiz 2006. 26 Vgl. Hofstadter 1980. 27 Vgl. http://www.antarktika.at.

58

Zeitgenössische Perspektiven auf ästhetische Strategien der Sonifikation

7. Vertraute Klänge Die Vertrautheit eines Klangs scheint zunächst einmal ein vages Konzept zu sein. Im Bezug auf Sonifikation ist gemeint, dass uns gewisse Klänge auch dann als vertraut erscheinen können, wenn wir sie als solche zuvor noch nicht gehört haben. Wenn wir diese vertrauten Klänge zum ersten Mal hören, können wir sie als etwas Neues schätzen, was jedoch trotzdem spezifisch ist und aus einer noch zu entdeckenden Quelle stammt. Das überzeugendste Beispiel vertrauter Klänge kommt in der Sonifikationsmethode der Audifikation zum Einsatz, und zwar dann, wenn ihr ein spezielles, noch zu erörterndes Datensubstrat zugrunde liegt. Das Verfahren der Audifikation ist die direkteste Umwandlung von Datenreihen in Klang: die Datensequenz wird dabei in einen Speicher geladen und direkt nach der Digital-Analog-Wandlung über Lautsprecher als Schalldruck wiedergegeben. Das Verändern der Abspielgeschwindigkeit sowie der Einsatz von Filtern bieten die wichtigste Interventionsmöglichkeit, um den Klang zu manipulieren. Das ist in der Tat oft notwendig, da viele gemessene Prozesse auf einer Zeitskala stattfinden, die zu keinem für den Menschen wahrnehmbaren Klang führen würden. Diese direkte Umwandlung von Daten in Klang ist vor allem dann eine gute Wahl, wenn die Ausgangsdaten drei Eigenschaften besitzen: erstens müssen sie eine Dimension beinhalten, die als Zeit interpretiert werden kann; zweitens sollte die zeitliche Auflösung hoch genug sein, um die zugrundeliegende Dynamik gut abzubilden. Wenn beide Vorraussetzungen erfüllt sind, dann können Variationen in den Daten, wie zum Beispiel Oszillationen und transiente dynamische Eigenschaften im Klang der Sonifikation wiedererkannt werden. Drittens klingt das Ergebnis vertraut im oben angeführten Sinne, wenn die der Sonifikation zugrundeliegenden Daten physikalischen Ursprungs sind, d. h. wenn diese einen deterministischen dynamischen Prozess repräsentieren. In der Tat können in diesem Fall die Daten aufzeichnenden Sensoren als Mikrophone gedacht werden, die auch außerhalb des hörbaren Bereichs sensitiv sind. Dies ist der Grund für die starke indexikalische Qualität der resultierenden Sonifikation. Ist der Prozess jedoch stochastisch, wie etwa bei Börsendaten, dann klingt die resultierende Audifikation wie Rauschen, ein bekanntes, jedoch nicht spezifisches Geräusch. Überzeugende Beispiele solcher vertrauten Klänge finden sich in den Audifikationen von Erdbeben.28 Erdbeben sind normalerweise unhörbare Ereignisse, abgesehen vom Geräusch der Zerstörung, die es begleitet. Trotz des schockierenden Ereignisses sind die physikalischen Prozesse zu langsam als dass man sie hören könnte. Die Audifikation von

28 Vgl. Dombois 2002.

Florian Grond und Thomas Hermann

59

Erdbeben übersetzt die digitalisierten Daten von Seismographen in hörbare Ereignisse, indem die Abspielgeschwindigkeit um einen bestimmten Faktor (1000 oder mehr) erhöht wird. Interessanterweise wird auf diese Weise die ganze Dynamik des Erdbebens wahrnehmbar, wobei unterschiedliche Wiedergabegeschwindigkeiten zu unterschiedlichen akustischen Gestalten führen. Langsameres Abspielen etwa lässt die Struktur des Einzelereignisses zu Beginn des Erdstoßes hervortreten. Am Anfang hört man deutlich etwas, das von der Amplitudenhüllkurve her einem Anschlag entspricht und somit auf die Kategorien aus der Einleitung verweist. Schnelleres Abspielen staucht den ganzen Prozess zusammen: man kann die Abfolge der Ereignisse und seine Beziehung zu den Nachbeben, die an Echos erinnern, gut nachvollziehen. Eine künstlerische Arbeit, in welcher sich diese Aspekte wiederfinden, bildet die Erdbebeninstallation Circum Pacific 5.129 (2003) von Florian Dombois sowie die Arbeit Le Souffle de la terre30 (2004) von Lorella Abenavoli. Die Vertrautheit des Klangs ist stark verbunden mit den physikalischen Prozessen seines Ursprungs. Diese haben analoge Gegenstücke in unserer alltäglichen Hörerfahrung. Dynamische Prozesse als Ursprung von Klang können manchmal auch auf unsere Hörerfahrung technischer Artefakte verweisen, wie das Beispiel der Elektromyografie (EMG) zeigt. EMGs wurden sonifiziert, seit das Telefon als akustisches Display zur Verfügung stand. Eine charakteristische myopathische Krankheit führt zu einem abrupten Muskelspannungsabfall, der einen hörbaren Frequenzabfall nach sich zieht. Diese Veränderung produziert eine charakteristische Audioausgabe des EMGs, die an das Geräusch eines Sturzbombers erinnerte und entsprechend benannt wurde (dive bomber discharge).31 Obwohl zu hoffen ist, dass dieses Geräusch eines Tages aus unserem akustischen Gedächtnis verschwinden wird, funktioniert es gut als Referenz aufgrund der starken emotionalen Aufladung. Es erhöht dadurch die Wiedererkennbarkeit des interessierenden Phänomens im Strom der Sonifikation. Obwohl unsere akustische Wahrnehmung durch unsere evolutionäre Entwicklung in einer natürlichen Umgebung geformt wurde, ist Physikalität kein hinreichendes Kriterium, um Vertrautheit mit Klängen zu garantieren. Ein Gegenbeispiel ist die Audifikation von Elektroenzephalogrammen (EEG), in denen das sich verändernde elektrische Potential auf der Kopfoberfläche gemessen und in Klang übersetzt wird. Die Grundlage dieses oszillierenden elektrischen Potentials ist ein natürlicher physiologischer Prozess. Wir können jedoch nicht direkt die Dynamik von elektrischen Potentialen wahrnehmen, weshalb die Hörerfahrung der entsprechenden Audifikation unvertraut bleibt. Nur die 29 Vgl. Dombois 2003. 30 Vgl. Abenavoli 2004; vgl. auch Grande 2005. 31 Zu Elektromyographie und Auditory Display siehe Bonner 1995 sowie Walton 1952.

60

Zeitgenössische Perspektiven auf ästhetische Strategien der Sonifikation

Geräusche von Prozessen, mit denen wir im Alltag in Berührung kommen, können die notwendige Vertrautheit erzeugen. In diesen Fällen sind wir gewohnt, kleinste Unterschiede korrekt zu interpretieren, da diese nach unserer Erfahrung konsistent mit ihrem Ursprung verbunden sind. Die Ableitung einer ähnlich konsistenten Verknüpfung von Daten mit Klang war die Motivation für die Entwicklung der modellbasierten Sonifikation durch den zweiten Autor dieses Aufsatzes.32 Diese Herangehensweise stellt verschiedene Methoden zur Verfügung, um hochdimensionale Daten konsistent mit Klangsyntheseprozessen zu verbinden, sogar dann, wenn die Daten keine inhärent zeitliche Dimension besitzen.33 Wenn man den physikalischen Ursprung vertrauter Klänge und Geräusche aus der Perspektive der Klangsynthese betrachtet, versucht man, ähnliche Ziele durch physical modeling zu erreichen. Der Unterschied besteht darin, dass physikalische Synthesemodelle meist durch eine geringe Anzahl von Parametern kontrolliert werden. In der modellbasierten Sonifikation werden Klänge jedoch von potentiell allen Datenpunkten eines hochdimensionalen Einbettungsraumes beeinflusst, oder anders ausgedrückt: durch das Modell werden die Daten selbst zum Klangobjekt. Im Beispiel der Sturzbomberentladung beim EMG bezieht sich Vertrautheit vor allem auf die Fähigkeit, Geräusche auf etwas schon vorher Bekanntes zu beziehen. Vertrautheit meint hier vor allem die Identifikation eines Sounds mit einem Prozess und nicht nur mit einem Objekt. Der Prozess selbst kann sich in eine stabile akustische Gestalt verwandeln und daher wiedererkannt werden. Als Konsequenz beginnen alle seine Variationen Information zu tragen.

8. Multimodale Klänge In den meisten bisher erwähnten Fällen bezieht sich der Klang der Sonifikation auf die Hörerfahrung, die kulturelle Erfahrung, vertraute dynamische Prozesse oder im Fall der Wiederholung, auf sich selbst. In vielen Fällen trifft Sonifikation auf weitere Repräsentations-Modi, wie etwa auf die Visualisierung. Hierbei ist es wichtig darauf einzugehen, wie sich die beiden entsprechenden Arten der Darstellung wechselseitig beeinflussen: wie sich Klänge auf das Bild beziehen und Bilder auf den Klang. Für beide Bezugsmöglichkeiten gibt es interessante Beispiele, welche jeweils darauf hinweisen, dass unsere Wahrnehmung permanent versucht, die Sinnesströme zu integrieren und dabei die Da32 Vgl. Hermann 2004. 33 Vgl. Hermann 2002.

Florian Grond und Thomas Hermann

61

ten einer Modalität falls notwendig abweichend interpretiert. In diesen Szenarien kann der Klang nicht mehr als isolierte Modalität gedacht werden. Untersuchungen von Guttman etwa belegen, dass besonders bei rhythmischen Stimuli das Ohr bestimmt, was das Auge sieht.34 Den Einfluss des Klangs auf unsere visuelle Wahrnehmung kennen die meisten von uns jedoch vor allem als kinematografische Erfahrung, in der der Filmton überwiegend eine emotionale Funktion übernimmt. Filmsoundtracks beeinflussen unsere Grundstimmung lange bevor der visuelle Teil der Szene uns überrascht, schockiert oder durch Lachen erleichtert.35 Es gibt zwei besonders eindrückliche Beispiele, die zeigen, wie der Sehsinn unsere Klangwahrnehmung beeinflusst. Die erste ist der nach dem Autor der Publikation Hearing lips and seeing voices benannte ›McGurk-Effekt‹36: bei diesem Effekt verändert der visuelle Stimulus einer Lippenbewegungen der Silbe (ta), was wir hören, wenn unser Gehirn widersprüchliche akustische Information verarbeiten muss, zum Beispiel gleichzeitig die mit geschlossenem Vokal beginnende Silbe (ba). Die meisten Versuchspersonen meinen dann, eine Mischung aus beiden (ga) gehört zu haben. Das zweite Beispiel stammt aus dem Bereich der Filmsoundtracks: Die Stimmen eines Dialogs werden oft über den Center-Lautsprecher wiedergegeben, auch dann, wenn die sprechende Person sich nicht in der Mitte des Bildes befindet. Diese Diskrepanz stört aber keineswegs, da die Stimme in der Wahrnehmung des Zuhörers/Zuschauers korrekt ihrer Quelle im Bild zugeordnet wird. Beide Beispiele zeigen, wie stark auditive und visuelle Erfahrungen miteinander gekoppelt sind. Zusammen bilden sie mehr als die Summe ihrer Teile. Im Fall von Ton und Bild versucht der Zuhörer/Zuschauer unentwegt, im Bild einen Grund für den Klang zu finden oder falls notwendig zu konstruieren. Bei künstlerischen audiovisuellen Arbeiten stellt sich immer die Frage, ob man mit den beiden Medien der Darstellung kontrastierend oder illustrierend arbeiten soll.37 Starke Spannungen zwischen diesen beiden Polen der Gestaltung finden sich in diversen audiovisuellen Installationen, wobei einige, wie die beiden folgenden, Sonifikationselemente besitzen. Brilliant Noise (2006) von semiconductor ist ein zeitgenössisches Werk, das mit der Sonifikation von Videobildern in einer multimedialen Installation arbeitet. Der Klang besteht dabei aus Radiowellen, wie sie von der Sonne ausgestrahlt werden und die wiederum durch ausgewählte, aus dem Videobildmaterial der Sonne gewonnene Parameter modifiziert werden. Obwohl sowohl Dynamik also auch das Klangmaterial dem Rezipienten

34 Vgl. Guttman 2005. 35 Diese Funktion sowie weitere Zusammenhänge zwischen Ton und Bild wurden ausgiebig durch Michel Chion 2008 und Barbara Flückiger 2001untersucht. 36 Vgl. McGurk 1976. 37 Vgl. Beller 2011.

62

Zeitgenössische Perspektiven auf ästhetische Strategien der Sonifikation

zunächst unbekannt sind, ergibt sich durch den algorithmischen Einfluss des Bildes auf den Klang ein abwechselnd paralleler bzw. kontrapunktischer Zusammenhang. Die Installation Intermittent38 (2006), welche der erste Autor dieses Beitrags zusammen mit Claudia Robles entwickelte, ist ein audiovisueller Loop, der in Echtzeit durch die Ergebnisse eines dynamischen Prozesses editiert wird, der als logistische Abbildung bekannt ist. Der Rhythmus aus diesem Prozess ist wechselhaft, was einem unregelmäßigen Umschlagen zwischen rhythmischen und chaotischen Oszillationen entspricht. Obwohl Ton- und Bildspur der Installation aus verschiedenen Quellen stammen, sind sie beide dem intermittenten Verhalten unterworfen. Der Betrachter empfindet daher unausweichlich eine starke, sich wechselseitig illustrierende Verbindung der beiden Modi und versucht wiederholt, den Ursprung des Tons im bewegten Bild zu finden, obwohl sich beide inhaltlich (und hier findet sich das kontrapunktische Element wieder) nicht aufeinander beziehen. Beim Erstellen audiovisueller Inhalte ist es schwierig, beiden Modi eine gleichwertige Präsenz zu geben. Das gilt gemeinhin als besondere Herausforderung während des Schaffensprozesses. Im Fall der Sonifikation in multimedialen Arbeiten eröffnet das Bild einen zusätzlichen Referenzrahmen für den Klang. Dieser zusätzliche Kontext erlaubt mehr Kontrolle darüber, worauf der Klang verweist und welche Zusammenhänge er erschließt, weil der Rezipient sich bei der Suche nach Ursachen für den gehörten Klang automatisch auf andere Modalitäten und hierbei meistens auf das bewegte Bild bezieht. Diese multiplen Kontexte können jedoch auch, wie beispielhaft gezeigt wurde, zu unerwarteten Wechselwirkungen führen.

9. Vokale Klänge Obwohl Sonifikation in der frühen Definition durch Kramer zum Zwecke der Abgrenzung von akustischen Dialogsystemen als nicht-sprachlicher, informationsvermittelnder Klang definiert wurde, hat die Anziehungskraft der menschlichen Stimme sowohl im Auditory Display als auch in der Sonifikation selbst immer noch ihren festen Platz. Ein interessanter historischer Verweis zur Stimme in einer überprüfenden Funktion findet sich bei Worrall, der auf die Tradition des auditing, der Buchprüfung – oder heute Revision – hinweist.39 In diesem Zusammenhang gab es die Praxis, aus den zu vergleichenden Aufzeichnungen simultan durch zwei Personen vorle38 Grond 2006. 39 Vgl. Worrall 2009.

Florian Grond und Thomas Hermann

63

sen zu lassen. Der Rezipient, der des Lesens nicht mächtig sein musste, konnte dann aufgrund gehörter Differenzen zwischen den beiden akustischen Informationsströmen die Richtigkeit der Einträge oder etwa auch Auslassungen feststellen. Wer heute Sprache im Bereich des Auditory Display betrachtet, findet vor allem Textto-speech engines als Screenreader für blinde Computernutzer. Blinde verwenden akustische Schnittstellen mit einer erhöhten Abspielgeschwindigkeit, die es sehenden Computernutzern oft nur schwer erlaubt, zu folgen. Ein ähnliches Konzept wird bei den sog. Spearcons verfolgt. Spearcons versuchen, eine Brücke zu schlagen zwischen der Spezifizität von Auditory Icons und der generellen Anwendbarkeit von Earcons, indem sie gesprochene Sprache schnell abspielen und leicht modifizieren – eine Strategie, die vor allem im Kontext der Menüführung erprobt wurde.40 Spearcons haben den Vorteil, dass sie eine strukturelle Ähnlichkeit zwischen ähnlichen Menüeinträgen besitzen, wie z. B. speichern und speichern unter. Spearcons kommunizieren daher sowohl auf der Bedeutungsebene des Sprachlichen als auch auf der des Akustischen. Der Klang einer Sonifikation als Informationsträger steht in direkter Konkurrenz um unsere Aufmerksamkeit zu Text-to-speech im Auditory Display. Dies rührt daher, dass unsere Aufmerksamkeit sich sofort vom Klang der Sonifikation ab- und der Sprache zuwendet. Diese ausgeprägte Attraktivität der menschlichen Sprache kann jedoch für die Sonifikation genutzt werden. Sie benutzt dabei die Tatsache, dass unsere kognitiven Fähigkeiten darauf abgestimmt sind, sprachliche Äußerungen zu registrieren und kleinste Änderungen zum Beispiel in der Prosodie zu unterscheiden. Vokale als wichtiger Teil der menschlichen Sprache sind zusätzlich für die Klangsynhese einer Sonifikation relativ gut zugänglich. Um die fünf Grundvokale (a-e-i-o-u) zu synthetisieren, genügen zwei Formanten-Filter mit charakteristischen Zentrumsfrequenzen, Verstärkungskoeffizient und Filterbandbreite. Dies eröffnet den Zugang zu einem Parameterraum der Klangfarbe, der sich orthogonal zu Tonhöhe und Lautstärke verhält. Für das Sounddesign ergibt dies einen kontinuierlichen Gestaltungsraum, der durch Formantensynthese einfach zugänglich wird. Im Folgenden möchten wir auf einige Sonifikationsarbeiten hinweisen, die auf Vokalsynthese basieren. Als ein frühes Beispiel explorierte Cassidy mit vokalbasierter Sonifikation Möglichkeiten, um die Diagnose von Zellkulturen zu unterstützen.41 Vokal basierte Sonifikation wurde zudem intensiv von Hermann für die Vertonung von EEG-Signalen herangezogen.42 Gerade für diesen mehrkanaligen Datentyp mit all seinen charakteristischen Transienten kommt diese Art der Sonifikation mit ihrer Ähnlichkeit zur menschlichen 40 Vgl. Walker 2006. 41 Vgl. Cassidy 2004. 42 Vgl. Hermann 2006.

64

Zeitgenössische Perspektiven auf ästhetische Strategien der Sonifikation

Artikulation besonders gut zur Anwendung. Dabei werden spezifische Merkmale aus den Daten extrahiert und danach selektiv auf die vokalen Klangparameter abgebildet. Dadurch generieren sie hörbare akustische Gestalten, die mit den Eigenschaften der hochdimensionalen Daten korrespondieren. Realisiert wird das durch die Veränderung von Formanten, die entweder weißes Rauschen oder periodische Impulse filtern. Der Klang variiert im Beispiel von Hermann zwischen Vokalen sowie den Klangattributen stimmhaft oder stimmlos und ergibt charakteristische Zusammensetzungen die sich etwa als ›eg-wai-ooo‹ notieren lassen. Da vokale Sonifikationen durch die menschliche Stimme leicht wiedergeben werden können, eröffnen diese auch die Möglichkeit, durch einen vokalen Ausdruck spezifische Elemente der Sonifikation zu deuten bzw. in einem übertragenden Sinn über die Sonifikation zu sprechen. Warum sollten sprachbezogene Klänge eine eigene Kategorie als ästhetische Strategie bilden, unabhängig davon, dass sie einen einfachen Zugang zu einer kontrollierbaren Klangfarbe eröffnen? Aus der Perspektive klanglicher Bezugspunkte ist uns die Antwort näher als in allen anderen Fällen: vokale Klänge verweisen auf uns selbst und unsere Fähigkeit, uns sprachlich auszudrücken. Daher ist eine Vokalsonifikation weniger ein externes tontechnisches Artefakt, als vielmehr die Darstellung die ihren Ursprung als Resonanz mit der uns eigenen Disposition zum stimmhaft sprachlichen Ausdruck findet.

10. Fazit Klänge können, wie wir erörtert haben, auf viele verschiedene Arten wahrgenommen werden, indem sie auf verschiedene Objekte, Handlungen, Prozesse oder kulturelle Erfahrungen verweisen. Diese Tatsache stellt eine große Herausforderung für die Sonifikation dar, die in vielen Fällen Phänomene abbildet, die keine gegebenen klanglichen Referenzen aufweisen. Dafür bietet Klang kaum ausschließlich abstrakte Optionen der Darstellung an. Die Natur dieser Herausforderung lässt sich besonders gut für die vokale Sonifikation durch ein Zitat von Mladen Dolar illustrieren. Dieser erzählt die von Plutarch überlieferte Geschichte eines Mannes, welcher eine Nachtigall rupft und, nachdem er kaum etwas zum Essen vorfindet, ausruft: »Du bist bloß eine Stimme und sonst nichts!«43 Die Nachtigall erscheint nur als eine Stimme, als Klang ohne substantiellen materiellen Ursprung. Ähnlich kann in vokalen Sonifikationen die Stimme selbst (und nicht allein ihre Nachricht) in das Zentrum unserer Aufmerksamkeit rücken. Das Zupfen 43 »Plutarch tells the story of a man who plucked a nightingale and finding but little to eat exclaimed: ›You are just a voice and nothing more.‹« Vgl. Dolar 2009, 3.

Florian Grond und Thomas Hermann

65

an den Federn der Nachtigall führt zu keiner Einsicht, ebenso wie das Zupfen einer Saite unter Umständen ausschließlich Musik macht – und sonst nichts. Ähnlich können uns Wiederholungen dazu verleiten, nur Rhythmus zu hören und nicht sorgsam Ähnlichkeiten und Differenzen zu evaluieren. Das gleiche gilt für unsere Faszination für Technik, welche selbst so attraktiv sein kann, dass wir nicht mehr zum Informationsgehalt des Klangs durchdringen. Eine funktionierende Sonifikation ist daher der erfolgreiche Versuch, eine Nachricht zu gestalten, die über ihr Medium hinausweist. Zur Illustration dieser Feststellung mag eine visuelle Metapher hilfreich sein: In der Astronomie existiert das Konzept der Gravitationslinsen. Ein Lichtstrahl eines versteckten Sterns kann durch das Gravitationsfeld des Sterns, der ihn verdeckt, abgelenkt werden, so dass das gekrümmte Licht seinen Weg zum Beobachter findet. Mithilfe der Schwerkraft nimmt der Beobachter etwas wahr, das sonst unerkannt bleiben würde. Der sichtbare Stern kann jedoch sowohl Hilfe als auch eine Falle sein. Wenn die Schwerkraft zu stark ist, dann wird das Licht ebenfalls stärker angezogen und kann nicht entkommen, so dass der versteckte Stern dem Betrachter verborgen bleibt. In einem analogen Sinne können all die unterschiedlichen Aspekte der Sonifikation, die in diesem Beitrag erörtert wurden, selbst zu Objekten der Referenz werden. Diese können, ähnlich der Schwerkraft, so attraktiv sein, dass sie die Information, die der Klang trägt, zurückhalten. Wir hoffen, in diesem Beitrag gezeigt zu haben, dass ästhetische Überlegungen zur Sonifikation sich nicht auf Kriterien aus nur einem Wissensgebiet reduzieren lassen, sondern dass es sich hierbei um ein ganzes Bündel verschiedenster, sich wechselseitig beeinflussender Aspekte handelt. Der Blick auf die Geschichte der Sonifikation kann hier helfen, das Bewusstsein für diese Zusammenhänge zu schärfen. Die diagnostischen Methoden von Auenbrugger und Laënnec verweisen auf klangimmanente Aspekte wie Wiederholung und Interaktion. Weiter zeigt das Beispiel Galileis, dass Klang auch schon vor dem digitalen Zeitalter als Medium zur Erforschung und Darstellung wissenschaftlicher Zusammenhänge Verwendung fand und somit als Darstellungsform nicht in jedem Fall von technologischen Grundlagen abhängt. Im Gegensatz dazu finden wir seit dem Zeitalter der Erfindung des Telefons, wie neue Technologien neue wissenschaftliche Methoden der Darstellung hervorbringen, aber auch wie neue Technologien und ihre Versprechungen Einfluss nehmen auf die Argumentation rund um diese neuen Darstellungsweisen. Schließlich zeigen die historischen Beispiele aus dem Bereich der konzeptionellen Sonifikation, das Klang als gedankliches Vehikel auch einer sprachlichen Repräsentation und Reflexion bedarf und bisweilen sogar in diesen Sphären verbleibt. Die Vielfalt der Fallbeispiele aus den Wissenschaften und den Künsten ergeben einen reichhaltigen Materialfundus, aus dem sich ästhetische Kriterien ableiten lassen, die für eine aktuelle und zukünftige Sonifikationsforschung nützlich sind und zwar insofern, als dass sie über das Datensubstrat und die Sonifikationsmethode hinaus Richtlinien

66

Zeitgenössische Perspektiven auf ästhetische Strategien der Sonifikation

zur Verfügung stellen, die beim Entwickeln erfolgreicher Sonifikationen von Bedeutung sind.

Danksagung Einige historische Aspekte dieses Beitrags stammen aus dem Kapitel Sonifikation, welches der erste Autor gemeinsam mit Theresa Schubert-Minski erarbeitete.44 Die Autoren möchten sich auch bei allen Teilnehmern des Symposiums science by ear in Graz 2010 für inspirierende Diskussionen bedanken. Wichtige zusammenfassende Anregungen verdankt der erste Autor auch der Teilnahme am sonifications symposium, organisiert von locus sonus im März 2010 in Aix en Provence. Wir bedanken uns bei Axel Volmar und Andi Schoon für konstruktive Anmerkungen zum Text.

11. Quellen Abenavoli, Lorella (2004): Le souffle de la terre, http://www.fondationlanglois.org/html/e/page.php?NumPage=268, 1.08.2011. Baier, Gerold / Hermann, Thomas (2008): Temporal Perspective from Auditory Perception, in: Vrobel, Susie / Rössler, Otto E. / Marks-Tarlow, Terry (Hg.), Simultaneity: Temporal Structures and Observer Perspectives, World Scientific, Singapore, 348363. Beller, Hans (2011): Between the Poles of Mickey Mousing and Counterpoint, in: Daniels, Dieter / Naumann, Sandra (Hg.), Audiovisuology 2 Essays, vol. 1, Köln, 102-119. Bonner, Francis J. / Devleschoward, Allen B. (1995): AAEM Minimonograph #45: The Early Development of Electromyography, in: MUSCLE 81 NERVE, 18. 825-833. Bovermann, Till (2009): Tangible auditory interfaces: Combining auditory displays and tangible interfaces. Universität Bielefeld (Diss.). Campo, Alberto de (2007): Toward a data sonification design space map, in: Scavone Gary P. (Hg.), Proceedings of the 13th International Conference on Auditory Display, Schulich School of Music, McGill University, Montreal, Canada, 342-347.

44 Vgl. Grond 2009.

Florian Grond und Thomas Hermann

67

Cassidy, Ryan J. et al.(2004): Auditory Display of Hyperspectral Colon Tissue Images Using Vocal Synthesis Models, in: Barrass, Stephen / Vickers, Paul (Hg.), Proceedings of the 10th International Conference on Auditory Display (ICAD2004), Sydney, Australia. Chion, Michel (2008): La phrase audio visuelle / Die audiovisuelle Phrasierung, in: Meyer, Petra M. (Hg.), Acoustic Turn, München, 541-562. Dolar, Mladen (2009): A Voice and Nothing More, MIT Press, 3. Dombois, Florian (2002): Auditory seismology on free oscillations, focal mechanisms, explosions and synthetic seismograms, in: Nakatsu, Ryohei / Kawahara, Hideki (Hg.), Proceedings of the 8th International Conference on Auditory Display, Advanced Telecommunications Research Institute, Kyoto, Japan, 227-230. Dombois, Florian (2003): Circum Pacific 5.1, http://www.see-this-sound.at/werke/508, 1.08.2011. Dombois, Florian (2008): Sonifikation. Ein Plädoyer, dem naturwissenschaftlichen Verfahren eine kulturhistorische Einschätzung zukommen zu lassen, in: Meyer, Petra Maria (Hg.), Acoustic Turn, München, 91-100. Drake, Stillman (1980): Galileo, New York. Flückiger, Barbara (2001): Sound Design. Die virtuelle Klangwelt des Films, Marburg. Garcia-Ruiz, Miguel A., Gutierrez-Pulido, Jorge R. (2006): An overview of auditory display to assist comprehension of molecular information, in: Interacting with Computers 18(4), 853-868. Gena, Peter / Strom, Charles (1995): Musical Synthesis of DNA Sequences, in: XI Colloquio di Informatica Musicale, Univerista di Bologna, 203-204. Grande, John. K. (2005): Le Souffle de la Terre, Lorella Abenavoli, in: Le Bulletin 29, Québec, Canada: La Chambre Blanche 14-17. Grond, Florian (2006): Intermittent, http://www.grond.at/html/projects/intermittent/intermittent.htm, 1.08.2011. Grond, Florian / Hermann, Thomas (2011): Aesthetic Strategies in Sonification, AI & SOCIETY publiziert online: 30 August 2011. http://dx.doi.org/10.1007/s00146-011-0341-7 Grond, Florian / Schubert-Minski, Theresa (2009): Sonification, Scientific Method and Artistic Practice, in: Daniels, Dieter / Naumann, Sandra (Hg.), Audiovisuology Compendium, Köln, 285-295. Guttman, Sharon E. / Gilroy, Lee A. / Blake, Randolph (2005): Hearing what the eyes see, in: Psychological Science 16(3), 228-235. Hermann, Thomas (2002): Sonification for exploratory data analysis. Universität Bielefeld (Diss.).

68

Zeitgenössische Perspektiven auf ästhetische Strategien der Sonifikation

Hermann, Thomas (2008): Taxonomy and definitions for sonification and auditory display, in: Proceedings of the 14th International Conference on Auditory Display. Hermann, Thomas / Hunt, Andy (2005): An introduction to interactive sonification (guest editors’ introduction). IEEE MultiMedia 12(2), 20-24. Hermann, Thomas / Ritter, Helge (2004): Sound and meaning in auditory data display, in: Proceedings of the IEEE (Special Issue on Engineering and Music – Supervisory Control and Auditory Communication) 92(4), 730-741. Hermann, Thomas et al. (2006): Vocal sonification of pathologic EEG features, in: Stockman, Tony (Hg.), Proceedings of the 12th International Conference on Auditory Display, Department of Computer Science, Queen Mary, University of London UK, London, UK, 158-163. Hofstadter, Douglas R. (1980): Gödel, Escher, Bach, an Eternal Golden Braid, New York. Kepler, Johannes (1967): Weltharmonik. Max Caspar (Hg.), Nachdruck München. 134 Kramer, Gregory (1994): An introduction to auditory display, in: Kramer, Gregory (Hg.), Auditory Display, 1-79. Licht, Alan (2007): Sound Art, Beyond Music, Between Categories, New York. McGurk, Harry / MacDonald, John (1976): Hearing lips and seeing voices, Nature 264, 746-748. Rilke, Rainer Maria (1919): Ur-Geräusch, in: Sämtliche Werke Bd. 6, Frankfurt a. M., 1987, 1085-1093. Vickers, Paul (2005): Ars Informatica – Ars Electronica: Improving Sonification Aesthetics, in: HCI2005 Workshop on Understanding & Designing for Aesthetic Experience. Vickers, Paul / Bennett, Hogg (2006): Sonification abstraite / sonification concrète: An »aesthetic perspective space« for classifying auditory displays in the ars musica domain, in: Proceedings of the 12th International Conference on Auditory Display, London, UK, 210-216 Volmar, Axel (2007): Die Anrufung des Wissens. Eine Medienepistemologie auditorischer Displays und auditiver Wissensproduktion, in: Schröter, Jens / Thielmann, Tristan (Hg.), Display II: Digital, Navigationen: Zeitschrift für Medien- und Kulturwissenschaften, Jg. 7, Nr. 2, Marburg, 105-116. Volmar, Axel (2011): Körperklänge, Körperbilder. Auditive und visuelle Erkenntnisweisen in der Geschichte der Lungentuberkulose, in: del Valle, Victoria / Kittler, Judith / Nickenig, Annika / Siebenborn, Eva: Repräsentationsformen von Wissen. Beiträge zum XXVI. Forum Junge Romanistik in Bochum (26.-29. Mai 2010). München, 407-424. Walker, Bruce N. / Nance, Amanda / Lindsay, Jeffrey (2006): Spearcons: Speech-based earcons improve navigation performance in auditory menus, in: Stockman, Tony

Florian Grond und Thomas Hermann

69

(Hg.), Proceedings of the International Conference on Auditory Display (ICAD 2006) London, 63-68. Walton, John N. (1952): The electromyogram in myopathy: Analysis with the audiofrequency spectrometer, in: J. Neurol. Neurosurg. Psychiat. 15, 219-226. Wedenskii, Nikolai (1883): Die telephonischen Wirkungen des erregten Nerven, in: Centralblatt für die medicinischen Wissenschaften 26, 465-468. Williamson, John / Murray Smith, Rod / Hughes, Stephen (2007): Shoogle: Excitatory Multimodal Interaction on Mobile Devices, in: CHI 2007 Proceedings. Shake, Rattle & Roll: New Forms of Input & Output, San Jose, CA, USA. 121-124. Worrall, David (2009): Sonification and Information – concepts, instruments and techniques, PhD thesis, University of Canberra.

70

Zeitgenössische Perspektiven auf ästhetische Strategien der Sonifikation

Stethoskop und Telefon – akustemische Technologien des 19. Jahrhunderts Axel Volmar

[W]hile the rest of the medical world were groping in darkness over the diseases of the chest, [Auenbrugger] was enabled to illumine them by the light of his matchless discovery.1

Sonifikation und Auditory Display bilden ein vergleichsweise junges Forschungsfeld. Noch zeichnet sich nicht ab, ob und in welchem Maße es der Sonifikation gelingen wird, sich zukünftig als ernstzunehmende Praxis wissenschaftlicher Repräsentation zu etablieren. Zwar werden Sonifikationsverfahren und akustische Displays in vielen wissenschaftlichen Feldern zunehmend erprobt und punktuell auch eingesetzt, dennoch haben sie bisher weder eine allgemeine Akzeptanz noch eine weitreichende Verbreitung finden können. Ein grundlegendes Hindernis für die Diffusion von Sonifikationsverfahren scheint darin zu bestehen, dass den Hoffnungen und dem Enthusiasmus der Sonifikationsforscher die fundamentale Kritik vieler Naturwissenschaftler gegenübersteht, dass epistemische Praktiken, die auf geschulten Ohren basieren, grundsätzlich mit dem Makel der Subjektivität behaftet seien.2 Der Blick in die Geschichte der Wissenschaften zeigt jedoch, dass es in der Vergangenheit zahlreiche Fälle gegeben hat, in denen akustische Darstellungen und Hörtechniken Eingang in wissenschaftliche Forschungsprozesse gefunden haben. 1 Otis 1898, 9. 2 Vgl. hierzu den Beitrag von Alexandra Supper in diesem Band.

71

Dieser Umstand wirft die Frage auf, welche Faktoren die Verbreitung auditiver Praktiken der Erkenntnisproduktion befördern oder verhindern können. Zur Untersuchung solcher Diffusionsprozesse liegt es nahe, sich historischen Fallbeispielen zuzuwenden, die bereits über einen gewissen Zeitraum hinweg in der Praxis eingesetzt wurden und über die daher auch mehr oder weniger umfangreiche Bestände an Originalquellen und wissenschaftshistorischen Arbeiten existieren. Der folgende Beitrag rekonstruiert daher exemplarisch die Verwendung des Stethoskops und des Telefons als akustemische Technologien3 im 19. Jahrhundert. Die ersten beiden Abschnitte behandeln zunächst zwei Fallstudien aus dem Bereich der Medizin, in denen akustische Phänomene im Inneren des menschlichen Körpers zur Diagnose von Brustkrankheiten herangezogen wurden und bis heute genutzt werden: erstens die Perkussion, das schallerzeugende Abklopfen des menschlichen Körpers, und zweitens die Auskultation, das Abhorchen des Körpers mithilfe eines Hörrohrs. Obwohl bei diesen auditiven Methoden keine Daten in Klänge umgesetzt werden, stellen die medizinischen Diagnosetechniken bedeutende Stationen in der Geschichte akustischer Repräsentationen dar. So lässt sich anhand dieser Beispiele nachvollziehen, wie und wodurch Geräusche überhaupt zu Trägern bzw. zum Medium wissenschaftlicher Fakten werden können und welche Probleme mit der allgemeinen Etablierung erkenntnisgenerierender Hörtechniken verbunden waren. Die akustische Konstruktion von Krankheit, die mit der Genese und Verfeinerung der auditiven Diagnosetechniken einherging, zeigt weiterhin – und das scheint mir für eine Kulturgeschichte der Sonifikation wesentlich zu sein –, dass sich mit der bloßen Realisierung einer akustischen Darstellungsweise nicht zwingend ein epistemischer Nutzen einstellt. Verkürzt gesagt heißt das: Wissen wird in vielen Fällen nicht einfach aus den Klängen herausgehört, sondern muss oftmals in mühevollen Zurichtungsprozessen zunächst in die Klänge hineingetragen werden. Ein weiterer Bereich, in dem wissenschaftliche Klänge in der zweiten Hälfte des 19. Jahrhunderts tatsächlich in einem neuen, und d. h. auch technologisch neuen Gewand erscheinen, ist das Gebiet der experimentellen Physiologie, speziell der Elektrophysiologie. Wie Florian Dombois zuerst gezeigt hat, setzte das elektrische Telefon dort bereits kurz nach dessen öffentlicher Vorstellung durch Alexander Graham Bell im Jahre 1876 eine bemerkenswerte kreative Energie frei: Als Laborinstrument kam das Telefon nicht ausschließlich bei der Untersuchung akustischer Phänomene wie etwa der gesprochenen Sprache zum Einsatz, sondern auch bei der Erforschung der Funktionsweise von

3 Ich verwende die Bezeichnung ›akustemisch‹ in einer epistemologischen Umdeutung von Steven Felds Begriff ›acoustemology‹ – hier als Sammelbegriff für epistemische Praktiken und medientechnische Dispositive, die primär akustische Darstellungen und/oder Hörtechniken zur Produktion positiver Fakten oder zur Beantwortung wissenschaftlicher Fragestellungen nutzen. Vgl. Feld 1996, 91-135.

72

Stethoskop und Telefon

Muskeln und Nerven. Diesem akustemischen Verfahren wendet sich der dritte Abschnitt des Beitrags zu. Dombois zufolge kann diese, auf dem Telefon basierende elektrophysiologische Forschung als eine der ersten Anwendungen des Ansatzes der Audifikation, der direkten Umsetzung von Signalen oder Daten in Klänge, angesehen werden.4 Daher scheint es lohnenswert, die Karriere des Telefons als akustischer Anzeiger für bioelektrische Ströme ausführlich zu verfolgen. Anders als die Praktiken der Perkussion und der Auskultation wurde das Telefon jedoch nur vereinzelt und innerhalb eines relativ begrenzten Forschungsfeldes eingesetzt. Dennoch wirft die buchstäblich ›elektro-akustische‹ Verwendung des Telefons, d. h. als akustisches Display nicht für Schallwellen, sondern für bioelektrische Ströme, einige interessante Fragen auf: Weshalb wurden in der Elektrophysiologie überhaupt elektrische Ströme in Klänge umgesetzt und nicht unmittelbar in visuelle Darstellungen? Wie lässt sich die Tatsache einschätzen, dass das Telefon bereits kurz nach seiner Erfindung von den Physiologen zur Darstellung bioelektrischer Ströme zweckentfremdet wurde? Warum schließlich konnte sich das Telefon nicht in einer ähnlichen Weise als epistemisches Werkzeug durchsetzen wie das Stethoskop in der Medizin? Anhand der vorgestellten Fallbeispiele und der Fragen, die diese evozieren, versucht der Beitrag, die Rede von dem vermeintlich in den Wissenschaften vorherrschenden Primat des Visuellen kritisch zu hinterfragen und eine differenzierte Betrachtung vorzuschlagen. Insbesondere wird dabei die These vertreten, dass sich die konkreten Auswirkungen eines solchen Primats nur schwer zu bestimmen lassen und dieses daher nicht als alleinige oder gar hinreichende Begründung für die verhältnismäßig seltene Verwendung von auditiven Verfahren der Erkenntnisproduktion gelten kann. Vielversprechender scheint es dagegen zu sein, durch die Analyse praktizierter auditiver Methoden sowohl deren Möglichkeiten als auch deren Grenzen im Rahmen naturwissenschaftlicher Forschung zu bestimmen.

1. Perkussion – späte Anerkennung für eine bahnbrechende Entdeckung Bis heute ist der Einsatz von Hörtechniken im Rahmen medizinischer Untersuchungen eine gängige und weit verbreitete Praxis. Die Geschichte dieses auditiven Zugriffs auf den menschlichen Körper reicht zurück bis in die Mitte des 18. Jahrhunderts, als der österreichische Arzt Joseph Leopold Auenbrugger (1722-1809) die Perkussion, das

4 Vgl. Dombois 2008a; Dombois 2008b, 42.

Axel Volmar

73

Beklopfen des Brustkorbs, zu einer diagnostischen Praxis entwickelte. In seiner 1761 erschienenen Abhandlung Inventum novum ex percussione thoracis humani ut signo abstrusos interni pectoris morbos detegendi5 demonstrierte Auenbrugger, dass die Schallereignisse, die durch das Anschlagen des Oberkörpers mit den geschlossenen Fingerspitzen entstehen, aufschlussreiche Informationen über den körperlichen Zustand von Patienten liefern können. Die Einleitung zu seiner Abhandlung eröffnet er mit den Worten: Ich lege dir, günstiger Leser, ein neues von mir erfundenes Zeichen vor zur Entdekkung der Brustkrankheiten. Es besteht dies im Anschlagen an den menschlichen Brustkorb, aus dessen verschiedenem Widerhall der Töne sich ein Urteil über den inneren Zustand dieser Höhle gewinnen läßt.6 Zuvor hatte Auenbrugger, der im Spanischen Hospital in Wien arbeitete, die Möglichkeiten der Perkussion über einen Zeitraum von sieben Jahren empirisch erforscht. Seine Beobachtungen, die er in der täglichen Arbeit mit seinen Patienten stetig verfeinert und zudem experimentell an Leichen überprüft hatte,7 hielt er schließlich in 14 Beobachtungen und 48 Leitsätzen auf insgesamt etwa 95 Seiten schriftlich fest. In seiner Abhandlung beschreibt Auenbrugger neben dem normalen »sonoren« Schall den »sonus altior« (heller Schall), den »sonus obscurior« (gedämpfter Schall) und den »sonus prope suffocatus« oder »sonus percussae carnis« (auch als »leerer Schenkelton« bezeichnet). Auenbrugger gibt dabei jeweils an, wie sich der Ort und die mögliche physische Ursache des Tons und damit der Krankheit selbst bestimmen lassen. Hier ein kurzes Beispiel: § 16. Ergibt die Perkussion der Brust an einer sonst sonoren Stelle einen Schenkelton, so verhalte man den Kranken, die tief eingeatmete Luft zurückzuhalten; hält in der tiefen Inspiration der Schenkelton an, so läßt sich daraus annehmen, das Krankhafte dringe in die Tiefe des Brustraumes.8 Die Abweichungen des krankheitsbedingten Klopfschalls vom gesunden führt Auenbrugger u. a. auf eine krankhafte Zu- oder Abnahme der üblichen Luft- bzw. Flüssigkeits5 Auenbrugger 1761. 6 Auenbrugger 1912. 7 Um die Abweichung des Klopfgeräuschs vom normalen Ton zu untersuchen, spritzte Auenbrugger z. B. Wasser in den Oberkörper von Leichen: »Wenn in einer Leiche die sonore Brusthöhle mit einer injizierten Flüssigkeitsmenge gefüllt wird, so wird der Ton der angefüllten Seite bis zu jener Höhe gedämpft, soweit die eingespritzte Flüssigkeit gestiegen ist.« Ebd., 17. 8 Ebd., 15.

74

Stethoskop und Telefon

menge im Körper oder auf Ausdehnungen oder Verhärtungen von Organen zurück. Im Anschluss stellt Auenbrugger eine Vielzahl unterschiedlicher Krankheiten dar, die sich mithilfe der Perkussionszeichen wesentlich sicherer diagnostizieren lassen sollen. Einige Medizinhistoriker attestieren Auenbrugger, mit dieser auditiven Methode die moderne wissenschaftliche Medizin begründet zu haben.9 Der Grund hierfür wurde nicht zuletzt darin gesehen, dass Auenbrugger das Zustandekommen der unterschiedlichen Perkussionstöne rein auf physikalische Veränderungen im Körperinneren zurückführte und sich dabei im Wesentlichen an zwei Prinzipien orientierte, die auch heute noch Gültigkeit besitzen: The principles of the Inventum Novum are two: first, that the sounds produced by percussion must be regarded simply as acoustic phænomena, and named accordingly; secondly, the sounds are to be explained by reference to corresponding physical states, that is to say, to the presence or absence of air in the part percussed.10 So überzeugend uns aber die Perkussion vor dem Hintergrund unseres heutigen Medizinverständnisses erscheinen mag, so wenig Anerkennung hatte sie unter den Zeitgenossen Auenbruggers finden können. In den Werken seiner Lehrer wurde die Methode totgeschwiegen, andere haben sie schlichtweg missverstanden oder ihr keinen besonderen Wert beigemessen. Erst Maximilian Stoll (1742-1788) führte die Perkussion in die alltägliche Spitalspraxis ein, nachdem er 1777 zum Chef des Wiener Klinikums berufen worden war. Durch die Lektüre von Stolls Vorlesungen über einige langwierige Krankheiten wurde der französische Mediziner Jean-Nicolas Corvisart (1755-1821) auf die Perkussion aufmerksam.11 Corvisart erprobte die Möglichkeiten der Methode etwa zwanzig Jahre lang, bevor er Auenbruggers Inventum Novum im Jahre 1808 in einer französischen Übersetzung veröffentlichte.12 Erst infolge dieser Wiederentdeckung und befördert durch Corvisarts umfangreiche Kommentare begann sich die Perkussion in der akademischen Ärzteschaft zu verbreiten. Wodurch lässt sich diese ›Verspätung‹ von knapp einem halben Jahrhundert erklären? Ein wesentlicher Grund dafür war Medizinhistorikern zufolge nicht der auditive Zugriff selbst, sondern eine prinzipielle Inkompatibilität der Methode mit dem herrschenden

9 Vgl. Clendening 1960, 306. 10 Gee 1883. 11 Vgl. Otis 1898, 7. Herzlichen Dank an Florian Grond für den Hinweis auf diese Quelle. 12 Corvisart 1808.

Axel Volmar

75

medizinischen Wissen des 18. Jahrhunderts.13 Noch bis in die Zeit Auenbruggers wurden Krankheiten auf der Grundlage äußerlicher Krankheitssymptome wie Fieber, fleckiger Haut, Ausfluss, etc. und subjektiver Symptome wie Übelkeit oder Schwindel definiert, die der Arzt durch Beobachtung und Befragung feststellte. Bei der Bestimmung der Krankheit zog der Arzt sog. Nosologien zu Rate, d. h. umfangreiche theoretische Klassifikationssysteme, in denen die Symptome nach dem Vorbild der Botanik organisiert waren: A ›disease‹, then, was an idea assembled from a constellation of subjective symptoms that depended on their type, sequence, severity, and rhythm. Nosologists (or those who studied diseases) sorted diseases into Classes, Orders, Genera, and Species; some systems included more than two thousand types of diseases as did that of the Montpellier professor François Boissier de Sauvages (1706-1767).14 Die nosologischen Systeme wurden jahrhundertelang an den medizinischen Fakultäten gelehrt, ohne in der Praxis empirisch überprüft worden zu sein. Nach der französischen Revolution wurde die Tragfähigkeit dieses tradierten medizinischen Wissens heftig kritisiert und durch neue Theorien, wie etwa die aus dem Bereich der Chirurgie stammende Lehre der pathologischen Anatomie, herausgefordert. Diese bezog ihr Wissen aus der akribischen Untersuchung, Zergliederung und Beschreibung der Bestandteile des Körpers mittels systematisch durchgeführter Leichenöffnungen. Autopsien waren Anfang des 19. Jahrhunderts in Paris weit verbreitet und ermöglichten es den Pionieren der pathologischen Anatomie auf diese Weise, pathologische Veränderungen im Inneren des Körpers zu studieren. Dadurch entstand eine neue medizinische Lehre, die Krankheitsbilder nicht mehr allein anhand äußerlicher Zeichen definierte, sondern primär auf der Grundlage sog. Läsionen, d. h. physischer Schädigungen von Organen oder Geweben. Der Nachteil der Autopsie als Verfahren zur Diagnose von Krankheiten war offensichtlich: Die Krankheitsbilder der pathologischen Anatomie waren zwar erheblich präziser als die der nosologischen Systeme, aber dadurch, dass Autopsien nur posthum vorgenommen werden konnten, kamen die Diagnosen für die Patienten selbst notwendig zu spät. Verständlicherweise wurde der Sinn der pathologischen Anatomie aufgrund dieser Tatsache von vielen praktischen Ärzten grundsätzlich infrage gestellt. Um Informationen über den inneren physischen Zustand von Patienten gewinnen und den Sitz von Krankheiten bestimmen zu können, begannen Kliniker wie Corvisart daher, neue Untersuchungsmethoden zu entwickeln, mit denen sie Aufschluss über den 13 Vgl. Ackerknecht 1967; Foucault 1981; Hess 1993. 14 Duffin 1998, 27.

76

Stethoskop und Telefon

inneren Zustand des lebenden Körpers gewinnen konnten. Für die Pathologen verlor die Befragung des Patienten und die Bestandsaufnahme der äußeren Symptome, die früher die Grundlage für die Bestimmung der Krankheit gebildet hatte, zunehmend an Bedeutung; an die Stelle der bloßen Beobachtung trat die physische Untersuchung des Körpers.15 Insbesondere Corvisart konzentrierte sich dabei auf die Geschichten, die der Körper selbst erzählte und warb unter seinen Kollegen und Studenten für eine éducation médicale des senses, d. h. die Ausbildung und Verfeinerung der ärztlichen Sinne, um pathologische Veränderungen des Körpers gezielt lokalisieren und identifizieren zu können. Aus diesem Grund praktizierte und empfahl Corvisart nachdrücklich die Anwendung von Körpertechniken wie die von ihm wiederentdeckte Perkussion, die Palpation (das Betasten des Körpers) und die direkte Auskultation (das Abhorchen des Körpers durch das Auflegen des Ohrs).16 Die Methode der Perkussion wurde von den Pionieren der pathologischen Anatomie insbesondere deshalb dankbar aufgenommen, weil Auenbrugger eine physikalische, und das heißt, eine objektive Untersuchungsmethode entwickelt hatte: Seine Erfindung hatte ja genau darin bestanden, die Körper seiner Patienten durch einen künstlich hervorgebrachten Testschall anzuregen und anhand der akustischen Ereignisse auf physische Veränderungen im Körperinneren zu schließen. Während diese Vorgehensweise kaum im Einklang mit dem noch im 18. Jahrhundert verbreiteten Paradigma der semiotischen Medizin stand, die Krankheiten primär durch die Auslegung äußerlicher und subjektiver Symptome bestimmte, wurde sie von den Anhängern der neuen diagnostischen Medizin für umso wertvoller befunden.17

2. Auskultation – das geschulte Ohr und das auditive Wissen der Medizin Inspiriert von seinem Lehrer Corvisart begann der Pariser Arzt René Théophile Hyacinthe Laënnec (1781-1826) das diagnostische Potential des Abhorchens genauer zu erforschen. Eigenen Angaben zufolge war Laënnec während eines Krankenbesuchs im Jahre 1816 durch Zufall darauf verfallen, einige Schreibhefte zu einer notdürftigen Hörhilfe

15 Vgl. Foucault 1981. Zum Misstrauen der Ärzte gegenüber den Aussagen der Patienten vgl. auch Lachmund 1997 und Duffin 1998. 16 Duffin 1998, 33. 17 Vgl. zur Unterscheidung dieser Paradigmen Hess 1993; den Übergang zwischen der alten und der neuen Medizin hat insb. Foucault 1981 beschrieben.

Axel Volmar

77

zusammenzurollen, um sein Ohr nicht auf die Brust einer fülligen weiblichen Patientin legen zu müssen: Im Jahre 1816 wurde ich von einer jungen Person konsultiert, die Symptome einer Herzkrankheit aufwies und bei der das Berühren und das Beklopfen wegen der Körperfülle kaum Resultate zeitigen konnten; da mir Alter und Geschlecht der Patientin das Anlegen des Ohres an die Herzgegend verboten, erinnerte ich mich an ein sehr bekanntes akustisches Phänomen: wenn man das Ohr an das Ende eines Stabes anlegt, hört man ganz genau einen Nadelstich am anderen Ende.18 Nachdem er zu seiner eigenen Überraschung laut und deutlich die Herztöne seiner Patientin hören konnte, drechselte er sich kurze Zeit später ein hölzernes Hörrohr, das ein gezieltes Abhorchen bestimmter Körperstellen ermöglichte und Laënnec ein neues Forschungsfeld bescherte: die akustische Welt des Körperinneren. Sein Hörinstrument nannte Laënnec schließlich Stethoskop (stéthoscope), was aus dem Griechischen übersetzt ›Brustbetrachter‹ bedeutet und ausdrücken sollte, dass das Hörrohr mittels des Hörsinns einen imaginären ›Blick‹ in den menschlichen Körper gewährte. Die Abhörtechnik selbst bezeichnete er unter Bezugnahme auf die bestehende Methode der direkten Auskulation als mediate Auskultation (auscultation médiate).19 Im selben Jahr war Laënnec zum Chefarzt des Pariser Necker-Krankenhauses ernannt worden. Dort unterstand ihm eine Krankenstation mit etwa einhundert Patienten, die überwiegend an Lungenkrankheiten litten. Dieser Umstand erst eröffnete Laënnec die Möglichkeit, insbesondere diese Krankheiten mittels klinischer Beobachtung eingehend zu studieren. Die Tatsache, dass Laënnec eine Spitalsposition bekleidete, bildete noch in einer zweiten Hinsicht eine entscheidende Voraussetzung für die Erforschung des auditiven Verfahrens, denn nur im abgeschlossenen und streng reglementierten sozialen Raum des Spitals ließen sich Laborbedingungen herstellen, unter denen eine auf empirischem Vorgehen gegründete medizinische Forschung überhaupt erst durchgeführt werden konnte. Laënnec begann, alle seine Patienten regelmäßig im Rahmen der täglichen Visite mit dem Hörrohr zu untersuchen und sich mit der akustischen Welt des Körpers vertraut zu machen (vgl. Abb. 1). Auf diese Weise entwickelte er, ähnlich wie Auenbrugger, Schritt für Schritt ein Vokabular für normale, abnorme und pathologische Schallereignisse. Die auditive Erforschung des Körpers war jedoch keineswegs hinreichend, um die mediate Auskultation zu einer diagnostischen Methode zu entwickeln: Denn allein durch das 18 Laënnec 1819, 7, zit. n. Foucault 1981, 177. 19 Laënnec 1819.

78

Stethoskop und Telefon

Abb. 1: Laënnec à l‘hôpital Necker ausculte un phtisique devant ses élèves, Gemälde von Théobald Chartran (1816).

Hören hätte sich nicht ermitteln lassen, welche Ursachen abnormalen oder krankheitsbedingten Geräusche tatsächlich zugrunde lagen. Dieses Wissen erschloss sich Laënnec erst durch eine konsequente Durchführung von Autopsien. Sobald Laënnec bei mehreren Patienten eine ähnliche ungewöhnliche Klangfärbung festgestellt hatte, versuchte er die physikalischen Ursache für das Zustandekommen des akustischen Phänomens nach dem Ableben eines Patientens mittels Obduktion zu ergründen. Nur der Blick in die geöffneten Körper seiner verstorbenen Patienten offenbarte Laënnec, welche Läsionen (wie z. B. Tuberkel in der Lunge) tief im Inneren des Körpers für die Entstehung bestimmter akustischer Phänomene verantwortlich waren. Bei der Entwicklung seiner auditiven Semiologie20 achtete Laënnec insbesondere darauf, dass ein Klangzeichen nur dann auftrat, wenn auch eine entsprechende Läsion vorlag (Minimierung falschen Alarms) und dass umgekehrt eine hinreichend große Läsion immer auch von einem Geräusch begleitet wurde (Maximierung der Erkennungsrate).21 20 Als medizinische Semiologie wird die Lehre von den krankhaften Veränderungen bezeichnet. 21 »In order to be useful, Laennec insisted, a sign must be specific, certain, and rigidly infallible in all cases. ›Specificity‹ means that a sign is peculiar to one condition only. If a sign is not specific, then it can occur in conditions other than the one for which it is intended to be an indicator, resulting in a false positive. Specificity was not Laennec‘s word for this priority; he preferred the words ›pathognomonique‹ and ›constans‹. Nevertheless, this concept of specificity held ab-

Axel Volmar

79

Erst wenn es Laënnec gelungen war, einen eindeutigen Zusammenhang zwischen einem charakteristischen Klangmuster und einem bestimmten Läsionstyp herzustellen, akzeptierte er das akustische Ereignis als diagnostisches Zeichen, das stellvertretend für diese Läsion stehen konnte. Ähnlich wie schon Auenbrugger lauschte auch Laënnec nicht ausschließlich passiv in den Körper hinein, sondern nutzte auch aktiv produzierte Schallereignisse zur Diagnose.22 So forderte er seine Patienten etwa dazu auf, während der Auskultation zu sprechen: Ließ sich dann eine signifikante Zunahme der Lautstärke an einer Stelle des Oberkörpers feststellen, war das für Laënnec ein sicheres Anzeichen dafür, dass ein Hohlraum in der Lunge vorhanden war – verursacht entweder durch zerstörtes Gewebe (z. B. Tuberkel) oder geweitete Atemwege. So definierte Laënnec etwa »die ›Pektoriloquie‹ als einziges sicheres pathologisches Zeichen der Lungenschwindsucht und die ›Ziegenstimme‹ als Zeichen des pleuretischen Ergusses.«23 Auch wenn diese diagnostischen Klänge menschlichen Klangkörpern entstammten und keine Produkte technischer Umwandlungen darstellten (wie etwa bei heutigen Sonifikationsverfahren), waren die akustischen Zeichen dennoch in einem gewissen Sinne ›künstlich‹ hergestellt. Denn obwohl die Klänge auf natürliche Weise im Körper verursacht wurden, waren ihre jeweiligen diagnostischen Bedeutungen konstruiert und keinesfalls selbsterklärend oder den Klängen inhärent – Laënnec musste die Referenzbeziehungen zwischen Geräuschen und Läsionen erst in einem langen und mühevollen Zuordnungsprozess stabilisieren. Nur durch diese Vorgehensweise konnte Laënnec Klangmuster, die sich durch ausgeprägte akustische Eigenschaften auszeichneten, in positive Tatsachen oder wie er es ausdrückte, in »pathognomonische Zeichen«24, transformieren. Diese neuen Zeichen, die physische Veränderungen in der Tiefe des menschlichen Körpers akustisch repräsentierten, gewährten mithilfe des Gehörs Einblicke in ein Gebiet, das den Sinnen zuvor gänzlich unzugänglich gewesen war. Die Auskultation ermöglichte dadurch erstmals eine Diagnose auf der Grundlage der pathologischen Anatomie und auf diese Weise eine Art Autopsie am lebenden Patienten. In diesem

solute control over his formulation of auscultatory semiology. He abhorred the false positive. Laennec also insisted on a certain level of sensitivity in his signs. If a sign is ›sensitive‹, then it will appear in every example of a condition regardless of how minimal the change may be. If a sign is not sensitive, there may be cases which escape detection: false negatives. Sensitivity is independent of specificity. For example a sign may be very sensitive to a certain condition and also non-specific, resulting in many false positives, but no false negatives.« Duffin 1989, 69. 22 Passive und aktive Hörverfahren kehren im 20. Jahrhundert etwa im Bereich der Sonartechnik wieder. Vgl. dazu auch den Beitrag von Shintaro Miyazaki in diesem Band. 23 Foucault 1981, 173 24 Duffin 1998, 138.

80

Stethoskop und Telefon

Zusammenhang schreibt etwa Jonathan Sterne: »Mediate auscultation was the technique whereby the dead body of pathological anatomy first came back to life.«25 Die vormals üblichen Symptome für Lungenkrankheiten – vor allem Husten, Kurzatmigkeit und Auswurf – verwarf Laënnec als völlig unbrauchbar: »Laënnec declared them totally unreliable symptoms by which to discriminate illness. They could differ in character in the same disease, and were often similar in different diseases.«26 Nach 22 Monaten intensiver Forschungsarbeit hatte Laënnec mittels Auskulation und Autopsie eine umfassende und vollständig neue Semiologie der Brustkrankheiten auf der Grundlage akustischer Zeichen erarbeitet. Die Ergebnisse seiner Studien veröffentlichte er in seiner Abhandlung De l‘auscultation médiate ou traité du diagnostic des maladies des poumons et du cœur, die im Jahr 1819 erschien. Der diagnostische Nutzen seiner Methode wurde in der Folge breit und teilweise auch kontrovers diskutiert. Dennoch wurde der traité innerhalb weniger Jahre in mehrere Sprachen übersetzt und insbesondere von den Anhängern der neuen positivistischen Medizin begrüßt, weil Krankheiten fortan unabhängig von den Befindlichkeiten der Patienten bestimmt werden konnten. Die Methode wurde daher als ein diagnostisches Hilfsmittel von hoher Präzision, Wissenschaftlichkeit und Objektivität gepriesen – und das, obwohl die Laënnec’sche Methode durchaus auch Schwächen aufwies, wie spätere Forschungen, etwa durch den Wiener Arzt Joseph von Škoda,27 zeigen. Ein Grund für den Erfolg der mediaten Auskultation war insbesondere der Umstand, dass sie erstmals die Untersuchung von Kranken auf der epistemischen Basis der pathologischen Anatomie ermöglichte. Das Herrschaftswissen der Auskultation trug zudem maßgeblich zur Professionalisierung der Ärzteschaft im 19. Jahrhundert bei, die zunehmend einen exklusiven Anspruch auf medizinische Expertise beanspruchte und in der Auskultation ein Verfahren fand, mit dem sie sich von anderen Akteuren (wie bspw. Heilern oder sog. weisen Frauen) abheben konnte.28 Auf diese Weise konnte sich die Diagnose mittels des Stethoskops allgemein verbreiten und zu einer äußerst erfolgreichen medizinischen Praxis entwickeln. Noch um 1900 feierte man die auditiven Diagnosemethoden als die großen Errungenschaften der modernen Medizin – nur kurze Zeit später wurden diese allerdings von der aufkommenden Röntgenfotografie als wichtigste diagnostische Technik verdrängt.29 Nichtsdestotrotz zählen Perkussion und Auskultation 25 Sterne 2003, 128. 26 Reiser 1978, 26. 27 Vgl. Škoda 1839. 28 So beschreibt bspw. Lachmund das 19. Jahrhundert als eine»Schlüsselperiode in der Professionsgeschichte der Medizin«, Lachmund 1997, 213. Vgl. auch Sterne 2003, 99 ff. 29 Die Veränderung der ärztlichen Wahrnehmung durch die Verbreitung der Radiologie habe ich an anderer Stelle ausführlicher dargestellt, vgl. dazu Volmar 2011.

Axel Volmar

81

noch heute zu den gängigen körperlichen Untersuchungsmethoden – Auenbruggers und Laënnecs Klassifikationen der akustischen Zeichen werden in abgeänderter Form ebenfalls bis heute verwendet.

3. Das Telefon als akustisches Display im elektrophysiologischen Labor Bei der Erforschung der bioelektrischen Aktivität in Muskeln und Nerven fanden sich Physiologen um 1850 in einer ähnlichen Situation wieder wie Jahrzehnte zuvor die Pioniere der pathologischen Anatomie. Denn zu dieser Zeit existierten nur sehr rudimentäre Methoden zur visuellen Darstellung ihrer epistemischen Objekte. Durch den Umstand, dass elektrische Ströme an sich weder sichtbar noch hörbar sind, wurde die Situation zusätzlich erschwert. Die Phänomene der Elektrizität entziehen sich dadurch einer direkten Beobachtung durch die menschlichen Sinne nahezu vollständig, weswegen man diesbezüglich auch von einem negativen Phänomenbereich sprechen könnte. Eine der wesentlichen Herausforderungen der Elektrophysiologie bildete daher die Konstruktion geeigneter Darstellungstechniken für bioelektrische Ströme – eine Aufgabe, die die Physiologen angesichts der kaum vorhandenen Möglichkeiten zur Signalverstärkung vor erhebliche Schwierigkeiten stellte.30

Abb. 2: Stromprüfender Froschschenkel nach Du Bois-Reymond.

Ein Messinstrument, das in der elektrophysiologischen Forschung des 19. Jahrhunderts weite Verbreitung gefunden hatte, war der sog. stromprüfende Muskel. Dieser bestand aus einem sezierten und isolierten Froschschenkel, der die Existenz schwacher elektrischer Ströme in Form von Zuckungen anzeigen konnte. Zu diesem Zweck wurde der freigelegte Nerv des Schenkels auf einen anderen Muskel, den man gerade beobachtete, aufgelegt (vgl. Abb. 2).

30 Vgl. Lenoir 1986.

82

Stethoskop und Telefon

Physiologen waren ausgebildete Mediziner, weshalb die meisten von ihnen auch mit der Technik der mediatisierten Auskultation vertraut waren. Vor diesem Hintergrund betrachtet vermag es daher kaum zu überraschen, dass auch das Stethoskop bei elektrophysiologischen Experimenten zum Einsatz kam, v. a. um periodische Kontraktionen wie z. B. den sog. Muskelton zu beobachten.31 Zu diesem Zweck wurde das Stethoskop direkt auf Muskelpräparate aufgesetzt. Von diesem Punkt war es nur ein kleiner Schritt bis zur Idee, auch die bioelektrischen Ströme selbst hörbar zu machen und dafür das Telefon als elektro-akustischen Wandler zu verwenden. Der deutsche Physiologe Emil Heinrich Du Bois-Reymond (1818-1896), der neben Johannes Müller gemeinhin als Vater der Elektrophysiologie gilt, demonstrierte seinen Kollegen bereits im Jahr 1877 mehrere Versuche mithilfe des gerade erworbenen Telefons der Firma Bell. Du Bois-Reymond stellte in diesem Zusammenhang zunächst einige sprachphysiologische und akustische Untersuchungen vor. Im Anschluss an diese eröffnete jedoch ein ungewöhnliches, fast bizarr anmutendes Experiment den Möglichkeitsraum für die Verwendung des Telefons als Instrument zur akustischen Repräsentation elektrischer Ströme. Du Bois-Reymond hatte das Telefon direkt mit einem Froschschenkel-Präparat verbunden und den ›stromprüfenden Muskel‹ vermittels seiner eigenen Stimme zu erregen versucht. Dadurch erzeugte er eine geradezu animistische Situation: Es gelingt nun leicht, auch durch die Ströme des Telephons Zuckung zu erregen. [So] geräth der Schenkel in Zuckungen, sobald man in das Telephon A hineinspricht, -singt, -pfeift, oder auch nur dessen Trichter etwas kräftig auf den Tisch aufsetzt. Dabei zeigt sich, dass der Nerv für gewisse Laute empfindlicher ist, als für andere. Ruft man ihm zu: Zucke! so zuckt der Schenkel; auf das erste i in: Liege still! reagirt er nicht. Die Klänge mit tieferen charakteristischen Obertönen sind also wirksamer, als die mit höheren [...].32 Während Du Bois-Reymond das Telefon allerdings lediglich testweise dazu verwendet hatte, um Ströme im Froschgalvanoskop zu induzieren, unternahmen insbesondere dessen Schüler Ludimar Hermann (1838-1914) und Julius Bernstein (1839-1917) weitere Versuchsreihen, in denen sie das Telefon in entgegengesetzter Richtung als akustisches Galvanoskop einsetzten.33 So begann Hermann zunächst, »die Empfindlichkeit des Telephons und des stromprüfenden Froschnerven für schwache Inductionsströme zu

31 Vgl. insbesondere Helmholtz 1864; Bernstein 1875, 192, 194. 32 Du Bois-Reymond 1877, 576. 33 Eine solche Vewendungsmöglichkeit des Telefons hatten zuvor bereits d‘Arsonval 1878 und Hartmann 1878 hingewiesen. Vgl. auch Dombois 2008a; 2008b.

Axel Volmar

83

vergleichen«.34 Bernstein wiederum bediente sich des Telefons, um die Zuverlässigkeit seines akustischen Stromunterbrechers zu testen – ein Instrument, das Bernstein dazu entworfen hatte, um Muskelpräparate mit schnell aufeinander folgenden elektrischen Stimuli erregen zu können. Und tatsächlich »hörte man im entfernten Zimmer den Ton des Unterbrechers beim Anlegen des Telephons an das Ohr in musikalischer Reinheit«.35 Im selben Jahr diskutierte der russische Physiologe Iwan Tarchanow (1846-1908) die

Abb. 3: Elektrophysiologische Experimentalanordnung nach Wedensky mit stromprüfendem Froschschenkel und eingeschaltetem Telefon (T).

Klänge von elektrischen Strömen verschiedener Muskel- und Nervenpräparate, die er mittels des Telefons hörbar gemacht hatte. Der Titel seines Artikels Das Telephon als Anzeiger der Nerven- und Muskelströme beim Menschen und den Thieren36 zeigt deutlich, dass eine Anzeige nicht zwangsläufig an das Auge gerichtet sein muss. Obwohl mit dem Begriff des Displays fast automatisch visuelle Repräsentationen assoziiert werden, sind diese prinzipiell neutral gegenüber spezifischen Sinnesmodalitäten.37 Im Jahre 1881 führte Bernstein eine neue Versuchsreihe mit Telefonen von Siemens & Halske durch, die wesentlich sensibler als die zuvor verwendeten Apparate waren und die dadurch auch die Erzeugung neuer bioelektrischer Klangphänomene ermöglichten. So habe Bernstein bei der Erregung von sezierten Froschmuskeln »ein deutliches

34 Hermann 1878, 505. 35 Bernstein 1878, 123. 36 Tarchanow 1878. 37 Zur Geschichte akustischer Displays vgl. auch Volmar 2007.

84

Stethoskop und Telefon

Knattern«38 gehört und, nachdem er in einem Kaninchenschenkel durch Vergiftung mit Strychnin einen Tetanus, d. h. anhaltende Krämpfe, verursacht hatte, »mit überzeugender Deutlichkeit einen tiefen singenden Ton im Telephon« vernommen.39 Schließlich versuchte Bernstein, mithilfe des akustischen Unterbrechers als Signalgeber und des Telefons als Empfänger die obere Grenze für die Anzahl möglicher Kontraktionen zu bestimmen, die der Muskel einzeln ausführen konnte. Da zu dieser Zeit allein das Telefon in der Lage war, Aufschluss über derart hochfrequente Vorgänge in den Präparaten zu geben, wurde es in den 1880er Jahren in vielen elektrophysiologischen Laboratorien als akustisches Galvanoskop verwendet (vgl. Abb. 3). Dabei wurden sowohl die elektrophysiologischen Eigenschaften von Muskeln als auch die von Nerven untersucht und akustisch angezeigt. Allerdings haben die Physiologen –  anders als Auenbrugger und Laënnec – keine systematische Kartografierung der bioelektrischen Klangereignisse vorgenommen, sondern das Telefon lediglich zur Entscheidung einzelner und sehr spezifischer Fragestellungen herangezogen. Während sich bei den medizinischen Diagnosetechniken stabile Beziehungen zwischen physischen Läsionen und akustischen Zeichen herstellen ließen, weil dort primär von Belang war, welche Läsionen im Körper vorhanden waren, konnten die Physiologen, denen es um die wissenschaftliche Erforschung der Muskel- und Nerventätigkeit ging, über das Zustandekommen der akustischen Phänomene nur Vermutungen anstellen. Visuelle vs. akustische Displays Ein wesentlicher Nachteil der akustischen Darstellung elektrischer Ströme bestand darin, dass diese keinen Aufschluss über den genauen zeitlichen Verlauf von Stromschwankungen geben konnten. Diese Informationen waren jedoch für das Verständnis der Muskel- und Nervenaktivität von erheblicher Bedeutung. Die Elektrophysiologen widmeten sich daher zunehmend dem Entwurf von fotografischen und myographischen Verfahren zur visuellen Repräsentation der bioelektrischen Ströme. Diese Methoden, die sich teils optischer, teils akustischer Darstellungstechniken bedienten, wurden u. a. als »phonophotographische« (Hermann) oder »phototelephonische« (Bernstein) Untersuchungen bezeichnet.40 Ab ca. 1890 führten diese und weitere Versuche zu einer veränderten Ökonomie der Anzeigegeräte im elektrophysiologischen Labor. 1891 erläuterte Hermann seine Bemühungen, eine optische Aufzeichnungsapparatur, den sog. Rheo-Tachygraph, zu konstruieren, folgendermaßen:

38 Bernstein 1881, 19. 39 Ebd., 22. 40 Hermann 1889; Bernstein 1890.

Axel Volmar

85

Nachdem die Grundgesetze der electrischen Wirkungen einiger thierischen Gebilde (Muskeln, Nerven, Drüsen) erkannt sind, macht sich, wie auf vielen anderen Gebieten der Physiologie, mehr und mehr das Bedürfniss graphischer Aufzeichnung der Vorgänge geltend, welche durch Verfeinerung der Beobachtung neue Fragen zu stellen gestattet. Die Schwierigkeiten dieser Aufgabe sind aber auf dem Gebiete der thierischen Electricität ganz besonders gross.41 Innerhalb weniger Jahre wurden zahlreiche Lösungen für dieses Problem vorgestellt, so dass in den Fachjournalen der Elektrophysiologie zunehmend Abbildungen mit fotografisch abgeleiteten Kurven bioelektrischer Ströme veröffentlicht wurden. Dennoch wurde das Telefon nicht unmittelbar und vollständig von den grafischen Methoden verdrängt: Noch im Jahr 1900 verteidigte Nikolai Wedensky (1852-1922) »die telephonische Methode« vehement – diese sei in einigen Fällen geradezu »unersetzbar«42, da allein das Telefon es dem Physiologen ermögliche, die Aktionsströme der beobachteten Muskeln und Nerven schnell und unkompliziert an verschiedenen Stellen der verwendeten Präparate zu vergleichen. Das zeigt, dass viele Physiologen trotz des Wunsches nach grafischer Aufzeichnung relativ offen hinsichtlich der sinnlichen bzw. ästhetischen Darstellung ihrer epistemischen Objekte waren, solange nur der jeweilige Zugriff dazu beitrug, diese besser zu verstehen. So wurde das Telefon bis ins frühe 20. Jahrhundert hinein dazu verwendet, elektrische Signale hörbar und auf diese Weise sinnlich erfahrbar zu machen. Weiterhin diente es dazu, die Funktionstüchtigkeit elektrischer Instrumente zu prüfen, Fehler im Aufbau von Experimentalanordnungen zu identifizieren und geeignete Stellen zur Befestigung der Elektroden an den Muskel- und Nervenpräparaten zu bestimmen. Das Telefon war ein multi-funktionales Laborinstrument, um das ein praktisches Handlungswissen (tacit knowledge) organisiert war, welches die Physiologen im Rahmen ihrer täglichen Laborarbeit schrittweise entwickelt hatten.43 Elektrostethoskope auf Röhrenbasis Nach dem Ersten Weltkrieg wurden auf der Grundlage röhrenbasierter Signalverstärker wesentlich detailliertere visuelle Darstellungen der bioelektrischen Ströme erreicht. Interessanterweise gab es jedoch auch unter diesen hochtechnischen Bedingungen der wissenschaftlichen Visualisierung immer wieder Physiologen, die an akustischen Repräsentationen festhielten und deren Potential weiter erforschten. 41 Hermann 1891, 539. 42 Wedensky 1900, 139. 43 Vgl. hierzu auch Dierig 2006.

86

Stethoskop und Telefon

Abb. 4: Apparat zur elektro-akustischen Verstärkung von Herztönen nach Scheminzky (K = Kapsel, M = Mikrofon, TK = Transformierer, I, II, III = Verstärkerstufen, L = Lautsprecher, V = Verstärkerröhre).

Der österreichische Elektrophysiologe Ferdinand Scheminzky (1899-1973) konstruierte Mitte der 1920er Jahre ein sog. »Elektrostethoskop«44 (vgl. Abb. 4), eine Anordnung die aus einem Röhrenverstärker bestand, an den mehrere Telefone als Mikrofone bzw. Kopfhörer angeschlossen werden konnten. Mit dem Elektrostethoskop ließen sich sowohl akustische Auskultationen als auch elektro-akustische, d. h. elektrophysiologische Audifikationen durchführen. Das Elektrostethoskop vereinigte auf diese Weise beide Bereiche des wissenschaftlichen Hörens, die im 19. Jahrhundert in den Lebenswissenschaften wichtig gewesen waren: erstens die auditive Diagnose mittels der Perkussion und der Auskultation und zweitens die akustische Repräsentation bioelektrischer Ströme in der elektrophysiologischen Forschung.

44 Scheminzky 1927.

Axel Volmar

87

4. Schlussfolgerungen Wie hier anhand von drei Fallstudien aus der Geschichte der Lebenswissenschaften dargestellt wurde, sollte eine Kultur- und Wissenschaftsgeschichte der Sonifikation optimalerweise keine reine l’histoire pour l’histoire sein, sondern möglichst an aktuelle Fragestellungen anknüpfen und relevante Aussagen zu diesen beitragen können. Das Ziel des Beitrags bestand daher darin, die Mechanismen der Entstehung und Verbreitung historischer akustemischer Verfahren der Erkenntnisproduktion zu untersuchen. Wie der Blick auf die Geschichte der Medizin und der Elektrophysiologie gezeigt hat, lässt sich zunächst feststellen, dass alle besprochenen Beispiele Resultate herrschender Un-Sichtbarkeiten waren. Das heißt, auditive Verfahren zur Erzeugung wissenschaftlicher Fakten und Erkenntnisse entstehen bevorzugt in Situationen, in denen ein visueller Zugriff auf die jeweiligen Untersuchungsgegenstände nicht bzw. nur eingeschränkt möglich ist. Sowohl die Praktiken des geschulten Ohrs in der Medizin als auch die Verwendung des Telefons als akustisches Display im Labor der Elektrophysiologie gehen auf konkrete Situationen zurück, bei denen die Möglichkeiten instrumenteller Beobachtung und visueller Darstellungen gar nicht oder nur in einem beschränkten Maße möglich waren. Die diagnostischen Hörtechniken galten im 19. Jahrhundert als objektive Verfahren der Erkenntnisproduktion. Dass der perkutierende und auskultierende Arzt sein Gehör und damit also eine subjektive Wahrnehmungstechnik verwendete, spielte bei dieser Einschätzung interessanterweise kaum eine Rolle. Entscheidend war vielmehr der Umstand, dass die akustischen Zeichen physikalische und damit objektiv feststellbare Äußerungen des Körpers darstellten, die die subjektiven, d. h. gefühlten Symptome des Patienten ersetzen konnten, auf denen die Medizin zuvor jahrhundertelang ihre Krankheitsbilder aufgebaut hatte. Daher wurde das »geschulte Urteil«45 des hörenden Experten im 19. Jahrhundert als ein wesentlicher Fortschritt der medizinischen Wissenschaft betrachtet. Erst nach der Erfindung der Röntgenfotografie wurde der subjektive Zugriff des hörenden Arztes im Diskurs der Medizin problematisiert. Die Entstehungskontexte der Perkussion und insbesondere der mediatisierten Auskultation zeigen aber auch, dass auditive Methoden nicht allein durch ein bloßes Hören entwickelt werden können: Hätte beispielsweise Laënnec seine Patienten lediglich abgehorcht, ohne die Befunde systematisch mithilfe von Leichenöffnungen zu kontextualisieren, hätte er schwerlich die komplexen Zusammenhänge zwischen den akustischen Phänomenen und ihren in der Tiefe des Körpers verborgenen physischen Ursachen her-

45 Vgl. Daston, Galison 2007 sowie den Artikel von Alexandra Supper in diesem Band.

88

Stethoskop und Telefon

stellen können. Bevor sich die Auskultation zu einer ausgereiften wissenschaftlichen Methode entwickeln konnte, musste Laënnec die zahlreichen Kausalbeziehungen zwischen Klängen und Läsionen erst durch einen tausendfachen Abgleich mit Obduktionsbefunden im Krankenhaus stabilisieren. Nachdem die akustischen Zeichen als valide Repräsentationen von Läsionen anerkannt worden waren, mussten sich praktizierende Ärzte nur noch mit den spezifischen Klangmustern vertraut machen, um auditive Diagnosen durchführen zu können. Die Auskultation ist daher kein exploratives, sondern ein konfirmierendes Hörverfahren: Der Arzt deckt keine neuen Strukturen im Klang auf, sondern vergleicht die Hörereignisse mit einem Repertoire auditiver Strukturen, die er in einem längeren Lernprozess während seiner Ausbildung erlernt und verinnerlicht hat. Wie die Rekonstruktion des Telefons als akustemisches Instrument gezeigt hat, geht mit der medientechnischen Möglichkeit, analoge Signale oder Daten akustisch darzustellen, nicht zwangsläufig auch eine gewinnbringende Interpretation der zu Gehör gebrachten Daten einher. Während sich Perkussion und Auskultation als diagnostische Methoden allgemein durchsetzen konnten, weil sie einerseits aufgrund der von Auenbrugger, Laënnec und ihren Nachfolgern entwickelten auditiven Semiologien erstaunlich verlässliche Aussagen über den Zustand von Kranken lieferten und andererseits als Möglichkeit zur Professionalisierung der Ärzteschaft angesehen wurde, nutzten Physiologen die hörbar gemachten bioelektrischen Ströme nur vereinzelt und in klar eingegrenzten Experimenten. Zwar gab es unter den Physiologen einige glühende Anhänger des Telefons, die Mehrheit entschied sich ab den 1890er Jahren jedoch für die Nutzung visueller Aufzeichnungsverfahren, weil nur diese Aufschluss über die konkreten Schwingungsverläufe der von den Muskeln und Nerven produzierten Ströme geben konnten. Den Physiologen, die sich mithilfe des Telefons Einsichten über die elektrischen Vorgänge im Inneren von Muskeln und Nerven zu verschaffen versuchten, stand eine mit der Autopsie vergleichbare Validierungsmöglichkeit nicht zur Verfügung. Sie mussten allein von den audifizierten, also hörbar gemachten bioelektrischen Strömen auf die biochemische Funktionsweise von Muskeln und Nerven schließen, was nur in einem eingeschränkten Maße gelang. In diesem Punkt unterscheiden sich die medizinischen Hörtechniken daher wesentlich von den zu Gehör gebrachten bioelektrischen Strömen: Während die akustische Welt des Körpers (und insbesondere des kranken Körpers) reichhaltig war und sich Läsionen im Brustbereich erstaunlich gut mittels akustischer Zeichen diagnostizieren ließen, erwies sich die elektroakustische Welt der Muskel- und Nervenströme weit weniger vielfältig und ließ nur bedingt die Beantwortung drängender Forschungsfragen zu. Konfirmierende Hörtechniken scheinen daher oftmals praktikabler zu sein als explorative Ansätze. Auch in Bezug auf die Verbreitung auditiver Verfahren lassen die Fallstudien einige interessante Schlussfolgerungen zu. Auenbruggers Perkussion gilt noch heute als eine der

Axel Volmar

89

größten Errungenschaften in der Diagnostik von Brustkrankheiten. Dass wir diese aber als eine solche anerkennen, ist hauptsächlich auf das Aufkommen der pathologischen Anatomie zurückzuführen, die die Vorherrschaft der semiotischen Medizin herausgefordert und dadurch den Einsatz diagnostischer Verfahren im 19. Jahrhundert überhaupt erst motiviert hat. Erst auf dem epistemischen Boden der pathologischen Anatomie erschien auch das Abklopfen des Körpers als eine sinnvolle und nutzbringende Option. Die späte Akzeptanz der Perkussion zeigt deutlich, dass sich eine auditive Methode – auch dann, wenn sie unter wissenschaftlichen Gesichtspunkten betrachtet als solide und praktikabel erscheinen mag – nur schwer in einem Forschungsfeld etablieren kann, wenn sie nicht im Einklang mit dem herrschenden Paradigma dieser Wissenschaft sowie herrschenden Forschungspraxen steht. Umgekehrt scheint die Tatsache, dass Physiologen ausgebildete Ärzte und daher größtenteils mit der diagnostischen Technik der Auskultation vertraut waren, einen wesentlichen Anteil daran gehabt zu haben, dass das Potential des Telefons zur akustischen Darstellung elektrischer Ströme bereits kurz nach der ersten Vorstellung des Apparats gerade in diesem Wissenschaftszweig erkannt und versuchshalber in das Experimentalsystem der Elektrophysiologie integriert wurde. Die Verwendung des Stethokops in der Medizin und die Übertragung der Auskultationsmethode auf die Erforschung der elektrischen Muskel- und Nerventätigkeit in der Elektrophysiologie des 19. Jahrhunderts zeugt von der produktiven Kraft des mehrdeutigen Begriffs ›Klangkörper‹. Mit der anbrechenden Ära elektroakustischer Medientechnologien umfasst der Begriff plötzlich nicht mehr allein mechanische Körper, die akustische Phänomene produzierten, sondern auch alle möglichen anderen Schwingungsquellen, die mithilfe von Schallwandlern in virtuelle Klangkörper transformiert werden konnten. Auf diese Weise wurden neben den Klängen des Körpers auch die elektrisch angeregten Muskeln und Nerven einem forschenden Hören in Form einer elektrischen Auskultation zugänglich. Allerdings ist die bloße Möglichkeit einer solchen »synästhetischen Übersetzung« (synaesthetic conversion)46 kein Garant für eine erfolgreiche Verbreitung und Etablierung einer akustemischen Praxis. Auch für eine aktuelle Theorie der Sonifikation scheint es daher notwendig, neben den direkten wissenschaftsinhärenten Faktoren auch jeweils die umgebenden wissenschaftsexternen Kontexte zu berücksichtigen.

46 Mody 2011.

90

Stethoskop und Telefon

5. Quellen Ackerknecht, Erwin Heinz (1967): Medicine at the Paris Hospital, Baltimore. Arsonval, A. d’ (1878): Téléphone employe comme galvanscope, in: C K Acad Sci Paris, 86 , 832-833. Auenbrugger, Leopold (1761): Inventum novum ex percussione thoracis humani ut signo abstrusos interni pectoris morbos detegendi, Wien. Auenbrugger, Leopold (1912): Leopold Auenbruggers Neue Erfindung, mittelst des Anschlagens an den Brustkorb, als eines Zeichens, verborgene Brustkrankheiten zu entdecken (1761). Aus dem Original übersetzt und eingeleitet von Viktor Fossel, Leipzig. Bernstein, Julius (1890): Phototelephonische Untersuchung des zeitlichen Verlaufs elektrischer Ströme, in: Sitzungsberichte der Berliner Akademie, 8, 153-157. Bernstein, Julius (1881): Telephonische Wahrnehmung der Schwankungen des Muskelstromes bei der Contraktion, in: Bericht ueber die Sitzungen der Naturforschenden Gesellschaft zu Halle, 18-27. Bernstein, Julius (1875): Ueber die Höhe des Muskeltones bei elektrischer und chemischer Reizung, in: Pflügers Archiv für die gesammte Physiologie des Menschen und der Thiere, 11 (1), 191-196. Bernstein, Julius (1878): Ueber Erzeugung von Tetanus und die Anwendung des akustischen Stromunterbrechers, in: Pflügers Archiv für die gesammte Physiologie des Menschen und der Thiere, 17 (1), 121-124. Du Bois-Reymond, Emil (1877): Über das Telephon, in: Archiv für Physiologie, 573-576. Clendening, Logan (1960): Source Book of Medical History, New York. Corvisart, Jean Nicolas (1808): Nouvelle méthode pour reconnaître les maladies internes de la poitrine par la percussion de cette cavité, par Avenbrugger, Paris. Daston, Lorraine / Galison, Peter (2007): Objektivität, Frankfurt a. M. Dierig, Sven (2006): Wissenschaft in der Maschinenstadt: Emil Du Bois-Reymond und seine Laboratorien in Berlin, Göttingen. Dombois, Florian (2008a): Sonifikation. Ein Plädoyer, dem naturwissenschaftlichen Verfahren eine kulturhistorische Einschätzung zukommen zu lassen, in: Meyer, Petra Maria (Hg.), Acoustic Turn, München, 91-100. Dombois, Florian (2008b): The Muscle Telephone: The Undiscovered Start of Audification in the 1870s, in: Kursell, Julia (Hg.), Sounds of Science – Schall im Labor (18001930), Preprints of the Max Planck Institute for the History of Science, Berlin, 41-45.

Axel Volmar

91

Duffin, Jacalyn (1989): The Cardiology of R. T. H. Laennec. In: Medical History, 33 (1), 42-71. Duffin, Jacalyn (1998): To See with a Better Eye. A Life of R. T. H. Laënnec, Princeton, NJ. Feld, Steven (1996): Waterfalls of Song: An Acoustemology of Place Resounding in Bosavi, Papua New Guinea, in: Senses of Place. Santa Fe, NM, 91-135. Foucault, Michel (1981): Die Geburt der Klinik. Eine Archäologie des ärztlichen Blicks, Frankfurt a. M. [u. a.]. Gee, Samuel J. (1883): Auscultation and Percussion: Together with the Other Methods of Physical Examination of the Chest, 4. Aufl. London. Hartmann, Arthur (1878): Eine neue Methode der Hörprüfung mit Hülfe elektrischer Ströme, in: Archiv für Anatomie und Physiologie, 155-157. Helmholtz, Hermann von (1864): Versuche über das Muskelgeräusch, in: Monatsberichte der Königlich-Preussischen Akademie der Wissenschaften zu Berlin, 307-310. Hermann, Ludimar (1889): Phonophotographische Untersuchungen, in: Pflügers Archiv für die gesammte Physiologie des Menschen und der Thiere, 45 (1), 582-592. Hermann, Ludimar (1878): Ueber electrophysiologische Verwendungen des Telephons: Anhang zu den Untersuchungen über die Actionsströme, in: Pflügers Archiv für die gesammte Physiologie des Menschen und der Thiere, 16, 504-509. Hermann, Ludimar (1891): Ueber Rheo-Tachygraphie, in: Pflügers Archiv für die gesammte Physiologie des Menschen und der Thiere, 49 (10), 539-548. Hess, Volker (1993): Von der semiotischen zur diagnostischen Medizin. Die Entstehung der klinischen Methode zwischen 1750 und 1850, Husum. Lachmund, Jens (1997): Der abgehorchte Körper. Zur historischen Soziologie der medizinischen Untersuchung, Opladen. Laënnec, René Théophile Hyacinthe (1819): De l’auscultation médiate ou traité du diagnostic des maladies des poumons et du coeur, fondé principalement sur ce nouveau moyen d’exploration, Paris. Lenoir, Timothy (1986): Models and Instruments in the Development of Electrophysiology, 1845-1912, in: Historical Studies in the Physical and Biological Sciences, 17 (1), 1-54. Mody, Cyrus (2011): Conversions. Sound and Sight, Military and Civilian, in: Pinch, Trevor / Bijsterveld, Karen (Hg.): The Oxford Handbook of Sound Studies, Oxford / New York, 224-248. Otis, Edward O. (1898): President’s Address: Auenbrugger and Laënnec, the Discoverers of Percussion and Auscultation, in: Transactions of the American Climatological Association, 14, 1-23. Reiser, Stanley Joel (1978): Medicine and the Reign of Technology, Cambridge.

92

Stethoskop und Telefon

Scheminzky, Ferdinand (1927): Untersuchungen über die Verstärkung und graphische Registrierung von Schallerscheinungen über Herz und Lunge mittels Elektronenröhren; Konstruktion eines Elektrostethoskops, in: Zeitschrift für die gesamte experimentelle Medizin, 57 (1), 470-501. Škoda, Joseph (1839): Abhandlung über Perkussion und Auskultation, Wien. Sterne, Jonathan (2003): The Audible Past. Cultural Origins of Sound Reproduction, Durham. Tarchanow, Ivan (1878): Das Telephon als Anzeiger der Nerven- und Muskelströme beim Menschen und den Thieren, in: St. Petersburger medicinische Wochenschrift, 3 (43), 353-354. Volmar, Axel (2007): Die Anrufung des Wissens. Eine Medienepistemologie auditorischer Displays und auditiver Wissensproduktion. In: Schröter, Jens / Thielmann, Tristan (Hg.): Display II: Digital; Navigationen, Zeitschrift für Medien- und Kulturwissenschaften, 7 (2), 105-116. Volmar, Axel (2011): Körperklänge, Körperbilder. Auditive und visuelle Erkenntnisweisen in der Geschichte der Lungentuberkulose, in: del Valle, Victoria et al. (Hg.), Repräsentationsformen von Wissen. Beiträge zum XXVI. Forum Junge Romanistik in Bochum (26.-29. Mai 2010), München. Wedensky, Nikolai J. (1900): Die fundamentalen Eigenschaften des Nerven unter Einwirkung einiger Gifte, in: Pflügers Archiv für die gesammte Physiologie des Menschen und der Thiere, 82 (3-4), 134-191.

Axel Volmar

93

Automobilgeräusche als Information Über das geschulte Ohr des Kfz-Mechanikers Stefan Krebs

1. Einleitung Die Geräusche eines Automobils geben Auskunft über den technischen Zustand des Fahrzeugs: Dabei kann ganz allgemein zwischen vertrauten rhythmischen Geräuschen und unerwartet auftretenden atypischen Geräuschen unterschieden werden. Während erstere dem Fahrer signalisieren, dass alles in Ordnung ist, deuten letztere auf einen möglichen technischen Defekt hin. Am Beispiel der Herausbildung des deutschen Kfz-Handwerks in der Zeit zwischen den beiden Weltkriegen untersucht der vorliegende Text die Praxis, automobile Geräusche als Informationsquelle zu nutzen. Dazu werden in einem ersten Schritt zwei automobile Hörpraktiken voneinander unterschieden: beobachtendes Hinhören und diagnostisches Abhören. Neben einer Charakterisierung dieser beiden Hörpraktiken stellt sich die Frage, wann und von wem diese Praktiken ausgeübt wurden. Bei einem näheren Blick in zeitgenössische Handbücher und Fachzeitschriften zeigt sich ein Hörkonflikt zwischen Autofahrern und Kfz-Mechanikern: Letztere reklamierten im Zuge der Professionalisierung ihres Gewerbes das diagnostische Abhören exklusiv für sich. Eine zentrale Rolle in diesem Konflikt spielte zunächst die enge Verflechtung der beiden Hörarten, die in der automobilen Praxis nur schwer voneinander zu trennen waren. Zudem lassen sich die automobilen Hörpraktiken als soziale Praktiken im Sinne Pierre Bourdieus begreifen: Sie sind als körperliche Routinen in die Hexis der Akteure eingeschrieben und als Wahr-

95

nehmungs-, Denk- und Handlungsschemata Teil ihres Habitus.1 In einem zweiten Schritt wird dann gezeigt, wie der Hörkonflikt aufgelöst wurde, indem sich die gesellschaftliche Zuschreibung, welche Akteursgruppe welche Hörpraktiken anerkanntermaßen ausüben durfte, wandelte. Hierbei spielte das geschulte Gehör des Kfz-Mechanikers als Teil seines beruflichen Habitus eine wesentliche Rolle. Im Folgenden soll keine ausführliche historische Narration über die Entwicklung des Kfz-Handwerks und seiner Hörpraktiken entwickelt werden, diese habe ich bereits an anderer Stelle ausführlich dargestellt.2 Vielmehr werden einige systematische Überlegungen zur Kategorisierung automobiler Hörarten und den ihnen inhärenten Abgrenzungsproblemen vorgestellt. Dazu sollen drei miteinander verschränkte Argumentationsstränge entwickelt werden: Zunächst werden die automobilen Hörpraktiken in den Kontext des Maastrichter Forschungsprojekts Sonic Skills eingebettet.3 Anschließend ist danach zu fragen, in wiefern Arbeiten aus dem Bereich des Auditory Display helfen können, die Ausdifferenzierung der automobilen Hörpraktiken zu verstehen.4 Um Missverstlndnissen vorzubeugen: Es geht dabei nicht darum, Automobilgeräusche als Sonifikation zu begreifen. Vielmehr geht es um die sozialen Voraussetzungen und Modalitäten von Hörpraktiken und die Ähnlichkeit zwischen einzelnen Praktiken im Bereich des Auditory Display und des Kfz-Gewerbes. Gregory Kramer hat bereits mit umgekehrten Vorzeichen, auch mit Verweis auf den Automobilbereich, auf Ähnlichkeiten zwischen alltäglichen Hörerfahrungen und -praktiken und dem Auditory Display-Design verwiesen.5 In einem letzten Schritt wird schließlich an die von Lorraine Daston und Peter Galison entwickelte Idee des ›geschulten Urteils‹ angeknüpft, um den zugunsten der Kfz-Mechaniker aufgelösten Hörkonflikt zu beschreiben.6 Die Studie versteht sich insofern als ein Beitrag zur Kulturgeschichte der Sonifikation als sie grundsätzlich die soziale Bedingtheit und den kulturellen Wandel von Hörpraktiken in wissenschaftlichtechnischen Handlungskontexten unterstreicht.

1 Habitus steht bei Bourdieu für die innere generative Tiefenstruktur der Akteure, die in Interaktion mit dem Feld herausgebildet wird. Hexis steht bei Bourdieu für das äußerlich wahrnehmbare Ensemble dauerhaft einverleibter Körperhaltungen und Bewegungen. Vgl. Bourdieu 1979; für einen prägnanten Überblick zu Bourdieus Verwendung der beiden Termini Hexis und Habitus siehe Fröhlich 1999. 2 Krebs 2012a, 2012b; vgl. auch Bijsterveld, Krebs 2012. 3 Das Projekt wird von Karin Bijsterveld an der Universität Maastricht geleitet. Bijsterveld 2009; Pinch, Bijsterveld 2012. 4 Walker, Kramer 2004; Fricke 2009. 5 Kramer 1994, 3-5. 6 Daston, Gallison 2007.

96

Automobilgeräusche als Information

2. Automobile Hörpraktiken Das Maastrichter Forschungsprojekt Sonic Skills: Sound and Listening in the Development of Science, Technology and Medicine (1920-now) untersucht Hörpraktiken in verschiedenen Feldern wie Ornithologie, Maschinenbau oder der klinischen Medizin. Bereits der Titel verweist darauf, dass innerhalb des Projekts zwischen akustischen Fertigkeiten, sonic skills, und rein auditiven Fähigkeiten, auditory skills, abgegrenzt wird. Erstere schließen Fähigkeiten des Hörens ebenso ein wie Fertigkeiten, akustische Werkzeuge und Instrumente zu gebrauchen: Gemeinsames Ziel der akustischen Praktiken ist die Informationsgewinnung in verschiedenen wissenschaftlich-technischen Kontexten. Für die Fehlerdiagnose im Automobilbereich war der Gebrauch (akustischer) Werkzeuge wichtig, wobei bereits der gezielte Gebrauch des Körpers, im Sinne des Soziologen Marcel Mauss,7 als erstes technisches Hilfsmittel begriffen werden kann: So wie die einfachste Form des ärztlichen Abhorchens durch das simple Auflegen des Ohrs auf den Körper des Patienten erfolgt,8 so kann auch der Autofahrer bzw. Mechaniker durch aufmerksames Hinhören sein Gehör zum Werkzeug machen. Insofern sind die automobilen Hörpraktiken sonic skills. Karin Bijsterveld unterscheidet zwischen vier Hörpraktiken:9 zum einen beobachtendes Hinhören (monitory listening) und diagnostisches Abhören (diagnostic listening). Die Praktik des überwachenden Hinhörens hört, ob etwas defekt ist, während die Praktik des diagnostischen Abhörens hört, was kaputt ist. Zum anderen gibt es noch die Praktiken des erkundenden Zuhörens (explorative listening) und des synthetischen Hörens (synthetic listening): Erkundendes Zuhören zielt auf die Entdeckung neuer Soundphänomene, während synthetisches Hören auf die Entschlüsselung polyphoner Soundmuster gerichtet ist. Für das Feld des Kfz-Gewerbes sind nur die beiden ersten Hörpraktiken bedeutsam. Wenden wir uns zunächst dem beobachtenden Hinhören zu. Der Autor des Lehrbuchs Das Automobil und seine Behandlung gab dem Fahranfänger 1919 folgenden Hinweis mit auf den Weg: Mit der wachsenden Übung und der Gewohnheit des Fahrens lernt auch der Anfänger bald, seine Aufmerksamkeit, ohne sie von der Straße abzulenken, auch anderen Teilen, besonders dem eigenen Wagen, zuzuwenden. Es ist hier vor allen Dingen der taktmäßige und ruhige Lauf seines Motors, der seine Aufmerksamkeit 7 Mauss 1936. 8 Vgl. Lachmund 1999; Sterne 2005. 9 Bijsterveld 2009; Pinch, Bijsterveld 2012.

Stefan Krebs

97

fordert, das gleichmäßige Schnurren seines Getriebes bzw. seiner Kette, das ihm zeigt, dass sich alles in schönster und bester Ordnung befindet. Er wird es bald merken, dass jeder Motor und jeder Wagen einen ganz bestimmten Rhythmus hat und wird es ohne weiteres bemerken, sowie auch nur die geringste Kleinigkeit sich einstellt, die diesen ihm liebgewordenen Rhythmus stört. Ganz unwillkürlich wird er auf den Takt hinhören, und es wird ihm dadurch gelingen, manche größere Betriebsstörung im Keime zu ersticken.10 Hier werden gleich drei Wesensmerkmale des beobachtenden Hörens benannt: Erfahrung, Aufmerksamkeit und Vertrautheit. Das heißt, für das beobachtende Hören musste der Automobilist erstens über ein gewisses Maß an automobiler Erfahrung verfügen, dann konnte er zweitens einen Teil seiner Aufmerksamkeit dem Hören widmen und drittens musste er mit den zu überwachenden Geräuschen seines Wagens vertraut sein, um Abweichungen vom Normalbetrieb feststellen zu können. Gregory Kramer verweist bei seiner Bestandsaufnahme alltäglicher Hörpraktiken auf die dem menschlichen Gehör innewohnende auditive Fähigkeit, einzelne Geräusche aus einer komplexen Geräuschkulisse herauszuhören und ihre Bedeutung anhand von Erfahrungswerten zu erkennen.11 Zugleich stellt das obige Zitat heraus, dass der Autofahrer die Praktik des Hinhörens verinnerlichen musste, da er gleichzeitig noch mehrere andere Tätigkeiten auszuüben hatte, die ebenfalls seine Aufmerksamkeit beanspruchten. Der Mobilitätshistoriker Kurt Möser unterscheidet in diesem Zusammenhang vier Tätigkeiten, die ein Automobilist beim Fahren parallel ausübt: Maschinenkontrolle, Lenken, Verkehrsteilnahme und Navigation.12 In Mösers Taxonomie ist das beobachtende Hören Teil der permanent stattfindenden Maschinenkontrolle: Die Einübung des Hinhörens erfolgt dazu im Sinne einer Körpertechnik (technique du corps)13. Das heißt, das Hören wird durch Nachahmung und Wiederholung als (unbewusste) Routine in den Körper des Autofahrers eingeschrieben, um in ähnlichen Situationen als (sozialer) Orientierungssinn zu dienen.14 Der Aspekt der Inkorporierung wurde in einem Handbuch von 1926 anschaulich auf den Punkt gebracht. Dort hieß es, der Autofahrer müsse mit seinem Wagen so vertraut werden wie ein Reiter mit seinem Pferd: »Ihm muss das leise Summen seiner Maschine gewisserma-

10 König 1919, 304. 11 Kramer 1994, 4. 12 Die vier Tätigkeiten sind konstitutiv für das Autofahren, wobei sich im Laufe der Zeit die einzelnen Anteile zueinander verschoben haben: So sind Maschinenkontrolle und Lenken im Gegensatz zur Frühzeit des Automobils wesentlich einfacher geworden, dafür stellt die Zunahme der Verkehrsdichte höhere Anforderungen an Verkehrsteilnahme und Navigation. Möser 2009, 178. 13 Krebs 2012a; Mauss 1936. 14 Vgl. Fröhlich 1999, 101.

98

Automobilgeräusche als Information

ßen in Fleisch und Blut übergegangen sein, so dass ihm jedes Abweichen von diesem Ton sofort auffällt.«15 Zur Aneignung des beobachtenden Hinhörens gehörte aber auch, dass der Autofahrer die Voraussetzungen dafür schuf, die Maschinengeräusche möglichst ohne störende Nebengeräusche observieren zu können. Dazu war in Rudolf Heßlers Der Selbstfahrer zu lesen: Ein guter Fahrer wird deshalb stets bestrebt sein, einen Wagen zu fahren, der so ruhig wie nur irgend erreichbar läuft, denn dann zeigen sich etwaige Störungen am frühesten und deutlichsten und können mit wenigen Mitteln beseitigt werden.16 Da der Autofahrer noch auf die geringsten hörbaren Anzeichen achten musste,17 sollte er auch seinen Fahrstil dementsprechend anpassen – also unnötige Geräusche durch starkes Beschleunigen oder ähnliches vermeiden. Aus Sicht der Psychoakustik könnte man davon sprechen, dass die Maschinengeräusche nicht durch andere Schallereignisse maskiert werden sollten. Dies gestaltete sich, im Unterschied zum Auditory Display-Design,18 als ausgesprochen schwierig, da die zu überwachenden Geräusche nicht hervorgehoben, sondern nur unerwünschte Geräusche teilweise vermieden werden konnten. Wenden wir uns nun der zweiten Hörpraktik zu: dem diagnostischen Abhören. Während, wie gezeigt, das beobachtende Hinhören prüfte, ob ein technischer Defekt auftrat, ging es beim diagnostischen Abhören darum, herauszuhören, was möglicherweise kaputt war. Anhand der zeitgenössischen Literatur ist zunächst festzuhalten, dass dem Gehör bei der Fehlerdiagnose eine wichtige Funktion zugesprochen wurde. In dem eingangs zitierten Lehrbuch von 1919 hieß es: »Ein Klopfen und Rasseln im Motor, ein Knirschen an den Ketten, ein Rasseln von Bolzen wird [dem Autofahrer] ohne weiteres die Stelle angeben, an der es seinem Wagen zurzeit fehlt.«19 Die automobile Fehlerdiagnose wurde von den zeitgenössischen Autoren in ihrer Methodik oftmals mit der Anamnese eines Arztes verglichen: Basierend auf der genauen Kenntnis der Automobiltechnik sollte die sogenannte Differentialdiagnose helfen, den Defekt durch logisches Schließen

15 Heßler 1926, 217. 16 Ebd. 17 Hacker 1932, 17-23. 18 Walker, Kramer 2004, 12. 19 König 1919, 304.

Stefan Krebs

99

und planmäßiges Untersuchen einzukreisen. Dabei wurde das Vorgehen auch mit der ärztlichen Praxis des Auskultierens verglichen:20 Wenn der Arzt nicht ohne weiteres am Aussehen des Menschen dessen Krankheit feststellen kann, so nimmt er sein Hörrohr und hört oder klopft den Menschen ab. Ganz ähnlich muss man auch bei der Maschine verfahren. Auch hier sind die Geräusche das Wichtigste für die Feststellung des Störungsbildes.21 Zahlreiche Diagnosebücher und Reparaturanleitungen in Fachzeitschriften betonten, dass Defekte häufig am Geräusch erkannt werden konnten: Dazu unterschieden sie Fehler, die man sehen, riechen, hören oder spüren kann. Das Handbuch Panne unterwegs listete rund 70 hörbare Fehler auf und beschrieb Hilfestellungen, wie diese jeweils diagnostiziert und behoben werden konnten.22 So konnten beispielsweise die Tonhöhe oder die Frequenz Aufschluss darüber geben, was defekt war. Für die Eingrenzung war auch wichtig, ob sich das Fehlergeräusch änderte, wenn zum Beispiel die Motordrehzahl erhöht wurde.

Abb. 1: Einsatz eines Hörstabs: Der Hersteller des Meccano-Stethoscop versprach, dass mit seiner Hilfe »[j]ede Motorstörung in wenigen Minuten festzustellen« sei.

Im Gegensatz zum beobachtenden Hinhören konnte die Praktik des diagnostischen Abhörens oftmals im Stand erfolgen: Dabei lief der Motor im Leerlauf oder die Karosserie wurde aufgebockt, so dass selbst der Antriebsstrang in Gang gesetzt werden konnte. 20 Vgl. Lachmund 1999; Sterne 2005. 21 Heßler 1926, 216-7. 22 Hacker 1932, 77-105.

100

Automobilgeräusche als Information

Dies hatte den Vorteil, dass der Automobilist bzw. Mechaniker seine ungeteilte Aufmerksamkeit dem Hören widmen konnte (vgl. Abb. 1). Zudem konnten so auch Werkzeuge benutzt werden (vgl. Abb. 1 u. 2), die das fokussierte Abhören bestimmter Stellen ermöglichten: Ein wertvoller Behelf ist die Abhorchstange, die in ihrer einfachsten Form aus einem etwa einen Meter langen Metallstab mit einem Holzgriff besteht und in ihrer nobelsten Form dem Stethoskop des Arztes gleicht. [...] Schritt für Schritt betastet man das Motorgehäuse, hört so das Ticken jedes einzelnen Kolbens, in dessen Nähe der Stab gerade gesetzt wird, hört rauen Gang im Ventilatorkugellager, in der Wasserpumpe.23

Abb. 2: Der Diaton-Resonator, ein schlichter Hörstab, sollte das diagnostische Abhören vereinfachen.24

Dennoch musste auch beim Einsatz von akustischen Werkzeugen sichergestellt werden, dass das zu diagnostizierende Geräusch nicht von anderen Geräuschen maskiert wurde: So sei etwa Lagerklopfen bei niedrigen Drehzahlen am Besten zu hören gewesen, da dann die anderen Motorengeräusche sehr gering waren.25 Verschiedene Hersteller offerierten dem Automobilisten bzw. Mechaniker spezielle Stethoskope für die Fehlerdiagnose. Das sogenannte Tektoskop besaß sogar zwei Sonden, die den auditiven Vergleich von zwei Motorstellen ermöglichte. Obwohl der Gebrauch akustischer Instrumente angepriesen wurde, herrschte in der zeitgenössischen Literatur Uneinigkeit darüber, wie hilfreich der Einsatz dieser speziellen Hilfsmittel tatsächlich war: Während einige Autoren davon schwärmten, dass ein Stethoskop gleichsam den Blick ins Motorinnere 23 Hacker 1932, 81. 24 Diaton 1937. 25 Dietl 1931, 324-325.

Stefan Krebs

101

öffne,26 rieten andere dringend davon ab, nur aufgrund einer Hördiagnose einen verbindlichen Kostenvoranschlag zu machen.27

3. Hörkonflikte zwischen Automobilisten und Mechanikern Während das beobachtende Hinhören unbestritten zu den Aufgaben des Automobilisten zählte, entwickelte sich Ende der 1920er Jahre ein Konflikt um die Praktik des diagnostischen Abhörens. Im Zuge der Professionalisierung ihres Handwerks in den 1930er Jahren sprachen die Kfz-Mechaniker dann dem einfachen Autofahrer die für das diagnostische Abhören nötigen Fertigkeiten ab. Dieser Konflikt war zudem eingebettet in eine generelle Auseinandersetzung, ob Autofahrer theoretische und praktische Reparaturkompetenz besaßen oder dies ausschließlich den Kfz-Mechanikern vorbehalten war. Der sich abzeichnende Hörkonflikt wird nur verständlich, wenn man den besonderen Stellenwert des Selbstreparierens berücksichtigt: Wie die zeitgenössischen Quellen, insbesondere die Briefkastensektion der Allgemeinen Automobil-Zeitung, zeigen, reparierten viele Autofahrer ihre Fahrzeuge während der Weimarer Zeit in Eigenregie. Dies lag unter anderem daran, dass sich nach dem Krieg die Muster des Automobilkonsums wandelten. Bis zum Ersten Weltkrieg hatten die fast ausschließlich der Oberschicht angehörenden Automobilbesitzer die Wagenpflege und -reparatur ihren Chauffeuren übertragen; nun fuhren und reparierten mehr und mehr Automobilisten aus der oberen Mittelschicht selbst.28 Dies war teilweise dem Umstand geschuldet, dass außerhalb größerer Städte keine spezialisierten Automobilwerkstätten existierten und der Automobilist sich nicht unbedingt auf sogenannte Ad-hoc-Mechaniker,29 wie den in Autodingen unerfahrenen Dorfschmied, verlassen wollte. Das Reparieren war aber darüber hinaus Teil des automobilen Abenteuers, das Mitglieder der wohlhabenden Mittelschicht gerade für sich entdeckten. Andrea Wetterauer beschreibt die Reparaturkompetenz des Automobilisten als Teil der bürgerlichen Kulturtechnik des Autofahrens: Technische Kenntnisse und praktische Reparaturfertigkeiten dienten dem Autobesitzer gleichermaßen als Distinktionsmittel.30 Diagnostizieren und Reparieren waren demnach Teil der bürgerlichen Kulturtechnik des Autofahrens: Technische Kenntnisse und praktische Re-

26 Ebd., 325. 27 Vgl. hierzu Krebs 2012a. 28 Vgl. Mom, Schot, Staal 2008. 29 Vgl. Borg 2007. 30 Wetterauer 2007, 155-66; Krebs 2012a, 2012b.

102

Automobilgeräusche als Information

paraturfertigkeiten dienten dem Autobesitzer gleichermaßen als Distinktionsmittel. Diagnostizieren und Reparieren waren demnach Teil des automobilen Habitus: Der ›feine Unterschied‹ technischer Kompetenz ermöglichte den bürgerlichen Selbstfahrern einen Distinktionsgewinn gegenüber nicht-automobilen Angehörigen der Mittelschicht.31 Zudem konnten sie ein Stück weit soziale Kontrolle zurückerobern, die ihnen im unübersichtlichen modernen Großstadtleben verloren gegangen war. Der zu Beginn der 1930er Jahre zunehmend vehementer vorgetragene Anspruch der Kfz-Mechaniker, exklusiv über technische Reparaturkompetenz unter Einschluss des diagnostischen Abhörens zu verfügen und somit das Selbstreparieren zu delegitimieren, wurde dementsprechend von den Autofahrern als Verlust kultureller Fertigkeiten empfunden. Eine Strategie der Kfz-Mechaniker lag darin, die den Autofahrern unterstellte technische Inkompetenz in Leitartikeln, kurzen anekdotischen Berichten und Comics bloßzustellen. Dabei machten sich die Kfz-Mechaniker unter anderem die schwierige Abgrenzung zwischen den beiden Hörpraktiken zunutze, um den Autofahrern ihre mangelnden Fertigkeiten vorzuwerfen: Im Fall von Automobildefekten war die Frage, ob ein Defekt vorlag, von der Frage, was defekt war, oftmals nur schwer zu trennen.32 Erschwert wurde dieses Abgrenzungsproblem vom damaligen Stand der Automobiltechnik, denn selbst fabrikneue Wagen liefen keineswegs so ruhig und rhythmisch, wie es die Lehr- und Handbücher (und vor allem die Automobilwerbung) suggerierten. So gab es beispielsweise atypische Geräusche während des Einfahrens auf den ersten 1.000 bis 2.000 Kilometern: In dieser Zeit mussten sich diverse Teile erst aufeinander einschleifen, was von entsprechenden Geräuschen begleitet wurde.33 Ferner führte der normale Verschleiß dazu, dass Lager, Zahnräder und andere Teile mit der Zeit Spiel erhielten und dadurch ebenfalls ungewohnte Geräusche auftreten konnten. Ein Autor schrieb dazu: Mit der Tatsache, dass über kurz oder lang ein Motor zu klopfen beginnt, muss man sich als Automobilist nun einmal abfinden. [...] So lange das Klopfen nur die leise Mahnung des Motors ist: Ich bin auch nicht ewig! braucht man keineswegs spornstreichs in die Fabrik zu fahren.34 Damit war ein entscheidender Konfliktpunkt benannt: Denn der Autofahrer sollte keineswegs zu früh oder unnötig in die Werkstatt kommen, aber auch auf keinen Fall zu

31 Vgl. zum Begriff der ›feinen Unterschiede‹ Bourdieu 1987. 32 Kramer (1994, 15) verweist für das Auditory Display ebenfalls auf die starke Überlappung von monitoring und analysis. 33 Heßler 1926, 218. 34 Schmal 1912, 78.

Stefan Krebs

103

spät. Kam er zu früh, wurde er von den Kfz-Mechanikern als Geräuschfanatiker denunziert, der wegen Bagatellen vorstellig werde oder sich Geräusche bloß einbilde.35 Kam er jedoch zu spät, dann hieß es, er sei ein Geräuschphlegmatiker: »Ihn stört es nicht, wenn sein Fahrzeug an allen Ecken und Enden rattert und quietscht und die Karosse in trautem Verein mit dem Motor ein Freikonzert gibt.«36 Kurz zusammengefasst forderten die Kfz-Mechaniker, dass der Automobilist nicht bei jedem ungewöhnlichen Geräusch einen Defekt vermuten sollte, zudem sollte er sich auch mit zunehmendem Alter seines Fahrzeugs an neue Klänge und Rhythmen gewöhnen. Dann sollte er aber nicht den rechten Moment versäumen, in dem bestimmte Geräusche gleichsam umschlugen und nun eine wirkliche Gefahr für Fahrzeug und Insassen anzeigten. Das heißt, der Autofahrer musste bereits beim beobachtenden Hinhören eine zumindest vorläufige Diagnose stellen. Insofern können beide bisher beschriebenen Hörpraktiken gleichermaßen als kausales Hören charakterisiert werden:37 »Das Hören dient [in beiden Fällen] dem Sammeln von Informationen über die Ursache oder Quelle des Geräuschs.«38 Das heißt, der Hörer musste in beiden Fällen die automobilen Geräusche auf ihre Bedeutung hin analysieren, indem er sie mit bekannten Geräuschmustern beziehungsweise ihrer Beschreibung verglich. Man könnte auch von sound mapping sprechen,39 mit dem Unterschied, dass es nicht darum geht, auditive Signale so zu gestalten, dass ein Hörer ihre Bedeutung möglichst intuitiv versteht beziehungsweise leicht erlernen kann, sondern dass der Hörer aufgrund seiner bisherigen Hörerfahrungen nicht-gestaltete, ihm beim überwachenden Hinhören verdächtige Geräusche mit möglichen Fehlerursachen vergleicht und daraufhin entscheidet, ob eine bestimmte Handlung erforderlich ist oder nicht. Da die Kfz-Mechaniker die Diagnosefertigkeiten der Automobilisten grundsätzlich in Abrede stellten, zogen sie aufgrund der geschilderten Verschränkung der beiden Hörpraktiken auch die Kompetenz des beobachtenden Hinhörens in Zweifel, forderten aber zugleich ein, diese Praktik weiterhin auszuüben. Ohnehin hielten die Autofahrer, wie sich an ihren Zuschriften an den Briefkasten ablesen lässt, zunächst an der Praxis des Selbstreparierens fest. Erst im Verlauf der 1930er Jahre erlangten die Kfz-Mechaniker zunehmend die Oberhand im Reparaturenstreit. Aber wie konnten die Hörpraktiken schließlich voneinander getrennt und unterschiedlichen Akteursgruppen zugewiesen werden? Zur Beantwortung dieser Frage wird im Folgenden die Herausbildung des geschulten Gehörs der Kfz-Mechaniker näher betrachtet. 35 Anonym 1941. 36 Anonym 1939. 37 Michel Chion hat für die Analyse von Klangobjekten in Tonfilmen den Begriff des kausalen Hörens geprägt, davon unterscheidet er semantisches Hören und reduziertes Hören. Vgl. Chion 1994, 25-31. 38 Fricke 2009, 55. 39 Kramer 1994; Walker, Kramer 2004.

104

Automobilgeräusche als Information

4. Das geschulte Gehör des Kfz-Mechanikers Die zeitgenössisch so benannte große Reparaturmisere Ende der 1920er Jahre leitete einen Professionalisierungsschub im deutschen Kfz-Gewerbe ein.40 1932 wurde das bislang nicht reglementierte Kfz-Handwerk als selbständiges Handwerk im Sinne des traditionellen deutschen Handwerkssystems anerkannt. Das bedeutete, dass nur mehr der Gesellenbrief zur Ausübung des Berufs berechtigte und mit der Verschärfung des Handwerksrechts 1934 die Neueröffnung einer Werkstatt an den Meisterbrief gekoppelt wurde. Das Kfz-Handwerk übernahm allerdings nicht nur die institutionellen und rechtlichen Formen des deutschen Handwerkssystems, sondern auch dessen auf (vormodernen) Traditionen beruhendes Standesbewusstsein: So bürgte fortan der Kfz-Meister mit seiner Berufsehre für die Qualität der Werkstatt. Das hieß zugleich, dass selbst die berechtigte Kritik an einer Werkstatt leicht als Angriff auf die Standesehre aufgefasst wurde.41 Mit der Professionalisierung des Kfz-Handwerks ging die Ausbildung eines spezifischen Handwerker-Habitus einher, der von den Akteuren zunächst eingeübt also inkorporiert werden musste. In den Fachzeitschriften für Kfz-Mechaniker setzte dazu eine regelrechte Erziehungskampagne ein, so war etwa 1936 in der Fachzeitschrift Krafthand zu lesen: Das geschulte Ohr des Fachmannes weiß natürlich am Klang der Maschine den normalen gesunden Ton von den eine beginnende Krankheit verratenden Geräuschen zu unterscheiden. Der Laie wird dagegen oft durch ganz harmlose Töne beunruhigt. [...] In diesem Sinne ist die Kundschaft zu belehren.42 Das heißt, die richtige Geräuschdiagnose der Kfz-Mechaniker beruhte nicht auf besonderen auditiven Fertigkeiten, sondern war ein quasi natürliches Vorrecht des Fachmannes – der Kunde musste dies nur entsprechend einsehen, den Mechaniker als fachkundigen Arzt des Automobils anerkennen und seine eigenen Laienpraktiken aufgeben. Dementsprechend wurden die Automobilisten jedenfalls in ihren Zeitschriften aufgeklärt: Unter dem Slogan »Hände weg!« wurden sie von den Automobilclubs aufgefordert, die Selbstreparatur künftig zu unterlassen und die Fehlerdiagnose stattdessen dem KfzMeister zu überlassen. Darüber hinaus wurde dem Autofahrer beschieden, dass Werk-

40 Loewe 1928. 41 Krebs 2012a; 2012b. 42 Anonym 1936.

Stefan Krebs

105

stattkritik oftmals auf unrealistische Annahmen seitens der Kunden zurückzuführen sei: Er sollte also diesbezüglich seine eigene Erwartungshaltung korrigieren.43 An dieser Stelle bietet sich eine Verknüpfung mit Lorraine Dastons und Peter Galisons Begriff des ›geschulten Urteils‹ an. In ihrer Untersuchung zur Objektivität wissenschaftlicher Bilder haben sie darauf hingewiesen, dass zu Beginn des 20. Jahrhunderts Wissenschaftler zunehmend die Notwendigkeit betonten sich bei der Bildinterpretation auf die erfahrenen und geübten Augen des einzelnen Wissenschaftlers zu verlassen. Dies geschah in Abgrenzung zur überkommenen Praxis der ›mechanischen Objektivität‹, die gerade die Subjektivität des einzelnen Wissenschaftlers durch technische Apparate und Prozeduren ausschalten wollte. Daston und Gallison verweisen dabei darauf, dass neben der Erfahrung das Selbstvertrauen eine ebenso wichtige Rolle für die Ausprägung des ›geschulten Urteils‹ spielte.44 In Anlehnung an Dastons und Gallisons Begriff des ›sehenden Auges‹ des geschulten Wissenschaftlers, der die Mittel zum Klassifizieren wissenschaftlicher Daten für sich reklamierte und diesen Anspruch an seine Schüler weitergab,45 kann man davon sprechen, dass die deutschen Kfz-Mechaniker vermittels ihrer Lehrzeit über das hörende Ohr verfügten. Die mehrjährige Ausbildung formte die professionelle Wahrnehmung der alltäglichen Praxis und diente somit der Einübung des beruflichen Habitus und der dazugehörigen körperlichen Routinen. Während der praktischen Arbeit in der Werkstatt erlernten die Lehrlinge durch Handreichungen, Hilfeleistungen und Nachahmung zu diagnostizieren und zu reparieren und gewannen durch die Mimesis der ›sozialen Rolle‹ der Gesellen und Meister zugleich auch das standesgemäße Selbstvertrauen.46 Insofern war das geschulte Gehör der Kfz-Mechaniker eine regulative Idee, die als Technik der Selbst-Formung begriffen werden muss: Die Schulung des Gehörs bildete nicht nur eine spezifische Hörweise heraus, sondern formte zugleich die berufliche Wahrnehmung und den damit verknüpften Berufsethos.47

43 Krebs 2012b. 44 Daston, Galison 2007, 325. 45 Ebd., 342. 46 Kümmet 1941; vgl. zur Bedeutung der praktischen Arbeit Daston, Galison 2007, 345, 348; zur sozialen Rolle vgl. Goffman 2010. 47 Daston, Galison 2007, 385.

106

Automobilgeräusche als Information

5. Fazit Wie beschrieben, lassen sich im Feld der Automobilreparatur zwei verschiedene, miteinander verschränkte Hörpraktiken unterscheiden. Die erste, während der Fahrt ausgeübte Praktik des beobachtenden Hinhörens, ist darauf gerichtet zu erkennen, ob ein technischer Defekt durch Geräusche angezeigt wird. Die zweite Praktik des diagnostischen Abhörens versucht dagegen zu erkennen, was genau defekt ist. Beide Praktiken zielten darauf ab, die in den hörbaren Geräuschen enthaltenen Informationen zu entschlüsseln. Dabei war es in der alltäglichen Praxis schwierig, beide Praktiken voneinander zu trennen, denn auch für die Einschätzung, ob etwas kaputt war, musste der Automobilist eine erste Diagnose stellen. Letztlich waren für die gesellschaftlich anerkannte Ausübung der beiden automobilen Hörpraktiken individuelle auditive Fertigkeiten nachrangig, vielmehr waren die Hörpraktiken in die soziale Praxis von Autofahrern und Mechanikern, die auf dem Feld der Automobilreparatur miteinander um technische Kompetenz konkurrierten, eingebettet. Das heißt, nach der Etablierung des selbständigen Kfz-Handwerks war der gesellschaftliche Status der Akteure ausschlaggebend dafür, welche Hörpraktiken sie ausüben durften. Erst die Herausbildung des Kfz-Gewerbes zu einem selbständigen Handwerk degradierte den einfachen Autofahrer zum automobiltechnischen Laien und schloss ihn damit von der Praxis des diagnostischen Hörens aus. Überspitzt formuliert, durfte fortan zwar ein schwerhöriger Mechaniker diagnostisch abhören, ein erfahrener Autofahrer mit einem sensiblen Gehör sollte aber lediglich beobachtend hinhören. Das im Laufe der Lehrzeit geschulte Gehör des Kfz-Experten kann als (sozial) gelenkte Erfahrung verstanden werden: Das eingeübte, habituelle Selbstvertrauen des Mechanikers wurde integraler Bestandteil der diagnostischen Hörpraxis. Daraus folgt, dass die Kfz-Mechaniker weniger über einen speziellen Zugang zur hörbaren automobilen Realität verfügten, sondern lediglich die Berechtigung zur Abgabe von entsprechenden Urteilen besaßen. Das geschulte Ohr wurde damit zum Topos, der der beruflichen Selbstvergewisserung und zugleich der kulturellen Delegitimierung des Selbstreparierens durch den Autofahrer diente. Die Situation nach dem Zweiten Weltkrieg zeigt, dass die KfzMechaniker mit ihrer Strategie erfolgreich waren, da die Autofahrer von den eigenen Interessenvertretern nicht länger als willens und fähig zur Selbstreparatur angesehen wurden. So verzichteten die Zeitschriften der Automobilclubs darauf, Autofahrer mit den entsprechenden Fertigkeiten vertraut zu machen, wohingegen sich in den Zeitschriften

Stefan Krebs

107

und Handbüchern für Kfz-Mechaniker auch in den 1950er Jahren Anleitungen zum diagnostischen Abhören finden.48 Abschließend llsst sich festhalten, dass die Entstehung und der dramatische Wandel der beiden untersuchten Hörpraktiken nur als Wandel der sozialen Praxis zu verstehen ist. Die beobachteten Veränderungen waren Ergebnis eines Machtkampfs zwischen KfzMechanikern und Autofahrern, der die zunächst gemeinsam ausgeübte Praktik des diagnostischen Abhörens zu einem Prärogativ der professionellen Kfz-Mechaniker machte und den Autofahrern die weniger prestigeträchtige Praktik des überwachenden Hinhörens zuwies. Es ist anzunehmen, dass ähnliche Auseinandersetzungen um Hörpraktiken und ihre soziokulturelle Anerkennung in anderen wissenschaftlich-technischen Feldern stattfinden. Eine Kulturgeschichte der Sonifikation sollte daher Hörpraktiken als Teil der feldspezifischen sozialen Praxis begreifen und verstärkt in den Blick nehmen.

6. Quellen Anonym (1936): Der Motor hat einen Ton, in: Das Kraftfahrzeug-Handwerk 9, H. 11, 330. Anonym (1939): Es rattert und quietscht. Geräuschfanatiker und Geräuschphlegmatiker, in: Das Kraftfahrzeug-Handwerk 12, H. 26, 779-780. Anonym (1941): Geräuschfanatiker und ihre Behandlung, in: Das Kraftfahrzeug-Handwerk 14, H. 28, 615. Bijsterveld, Karin (2009): Sonic Skills: Sound and Listening in the Development of Science, Engineering and Medicine, 1920s-now (nicht publizierter VICI-Antrag bei der Nederlandse Organisatie voor Wetenschappelijk Onderzoek). Bijsterveld, Karin / Krebs, Stefan (2012): Listening to the Sounding Objects of the Past: The Case of the Car, in: Franinovic, Karmen / Serafin, Stefani (Hg.), Sonic Interaction Design: Fresh Perspectives on Interactive Sound (MIT Press, im Erscheinen). Borg, Kevin L. (2007): Auto Mechanics. Technology and Expertise in Twentieth-Century America, Baltimore. Bourdieu, Pierre (1979): Entwurf einer Theorie der Praxis, Frankfurt a. M. Bourdieu, Pierre (1987): Die feinen Unterschiede: Kritik der gesellschaftlichen Urteilskraft, Frankfurt a. M. Chion, Michel (1994): Audio-Visions. Sound on Screen, New York.

48 Krebs 2012a.

108

Automobilgeräusche als Information

Daston, Lorraine / Gallison, Peter (2007): Objektivität, Frankfurt a. M. Diaton (1937): Werbeanzeige, in: Das Kraftfahrzeug-Handwerk 10, H. 1, 21. Dietl, Stephan (1931): Die Fahrtechnik. Ein Hilfs- und Nachschlagewerk mit dem Kraftwagen richtig umgehen und ihn sicher lenken zu können, Berlin. Fricke, Nicola (2009): Warn- und Alarmsounds im Automobil, in: Spehr, Georg (Hg.), Funktionale Klänge. Hörbare Daten, klingende Geräte und gestaltete Hörerfahrungen, Bielefeld, 47-64. Fröhlich, Gerhard (1999): Habitus und Hexis – Die Einverleibung der Praxisstrukturen bei Pierre Bourdieu, in: Schwengel, Hermann / Höpken, Britta (Hg.), Grenzenlose Gesellschaft?, Bd. II/2, 100-102. Goffman, Erving (2010): Wir alle spielen Theater. Die Selbstdarstellung im Alltag, München, Zürich. Hacker, O.H. (1932): Panne unterwegs. Ein Hilfsbuch für Kraftfahrer, Leipzig, Berlin, Wien. Heßler, Rudolf (1926): Der Selbstfahrer. Ein Handbuch zur Führung und Wartung des Kraftwagens, Leipzig. König, Ad. (1919): Die experimentelle Psychologie im Dienste des Kraftfahrwesens, in: Allgemeine Automobil-Zeitung 20, H. 10, 11-13 u. H. 12, 15-17. Kramer, Gregory (1994): An Introduction to Auditory Display, in: ebd. (Hg), Auditory Display. Sonification, Audification and Auditory Interfaces, Reading, MA et al., 1-77. Krebs, Stefan (2012a): »Sobbing, Whining, Rumbling« – Listening to Automobiles as Social Practice, in: Pinch, Trevor / Bijsterveld, Karin (Hg.), The Oxford Handbook of Sound Studies, Oxford, New York, 79-101. Krebs, Stefan (2012b): »Notschrei eines Automobilisten« oder die Herausbildung des Kfz-Handwerks in Deutschland, in: Reith, Reinhold / Stöger, Georg (Hg.), Reparieren – oder die Lebensdauer der Gebrauchsgüter (Technikgeschichte, im Erscheinen). Kümmet, Hermann (1941): Lehrling im Kraftfahrzeughandwerk, Berlin. Lachmund, Jens (1999): Making Sense of Sound: Auscultation and Lung Sound Codification in Nineteenth-Century French and German Medicine, in: Science, Technology & Human Values 24, 419-450. Loewe, A. G. von (1928): Die große Reparaturmisere, in: Auto-Technik 17, H. 26, 11-14. Mauss, Marcel (1936): Les techniques du corps, in: Journal de Psychologie Normale et Pathologique 32, 271-293. Meccano (1930): Werbeanzeige, in: Das Kraftfahrzeug-Handwerk 3, H. 4, 95. Möser, Kurt (2009): Fahren und Fliegen in Frieden und Krieg, Heidelberg et al.

Stefan Krebs

109

Mom, Gijs / Schot, Johan / Staal, Peter (2008): Civilizing Motorized Adventure: Automotive Technology, User Culture, and the Dutch Touring Club as Mediator, in: de la Bruhèze, Adri / Oldenziel, Ruth (Hg.), Manufacturing Technology: Manufacturing Consumers. The Making of Dutch Consumer Society, Amsterdam, 141-160. Pinch, Trevor / Bijsterveld, Karin (2012): New Keys to the World of Sound, in: Pinch, Trevor / Bijsterveld, Karin (Hg.), The Oxford Handbook of Sound Studies, Oxford, New York, 3-38. Schmal, Adolf (1912): Ohne Chauffeur. Ein Handbuch für Besitzer von Automobilen und Motorradfahrer, Wien. Sterne, Jonathan (2005). The Audible Past. Cultural Origins of Sound Reproduction, Durham, NC, London. Walker, Bruce N. / Kramer, Gregory (2004): Ecological Psychoacoustics and Auditory Displays: Hearing, Grouping, and Meaning Making, in: Neuhoff, John G. (Hg.), Ecological Psychoacoustics, London, 149-174. Wetterauer, Andrea (2007): Lust an der Distanz. Die Kunst der Autoreise in der »Frankfurter Zeitung«, Tübingen.

110

Automobilgeräusche als Information

Hammerwerk Der Apparat, der Schritte in standardisierten Schall übersetzte Sabine von Fischer

Häuser sind nicht stumm. Vielmehr knarrt, knackt, trampelt, rumpelt und quietscht es darin. Architektur mag in mancher Hinsicht vielerlei Kontrollen unterliegen, ihre Töne allerdings bleiben oft dem Zufall überlassen. Der Wunsch nach einer kontrollierbaren Bauakustik konfrontierte die angewandten Wissenschaften Anfang des 20. Jahrhunderts mit dem Problem der objektiven Beurteilung. Wer entscheidet, was wann zu laut ist? Wie können allgemein verbindliche Aussagen zur Akustik von Bauteilen gemacht werden? Es brauchte eine Prüf- und Messmethode, die nicht die Empfindung nachzuvollziehen versuchte, sondern objektiv repräsentierbare Resultate erzeugte. Dazu wurde die stumme Materie der Architektur mit harten Hammerschlägen angeschlagen. In welchem Verhältnis steht die technische Messung zur räumlichen Erfahrung, die die Akustik vermittelt? Mit dieser Fragestellung wird im folgenden dem Apparat, der die technische Messung ermöglichte, nachgegangen. Die Übersetzung räumlicher Akustik in das Maß Dezibel ermöglichte einerseits die objektive Beurteilung von Baumaterialien und einen regulatorischen Konsens zum Begriff ›Lärm‹. Gleichzeitig bewirkte die Reduktion von räumlichem Klang auf Messwerte nach standardisierten Methoden ein Auseinanderklaffen technischer und erfahrener Realitäten.

111

1. Simulierte Schritte Vor achtzig Jahren setzte ein Apparat das Maß des akustischen Impulses, mit dem bis heute der Trittschall gemessen wird. Das 1930 erstmals in einer Fachzeitschrift öffentlich präsentierte »Hammerwerk« war ein Produkt der damals noch jungen Wissenschaft der Bauakustik. Die Standardisierung der Schallimpulse machte es möglich, vergleichbare Messwerte zu produzieren, welche wiederum die Objektivierung und das Erlassen akustischer Richtlinien in der Architektur ermöglichten. Die Entwicklung dieser bauakustischen Verfahren war eine Antwort auf die gestiegene Nachfrage an Schalldämmung und Privatsphäre um die Mitte des zwanzigsten Jahrhunderts. Das Hammerwerk – im Englischen die tapping machine und im Französischen die machine à chocs – hämmert, wie sein Name sagt, auf den Boden, im unteren Geschoss wird solange per Dezibelmeter der übertragene Schall gemessen. Während der reale Nachbar in Anwesenheit der Messapparatur vermutlich leiser geht, trampelt das Hammerwerk per Knopfdruck und in konstantem Tempo, bis der Apparat wieder ausgeschaltet wird und die Böden und Decken des Hauses verstummen. Fremde Geräusche in Wohn- oder Geschäftshäusern sind meist unerwünscht und werden als Lärm bezeichnet: als Nachbarschaftslärm, als Soziallärm oder einfach als Gerumpel und Getrampel. Erst mit der Standardisierung des Schallmessprozesses wurden objektive Aussagen zur akustischen Beschaffenheit von Häusern möglich. Das planmäßige Anschlagen von Bauteilen, wie das Klopfen mit dem Hammerwerk, ersetzte die Beschreibung der Störung mit einem Dezibelwert. Lärm war nur noch Schall, welcher in gewissen Situationen von bestimmten Personen nicht erwünscht war. Die Bewertung des Gerumpels und Getrampels von Nachbarn beschäftigt Schlichtungsstellen und Gerichte bis heute. Die Antillrmbewegungen im 20. Jahrhundert verliehen dem Unmut, zumindest einer gewissen gesellschaftlichen Schicht, eine Stimme. Verschiedene Veränderungen in der Bautechnik, die Verbreitung von Radio- und Fernsehempfängern, wie auch die Entwicklung von Einzel- und Reihenhäusern zu Wohnblöcken und -hochhäusern vervielfachten die Möglichkeiten akustischer Störungen (vgl. Abb.1). Menschliches Verhalten, das seit jeher Geräusche produziert, wurde im Zusammenspiel mit dem Faktor Technik plötzlich objektiv messbar. Die unter anderem mit dem Hammerwerk eingeführte Möglichkeit einer wissenschaftlichen Beurteilung stellte den Lärmgegnern neue Argumente zur Verfügung: Während die Antilärmbewegungen Anfang des 20. Jahrhunderts medizinisch und moralisch argumentierten, konnten die Lärmgegner der 1950er und 1960er Jahre sich auf wohnhygienische Studien und Vergleiche von Dezi-

112

Hammerwerk

belwerten stützen.1 Die Willkür der Definition, wann das Maß des Üblichen und Erträglichen überschritten sei und wann eine Störung durch Lärm vorliege, zeichnet soziale Kräftefelder nach. Darüber hinaus stellen sich in der Bauakustik Probleme technischer und technokratischer Natur. Mit welcher Methode konnten wissenschaftlich objektive Messresultate ermittelt werden?

Abb. 1: Nachbarschaftslärm: »Der vom Nachbar Gestörte hat eine Lärmvergeltungsmaschine gebaut.«.

Der Wohnlärm entzog sich besonders hartnäckig einer objektiven Beurteilung. Geräusche, die aus menschlicher Aktivität entstehen, stellte die Fachleute vor besondere Schwierigkeiten, zumal sie sich selten in derselben Form oder auf Abruf hin wiederholen. Andere Töne, wie Nebengeräusche der Haustechnik, von Kühlschränken, Wasserleitungen oder Lüftungen sind zumindest verlässlich hörbar. 1934 heißt es im ersten Buch deutscher Ingenieure, das sich der technischen Bekämpfung von Wohnlärm widmete: Außer den Schallwirkungen, die durch die Luft übertragen werden, stören im Wohnhaus vielfach Gehgeräusche, welche die Decke in Schwingungen versetzen und als Luftschall in den darunter liegenden Räumen wahrgenommen werden. Man bezeichnet diese Art der Schallwirkung als Tr i t t s c h a l l .2

1 Payer 2007; Bijsterveld 2008, 91 ff. 2 Wagner 1934, 24.

Sabine von Fischer

113

Diese distanzierte Art der Beschreibung menschlicher Aktivitäten, ohne Erwähnung der Akteure, ist charakteristisch für die physikalisch-technische Literatur. Die technische Akustik unterscheidet Luftschall (durch die Materie Luft übertragener Schall, zum Beispiel die Stimmen der Nachbarn) und Körperschall (über feste Materie übertragender Schall, wie das Hämmern an einer Wand). Der akustische Fachbegriff Trittschall subsumiert verschiedenste Schallanregungen, die über Decken und Böden als Körperschall in andere Räume übertragen und dort als Luftschall hörbar werden. Der sprachlichen Definition von Trittschall haftet, entgegen dem Wunsch nach quantifizierbaren Werten aus Messungen mit klar gesetzten Rahmenbedingungen, eine gewisse Zufälligkeit an. Oft spiegelt sich in der Beschreibung der Verursacher der Geräusche das soziotechnische Umfeld des jeweiligen Jahrzehnts. Ein Text zum Trittschall von 1951 zum Beispiel nimmt bereits Büro-, aber noch keine Haushaltsgeräte in die Beschreibung auf: Dort ist Trittschall der »Schall, der beim Begehen, Stühlerücken, Schreibmaschineschreiben usw. in einer Decke entsteht, als Körperschall weitergeleitet und als Luftschall abgestrahlt wird.«3 Wenige Jahre später illustrierte die Schallmessfibel den Trittschall mit den Beispielen »Gehen oder Fallenlassen von Gegenständen« und »Bodenpflege im oben gelegenen Senderaum«.4 Ein anderes deutsches Standardwerk fasste die möglichen Trittschallimpulse folgendermaßen zusammen: »Als Anregung kommen z. B. Stühlerücken, Aufprall fallender Gegenstände, Betrieb von Nähmaschinen und anderen Haushaltmaschinen vor.«5 Dieser Autor ergänzte seine Beispiele 1965 durch »Küchenmaschinen, Waschmaschinen« und das »Spielen von Kindern auf dem Fußboden, ja selbst durch das Öffnen einer Schranktür«6 Immer aber bleibt »die häufigste Anregungsform [...] das Begehen von Decken«7. Auch wenn die Definition von Trittschall nie im Fokus der technischen Literatur steht, bildet sie einen der Momente, an der die Versuchsanordnung selbst getestet wird. Als Sammelbegriff verschiedenster Geräusche blieb der Trittschall trotz der Bestrebungen um Objektivität ein Begriff, der immer wieder neu definiert wurde. Seine Simulation mit dem Hammerwerk aber blieb gleich. Vor allem wurde in der zweiten Hälfte des 20. Jahrhunderts wiederholt untersucht und hinterfragt, ob das Hammerwerk den menschlichen Schritt als häufigste Störung angemessen simuliert. Immer wieder wurde von Versuchen berichtet, die den Impuls des Hammerwerks mit dem Aufschlag von Schuhen und Gehweisen von Frauen vergleichen. Hohe Absätze von Damenschuhen wurden am

3 4 5 6 7

Sautter et al. 1951, 5. Bürck 1960, 104. Gösele 1959, 17. Gösele 1965, 84. Gösele 1959, 17.

114

Hammerwerk

häufigsten für Messungen des Geh- und Trittschalls eingesetzt, – anscheinend bestand unter den Fachleuten ein Konsens, diese erzeugten die störendsten Geräusche. Studien, in denen verschiedene Männer- und Frauenschuhwerke verglichen werden, sind ebenfalls nachgewiesen.8 Individuelle Gangarten wie den sog. Fersengang und besonders schwere, tieffrequente Schritte auf Teppichboden – außerhalb des Spektrums der Bauphysik von 100 bis 5000 Hertz – können Normmessungen nicht beurteilen. Die Akustiker Cremer und Heckl hielten schon 1967 bezüglich des Normtrittschallhammerwerks fest, dass damit die Charakteristik von Gehgeräuschen nicht besonders gut nachgebildet wird. Da jedoch Geräusche in Gebäuden nicht nur durch Gehen und Laufen, sondern auch durch Klopfen und fallende Gegenstände erzeugt wird, stellt das genormte Hammerwerk einen – wie die Praxis gezeigt hat – sehr brauchbaren Kompromiss dar.9 Was die Trittschallmaschine so erfolgreich machte, war gerade diese Tatsache, dass sie jeder Ähnlichkeit der menschlichen Physiologie entbehrte. Menschliche Schritte wurden in isolierte akustische Impulse übersetzt und als quantitative Größe objektiviert. Durch diesen Vorgang der Übersetzung wurden die Simulation menschlicher Aktivität und die mechanische Bewegung des Apparats gleichgesetzt. Durch das vorgegebene Gewicht und Tempo der Schläge, die der Apparat verursachte, wurde das Geräusch wiederum von jeder Reminiszenz an den menschlichen Gang gereinigt. So lässt sich für das Hammerwerk nachzeichnen, was Bruno Latour anderswo in der modernen Wissenschaftskultur aufgezeigt hat – wie »durch ›Übersetzung‹ vollkommen neue Mischungen zwischen Wesen: Hybriden, Mischwesen zwischen Natur und Kultur« entstehen, welche in einem zweiten Ensemble »durch ›Reinigung‹, zwei vollkommen getrennte ontologische Zonen, die der Menschen einerseits, die der nicht-menschlichen Wesen andererseits« schafften.10 Um den menschlichen Schritt auf einer Decke zu simulieren, hämmerte in den Laboratorien eine Versuchsanordnung, die nicht die Ähnlichkeit zum menschlichen Gang suchte, sondern jegliche ambivalenten Komponenten – wie Klangfarbe, Tonhöhe oder Rhythmus, und vor allem die individuelle Wahrnehmung und subjektive Bewertung – ausschloss. Der menschliche Fuß wurde durch einen Hammerkopf substituiert, an die Stelle

8 Ebd. 9 Cremer et al. 1967. 10 Latour 2008, 19.

Sabine von Fischer

115

des Ohrs trat ein Dezibelmeter. Nicht die Wirkung der Töne, vielmehr die Feststellung der Schallstärke war ausschlaggebend. Der Begriff ›Trittschall‹, den die angewandte Akustik eigens für ihre Zwecke geprägt hat, ist Teil eines Instrumentariums, mit dessen Hilfe die modernen Wissenschaften sich um Objektivität bemühten. Das paradoxe räumliche Verhältnis von Laboratorium und untersuchter Realität, wie von Bruno Latour in vielen seiner Schriften erörtert, lässt sich auch in der angewandten Akustik nachzeichnen. Auch sie bediente sich der von ihm beschriebenen Distanznahme der Wissenschafter vom untersuchten Objekt. Mittels standardisierter Verfahren sollten fass- und vergleichbare Resultate erzielt werden. In den hier später beschriebenen Messversuchen in Haselhorst von 1936 zum Beispiel wurde gearbeitet, als ob die untersuchten Bauten akustische Laboratorien wären – die Bewohner und ihr Mobiliar sind vor allem als Störfaktoren beschrieben. Seit der Einführung der objektivierten Schallmesstechniken wurden Baumaschinen, Kirchenglocken, Hunde und Flugzeuge, und ebenso Schritte in Dezibel ausgedrückt. Die mittels des Schalldruckpegels erfasste Lautstärke bot die fast einzige Möglichkeit einer Klassifizierung nach objektiven Kriterien. Die Mechanisierung hatte nicht nur die Produktion, sondern ebenfalls die Wissenschaft erreicht und eingenommen.

2. Nur mit gerätetechnischen Methoden Die technische Trittschallmessung verlangte nach einer möglichst isolierten Situation, in der die weitere hörbare Umgebung ausgeschaltet war. Ideale räumliche Bedingungen boten akustische Laboratorien, wo die für Messzwecke isolierten Töne analysiert und in einzelne Parameter zerlegt werden konnten. Seit Wallace Sabines Nachhallexperimenten wurden die wissenschaftlichen Erkenntnisse der frühen akustischen Forschung, z. B. von John William Strutt, Thomas Alva Edison und Alexander Graham Bell, auf den Raum und in die Architektur übertragen.11 Dafür brauchte es nicht nur methodische Konventionen, sondern auch Räumlichkeiten, in denen die akustischen Versuche auf die Größenordnungen ganzer Räume und Häuser erweitert werden konnten. Das früheste, eigens für raumakustische Versuche gebaute Laboratorium wurde in Riverbank im Gliedstaat Illinois 1918 eröffnet.12 Es ist eine additiv gegliederte Struktur 11 Siehe Thompson 2002. Zur Entwicklung von Aufnahmegeräten, Schallplatten und Telefon siehe Read 1976 (1959), Sterne 2003; Morton 2000; 2006. 12 Munby 1922.

116

Hammerwerk

Abb. 2: Akustisches Laboratorium des National Bureau of Standards in Washington D.C.

von kleineren Testräumen um einen zentralen Hauptraum, in dem eine Orgel steht. Entworfen hatte sie der Physiker Wallace Clement Sabine, der oft als Vater der Raumakustik bezeichnet wird und das Verfahren der Nachhallmessung, das bis heute verwendet wird, eingeführt hatte.13 Sabine starb vor der Fertigstellung der Riverbank Laboratories. Dessen Räume waren für die Untersuchung der Schallverteilung im Raum ausgelegt. Für die Untersuchung der Schallübertragung zwischen Räumen waren sie nur begrenzt geeignet. Während der 1920er und 30er Jahre wurde am US-amerikanischen National Bureau of Standards intensiv im Bereich der Bauakustik geforscht. Das dort konstruierte Laboratorium war auch für Messungen der Schallübertragung zwischen Räumen ausgelegt. In einem kubischen Bau lagen vier ähnlich große Räume, wobei ein Wand- und ein Deckenteil ausgespart waren, damit Bauteile eingesetzt und akustisch getestet werden konnten (vgl. Abb. 2).14 In der unterschiedlichen architektonischen Gliederung der Laboratorien der älteren Riverbank Laboratories und des Akustiklaboratoriums des 13 Thompson 2002. Bereits 1895 hatte Sabine in einem Untergeschoss der Harvard University ein Laboratorium für Nachhallexperimente eingerichtet 14 Eckhardt et al. 1926-27, 37-63.

Sabine von Fischer

117

Abb. 3: Der Physiker Vivian Leroy Chrisler bei einer akustischen Messung in den 1920er Jahren. Bild: Emilio Segrè Visual Archives/American Institute of Physics.

National Bureau of Standards artikuliert sich der Bruch zwischen der frühmodernen und der im Sinne einer größtmöglichen Objektivierung radikal modernisierten akustischen Forschung. Als die Forscher des Bureau of Standards 1926 mit Messungen der Schalldurchlässigkeit verschiedener Materialien begannen, beschlossen sie, jegliche subjektive Faktoren aus ihren Versuchen zu eliminieren und diese »nur mit gerätetechnischen Methoden«15 durchzuführen. Die radikale Reduktion der Versuchsanordnung, die Beschränkung auf wenige Parameter und mechanische Verfahren in der Messung brachten Forschungserfolge, welche international verfolgt wurden und später der Normengebung den Weg wiesen. Sogar die Person des Forschers wurde aus der Versuchsanordnung eliminiert. Eine Aufnahme eines Versuchs des Bauphysikers Vivian Leroy Chrisler am National Bureau of Standards zeigt ihn in einer Kiste, aus der nur sein Kopf herausragt. Körper und Kleidung sollten keinen Einfluss auf die Messung der Geräusche des getesteten Filmprojektors nehmen. Das Publikum, gestellt von Mitarbeitern des Instituts, war Teil der Versuchsan-

15 »entirely by instrumental methods«, Chrisler et al. June 1935, 749.

118

Hammerwerk

ordnung. Die Person des versuchsleitenden Physikers aber sollte ausgeschaltet werden: seine Kleidung genauso wie seine Sinneswahrnehmungen (vgl. Abb. 3). Nicht nur die Räume waren so neutral wie möglich ausgelegt, auch die darin verwendeten Instrumente folgten dem Diktum der Standardisierung. Unter Chrislers Anleitung entstand schließlich auch das Hammerwerk, dessen elektrischer Antrieb ein immergleiches Tempo angab und dessen fünf Hammerköpfe die immergleiche Schallenergie auslösten. Im Januar 1930 ist das erste elektromechanisch angetriebene Hammerwerk dokumentiert. Es ist auf der letzten Seite von Chrislers sechsseitigem Bericht über der Beschreibung als »Maschine zur Erzeugung von Trittschall« abgebildet.16 Wie der Heulton der Lautsprecher für die Luftschallmessungen bot das Hammerwerk einen konstanten, kontrollierbaren Impuls für Trittschallmessungen: Fünf an Stahlstäben aufgehängte Gewichte werden von einem elektrischen Motor angehoben und im Rhythmus von Fünftelsekunden fallen gelassen. Der Vorteil der Entwicklung dieser Maschine bestand darin, dass sie eine in Tempo und Impulsstärke konstante Schallanregung produzierte, welche wiederholbare Messungen der gleichen Hammerschläge auf verschiedenen Unterlagen erlaubte (vgl. Abb. 4).

Abb. 4: »Machine for producing impact sounds«.

Der Apparat des National Bureau of Standards hämmerte fünf Mal pro Sekunde. Der Rhythmus der Hammerschläge des Geräts des Instituts für Schwingungsmessung an der Technischen Hochschule Berlin war doppelt so schnell. Die fünf Eisenhämmer des Apparats, welcher ›Trittschallsender‹ genannt wurde, waren auf eine 1 cm dicke Buchenholzauflage aufgesetzt (vgl. Abb. 5)17. Am Berliner Gerät waren die Hämmer kreisförmig um den Motor angeordnet –  eine Konfiguration, die auch in England gebaut wurde. 7,33 Schläge pro Sekunde erzeugte das von den britischen Akustikern Norman Fleming 16 »machine for producing impact sounds«, Chrisler Jan 1930, 180. 17 Gastell 1936, 29

Sabine von Fischer

119

Abb. 5: »Trittschallsender« des Instituts für Schwingungsforschung an der Technischen Hochschule zu Berlin. Abb. 6: »Apparatus to impart an impact power of 1 watt«.

und William Alexander Allen entwickelte Hammerwerk, dessen Hammerköpfe jeweils zwei Pfund wogen – der deshalb wohl schwerste der hier dokumentierten Apparate.18 (vgl. Abb. 6) An der technischen Universität Chalmers in Göteborg wurden fünf Exemplare eines Geräts gebaut, das langsamer, nämlich nur zwei Mal pro Sekunde schlug.19 Annäherungen an den menschlichen Schritt sind keine dieser Tempi, vielmehr folgte die Ablösung durch diese hohen Geschwindigkeiten dem Wunsch nach einer Objektivität.

3. Normtrampler in Serie Bis 1950 bauten die verschiedenen akustischen Laboratorien ihre eigenen Apparate, teilweise auch mehrere für den jeweiligen Gebrauch. Die Messungen der verschiedenen akustischen Laboratorien waren untereinander nicht vergleichbar, da sie unter verschiedenen Bedingungen durchgeführt wurden. Erst im Jahr 1950 wurde ein normiertes Gerät in Serie hergestellt: Das Modell 3202 der dänischen Firma Brüel & Kjær, eine Wei18 Beranek 1949, 886. 19 Brüel August 2008, 16.

120

Hammerwerk

terentwicklung des Göteborger Hammerwerks, wurde Teil der sukzessiven Normierung des Schallschutzes in Gebäuden. Die bereits mit dem ersten nordamerikanischen Gerät von 1930 eingeführten Hammergewichte von 500 Gramm wurden in den 1950er Jahren in einer deutschen und später in einer internationalen Norm festgeschrieben. Schwere und leichtere Gewichte waren an verschiedenen Instituten getestet worden, doch die Forscher kamen immer auf den mittleren Wert der 500 Gramm zurück. Das Gewicht von 500 Gramm pro Hammerkopf und eine »Frequenz von etwa 10 Hz« wurde 1938 Bestandteil der deutschen Norm DIN 4110. Nicht in allen Ländern einigten sich die Behörden so schnell auf Normenwerte wie in Deutschland, und so wurden die deutschen Normen zur Referenz späterer Normierungsprozesse. Im Jahre 1947 haben sich 162 Länder zu einem internationalen Netzwerk der International Organization for Standardization (ISO) zusammengeschlossen. Die ISO hat bis 2011 über 18.500 Normen entwickelt, darunter auch für die 1960 erlassene Empfehlung ISO 140 über die Messung von Trittschall, welche 1978 zur internationalen Norm wurde.20 Die älteren Hammerwerke mit ihrer unterschiedlichen Anzahl von Hämmern sind verschwunden, durchgesetzt hat sich die Reihung von fünf Köpfen. Die wenigen kreisförmig angeordneten Hämmer wichen zugunsten einer linearen Anordnung, wie Vivian Leroy Chrisler sie 1930 gebaut hatte. Wenig Variation bleib im Gewicht erhalten: Apparate für den stationären Gebrauch im Labor waren größer, jene für Messungen außerhalb kleiner und, mit Griffen ausgestattet, in tragbare Koffer eingebaut (vgl. Abb. 7, 8). Der technische Aufbau des Apparats ist einfach und hat sich über die letzten 80 Jahre nur wenig verändert. Das Prinzip ist gleich geblieben, gestiegen ist einzig der Anspruch an Präzision, mit welcher die ISO 140-6 und 140-7 in ihrer aktuellen Fassung das bauakustische Messverfahren für die Bestimmung des Norm-Trittschallpegels an Prüfständen und in Gebäuden vorschreibt. In Deutschland wurde das »in seinen mechanischen Daten genau festgelegte Hammerwerk« als ›Normtrampler‹ bezeichnet.21 In diesem fast liebevollen Sprachgestus wird vermenschlicht, was ein Instrument der Objektivierung und Standardisierung ist. An einem metallenen Steg bewegt sich eine Serie von Schlaghämmern auf und ab und erzeugt ein kontinuierliches Poltern. Dabei geht es aber nicht um die Bestimmung der Lästigkeit oder Störung, welche auch psychologischen Faktoren unterliegt, oder einer qualitativen Beschreibung, die auch eine Stimmung einfangen könnte. Jenseits jeder Wertung leistet das Hammerwerk, was die Messtechnik sich wünscht: einen konstanten, automatisierten und wiederholbaren Vorgang, der quantitative Größen produziert. 20 www.iso.org: ISO Standards, 3.8.2011. 21 Bürck 1955, 64.

Sabine von Fischer

121

Abb. 8: »Normtrittschallhammerwerk in Betrieb«. Abb. 7: Tragbares Hammerwerk, Stuttgart.

4. Grenzen der Messbarkeit Die Methoden der bauakustischen Messversuche aus den Laboratorien in die gebaute Stadt zu verschieben und auf ganze Häuser und Siedlungen anzuwenden, stellte die angewandte Akustik vor neue Probleme. Viele der deutschen Messungen in den 1930er Jahren beschränkten sich auf Luftschall, der mit Lautsprechern simuliert wurde. Dass die Geräte kleiner und leichter wurden, erleichterte den Transfer der Messmethoden aus dem Laboratorium in die real gebauten Häuser.22 Viele Apparate waren »wegen ihres größeren Umfanges zu Messungen in praktischen Bauten schwer zu verwenden«.23 Deshalb bauten die Akustiker des Instituts für Schwingungsforschung der Technischen Hochschule Berlin für die 1936 beschriebenen Messungen eine portable Versuchsanordnung aus Schallsendern und Schallempfängern. Die Versuche wurden in der seit vier Jahren bewohnten Reichsforschungssiedlung Spandau-Haselhorst (dem größten Berliner Siedlungsprojekt der Weimarer Republik) und einzelnen weiteren staatlichen, städtischen und privaten Gebäuden durchgeführt.24 Das Ziel der Messungen war unter anderem, Richtlinien für Messverfahren herzuleiten, die in der überarbeiteten deutschen Schallschutznorm von 1938 veröffentlicht werden sollten. 22 Reiher 1932, 15. 23 Gastell 1936, 25. 24 Meyer 1972, 134 ff.

122

Hammerwerk

Mit Hammerwerk, vier Schallplatten mit Heultönen in vier Frequenzbereichen, 10 WattVerstärkern, einem elektrodynamischen Lautsprecher und einem Geräuschmesser mit einem Kondensatormikrophon ausgestattet, erbaten sich die Akustiker Zutritt zu den privaten Räumen. Die Bewohnerinnen und Bewohner ließen die Techniker offensichtlich ungern in ihre Wohn- und Schlafzimmer. Was Gastell über die Körperschallmessungen in wenigen Sätzen beschreibt, sind tage- und wochenlange Arbeiten, abendliche Überstunden und wahrscheinlich nicht wenige Beschwerden über die lauten Heultöne. Das Ausmaß der Versuche wird nur schon durch die Beschreibung der Abnützung veranschaulicht, als »nach 200-maligem Abspielen« vor allem die höheren Frequenzen etwas lauter wurden. »Außerdem waren die Schallplatten nicht mehr zu brauchen, weil der Rand zwischen zwei Rillen an vielen Stellen weggebrochen war.«25 Die Mühen der Physiker in der Reichsforschungssiedlung gingen weit über das Technische hinaus: Schon bei der Luft- und Trittschalluntersuchung in Haselhorst hatte es Schwierigkeiten gegeben, mit je zwei Mietern Messzeiten zu vereinbaren. Bei den Körperschalluntersuchungen wurde es trotz eifrigster Bemühungen der Siedlungsund Hausverwaltung nahezu zur Unmöglichkeit. Denn mit der Messung mussten sämtliche Mieter im Hause einverstanden sein, da ja möglichst für alle Stockwerke die Lautstärkeabnahme bestimmt werden sollte. In den Hochhäusern ließen sich die Messungen nach den normalen Dienststunden gut durchführen. Im ganzen ist etwa 60mal die Körperschallabnahme pro Stockwerk in den verschiedensten Gebäuden bestimmt worden.26 Die schiere Zahl der Messungen belegt bereits die Unsicherheit, in der die Physiker sich bewegten, und welche sie durch wiederholte Versuche zu reduzieren versuchten. Die verschiedenen Einrichtungen der Wohnungen erschwerten es, aussagekräftige Messergebnisse zu erarbeiten: In einem Diagramm hatte Gastell die »Schallschluckung in Wohnräumen« festgehalten, die wegen der Möblierungen in Schlafzimmern am größten und in Leerräumen am kleinsten war. Es wurde »nur in Küchen und Wohnzimmern gemessen, da in den Schlafräumen der Möbelanordnung wegen der Trittschallsender [das Hammerwerk] nicht aufgestellt werden konnte«.27 Ebenfalls wurde in den Schlafzimmern weniger Trittschall angenommen und auch deshalb auf eine Messung verzichtet. Da bei den 2000 Wohnungen die Grundrisse funktional und ökonomisch organisiert waren und es viele Kleinwohnungen gab, waren die Raumnutzungen scheinbar so 25 Reiher 1932, 16. 26 Gastell 1936, 32. 27 Ebd., 31.

Sabine von Fischer

123

klar zugeordnet, dass die Schlafräume übereinander lagen. Für die Wohnzimmer aber musste wegen der unterschiedlichen Möblierung der Grad der »Schallschluckung« für jeden Raum einzeln bestimmt werden.28 Obwohl die Methode der Messung auf eine größtmögliche Objektivierung ausgelegt war, trafen die Forscher in der realen Situation am bewohnten Bau auf variable und instabile Faktoren. Die Praxis stellte die Theorien, wie sie im physikalischen Laboratorium entwickelt worden waren, vor Probleme nicht nur hinsichtlich der Präzision, sondern offenbarte die Problematik der Übersetzung von Wohngeräuschen in standardisierte Schallimpulse. Die Logik des Labors, in die Wohnhäuser hineingetragen, stieß dort auf Widerstände, für welche die Methode nicht ausgelegt worden war. Bruno Latour beschreibt das Paradox der Reduktion von Realität auf die Bedingungen der »Künstlichkeit der Laborumgebung« als Kern moderner Wissenschaft. Würden Versuche außerhalb des Labors wiederholt, folgten sie doch weiterhin der Logik, die innerhalb des Labors galt. Die »Autonomie der innerhalb der Laborwände ›gemachten‹ Entität«29 wurde zur Gleichzeitigkeit zweier grundsätzlich unterschiedlicher Bedingungen. Im Ringen um Glaubwürdigkeit stellte die Wissenschaft ihre Regeln selber auf: Um die Macht, welche die Forscher im Laboratorium gewonnen hatten, zu behalten, so stellte Latour fest, sei eine Projektion der Bedingungen von Innen nach Außen nötig. 30 Auch die Instrumente der technischen Akustik waren darauf ausgelegt, die Schallenergie einzelner Töne und Schläge, wie sie innerhalb des Laboratoriums vermessen und analysiert wurden, in realen Häusern zu erfassen. Ganz reibungslos ging dieser Transfer offensichtlich nicht vonstatten, wie die Schilderung von Messungen im Jahr 1936 in einer bewohnten Berliner Siedlung zeigt. Die Methoden der technischen Bauakustik haben sich seit ihren Anfängen um 1930 allen Widerständen zum Trotz im Lauf des 20. Jahrhunderts verfestigt, denn gerade die Reduktion der gehörten Welt auf wenige Faktoren war ihr Vorteil.

5. Hörbar machen ohne hinzuhören 1935 wurde die 1930 erstmals publizierte Fotografie des Hammerwerks des Bureau of Standards in einer ausführlicheren Publikation zur Beurteilung von Schalldämmungen31

28 Ebd., 27. 29 Latour 2002, 153-154. 30 Latour 2006, 130. 31 Chrisler, et al. June 1935, 749.

124

Hammerwerk

wieder verwendet. In diesem Aufsatz begründet das Bureau of Standards die Entscheidung, alle Messungen mit gerätetechnischen Methoden durchzuführen, auch damit, dass das Gehör noch zuwenig verstanden werde. Die Wissenschaftler stellten fest, dass »das Ohr über einen regulierenden oder schützenden Mechanismus verfügt, dessen Natur nicht vollständig erforscht ist«.32 Gerade diese Unsicherheiten bezüglich der Funktionsweise des Gehörs eröffneten für andere Akteure einen Spielraum für Versuche außerhalb der Objektivierung durch Apparate. Aus der psycho-physiologischen Forschung wuchs der Teilbereich der Psychoakustik parallel zur physikalischen Akustik zur eigenen Disziplin heran. Je genauer diese Disziplinen definiert waren, desto schwieriger wurden Grenzüberschreitungen. Das Forschungsfeld der physikalischen Akustik war mehr denn je auf die Messtechnik beschränkt. Der Kunst diente die Maschine als Geräuscherzeuger immer wieder der Inspiration, zum Beispiel als der futuristische Maler Luigi Russolo 1913 die intonarumori (»Geräuschtöner«) baute oder als der Komponist Rolf Liebermann für die Schweizer Expo 1964 die Symphonie Les Echanges für 156 Büromaschinen komponierte. Aus ihrem ursprünglichen Kontext entfernt, entfalteten diese Apparate eine klangliche Aura, die gleichzeitig Provokation und Entdeckung waren. Im Kontext der Landesausstellung, inmitten des wirtschaftlichen Aufschwungs, entfalteten die Schreibmaschinen, Fernschreiber, Streifenlocher und Telefonapparate eine musikalische Qualität, die im Alltag kaum beachtet oder sogar als störend empfunden wurden. Das Hammerwerk, im Dienst der Standardisierung, bietet klanglich das Gegenteil des Büromaschinen-Orchesters: Es sendet Schalldruckwellen in Form hochgradig standardisierter mechanischer Impulse. Die einzige Absicht in seiner Konzeption war die Erzeugung von Trittschall mit konstanter Intensität und Geschwindigkeit. So hämmert es unerbittlich, mit enormer Energie, wie ein takt- und atemloses Schlagzeug, schnell und laut. Mit diesem Hämmern ohne Variation bietet das Hammerwerk der Bauakustik ein Instrument, welches »die Naturmechanismen von den Leidenschaften«33 trennt, indem die ganze Welt rein mechanisch nachgebildet wird. Auch der Fuß, der Schritt und fallende Gegenstände werden gleichgesetzt mit Schalldruckwellen von fünf Hämmern von je 500 Gramm Gewicht. Im Alltag mag es Geh-, Hüpf-, Trampel-, Trippel-, Schlurf-, Quietsch-, Knarr- und Kratzgeräusche geben. Diese qualitativen Aussagen vermitteln in Baubewilligungs- oder Gerichtsverfahren keine Grundlagen zur objektiven Beurteilung, 32 »The ear has a regulating or protecting mechanism whose nature is not fully understood«, Chrisler, Snyder 1935, 752. 33 Latour 2008, 50.

Sabine von Fischer

125

unerheblich davon, ob es sich um zulässige Alltagsgeräusche oder um übermäßigen Lärm handelt. Eine Bewertung findet erst durch die technische Messung statt: In Dezibelwerte übersetzt und von Wahrnehmungen gereinigt, wird die gemessene Lautstärke des Hammerwerks zur Instanz, ob die empfundene Lautheit innerhalb oder außerhalb der Norm liegt. Während die Bau- und Wohnkultur in den letzten Jahrzehnten geradezu umgewälzt wurde, hat sich in der Praxis der Bauakustik wenig verändert. Angesichts der Entwicklungen der medialen Umwelt im Laufe der letzten hundert Jahre könnte das Hammerwerk wie ein Relikt früher moderner Technik anmuten, und dennoch hat es sich in Erscheinung und Funktion seit 1930 kaum verändert. Wenn sich heute unverhofft die Aufmerksamkeit auf diesen Apparat richtet, geschieht dies im Zuge einer Archäologie der Gegenwart – was sowohl eine Kritik am technischen Fortschrittsglauben als auch eine Anspielung auf die phänomenologische Tradition ist. Parallel zur normativen Praxis der technischen Messung mit dem Hammerwerk haben die sogenannten weichen Wissenschaften, in diesem Fall die Soziologie, Anthropologie und Philosophie, ein Vokabular für die Erfassung der Lebenswelt zu schaffen sich vorgenommen. Die Bauakustik hat mit dem Apparat des Hammerwerks ein Gerät entwickelt, dessen Töne den Schall fast ohne weitere Eigenschaften übertragen, nämlich als Lautstärke ohne Qualitäten. Jenseits der Komplexität der Klangbeurteilung und -beschreibung, ohne Klangfarbe oder zeitlichen Verlauf, wie sie üblicherweise Geräusche und Musik charakterisieren, gelangt der so erzeugte Schalldruck zum Dezibelmeter. Gerade in dieser Reduktion liegt der Vorteil des Hammerwerks. Entkoppelt von den alltäglichen Geräuschen des Wohnens und Arbeitens geschieht die akustische Bewertung von Bauteilen anhand von monotonen, elektromechanisch erzeugten Hammerschlägen. Die Lösung für die lärmempfindlichen Bewohner der Architektur des 20. Jahrhunderts liegt paradoxerweise nicht im genaueren Hinhören, sondern in einer Messmethode, welche Töne auf einen Schalldruckpegel reduziert. Die unerbittlich lauten und andauernden Schläge des Hammerwerks produzieren nicht alltägliche Wohngeräusche, sondern wissenschaftliche Fakten ohne jede Ambivalenz.

Danksagung Dank an alle Diskussionspartner für ihre Hinweise und Kritik, vor allem an Laurent Stalder, David Gugerli und Kurt Eggenschwiler, die Referenten meiner laufenden Dissertation Hellhörige Häuser – Raum, Klang, Architektur 1930-1970 an der ETH Zürich, wie auch an Chandrasekhar Ramakrishnan für unsere Gespräche und für die Inspiration durch seine Musik.

126

Hammerwerk

6. Quellen Achenbach, Paul R. (1970): Building Research at the National Bureau of Standards, Building Science Series, Vol. O, Washington D.C. Beranek, Leo Leroy (1949): Acoustic measurements, New York. Berger, Rich. (1931): Zur Geschichte der Lärmabwehrbewegung, in: Die Schalltechnik 4, 1-9. Bijsterveld, Karin (2008): Mechanical sound. Technology, culture, and public problems of noise in the twentieth century, Cambridge, Mass. Brüel, Per V. (2008): Of Acoustics and Instruments II., in: Sound and Vision, August, 14-32. Bürck, Werner (1955): Die Schallmessfibel für die Lärmbekämpfung. Eine Anleitung zur richtigen Verwendung von Luftschall- und Körperschall-Messgeräten in der Praxis und zur sinngemässen Beurteilung der Messergebnisse, geschrieben für beruflichtechnisch Interessierte oder Techniker, aber nicht für Spezialisten, Mindelheim. Bürck, Werner (1960): Die Schallmessfibel für die Lärmbekämpfung, 2. erweiterte Auflage, München. Chrisler, Vivian L. (1930): Measurement of Sound Transmission, in: The Journal of the Acoustical Society of America 1, 175-180. Chrisler, Vivian L. / Snyder, Wilbert F. (1935): Recent Sound-Transmission Measurements at the National Bureau of Standards, in: Journal of Research of the National Bureau of Standards 14. Cremer, Lothar / Heckl, Manfred (1967): Körperschall, Berlin. Eckhardt, E. A. / Chrisler, Vivian. L. (1926/27): Transmission and absorption of sound by some building materials, in: Scientific papers of the Bureau of Standards 21, 37-63. Gastell, A. (1936): Schalldämmungen in der Praxis und Vorschläge zur Normung des Schallschutzes, in: Akustische Zeitschrift 1, 24-35. Gösele, Karl (1951): Ein Beitrag zur Frage der Luft- und Trittschalldämmung von Massivdecken, Ed. Forschungsgemeinschaft Bauen und Wohnen (FBW), Vol. 10, Stuttgart. Gösele, Karl (1959): Zur Messung und Beurteilung des Trittschallschutzes, Stuttgart. Gösele, Karl (1965): Schall, Wärme, Feuchtigkeit Grundlagen, Erfahrungen und praktische Hinweise für den Hochbau. Latour, Bruno (2002): Die Hoffnung der Pandora. Untersuchungen zur Wirklichkeit der Wissenschaft, Frankfurt a. M.

Sabine von Fischer

127

Latour, Bruno (2006): Gebt mir ein Laboratorium und ich werde die Welt aus den Angeln heben, in: Belliger, Andréa / Krieger, David J. (Hg.), ANThology: Ein einführendes Handbuch zur Akteur-Netzwerk-Theorie, Bielefeld, 103-139. Latour, Bruno (2008): Wir sind nie modern gewesen. Versuch einer symmetrischen Anthropologie, Berlin. Meyer, Edina (1972): Paul Mebes, Berlin. Munby, Alan E. (1922): American Research in Acoustics, in: Nature 110 (2765), 575577. Payer, Peter (2007): The Age of Noise: Early Reactions in Vienna, 1870-1914, in: Journal of urban history 33, 773-793. Reiher, Hermann (1932): Über den Schallschutz durch Baukonstruktionsteile, München. Sautter, Leopold / Brandt, Helmut (1951): Schallschutz im Wohnungsbau. Bautechnische Hefte für den Wohnungsbau 5. Ed., hrsg. im Auftrage des Beirats für Bauforschung beim Bundesministerium für Wohnungsbau von Dr.-Ing. Dr. J. Brandt und Professor Dr.-Ing. e. h. B. Wedler, Berlin-Tempelhof. Schoch, Arnold (1937): Die physikalischen und technischen Grundlagen der Schalldämmung im Bauwesen, Leipzig. Sterne, Jonathan (2003): The audible past. cultural origins of sound reproduction, Durham. Thompson, Emily (2002): The Soundscape of Modernity. Architectural Acoustics and the Culture of Listening in America, 1900-1933, Cambridge, Mass. Wagner, Karl Willy (1934): Das lärmfreie Wohnhaus, hrsg. vom Fachausschuss für Lärmminderung beim Verein deutscher Ingenieure, Berlin.

128

Hammerwerk

Das Sonische und das Meer Epistemogene Effekte von Sonar 1940 | 2000 Shintaro Miyazaki

Im Meer ist es meist dunkel. Wo es dunkel ist, kommt der Hörsinn zum Zug. Dieser ist jedoch unter Wasser limitiert, denn Schallwellen im Wasser schwingen sich durch Fleisch und Körperflüssigkeiten hindurch. Wir hören unter Wasser mit dem Schädel, nur dieser hat genug Impedanz respektive Resistenz für Schallwellen, die sich im Wasser verbreiten.1 Dadurch wird das Richtungshören verhindert, denn dafür werden zwei Resonanzkörper – das linke und das rechte Ohr – benötigt. Der Schädel resoniert im Wasser jedoch als Ganzes. Epistemische Apparaturen, welche solche körperlichen Mängel aufheben sollen, werden oft virulent, wenn es um das Überleben von sozio-kulturellen Gefügen und Gemeinschaften geht. Im Fall des Hörens und Navigierens unter Wasser geschah dies in zweifacher Weise: Einerseits am 14. April 1912 durch den Untergang der Titanic wegen eines Zusammenstoßes mit einem Eisberg und andererseits durch die U-Boot Kriege des beginnenden ersten Weltkriegs, spätestens am 22. September 1914, als drei britische Panzerkreuzer von der U9 – ein U-Boot der Deutschen Kaiserlichen Marine – versenkt wurden. Beide massenmedial vermittelten Katastrophen entstanden aus mangelnden Kenntnissen über die Orientierung und Navigation unter Wasser. Sie provozierten technische Lösungen des präzisen Unterwasser-Richtunghörens und der Objekterkennung beziehungsweise der Erlangung von Kenntnissen über die unsichtbaren räumlichen Verhältnisse unter Wasser durch Schall, um etwa nahende Eisberge, angreifende Torpedos oder U-Boote zu erhören.

1 Helmreich 2007, 624.

129

Der Begriff SONAR wurde erst spät (nämlich 1942) von Frederick Vinton Hunt, dem damaligen Direktor des Harvard Underwater Sound Laboratory geprägt und war eine Abkürzung für Sonic, Azimuth and Range. Sonar wurde jedoch schon 1943 von der US Navy in das heute allgemein bekannte Sounding, Navigation and Ranging umgedeutet. In England benutzte man bis in die frühen 1950er Jahre das Akronym ASDIC für AntiSubmarine Division plus -ic als adjektivische Endung der englischen Sprache.2 Die diversen historischen Situationen, in denen die prinzipiell sonisch operierende Medientechnik Sonar involviert war, sind nicht nur durch materiell-physikalische, sondern auch epistemisch-kulturelle Verschaltungen, Gefüge und ihre Kurzschlüsse bedingt. Sonartechnologien induzierten in einigen hier nur exemplarisch darstellbaren historischen Situationen Praktiken der Sonifikation,3 die für Menschen zuvor Unhörbares in hörbare Phänomene durch den Einsatz akustischer Medientechnologien transformierten und gleichzeitig damit neues wissenschaftliches, aber ebenso militärstrategisches Wissen produzierten. Sonartechnologie bildet durch ihr spezifisch subnautisches Gefüge von Elektro-Akustik ein interessantes kultur- und medienhistorisches Untersuchungsgebiet, wenn es um die Frage nach dem Zusammenhang von Unsichtbarkeiten, Hörpraktiken und Medientechnologien geht. Mit sonisch ist dabei ein Wissensbereich gemeint, der zwischen einer technisch geprägten Wissenspraxis der Hydro- respektive Elektroakustik und einer kulturell beziehungsweise ästhetisch geprägten Praxis der Klangproduktion – vereinfacht formuliert zwischen den Begriffen Schall und Musik – oszilliert.4 Im vorliegenden Beitrag wird es nur indirekt um die computerbasierte Sonifikation von Daten, wie sie seit den 1990er Jahren in der wissenschaftlichen Gemeinschaft der International Conference on Auditory Display (ICAD) theoretisiert wurde, gehen. Vielmehr werden einige weniger beachtete Randphänomene einer Kulturgeschichte der Sonifikation untersucht, die sich in einigen historischen Konfigurationen der Sonartechnologie aufzeigen lassen. Die Untersuchung dieser Randphänomene zeigte, dass die Repräsentation von nichthörbaren Prozessen durch hörbare Prozesse nur solange praktiziert wird, bis technisch aufwändigere, aber für den Benutzer leichter zugängliche Verfahren, die meist nur das Auge ansprechen, praktisch implementierbar werden. Diese für den

2 Hackmann 1984. 3 Sonar und die Sonifikationsforschung haben ein prototypisches Verhältnis, so untersuchte bereits Gregory Kramer, einer der Begründer der wissenschaftlichen Auditory-Display-Forschung in An Introduction to Auditory Display die sonisch operierende Medientechnik Sonar, nämlich im Abschnitt »Other uses of nonspeech audio to convey information.« Vgl. Kramer 1994b, 29-32. 4 Dazu Ernst 2008, 1. Als super-sonisch werden im Folgenden akustische Phänomene im Ultraschallbereich und als trans-sonisch klangähnliche, das heißt schwingende Phänomene, die aber physikalisch betrachtet nicht durch akustische, sondern zum Beispiel durch elektromagnetischer Verfahren erzeugt werden, bezeichnet.

130

Das Sonische und das Meer

Fall des passiven Sonars5 detailliert untersuchte Tendenz zur Bildlichkeit6 provozierte Fragen bezüglich dem Status von Techniken der Hörbarmachung und damit von Sonifikation im Allgemeinen, die am Schluss des Beitrags dargelegt werden.

1. Präludien Im vorliegenden Abschnitt werden die wichtigsten technikhistorischen Stationen und Eckdaten der Entwicklung des Sonars nachgezeichnet, um danach auf ihre sonischen Praktiken in jeweils spezifischen Kontexten und Konfigurationen eingehen zu können. Bereits Leonardo da Vinci erforschte im 15. Jahrhundert die Unterwasser-Akustik, doch erst die Physiker Jean-Daniel Colladon und Charles Strums machten 1826 konkrete Messungen am Genfersee und berechneten für die Verbreitungsgeschwindigkeit von Schall unter Wasser 1435 m pro Sekunde bei 8 °C, was mehr oder weniger dem heute akzeptierten Wert entspricht. Damit beträgt die Schallgeschwindigkeit im Wasser etwas mehr als das Vierfache der Geschwindigkeit in der Luft, die 343 m pro Sekunde beträgt. Diese Kenntnisse legten die Grundsteine für die spätere Methode der Echolotung und Tiefenmessungen des Meeres, die ohne Sicht, sondern nur durch das Senden und Empfangen von Schallimpulsen erfolgte. Raum konnte von da an mit Zeitdauern gemessen werden. Klang wurde damit zur operativen Kernkomponente der Vermessung der Ozeane mittels Sonartechnologie. Das Hydrophon – die Grundvoraussetzung für das Hören unter Wasser – wurde um 1889 von L. I. Blake an der Kansas University und etwas später von Elisha Gray und Arthur J. Mundy nochmals erfunden.7 Die Verbesserung der Erfindung resultierte 1905 in ein Patent, das aber alleine von Arthur J. Mundy eingereicht wurde und für den Bereich der damals bereits international erforschten Unterwasser-Telegrafie gedacht war. Dies war ebenso das neue Gebiet, in das der Rundfunkpionier Reginald Fessenden 5 Im aktiven Sonar werden messende Schallimpulse aktiv ausgesendet, wohingegen im passiven Sonar Unterwassersignale empfangen und abgehört werden. Da es sich beim aktiven Sonar eher um ein Messverfahren handelt, das meist ohne eine besondere kognitive Performanz des Hörenden auskommt, konzentriert sich der vorliegende Beitrag vornehmlich auf das geschulte Ohr in Bezug zum passiven Sonar. 6 Zur Verschränkung von Bild und Objektivität siehe Daston, Galison 2007. 7 Elisha Gray ist berühmt dafür, dass er 1876 angeblicherweise zwei Stunden nach Alexander Graham Bell sein Patent für ein Telefon einreichten wollte, das Patent jedoch nicht bekam. Dafür prägte er den heute noch üblichen Begriff Hydrophon für Unterwasser-Mikrophone, der vorher für die Bezeichnung eines mit Wasser gefüllten Beutels, der mit einem Stethoskop verbunden war, benutzt wurde. Vgl. Hackmann 1984, 5.

Shintaro Miyazaki

131

1912 wechselte, als er Probleme mit seiner Firma National Electric Signaling Company (NESCO) bekam.8 Doch nicht die Unterwasser-Telegrafie, sondern die subnautische Distanzmessung und Navigation waren das eigentliche Gebiet, für das sich Fessenden interessierte. Der Grund dafür war die Titanic-Katastrophe vom 14. April 1912,9 bei der das gigantische Passagierschiff Titanic mit einem Eisberg kollidierte und in die Tiefen des Meeres versank. Dabei starben 1513 Menschen. Die heute immer noch bekannte Katastrophe als Medienereignis löste – so zumindest die Anekdoten – bei drei Erfindern und Wissenschaftlern völlig unabhängig voneinander die Erfindung der Echolotung aus,10 darunter war ebenso Fessenden. Er reichte 1913 ein Patent mit dem Titel Method and Apparatus for Submarine Signaling ein und beschrieb darin seinen Oszillator, einer der ersten Unterwasser-Klangerzeuger, die nicht mehr wie bisher mit mechanischen – wie bei Glocken oder Wasserpfeifen –, sondern mit elektrodynamischen Verfahren Klang erzeugten. Am 27. April 1914 wurde ein Prototyp produziert.11 Die Echolotung funktionierte mit dieser Technik leider nur in bestimmten idealen Situationen. Sie war noch nicht bereit für den Kriegseinsatz. Erst die im Auftrag der französischen Regierung während dem Ersten Weltkrieg entstandenen super-sonischen12 Schallwandler von Constantin Chilowsky in Zusammenarbeit mit dem französischen Physiker und Professor am Collège de France in Paris Paul Langevin waren zuverlässig genug, so dass sie theoretisch unter erschwerten Bedingungen des Kriegs eingesetzt werden konnten. Am 29. Mai 1916 wurde das Patent Procédés et appareil pour la production de signaux sous-marins dirigés et pour la localisation à distance d‘obstacles sous-marins (Verfahren und Apparatur für die kontrollierte Erzeugung von Unterwassersignalen und für die Distanzortung von Hindernissen unter der Wasseroberfläche)13 von Langevin eingereicht. Es beschrieb ein Verfahren, das eine spezielle Variante eines Kondensators, der mit elektrostatischen Kräften eine Glimmerplatte zum Schwingen brachte, benutzte.14 Diese Ultraschallerzeu8 Frost 2001, 466. 9 Ebd., 467. 10 Am 10. Mai 1912 reicht der Meteorologe, Physiker und Pionier der Wetterberechnung Lewis Fry Richardson sein Patent Apparatus for Warning a Ship at Sea of its Nearness to Large Objects Wholly or Partly under Water beim britischen Patentamt ein. Es beschrieb vor allem die Idee des Echolots, aber keine konkrete apparative Realisierung. Der deutsche Erfinder Alexander Brehm hingegen reichte am 21. Juli 1913 ein technisch detailliertes Patent für die Einrichtung zur Messung von Meerestiefen und Entfernungen und Richtungen von Schiffen oder Hindernissen mit Hilfe reflektierter Schallwellen im deutschen Reichspatentamt ein. Eine Weiterentwicklung dieser Apparatur wurde zehn Jahre später in der Deutschen Atlantik Expedition von 1925–27 massiv eingesetzt, die zum ersten Mal die Meerestiefen des Südatlantik kartografierte. Dazu Fußnote 44. 11 Frost 2001, 470 ff. 12 Siehe Fußnote 4. 13 Übersetzung von S. M. 14 Zimmerman 2002, 41 ff.

132

Das Sonische und das Meer

ger konnten im Bereich von 50-200 kHz aktiv schwingen und passiv resonieren. Das heißt, sie waren sowohl Mikrophon als auch Lautsprecher. Da die Tiefenmessungen mit diesen Verbesserungen noch ungenügend kontrollierbar waren, suchten Chilowsky und Langevin nach weiteren Verbesserungen und fanden einige im Februar 1917, indem sie einen piezo-elektrischen Klangerzeuger aus Quarz entwickelten, der sich viel einfacher handhaben ließ.15 Die nun ziemlich ausgereifte Entwicklung erweckte das Interesse der Briten und Amerikaner, die ebenso bereits an ähnlichen Entwicklungen forschten, aber bisher erfolglos blieben, woraufhin Langevin seine Resultate am 31. Oktober 1918 – elf Tage vor dem Ende des Ersten Weltkriegs – an der Interallied Conference on Submarine Detection by Means of Supersonics in Paris vorstellte.16 Obwohl der Erste Weltkrieg bald vorbei war, war die militärische Relevanz der damals brandneuen Technologie hoch genug, so dass die kriegsfähigen Nationen – allen voran die Briten – die Entwicklung im Bereich des Unterwasserhörens und -navigierens massiv vorantrieben. Das Vereinte Königreich beziehungsweise die Royal Navy etablierte sich ab den 1920er Jahren dadurch bis etwa zum Kriegseintritt der USA im Dezember 1941 als (medien-)technologische Speerspitze des Unterwasserhörens.17 In den anderen kriegsfähigen Nationen gingen die Forschungen nach dem Ersten Weltkrieg parallel weiter beziehungsweise begannen bereits vorher, doch jeweils in unterschiedlichen Größenordnungen. Anstatt die einzelnen mikrohistorischen Entwicklungen und ihre Effekte unnötig kompliziert darzustellen, soll hier lediglich darauf hingewiesen werden, dass es ähnlich wie beim Radar18 einen Wissenstransfer zwischen den Briten und den Amerikanern gab, wobei die USA seit ihrem Kriegseintritt in den Zweiten Weltkrieg massiv in kriegsrelevante Forschung investierten und dabei die Entwicklungen der Briten überboten. Während die Franzosen, Briten und Amerikaner sich zugespitzt formuliert eher auf die Echolotung konzentrierten, waren es die Deutschen, welche die passive Aushorchung von feindlichen Kriegsschiffen und U-Booten weiterentwickelten.19 Dabei war das Gruppenhorchgerät (GHG) das wichtigste Unterwasserortungsgerät der deutschen U-Boote. Es wurde ab 1925 entwickelt und ab 1935 in alle deutschen U-Boote eingebaut.20 Anders als bei den drehbaren Horchanlagen der Amerikaner waren die zuerst elektrodynamischen und später auf Piezokristallen basierenden Mikrophone im Rumpf der U-Boote in längeren Reihen eingebaut. Durch einen Kompensator – vereinfacht 15 Ebd., 42. 16 Die vom Research Information Service of the American National Academy of Sciences ins Englische übersetzte Version des Vortrags ist vollständig in Zimmermann 2002 abgedruckt. Vgl. ebd., 43–53. 17 Dazu ausführlich Hackmann 1984, 73–95. 18 Hagemayer 1979, 340. 19 Hackmann 1984, 295 und Rössler 1991, 12, 19. 20 Rössler 1991, 22, 25.

Shintaro Miyazaki

133

gesagt ein Analogrechner – konnte die Richtung der Schallquelle bestimmt werden. Am Ende der Schaltung von Vorverstärkern und Klangfiltern war ein Kopfhörer des Horchers angeschlossen.21 Die wichtigsten technischen Vorraussetzungen für die Medientechnik, die etwa zwanzig Jahre später Sonar genannt wurde, waren bereits anfangs der 1920er Jahre gegeben. Trotzdem springt der historiografische Fokus des vorliegenden Beitrags im Folgenden um zwanzig Jahre vorwärts. Ein Handbuch für angehende Sonaroperateure der US Navy von 1944 beschrieb nicht nur auf einfachste und zugänglichste Art die praktische Arbeit des auditiven Suchens nach feindlichen Schiffen und Torpedos, sondern erlaubte den nach fast siebzig Jahren Abstand immer noch nachvollziehbaren hörenden Abgleich mit einer Schulungsschallplatte aus der selben Zeit.22 Im Zuge der Frage nach dem Verhältnis von möglichen randständigen Praktiken der Sonifikation mit einigen historischen Konstellationen der Sonartechnologie überzeugen Klangbeispiele aus der Matrosenschulung der US Navy in Kombination mit Schulungsdokumenten weitaus mehr als bisher unauffindbare Dokumente der Zeit zwischen 1925 und 1935, da es hier vornehmlich um eine Untersuchung der hörenden Praktiken eines Sonaroperateurs geht.

2. Geschulte Ohren im passiven Sonar 1940 Ein Sonaroperateur auf einem U-Boot der US Navy während und kurz nach dem Zweiten Weltkrieg musste sich mit folgenden fünf Geräten auskennen: erstens dem Hydrophon, zweitens dem Audioverstärker und der Filteranlage, drittens dem Kopfhörer, viertens dem mechanischen Kontrollmechanismus für die Drehung des Hydrophons und fünftens den elektrischen Kabeln, die alle Teile miteinander verbanden.23 Dabei gab es zwei verschiedene Hydrophonarten, die jeweils den sonischen und super-sonischen Bereich abhörten, wobei die super-sonischen Signale jeweils in den hörbaren Bereich moduliert wurden. Super-sonischer Schall – Ultraschall – wurde meist von Schiffen für die Ortung

21 Ebd., 26, 39 ff. 22 Zwei historische Handbücher der US Navy werden für die folgende Untersuchung des passiven Sonars der 1940er Jahre dienen: das erste Dokument ist das Submarine Sonar Operator‘s Manual von 1944 für die Ausbildung von Sonaroperateuren. Das zweite Dokument Naval Sonar von 1953 ist eine etwas tiefergehende Einleitung in Sonar für electronic officers der Navy, die sich hauptsächlich auf Sonarausrüstung und Operationsweisen des Zweiten Weltkriegs bezieht. Neben diesen beiden Quellen dienten Tonaufnahmen aus Trainings-Schallplatten der selben Zeit als Untersuchungsmaterial. Vgl. für die Trainingsschallplatte http://www.hnsa.org/sound/, 10.3.2011. 23 Bureau of Naval Personnel 1944, 2.

134

Das Sonische und das Meer

von U-Booten eingesetzt. Alle fünf Teile bildeten zusammen ein elektro-akustisches Gefüge, wobei das mühsam angelernte, operative und auditive Wissen des Operateurs hier eine wichtige Rolle spielte. Er hörte seine subnautische Umgebung nach spezifischen sonischen und rhythmischen Qualitäten ab, deren Quellen – meist Schiffe an der Oberfläche oder Torpedos – der Operateur anhand seines Hörwissens und seiner Hörerfahrung identifizieren konnte. Wie es oft bei auditiven Wissensformen der Fall ist, scheint es sich hierbei um ein implizites Wissen gehandelt zu haben. Kennzeichnend für ein solches Körper- und Wahrnehmungswissen ist die damit einhergehende Schwierigkeit, ein derartiges Wissen detailliert durch diskursive Beschreibungen zu explizieren.24 Die Hörbarmachung beziehungsweise die Verklanglichung, das heißt die Sonifikation im weitesten Sinne, geschah – wie noch zu zeigen ist – im Zwischenbereich von Operateur und Technik.25 Der analytische Fokus darf demnach weder alleine beim Klang noch bei der Technik verharren, sondern muss ebenso das komplizierte Zusammenspiel der Perzeption des U-Boot-Matrosen mit der involvierten Audiotechnik, dem U-Boot, mit seiner geophysikalischen Umwelt und schließlich mit dem feindlichen Objekt einbeziehen. Wenn eine verdächtige Geräuschquelle durch das ständige Absuchen gefunden wurde, erfolgte ein möglichst effizientes Abhören mithilfe von elektrischen Klangfiltern in Kombination mit einem Drehmechanismus. Wie bereits konstatiert, ist das menschliche Richtungshören unter Wasser eingeschränkt. Der Drehmechanismus konnte die Richtung des Hydrophons ändern und erlaubte damit ein 360-Grad-Abhören. Durch geschicktes Drehen des Hydrophons und hörendes Vergleichen von unterschiedlichen Winkelpositionen ließ sich die Richtung, aus der eine Geräuschquelle stammt, ermitteln. Dabei musste der Operateur ständig die korrekte Position der Quelle präzisieren, aber auch nach weiteren Geräuschquellen suchen und musste stets sowohl die Schaltelemente des Klangfiltermoduls als auch den Drehmechanismus bedienen. Das technische Ohr des Sonaroperateurs diente nicht nur der Überwachung von feindlichen Schiffsbewegungen, sondern auch der Selbstüberwachung, denn er hörte ebenso die verräterischen Geräusche des eigenen U-Bootes und konnte seinem höheren Offizier Gegenmaßnahmen vorschlagen. Eine schematische und abstrahierte Darstellung der Verschaltung der Elektronik einer für die US Navy der 1940er Jahre typischen Sonarausrüstung mit der Bezeichnung JP-1 ist auf Abb. 1 dargestellt. Im Zentrum steht eine Schaltbank von verschiedenen Hochpassfiltern, die den hörbaren Bereich in verschiedene Frequenzbereiche einteilte, d. h.

24 Zum Thema implizites Wissen Neuweg 2001, 12 ff. ,151 ff. Dazu ebenso in Bezug zu Hörerfahrungen Schulze 2008, 153-157. 25 Zur Rolle des Operateurs bzw. des Benutzers in sozio-technischen Gefügen Latour 2006, 485.

Shintaro Miyazaki

135

Abb. 1: Blockschaltdiagramm des JP-1 Sonar Equipments.

mittels analoger Technik zerlegte und die gezielte Selektion von einzelnen Frequenzbändern ermöglichte. Dabei gab es beim JP-1 fünf Frequenzbereiche: erstens eine Hervorhebung tieferer Frequenzen, welche »Bassboost« genannt wurde,26 zweitens eine filterlose Einstellung, die auch »Flat« genannt wurde, drittens einen Hochpassfilter bei 500 Hz, der alle Frequenzen unterhalb von 500 Hz dämpfte, viertens einen Hochpassfilter bei 3000 Hz und fünftens ebenso einen Hochpassfilter bei 6000 Hz. Während der Schulung erlernte der Operateur die Grundlagen der Akustik und Signalverarbeitung, so dass er wusste, dass die Richtung von tiefen Tönen eher schwierig zu detektieren ist, wohingegen Erzeuger von hohen Frequenzen beziehungsweise breitbandigen Geräuschen, etwa von Schiffsmotoren, deren tieferen Frequenzen weggefiltert wurden, ihre präzise, räumliche Lage in Bezug zum Operateur verraten. Propeller noise is made up of all frequencies. But background noise, from the water and the submarine, is mostly low-frequency sounds. Therefore, by operating with a high-frequency filter you can get rid of the background noise, yet still hear the screws. Also at higher frequencies the target is heard over a narrower arc. So it is wise to use the highest filter setting on which the target can be heard.27

26 Bureau of Naval Personnel 1944, 17. 27 Ebd., 24.

136

Das Sonische und das Meer

Insgesamt zählten sowohl Klangeigenschaften wie stehend-durchgehender, rhythmisch-unterbrochener oder aperiodisch-transitiver Klang als auch die Tonhöhe und weitere Klangcharakteristika, um die Klänge sowohl bezüglich ihrer potentiellen Quellen als auch in das Schema Feind/Verbündeter einzuordnen. Die Fähigkeit des Gehörs, das Gehörte als auditive Gestalten, die automatisch zu Klassen gruppiert werden, zu erkennen,28 wurde hier gefördert und trainiert, so dass der Operateur ohne lange nachdenken zu müssen die mittels des beschriebenen Mediengefüges von Hydrophon, Audioverstärker, Drehmechanismus, Klangfiltern und Kopfhörer gehörten Klänge erkennen und nicht nur die Kategorie des Senders – etwa ein feindlicher Flugzeugträger, Schnellboot oder Zerstörer – sondern auch seine Winkel-Position in Bezug zum U-Boot und die ungefähre Entfernung angeben konnte. Die Klassifizierung der Klänge lernte der Operateur als erstes anhand einer Schulungsschallplatte,29 die seine Wahrnehmung präkonditionierte. Die Klangfilterung als epistemisches Hilfsmittel wurde Teil seiner Operativität, denn ohne sie wäre die korrekte Beurteilung und Einordnung der Klangquellen erschwert gewesen. Ihre Benutzung wird bereits in den ersten Schulungsklangbeispielen vorgeführt.30 Der Wellenfilter, der ursprünglich für die Effizienzsteigerung der Telefonie und Telegrafie zwischen 1890 und 1920 entwickelt wurde,31 sorgte im Kontext des Unterwasserhörens für die Steigerung der kognitiven und epistemischen Effizienz des hörenden Sonaroperateurs, der den hörbaren Frequenzbereich nicht einfach als unteilbares Ganzes hörte, sondern dank der Filterung aktiv in zwar grobe, aber annähernd diskrete Bereiche teilen respektive ungewollte Frequenzbereiche ausfiltern konnte. Erst diese Potentialität einer kontrollierten und aktiven Einteilung und Kategorisierung von Klängen durch ihre Frequenzanteile, d. h. durch ihre Klangfarben, löste eine Welle der auditiven Exploration von Unterwasserklängen aus, die, wie bereits erläutert, in Deutschland durch die Gruppenhorchgeräte bereits etwa ab 1925 durchgeführt wurden.32 Das Reale der meist unhörbaren Unterwasserklänge, Vibrationen, Töne und Impulse wurde durch die Möglichkeit ihrer Filterung, De-Komposition und grobe Diskretisierung zumindest rudimentär in sprachlichsymbolische Klassenbezeichnungen einteilbar und damit begreifbar gemacht. Es lässt sich spekulieren, dass es womöglich eine epistemische Korrelation zwischen der Idee, das Meer als Nachrichtenkanal für eine Unterwassertelegrafie zu nutzen, und der Meta-

28 Hermann 2008, 210. 29 Die Audiodateien sind unter dem Titel JP Sonar online. Vgl. http://www.hnsa.org/sound/, 10.3.2011. 30 Ebd. 31 Hirt, Volmar 2009. 32 Rössler 1991, 21 ff.

Shintaro Miyazaki

137

pher des Hinhorchens nach neuen Nachrichten unterschiedlicher feindlicher Klangquellen mittels avancierter Medientechnik gab. Unterwasserklänge in den U-Booten waren theoretisch bereits mit bloßem Ohr hörbar, doch wurden sie, wie anhand des spezifischen Falls des Mediengefüges namens JP-1 beschrieben wurde, technisch vermittelt. Unhörbare super-sonische oder nur durch die Kombination von Filter und Verstärker heraushörbare Signale wurden durch die Sonar-Ausrüstung hörbar gemacht, wobei ebenso die Richtung, aus der ein Klangsignal emittiert wurde, bestimmt werden konnte, was unter Wasser mit bloßem Ohr ebenso unmöglich war. Im Verbund mit dem auf Klangperzeptionen basierenden Erfahrungs-, Körper- und Wahrnehmungswissen kann hier meines Erachtens von einer randständigen Praxis der Sonifikation ausgegangen werden. Denn diese zeichnet sich sowohl durch einen technischen als auch kognitiven Mehraufwand aus, um unhörbare Prozesse aktiv in nicht-sprachliche Klangprozesse zu transformieren.33

3. Passive Sonarsysteme 2000 War die analoge Filterung von elektrischen Signalen durch die Kombination von Widerständen und Kondensatoren als Signalverarbeitung operativ eingeschränkt, so wurde diese durch die Emergenz von digitaler Signalverarbeitungstechnik maßgeblich verändert. Digital signal processing (DSP) entstand in den 1970er Jahren34 und wurde Anfang der 1980er Jahre durch das Aufkommen von DSP-Chips wie etwa dem NEC μPD772035 beschleunigt. Analoge Filter wie sie im JP-1 der US Navy während des Zweiten Weltkriegs eingesetzt wurden, konnten seitdem digital simuliert werden. Seit der Entwicklung und Formulierung der schnellen Fourier-Transformation – Fast Fourier Transformation (FFT) – durch James W. Cooley (*1926) und John W. Tukey (1915–2000) im Jahr 1965,36 der Verbilligung und gleichzeitigen Steigerung der Zuverlässigkeit von digitalen rechnenden Gefügen in den 1980er Jahren, konnten Signale und damit sowohl sonische als auch trans-sonische – das heißt etwa elektromagnetische – Oszillationen in ihre harmonischen Komponenten zerlegt werden. Spektralanalysen wurden damit möglich. Jeder Klang wurde in seiner Individualität symbolisch, also digital, erfassbar. Das Reale der Unterwasserklänge, ihre Klangcharakteristik, konnte nicht nur wie bis dahin rudimentär,

33 Kramer 1994a, 1. 34 Oppenheim, Schafer 1975. 35 Kittler 1986, 379. 36 Cooley, Tukey 1969.

138

Das Sonische und das Meer

sondern sowohl in höchster Zeit- als auch Wertauflösung digital, genauer gesagt auf symbolische Weise – durch Datensätze – annähernd vollständig erfasst werden. Damit ließen sich nicht nur vielseitige Klangdatenbanken einrichten, die bereits lange vor der Zeit der Digitalisierung in der frühen Nachkriegszeit im Rahmen des SOSUS-Projektes (Sound Surveillance System) vom Office of Naval Intelligence der US Navy entwickelt wurden, wo die einzelnen Klänge durch wiederholtes Anhören miteinander verglichen und gelernt werden konnten, sondern die Klänge konnten mit dem Aufkommen von DSP, dadurch dass ihre spezifischen Eigenschaften, etwa das Timbre und die Tonhöhe nach entsprechenden Analysen in Datensätze symbolisiert bereit lagen, weiter verarbeitet und kategorisiert werden. Das implizite Wissen des Sonar-Operateurs, das direkt am Klangmaterial erlernt wurde, konnte damit mehr und mehr durch eine Datenbank von Spektralanalysen, d. h. Klangfarbenverläufen, diverser Unterwassergeräuschen, ersetzt werden. Künstliche neuronale Netze implementiert als maschinelle Lernalgorithmen in hochtechnisierten Sonarsystemen sind etwa seit den späten 1990er Jahren in der Lage, aus diesen Datenbeständen durch automatisches Training zu lernen und das Gelernte auf neue, noch nicht analysierte Klangquellen anzuwenden.37 Selbstorganisierende Kohonen-Netzwerke lernen dabei aus den Daten und teilen jede Klangquelle in vordefinierte Kategorien wie Schnellboot, Fischschwarm, Wal, Vulkan, Flugzeugträger, U-Boot etc. ein, wobei ähnliche Geräusche durch mehrfache algorithmische Iteration und Adaption in die gleiche Kategorie kommen.38 Um 2003 konzentrierte sich die dafür nötige interdisziplinäre Forschung im Zwischenbereich von Mathematik, Informatik, Ingenieurswissenschaften und Ozeanografie, soweit überschaubar, auf das maschinelle Einordnen von künstlichen Geräuschen, die von Maschinen und Schiffen erzeugt wurden, doch auch einzelne Fischsorten lassen sich, wenn gutes Ausgangsmaterial vorhanden ist, erkennen.39 Beim passiven Sonar der 1940er Jahre geschah die Hörbarmachung im Verbund von Operateur, Audiotechnik und U-Boot, wobei wichtige Faktoren wie die Selektion von Geräuschquellen einerseits durch das Drehhydrophon, andererseits durch die Klangfilter noch weitgehend von den Operationen und Entscheidungen des Matrosen abhängig war. Der Sonar-Operateur war damit trotz der Bezeichnung passives Sonar kein passiver Zuhörer, sondern ein aktiver Sonifikator, der mit seiner medial erzeugten Sonifikation40 37 Howell et al. 2003. Ebenso Chen et al. 1998. 38 Chen et al., 51 ff. oder Howell et al. 2003, 1921. 39 Howell et al., 1918 ff. 40 Wiederum geht es mir hier nicht um einen herkömmlichen Begriff der Sonifikation als computerbasierte Hörbarmachung von Datenstrukturen oder -prozessen, sondern um kognitive und noch nicht vollständig algorithmisierte Varianten der ›Sonifikation‹ in ihrer bereits erläuterten erweiterten Bedeutung.

Shintaro Miyazaki

139

interagierte und gleichzeitig die Bedeutung – die Lage und Art des feindlichen Schiffes – die er aus dem Gehörten interpretierte, an weitere höhere Offiziere in seinem U-Boot kommunizierte. Seit der Einführung von DSP in den 1970er Jahren und der Möglichkeit des automatisierten Trainings41 durch künstliche neuronale Netzwerke und maschinelle Intelligenzen ab den späten 1990er Jahren kann sowohl das Hörwissen des Sonaroperateurs als auch die dafür notwendige Ausbildung eingespart werden. Die Welt der Unterwasserklänge transformierte sich zu einer unhörbaren Geräuschkulisse für Maschinen, die für Menschen meist nur noch an der Oberfläche von Visualisierungen und Interfaces sichtbar, aber nicht mehr hörbar wurde.42 Die Interaktionsoberflächen hochmodernster Sonarsysteme im 21. Jahrhundert zeichnen sich gerade durch das Fehlen von klanggenerierenden Prozesse aus.43 Der Prozess der Sonifikation ist in diesem Mediengefüge zwar nicht mehr hörbar, doch bleibt seine Gebundenheit an akustischen Phänomenen, die nun maschinenintern verarbeitet werden, bestehen. Sonarsysteme, die scheinbar geräuschlos arbeiten und nur noch über Bildschirme und visuelle Darstellungsformen sinnlich erfahrbar sind, haben damit, um es metaphorisch und in Anlehnung an Heideggers Seinsgeschichte zu formulieren, ihre sonische und sonifizierende Seinsweise vergessen.

4. Transduktionen Eine ähnliche Tendenz zeigte sich beim aktiven Sonar, das anfangs noch eine hörend nachvollziehbare Medientechnik war,44 die sich aber bereits in den 1920er und 30er Jahren durch die Inskriptionsapparaturen von Langevin und Florisson zu einem bildgebenden Verfahren entwickelte.45 Die neusten Entwicklungen des aktiven Sonars, wie das Multibeam Sonar oder das Side Scan Sonar, die nur noch hochaufgelöste, farbige und dynamische Bilder generieren,46 bestätigen diese Tendenzen auf drastischer Weise.

41 Chen et al. 1998, 47 oder Howell et al. 2003, 1917. 42 Vgl. für den Bereich der Tiefseeforschung Helmreich 2007, 625. 43 Logischerweise wären diese ebenso mit Klängen ausgestattet. Sie wären aber Bedienhilfen und hätten keine real-physikalische Verbindung mit den zu erkennenden Unterwasserobjekten. Die Existenz von hybriden Systemen wird hier nicht ausgeschlossen. 44 Vgl. die wiss. Dokumentation über die Deutsche Atlantik Expedition von 1925–27 durch Hans Mauer und Theodor Stocks, insbesondere die Beschreibung der Pionierphase der noch hörend praktizierten Echolotung (aktives Sonar) in Mauer 1933 (Textteil), 14, 18, 23 ff. 45 Pat. Nr. 575.435 (eingereicht am 27. Dez. 1923) in Frankreich und US. Pat. 1,858,931 (eingereicht, 8. Dez. 1924). Die britische Royal Navy verbesserte die Apparatur und nannte sie Echo-Range-Recorder. Dazu Hackmann 1984, 223 ff. u. Tafel 9.11. 46 Balabanian et al., 155.

140

Das Sonische und das Meer

Werden die beiden verschiedenen Modi des Sonars, einerseits das passive und andererseits das aktive Sonar, ihr Zusammenspiel mit ihren Benutzern und ihre jeweiligen Eskalationen miteinander verglichen, dann zeigt sich eine kategoriale Differenz im Modus der Prozessualität der verschiedenen Technologien. Beim aktiven Sonar ging es dabei eher um die speichernde Bestimmung von Meerestiefen und ihre Darstellung, beim passiven Sonar ging es hingegen um ein aktiv verarbeitendes Horchen. Messungen und ihre Speicherung sind einfacher in Medien zu implementieren, komplexer hingegen ist die algorithmische Programmierung von intensiver Datenverarbeitung, die für das maschinelle Horchen in Echtzeit notwendig wäre. Diese eher systematische Feststellung könnte ebenso für eine ›Kulturgeschichte der Sonifikation‹ von Relevanz sein. Sonische Prozesse sind akustische Prozesse, die zwischen reiner Physik und symbolischer Semantik oszillieren, etwa indem sie von Menschen perzipiert werden, ihre Generierung kann jedoch völlig zwecklos sein. Beispiele dafür wären das Geräusch eines Wasserkochers oder eines Schiffsmotorpropellers. Die Unfähigkeit, akustische Prozesse rein als solche – ohne Semantik – wahrzunehmen, sondern immer bereits eine Erklärung für die Geräusche zu liefern, dient der meist impliziten Navigation, Orientierung und Lagebestimmungen im Alltag.47 Geräusche besitzen eine materielle Referentialität, die beim Hörer Bedeutungen, wie etwa das Sieden von Wasser oder die Anwesenheit eines Schiffs, erzeugen, die jedoch menschliche Semantisierungen von rein intentionslosen Signalen sind. Sonifizierende Prozesse hingegen zeichnen sich – so mein Vorschlag – durch eine explizite Intentionalität, die solche scheinbar naturgegebene Situationen durch medientechnischen Aufwand künstlich herstellt, aus.

5. Die Frage nach der medientechnischen Zeitökonomie Im Zuge des Versuchs die Bandbreite zwischen sonischen und sonifizierenden Prozessen insbesondere in Bezug auf die dargelegten Eskalationen der Sonartechnologie auszuloten und um die historischen Agenturen, ihre epistemogenen, d. h. durch die spezifischen Wahrnehmungs-, Handlungsweisen und -möglichkeiten des Sonars bedingten, Tendenzen und ihre Effekte zu verstehen, wurde die Frage nach dem Grad des medientechnischen Aufwands und seiner Zeitökonomie virulent. Ab wann ist ein sonischer Prozess aufwändig genug, dass er als sonifizierender Prozess – demnach als Sonifikation – bezeichnet werden kann? Und ab wann werden sonifizie-

47 Kramer 1994a, 3-5.

Shintaro Miyazaki

141

rende Prozesse durch bildgebende oder visualisierende Medientechniken ersetzt? Das führt zur Frage nach dem Grad der maschinellen Automation und hardwaremäßigen Verschaltung. Welche Prozesse geschehen in der Kognition des Hörenden und welche Prozesse in Medien- und Maschinengefügen? In einem weiteren Schritt muss ebenso die Frage nach der Hörbarkeit respektive Unhörbarkeit dieser Prozesse gestellt werden. Dies scheint unnötig und für eine Kulturgeschichte der Sonifikation, bei der es doch eindeutig um Hörpraktiken und Hörwissen gehen soll, höchst problematisch zu sein. Die meisten unhörbaren Prozesse der elektronischen Signal- und Datenverarbeitung können jedoch mit einfachen Mitteln verklanglicht werden. Unhörbare, trans-sonische Prozesse werden damit sowohl im analogen als auch im digitalen Bereich der Signalverarbeitung äußerst leicht in Klang als Audifikation transformierbar, dazu reicht etwa das Anbringen zweier Kabel (Masse und Signal) an blanken Stellen in der Elektronik, deren elektronische Signale per Audioverstärker durch Lautsprecher transduktiert werden48 oder das absichtliche Falschlesen von Daten durch Software,49 die zum Beispiel Bilddaten in Klangdaten umwandeln kann. Durch solche gezielten Eingriffe ließe sich theoretisch etwa der medienarchäologische Bezug von aktuellen bildgebenden und visualisierenden Sonartechnologien zum Sonischen schnell wieder herstellen. Das Vergessen könnte sich so zum Erinnern verwandeln. Wie dargelegt, ging es bei der vorliegenden Untersuchung gleichsam um die Faktizität – um Aspekte der Machung von Hörbarmachungen – und nicht nur um die Hörbarkeit von Sonartechnologien. Dabei zeigte sich, dass es nicht alleine um Hörpraktiken und Hörwissen geht, sondern ebenso um ihre Abhängigkeit von Medientechnologien, ihren Benutzern und der Zeitökonomie ihrer Interaktion. Beim passiven Sonar im Kriegseinsatz ging es, wie dargelegt, um das Fällen von schnellen, kriegskritischen Entscheidungen auf Basis von meist nur implizit erlernbaren Fähigkeiten und Automatismen. Die epistemische Leistung des Sonaroperateurs in Verschaltung mit der Sonarausrüstung und seinem antrainierten Hörwissen, aber ebenso der Aufwand für ihre medientechnische Implementierung in Hard- und Software, ist im Vergleich zum aktiven Sonar wesentlich höher, wo es lediglich um ein passives Abtasten des Meeresgrundes mittels Schallimpulsen und um das anschließende Auswerten respektive Beobachten der gewonnenen Messdaten ging. Diese Daten sollten objektiv und überblickbar sein, damit sie später mit anderen Daten vergleichbar wären. Vor allem im Fall von ozeanografischen Projek48 Eine ähnliche Praxis wurde bereits um 1900 in der Erforschung der Elektrophysiologie von tierischen und menschlichen Nervensystemen verübt. Dabei wurden Telefone und Elektroden benutzt, um elektrische Aktivitäten von Nervensystemen abzuhören. Dazu ausführlich Volmar 2010. 49 Soundhack, programmiert von Tom Erbe, bereits in den 1990er Jahren veröffentlich und seit dem als Freeware distribuiert, ist ein Beispiel einer solchen Software. Dazu http://soundhack.henfast.com/ freeware/, 10.3.2011.

142

Das Sonische und das Meer

ten gab es keinen unmittelbaren Zeitdruck, denn es ging nicht direkt um Menschenleben oder Territorialkämpfe, sondern um die geophysikalische Vermessung und Kartografierung der Meere. Zwischen dem passiven und dem aktiven Sonar bestehen demnach klare Differenzen in ihren Zeitökonomien. Während das aktive Sonar bereits in den 1920er und 30er Jahren von einem sonischen zu einem bildgebenden Verfahren wurde, geschah die Verstummung des passiven ›sonifizierenden‹ Sonars erst am Ende des 20. Jahrhunderts. Ihre historische Stabilität als Hörpraxis im Verbund von Mensch und Medientechnik, bei der das verkörperte Wissen des Sonaroperateurs erst in den späten 1990er Jahren durch hochkomplexe Maschinenintelligenzen ersetzt werden konnte, zeigte, dass gerade bei solchen oder ähnlichen schwierig zu (medien-)technisierenden Verfahren der Verschränkung von Mensch und Mediengefüge, d. h. an medialen Schnittstellen, welche die interaktive navigationsmäßige Exploration50 von dynamischen Wissens- und Datenräumen unter Echtzeitbedingungen ermöglichen, Praktiken der Hörbarmachung substanzielle Rollen spielen könnten.

6. Quellen Balabanian, Jean-Paul et. al. (2007): Sonar Explorer: A New Tool for Visualization of Fish Schools from 3D Sonar Data, in: Museth, K. / Möller, T., Ynnerman, A. (Hg.), Data Visualization – EuroVis 2007, Norrköping, Sweden, 155-162. Bureau of Naval Personnel (Standards and Curriculum Divison, Training) (1944): Submarine Sonar Operator’s Manual (Navpers 16167), http://www.hnsa.org/doc/fleetsub/sonar/index.htm, 10.3.2011. Bureau of Naval Personnel (1953): Naval Sonar (Navpers 10884), http://www.hnsa.org/doc/sonar/index.htm, 10.3.2011. Chen, Chin-Hsing / Lee, Jiann-Der / Lin, Ming-Chin (1998): Classification of Underwater Signals Using Wavelet Transforms and Neural Networks, in: Mathematical and Computer Modelling (Vol. 27, No. 2), 47-60. Cooley, James W. / Tukey, John W. (1969): An Algorithm for the Machine Calculation of Complex Fourier Series, in: Oppenheim, Alan V. (Hg.), Reprint, Papers on Digital Signal Processing (orig. in: Mathematics of Computation, Vol. 19, April 1965, 297301), Cambridge, Massachusetts, 146-150.

50 Zur interaktiven Exploration von Datenräumen Hermann 2008.

Shintaro Miyazaki

143

Daston, Lorraine / Galison, Peter (2007): Objektivität (übersetzt von Christa Krüger), Frankfurt a. M. Ernst, Wolfgang (2008): Zum Begriff des Sonischen (mit medienarchäologischem Ohr erhört/vernommen), in: PopScriptum 10 – Das Sonische – Sounds zwischen Akustik und Ästhetik (Schriftenreihe herausgegeben vom Forschungszentrum Populäre Musik der Humboldt-Universität zu Berlin), http://www2.hu-berlin.de/fpm/popscrip/themen/pst10/ernst.htm, 10.3.2011. Frost, Gary Lewis (2001): Inventing Schemes and Strategies: The Making and Selling of the Fessenden Oscillator, in: Technology and Culture (Vol. 42, No. 3, July), 462-488. Hagemayer, Friedrich-Wilhelm (1979): Die Entstehung von Informationskonzepten in der Nachrichtentechnik. Eine Fallstudie zur Theoriebildung in der Technik in Industrie- und Kriegsforschung, Phil. Diss. Freie Universität Berlin. Hackmann, Willem (1984): Seek and Strike. Sonar, anti-submarine warfare and the Royal Navy 1914-54, London. Helmreich, Stefan (2007): An anthropologist underwater. Immersive soundscapes, submarine cyborgs, and transductive ethnography, in: American Ethnologist (Vol. 34, No. 4), 621-641. Hermann, Thomas (2008): Daten hören. Sonifikation zur explorativen Datenanalyse, in: Holger Schulze (Hg.), Sound Studies. Traditionen – Methoden – Desiderate. Eine Einführung (Sound Studies, Bd. 1), Bielefeld, 209-228. Hirt, Kilian / Volmar, Axel (2009): Kanalarbeit. Das Übertragungsproblem in der Geschichte der Kommunikationstechnik und die Entstehung der Signalverarbeitung, in: Volmar, Axel (Hg.), Zeitkritische Medien, Berlin, 213-238. Howell, B. P. / Wood, S. L., Koksal, S. (2003): Passive Sonar Recognition and Analysis Using Hybrid Neural Networks, in: OCEANS 2003, 22-26 Sept., Proceedings, Volume 4, 1917-1924. Kittler, Friedrich (1986): Grammophon, Film, Typewriter, Berlin. Kramer, Gregory (1994a): An Introduction to Auditory Display, in: Kramer, Gregory (Hg.), Auditory Display. Sonification, Audification and Auditory Interfaces, Reading, Massachusetts, 1-77. Kramer, Gregory (1994b): Some Organizing Principles for Representing Data with Sound, in: Kramer, Gregory (Hg.), Auditory Display. Sonification, Audification and Auditory Interfaces, Reading, Massachusetts, 185-221. Langevin, Paul / Florisson, Charles L. (1924): U.S. Pat. 1,858,931. Method and Apparatus for Sounding and for Locating Submarine Obstacles by Means of Ultra Audible Waves, USA.

144

Das Sonische und das Meer

Latour, Bruno (2006): Über technische Vermittlung: Philosophie, Soziologie und Genealogie, in: Bellinger, Andréa / Krieger, David J. (Hg.), ANThology. Ein einführendes Handbuch zur Akteur-Netzwerk-Theorie, Bielefeld, 483–528. Mauer, Hans / Stocks, Theodor (1933a): Die Echolotungen des Meteor (Wissenschaftliche Ergebnisse der Deutschen Atlantischen Expedition auf dem Forschungs- und Vermessungsschiff Meteor 1925–1927, Bd. 2, Textteil und Echolotprofile), hrsg. v. Albert Defant (im Auftrage der Notgemeinschaft der deutschen Wissenschaft), Leipzig und Berlin. Neuweg, Georg H. (2001): Könnerschaft und implizites Wissen: Zur lehr-lerntheoretischen Bedeutung der Erkenntnis- und Wissenstheorie Michael Polanyis, Münster (2. korr. Aufl.). Oppenheim, Alan V. / Schafer, Roland W. (1975): Digital Signal Processing, New Jersey. Rössler, Eberhard (1991): Die Sonaranlagen der deutschen U-Boote. Entwicklung, Erprobung und Einsatz akustischer Ortungs- und Täuschungseinrichtungen für Unterseeboote in Deutschland, Herford. Schulze, Holger (2008): Bewegung Berührung Übertragung. Einführung in eine historische Anthropologie des Klangs, in: Holger, Schulze (Hg.), Sound Studies. Traditionen – Methoden – Desiderate. Eine Einführung (Sound Studies, Bd. 1), Bielefeld, 143-165. Volmar, Axel (2010): Listening to the Body Electric. Electrophysiology and the Telephone in the Late 19th century, in: Max-Planck-Institute for the History of Science (Hg.), The Virtual Laboratory (ISSN 1866-4784), http://vlp.mpiwg-berlin.mpg.de/references?id=art76, 10.3.2011. Zimmerman, David (2002): Paul Langevin and the Discovery of Active Sonar or Asdic, in: The Northern Mariner (Vol. 12, Nr. 1), 39-52.

Shintaro Miyazaki

145

Die Grooving Factory Logistische Datenanalyse im Klanglabor Michael Iber, Julian Klein und Katja Windt

Das Forschungsprojekt Grooving Factory1 versucht, über die Sonifikation von Produktionsdaten Wirkzusammenhänge zwischen Prozessabläufen in Fabriken zu erkennen, die mit etablierten Methoden aus der Logistik nicht darstellbar sind. Der Ansatz konzentriert sich auf die Analyse von Daten aus der Produktionsplanung und -steuerung (PPS) und nicht (da dies häufig zu Missverständnissen führt, sei es explizit erwähnt) um die auditive Repräsentation der Arbeit von Maschinen selbst, wie sie beispielsweise in der ARKOLA-Simulation2 zur Steuerung einer Flaschenbefüllungsanlage dienten oder einem ähnlichen Beispiel aus der chemischen Industrie3, das den Informationsgehalt des akustischen Umfelds einer Fabrik für die ausführenden Arbeiter untersuchte. Seit sich 1992 auf der ersten International Conference of Auditory Display (ICAD) in Santa Fee eine interdisziplinär ausgerichtete Gruppe von Wissenschaftlern erstmals die Frage stellte, »wie nicht-verbale Klänge bedeutungsvoll benutzt werden könnten, um Information zu übertragen«,4 hat sich das Auditory Display als Antipode einer grafischen Darstellung von Information als eine eigenständige Disziplin etabliert. Neben dem akustischen Informationsdesign in Form von Auditory Icons liegt ein weiteres Potential der klanglichen Informationsdarstellung in der multivariaten Datenanalyse, wie 1 Das Projekt ist aus der Arbeitsgruppe »Rhythmus« der Jungen Akademie an der Berlin-Brandenburgischen Akademie der Wissenschaften und der Deutschen Akademie der Naturforscher Leopoldina hervorgegangen und wird nun von der Jacobs University Bremen in Zusammenarbeit mit dem Institut für künstlerische Forschung Berlin ausgerichtet. 2 Vgl. Gaver, Smith, O’Shea 1991. 3 Vgl. Alexanderson, Tollmar 2006. 4 Bregman 1994, xv (Übersetzung aus dem Englischen durch die Autoren).

147

Sara Bly (1994) bereits in den frühen 1980er Jahren in Fallstudien mit der Sonifikation sechs-dimensionaler Daten aufzeigen konnte.5 Nach Steven Frysinger konnte sie in ihrer unveröffentlichten Dissertation von 1982 zeigen, »dass das auditorische Display mindestens so effektiv war, wie das graphische, und dass ihre Kombination den Einzelkomponenten überlegen war«.6 Seitdem haben zahlreiche Forschungsprojekte die Möglichkeiten von sonifikationsbasiertem Data Mining belegt, aber auch kritisch hinterfragt;7 denn, um aussagekräftige Strukturen in einem Datensatz hörbar zu machen, braucht es nicht nur profunde Kenntnisse über Akustik und den Inhalt der zu analysierenden Daten selbst.8 Da als Plattform für die Veröffentlichung wissenschaftlicher Ergebnisse bisher ausschließlich die Schriftform akzeptiert ist, stellt auch die Präsentation einer auditiven Analyse eine Herausforderung dar, deren Ursachen im Folgenden dargestellt werden.

1. Wahrnehmung und Wissenschaft Die Entwicklung der menschlichen Sinne unterliegt einem kontinuierlichen Anpassungsprozess an die jeweiligen äußeren Bedingungen und Umgebungen. So hat sich im Verlauf der Evolutionsgeschichte ein komplexes sensorisches System ausgebildet, welches unsere Wahrnehmungen miteinander in Beziehung setzt und mit bereits erworbenem Wissen abgleicht. Alle fünf für den Prozess der Erkenntnisgewinnung herangezogenen Sinne sind uns in ihrer jeweiligen Funktion gleichermaßen vertraut und aussagekräftig. Deswegen mutet es zunächst umso merkwürdiger an, dass unser gängiges Verständnis von Wissenschaft überwiegend auf visueller Wahrnehmung aufbaut. Die Ursache dafür liegt in der Ausrichtung unseres Denkens auf das Visuelle schlechthin, welches Begriffe mit abrufbaren Bildern verknüpft. Durch die Errungenschaft der ebenfalls auf der visuellen Ebene verorteten Schrift ist diese Begrifflichkeit über das eigene Denken hinaus fixierbar und kann unabhängig von Ort und Zeit nachvollzogen und verglichen werden. Während Bild und Schrift seit Jahrtausenden gespeichert werden und feste Bestandteile unserer kulturellen Praxis sind, ist die Konservierung von Klängen erst seit einem guten Jahrhundert möglich. Für olfaktorische, gustatorische und haptische Ereignisse gibt es auch heute noch keine etablierten Aufnahmetechnologien. Die Überrepräsentanz des

5 6 7 8

Vgl. Barrass 2000. Frysinger 2005, 2 (Übersetzung aus dem Englischen durch die Autoren). Vgl. de Campo et al. 2006; Flowers 2005. Vgl. Bly 1994, 406.

148

Die Grooving Factory

visuellen Sinnes ist also durchaus kulturgeschichtlich geprägt und technologisch begründet. Messungen und Beobachtungen im Rahmen von Experimenten zählen zu den Grundprinzipien wissenschaftlichen Arbeitens. Die überwiegende Anzahl der sich daraus ergebenen Wahrnehmungen findet dabei auf einer im weiteren Sinne visuellen Ebene statt, sei es die Beobachtung einer chemischen Reaktion, das Ablesen der Anzeige von Messgeräten, die Darstellung von Datenreihen in Diagrammen. Das gilt auch für das Führen mathematischer Beweise, bei welchem abstrakte Gedanken schriftlich fixiert werden. Wahrnehmung und Darstellung finden auf identischer Ebene statt. Bei der wissenschaftlichen Darstellung auditiver Wahrnehmungen hingegen müssen Beobachtungen auf die visuelle Ebene, sei es als Abbildung oder als Text, transkribiert werden. Dabei zeigt sich, dass sowohl unsere Sprache als auch graphische Darstellungsmethoden, wie Histo- oder Spektrogramme, diese Sachverhalte oftmals nicht hinreichend präzise abbilden können: jeder erfahrene Toningenieur wird bestätigen, dass weder die Pegelanzeige noch die Wellenformdarstellung einer Sprachaufnahme eine zuverlässige Aussage über die empfundene Lautstärke beim Abhören zulässt. Die mit Hilfe eines Stethoskops erstellte medizinische Diagnose lässt sich protokollieren, die Darstellung der wahrgenommen Strömungsgeräusche als Spektrogramm kann das Abhören mit dem Ohr aber keineswegs ersetzen.9 Selbst in der historischen Musikwissenschaft spielt die musikalische Analyse von Klängen eine untergeordnete Rolle. Sie konzentriert sich auf die schriftliche Repräsentation von Musik in Form von Partituren. In ihrer Schriftform lassen sich Harmonien, Rhythmen und formale Zusammenhänge leichter in Beziehung zueinander setzen als ihre real klingenden, agogisch verzerrten Entsprechungen. Notenblätter, aber auch Spektrogramme lassen sich in einer direkten Gegenüberstellung vergleichen. Klangbeispiele können hingegen nur in Folge gehört werden. Ihr Vergleich ist abhängig von den subjektiven Fähigkeiten des Beobachters, seinem Erinnerungsvermögen, seinen analytischen Fähigkeiten und auch seiner Tagesform. In seinem Vortrag Zu Hören wissen verweist Florian Dombois darauf, dass das Format der wissenschaftlichen Publikation, wie sie als Journal-Veröffentlichung oder als Konferenz-Proceedings den aktuellen Stand wissenschaftlichen Fortschritts repräsentiert, einen erheblichen Anteil daran trägt, dass über nicht-visuelle Sinne vollzogene Beobachtungen nur eine untergeordnete Rolle in der Forschung spielen.10 Wir glauben, was

9 Bezeichnend für die Dominanz des Visuellen in der Wissenschaft ist auch der Name dieses Instruments: der zweite Teil des Wortes Stethoskop leitet sich vom griechischen skopein ab, was ›anschauen‹ bzw. ›betrachten‹ bedeutet. 10 Vgl. Dombois 2005.

Michael Iber, Julian Klein und Katja Windt

149

wir sehen respektive lesen. Nur was wir gedruckt vor uns haben, hat wissenschaftliche Relevanz. Dombois spinnt nun diesen Gedanken fort: Was aber wäre, wenn »erkenntnisrelevante Strukturen« durch eine über das visuelle hinausgehende Versinnlichung von Daten, wie zum Beispiel ihre Sonifikation, aufgedeckt würden, »die uns in der traditionellen wissenschaftlichen Darstellungsform entgehen?« Würde eine solche Erkenntnis nicht an den Grundfesten wissenschaftlichen Verständnisses rütteln, da die von der Wissenschaft geforderte Vergleichbarkeit und Objektivität nicht mehr gewährleistet werden könnte? »Ist die Form«, so Dombois, »in der wir als Wissenschaftler die Welt beschreiben, adäquat und umfassend genug? Lässt sich all das, was wir erkennen wollen, mit den kanonisierten Mitteln von Sprache und wissenschaftlicher Grafik überhaupt darstellen?«11 Ohne auf Dombois’ Antwort auf diese Frage weiter einzugehen: es wird deutlich, dass Objektivität kein statisches Maß ist, sondern dass ihr Grad bei der Beschreibung wissenschaftlicher Ergebnisse einerseits davon abhängig ist, in welcher Form eine Wahrnehmung schriftlich fixiert werden kann, andererseits aber auch von einem sich über die Zeitläufte wandelnden Verständnis des Begriffes selbst, wie es Lorraine Daston und Peter Galison anhand der Geschichte wissenschaftlicher Atlanten beschreiben.12 Die beiden Autoren zeigen anhand der sich über Jahrhunderte erstreckenden Entwicklung wissenschaftlicher Abbildungen, wie sich das Verständnis von Wissenschaft und Objektivität in Wechselwirkung mit den ästhetischen und technologischen Veränderungen immer wieder neu definieren musste. Auditive Diagnosen in der Wissenschaft spielen dabei allenfalls in jüngerer Zeit eine Rolle. Ihre Geschichte währt gerade einige Jahrzehnte.13

2. Sonifikation als wissenschaftliche Methode Auch wenn sich die Ergebnisse einer Höranalyse nur mittelbar in ein wissenschaftliches Veröffentlichungsformat einbetten lassen, so ist Sonifikation doch auch nach dem derzeit gültigen Wissenschaftsbegriff eine zulässige Methode. So definiert Thomas Hermann: »Sonification is the data-dependent generation of sound, if the transformation is systematic, objective and reproducible, so that it can be used as scientific method.«14 Demzufolge ist für die Qualifikation von Sonifikation als wissenschaftliche Methode

11 Dombois 2005, 211. 12 Vgl. Daston, Galison 2007. 13 Vgl. Kramer 1997. 14 Hermann 2011.

150

Die Grooving Factory

nicht die klangliche Wahrnehmung, sondern allein die Systematik der Klangerzeugung entscheidend. Allerdings reicht die reine Klangerzeugung für die Erlangung wissenschaftlicher Ergebnisse nicht aus: dafür muss der Klang auch analysiert werden – und das am besten, wenn nicht sogar ausschließlich, mittels sinnlicher bzw. auditiver Wahrnehmungen. Solche auditiven Auswertungen können, je nach dem Trainingsstand des einzelnen Hörers, sehr unterschiedlich ausfallen. Manche klanglichen Ereignisse und Zusammenhänge werden möglicherweise von einigen Hörern registriert, von anderen aber nicht. Erschwerend kommt hinzu, dass im Gegensatz zu anderen Formaten eine als Klang dargestellte Information flüchtig ist. Ein Klang lässt sich nicht anhalten und es lässt sich nur bedingt und unpräzise auf Ereignisse ›deuten‹. Da das Ergebnis nicht in allen Fällen und nicht unmittelbar reproduzierbar ist, widerspricht eine auditive Wahrnehmung zunächst einer allzu engen Vorstellung wissenschaftlicher Methodik. Das Kriterium der Reproduzierbarkeit, das Hermann als Grundlage für die klangliche Transformation von Daten aufstellt, lässt sich im Hinblick auf die auditive Datenanalyse nicht vollständig erfüllen. Um dieses und damit den Anspruch wissenschaftlicher Objektivität zu gewährleisten, müssen aussagekräftige akustische Ereignisse zusätzlich auf anderem Wege in den Daten nachgewiesen werden können (zum Beispiel in Form von tabellarischen oder graphischen Darstellungen). Somit eignet sich Sonifikation weniger zur kanonischen Darstellung von Ergebnissen. Sie ist vielmehr ein diagnostisches Werkzeug zum Aufspüren von anderweitig zu verifizierenden und darzustellenden Erkenntnissen, die bei alternativen Analyseansätzen zunächst nicht zutage getreten sind. Als Schlüsselbeispiel für den erfolgreichen Einsatz von Datensonifikation als Werkzeug in einer Datenanalyse, in der andere Methoden keine verwertbaren Ergebnisse liefern konnten,verweist Gregory Kramer auf die Sonifikation von Sensordaten, die von der Voyager 2-Raumsonde beim Durchfahren der Ringe des Saturns aufgenommen wurden.15 Im Gegensatz zur Visualisierung der Daten, die bloßes Datenrauschen darstellte, lieferte die auditive Darstellung Hinweise auf die materielle Beschaffenheit der Ringe. Im Klangverlauf der durch einen Synthesizer sonifizierten Daten waren deutliche rhythmische Klangmuster wahrnehmbar, ähnlich denen von Maschinengewehrsalven. Sie wiesen auf Kollisionen mit elektromagnetisch geladenen Mikrometeoroiden hin. Auch die Vermutung, dass Teilchenströme in lose gekoppelten makroskopischen Quantensystemen zwischen diesen Systemen oszillieren, konnte mittels Sonifikation empirisch bestätigt werden.16 Entscheidend für eine erfolgreiche Datenanalyse mittels Sonifikation ist die Wahl einer geeigneten Methode für die klangliche Umsetzung der Daten. In seinem Beitrag 15 Vgl. Kramer 1997. 16 Vgl. Pereverzev et al. 1997.

Michael Iber, Julian Klein und Katja Windt

151

Sonifikation hochdimensionaler Daten im zweiten Band dieser Buchreihe geht Thomas Hermann ausführlich auf die verschiedenen Varianten der Datensonifikation ein (dieser unterscheidet zwischen der Audifikation, d. h. der direkten Übertragung von Daten in Klang, und dem sogenannten Parameter Mapping, in welchem Parametern des Datensatzes klangliche Parameter zugeordnet werden, und der sog. modellbasierten Sonifikation).17 Basierend auf diesen Klangparametern werden synthetische Klänge erzeugt (z. B. über additive Synthese, Granularsynthese oder samplebasierte Zuordnungen), deren Struktur dann wiederum Rückschlüsse auf den Inhalt und die Struktur der originalen Daten zulassen kann. Im Gegensatz zu den meisten statistischen Verfahren erhalten Sonifikationen die Abfolge diskreter Ereignisse in zeitbasierten Daten und können dadurch Autokorrelationen, wie z. B. saisonale Entwicklungen, in der Datenstruktur offenlegen. Ein praktisches Beispiel dafür lieferte David Worrall mit der Sonifikation von Börsendaten. Der Mathematiker Benoît Mandelbrot behauptet, in einer graphischen Darstellung seien tatsächliche Bewegungen am Aktienmarkt nicht von mittels der Brownschen Molekularbewegung erzeugten stochastischen Daten zu unterscheiden. Worrall hingegen gelang es, in der Sonifikation der Realdaten Autokorrelationen von Bewegungen an der Börse aufzuzeigen, die in den stochastischen Daten nicht vorhanden waren.18 Gerade im Zusammenhang mit der Untersuchung von Daten aus der Produktionslogistik, um die es im Folgenden gehen soll, ist dieser zeitliche Aspekt sehr wichtig; denn Sonifikationen erlauben nicht nur Analysen großer Datensätze mit hohen zeitlichen Auflösungen, sondern lassen durch den Erhalt der zeitlichen Struktur die Identifikation von Mustern im Klangverlauf zu, die möglicherweise Rückschlüsse auf unentdeckte Wirkzusammenhänge innerhalb der zugrundeliegenden Daten zulassen.

3. Produktionslogistische Problemstellung Die Produktionslogistik ist zuständig für die Planung und Steuerung von Fertigungs-, Verarbeitungs- und Montageprozessen, die zu einem Produkt oder einem vertreibbaren Teilprodukt führen. Dies kann z. B. in einer getakteten Fließbandfertigung oder einer flexiblen Werkstattfertigung geschehen. Produktionsdaten repräsentieren dabei die Soll-, Ist- und Planzustände von Arbeitsvorgängen an den Arbeitssystemen (Maschinen) einer Fabrik. Sie sind zeitlich strukturiert, d. h. neben Informationen wie Auftragsgröße und 17 Vgl. Hermann 2009. 18 Vgl. Worrall 2009.

152

Die Grooving Factory

Auftragszeit sind auch die Anfangs- und Endzeitpunkte der geplanten und tatsächlichen Vorgänge erfasst. Die Planung dieser Arbeitsvorgänge kann einen hohen Grad an Komplexität erreichen,19 der abhängig ist von der Anzahl der Arbeitssysteme und der Vielfalt der zu produzierenden Produktvarianten. Gerade der Bedarf an letzteren ist in den letzten Jahren durch die Bedürfnisse des Marktes nach individualisierten Produkten stark gestiegen, so dass in Extremfällen fast jeder Kundenauftrag eine eigene Produktspezifikation definiert, die sich nur noch grob übergeordneten Typenkategorisierungen zuordnen lässt. Zur Planung des Ablaufs einer Produktion werden zunächst die einzelnen Arbeitsschritte terminiert. Als geeignete Methode wird eine sogenannte Rückwärtsterminierung durchgeführt.20 Ausgehend von einem dem Kunden zugesagten Endtermin werden die einzelnen für die Fertigung eines Produktes benötigten Arbeitsschritte unter Verwendung der jeweiligen Plan-Durchlaufzeiten (Bearbeitungszeit des Arbeitsvorgangs und mittlere Übergangszeit des Arbeitssystems) zunächst terminiert und auf die jeweiligen Arbeitssysteme grob eingeplant. Für die Reihenfolge der Abarbeitung der Arbeitsvorgänge werden anschließend weitere Kriterien berücksichtigt. So kann es zum Beispiel sinnvoll sein, mehrere identische Auftragstypen zu sammeln und nacheinander abzuarbeiten, um ein Arbeitssystem nur einmal für den Arbeitsvorgang rüsten zu müssen. Das spart einerseits Zeit, andererseits müssen eventuell andere Aufträge dafür längere Zeit an demselben Arbeitssystem auf ihre Bearbeitung warten. Auch die Dauer der Bearbeitungszeit, wie z. B. die Bevorzugung möglichst großer Aufträge zum Erzielen einer möglichst großen Leistung, kann bei der Terminierung eine Rolle spielen. Durch die Rückstellung kleinerer Aufträge verschlechtert sich aber auch hier die Termintreue. In diesem erstmals von Gutenberg beschriebenen »Dilemma der Ablaufplanung«21 kommen insgesamt vier Zielgrößen zum Tragen, die zum Teil konfliktär sind und sich nur mit Abstrichen optimieren lassen: so soll einerseits der Liefertermin bei möglichst geringer Durchlaufzeit eingehalten werden, andererseits sollen die Arbeitssysteme auch angemessen ausgelastet sein, was einen idealen Mindestbestand erfordert. Ist der Bestand an einer Maschine zu klein, drohen Materialflussabrisse, ist er zu groß, erhöht sich die Kapitalbindung und die mittleren Durchlaufzeiten werden größer. Unter Berücksichtigung dieser Vorgaben wird mithilfe einer Planungssoftware ein Produktionsablauf geplant. Dabei ist dieses Planungsproblem vergleichbar mit NP-vollständigen Problemstellungen, wie sie aus der Mathematik etwa als Problem des Handlungsreisenden oder des Rucksackpackens be-

19 Vgl. Windt, Philipp, Böse 2008. 20 Vgl. Lödding 2008, 85. 21 Gutenberg 1983, 216.

Michael Iber, Julian Klein und Katja Windt

153

kannt sind: dies sind Rechenprobleme, deren Lösungszeit mit der Größenordnung der Aufgabe exponentiell steigt und deren optimale Lösung sich oft nicht errechnen lässt. Auf die Umsetzung der Planung wirken zusätzlich unvermeidliche außerplanmäßige Ereignisse ein. Das können Störungen an den Arbeitssystemen, aber auch Eilaufträge und anderweitig motivierte Priorisierungen von Vorgängen sein, die eine unmittelbare Steuerung der Arbeitsvorgänge benötigen und folglich Terminabweichungen gegenüber dem Plan bewirken. Auf diese Weise entstehen sogenannte Engpässe, deren »charakteristische[s] Merkmal […] die Abweichung zwischen einer oder mehreren Sollund Istgrößen der untersuchten Ressourcen [ist].«22 Neben den genannten Störgrößen können Engpässe u. a. auch auf falsch bemessene Auftragszeiten zurückzuführen sein. Die Analyse von dauerhaften oder unter bestimmten Bedingungen wiederkehrenden Engpässen ist somit eine Voraussetzung zur Verbesserung der Planung und zur Anpassung der zur Verfügung stehenden Kapazitäten. In Anbetracht der mathematischen und algorithmischen Unlösbarkeit logistischer Problemstellungen setzen traditionelle Analysemethoden in der Produktionslogistik bei der Reduktion von Komplexität an; denn während das Verständnis der Einwirkungen aller Ereignisse auf den gesamten Produktionsfluss eine hochkomplexe Aufgabe ist, ist die Betrachtung der Vorgänge an einzelnen Arbeitssystemen vergleichsweise überschaubar. Aus diesem Grund werden etwa bei der »engpassorientierten Logistikanalyse«23 zunächst alle Arbeitssysteme in einem Produktionsnetzwerk auf bestehende Engpässe hin untersucht und bewertet. Eine weiterführende Analyse mithilfe errechneter Kennlinien konzentriert sich anschließend auf die Arbeitssysteme mit den größten Engpässen und sucht nach einer Justierung möglicher Stellgrößen (z. B. Anpassung von Kapazität oder Mindestbestand), um eine angemessene Balance zwischen dem favorisierten und den übrigen logistischen Zielen zu erreichen. Wie Nyhuis und Wiendahl anhand des praktischen Beispiels einer Leiterplattenfabrik darlegten, konnte mit dieser Methode ein Potenzial für die Verbesserung der mittleren Liefertreue von 42 % ausgewiesen werden, das heißt: nach der Implementierung der vorgeschlagenen Maßnahmen konnten bis zu 70 % der Aufträge pünktlich fertig gestellt werden.24 Da sich die Optimierungsmaßnahmen auf nur wenige Arbeitssysteme beschränkten und die Auswirkungen zum Beispiel von Reihenfolgevertauschungen in der Abarbeitung der einzelnen Prozesse über mehrere Arbeitssysteme hinweg mit der engpassorientierten Logistikanalyse nicht vollständig erfasst werden können, liegt die Vermutung nahe, dass trotz dieser beachtlichen Verbesserung der Liefertreue weiteres Verbesserungspotential besteht. 22 Windt 2001, 50. 23 Vgl. Nyhuis, Wiendahl 2009. 24 Vgl. ebd.

154

Die Grooving Factory

4. Sonifikation von Produktionsdaten Dieses Potential durch die Sonifikation von Produktionsdaten analytisch aufzuspüren, ist das Ziel des Forschungsprojektes Grooving Factory. Das Parameter-Mapping für die klangliche Datenumsetzung orientiert sich dabei an der Modellierung, die auch bei der Engpassorientierten Logistikanalyse Modellierung angewandt wird. Zur plastischen Darstellung der Vorgänge an einem Arbeitssystem in einem Produktionsnetzwerk dient das Modell eines Trichters (Abb. 1). Aufträge, im rechten Teil der Abbildung repräsentiert als Kreise, gehen am Arbeitssystem ein und werden gemäß der Kapazität des Systems, dargestellt durch die maximale Öffnung des Trichters, abgearbeitet. Für die Betrachtung eines einzelnen Auftrags ergeben sich dadurch zwei Perspektiven (Abb. 2): die Auftragssicht mit der Abbildung einzelner Arbeitsvorgänge, die ein Auftrag während seiner Fertigung zu durchlaufen hat, und die Systemsicht, die alle an einem Arbeitssystem anfallenden Prozesse über die Zeit darstellt. Die kleinste gemeinsame Schnittstelle dieser beiden Perspektiven ist das sogenannte Durchlaufelement (Abb. 3), das einen einzelnen Arbeitsvorgang an einem Arbeitssystem betrachtet. In seiner Horizontalen umreißt es die Zeitspanne zwischen dem Zugang und Abgang eines Auftrags an einem Arbeitssystem und ist unterteilt in die Übergangszeit zwischen zwei Arbeitssystemen (Transportzeit und Wartezeit) und die eigentliche Durchführungszeit. Die Höhe des Durchlaufelements repräsentiert die sogenannte Auftragszeit. Das ist die Zeit, die für die Bearbeitung des Auftrages (Bearbeitungslos) laut Plan vorgesehen ist. Die für das Forschungsprojekt entwickelte Software sieht jeweils alternativ die Sonifizierung der Durchlaufzeiten, der Übergangszeiten oder der Durchführungszeiten zur Bestimmung der Zeitpunkte der Klangereignisse und ihrer jeweiligen Dauern vor. Dabei lassen sich sowohl einzelne Aufträge (Auftragssicht) als auch die zusammengefassten (z. B. Summe, Durchschnitt, Standardabweichung) gleichzeitigen Arbeitsvorgänge an den Arbeitssystemen (Systemsicht) darstellen bzw. akustisch aufbereiten. Die Tonhöhe der erzeugten Klänge ergibt sich aus einem weiteren wählbaren Parameter, zum Beispiel der Durchlaufzeit, Auftragszeit, der Rüstzeit, der Losgröße, der Terminabweichung oder dem Produkttyp (Abb. 3). Für die ersten Sonifizierungsversuche wurde der Datensatz einer Leiterplattenfabrik gewählt, auf den sich auch Nyhuis und Wiendahl in der Engpassorientierten Logistikanalyse beziehen. Er erstreckt sich über einen Untersuchungszeitraum von fünf Monaten und umfasst 4270 Aufträge mit annähernd 77.000 Arbeitsvorgängen an 33 Arbeitssystemen. Im Sonifikationsmodell werden diese Arbeitssysteme als Klangquellen gemäß ihrer ungefähren Lage im Stereopanorama von links nach rechts positioniert, so dass sich die einzelnen Arbeitsvorgänge im Produktionsfluss auch räumlich nachvollziehen lassen.

Michael Iber, Julian Klein und Katja Windt

155

In der auditiven Annäherung an logistische Produktionsdaten gibt es zwei grundsätzliche Strategien: die explorative und die konfirmative Datenanalyse. Hermann orientiert sich in seiner Dissertation über Sonifikation als Methode für »explorative Datenanalyse«25 an John W. Tukey, der diesen Begriff für eine statistische Analysemethode prägte.26 Diese ist vor allem für Daten mit unbekannten Strukturen geeignet. Hermann entwickelte anhand der akustischen Auswertung von Elektroenzephalogramm-Daten ein auditives Pendant zu Tukeys Ansatz. Die konfirmative Datenanalyse versucht hingegen, bestimmte, bereits bekannte Strukturen nochmals akustisch nachzuweisen. Bei Grooving Factory werden beide Ansätze verfolgt: der explorative, hier gilt es, tatsächlich neue Erkenntnisse über die Datenstrukturen zu gewinnen. Aber auch der konfirmative, mit dessen Hilfe bereits bekannte Ergebnisse bestätigt werden sollen. In seiner Analogie zur engpassorientierten Logistikanalyse soll er den methodischen Ansatz der sonifikationsbasierten Analyse legitimieren. Zudem lässt sich so das Gehör für die spezifischen Klangstrukturen trainieren. In der ersten Versuchsanordnung, die den explorativen Analyseansatz verfolgte, wurden alle Arbeitsvorgänge des gesamten Untersuchungszeitraums dargestellt. Jeder Arbeitsvorgang war durch einen eigenen Sinuston repräsentiert, dessen Anfangs- und Endzeitpunkte der Durchführungszeit des jeweiligen Vorgangs entsprach. Als (skalierbarer) Wert für die Tonhöhe diente die Losgröße des Arbeitsvorgangs, d. h. die Anzahl der bearbeiteten Einzelstücke. Die Abspielgeschwindigkeit des Datensatzes lässt sich bei der Software beliebig regulieren, dabei hat sich der Faktor 15.000 bewährt, d. h. eine Sekunde der Sonifikation entspricht ungefähr vier Stunden in der realen Produktion. Erwartungsgemäß war das klangliche Ergebnis sehr komplex. Dennoch ließen sich bereits beim erstmaligen naiven Hören deutliche Strukturen in den Daten wahrnehmen, so z. B. ein Metrum von acht Stunden Dauer, das sich offensichtlich auf die drei in der Fabrik gefahrenen Schichten zurückführen lässt. Außerdem bildete dieses Metrum einen Dreiertakt, der auf die Struktur der Nachtarbeit zurückzuführen ist; denn während der Nachtstunden war nur ein Teil der Arbeitssysteme aktiv. Der Stillstand der übrigen Systeme bewirkte deutliche Lücken im klanglichen Verlauf. Über die Verdeutlichung der Arbeitszeitstruktur hinaus ließen sich mit diesem rudimentären Ansatz allerdings keine weiteren Erkenntnisse gewinnen. Da durch die bereits angewandte Engpassanalyse viele Eigenschaften des Datensatzes bekannt sind, wurde in einer zweiten Versuchsanordnung ein konfirmativer Ansatz verfolgt, um die bekannten, relevanten Strukturen auch auditiv nachzuweisen.27 Das 25 Hermann 2002. 26 Vgl. Tukey 1977. 27 Vgl. Windt, Iber, Klein 2010.

156

Die Grooving Factory

angewandte Sonifikationsmodell sollte die mit Hilfe der engpassorientierten Logistikanalyse bestimmten Engpässe bestätigen. Um die klangliche Komplexität der Sonifikation zu verringern, wurde eine Lösung entwickelt, bei der Arbeitssysteme nur dann klanglich in Erscheinung treten, wenn sie sich in einem Grenzlastbereich befinden. Dazu wurden die zeitgleich auflaufenden Auftragszeiten der eingehenden Arbeitsvorgänge an einem Arbeitssystem summiert, was dem jeweils aktuellen Bestand dieses Arbeitssystems entspricht. Anschließend wurde davon der in Arbeitsstunden pro Tag angegebene Kapazitätswert des Arbeitssystems subtrahiert, so dass sich Überlastsituationen (d. h. der Bestand eines Systems ist höher als seine Kapazität) anhand positiver Zahlenwerte identifizieren ließen. Für eine störungsfreie Produktion ist ein gewisser Mindestbestand unerlässlich, um Produktionsabrisse zu vermeiden. Eine hohe Überlast, wie auch stark fluktuierende Bestände, deuten allerdings auf eine unzureichende Planung hin oder aber auf Fehler bei der Angabe der Kapazitäten oder Auftragszeiten. Der gesamte Untersuchungszeitraum wurde in etwa 10 Sekunden abgespielt. Im Vergleich zu dem explorativen Ansatz war das klangliche Ergebnis dieser Versuchsanordnung deutlich reduziert und überschaubar. Lediglich an fünf, räumlich leicht zu ortenden Arbeitssystemen wurde die angegebene Kapazität deutlich überschritten. An einem dieser Arbeitssysteme, das auch durch die engpassorientierte Logistikanalyse als Engpass identifiziert wurde, schwang sich die Leistung des Systems mit nahezu konstanter Tonhöhe über dem angegebenen Kapazitätswert ein. Das legt die Vermutung nahe, dass hier entweder der angegebene Kapazitätswert nicht mit der Realität übereinstimmte, oder aber die bemessenen Arbeitsinhalte nicht korrekt waren. Ein weiteres Arbeitssystem (Abb. 4) fiel durch sich immer höher schraubende Frequenzen auf: die sich anhäufenden Arbeitsvorgänge konnten offenbar nicht mehr abgearbeitet werden. Eine Untersuchung der originalen Rückmeldedaten identifizierte hier einen Auftrag, dessen Auftragszeit mit fast 48 Stunden bemessen war, wohingegen alle anderen Arbeitsvorgänge an dem System sich zwischen 0,01 und 1,88 Stunden bewegten. Die Vermutung liegt daher nahe, dass es sich hier eher um ein fehlerhaftes Datum als um einen Fehler im realen Produktionsablauf gehandelt hat. Dieses Arbeitssystem wurde in der Auswertung der engpassorientierten Logistikanalyse nicht dokumentiert, auch wenn sie sich auch durch einfache statistische Auswertungen hätte aufspüren lassen können. Für die erste Beurteilung des grundsätzlichen Potentials einer sonifikationsgestützten Logistikanalyse ist es zunächst weniger entscheidend, ob es sich bei den hier aufdeckten Engpässen um fehlerhafte Daten oder tatsächliche Probleme in der logistischen Infrastruktur des Unternehmens handelt. Wesentlicher ist die Erkenntnis, dass auch bei dem konfirmativen Ansatz Strukturen hörbar gemacht werden konnten, die nicht nur bekannte Ergebnisse bestätigten, sondern darüber hinaus undokumentierte, anhand der originalen Daten aber verifizierbare Ereignisse aufdeckten.

Michael Iber, Julian Klein und Katja Windt

157

Anhand von Abb. 4 lässt sich auch das eingangs erwähnte Problem einer aussagekräftigen »druckfähigen« Präsentation auf auditorischer Analyse beruhender Erkenntnisse verdeutlichen. Die horizontalen Striche in mit der Partial-Tracking-Software Spear erstellten Graphik repräsentieren, einige Artefakte eingeschlossen, die tägliche Überlast aller 33 Arbeitssysteme über den Untersuchungszeitraum. Da eine räumliche Positionierung der einzelnen klanglichen Komponenten in dieser Darstellungsform nicht möglich ist, lässt sich mittels der Graphik das analytische Ergebnis nicht angemessen darstellen und auch die eingezeichnete Verlaufskurve kann es allenfalls vage andeuten. Ein Spektrogramm, wie es oft für die Darstellung von Frequenzverläufen herangezogenen wird, ist in diesem Anwendungsbereich noch weniger aussagefähig.

Abb. 1: Schematischer Ausschnitt eines Produktionsnetzwerks.

158

Die Grooving Factory

Abb. 2: Systemorientierte und auftragsorientierte Sichtweisen.

Abb. 3: Parametermapping des Durchlaufelements.

Michael Iber, Julian Klein und Katja Windt

159

Abb. 4: Partial-Tracking-Analyse der Sonifikation mit der Software Spear. Der markierte Frequenzverlauf ist in einer auditiven Darstellung räumlich deutlich zu identifizieren und dem verursachenden Arbeitssystem zuzuordnen.

5. Fazit So bleiben zum Abschluss dieser ersten Versuche der Sonifikation von Produktionsdaten zwei Punkte zu konstatieren: zwar ist es gelungen, undokumentierte Datenstrukturen in dem Beispieldatensatz aufzudecken, das eigentliche Ziel des Projektes, nämlich die Erkennung wiederkehrender Muster in statistisch ansonsten unauffälligen Strukturen, deren zeitliche Unregelmäßigkeiten zumeist geglättet und im Datenrauschen ausgefiltert werden, ist bisher noch nicht erreicht. Zum zweiten besteht weiterhin Entwicklungsbedarf an aussagefähigen, wissenschaftskonformen Präsentationsformen für die Aufbereitung auditiver Analysen. Zwei Wege sind dafür denkbar: entweder, es gelingt, neue grafische Darstellungsmethoden für klangliche Ergebnisse zu finden, um den derzeitigen wissenschaftlichen Standard zu erfüllen, oder das Format der wissenschaftlichen

160

Die Grooving Factory

Publikation öffnet sich – wie das zum Teil schon in dem Bereich des Artistic Research28 geschieht – neuen medialen Plattformen.

Danksagung Die Forschung von Professor Katja Windt wird unterstützt durch den Alfried-Krupp-Förderpreis für junge Hochschullehrer der Alfried Krupp von Bohlen und Halbach-Stiftung.

6. Quellen Alexanderson, Petter / Tollmar, Konrad (2006): Being and Mixing – Designing Interactive Soundscapes. Proceedings of NordiCHI, Oslo. Barrass, Stephen (2000): Some Golden Rules for Designing Auditory Displays, in Boulanger, R. (Hg.), The Csound Book: Perspectives in Software Synthesis, Sound Design, Signal Processing, and Programming. Bly, Sarah (1994): Multivariate Data Mappings, in: Kramer, G. (Hg.), Auditory Display. Reading. Bregman, Albert S. (1994): Foreword, in: G. Kramer (Hg.), Auditory Display. Reading. Campo, Alberto de et al. (2006): Sonification as an Interdisciplinary Working Process. Proceedings of the 12th International Conference on Auditory Display, London. Daston, Lorraine / Galison, Peter (2007): Objectivity, Boston. Dombois, Florian (2005): Zu Hören wissen, in: Koenches, B. / Waibel, P. (Hg.), unSichtbares. Algorithmen als Schnittstellen zwischen Kunst und Wissenschaft, Bern, 204-221. Flowers, John H. (2005): Thirteen Years of Reflection on Auditory Graphing: Promises, Pitfalls, and Potential New Directions. Proceedings of the 11th International Conference on Auditory Display, Limerick. Frysinger, Steven. P. (2005): A Brief History of Auditory Data Representation to the 1980s. Proceedings to the First Symposium on Auditory Graphs. Limerick, http://sonify.psych.gatech.edu/ags2005/pdf/AGS05_Frysinger.pdf, 27.10.2011.

28 Vgl. http://www.jar-online.net; vgl. dazu auch die Beiträge von Florian Dombois und Holger Schulze in diesem Band.

Michael Iber, Julian Klein und Katja Windt

161

Gaver, William W. / Smith, Randall B. / O’Shea, Tim (1991): Effective Sounds in Complex Systems: the ARKOLA Simulation. Proceedings of Conference on Human Factors in Computing Systems (CHI), New Orleans. Gläsner, Jürgen / Fastabend, Holger: Vorlesungsmaterial des Instituts für Fabrikanlagen und Logistik (IFA), Leibnizuniversität Hannover. Gutenberg, Erich (1983): Grundlagen der Betriebswirtschaftslehre Bd.1: Die Produktion, Berlin, Heidelberg, New York. Hermann, Thomas (2011): Definition, http://sonification.de/son/definition, 4.4.2011. Hermann, Thomas (2002): Sonification for Exploratory Data Analysis, Bielefeld, http:// sonification.de/publications/media/Hermann2002-SFE.pdf, 4.4.2011. Hermann, Thomas (2009): Sonifikation hochdimensionaler Daten, in: Georg Spehr (Hg.), Funktionale Klänge, Bielefeld. Kramer, Gregory (1997): Sonification Report, International Community for Auditory Display, http://www.icad.org/websiteV2.0/References/nsf.html, 3.6.2010. Klingbeil, Michael (o. J.): Software »Spear«, http://www.klingbeil.com/spear/, 27.10.2011. Lödding, Hermann (2008): Verfahren der Fertigungssteuerung: Grundlagen, Beschreibung, Konfiguration, Teil D: Reihenfolgebildung, Berlin, Heidelberg. Nyhuis, Peter / Wiendahl, Hans-Peter (2009): Fundamentals of Production Logistics: Theory, Tools and Applications. Berlin. Pereverzev, Sergej V. et al. (1997): Quantum Oscillations Between Two Weakly Coupled Reservoirs of Superfluid 3He. Nature (388), 449-451. Tukey, John W. (1977): Exploratory Data Analysis, Reading Mass. Windt, Katja (2001): Engpassorientierte Fremdvergabe in Produktionsnetzen, Düsseldorf. Windt, Katja / Iber, Michael / Klein, Julian (2010): Grooving Factory: Bottleneck Analysis, in: Production Logistics Through Auditory Display. The 16th International Conference on Auditory Display, Washington, D.C., 115-120. Windt, Katja / Philipp, Thorsten / Böse, Felix (2008): Complexity Cube for the Characterisation of Complex Production Systems. International Journal of Computer Integrated Manufacturing, 21 (2). Worrall, David (2009): The Use of Sonic Articulation in Identifying Correlation in Capital Market Trading Data. Proceedings of the 15th International Conference on Auditory Display, Copenhagen.

162

Die Grooving Factory

Sonifikation als künstlerische Metapher und ästhetische Strategie

Angeschlagene Moderne Florian Dombois

1. Jeder Körper klingt, wenn man ihm einen Impuls gibt. Als Xylophon, Metallophon, Petrophon. Vom Hammer angeregt, bestimmen Form und Material die Eigenfrequenzen, die akustische Signatur. Nicht alle Signaturen liegen im für den Menschen hörbaren Bereich, dann muss nachgestimmt werden: Beschleunigung oder Verlangsamung – Audifikation – der aufgezeichneten Bewegung. Angeschlagene Moderne ist eine Arbeit, die ich im Rahmen des Wettbewerbs Deutscher Klangkunstpreis 2010 entwickelt habe. Im ersten Arbeitsschritt geht es darum, vorhandene Skulpturen des öffentlichen Raums mit einem Hammer so anzuschlagen, dass deren ganzer Korpus in Resonanz gerät. Die resultierenden Schwingungen werden mit einem Kontaktmikrofon aufgezeichnet und audifiziert, d. h. je nach Charakter gegebenenfalls beschleunigt oder verlangsamt. Diese akustischen Signaturen bilden das Klangmaterial, aus dem ich kontextspezifische Versionen der Angeschlagenen Moderne entwickele. Die erste Ausgabe entstand für das Skulpturenmuseum Glaskasten Marl und vermaß deren Sammlung, die sich seit den 1950er Jahren auf Werke der Klassischen Moderne und der Zeitgenössischen Kunst konzentriert. Konkret habe ich 48 Skulpturen im Außenraum angeschlagen,1 die sich auf dem Gelände rund um das Rathaus Marl und

1 Es wurden Werke von folgenden Künstlern angeschlagen: Hans Arp, William Brauhauser, Hermann Breucker, Carl Bucher, Hede Bühl, Samuel Buri, Emil Cimiotti, Max Ernst, Ian Hamilton Finlay, Esther & Jochen Gerz, Werner Graeff, Friedrich Gräsel, Hagen Hilderhof, Jochen Hiltmann, Alfred Hrdlicka, Rolf Julius, Ilya & Emilia Kabakov, Ulrike Kessl, Diethelm Koch, Ödon Koch, Christina Kubisch, Alf Lechner, Brigitte & Martin Matschinsky-Denninghoff, Wolgang Nestler, Ansgar Nierhoff, Stefan Pietryga, HeinzGünter Prager, Vera Röhm, Haus-Rucker Co, Ulrich Rückriem, Robert Schad, Michael Schoenholtz, Jun-Kug Seo, Richard Serra, Igael Tumakin, Mischa Ullman, Timm Ulrichs, André Volten, Wolf Vostell, Rudolf Wachter, Stephan Wewerka, Ossip Zadkine, Herbert Zangs.

165

Abb. 1: Marl, 12. Juli 2010, 9:40 h; Florian Dombois bei der Aufnahme; Skulptur Marlsku von W. Graeff (1970/2). Foto: Dirk Specht

den naheliegenden See befinden.2 Die Beschleunigungsfaktoren rangieren zwischen 0,12- und 1,5-facher Geschwindigkeit, die Spieldauern zwischen einer halben und 33 Sekunden. Die 48 Klänge habe ich zu 24 Paaren arrangiert. Es wurde eine Funkuhr programmiert, die jeden Tag die 24 Klangpaare in wechselnder Reihenfolge den Stunden zuweist. Jeweils zu jeder vollen Viertelstunde wird das erste Signal des Klangpaars abgespielt: um :15 ein Schlag, um :30 zwei Schläge, um :45 drei Schläge und um :00 vier Schläge; und zur vollen Stunde wird die Zeit mit dem zweiten Signal in der entsprechenden Schlagzahl angezeigt. Ausgespielt werden die Signale über ein goldfarbenes Lautsprecherobjekt, das sich an einer hängenden Glocke orientiert und aus einem verlängerten Lautsprecherchassis und einem Diffusor besteht. Über dem Objekt ist mit Kreide ein Ziffernblatt ohne Zeiger direkt auf die Wand gezeichnet. Die Klanginstallation befindet sich im Hauptraum des Museums (direkt unter dem Ratssaal), der doppelt von Glaswänden umfasst wird und den Blick auf den Außenraum freigibt. Hier stehen die wertvollsten Stücke der Sammlung, von Rodin bis Man Ray. Die Klanginstallation wird

2 Das Rathaus Marl wurde von den Rotterdamer Architekten Broek/Bakema entworfen, die u. a. auch an der Interbau Berlin (IBA ‘57) im Hansaviertel vertreten waren. Die Geschichte dieser neuen Mitte Marls, mit der der damalige Bürgermeister Heiland die zusammengelegten Dörfer Marls zu einer Stadt zentrieren wollte, ist ein untersuchenswertes Beispiel des bundesdeutschen Wiederaufbaus nach 1945 und dessen Ideologien.

166

Angeschlagene Moderne

nicht abgestellt, sondern spielt Tag und Nacht und wiederholt so seit dem 22. August 2010 immer wieder den Marler Sammlungsbestand. Eine zweite Ausgabe dieses Projekts realisierte ich am 4. November 2010 in der Reihe Performances in Hansaviertel des Berliner Kuratorenkollektivs THE OFFICE im EternitHaus. Dazu wurde das Marler Klangmaterial von mehreren Künstlerfreunden weiterverarbeitet: Alberto de Campo programmierte eine Kompositionsmaschine, Christina Kubisch hielt eine Lecture-Performance, Hans Peter Kuhn komponierte ein VierkanalAudio-Video-Stück und Jan Svenungsson arrangierte mit den Klängen einen seiner Songs der 1980er Jahre neu. Ich veranstaltete ein Bingospiel, bei dem die Zuschauer Wachsmalstifte und Bingokarten erhielten, auf denen je 5x5 Künstlernamen im Quadrat aufgeführt waren. Die Ziehung erfolgte mit beschrifteten Pingpong-Bällen und wurde von den entsprechenden Klängen begleitet. Die Reihenfolge der Ziehung bestimmte die Siegermelodie am Ende des Spiels. Die Preisträgerin durfte sich drei Künstler der Moderne wünschen, die ich ihr auf ein Set neuer Pingpong-Bälle der Marke Schildkröt Avantgarde schrieb.3 Eine dritte Ausgabe des Projekts startete im Februar 2011 auf Einladung von Ute Meta Bauer und nimmt die Public-Art-Collection des MIT in Cambridge (USA) ins Visier.4 Das Projekt befindet sich derzeit in Realisierung.

2. Ich bekenne, dass meine Werbung für die Sonifikation5 einem künstlerischen Interesse geschuldet ist. Die Umwandlung von Daten in Klänge fasziniert mich, es überrascht mich immer wieder, wie sich aus abstrakten Zahlen ästhetisches Material generieren lässt. Das größte Faible habe ich für die Audifikation, dem rohesten und unmittelbarsten Verfahren der Sonifikation. Ihren Klängen gilt mein akustisches Fernweh. Hier bekomme ich Ungeahntes zu hören, hier entstehen Klänge, die ich nicht erdacht habe, hier werde ich in meinen künstlerischen Wertmaßstäben gefordert. Indem ich mich der von mir vorab gesetzten Abbildungsvorschrift der Audifikation anvertraue, versuche ich meinen 3 Eine weitere Auflage dieses Bingos fand einen Monat später, am 3. Dezember 2010, im Rahmen der Tagung Kulturgeschichte der Sonifikation in Bern statt. 4 Es wurden die Werke folgender Künstler angeschlagen: David Bakalar, Harry Bertoia, Scott Burton, Alexander Calder, Richard Fleischner, Dan Graham, Cai Guo-Qiang, Dimitri Hadzi, Michael Heizer, Sol LeWitt, Jacques Lipchitz, Henry Moore, Louise Nelson, Kenneth Noland, Jaume Plensa, Tony Smith, Mark di Suvero, Bernard Venet, Laurence Wiener, Isaac Witkin. 5 Vgl. z. B. Dombois 1998; Dombois 2002; Dombois 2008.

Florian Dombois

167

voreingenommenen Formwillen zu überlisten und lasse ihn erst wieder ins Spiel kommen, wenn es im rekursiven Prozess um die Anpassung der Parameter geht. Mein Vorgehen ist das einer ästhetischen Ballistik: ein Vorauswerfen in unkontrolliertes Gebiet, um sich dann daran immer wieder abzuarbeiten und voran zu bringen. Das Unhörbare hörbar machen – doch mit welcher Intention? Zweierlei Hören ist möglich: das Hinhören, das man im Konzertsaal pflegt; und das Lauschen auf Geschichten, denn jede Datenreihe, jede Messung verspricht eine Erzählung. Mich interessieren beide Varianten des ästhetischen Zuhörens, ja, gerade diese Doppelbödigkeit der Sonifikation provoziert meinen künstlerischen Ehrgeiz. Denn ähnlich der Fotografie oder dem Video taugt sie zur Kunst gerade so wie zum Dokumentarismus, und so sind Datenwahl, Konvertierungsverfahren und Kontextualisierung wesentliche Spielfelder der künstlerischen Praxis. Audifikation ist keine Tonmalerei – das bewahrt sie meines Erachtens vor dem Kitsch –, und ich sehe sie auch nicht als Nachbildung oder Mimesis der Natur oder gar als Programmmusik. Ich verwende sie vielmehr als eine Praxis der Intervention, die wie ein geformtes Holz in den Datenfluss hineingestellt, neue Wirbel erzeugt und zu weiterer Deutung auffordert. Das hat meines Erachtens Auswirkungen auf die Kritik: Nicht die Audifikation an sich lohnt es im Kunststatus zu bewerten, sondern man muss die Anlage des Werkes, in die sie eingebettet ist, im Sinne einer post-conceptual art evaluieren. Ich bekenne, dass meine Werbung für die Sonifikation einem forschungspolitischen Interesse geschuldet ist. Viele versprechen, dass die Sonifikation einen effizienteren Zugang zu den Daten erlaubt. Doch braucht es für die akustische Mustererkennung stets noch das menschliche Ohr. Das ist mir sympathisch. Darüber hinaus lauert in der Sonifikation ein epistemischer Hinterhalt, und das macht sie mir zur Gefährtin: Es gibt ein Dogma der Darstellungsformen in der wissenschaftlichen Forschung, die sich auf die Schrift und auf Bilder beschränkt. Alles, was sich wissenschaftlich untersuchen lässt, wird zunächst verbal formuliert und damit gefügig gemacht. Mit der Einführung des Akustischen lässt sich der Monopolanspruch des Optisch-Verbalen hingegen nicht aufrecht erhalten. Und gibt es erst einmal eine Alternative, wird die Frage nach mehr Alternativen geweckt. D. h. mit der Einführung der Sonifikation wird die Medien- und Darstellungsfrage auch für die Wissenschaften dringlich. In welchem Medium soll die Erkenntnis gewonnen werden: schriftlich, visuell oder akustisch? Vielleicht gar olfaktorisch oder haptisch? Und ist die Erkenntnis von einem Medium wirklich beliebig in ein anderes übersetzbar? Diese Fragen sind für die Wissenschaften ungemütlich und werden meines Erachtens dort bisher erfolgreich unterdrückt. Die Sonifikation bringt sie aufs Tapet und stört so aktiv das Vertrauen in scheinbar neutrale Darstellungsformate. Hören heißt darum auch Zweifeln an den gängigen Wissenschaftsmethoden, und ich baue darauf, dass sich die Verklanglichung nicht einfach als weitere Methode in das wissenschaftliche Instrumentarium

168

Angeschlagene Moderne

der Weltaneignung einfügt, sondern dass sie sich widerspenstig erweist, indem sie Fragen gebiert. Als Schwester der Visualisierung ist die Sonifikation in meinen Augen nicht Schmiermittel, sondern – so wünsche ich – eher Sand im Getriebe einer ungebremsten Fortschrittsideologie und Machbarkeitshybris. Ich bekenne, dass meine Werbung für die Sonifikation einem gesellschaftspolitischen Interesse geschuldet ist. Es ist offensichtlich, dass wir in einer Kultur des Sichtbaren leben, es gibt ein Visualprimat. Von Platons Höhlen- und Sonnengleichnis bis zur ›Aufklärung‹, dem ›Enlightenment‹ und dem ›Siècle des Lumières‹ durchwirkt das, was manche Kulturwissenschaftler eine regelrechte Okulartyrannis nennen, unsere Denkweise. Ein Plädoyer für das Akustische, ein Eintreten für mehr Hinhören scheint mir darum aus politischen Gründen dringlich. Dabei geht es mir nicht um das Aufrichten einer neuen Ideologie, eines Heilsversprechens oder Nada Brahma, sondern um ein Korrektiv bestehender Praktiken. Denn vergleichbar dem Panopticon Jeremy Benthams, das Michel Foucault in dessen optischer Machtausübung als ideales Gefängnis vorgeführt hat, so gibt es auch für die akustische Überwachung unzählige Beispiele, vom Ohr des Dionysos in Syrakus bis zur Wanze Theremins. Daher muss das Fragen nach dem Wie der Untersuchung auch um ein Fragen nach einem Zu welchem Ziele erweitert werden. Ich finde, die seit der Antike geführte Diskussion darüber, ob Theoria im Sinne von Anschauung auch eingreifen darf, ob also Experimente als Praxis der Intervention erlaubt sind, gehört aktualisiert und um die Frage ergänzt: Wer forscht eigentlich, mit welcher Disposition und aus welcher Haltung heraus?

3. Quellen Dombois, Florian (1998): Über Erdbeben. Ein Versuch zur Erweiterung seismologischer Darstellungsweisen, Humboldt-Universität Berlin (Diss). Dombois, Florian (2002): Wann hören? Vom Forschen mit den Ohren, in: Schürmann, Astrid / Weiss, Burghard (Hg.), Chemie-Kultur-Geschichte, Berlin, 79-92. Dombois, Florian (2008): Sonifikation. Ein Plädoyer, dem naturwissenschaftlichen Verfahren eine kulturhistorische Einschätzung zukommen zu lassen, in: Meyer, Petra Maria (Hg.), Acoustic Turn, Paderborn, 91-100.

Florian Dombois

169

Die Stille der Bilder und die Macht der Töne Spuren einer Medienästhetik der Audifikation in Rilkes Ur-Geräusch Jan Thoben

Rainer Maria Rilke verfasste 1919 ein kunsttheoretisches Essay mit dem Titel Ur-Geräusch. Der erste Teil dieses Essays enthält die Schilderung eines technischen Transformations-Experiments mit dem Phonographen. Der zweite Teil ist den lyrischen Übersetzungsvorgängen zwischen den Eindrücken verschiedener Sinne gewidmet. Dieses eigentümliche Aufeinandertreffen von Poetologie und Klangmaschine suggeriert zunächst die Verschiebung von einer sprachlichen zu einer sonischen (Kultur-)Technik: dem Schreiben. Im Ur-Geräusch macht Rilke jedoch unmissverstlndlich deutlich, dass sein Interesse an der Medientechnik nicht so sehr dem akustischen Speichern, sondern dem Aushorchen von Rillen und Linien gilt. Der Phonograph operiert in Rilkes Experiment als intermodaler Mittler und steht in einem Wechselverhältnis zur argumentativen Ausarbeitung seines Dichtungskonzepts. Die Frage nach Rilkes Technikverständnis und seinem Verhältnis zum Klang wird im vorliegenden Text anhand seines Essays sowie brieflicher Äußerungen erläutert. Ein Vergleich mit der Musikauffassung des befreundeten Pianisten und Komponisten Ferruccio Busoni zeigt, dass klangbezogene Mediumsvorgänge in ähnlicher Weise reflektiert werden. Auch wird der Frage nachgegangen, inwieweit Rilke im Ur-Geräusch Audifikation avant la lettre als künstlerisches Verfahren nobilitiert. Indem der Schriftsteller besonders auf den poietischen Aspekt des technisch basierten Hörbarmachens abhebt, ergibt sich ein Spannungsverhältnis zur literarischen Metapher, denn semantisches und asemantisches Übertragen stehen nebeneinander. Rilkes Interesse an einer technischen Realisierung des im Text vorgeschlagenen Experiments zeugt von einem Bewusstsein für das Verhältnis von Sinnzuschreibung und medialem

171

Eigensinn und soll Aufschluss geben über die Medienästhetik der Audifikation im UrGeräusch.1

1. Den Stift täuschen Rilkes Text beginnt mit der Erinnerung an seinen Physiklehrer, einem »zu allerhand emsigen Basteleien geneigten Mann«2, der die Schüler im Unterricht anleitete, einen Phonographen zu bauen. Mit dieser Erfindung, die Edison im Jahr 1877 zum Patent angemeldet hatte, war es bekanntlich erstmals möglich, Schall auf eine Wachswalze aufzunehmen und seine Spur anschießend von derselben wiederzugeben. Ungefähr fünfzehn Jahre nach Rilkes Phonographenbau, im Rahmen der Anatomie-Vorlesungen am École des Beaux-Arts in Paris, habe sich ihm die Kronennaht des menschlichen Schädels auf eigentümliche Weise eingeprägt, weil sie ihn an eben jene Phonographenspur aus der Schulzeit erinnerte. Die empirische Evidenz der Klangspur sollte Rilke zu einer weit reichenden Schlussfolgerung anregen. So heißt es im entscheidenden Absatz des Ur-Geräuschs: Die Kronen-Naht des Schädels (was nun zunächst zu untersuchen wäre) hat – nehmen wirs an – eine gewisse Ähnlichkeit mit der dicht gewundenen Linie, die der Stift eines Phonographen in den empfangenen rotierenden Cylinder des Apparates eingräbt. Wie nun, wenn man diesen Stift täuschte und ihn, wo er zurückzuleiten hat, über eine Spur lenkte, die nicht aus der graphischen Übersetzung eines Tons stammte, sondern ein an sich und natürlich Bestehendes –, gut: sprechen wirs nur aus: eben (z. B.) die Kronen-Naht wäre –: Was würde geschehen? Ein Ton müsste entstehen, eine Ton-Folge, eine Musik ...3 Rilke schlägt vor, Rillen und Linien abzutasten, die »nichts und niemand encodierte«, d. h. im Fall der Kronennaht »anatomische Zufälle [...]. Damit aber feiert ein Schriftstel-

1 In diesem Textbeitrag wird die von Thomas Hermann dargestellte Systematik der Sonifikationstechniken, die sich in Audification, Earcons, Auditory Icons, Parameter Mapping Sonification und ModelBased Sonification gliedern lassen, übernommen. Audifikation gilt dabei als direkteste AuditoryDisplay-Technik. Hermann 2002, 35-40. 2 Rilke 1986, 112. 3 Ebd., 115.

172

Die Stille der Bilder und die Macht der Töne

ler das genaue Gegenteil seines eigenen Mediums – weißes Rauschen, wie keine Schrift es speichern kann«, schreibt Friedrich Kittler.4 Edison hatte selbst bereits in den 1870er Jahren mit phonographischer Transposition und Zeitachsenmanipulation experimentiert,5 welche die Möglichkeit der Audifikation nicht hörbarer Schallereignisse prinzipiell implizieren. Darüber hinaus waren erste Audifikationsexperimente6 in der wissenschaftlichen Forschung längst durchgeführt und der Schriftcharakter der Klangspur durch Édouard-Léon Scotts Phonautographen bestätigt. Es finden sich allerdings keine Hinweise darauf, dass Rilke von diesen Forschungen Kenntnis genommen hat. Sein Interesse an Medientechnik und Audifikation ist ein genuin künstlerisches, und die intermedialen Implikationen der Edisonschen Maschine sind durch ein eben solches Interesse erschlossen worden – wenngleich nur theoretisch.7 Im Jahr 1910 hatte das Grammophon bereits den Münchner Musikkritiker Alexander Dillmann zu folgender Überlegung angeregt: Es ist doch etwas Seltsames um diese rätselvolle Gravierung der schwarzen Platte vor uns. [...] Wir können ihr Bild mit dem Mikroskop sehen, so gut wie etwas anderes, was Menschenkunst geschaffen hat. [...] Wie, wenn wir dieselbe oder eine ähnliche Form ohne Schallwellen, auf rein mechanischem Wege erzielten? Wäre dann nicht die Möglichkeit erschlossen, auf solcher Platte einen Sänger von einem unbegrenzten Stimmumfang mit beliebigem Timbre zu konstruieren?8 Sowohl Rilke als auch Dillmann referieren auf die Schriftbildlichkeit der Klangspur. Doch während der Musikkritiker sogleich die Konstruktion eines virtuellen Sängers im Sinn hat, geht es Rilke nachdrücklicher um die besondere Übertragungsleistung des Phono-

4 Kittler 1986, 72. Dass Rilke das Rauschen aber zum Gegenstand einer poetischen Beschreibung gemacht hat, zeigt Benjamin Bühler mit einer Analyse der Rilkeschen Syntax. Damit kommt er Bettine Menkes Forderung, »die Poietik des akustischen Wissens, [...] die Uneinholbarkeit des Schalls im Medium der Texte zu lesen«, nach. Menke 2000, 19. Bühler schreibt: »Das Ur-Geräusch entzieht sich einer sprachlichen Benennung [...]. Dem Autor versagt die Stimme, die Sätze brechen ab, auf die Fragen gibt es keine Antworten, das Geräusch llsst sich nicht in Sprache übersetzen«. Bühler 2004, 188-189. Hier behauptet die Sprache ihre eigene Geräuschhaftigkeit. 5 Vgl. Feaster 2007, 104-106. 6 Vgl. Dombois 2004. 7 Dieses Schicksal war zunächst auch den Ritzschriftexperimenten László Moholy-Nagys und Hans Heinz Stuckenschmidts beschieden. Ihre Transformationsexperimente erwiesen sich erst im elektrooptischen Medium des Tonfilms versuchsweise als operabel. Vgl. dazu Thoben 2010, 427 und Katz 2010, 116-123. 8 Zit. nach Katz 2010, 253.

Jan Thoben

173

graphen und damit auch sein befremdliches Eindringen in den Zuständigkeitsbereich der sprachlichen Metaphorik.9 »Ungläubigkeit, Scheu, Furcht, Ehrfurcht«10 löst bereits der Gedanke an akustisch sich entäußernde Linien aus. Sie waren »um vieles eigentümlicher geblieben«11 als der aufgenommene »Ton aus dem Trichter«12.

2. Klanglinien – Die Stille der Bilder An der Bleistiftskizze, die Rilke zur Erörterung des Ur-Geräuschs angefertigt hatte, lässt sich zeigen, wie die Kranznaht mit den Mitteln der Zeichnung aus dem Schädel präpariert wurde.13 Rilke hat die geschwungene Linie der Kranznaht zeichnerisch isoliert, um ihre Ikonizität deutlicher in den Blick nehmen zu können und sie direkt mit der Wellenform zu vergleichen. Die »unvermittelt wahrgenommene Ähnlichkeit«14 von Kranznähten und »Spuren, wie sie einmal durch die Spitze einer Borste in eine kleine Wachsrolle eingeritzt worden waren«15, ist dabei grundlegend medial disponiert, denn die Linie selbst operiert als Mittler. Als Wellenform wird ein aufgezeichnetes Klanggeschehen laut Rilke vergleichbar mit »Namenszügen der Schöpfung« im Skelett und Gestein, er findet Ähnlichkeiten mit Insektenspuren oder gerissenem Holz und erinnert sich an den mäandrierenden Flusslauf des Nils auf einer Karte, die er im Rahmen seiner Ägyptenreise 1911 benutzt haben muss.16 Diese »Stille der Bilder«, von der in Rilkes 1918 verfasstem Gedicht An die Musik die Rede ist, soll mithilfe der Nadel hörbar gemacht werden.17 Wenngleich in solchen Überlegungen spätromantisches Erbe nachklingt, etwa Eichendorffs Rauschen als Stimme der Natur oder Novalis‘ Chiffrenschrift, die in den Dingen schläft und erklingen soll, beschwört Rilke weniger »göttlich inspirierte Erweckungsme-

9 Dabei ist das Grammophon selbst wieder zur literarischen Metapher geworden, »deren Bedeutung [...] über das Groteske weit hinausging«. Görner 2002, 142. 10 Rilke 1986, 115. 11 Ebd. 12 Ebd., 114. 13 Anhand dieser Zeichnung hat Rilke im März 1920 Thankmar von Münchhausen die Thesen seines Textes bildhaft veranschaulicht. Vgl. Rilke 1986, 118. Auf den rechts von der Blattmitte eingezeichneten so genannten Sinnenkreis referiert der Autor allerdings schon im Ur-Geräusch. Rilke hat demnach den Modus der Zeichnung nicht nur nachträglich illustrativ, sondern auch dem Schreibprozess vorgeschaltet verwendet. 14 Ebd., 115. 15 Ebd., 114-115. 16 Ebd., 123. 17 Zit. nach Pasewalck 2002, 248.

174

Die Stille der Bilder und die Macht der Töne

Abb. 1: Rainer Maria Rilke, Zeichnung zum Essay »Ur-Geräusch«, März 1920 (beim Besuch Rilkes bei Thankmar von Münchhausen auf dem Schönenberg).

thoden eines vermeintlich Bedeutungsvollen«18, sondern reflektiert vielmehr die Möglichkeiten der sinnlichen Erschließung im (technischen) Medium des Klangs. Ihm geht es um phänomenales Wissen, das in einem Wechselverhältnis zu den übrigen Sinnen steht, jedoch mit sprachlichen Mitteln nicht einzuholen ist. So heißt es in einem Reisebrief, der Rilkes nächtliche Begegnung mit der Sphinx schildert: Wie viele Mal schon hatte mein Aug diese ausführliche Wange versucht: sie rundete sich dort oben so langsam hin [...]. Und da, als ich sie eben wieder betrachtete, da wurde ich plötzlich, auf eine unerwartete Weise ins Vertrauen gezogen, da bekam ich sie zu wissen [...]. Hinter dem Vorsprung der Königshaube an dem Haupte des Sphinx war eine Eule aufgeflogen und hatte langsam, unbeschreiblich hörbar in der reinen Tiefe der Nacht, mit ihrem weichen Flug das Angesicht

18 Stopka 2005, 203.

Jan Thoben

175

gestreift: und nun stand auf meinem, von stundenlanger Nachtstille ganz klar gewordenen Gehör der Kontur jener Wange [...] eingezeichnet.19 In einem Brief an Marie von Thurn und Taxis beschreibt Rilke die »mathematische Rückseite« von Musik und verweist auf die Bedeutung der Korrespondenz von Tonhöhen und Röhrenlängen, die in chinesischen Kaiserdynastien zu Maßeinheiten standardisiert wurden.20 Rilkes Interesse an Prozessen, die wir heute als Audifikation bezeichnen, llsst sich also bereits vor der Verfassung des Ur-Geräuschs belegen. So war es offensichtlich nur eine Frage der Zeit, bis die »eigensinnige Wiederkehr« seines Einfalls, »oft in weiten Abständen von Jahren«, zum Entschluss einer »vorsichtigen Mitteilung« aus der Bibliothek des Palazzo Salis in Soglio führen sollte.21 Dorthin hatte Rilke sich im Sommer 1919 für zwei Monate zurückgezogen und unter anderem das Ur-Geräusch verfasst. Die Abgeschiedenheit des Palazzos, der ihm phonographengleich »nachschwingliche Vergangenheiten [übertrug]«22, tat ein Übriges. Auch wenn Rilkes Essay es suggeriert, hat er den Entwicklungen seiner »von der technischen Apparatur übermäßig faszinierten Zeit«23 offensichtlich keine große Aufmerksamkeit gewidmet. Vorläufig ungeklärt bleibt etwa die Frage, inwiefern der Schriftsteller sich über die unterschiedlichen Schriftmodi von Phonograph und Grammophon im Klaren war. Die Seitenschrift des Grammophons, die aufgrund ihrer Anschaulichkeit seinem Experiment viel zuträglicher gewesen wäre, wie auch Dillmanns Hinweis auf die mikroskopische Vergrößerung der Grammophonrillen zeigt, wird von Rilke offensichtlich noch 1926 ignoriert: Da das Wesen des Grammophons im graphischen Niederschlag von Tönen seinen Ursprung hat, warum sollte es nicht gelingen, Linien und Zeichnungen elementarischer Herkunft, die in der Natur vorkommen, in Klangerscheinungen zu verwandeln? Der so besondere Verlauf der Kronen-Naht [...], in Tiefendimension umgesetzt, sollte er nicht wirklich eine Art ›Musik‹ aussenden?24

19 Zit. nach Deinert 1973, 89. Die Eule entspricht an dieser Stelle Rilkes gewollter Pointe fast zu perfekt, um nicht hinzugedichtet zu sein. Seine sorgfältige und detailgenaue Beschreibung des Phonographen hingegen gleicht durchaus einem technischen Bericht, was gegen eine denkbare fiktionale Rekonstruktion der Sprechmaschine spricht. 20 Ebd., 70. 21 Rilke 1986, 115. 22 So steht es in einer weiteren Notiz an eine Reisegefährtin vom 05.08.1919, Rilke 1947, 77. 23 Görner 2002, 145. 24 Brief an Dieter Bassermann 05.04.1926, Rilke 1986, 123.

176

Die Stille der Bilder und die Macht der Töne

Die erinnerte Tiefendimension der »unvergessene[n] Spuren«25 des Phonographen macht Emile Berliners Seitenschrift von 1887 vergessen. Dass Rilke das Grammophon in Paris kennen gelernt hatte, wo die Firma Pathé seit 1906 den französischen Schallplattenmarkt mit einem für europäische Verhältnisse höchst ungewöhnlichen TiefenschriftGrammophon erschlossen hatte, könnte seine Unkenntnis der Seitenschrift zumindest erklären.

3. Rilkes auditory turn und Busonis Ur-Musik Die Literaturwissenschaft diagnostizierte Rilke eine phonozentristische Wende, die im aktuellen Jargon gern als auditory turn bezeichnet wird. Bezüge zu Musik und Klang im allgemeinen gewinnen an Bedeutung, während Malerei und Bildhauerei, deren Relevanz vor allem anhand Rilkes ekphrastischer Beschreibung des bildnerischen Schaffens Rodins und Cézannes nachzuvollziehen ist, zunehmend an Gewicht verlieren. Ferruccio Busonis prominente Widmung: »Dem Musiker in Worten Rainer Maria Rilke verehrungsvoll und freundschaftlich dargeboten«, die er der zweiten, 1916 in Leipzig publizierten Fassung seines Entwurf[s] einer neuen Ästhetik der Tonkunst vorangestellt hat, zeigt, dass Rilkes turn bereits von Zeitgenossen gewürdigt und offensichtlich auch motiviert worden ist.26 Der künstlerische Austausch mit der Pianistin Magda von Hattingberg sowie die Bekanntschaft mit ihrem Lehrer Busoni sind brieflich belegt. Eine in Rilkes Reisebriefen erwähnte Begegnung mit dem Komponisten in Zürich einen Monat vor der Niederschrift des Ur-Geräuschs könnte mit seinem Entschluss jener vorsichtigen Mitteilung im Zusammenhang stehen.27 Zum anderen, und das ist ungleich relevanter, weist Rilkes Verhältnis zum Klang deutliche Bezüge zu Busonis Musikästhetik auf. Busoni unterscheidet zwischen dem Tonsatz und seinem »Urwesen«, der Ur-Musik28:

25 Ebd., 115. 26 Busoni 1983, 48. Nachdem die Pianistin Magda von Hattingberg Rilke die erste Fassung von Busonis Entwurf hatte zukommen lassen, schlug der Schriftsteller seinem Verleger Anton Kippenberg vor, die Schrift in die Reihe der Insel-Bücherei aufzunehmen. Busoni überarbeitete daraufhin seinen Text und versah ihn mit der erwähnten Widmung. Vgl. dazu Deinert 1973, 100. Die erste Fassung der Schrift von 1907 hatte nur eine kleine Leserschaft erreicht (nachweislich etwa Arnold Schönberg, Edgard Varèse und auch Rilke), während die zweite Fassung von 1916 breit und teils sehr kontrovers rezipiert wurde. 27 Vgl. Rilkes Brief vom 17.07.1919 an eine Reisegefährtin, Rilke 1947, 63. Das hier erwähnte Treffen mit Busoni in Zürich hat kurz vor Rilkes Abreise nach Soglio stattgefunden. Rilke hat das Ur-Geräusch am 15.08.1919 verfasst. 28 Busoni 1983, 54.

Jan Thoben

177

Was in unserer heutigen Tonkunst ihrem Urwesen am nächsten rückt, sind die Pause und die Fermate. [...] Die spannende Stille zwischen zwei Sätzen, in dieser Umgebung selbst Musik, läßt weiter ahnen, als der bestimmtere, aber deshalb weniger dehnbare Laut vermag.29 Stille meint hier offenbar nicht Absenz von Klang, sondern die offene Mehrheit möglicher musikalischer Erscheinungen, welche in der Kontingenz der Stille aufgehoben sind. »[...] [D]ie Millionen Weisen, die einst ertönen werden, sie sind seit Anfang vorhanden, bereit, schweben im Äther und mit ihnen andere Millionen, die niemals gehört werden«.30 Bei aller transzendenten Anmutung beansprucht dieses Verständnis durchaus auch akustische Gültigkeit, denn im Äther ist es bekanntlich luftleer und folglich still. Doch damit wäre dem Klang sein physikalisches Medium entzogen. Busonis Dialektik ist bewusst gewählt: Die Musik, »in ihrem Urwesen« zurückgeführt, [...] ist doch tönende Luft und über die Luft hinausreichend; im Menschen selbst ebenso universell und vollständig wie im Weltenraum; denn sie kann sich zusammenballen und auseinanderfließen, ohne an Intensität nachzulassen.31 Die Veröffentlichung der ersten Fassung des Entwurfs fällt in die Zeit der naturwissenschaftlichen Revision bestehender Äther-Hypothesen. Infolge der Vereinigung von Optik und Elektrodynamik durch James C. Maxwell und der zwischen 1892 und 1906 entwickelten Lorentzschen Äthertheorie tritt ein abstrakter elektromagnetischer Äther an die Stelle der älteren stofflich-mechanischen Äthermodelle, und schließlich erwies sich durch die spezielle Relativitätstheorie Albert Einsteins die Annahme eines Lichtäthers sogar als vorläufig überflüssig. Bemerkenswert ist, dass Busonis Rede vom Äther einem geistesgeschichtlichen Klima entstammt, in dem Hypothesen physikalisch-wissenschaftlicher wie metaphysisch-theosophischer Provenienz zusammentreffen. Mit seinem enigmatischen Begriff der Ur-Musik, die »im Menschen ebenso universell und vollständig [ist] wie im Weltenraum«, scheint Busoni das Konzept des Äthers aus der hinduistisch-theosophischen Lehre zu rezipieren. Der tantrische ashka ist – physikalisch paradox – ein schalltragender Äther, der mit allem Klingenden des Kosmos ausgestattet ist. Der irdische Einzelton wäre nach diesem Konzept die weltliche Verkörperung des undifferenzierten Feldes übersinnlicher Klangenergie.32 Busoni formuliert es folgenderma-

29 Ebd., 72. 30 Ebd., 69. 31 Ebd., 80. 32 Kahn 2004, 118.

178

Die Stille der Bilder und die Macht der Töne

ßen: »Wo ihr [der Tonkunst] droht, irdisch zu werden, hat er [der musikalische Vortrag] sie zu heben und ihr zu ihrem ursprünglichen ›schwebenden‹ Zustand zu verhelfen«.33 Ohne an dieser Stelle genauer auf die Esoterik des Entwurfs einzugehen, ist der Vergleich mit Rilkes Musikauffassung aufschlussreich, wenn von Musik als »andere[r] Seite der Luft« die Rede ist.34 Oft finden sich Formulierungen wie »Urrhythmen«, »die mächtige Melodie des Hintergrunds«35 oder »die breite Melodie des Hintergrundes«36. Hinter dieser Metapher verbirgt sich eine Poetologie, die um das Vergleichsmoment jeder Art von künstlerischer Darstellung weiß.37 Rilkes rhetorische Frage lautet: Ist mit der ungehörten Hintergrund-Musik »nicht überhaupt erst jene erste Ursache der Musik gemeint und somit die Ursache aller Kunst«? Dem entspricht auch der so genannte Sinnenkreis, ein auf der erwähnten Bleistiftskizze von der Blattmitte leicht nach rechts abgerücktes Kreisdiagramm. Hier sind die Sinne bzw. die medialen Kanäle abgetragen, die vor einer gemeinsamen ursächlichen Kontingenz schwarzer Sektoren stehen. Auf seinem Skizzenblatt rückt Rilke diese dunklen Sektoren in ihrer Ur-Sächlichkeit im Sinne einer materiellen Be-Dingung in die medientechnische Perspektive der Sprechmaschine. Ins Bild gesetzt, werden sprachlich-metaphorische und phonographische Übertragung parallelisiert. Rilkes Affinität zum Dunklen, Unbestimmten und Unerfahrbaren entpuppt sich als Kern seines dichtungstheoretischen Konzepts. Die »Abgründe [...], die eine Ordnung der Sinnlichkeit von der anderen Scheiden«, zwingen den Dichter, »die Sinnesausschnitte ihrer Breite nach zu gebrauchen, und so muß er auch wünschen, jeden einzelnen so weit als möglich auszudehnen«. Schließlich ergäbe sich eine Schnittstelle, ein Kontakt. In dieser Taktilitätsmetapher zeigt sich auch die poetische Parallelisierung mit dem Phonographenexperiment, bei dem ein mechanischer Kontakt zur Signalübermittlung zwischen getäuschter Nadel und Kranznaht hergestellt wird. Technisch bzw. informationstheoretisch gewendet ließen sich die dunklen Sektoren so als Grundrauschen auf allen Kanälen interpretieren. Ihre Dunkelheit harrt der wechselseitigen Erhellung durch die künstlerische Praxis. Dieser Begriff bezieht sich auch bei Oskar Walzel, der die »wechselseitige Erhellung der Künste« 1917 ins Feld geführt hat, 33 Busoni 1983, 60. Dass Busoni als professioneller Konzertpianist in der zitierten Passage eine musikalische Interpretationsästhetik entwirft, kann im Rahmen dieses Textbeitrags nicht weiter ausgeführt werden. 34 Rilke 1918, zit. nach Pasewalck 2002, 248. 35 Zit. nach Pasewalck 2002, 250. 36 Zit. nach Stopka 2005, 209-210. 37 Vgl. dazu auch den von Gottfried Boehm eingeführten Begriff der »ikonischen Differenz« als Grundkontrast von Figur und Hintergrund. Es ist die Logik dieses Kontrastes, »vermittels derer etwas ansichtig wird« und die als »Geburtsort jedes bildlichen Sinnes« bezeichnet werden kann. Diese Logik bildet das »tertium zwischen Sprachbildern (als Metaphern) und dem Bild im Sinne der bildenden Kunst«. Boehm 2006, 30-31.

Jan Thoben

179

auf die »Verwertung der Formmittel des Musikers für den Betrachter der Dichtung«.38 Eben diese Mittel zur künstlerischen Formbildung stehen auch im Zentrum der ästhetischen Überlegungen von Rilke und Busoni. Wenngleich transzendental überhöht, so llsst sich doch bei beiden Autoren jene auf Aristoteles zurückgehende Unterscheidung extrahieren, die Fritz Heider 1926 als die Differenz von Medium und Ding erkannte und Niklas Luhmann als Medium-Form-Differenz variiert und ausgearbeitet hat. Bereits bei Heider findet sich die Definition eines Mediums als lose Kopplung von Elementen.39 Diese voneinander unabhängigen Einheiten sind nach Luhmann »angewiesen auf Kopplungen«.40 Lose Kopplung bezeichnet die Offenheit einer Vielzahl möglicher Verbindungen, während jede Formbildung eine Selektion, d. h. eine feste Kopplung erfordert. Folglich sind »Medien nur an der Kontingenz der Formbildungen erkennbar [...], die sie ermöglichen«.41 Sowohl Busoni als auch Rilke assoziieren diese Kontingenz mit Stille.42 Im Hinblick auf ästhetische Gestaltung hält Luhmann fest, dass erst die Formbildung Überraschung garantiert, und dass das Kunstwerk dazu anregt, »sich andere Möglichkeiten zu überlegen, also Formen versuchsweise zu variieren«. Busoni unternimmt demnach in seinem Entwurf einen qualitativen Sprung im evolutionären Stufenbau der Medium-/Form-Verhältnisse: Die gleichstufig temperierte Chromatik wird als musikalisches Medium suspendiert, indem Busoni sie zu einer der möglichen Formen des stufenlosen akustischen Spektrums erklärt: »Vergegenwärtigen wir uns (...), daß (...) die Abstufung der Oktave unendlich ist und trachten wir, der Unendlichkeit um ein weniges uns zu nähern«. Busoni ist sich klar, dass seine künstlerische Setzung einer mikrotonalen Musik, wie er sie im Entwurf skizziert, nicht autonom von den akustischen Gegebenheiten gelten kann, und so soll mit Hilfe eines »transzendentalen Tonerzeuger[s]« eine solche Musik hörbare Wirklichkeit werden.43 Die Maschine soll Wege »zum abstrakten Klange, zur hindernislosen Technik« erschließen.44

38 Walzel 1917, 82. 39 Heider 2005, 42: »Ein genaues Abbilden, Aufzwingen, Aufdrücken einer Gestaltung ist ganz allgemein nur möglich, wenn [...] das, dem etwas aufgezwungen wird, aus vielen voneinander unabhängigen Teilen besteht.« Luhmann macht darauf aufmerksam, dass die Teile »nicht auf naturale Konstanten verweisen, nicht auf Partikel, Seelen, Individuen, die jeder Beobachter als dieselben vorfinden könnte. Vielmehr sind immer Einheiten gemeint, die von einem beobachtenden System konstruiert (unterschieden) werden, zum Beispiel [...] die Töne in der Musik.« Luhmann 1997, 167. 40 Luhmann 1997, 167. 41 Ebd., 168. 42 Vgl. dazu auch die Stille-Konzeption bei Henry David Thoreau und Emersons Rede von »primal warblings« in der Luft, die es aufzuschreiben gelte. Zit. nach Görner 2002, 145. 43 Busoni 1983, 78. 44 Ebd., 71.

180

Die Stille der Bilder und die Macht der Töne

4. Technogene Klänge – die Macht der Töne Bei diesem Tonerzeuger handelt es sich um das zwischen 1900 und 1911 entwickelte elektromechanische Telharmonium (oder Dynamophon) des amerikanischen Patentjuristen und Erfinders Thaddeus Cahill. Das Telharmonium war ein 200 Tonnen schwerer Maschinenpark, von dem bis auf einige Schwarzweiß-Fotografien nichts mehr erhalten ist. Durch Dampfbetrieb in Rotation versetzte eiserne Alteratoren von der Größe eines Autoreifens erzeugten periodische Änderungen des Magnetfeldes einer Spule und induzierten Spannungsschwankungen, die mittels Telefonhörer als Tonschwingung von (mehr oder weniger) konstanter Frequenz hörbar gemacht wurden. Das von Hermann von Helmholtz beschriebene Prinzip der additiven Synthese wurde für die Klangfarbenerzeugung mit diesem Instrument fruchtbar gemacht. Wolfgang Hagen hat nachgewiesen, dass diese Technik sich in keiner Weise als hindernislos bezeichnen llsst und Busoni offenbar nur begrenzte Kenntnis von der Realität synthetischer Klangerzeugung besaß. Der Komponist hat dem Telharmonium unbesehen und unbehört durch ein »Wollen medienphantasmatischer Art«45 Bauteile und Operationen angedeihen lassen, die es nie besessen hat: »Die unendliche Abstufung der Oktave [ist] einfach das Werk eines Hebels, der mit dem Zeiger eines Quadranten korrespondiert«, schrieb Busoni unzutreffend, denn weder Hebel noch Quadrant waren in den Patentbeschreibungen aufzufinden.46 Dass das Telharmonium allerdings schon seinem Prinzip nach in der Lage gewesen sein musste, mindestens zwei Tonsysteme zu realisieren, nämlich die Naturtonreihe für die Obertonsynthese und die gleichstufig temperierte Stimmung für die Kombination der komplexen Klänge zu einer musikpraktisch standardisierten Skala, dürfte auch Busoni nicht entgangen sein.47 Somit implementierte das Telharmonium de facto Mikrotonalität, wenn auch nicht, wie Busoni behauptet, in jeder gewünschten Abstufung durch einen Hebel, sondern in Form einer hybriden Simultaneität unterschiedlicher Tonsysteme. Entscheidend in Bezug auf die ästhetische Relevanz des Tonerzeugers ist jedoch wohl weniger ein fingierter Hebel, als sein elektroakustisches Wesen, »einen Strom in eine [...] Anzahl [hörbarer] Schwingungen zu verwandeln«, wie Busoni treffend beschrieben hat. Dass diese ästhetische Sensibilität für Elektroakustik noch gute zwanzig Jahre später ihres Gleichen suchte, zeigt ein Zitat des Komponisten und späteren NWDR-Tonmeisters Robert Beyer. Er bezog sich auf den musikalisch instrumentellen Einsatz des

45 Hagen 2010, 70. 46 Busoni 1983, 79. Vgl. Hagen 2008, 23 f. 47 Vgl. Weidenaar 1995, 28. Zudem bot das Telharmonium die Möglichkeit, durch Zusatzmanuale, die an die entsprechenden Klanggeneratoren gekoppelt waren, reine Terzen in einer Vielzahl von Transpositionen zu spielen. Auch die Oktaven waren schwebungsfrei. Ebd., 63.

Jan Thoben

181

Theremins, bezeichnenderweise auch als Ätherophon geläufig: »Der Sinn der Maschine wird mißkannt; das gleichsam eingeborene Leistungsvermögen, das auf der Umwandlung elektrischer Energien in akustische beruht, bleibt verschlossen«.48 Beyer monierte das Fehlen einer adäquaten Kompositionstechnik. In diesem Sinne hatte auch Busoni bereits auf die expansive Macht der (Sinus-) Töne hingewiesen, die sich der »Macht der Gesetzgeber«, d. h. der konservativen Tonsetzer widersetzt:49 »Nur ein gewissenhaftes und langes Experimentieren, eine fortgesetzte Erziehung des Ohres, werden dieses ungewohnte Material einer heranwachsenden Generation der Kunst gefügig machen.«50

5. Ur-Geräusche hören Nicht nur Busonis Auffassung einer stillen Ur-Musik musste Rilkes ungeteilte Zustimmung gefunden haben. Auch stellt das Einbeziehen von Mediumsvorgängen bzw. der Rekurs auf technogene Klänge eine charakteristische Gemeinsamkeit der Konzepte des Komponisten und des Schriftstellers dar. Was für Busoni die Klangsynthese, ist für Rilke die Phonographie: Eine Technik, die zu einer ästhetischen Hörerfahrung befähigt. Rilkes Phonograph ist allerdings kein »transzendenter Tonerzeuger«, nicht zuletzt, weil er ihn eigenhändig nachgebaut und mit eigenen Ohren gehört hatte. Sein Ausgangspunkt ist der reale graphische Niederschlag des Klangs, und seine Musikanschauung problematisiert folglich auch nicht den Begriff der musikalischen Form, denn dafür war seine theoretische Kenntnis des Tonsatzes ohnehin unzureichend.51 Vielmehr legte er sich in seinen Schriften und Briefen aphoristisch eine Metaphysik der Musik zurecht52, die eine medienästhetische Perspektive eröffnet. Im Ur-Geräusch geht es nicht um das Gefü-

48 Beyer 1929, zit. nach Auhagen 1998, 18. Wolfgang Auhagen macht darüber hinaus auf die übergreifende Klangästhetik des Sinustons aufmerksam, die sich bis zur Glasharmonika ins 18. Jahrhundert zurückverfolgen lässt: »Offensichtlich ist das Attribut »ätherisch« nicht an die elektronische Klangerzeugung gebunden, sondern [...] in Zusammenhang mit der Klangfarbe zu sehen«, ebd., 22. Im Hinblick auf das Konzept der Audifikation wären die hörbaren Artefakte der elektromechanischen Synthese des Telharmoniums – d. h. die aisthetische Dimension der Störung durch Induktionsströme und Gleichlaufschwankungen – jedoch sicherlich aufschlussreich für die Beurteilung der Art der Klangerzeugung. Ob sich diese Klangerzeugung elektromechanisch induktiv oder vollelektronisch wie etwa bei der Röhrenoszillation vollzieht, ist eine Unterscheidung von medienepistemischer Relevanz. Vgl. Fußnote 43. 49 Busoni 1983, 61. 50 Ebd., 79. 51 Vgl. Deinert 1973, 88. 52 Vgl. Ebd., 3.

182

Die Stille der Bilder und die Macht der Töne

gigmachen des Materials, wie Busoni es anstrebte, sondern um die Vermittlung einer ästhetischen Erfahrung durch Audifikation – die Kranznaht als objet trouvé sonore. Nur so wird ein nicht-triviales Verständnis jener »Ton-Folge...«53 möglich, die entsteht, wenn der Stift die Kronennaht abtastet. Der Titel Ur-Geräusch wurde im Übrigen von der Verlegerin Katharina Kippenberg hinzugefügt. In einem Brief hatte Rilke den Titel Experiment vorgeschlagen, der den Akzent auf den schöpferischen und gleichermaßen spekulativen Charakter seiner Anregung setzt.54 Mit dem Stift Hören meint aber immer auch, dem Stift Zuhören und bringt so die Nadel selbst in Erinnerung. Man muss den Stift erfolgreich täuschen, ihn »über eine Spur [lenken], die nicht aus der [...] Übersetzung eines Tons stammte«.55 Rilke hatte ein Bewusstsein dafür, dass Audifikation keineswegs voraussetzungslos verborgene Strukturen offenbart, sondern diese durch Nutzbarmachung akustischer Kanäle überhaupt erst hervorgebracht werden. Er war sich unsicher, was die Veröffentlichung des Textes betraf und empfand das Experiment selbst als anmaßend, bevor er das Ur-Geräusch nicht selbst gehört hatte: [S]o möge man es dem Schreibenden in einem gewissen Grade anrechnen, dass er der Verführung widerstehen konnte, die damit [mit dem Phonographen] gebotenen Voraussetzungen in der freien Bewegung der Phantasie willkürlich auszuführen.56 In diesen abschließenden Zeilen des Ur-Geräuschs legt ein Dichter des anbrechenden 20. Jahrhunderts mit bemerkenswert positivistischer Zurückhaltung nun auch die letzte Spur romantischer Phantasmatik ab. Es drängt sich ihm die Notwendigkeit der technischen Ausführung des Audifikations-Experiments auf, das ihm für willkürliche Imaginationen »zu begrenzt und zu ausdrücklich zu sein« schien. Wie Katherine Hirt von einem »Imagined Sound« zu sprechen, der vollkommen nur in Erscheinung treten kann, wenn er nicht erklingt, wirkt vor dem Hintergrund der Äußerungen Rilkes irreführend.57 [F]alls die Anregung zum Experiment, die es sich anmaßt, nicht ganz skurril ist, möcht ich‘s wohl in die Hände eines erfahrenen, zu solchem Versuche aufgeleg-

53 Rilke 1986, 115. 54 Brief an Katharina Kippenberg 17.08.1919, Rilke 1986, 118-120. Vgl. dazu auch Stopka 2005, 200 und Pasewalck 2002, 12. 55 Rilke 1986, 115. 56 Ebd., 118. 57 Vgl. Hirt 2010, 123 und 148.

Jan Thoben

183

ten Menschen geleitet wissen. Sollte es [...] sich [...], sei es den Experimentator und Laboranten, sei es den – Romancier, herbeirufen?58 So heißt es in einem Brief Rilkes an Katharina Kippenberg. In weiteren Briefen finden sich Hinweise darauf, dass der Schweizer Biologe und Schriftsteller Adolf Koelsch und auch der Frankfurter Journalist und Verleger Heinrich Simon ernsthaftes Interesse an einer technischen Umsetzung des Experiments zeigten.59 Doch ein zu solchem Versuche aufgelegter Mensch hatte bereits 1896 erfolgreich beliebige Wellenformen hörbar gemacht und Rilkes Vermutung lang vor ihrer Niederschrift bestätigt. Es handelt sich um den Akustiker Rudolph Koenig, dessen Wellensirene gewissermaßen als der Prototyp des Ur-Geräusch-Erzeugers gelten kann. Die Wellensirene ist, wie bekannt, ein Apparat, welcher den Zweck hat, in der Luft eine Schwingungsbewegung von beliebiger Form dadurch zu erzeugen, dass eine diese Bewegung darstellende Curve, welche am Rande eines Metallstreifens aufgeschnitten ist, vor einer anblasenden Windspalte vorbeigeht und diese somit ihren Ordinaten entsprechend periodisch verkürzt oder verlängert.60 Dass dabei die Sinnzuschreibungen, die diese Übertragungen der Kurve in Klang nach sich ziehen, immer vor dem Hintergrund der in Anspruch genommenen Kanäle gesehen werden müssen, ist die Prämisse einer Medienästhetik, wie sie sich im Ur-Geräusch herauslesen llsst. Rilkes Experiment sollte ein genuin medientechnisches Artefakt hervorbringen, das ohne den Apparat selbst für einen Lyriker nicht vorstellbar ist. Er »stand gewissermaßen einer neuen, noch unendlich zarten Stelle der Wirklichkeit gegenüber«.61 Die Methode der Audifikation konfrontiert universalistische Metaphern von Urrhythmen und Hintergrundmelodien mit fremdartigem Realschall, was bei einem schriftgesteuerten Geist verständliches Unbehagen ausgelöst haben muss. Edisons Phonograph »fixiert reale Laute, statt wie das Alphabet in Phonem-Äquivalenzen zu übersetzen«62, und operiert demnach auch bei der Transformation visueller Erscheinungen in Klang nicht auf der Ebene bedeutungsunterscheidender Einheiten, sondern auf der Ebene analoger Signale. In diesem Sinn unterscheidet Rilke auch zwischen der »sublime[n] Wirklichkeit des Gedichts«63 mit seiner übertragenden Metaphorik und der neuen pho58 Brief an Katharina Kippenberg 17.08.1919, Rilke 1986, 118-120. 59 Brief an Anton Kippenberg 02.12.1919, Ebd., 120. 60 Zit. nach Rieger 2006, 128. 61 Rilke 1986, 113. 62 Kittler 1995, 293. 63 Rilke 1986, 116.

184

Die Stille der Bilder und die Macht der Töne

Abb. 2: Wellensirene. Aus Rudolph Koenig, »Ueber den Ursprung der Stösse und Stosstöne bei harmonischen Intervallen«.

nographischen »Stelle der Wirklichkeit«64, die es erlaubt, Konturen »verwandelt, in einem anderen Sinn-Bereich herandringen zu fühlen«.65 Das Bewusstsein für das Verhältnis von Sinnzuschreibung und medialem Eigensinn hat im Kontext einer Kulturgeschichte der Sonifikation (sowie der Visualisierung) seinen kritischen Impuls nicht verloren. Weder die Nadel noch die Fotozelle oder der Algorithmus produzieren audiovisuelle Wahrheiten, sondern Phänomene, die adäquate Kulturtechniken des Hörens und Sehens erfordern. So hat Oskar Fischinger, dem das Ur-Geräusch des Tonfilms zu Gehör kam, offenbar vorschnell gehandelt, als er schrieb: Zwischen Ornament und Musik bestehen direkte Beziehungen, d. h. Ornamente sind Musik. […] Man darf vielleicht hoffen, dass sich Beziehungen zwischen linearer Formschönheit und musikalischer Schönheit finden lassen.66

64 Ebd., 113. 65 Ebd., 116. 66 Fischinger 1932.

Jan Thoben

185

Abb. 3: Beispiele von Ornamentstreifen, die Oskar Fischinger für seine Ornament-Ton-Experimente verwendet hat, ca. 1932.

Seine Ideologie klangornamentaler Entsprechungen hatte die Eigenart der Lichttonabtastung67 verdeckt. Als ein zeitkritisches Medium nimmt die Fotozelle den Ornamenten ihre Flächendimension, indem sie durch eine Spaltoptik die Intensitätsunterschiede des Lichts als Funktion der Zeit abtastet. Viele von Fischingers Ornamenten sind somit nicht reversibel, d. h. sie würden aufgrund ihrer Nicht-Linearität in einer Rückübersetzung

67 Beim optischen Klangwiedergabeprinzip des Tonfilms durchleuchtet eine Lichtquelle durch eine Spaltoptik hindurch den Filmstreifen. Von einem fotoelektrischen Wandler wird die Menge des vom Filmstreifen modulierten Lichts abgetastet und die Spannungsschwankungen als Audiosignal hörbar gemacht.

186

Die Stille der Bilder und die Macht der Töne

vom Klang zum Bild eine völlig andere visuelle Gestalt annehmen, weil sie die raumzeitliche Verankerung der Wellenfunktion ignorieren. Das hat auch zur Folge, dass unterschiedliche Ornamente mitunter zum gleichen auditiven Ergebnis führen, was eine Entsprechungslehre qua Medium untergräbt.68 Hier verwehrt sich der Lichtton gewissermaßen seiner künstlerischen Ermächtigung. Fischinger macht medientechnischen Ernst mit der Metapher der Klangfigur, die seit Novalis‘ Chladni-Rezeption das romantische Interesse an der Arabeske mit der Akustik kollidieren ließ: »Man sollte alles (nöthigen) sich acustisch abzudrucken, zu Silhouettiren, zu chiffrieren«, schrieb der Schriftsteller 1798 in seinen enzyklopädischen Aufzeichnungen.69 Der Gleichmut der Fotozelle als medientechnischem Auge, welches indifferent gegenüber jeder Ikonizität immer nur im Hier und Jetzt der Spaltfunktion operiert, musste Fischingers Hoffnungen an die klingenden Ornamente letztlich enttäuschen. Aber Fischingers produktive Zweckentfremdung ist ein »Missverstehen, [das] durch seinen blinden Fleck stark wird«, wie es Wolfgang Hagen bereits mit Bezug auf Busoni beschrieben hat.70 Die klingenden Ornamente machen anschaulich, dass technische Medien keine geheimen Entsprechungen offenbaren, sondern vielmehr »unsere Lage [...] bestimmen«71, indem sie Wahrnehmungsangebote überhaupt erst hervorbringen. So weist jedes Ur-Geräusch über sich selbst hinaus und reflektiert im Kontext einer ästhetischen Erfahrung den produktiven Anteil, den Medien an der Wirklichkeit haben.

68 Vgl. Thoben 2009, 428. Eine weitere Eigenheit der klingenden Ornamente besteht darin, dass sie beim Projizieren des Films mitunter starken Aliasingeffekten unterworfen sind, sobald ihre Periodenzahl nicht einem ganzzahligen Vielfachen der Höhe eines Frames bzw. ihre Frequenz nicht in einem ganzzahligen Vielfachen der Projektionsgeschwindigkeit entspricht. Diese Effekte macht Lis Rhodes 1975 durch ihre bewusste Inszenierung in Light Music zum Gegenstand einer ästhetischen Erfahrung. 69 Zit. nach Menke, 593. 70 Hagen 2010, 70. 71 Kittler 1986, 3.

Jan Thoben

187

6. Quellen Auhagen, Wolfgang (1998): Zur Klangästhetik des Sinustons, in: Kopiez, Reinhard et al. (Hg.), Musikwissenschaft zwischen Kunst, Ästhetik und Experiment. Festschrift Helga de LaMotte-Haber zum 60. Geburtstag, Würzburg, 17-27. Boehm, Gottfried (1994): Die Wiederkehr der Bilder, in: ders. (Hg.), Was ist ein Bild?, München, 11-38. Bühler, Benjamin (2004): Lebende Körper. Biologisches und anthropologisches Wissen bei Rilke, Döblin und Jünger, Würzburg (Diss. Universität Konstanz). Busoni, Ferruccio (1983): Entwurf einer neuen Ästhetik der Tonkunst, in: ders., Von der Macht der Töne. Ausgewählte Schriften, Leipzig. Deinert, Herbert (1973): Rilke und die Musik (PhD Diss. Yale University), http://courses.cit.cornell.edu/hd11/Rilke-und-die-Musik.pdf, 31.03.2011. Dombois, Florian (2004): The »Muscle Telephone«: The Undiscovered Start of Audification in the 1870s, in: Kursell, Julia (Hg.), Sounds of Science – Schall im Labor (1800-1930), Berlin (= Max-Planck-Institut für Wissenschaftsgeschichte), 41-46, http://www.mpiwg-berlin.mpg.de/Preprints/P346.PDF, 31.03.2011. Feaster, Patrick (2007): »The Following Record«: Making Sense of Phonographic Performance, 1877-1908, (PhD Diss. Indiana University), Bloomington, IN, http://www.phonozoic.net/following-record.pdf, 31.03.2011. Fischinger, Oskar (1932): Klingende Ornamente, Deutsche Allgemeine Zeitung, 28 Juli 1932. Görner, Rüdiger (2002): »...Gedanklich und rein episch ein Fund«. Das Grammophon als literarisch-philosophisches Phänomen, in: Sprachkunst. Beiträge zur Literaturwissenschaft (2. Halbband), Wien (= Österreichische Akademie der Wissenschaften). Hagen, Wolfgang (2010): Busonis ›Erfindung‹. Thaddeus Cahills Telefon-Telharmonium von 1906, in: Daniel Gethmann (Hg.), Klangmaschinen zwischen Experiment und Medientechnik (englische Version erschienen als »Busoni‘s Invention: Phantasmagoria and Errancies in Times of Medial Transition«, in: Daniels Dieter / Schmidt, Barbara U. (Hg.), Artists as Inventors – Inventors as Artists, Ostfildern 2008, 86107). Heider, Fritz (2005): Ding und Medium, Berlin. Hermann, Thomas (2002): Sonification for Exploratory Data Analysis, (Diss. Universität Bielefeld), http://www.sonification.de/publications/media/Hermann2002-SFE.pdf, 31.03.2011.

188

Die Stille der Bilder und die Macht der Töne

Hirt, Katherine (2010): When Machines play Chopin. Musical Spirit and Automation in Nineteenth-Century German Literature (Interdisciplinary German cultural studies; 8), Berlin, New York (PhD Diss. University of Washington). Kahn, Douglas (2004): Ether Ore: Mining Vibrations for Modernist Music, in: Erlmann, Veit (Hg.), Hearing Culture: New Directions in the Anthropology of Sound, London, 107-130. Katz, Marc (2010): Capturing Sound. How Technology Has Changed Music, Berkeley, CA. Kittler, Friedrich (1995): Aufschreibesysteme 1800, 1900, München Kittler, Friedrich (1986): Grammophon Film Typewriter, Berlin. Luhmann, Niklas (1997): Die Kunst der Gesellschaft, Frankfurt a. M. Menke, Bettine (2000): Prosopopoiia. Stimme und Text bei Brentano, Hoffmann, Kleist und Kafka, München. Pasewalck, Silke (2002): »Die fünffingrige Hand«. Die Bedeutung der sinnlichen Wahrnehmung beim späten Rilke, Berlin, New York (Diss. Freie Universität Berlin). Rieger, Stefan (2006): Die Gestalt der Kurve. Sichtbarkeiten in Blech und Draht,, in: Susanne Strätling, Georg Witte (Hg.), Die Sichtbarkeit der Schrift, München, 119-138. Rilke, Rainer Maria (1986): Ur-Geräusch, in: Schweizer Vortragsreise 1919, hg. von Rätus Lück, Frankfurt a. M., 112-125. Rilke, Rainer Maria (1947): Briefe an eine Reisegefährtin. Eine Begegnung mit Rainer Maria Rilke. An Hand unveröffentlichter Briefe des Dichters geschildert von Ulrich Keyn, Wien. Stopka, Katja (2005): Semantik des Rauschens. Über ein akustisches Phänomen in der deutschsprachigen Literatur, München (Diss. Freie Universität Berlin). Thoben, Jan (2010): Technical Sound-Image Transformations, in: Dieter Daniels et al. (Hg.), See This Sound. Audiovisuology. Compendium. An Interdisciplinary Survey of Audiovisual Culture, Köln, 425-437. Deutsche Online-Fassung: http://see-this-sound.at/kompendium/abstract/51, 31.03.2011. Walzel, Oskar (1917): Wechselseitige Erhellung der Künste. Ein Beitrag zur Würdigung kunstgeschichtlicher Begriffe, (= Philosophische Vorträge. Veröffentlicht von der Kantgesellschaft, Nr. 17), Berlin. Weidenaar, Reynold (1995): Magic Music from the Telharmonium, (PhD Diss. New York University) Metuchen, NJ, London.

Jan Thoben

189

Anmerkungen zur Sonifikationsmetapher in der Instrumentalmusik1 Volker Straebel

1. Einleitung Als in den 1980er Jahren nach früheren Versuchen, die bis in die 1870er Jahre zurückreichen, das Modell der Datensonifikation entwickelt wurde,2 ging man von zwei Voraussetzungen aus, die seither als selbstverständlich erscheinen: erstens wird Sonifikation als eine Mensch-Maschine Schnittstelle verstanden und die Verfahren der Klangerzeugung sind daher elektroakustisch, und zweitens enthüllt die Sonifikation Informationen über den Gegenstand, der mit den sonifizierten Daten repräsentiert wird. Weinberg und Thatcher haben 2006 den zweiten Aspekt der data exploration sogar als »immersiv« bezeichnet und behauptet, er erlaube »a direct and intimate connection to the information«.3 Aus musikwissenschaftlicher Perspektive ist das Modell der Sonifikation in zweierlei Hinsicht interessant: erstens kann die Sonifikation, befreit von ihrer Verbindung zu Computeranwendungen, als Metapher dienen für nicht-elektroakustische Kompositionen, die strikt dem Modell der Repräsentation außermusikalischer Inhalte folgen. Ich denke hier nicht so sehr an Beispiele der Programmmusik, in denen eine Narration vermittelt wird, sondern an Kompositionen in der Tradition der experimentellen Musik, in denen außermusikalische Daten auf musikalische Parameter abgebildet werden. Zweitens ist das Modell der Sonifikation für die Musikwissenschaft und andere geisteswissenschaftliche Disziplinen interessant, weil die grundlegende Annahme von Sonifikations-

1 Dieser Text ist eine leicht überarbeitete Fassung meines Beitrags The Sonification Metaphor in Instrumental Music and Sonification‘s Romantic Implications, ICAD 2010 (Straebel 2010). 2 Vgl. Dombois 2008; Bly 1982; Kramer 1994. 3 Weinberg, Thatcher 2006, 9.

191

forschern, dass ihr Verfahren die Möglichkeit bietet, ein unmittelbares Verständnis von den Gegenständen zu erhalten, die klanglich repräsentiert werden, gewissen Annahmen der Frühromantik ähnelt. Die Idee einer Natursprache, in der man die Natur als direkte Verkörperung eines metaphysischen Wesens oder Geistes erfahren könne, ist in den Schriften von Novalis prominent dargelegt.4 Die folgenden Ausführungen sollen dazu angetan sein, den in der Regel unausgesprochenen kulturgeschichtlichen Hintergrund der Sonifikationsforschung aufzudecken und die naturwissenschaftliche Methode mit ihren metaphysischen Implikationen zu konfrontieren.

2. Programmmusik und Sonifikations-Metapher Dass absolute Musik, also Instrumentalmusik, die keine Anleihen bei außermusikalischen Gegenständen macht, das Paradigma von Musik überhaupt sei, ist eine musikästhetische Setzung des frühen 19. Jahrhunderts. Vokalmusik verweist offensichtlich auf die Inhalte, die in den vertonten Texten mitgeteilt werden, und Instrumentalmusik hat immer sozialen oder rituellen Zwecken gedient. Durch Tonmalerei kann instrumentale Musik die Klänge, die uns umgeben, imitieren und Vogelzwitschern, Wasserrauschen und Donnergrollen in den Konzertsaal bringen. Beethovens Aussage, seine VI. Symphonie, die Pastorale, sei »mehr Ausdruck als Malerey«, markiert den Beginn einer Konzeption von Programmmusik, in der die Musik nicht mehr durch die musikalische Imitation charakteristischer akustischer Objekte einer Narration folgt (man denke etwa an Smetanas Die Moldau), sondern ein abstraktes Drama oder eine poetische Idee vermittelt. Dass das außermusikalische Programm dabei dem Hörer nicht unbedingt bekannt sein muss, zeigt Tschaikowskys VI. Symphonie Pathétique, bei der der Komponist es vorzog, das Programm für sich zu behalten. Dies erzeugt einen interessanten Konflikt, denn der Hörer weiß, dass er das Werk nicht als absolute Musik verstehen kann, während das tatsächliche literarische Programm verborgen bleibt. Der Hörer ist also gehalten, eine Bedeutung jenseits der Musik anzunehmen, ganz so wie der Hörer von Sonifikationsignalen diese als durch Klang kommunizierte Information deuten soll. In den 1950er Jahren begannen Komponisten sich auf außermusikalische Inhalte, insbesondere wissenschaftliche Daten, auf einem neuen Niveau zu beziehen. Sie imitierten nicht länger Klänge oder drückten Gefühle oder poetische Ideen aus, sondern integrierten vielmehr algorithmische oder konzeptionelle Verfahren in ihren Komposi-

4 Vgl. Stone 2008, 147, Anm. 30; Goodbody 1983.

192

Anmerkungen zur Sonifikationsmetapher in der Instrumentalmusik

tionsprozess. Eine der Sonifikation ähnliche Metapher wurde von diesen Komponisten gebraucht, noch ehe das Paradigma der Sonifikationsforschung entwickelt worden war, um die Formen von Flusskieseln oder den Verlauf des Alpenpanoramas auf melodische Entwicklungen oder Klangspektren zu übertragen. Auf diese Weise wurde der Aspekt von Repräsentation in das Komponieren selbst einbezogen. Iannis Xenakis: Pithoprakta 1955/56 verwendete Iannis Xenakis stochastische Berechnungen bei der Komposition seines Orchesterstückes Pithoprakta. Die Geschwindigkeiten von 46 einzeln notierten Streichern wurden mithilfe einer Formel festgelegt, die die Brown‘sche Molekularbewegung beschreibt. Für einen Abschnitt von 18 Sekunden Dauer (Takte 52-60) berechnete Xenakis 1148 Geschwindigkeiten, die gemäß der Gauß’schen Normalverteilung 58 Werten zugeordnet wurden. In einer graphischen Darstellung illustrierte Xenakis die Bewegungen der Tonhöhen (Abb. 1). In jeder Stimme bleibt die Dauer des Glissandos konstant, wobei hin und wieder eine Zählzeit übersprungen wird. Die Dauern sind drei, vier oder fünf Schläge pro Takt bei einem Tempo von 26 Takten in der Minute. Die Überlagerung der drei Metren ergibt einen verhältnismäßig komplexen Summenrhythmus.5

Abb. 1: Iannis Xenakis, Kompositionsskizze für Pithoprakta, Takte 52-60. Links ist die Tonhöhenorganisation, rechts die Zuordnung der Instrumente (V – Violine, A – Viola, Vc – Cello, Cb – Kontrabass) zu erkennen.

5 Xenakis 1992, 15.

Volker Straebel

193

Da die Dauern der Glissandi einer jeden Stimme konstant bleiben, wird die Veränderung der Geschwindigkeit durch die Veränderung des Intervalls abgebildet, das in der gleichbleibenden Dauer durchschritten wird (Abb.  2). Die Geschwindigkeit der Gaspartikel wird musikalisch repräsentiert als das Differenzial des Glissandos (allerdings macht es das Pizzicato an dieser Stelle recht schwer, die Glissandi tatsächlich zu hören, da die Eingangsfrequenz im Verhältnis zum übrigen Verlauf dynamisch stark betont wird).

Abb. 2: Iannis Xenakis, Partiturausschnitt von Pithoprakta (Violinen I, Takt 51-54).

In Pithoprakta hat Xenakis eigentlich nicht gemessene oder anders durch Beobachtung gewonnene Daten sonifiziert, sondern vielmehr die mathematische Beschreibung eines physikalischen Phänomens illustriert. Er nannte diesen Ansatz »eines jener ›logischen Gedichte‹, die die menschliche Intelligenz entwirft, um die oberflächlich unzusammenhängend erscheinenden physikalischen Phänomene wieder einzufangen, und die umgekehrt als Ausgangspunkt dienen können, um abstrakte Entitäten aufzubauen, und dann Inkarnationen von diesen in Klang oder Licht.«6 Hier beschränkt der Komponist

6 »[O]ne of those ›logical poems‹ which the human intelligence creates in order to trap the superficial incoherencies of physical phenomena, and which can serve, on the rebound, as a point of departure for building abstract entities, and then incarnations of these entities in sound or light.« Xenakis 1992, 13.

194

Anmerkungen zur Sonifikationsmetapher in der Instrumentalmusik

die Funktion der Sonifikation auf den Ausgangspunkt der Inspiration. Er ist nicht so sehr daran interessiert, wissenschaftliche Daten in musikalische Parameter zu übersetzen, sondern eher an der Verbindung der Künste Musik und Mathematik, ganz in der Tradition der antiken Musiktheorie. Karlheinz Stockhausen: Gruppen Auf ähnlich abstraktem Niveau bezog sich Karlheinz Stockhausen in seiner Komposition Gruppen für drei Orchester auf das Bergpanorama bei Paspels. Im Sommer 1955 in diesem Schweizer Städtchen begonnen und zwei Jahre später abgeschlossen, löst Stockhausen in Gruppen das serielle Konzept der gegenseitigen Übersetzung von Rhythmus und Klangfarbe ein – eine Idee, die zweifellos aus seinen Experimenten mit Tonbandmanipulationen im Elektronischen Studio des Westdeutschen Rundfunks erwachsen war. In dem Essay …wie die Zeit vergeht… diskutierte Stockhausen 1956 sein Konzept, ästhetische Einheit zu schaffen, indem Mikro- und Makro-Zeit, also Klangfarbe und Rhythmus, den gleichen kompositorischen Verfahren unterworfen werden.7 Eine Graphik zeigt ein sogenanntes Gruppenspektrum, das heißt die Relation überlagerter Tempi, in einer charakteristischen Form (Abb. 3). In einem Interview erklärte Stockhausen fast zwanzig Jahre später, dass viele Hüllkurven von strukturellen Abschnitten von Gruppen genaue Abbildungen des Bergpanoramas seien, das er von seinem Fenster in Paspels aus gesehen habe.8 Offensichtlich können diese Formen nicht hörend nachvollzogen werden. Der Graph kontrolliert die Musik auf einem abstrakten Niveau und sollte sicher auch nicht direkt wahrgenommen werden. Wie dem auch sei, vor dem Hintergrund von Stockhausens metaphysischer Sehnsucht nach Einheit und dem Humor des 27-jährigen, der alle seriellen Prinzipien über Bord warf, um in seiner Studie  I für Tonband von 1953 einen metaphorischen »Donnerschlag« anlässlich der Geburt seiner Tochter einzufügen,9 ist die bekannte Situation zu beobachten, dass ein Komponist einen versteckten Subtext in sein Werk integriert. Ich habe den Begriff der Sonifikationsmetapher sicherlich sehr weit gefasst, wenn ich ihn auf ein parameter mapping beziehe, das sich der Decodierung entzieht. Aber die Absicht des Komponisten mag mitunter nicht so sehr darin liegen, zu kommunizieren, was ihm bereits bekannt ist, sondern eher darin, eine ästhetische Situation zu erzeugen, die offen ist für das Unbekannte.

7 Stockhausen 1963. 8 Cott 1973, 141. 9 Kurtz 1988, 94.

Volker Straebel

195

Abb. 3: Karlheinz Stockhausen, Gruppenspektrum aus Gruppen für drei Orchester

3. Sonifikation und Experimentelle Musik John Cage beschrieb sein ästhetisches Verständnis von Komposition, Aufführung und Rezeption als grundlegend experimentell, also offen für unvorhersehbare Ereignisse oder Erfahrungen: »New music: new listening. Not an attempt to understand something that is being said, for, if something were being said, the sounds would be given the shape of words.«10 Hier ist kein Platz für einen Autor, der Gefühle oder Haltungen in der Musik ausdrückt mit der Absicht, diese dem Hörer zu kommunizieren. Stattdessen erklärt Cage, »the composer may give up the desire to control sound, clear his mind of music, and set about discovering means to let sounds be themselves rather than vehicles for man-made theories or expressions of human sentiments.«11 Dass die Mittel, mit denen Klänge sie selbst bleiben können, erst entdeckt werden müssen, ist charakteristisch für Cages Verständnis des kreativen Aktes. Erkenntnis und 10 Cage 1961, 10. 11 Ebd.

196

Anmerkungen zur Sonifikationsmetapher in der Instrumentalmusik

Experiment sind wissenschaftliche Verfahren, die Cage ohne zu zögern in den Bereich der Komposition überträgt. Um sich von persönlichen Vorlieben zu befreien, benutzte er verschiedene Zufallsverfahren, insbesondere das chinesische Orakelbuch I Ching, aber auch die Untersuchung von Unreinheiten im Notenpapier (in Music for Piano, 1952-56) oder das Platzieren von transparenten Notensystemen auf Sternenkarten. In Atlas Eclipticalis (86 Instrumentalstimmen, die alle zusammen oder in beliebiger Auswahl gespielt werden, 1961/62) nutzt Cage dieses Verfahren, um so die Positionen von Sternen als Töne zu transkribieren.12 Die Übersetzung von bedeutungstragenden Daten in Musik, und damit die Erzeugung eines programmatischen Subtextes, führte Cage in seinem offenen Musiktheater Song Books (1970) weiter. Hier werden die Performer aufgefordert, ein Portrait von Henry David Thoreau (Solo for Voice 5), das Profil von Marcel Duchamp (Solo for Voice 65, Abb. 4) oder eine bestimmte Route auf der Karte von Concord, Mass. (Solo for Voice 3) als melodische Linie zu interpretieren.

Abb. 4: John Cage, Solo for Voice 65 aus Song Books. »Follow the Duchamp profile given, turning it so that it suggests a melodic line (reads up and down from left to right). The relation of this line to voice range is free and may be varied.« .

Cage verwendete auch elektronische Verfahren, um mittels Lichtsensoren oder Kapazitätsantennen physikalische Daten in musikalische Parameter zu übersetzen, die dann einen komplexen live-elektronischen Setup beeinflussten, wie in Variations V (1965). Hier hatte Cage endlich die technischen Voraussetzungen zur Verfügung, »unser gegenwärtiges Bewusstsein von der Funktionsweise der Natur in Kunst zu transformieren.«13 Im selben Jahr fand die Uraufführung von Alvin Luciers Music for Solo Performer statt, in der extrem verstärkte Hirnströme Perkussionsinstrumente zum Schwingen anregen. Zehn Jahre später war die Idee des Biofeedback in der Kunst genug verbreitet, dass ein entsprechendes Forschungsprojekt am Aesthetic Research Center of Canada eingerichtet wurde.14 Der Aufstieg live-elektronischer Musik und die bessere Verfügbarkeit von 12 Cage 1993a, 62. 13 Cage 1961, 9. 14 Vgl. Rosenboom 1976.

Volker Straebel

197

Sensortechnologien führten zusammen mit der Verbesserung der Rechenleistung für algorithmische Kompositionen und Klangsynthese zu einer deutlichen Zunahme von Kompositionen, die von der Sonifikationsmetapher beeinflusst waren.15 In Ergänzung zu Forschungen, die sich in diesem Zusammenhang auf elektroakustische Musik beziehen, möchte ich hier zwei Werke betrachten, die die Idee der Sonifikation in den Bereich der Instrumentalmusik übertragen. John Cage: Ryoanji 1983-85 komponierte John Cage Ryoanji in fünf Stimmen für Flöte, Oboe, Posaune, Stimme und Kontrabass, die als solo oder in beliebiger Kombination aufgeführt werden können, aber immer zusammen mit einer Stimme für Perkussion (oder Orchester in unisono). Es handelt sich um graphische Partituren, in denen gekrümmte Linien Glissandi repräsentieren, wobei die Tonhöhe in der Vertikalen und der Zeitverlauf in der Horizontalen abgebildet wird (Abb. 5). Der Titel Ryoanji bezieht sich auf den japanischen Zen Garten gleichen Namens in Kyoto, in dem 15 große Steine in fünf Gruppen auf einem schmalen Rechteck aus geharktem Kies angeordnet sind. Cage erzeugte die Linien der Partitur, indem er zufallsbestimmt Steine aus einem Reservoir von 15 auf einem Blatt Papier platzierte und Teile ihrer Umrandung nachzeichnete. Pro Doppelseite wurden 15 oder 30 Steine verwendet, und manchmal überlappen sich bis zu vier Linien in einem Instrument, so dass einzelne Teile vor der Aufführung aufgezeichnet und dann wiedergegeben werden müssen.16 (Um genau zu sein: Bei der Herstellung der Partitur verwendete Cage nicht Steine, sondern er benutzte Papierschablonen, die die Umrandungen von 15 Steinen abbildeten. Dabei ging es nicht so sehr darum, den Kompositionsprozess zu vereinfachen, sondern darum, Wiederholungen zu ermöglichen: »I obviously couldn’t write music with stones, because when you draw around a stone you don’t necessarily draw the same way each time.«17) Ein wichtiger Aspekt beim data mapping ist die Skalierung. Die horizontale Achse der Partitur von Ryoanji entspricht der Zeit, aber nur die Partitur für Stimme enthält eine Tempo-Angabe, nämlich zwei Minuten pro Doppelseite, die einen Abschnitt (oder »Garten«) bildet. Von dem, was wir von Cages Praxis der Notation, Einstudierung und Uraufführung wissen, können wir davon ausgehen, dass das gleiche Tempo für alle fünf Stimmen gilt. Im Gegensatz zur Tempo-Achse ist bei der Tonhöhenachse die Skalierung in der Partitur angegeben und wechselt zufallsbestimmt von Abschnitt zu Abschnitt (von

15 Vgl. Schoon, Dombois 2009; Minciacchi 2003. 16 Vgl. Cage 1993b, 134-136; mit Abbildungen: Cage 2009; Thierolf 1997. 17 Cage 1996, 280.

198

Anmerkungen zur Sonifikationsmetapher in der Instrumentalmusik

Abb. 5: John Cage, Ryoanji (Flötenstimme).

einem Halbton bis zu einer Quarte über einer Oktave). Natürlich hat die Skalierung der Tonhöhenachse einen bedeutenden Einfluss auf das klingende Resultat. Sie bestimmt, ob die Tonhöhenveränderungen fein und mikrotonal sind oder große Intervalle in schnellem Tempo durchschritten werden. Es wundert nicht, dass Cage diesen Faktor als Gegenstand der Komposition gewählt hat. Übrigens ist diese Situation musikalisch sehr ähnlich zu der in Xenakis’ Pithoprakta, wo die Geschwindigkeit der Glissandi durch die Größe der durchmessenen Intervalle bestimmt wird. In den Spielanweisungen von Ryoanji erklärt Cage: »The glissandi are to be played smoothly and as much as is possible like sound events in nature rather than sounds in music.«18 In anderen Worten, die Sonifikation von Naturgegenständen soll wie Natur klingen, nicht wie Musik. Cages Komposition ist jedoch weniger eine Repräsentation von Steinen, deren Umriss er zeichnete, als von dem Ryoanji-Garten insgesamt. In seinen Kommentaren erläuterte Cage, dass die Partitur-Systeme der Fläche des Gartens entsprechen und dass er bei der Perkussionsbegleitung sein Augenmerk auf den gehark-

18 Cage 1984.

Volker Straebel

199

ten Sand richtete.19 Zusammenfassend mag man also sagen, dass Ryoanji eine konzeptionelle künstlerische Repräsentation des Gartens unter Anwendung einzelner Aspekte von Sonifikation darstellt. Ausgehend von seiner Beschäftigung mit Tonband hatte Cage in den frühen 1950er Jahren begonnen, in der Notation Raum und Zeit proportional zu fassen, so dass die räumliche (horizontale) Entfernung von Noten in der Partitur dem zeitlichen Abstand der Töne bei der Aufführung entsprach: »With proportional notation, you automatically produce a picture of what you hear.«20 Diese Verbindung von Musik und visueller Repräsentation kann leicht umgekehrt werden, so dass man hört, was man sieht (wie etwa Musik, die von Sternenkarten oder Zeichnungen abgeleitet ist). Dies bedeutet nichts anderes als die Austauschbarkeit von visueller und auditiver Repräsentation, die zu den Grundannahmen der Sonifikationsforschung zählt. Alvin Lucier: Panorama In seiner Komposition Panomara für Posaune und Klavier (1993) übertrug Alvin Lucier das Panorama der Schweizer Alpen auf die Tonhöhen einer Zugposaune. Lucier verwandte die Reproduktion einer Panorama-Zeichnung von Fritz Morach, die nach einem Landschaftsfoto von Hermann Vögeli angefertigt worden war.21 Der rund einen Meter lange und zwölf Zentimeter hohe Druck, der als Werbegabe von der Zuger Kantonalbank veröffentlicht wurde, zeigt die Berggipfel mit Namen und Höhenangaben (Abb. 6). In seiner Komposition hielt Lucier die Skalierung beider Dimensionen konstant: Die Gipfelhöhe in Metern geteilt durch acht ergibt die Frequenz in Hertz, und der Abstand zwischen zwei Gipfeln in Millimetern wird als Zeitabstand in Sekunden interpretiert, womit das Stück insgesamt 16 Minuten dauert. Da Lucier keinen Längsschnitt der Alpen verwendete, sondern von einer Panorama-Ansicht ausging, entsprechen die sonifizierten räumlichen Abstände nicht den geographischen – eine Tatsache, die sich im Titel der Komposition widerspiegelt. Der Klavierpart markiert die Stellen, an denen die Posaune einen Gipfel erreicht, mit einem einzelnen Ton oder mit einem Zweiklang von angrenzenden Tonnamen. Da die Posaune frei durch das Kontinuum der Frequenzen gleitet, während das Klavier an die Skala der temperierten Stimmung gebunden ist, entstehen Schwebungen und Differenztöne. Hierbei handelt es sich um eine seit den 1980er Jahren für Lucier typische Kompositionstechnik.

19 »[T]he staves are actually the area of the garden.« Cage 1996, 242. »[F]or the accompaniment [i. e. the percussion part] I turned my attention to the raked sand.« Cage 1993b, 135. 20 Cage 1996, 243. 21 Vögeli, Morach o. J.

200

Anmerkungen zur Sonifikationsmetapher in der Instrumentalmusik

Abb. 6: Alvin Lucier, Panorama für Posaune und Klavier. Auszug aus Zeichnung und Partitur. Die Posaunenstimme zeichnet das Alpenpanorama nach.

Alvin Lucier verfügt über eine ausgeprägte Affinität zu Übersetzungsprozessen in Musik und Klangkunst und ist oft von wissenschaftlichen Experimenten inspiriert. Seine Hinwendung zu Verfahren der Sonifikation ist insofern zweifach motiviert. Außerdem entspricht sie der Überzeugung des Komponisten, dass seine ästhetische Forschung die Schönheit und den Zauber der Welt um uns zu entdecken und freizulegen vermag: »In imitating the natural, the way the natural world works, you find out about it, and you also connect to it in a beautiful way.«22 An anderer Stelle erklärte er: »My work is perhaps closer in spirit to alchemy, whose purpose was to transform base metals into pure gold.«23

22 Lucier, Zimmermann 1981, 348. 23 Lucier 2005, 11.

Volker Straebel

201

4. Sonifikation und Frühromantik John Cage und viele andere Komponisten experimenteller Musik waren beeinflusst von den Schriften des amerikanischen Transzendentalisten Henry David Thoreau. In Walden, einem Essay, das aus der Erfahrung des Rückzugs in die Waldeinsamkeit 1845-47 entstand, interpretiert Thoreau Klänge, die aus weiter Entfernung gehört werden und in den Tälern widerhallen, als »Schwingen der universellen Lyra.«24 1851 wurde Thoreau Zeuge der Errichtung einer Telegraphenleitung.25 Von seinen Zweifeln an Sinn und Zweck dieser Einrichtung abgesehen (»We are in great haste to construct a magnetic telegraph from Maine to Texas; but Maine and Texas, it may be, have nothing to communicate«26), genoss Thoreau den Klang »des Telegraphen-Kabels, das schwingt wie eine Aeolsharfe«.27 In seinen Tagebüchern erklärte er: »[T]he spirit sweeps the string of the telegraph harp – and strains of music are drawn out endlessly like the wire itself. We have no need to refer to music and poetry to Greece for an origin now. […] The world is young and music is its infant voice.«28 Schließlich schrieb Thoreau: »[T]he wire […] always brings a special & general message to me from the highest«29 – »the wind which was conveying a message to me from heaven dropt it on the telegraph which it vibrated as it past [sic].«30 Diese Formulierung erinnert in der Tat stark an die bekannte Definition von Sonifikation als »the use of non-speech audio to convey information.«31 Thoreau favorisiert jedoch die Sprachmetapher, wie einem Tagebuchentrag zu entnehmen ist, in dem der Autor sich selbst charakterisiert: »A writer, a man writing is the scribe of all nature – he is the corn & the grass & the atmosphere writing.«32 Er warnte außerdem, »we are in danger of forgetting the language which all things speak without metaphor.«33 Die Vorstellung, dass die Natur eine Sprache sei, die, würde man sie nur verstehen, metaphysische Entitäten zugänglich machte, die sonst verborgen bleiben, ist in der deutschen Frühromantik verbreitet. Novalis vergleicht in den Lehrlingen zu Saïs die Wege, die Menschen nehmen, mit seltsamen Figuren, die zu der Chiffrenschrift zu gehören scheinen, die man überall finden kann – »auf Flügeln, Eierschalen, in Wolken, im

24 Thoreau 1971, 123 (Kapitel Sounds). 25 Vgl. Thoreau 1992, 16 (28. Aug. 1851). 26 Thoreau 1971, 52 (Kapitel Economy). 27 Thoreau 1992, 75 (12. Sept. 1851). 28 Ebd., 238 (3. Jan. 1852). 29 Thoreau 1997, 437 (9. Jan. 1853). 30 Thoreau 1992, 76 (12. Sept. 1851). 31 Kramer et al. 1997, o. S. (Kapitel 1, Executive Summary). 32 Thoreau 1992, 28 (2. Sept. 1851). 33 Thoreau 1971, 110 (Kapitel Sounds).

202

Anmerkungen zur Sonifikationsmetapher in der Instrumentalmusik

Abb. 7: Chladni-Figuren, die entstehen, wenn man mit Sand bestreute Metallplatten zum Schwingen bringt.

Schnee, in Krystallen und in Steinbildungen, auf gefrierenden Wassern, […] auf berührten und gestrichenen Scheiben von Pech und Glas.«34 Letztere verweisen offensichtlich auf die Experimente von Ernst F. F. Chladni, der Bleche mit einer dünnen Schicht Sand bedeckte, ehe er sie mit einem Geigenbogen zum Schwingen anregte.35 Abhängig von den Schwingungen bewegt sich der Sand und bildet geometrische Figuren aus (Abb. 7). Wie Thoreau ein halbes Jahrhundert nach ihm, deutete Novalis die Natur als eine »Äolsharfe – sie [die Natur] ist ein musikalisches Instrument – dessen Töne wieder Tasten höherer Sayten in uns sind.«36 In seinen Materialien zur Encyclopädistik führte Novalis weiter aus: »Sollte alle plastische Bildung, vom Krystall bis auf den Menschen, nicht acustisch, durch gehemmte Bewegung zu erklären sein. Chemische Akustik.«37 In der Sonifikationsforschung folgen Wissenschaftler wie Künstler der Sehnsucht der Romantiker, den Bann zu brechen und die Welt verständlich zu machen, indem Phänomene der Natur unseren Sinnen gemäß zu übersetzen wären und unmittelbarer Erfahrung zugänglich zu machen. Gregory Kramer stellte seiner grundlegenden Introduction to Auditory Display38 ein Zitat des Sufi-Lehrers Hazrat Inayat Kahn (1882-1927) aus Mysticism of Sound and Music voran: »In the realm of music the wise can interpret

34 Novalis 1977, 79 (am Beginn). 35 Chladni 1787, 18. 36 Novalis 1993, 212 (966). 37 Ebd., 68 (376). 38 Kramer 1994, 1.

Volker Straebel

203

the secret and nature of the working of the whole universe.«39 In seinem Zitat änderte Kramer jedoch music in sound und erweiterte damit die Ausgangsbasis von einer von Menschen gemachten Kunst hin zu einer physikalischen Qualität an sich. Die Sonifikationsforscherin und Künstlerin Andrea Polli zitiert Walt Whitmans Naturgedicht Proud music of the storm im Zusammenhang mit ihrer Sonifikation von meteorologischen Daten40, und Chris Hayward betitelte einen Beitrag über seismologische Sonifikation poetisch – und etwas euphemistisch – Listening to the Earth sing.41 Dies sind nur wenige Beispiele für die unausgesprochenen metaphysischen Annahmen und romantischen Motive der Sonifikation. Diese der Sonifikationsforschung bewusst zu machen, mag helfen, sie künstlerischen Werken und Verfahren zu öffnen und die ästhetische Qualität ihrer Anwendungen zu erhöhen. Im Bereich der Kunst sind Verfahren der Sonifikation umgekehrt in Schutz zu nehmen gegen den Anspruch wissenschaftlichen Erkenntnisgewinns und empirischer Validität. Die Idee der künstlerischen Transformation außermusikalischer Zusammenhänge fließt selbst als uneingelöste Behauptung als Subtext in das Werk ein und bestimmt dessen Rezeption. Und mitunter ist diese Idee süßer als ihre sinnliche Erfahrung, um mit Keats zu sprechen: »Heard melodies are sweet, but those unheard / Are sweeter[.]«42

5. Quellen Bly, Sarah (1982): Presenting Information in Sound, Conference on Human Factors in Computing Systems, Gaithersburg, MD, March 15-17. Cage, John (1961): Experimental Music [1957], in: Cage, Silence. Lectures and Writings, Hanover, NH, 7-12. Cage, John (1970): Song Books. Partitur, New York. Cage, John (1984): Ryoanji for Flute with percussion or orchestral obbligato and ad libitum with other pieces of the same title. Partitur, New York. Cage, John (1993a): Notes on Compositions II, in: Cage: Writer. Previously uncollected pieces, hg. von Richard Kostelanetz, New York, 51-62. Cage, John (1993b): Notes on Compositions IV, in: Cage: Writer. Previously uncollected pieces, hg. von Richard Kostelanetz, New York, 133-142.

39 Khan 1996, 16. 40 Polli 2004. 41 Hayward 1994. 42 Keats 1975, 135 (Ode to an Grecian Urn, II).

204

Anmerkungen zur Sonifikationsmetapher in der Instrumentalmusik

Cage, John (1996): Musicage. Cage muses on words, art, music, hg. von Joan Retallack, Hanover, NH. Cage, John (2009): Ryoanji: Solos for Oboe, Flute, Contrabass, Voice, Trombone with Percussion or Orchestral Obbligato (1983–85), in: PAJ: A Journal of Performance and Art, 31:3, 57-64. Chladni, Ernst Florens Friedrich (1787): Entdeckungen über die Theorie des Klanges, Leipzig. Cott, Jonathan (1973): Stockhausen. Conversations with the composer, New York. Dombois, Florian (2008): The »Muscle Telephone«: The Undiscovered Start of Audification in the 1870s, in: Kursell, Julia (Hg.), Sounds of Science – Schall im Labor (1800-1930). Workshop Sounds of Science, Max-Planck-Institut für Wissenschaftsgeschichte Berlin, 2006. Berlin, 41-45. Goodbody, Axel (1983): Natursprache. Ein dichtungstheoretisches Konzept der Romantik und seine Wiederaufnahme in der modernen Naturlyrik (Novalis – Eichendorff – Lehmann – Erich). Kieler Studien zur deutschen Literaturgeschichte 17, zugl. Diss. Univ. Kiel, Neumünster. Hayward, Chris (1994): Listening to the Earth Sing, in Kramer, Gregory (Hg.), Auditory Display. Sonification, Audification, and Auditory Interfaces, Sante Fe Institute Studies in the Sciences of Complexity, Proceedings 18, Reading, MA, 369-404. Keats, John (1975): The poetical works of Keats. Cambridge edition, hg. von Paul D. SheatsBoston. Khan, Hazrat Inayat (1996): The Mysticism of Sound and Music, Boston. Kramer, Gregory (1994): An Introduction to Auditory Display, in Kramer, Gregory (Hg.), Auditory Display. Sonification, Audification, and Auditory Interfaces. Sante Fe Institute Studies in the Sciences of Complexity, Proceedings 18, Reading, MA, 1-77. Kramer, Gregory, et al. (1997): Sonification Report: Status of the Field and Research Agenda. Prepared for the National Science Foundation by members of the International Community for Auditory Display, http://www.icad.org/websiteV2.0/References/nsf.html, 31.08.2008. Kurtz, Michael (1988): Stockhausen. Eine Biographie, Kassel. Lucier, Alvin (2005): Origins of a Form. Acoustical Exploration, Science, and Incessancy, in: Leonardo Music Journal 8, 5-44. Lucier, Alvin / Zimmermann, Walter (1981): [Conversation, Desert Plants, 1975], in: Zimmermann, Insel Musik, Köln, 347-350. Novalis (1977): Das dichterische Werk. Schriften: Die Werke Friedrich von Hardenbergs, Bd. 1, hg. Von Paul Kluckhohn und Richard H. Samuel, 3. Aufl., Stuttgart. Novalis (1993): Das Allgemeine Brouillon. Materialien zur Enyzyklopädistik 1798/99, hg. von Hans-Joachim Mähl, Hamburg.

Volker Straebel

205

Polli, Andrea (2004): Atmospheric/Weather Works: Artistic Sonification of Meteorological Data, in: Ylem. Artists Using Science & Technology, 24:8, 9-13, zugl. www.ylem.org, 16.01.2010. Rosenboom, David (Hg.) (1976): Biofeedback and the Arts: Results of Early Experiments, Vancouver. Schoon, Andi / Dombois, Florian (2009): Sonification in Music, 15th International Conference on Auditory Display, Copenhagen, May 18-22. Stockhausen, Karlheinz (1963): ...wie die Zeit vergeht... [1956], in: Stockhausen, Texte zur elektronischen und instrumentalen Musik. Aufsätze 1952-1962 zur Theorie des Komponierens, hg. von Dieter Schnebel, Köln, 99-139. Stone, Alison (2008): Being, Knowledge, and Nature in Novalis, in: Journal of the History of Philosophy 46: 1, 141-163. Straebel, Volker (2010): The Sonification Metaphor in Instrumental Music and Sonification‘s Romantic Implications, in: Proceedings of the 16th International Conference on Auditory Display, Washington D. C., 287-294. Thierolf, Corinna (1997): Plötzliche Bilder. Die Ryoanji-Zeichnungen von John Cage, in: Bayrische Staatsgemäldesammlungen München (Hg.), Hanne Darboven, John Cage. Staatsgalerie moderner Kunst. Kunstwerke 4, Ostfildern, 42-76. Thoreau, Henry David (1971): Walden. The Writings of Henry D. Thoreau, hg. von James Lyndon Shanley, Princeton, NJ. Thoreau, Henry David (1992): Journal. Volume 4: 1851-52. The Writings of Henry D. Thoreau, hg. von Leonard N. Neufeldt und Nancy Craig Simmons, Princeton, NJ. Thoreau, Henry David (1997): Journal. Volume 5: 1852-53. The Writings of Henry D. Thoreau, hg. von Patrick F. O‘Connell, Princeton, NJ. Vögeli, Hermann / Fritz Morach: Waldspitzpanorama, Zug. Weinberg, Gil / Thatcher, Travis (2006): Interactive Sonification: Aesthetics, Functionality and Performance, in: Leonardo Music Journal 16, 9-12. Xenakis, Iannis (1956): Pithoprakta. Partitur, (Bonn), Boosey & Hawkes rental library. Xenakis, Iannis (1992): Formalized Music. Thought and Mathematics in Music, hg. von Sharon Kanach, Stuyvesant, NY.

206

Anmerkungen zur Sonifikationsmetapher in der Instrumentalmusik

Vorläufige Vorläufer Vordergründige Bezüge und hintergründige Gegensätze zwischen Komposition und Sonifikation Michael Harenberg und Daniel Weissberg

Beim Nachdenken über eine Kulturgeschichte der Sonifikation stellt sich die Frage nach der Existenz einer solchen. Welches Verständnis von Sonifikation muss man zugrunde legen, um eine entsprechende Kulturgeschichte behaupten und identifizieren zu können? Fände man einen solchen Fokus, verspräche dieser eine interessante Schnittstellenperspektive. Die Schwierigkeit besteht darin, eine in Bezug auf die zu beschreibenden Gegenstände sinnvolle Definition zu finden. Die Lage scheint verworren. Ergebnisse von Sonifikationsverfahren übersetzen komplexe Daten in ein anderes Wahrnehmungsmedium. Sie sollen als akustische Entitäten einerseits für sich selbst stehen, müssen dabei aber auch einem gewissen ästhetischen Anspruch genügen, um akzeptiert und adäquat, im Sinne der Repräsentationslogik ihrer Datenlage, interpretiert werden zu können. Ergebnis der komplexen sonifikatorischen Transformation sind nicht Audiodaten. Um Daten re-interpretieren zu können, müssen sie als klingendes Phänomen wahrgenommen werden. Diese repräsentieren als Ergebnis die Proportionen und Dimensionen der zugrundeliegenden Datenbasis, müssten also auch entsprechend analytisch gehört werden. Vollkommen verwirrend wird es, wenn künstlerische Verfahren aus der algorithmischen Komposition, aus elektronischer- und Computermusik mit den klingenden Ergebnissen von Sonifikationsprozessen verglichen oder gar gleichgesetzt werden. Was ist bloßes Messergebnis, was ist Klang, was kann – das Ergebnis gleichsam ästhetisch verabsolutierend – als Musik gehört werden? Kann ein technologisches Verfahren, das Prozesse lediglich veranschaulichen soll und an eine qualitativ umfassendere analytische Wahrnehmung im Akustischen appelliert, zur Kunst werden? Führt dann eine als physika-

207

lisch-mathematisch verstandene Natur endlich selbst den akustischen Pinsel, wie es bei der Erfindung der technischen Bilder der Photographie paraphrasiert wurde? Zweifellos lässt sich der Klang eines Klaviers als Audifikation der schwingenden Saite bezeichnen und die Interpretation einer Beethoven-Sonate als Parameter-Mapping des Notentextes. In letzter Konsequenz heißt das aber: Alles was klingt, kann zur Sonifikation von etwas erklärt werden; der Begriff wird so zu einem Synonym für alles Klingende, außer für Sprache, und die ist nur ausgeschlossen, weil sie in der Definition des Begründers der Sonifikation explizit ausgeschlossen wurde.1 Mag das Klavierbeispiel auch etwas übertrieben sein, so illustriert es doch eine weit verbreitete Unschärfe, die sich im Umgang mit dem Begriff der Sonifikation etabliert hat. Um die Problematik dieser Unschärfe soll es im Folgenden gehen und um die Untersuchung dessen, was Sonifikation an neuen Ansätzen gebracht hat, sowie darum, was sich aus der Kulturgeschichte, vor allem der Musik, an Erkenntnissen für diese neuen Ansätze ableiten lässt.

1. Historische Dimensionen der Sonifikation Den Grundstein zur oben beschriebenen Unschärfe hat Gregory Kramer mit seiner Definition gelegt, nach der Sonifikation die Gewinnung von Information aus nicht-sprachlichem Audiomaterial sei. Sie beschreibt etwas, das mit einem Gehörsinn ausgestattete Wesen dauernd tun und ist deshalb keine Definition, sondern ein anderes Wort für Hören, wäre da nicht der kaum nachvollziehbare Ausschluss von Sprache. Würde sie um den Zusatz »…um daraus falsifizierbare Aussagen abzuleiten« erweitert, würde zwar der Ausschluss von Sprache plausibel. Mit diesem Zusatz würden jedoch zahlreiche Bereiche ausgeschlossen, die heute unter dem Label Sonifikation fungieren; darunter die Verklanglichung nicht-akustischer Daten als akustisches Feedback oder zur Orientierung in Softwareumgebungen. In der bestehenden Form dient der faktische Verzicht auf eine Definition dazu, nichts auszuschließen. Sonifikation kann so als Label auf zahlreiche Methoden und Verfahren geklebt werden, nicht nur auf solche, für die Sonifikation sich als tauglicher Begriff etabliert hat, sondern auch auf solche, die bis zu dessen Erfindung ganz gut ohne ihn zurecht kamen, oder auf solche, die außerhalb der SonifikationsCommunity wohl eher dem Sounddesign zugerechnet werden.2 Die beschriebene Unschärfe ermöglicht nicht zuletzt, eine Kulturgeschichte der Sonifikation zu behaupten, die weiter zurück reicht als die knapp zwanzig Jahre, in denen 1 Kramer 1994. 2 Z. B. Auditory Icons und Earcons

208

Vorläufige Vorläufer

unter diesem Begriff gearbeitet und geforscht wird. Es soll nicht unterstellt werden, dass in diesem Band eine Kulturgeschichte der Sonifikation propagiert wird, die mit der Kulturgeschichte des Hörens letztlich identisch ist. Es braucht allerdings eine definitorische Eingrenzung, wenn unterscheidbar werden soll, was als Geschichte und was als Vorgeschichte der Sonifikation betrachtet werden kann, ebenso um festzustellen, wo sich allenfalls Parallelen und Gemeinsamkeiten zu Entwicklungen beschreiben lassen, die Berührungspunkte mit der Sonifikation haben. Thomas Hermann hat in seinem Beitrag zur ICAD 2008 eine Definition vorgeschlagen,3 die wir unseren Erörterungen zugrunde gelegt haben. Die folgende Kurzform davon findet sich auf seiner Homepage: »Sonification is the data-dependent generation of sound, if the transformation is systematic, objective and reproducible, so that it can be used as scientific method«.4 Die Frage, ob diese Definition den Begriff umfassend beschreibt, soll hier nicht erörtert werden. Sie grenzt ihn jedenfalls auf eine Weise ein, die uns im Folgenden erlaubt, sinnvoll zwischen Sonifikation und anderen Formen des Umgangs mit Klang zu unterscheiden. Nach dieser Definition gehören Auswertungen ursprünglich akustischer Phänomene, wie z. B. die Auskultation, nicht zum Bereich der Sonifikation. Die Parallelen zur Sonifikation sind zwar evident, aber es gibt auch einen fundamentalen Unterschied zwischen der Auswertung akustischer Phänomene und der Auswertung von verklanglichten, nicht akustischen Informationen resp. Daten. Er ist dem Unterschied zwischen so genannten natürlichen und synthetischen Klängen vergleichbar, der Ausgangspunkt für unsere Untersuchungen in dem Band Klang (ohne) Körper war.5 Während erstere Resultat und Ausdruck von Bewegung sind, sind letztere Resultat eines Denkvorgangs. Die weitreichenden Konsequenzen für die Gestaltung von Klängen wie für den Umgang mit ihnen waren zentrales Thema dieses Bandes. Bei Herztönen oder Motorengeräuschen gibt es einen ursächlichen und zwangsläufigen Zusammenhang zwischen der Bewegung, die den Klang hervorbringt und dem klanglichen Resultat. Im Klang wird Bewegung, Resonanzraum und Materialität hörbar. Dieser Zusammenhang ist gegeben und nicht beeinflussbar. Bei der Übersetzung nicht-akustischer Daten in Klang hingegen ist der Zusammenhang ein willkürlicher, ein codierter. Während ein Loch im Auspuff wie ein Loch im Auspuff klingt, erscheinen mittels Parameter-Mapping sonifizierte Hirnströme so, wie sich jemand ausgedacht hat, dass diese klingen sollen. Die Hirnströme müssen in Klang übersetzt werden. Müsste der Zusammenhang zwischen einem Loch im Auspuff und entsprechenden akustischen 3 Hermann 2008. 4 Ebd. 5 Harenberg, Weissberg 2010.

Michael Harenberg und Daniel Weissberg

209

Auswirkungen erst hergestellt werden, gäbe es wohl effizientere Methoden, dieses zu diagnostizieren. Zu den wesentlichen Unterschieden zwischen sog. natürlichen und synthetischen Klängen gehört, dass erstere ihrem Wesen nach komplex sind, während bei letzteren Komplexität hergestellt werden muss. Auf obiges Beispiel übertragen bedeutet dies, dass der Klang der Herztöne oder Motoren die Resonanz eines komplexen physikalischen Geschehens mit entsprechend komplexen klanglichen Auswirkungen ist. Bei der Sonifikation der Hirnströme werden aus einem komplexen Geschehen diejenigen Daten extrahiert, die messbar sind, und deren Dynamik werden Veränderungen klanglicher Parameter zugewiesen. Diese Idee scheint kulturgeschichtlich jung zu sein. Auch wenn die Digitalisierung vieles von dem, was im Bereich der Sonifikation praktiziert wird, erst möglich gemacht hat, so ist sie jedoch keine unabdingbare Voraussetzung dafür. Die Walzen, Scheiben und Lochkarten von Selbstspielinstrumenten böten schon seit mehreren Jahrhunderten die Möglichkeit, Daten zu sonifizieren, ohne dass nach heutigem Wissensstand davon Gebrauch gemacht wurde, auch wenn sie als wichtige Vorläufer des Digitalen und für unser Verständnis klingender Daten medientheoretisch von großer Bedeutung sind.6 Historisch gibt es einen ähnlich unklaren ästhetischen Zustand bei Musikautomaten und Musikmaschinen, von den Spieluhren, den mechanischen Instrumentalisten und Orchestrions bis zu den Reproduktionsinstrumenten und Instrumentmaschinen wie der Orgel. Sie alle verkörpern den Status des Mechanischen, der zusammen mit denen der Simulation und Virtualisierung unserer digitalen Universalmaschinen erst im 20. Jahrhundert als ästhetische Realität reflektiert werden konnte. Dieser Bedeutungswandel in Prozessen der Virtualisierung geht seit über 400 Jahren einher mit der historischen Entwicklung der Automaten als einer Geschichte der Medialisierung auch von Klang, was sie in der langen Tradition, das Seelische mit Maschinen-Metaphern zu beschreiben, zu einer Metapher von Technik überhaupt werden lässt.7 So ist es nicht verwunderlich, dass in diesem Spannungsverhältnis der Hörsinn am häufigsten von Halluzinationen betroffen ist. Solche »Akuasmen« können als Wahn ebenfalls zur Metapher des Technischen selbst interpretiert werden und ergänzen die Kehrseite der Entwicklung automatenhafter Selbstigkeit8 bis zur Wunschmaschine.9 Diese Entwicklung hat vor allem im Digitalen weitreichende Auswirkungen auf die Simulationen von Klang im Symbolischen wie im Realen.

6 7 8 9

Vgl. Harenberg 2003, 238 f. Vgl. Tholen 2002, 19 f. Vgl. Bahr 1983. Vgl. Felderer 1996

210

Vorläufige Vorläufer

Automaten können als technische Materialisierungen kalkulatorischer Modelle von mechanischen, pneumatischen, später elektrischen und schließlich mathematischen Theorien angesehen werden. Sie demonstrieren dem Modell immanente mögliche Erscheinungsformen und deren Grenzen, kurz: sie werden selbst zum Medium kalkulatorischer Welterkenntnismodelle. Der Automat als abstraktes Modell durchdringt die Wirklichkeit, bis er als ästhetisches Maschinenkonstrukt nicht mehr von ihr zu unterscheiden ist. Im Zeitalter universaler Automaten bedeutet dies, dass alternative Welten entstehen, indem der Computer alles verschluckt und es in berechenbarer, also künstlicher Form wieder ausspuckt. Die Universalität von Konnektivität und intermedialer Überführbarkeit als technologische Konsequenzen provozieren das geschichtslose, freie Flotieren aller beteiligten Elemente, die ohne eine entsprechende Interpretation und Bearbeitung epistemologisch wie kategorial im numerischen Dispositiv des Digitalen verharren. Wie also können wir zwischen automatenhafter Selbstigkeit und ästhetischer Form unterscheiden? Oder ist der gestaltende kompositorische Eingriff bereits obsolet, weil uns jegliche Differenzierungsmöglichkeit abhanden gekommen ist? Sonifikation ist selbst ein kulturgeschichtliches Phänomen, dessen Ursprung recht gut zu datieren ist. Wie die Geschichte der Aufzeichnung von Schall zeigt, brauchen mediale Neuerungen dieser Art neben den technischen auch gedanklich-philosophische Voraussetzungen. Die technischen Voraussetzung für den Phonographen waren lange vor seiner Erfindung gegeben. Was fehlte, war die Vorstellung, den Klang von seiner Erzeugung zu abstrahieren. Bis dahin hatte man, wenn Klang mit Musikautomaten mechanisch wiedergegeben werden sollte, immer die Klangerzeugung und nie den Klang selbst mechanisiert. Letzteres zu denken, scheint die größte Hürde zur Erfindung des Phonographen, der Wechsel von symbolischen zu Speichertechnologien des Realen gewesen zu sein. Ähnlich brauchte es für die Sonifikation ein entsprechendes kulturgeschichtliches Umfeld. Ein solches Umfeld ist eingebettet in ein technikgeschichtliches Umfeld. Die »Speicherung, (Re-)Produktion und Übertragung von Schallereignissen zählen zu den Voraussetzungen der Sonifikation, in der statt Schallwellen Messkurven abgespielt werden«, heißt es in der Einleitung des vorliegenden Bandes. Der Status dieser Technologien war es allerdings immer, das Reale des Klangs zu übertragen, zu speichern und zu reproduzieren. Dabei muss von der Aufnahme bis zur Wiedergabe im Unterschied zu den semantischen Speichern der Walzen und Schriften möglichst gar nichts »interpretiert« werden – das ist bis zu den digitalen Verfahren so geblieben. Schon die Shannon’sche Informationstheorie als Grundlage unserer technischen Übertragungsmedien war deshalb so mächtig, weil sie die Frage nach den Inhalten der übertragenen Informationen radikal ausgeblendet hat. So revolutionär es war, Caruso selbst singen zu hören und nicht nur die stumme Partitur des Werkes lesen zu können, so indifferent ist diese Technologie gegen ihre Inhalte. Die Aufnahme weiß nichts vom schönen Klang eines Tenors.

Michael Harenberg und Daniel Weissberg

211

Sie zeichnet Hintergrundgeräusche ebenso auf wie störendes Brummen, das Bellen eines Hundes oder eben Musik. Die nach Kittler entscheidende medientechnische Revolution technischer Schriften zeichnet sich dadurch aus, dass diese nur von Maschinen und für Maschinen geschrieben und von ihnen gelesen werden können.10 Phonograph, Telefon und Lautsprecher sonifizieren weder Inhalte noch Daten, sondern wandeln oder übertragen in einem elektro-mechanischen Verfahren die in technischer Schrift aufgezeichneten Schwingungen ins Hörbare. Das Erstaunen des frühen 20. Jahrhunderts, dass die miserabel klingende Walze des Phonographen die hervorragenden Reproduktionsinstrumente schlagartig ablösen konnte, hängt mit diesem Umstand zusammen. Die revolutionäre Entwicklung reeller Speicher- und Übertragungstechnik hatte gerade nichts mehr mit den Inhalten der Schriften ihrer symbolischen Vorgänger gemein. Sowenig wie das Telefon sonifiziert, sowenig ist die phonographische Schrift in der Lage, Messkurven abzuspielen, außer in der romantischen Phantasie von Rilkes Ur-Geräusch, jenes urtümlichen Aufschreibesystems der Kronennaht des Schädels als medientechnisch-physiologisches Scanning, deren Spur aber keinen Autor und kein Subjekt mehr hat.11 Es ist die vollkommene Metapher, von der Kittler schreibt: »Niemand hat vor Rilke je vorgeschlagen, eine Bahnung zu decodieren, die nichts und niemand encodierte. Seitdem es Phonographen gibt, gibt es Schriften ohne Subjekt. Seitdem ist es nicht mehr nötig, jeder Spur einen Autor zu unterstellen, und hieße er Gott.«12 Auch in anderen Fällen wie z. B. bei Oskar Fischinger, der sich mit seinem gezeichneten Lichtton die Erzeugung bildsynchroner Filmmusik zum Ziel gesetzt hatte, hätte es mit einer solchen Metaphern-Zauberei grundlegende Schwierigkeiten gegeben. Nicht Messkurven, sondern die technische Verschriftlichung akustischer Schwingungen waren die konkret symbolisierten Vorbilder seiner Zeichnungen.

2. Sonifikation und Komposition Sonifikationsmodelle gehen davon aus, dass die Fähigkeiten des menschlichen Gehörs genutzt werden können, um nicht intendierte strukturelle Eigenschaften und Bezüge von Daten durch Verklanglichung zu erkennen. Dieser Ansatz ist neu und hat keine direkten kulturgeschichtlichen Vorläufer. Auch in diesem Zusammenhang erweist sich eine Definition der Sonifikation als unabdingbar, welche die paradigmatisch neuen Aspekte 10 Kittler 1986. 11 Für eine ausführliche Darstellung vgl. den Beitrag von Jan Thoben in diesem Band. 12 Kittler 1986, 72

212

Vorläufige Vorläufer

nicht mit anderem, schon länger Bekanntem vermischt. Naheliegend ist es zwar, die Vorgeschichte der Sonifikation auf dem Gebiet der musikalischen Komposition zu suchen. Eine nähere Betrachtung zeigt allerdings, dass sie just dort nicht zu finden ist. Einige Aspekte sollen im Folgenden beleuchtet werden. Strukturgenerierende Verfahren haben in der musikalischen Komposition eine lange Geschichte. Sie zielen allerdings auf ein klangliches Resultat. Dieses hat nicht die Aufgabe, Strukturen hörbar zu machen. In den meisten Fällen wird das eher vermieden, und wenn die Strukturen – wie etwa bei einfachen Kanonformen – hörbar sind, dann steht diesen eine Vielzahl harmonischer und kontrapunktischer Bezüge gegenüber, die vielleicht eine Folge, aber sicher nicht Abbild der Kanon-Struktur sind, sondern vielmehr ein Spannungsfeld dazu bilden. Um eine Abbildung oder Verklanglichung nicht-musikalischer Daten ging es bei der Beziehung zwischen Struktur und musikalischem Resultat nie. Der goldene Schnitt soll, wenn er die Proportion von Formteilen bestimmt, nicht verklanglicht werden, es ist schlicht eine Proportion, die sowohl im Räumlichen als auch im Zeitlichen Verwendung findet. Wenn im Mittelalter eine Beziehung hergestellt wird zwischen dem Tempus perfectum (dem Dreiertakt) und der heiligen Dreifaltigkeit, dann nicht, weil das eine das andere abbildet oder darin hörbar wird, sondern weil beides als Ausdruck desselben gesehen wurde. Die übliche Praxis musikalischer Analyse blendet einen wesentlichen Aspekt der MusikRezeption aus, der für die Voraussetzungen der Sonifikation höchst bedeutsam ist: die Aufmerksamkeit ist beim Hören, wie generell bei der Rezeption zeitbasierter Darstellungsformen, diskontinuierlich. Ein in seinem Ablauf nicht beeinflussbares Kontinuum wird mit schwankender Aufmerksamkeit gehört. Erst das Lesen des Notentextes erlaubt ein Verweilen sowie eine gleichmäßige Aufmerksamkeit auf alle Aspekte. Das Problem lässt sich in der musikalischen Analyse nur spekulativ erörtern. Wir können jedenfalls davon ausgehen, dass erfolgreiche kompositorische Verfahren diesen Umstand mit einbeziehen. Nicht zuletzt dürfte die Redundanz von Wiederholungen, Variationen, Spiegelungen etc. dazu beitragen, dass eine Komposition als konsistent wahrgenommen wird, ohne dass man sie als Ganzes mit konstanter Aufmerksamkeit hörend erfassen kann. Auch die Fülle an Bezügen und kleinsten Raffinessen, welche sich in allen Werken finden, die ihre Zeit überdauert haben, werden von einzelnen Rezipienten nur zu einem kleinen Teil wahrgenommen, aber vermutlich von jedem zu einem anderen Teil. Während die musikalische Komposition und Analyse in der Regel musikalische Strukturen eines Werkes in ihrer Gesamtheit zu erfassen sucht (und dafür auf das Symbolische des Notentexts, also eine Visualisierung der Musik, angewiesen ist), werden beim Hören immer nur Teile davon wahrgenommen. Die Parallelen zwischen musikalischer Komposition und Sonifikation erweisen sich als rein äußerliche. Die Motive für den Einsatz strukturgenerierender Verfahren könnten gegensätzlicher kaum sein.

Michael Harenberg und Daniel Weissberg

213

Vergleiche zu Visualisierungsverfahren spielen in der Erörterung und den Rechtfertigungsstrategien im Bereich der Sonifikation eine beachtliche Rolle. Auch hier lohnt sich eine genauere Betrachtung, diesmal der Bedeutung der Visualisierung in der Musik. Als vor rund einem Jahrtausend die europäische Musik, vor allem durch den Schritt in die Mehrstimmigkeit, komplexer wurde, begann man, sie in Form symbolischer Speicher zu notieren, zunächst als Gedächtnisstütze, aber sehr bald auch, um eine strukturelle Komplexität zu generieren, die ohne Notenschrift kaum herstellbar und auch kaum noch zu vermitteln gewesen wäre. Notenschrift wurde zu einem Verfahren der Visualisierung musikalischer Strukturen – und, im Unterschied zum Alphabet als Lautschrift, nicht etwa zur Aufzeichnung von Klängen! Es ging nicht darum, die »klingende Oberfläche« der Musik zu notieren; deren Ausgestaltung überließ man der Konvention und den Ausführenden. Es ging um die kompositorischen Strukturen, die anders denn mittels Visualisierung über eine Form der Schriftlichkeit nicht in den Griff zu bekommen waren. Auch die musikalische Analyse ist für fast alle ihre Aspekte auf den Notentext, und damit die Visualisierung der Musik, angewiesen. Komplexe kanonische Formen, das Ideal der harmonischen Ausgewogenheit in der Klassik, die Reihenschichtungen in der Dodekaphonie, das alles, oder zumindest das meiste davon, mag auf eine schwierig beschreibbare Weise im klingenden Resultat wirksam werden. In benennbarer Form erschließt es sich jedoch nur den Lesenden. Einiges mag in Teilaspekten hörbar sein, einiges braucht es nur zum Komponieren, mit Auswirkungen auf das klangliche Resultat, die denen eines Baugerüsts auf die endgültige Form eines Bauwerks vergleichbar sind.13 Verfahren, welche die Notenschrift zur Verklanglichung bedingen und die nur mit Hilfe des Notentextes der Analyse zugänglich sind, taugen wohl kaum als Vorfahren der Sonifkation. Eher sollte diskutiert werden, welche Konsequenzen sich daraus für die Sonifikation ergeben. Was kulturgeschichtlich als Vorläufer für die Sonifikation gesehen werden könnte, ist die Verwendung von Zahlen- und Notennamensymbolik. Vorläufer sind diese allerdings nur in Bezug auf das Verfahren: nicht-musikalisch motivierte Zahlen- oder Buchstabenfolgen werden in Töne übersetzt. Diese konstruktivistischen Verfahren haben allerdings eher den Charakter einer Geheimlehre. Beim Hören erschließt sich davon gar nichts und soll es auch nicht. Wenn etwa Alban Berg 1926 in die Lyrische Suite seine Liebesaffäre mit Hanna Fuchs unter Verwendung von Notennamensymbolik hineingeheimnist14, dann tut er das, weil er damit zwar seine Geschichte öffentlich machen kann, aber auf eine Weise, die Uneingeweihte nicht verstehen, schon gar nicht seine Frau Helene.

13 Vgl. Enders 2005. 14 Floros 1978.

214

Vorläufige Vorläufer

Um Erkenntnisgewinn geht es bei der Verwendung der Zahlen- und Notennamensymbolik jedenfalls nicht. Das verweist auf einen weiteren, in der musikalischen Analyse wenig diskutierten Aspekt. Meist wird im Kontext musikalischer Analyse unausgesprochen impliziert, dass die Wirkung der Musik eine Folge der verwendeten kompositorischen Verfahren sei. Ein dodekaphones Stück wirkt so, weil es dodekaphon ist. Das suggerieren zumindest die klassischen Reihenanalysen, auch wenn sie es nicht explizit aussprechen. Möglicherweise aber wirkt ein dodekaphones Stück so wie es wirkt, nicht weil, sondern obwohl es dodekaphon ist. Gerade das Beispiel der Zahlensymbolik zeigt, dass es musikalische Wirkung, die nicht wegen, sondern trotz eines Verfahrens entsteht, durchaus gibt. Musikalisch behindert die Zahlensymbolik weit mehr als sie befördert. Wenn sie etwas bewirkt, dann auf einer Metaebene, wenn etwa der Komponist durch diese Behinderung zu einer besonderen Leistung animiert wird. Abgesehen von solchen außermusikalischen Elementen der Komposition dürften die Auswirkungen kompositorischer Verfahren auf das klingende Resultat in den meisten Fällen eine kaum differenzierbare Mischung aus wegen und obwohl sein. Sonifikation als Grundlage einer Komposition jedenfalls kann als animierende Behinderung für KomponistInnen genau so tauglich oder untauglich sein wie jede andere nicht-musikalisch motivierte Vorgabe. Wenn das Ergebnis einer Sonifikation eine musikalische Qualität hat, ist das sicher nicht den Daten, sondern denen zu verdanken, welche im Vorfeld die musikalisch relevanten Entscheidungen getroffen haben.

3. Zum prekären ästhetischen Status von Sonifikation Iannis Xenakis war der erste, der das Problem ästhetischer Formalisierung im Symbolischen sowohl in Bezug auf seine medialen als auch künstlerischen Prozesse grundlegend neu anging und das Spektrum an möglichen Maschinen-Operationen mit Verfahren und Erkenntnissen der Spieltheorie, Mengenlehre und Zahlentheorie, mit Wahrscheinlichkeits- und Zufallsoperationen enorm erweiterte.15 Hintergrund waren persönliche Erfahrungen mit Massenphänomenen, nicht zuletzt während seiner Zeit als Widerstandskämpfer in Griechenland, für die er adäquate repräsentative Strukturen im Ästhetischen suchte. Xenakis war mathematisch gebildet und als Architekt und Komponist derjenige, der über einen breiten transdisziplinären Zugang verfügte. Vor diesem Hintergrund war es für ihn nicht ungewöhnlich, über klangliche wie strukturelle Über-

15 Vgl. Xenakis 1963

Michael Harenberg und Daniel Weissberg

215

setzungen verschiedener Codes in Ästhetiken unterschiedlicher Medien und eben auch der Musik nachzudenken. In seinem musikalischen Werk finden sich nicht nur instrumentale, elektronische und Computermusik, sondern auch eine interessante Mischung aus traditionellen und völlig neuartigen Elementen musikalischer Medialität als Basis kompositionstheoretischer Modellierung, die sich auf algorithmische Prozesse beziehen. Im Kern seiner Arbeiten stehen neuartige Ansätze von irreversiblen Zeitstrukturen und damit einer mathematisch abgeleiteten strukturellen Expansion formaler Kausalität, die ihn neuartige Zugänge zur Dynamisierung formaler Prozesse finden ließen. Die grundlegende Fragestellung dabei war, ob und wie man Ordnungs- und Nichtordnungsstrukturen aus chaotischen Prozessen gewinnen kann, wie überhaupt nach dem Zweiten Weltkrieg versucht wurde, naturwissenschaftliche Phänomene aus Physik und Biologie für ästhetische Prozesse fruchtbar zu machen. »Can order be established from noise?«16, fragt Michel Serres 1976 Xenakis und formuliert damit einen der Glaubenssätze der Kybernetik II, die nach solchen universal gültigen Regeln fragte. Es zeigt sich, dass gerade die auf ästhetische Wirkung abzielende künstlerische Adaption mathematischer Verfahren von Xenakis interessante Ergebnisse hervorbringt. Die rein technische Anwendung derselben Verfahren dagegen ist von keinerlei ästhetischer Relevanz und endet nur zu oft im Kitsch von Mandelbrotbildern und fraktalen Fjordsimulationen. Wenn Xenakis 1953 in den Statikberechnungen von Le Corbusier die Musik von Metastaseis erkennen kann, dann eben nicht aufgrund von technischen Übertragungen, sondern aufgrund seiner künstlerischen Imagination als Komponist. Ganz im Analogen geht es dabei bereits um Erprobung der Programmierung und Algorithmisierung dynamischer Formen des Ästhetischen und deren Automatisierung, die einhergingen mit Fragen der Kybernetik und der künstlichen Intelligenzforschung, wie sie bereits in der Computermusik bei Hiller und Isaacson eine Rolle gespielt haben. Lange vor der digitalen Revolution erprobte Xenakis gemeinsam mit Komponisten wie Edgar Varèse, Karlheinz Stockhausen und Luigi Nono im Ästhetischen formaler algorithmisierter kompositorischer Prozesse die Gestaltung jener Prozeduren, die heute im alltäglichen Umgang mit unseren informatorischen Universalmaschinen die Grundlage für musikalisches Handeln im Digitalen zu werden beginnen.17 Der prekäre ästhetische Status der akustischen Ergebnisse von Sonifikationen, die immer wieder mit Ergebnissen genuin kompositorisch-musikalischer Setzungen verwechselt und entsprechend konzertant aufgeführt werden, hat dort ihre Wurzeln.

16 Xenakis 1985. 17 Vgl. Serres 1993.

216

Vorläufige Vorläufer

Die an sich und per Definition nicht-musikalischen Ergebnisse werden durch ihre zugrundeliegenden Ausgangsmodelle aufgeladen und dann als vermeintlich interessante ästhetische Strukturen rezipiert, was ihrem formalen Status widerspricht. Nur zu leicht verwechseln wir die klingenden Ausgangsmodelle mit dem Wunsch, diese real in einer kompositorischen Umsetzung zu erleben. Die Sehnsucht nach einem nach wie vor romantischen Kurzschluss von Maschine und Mensch bzw. von künstlicher Intelligenz und künstlerischer Subjektivität, wie ihn die objektive Ästhetik Benses ebenso geträumt hat wie die KI-Forschung bis in die 90er Jahre, ist die Grundlage dieser Haltung. Wie aber können wir zwischen automatenhafter Selbstigkeit und ästhetischer Form unterscheiden? Das Unnatürliche, gegen das Automaten bis zu den Reproduktionsinstrumenten immer schon verstoßen, ist ihre unheimliche und dem Symbolischen weit überlegene Fähigkeit, direkt das Reelle zu adressieren und damit einen unerhörten Medienwechsel zu vollziehen, wie wir ihn eigentlich erst vom Grammophon kennen. Die Maschine, der Automat als Medium, kann die ontologische Exklusivität musikalischer Kunst nicht länger garantieren. Und was er kann und tut, die Überführung in andere mediale Qualitäten und mediale Phänotypen, kann er nicht verbergen. In seiner automatenhaften, streng formalisierten Programmsteuerung ist ohne Täuschungsabsicht mechanischer Selbstigkeit nicht zu verbergen, dass es in dieser seelenlosen Vergänglichkeit keine Transzendenz gibt, kein gespiegeltes Begehren existiert. Immer wird in der maschinenhaft-gleichförmigen, gleichsam unendlichen, den Tod überlistenden Wiederholung das mechanisch Lebendige mit dem Gestus einer ewigen Darbietung, eines Her- und Vorbringens vorgeführt. Allerdings verlieren die Automaten im 18. Jahrhundert durch die Aufwertung des Modells und des Experiments als erkenntnistheoretische Kategorien ihre Unschuld. Sie müssen seither als technische Materialisierungen kalkulatorischer Modelle von mechanischen, pneumatischen, später elektrischen und schließlich mathematischen Theorien angesehen werden, sie zeigen dem Modell immanente mögliche Erscheinungsformen und deren Grenzen, kurz: sie werden selbst zum Medium kalkulatorischer Welterkenntnismodelle. Und damit entsteht eine neue Form von Automaten, die nicht länger das nachahmende leibliche, spielerische »als ob« der Dazwischenkunft von Maschine und Natur bzw. Menschenbild thematisieren, sondern die Mechanik formalisierter und symbolhafter Zahlenarithmetik selbst.18 Damit mutieren sie zwar von der Projektion unserer Phantasien direkt zum kunstfähigen Material, aber noch nicht zur künstlerischen Form und Struktur selbst. Auch an den höchstentwickelten Maschinen unserer Zeit sitzen Menschen.

18 Vgl. Tholen 2002 111 f

Michael Harenberg und Daniel Weissberg

217

4. Der Sound der Daten Im oben genannten Tagungs-Programm wird auf die Aspekte von strukturell-technischen Transpositionen verwiesen. Die universelle Überführbarkeit all dessen, was Computer in Form binärer Daten verarbeiten können, öffnet diesen Verfahren jegliche technische Phantasie. Dabei war im analogen Zeitalter klar, dass hinter jedem Klang ein Stück diskrete Wirklichkeit steht, wie z. B. auch mit jedem Bildprozess ein Prozess der Wirklichkeit verbunden war. Die Welt des Digitalen hat solche scheinbaren Gewissheiten radikal in Frage gestellt und mechanische Bezüge des Automatenzeitalters der ersten industriellen Revolution und ihrer ästhetischen Ausprägungen radikalisiert und ins unendliche gesteigert. Der digital programmierte und errechnete Klang ist immer eine Ansammlung von Daten. Aber Daten sind nur Daten, noch keine Informationen, geschweige denn Kunst. Daten können allerdings Informationen transportieren, die sie aber erst offenbaren, wenn diese entsprechend und adäquat, z. B. ästhetisch gestaltet und (re-)interpretiert werden. Als Menge von Daten kann Klang grundsätzlich berechenbaren Funktionen unterworfen werden. Die machen eine qualitativ andere Datenmenge aus ihm. Ein entsprechendes Ausgabegerät zeigt dem staunenden Ohr die sonifizierte Datenmenge dann wieder als Klang. Erst die künstlerische Gestaltung des Materials, das diesen technischen Transformationen unterworfen wird, erzeugt im Kopf des Betrachters aber eine zum Klang gehörende ästhetische Wirklichkeit des Wirklichen, wie sie maschinell nicht herstellbar ist.19 Information ist damit, genau wie das Digitale, eine abstrahierende Beschreibung für ein Medium, als dessen Form gestaltete Klänge erscheinen können. Deshalb existiert keine digitale Musik, kein digitaler Klang an sich. Was wir nach der Digital-analog-Wandlung sonifizierter Daten wahrnehmen, sind Klänge, die digital vorliegende Daten darstellen. Das grundsätzliche Problem damit ist, dass wir Medien und also auch das Digitale nur mittelbar beobachten können, weil die Daten selbst keinerlei Hinweise auf ihre Geschichte und Herkunft mit sich tragen. Deshalb sind im binären Universalalphabet ebenso universale Übersetzungsleistungen zwischen verschiedenen Medientypen möglich, wie sie vor allem in der Medienkunst der 1990er Jahre thematisiert wurden. Das Medium wird durch Verfahren wie die Sonifikation immer deutlicher zur Botschaft selbst. Im ausgesuchten oder gar inszenierten Fall kann der Übersetzungsprozess der Sonifikation zu einem Ergebnis führen, das als ästhetisches Resultat sinnvoll re-interpretiert werden kann. Im Normalfall gelingt dies aber kaum, da auf der Ebene des Musikalischen beliebige Kopplungen aller möglichen Parameter den Status arbiträrer Daten

19 Vgl. Harenberg 2006, 389400

218

Vorläufige Vorläufer

nicht übersteigen. Beim Versuch, diese ästhetisch nachträglich aufzuladen, indem sie etwa im Rahmen einer Konzertanmutung präsentiert werden, führt dann zwangsläufig zu einer nichtssagenden Hörerfahrung maschinenhafter Logik. Es ist, als ob wir einem Server bei der vernetzten Maschinenkommunikation auf Protokollebene zuhören, in der Hoffnung, etwas über die über ihn laufende semantische Kommunikation zu erfahren. Diese Phantasie hatte interessanterweise bereits Leibniz in Bezug auf die Möglichkeit einer »wahrhaftigen« Kommunikation, in der alle den Status einer Maschine einnehmen und in einer algebraisierten Welt in Zahlen nach festgelegten mathematischen Operationen kommunizieren. Das ist der erkenntnistheoretische Ausgangspunkt für die mit der Turingmaschine abgeschlossene Entwicklung algorithmisch-semantischer Maschinen. Zwei Gefahren bedrohen unaufhörlich die Welt: die Ordnung und die Unordnung. (Paul Valérie) In diesem Spannungsfeld zwischen Ordnung und Unordnung ist die Verwendung strukturgenerierender Prozesse in der Musik zu sehen. Um Übertragungen außermusikalischer Daten oder Formeln in Musik ging es nie. Immer ging es darum, ein geeignetes Verfahren zu finden, sei es für die Realisierung bestimmter musikalischer Intentionen, sei es zur Gewinnung musikalischer Erfahrungen, die über den Bereich des subjektiv Imaginierbaren hinausgehen. Auch der Cage’sche Versuch, dem nicht-Intentionalen eine Form zu geben, ist eine musikalische Intention. Die Medialität virtueller Räume des Digitalen und dem, was in und mit nicht-hierarchischen, aber dynamisch ineinander verschachtelten Strukturmodellen des Kompositorischen geschieht – das ist das Thema, das sich mit dem epochalen Bruch aktueller Musikproduktion wie -Rezeption artikuliert, hin auf die neue Qualität einer spezifischen Ästhetik des Digitalen nach der explorierenden Phase strenger ästhetischer Figurationen und ihrer nichtlinearen Strukturen. Eine mediale Virtualität kompositorischer Ästhetik, wie eine Ästhetik medialer Virtualität, lässt sich als eine der Optionen zeigen und hilft, diese neue Qualität beschreibbar zu machen, solange uns eine grundlegende Philosophie des Virtuellen fehlt. Es bleibt die Anstrengung der ästhetischen Gestaltung bis in die Meta-Ebene algorithmischer Strukturen, die am Ende den Unterschied zu einer arbiträren mechanischen Beschreibung technologischer Prozesse hörbar werden lässt. Diese bleiben Klänge, die nach dem Bonmot von John Cage noch lange nicht Beethoven sind. Musik bedeutet nichts außerhalb ihrer selbst, sagte Strawinsky in seinen Vorlesungen Poetics of Music. D. h. alle Bedeutungen, die Musik zugesprochen werden, sind Deutungen, die ein Feld von Referenzen außerhalb der Musik bedingen. Bei der Wahrnehmung

Michael Harenberg und Daniel Weissberg

219

von Musik sind wir mit einem vielfältigen Geflecht musikalischer und außermusikalischer Bezüge konfrontiert, das aufgrund individueller diskontinuierlicher Aufmerksamkeit und eines individuellen Felds außermusikalischer Referenzen von Person zu Person differiert. Wenn Sonifikation nachvollziehbare und reproduzierbare Ergebnisse liefern soll, lässt sich daraus folgern, dass sie mit Musik, wie wir sie aus Geschichte und Gegenwart kennen, nicht allzu viel zu tun haben darf.

5. Fazit Der Versuch, die Sonifikation in eine Kulturgeschichte einzubetten und Bezüge zur Musikgeschichte und zur Kompositionstheorie zu finden, ist unseres Erachtens zum Scheitern verurteilt. Eine eigentliche Vorgeschichte der Sonifikation in der Musik gibt es nicht. Mehr noch scheinen Auseinandersetzungen mit Erkenntnissen der Musikgeschichte und -theorie im Kontext der Sonifikationsforschung eher vermieden zu werden, da sie den gängigen Rechtfertigungsstrategien in die Quere kommen. Fruchtbarer ist es, Sonifikation selbst als ein kulturgeschichtliches Phänomen zu betrachten. Sie gehört zu denjenigen Erscheinungen, die durch die vergleichsweise einfache Zugänglichkeit und Verfügbarkeit klanglicher und visueller Gestaltungsmittel am Computer erst ermöglicht wurden. Müssten Daten in Partituren übertragen und diese von Musikern geübt und einstudiert werden, wäre uns wohl der überwiegende Teil der trivialen Umsetzungen von Daten in Klang erspart geblieben. Einfache Verfügbarkeit medialer Gestaltungsmittel motiviert Nutzerinnen und Nutzer wenig zu deren kritischer Reflexion. Sie verleitet dazu, Verfahren vor allem darum zu verwenden, weil deren Anwendung einfach ist. Auch dies ein Aspekt, der die Botschaft des Mediums selbst in den Vordergrund rückt. In künstlerischen und kunsthandwerklichen Bereichen führt das zu affirmativen Resultaten, deren Bedeutung sich in ihrer schieren Existenz erschöpft. In der Wissenschaft verleitet es dazu, Lösungen zu entwickeln, für die das Problem erst noch gefunden werden muss. Es ist nicht Wissensdrang oder künstlerisches Begehren, aus denen sich eine spezifische Herangehensweise ableiten, sondern eine Faszination für die Herangehensweise selbst, die dadurch autoreferentiell und bedeutungslos wird.20 Wenn eine Datenfolge algorithmisch bearbeitet wird, dann ist im Resultat nie nur die veränderte Datenfolge, sondern immer auch der Algorithmus selbst repräsentiert. Am Beispiel von Soundeffekten (wie z. B. Wah-Wah oder Overdrive

20 Vgl. Hörl 2005 und Krämer 1988.

220

Vorläufige Vorläufer

etc.) wird deutlich, dass die Algorithmen die ursprüngliche Datenfolge sogar verdecken können. Das klangliche Resultat ist in diesen Fällen weitgehend unabhängig von den ursprünglichen Klängen. Vergleichbares gilt für sonifizierte Daten. In der Hoffnung, dass durch eine Transformation von Datenreihen in Schallwellen etwas hörbar wird, das sich anderen Formen der Analyse entzieht, zeigt sich die Dialektik einer einerseits rationalen Vorstellung von der binären Repräsentierbarkeit von Wirklichkeit und andererseits dem Glauben an eine Bedeutung dieser binären Repräsentationen, die durch technisch mediale Transformationen hindurch wirksam bleibt, was einem mittelalterlichen, eher mystischen Blick auf die Zahlen nahe kommt. Kulturgeschichtlich lassen sich vergleichbare Phänomene auf dem Gebiet der Musik besonders gut beobachten. Sie finden sich in zahlreichen Werken, von denen viele in ihrer Zeit durchaus ihren Effekt hatten, aber schon bald in der Bedeutungslosigkeit versunken sind, seien es die zahlreichen Orchesterwerke der Mannheimer Schule mit ihrer modischen Verwendung der neu entdeckten Orchestereffekte, oder die zahllosen, hoch virtuosen Stücke des 19. Jahrhunderts, die über das zur Schau Stellen stupender Lautstärke und schneller Läufe nicht hinaus kamen. Waren es in den genannten Beispielen die Errungenschaften des Instrumentenbaus und die zunehmende gesellschaftliche Akzeptanz des Einsatzes maximaler Körperkraft beim Musizieren, so sind es in den letzten Jahrzehnten die Möglichkeiten, kompositorische Entscheidungen und das Generieren von Strukturen an Computerprogramme zu delegieren, welche eine vergleichbare Faszination ausüben und wohl auch die Entwicklung der Verfahren zur Sonifikation begünstigt haben. Wenn diese eine kulturgeschichtliche Bedeutung hat, dann die, dass sie sich in die Geschichte solcher Experimente mit dem neuen digitalen Medium einreiht. Wenn uns heute die Überlegungen von Serres, von Kybernetik I und II, naiv vorkommen, dann hat das auch damit zu tun, dass wir uns bereits besser in den neuen technischen Referenzräumen bewegen können. Diese auch gegen die Setzung und Logik von Ingenieuren und Programmierern zu verstehen und interessant zu gestalten, wird auch weiterhin die Aufgabe von Komponisten und Künstlern bleiben.

Michael Harenberg und Daniel Weissberg

221

6. Quellen Bahr, Hans Dieter (1983): Über den Umgang mit Maschinen, Tübingen. Enders, Bernd (2005): Mathematische Musik – musikalische Mathematik. Saarbrücken. Felderer, Brigitte (1996): Wunschmaschine Welterfindung. Eine Geschichte der Technikvisionen seit dem 18. Jahrhundert, Wien. Harenberg, Michael / Weissberg, Daniel (Hg.) (2010): Klang ohne Körper: Spuren und Potenziale des Körpers in der elektronischen Musik, Bielefeld. Harenberg, Michael (2003): Virtuelle Instrumente zwischen Simulation und (De)Konstruktion, in: Kleiner, Marcus S. / Szepanski, Achim (Hg.), Soundcultures. Über elektronische und digitale Musik, Frankfurt a. M., S. 69-94. Harenberg, Michael (2006): Die Ästhetik der Simulation. Musik aus virtuellen Räumen, in: Schade, Sigrid / Tholen, Christoph (Hg.), SchnittStellen, Basel, 389-400. Hermann, Thomas (2008): Taxonomy and Definitions for Sonification and Auditory, ICAD 2008, http://www.sonification.de/publications/media/Hermann2008-TAD. pdf, 18.11.2010. Hörl, Erich (2005): Die heiligen Kanäle. Über die archaische Illusion der Kommunikation, Diaphanes Verlag, Zürich, Berlin. Kramer, Gregory (1994): An introduction to auditory display, in: Kramer, Gregory (Hg.), Auditory Display: Sonification, Audification and Auditory Interfaces, Reading, MA, 1-78. Krämer, Sybille (1988): Symbolische Maschinen – Die Idee der Formalisierung in geschichtlichem Abriß, Darmstadt. Kittler, Friedrich (1986): Grammophon, Film, Typewriter, Berlin. Serres, Michel (1993): Hermes, Bd. 4, Verteilung, Berlin. Xenakis, Iannis (1985): Arts/Sciences: Alloys. The Thesis Defense of Iannis Xenakis, in: Pendragon Press Aesthetics in Music Series 2, New York. Xenakis, Iannis (2001): Formalized Music: Thought and Mathematics in Composition, Paris 1962, Pendragon Revised Edition, New York.

222

Vorläufige Vorläufer

Umdeuten Das Phänomen der Sonifikation zwischen Musikgeschichte, Medientechnik und Markt Martin Rumori

1. Einleitung Sonifikation ist derzeit in Kunst und Wissenschaft in aller Munde. Zahlreiche Forschungsprojekte wurden in den letzten Jahren allein im deutschsprachigen Raum gefördert, die die Sonifikation explizit im Schilde führten.1 Projekte mit indirektem Bezug, wie etwa im Sound- und Interaktionsdesign, gibt es vermutlich noch weitaus mehr. Auch im Bereich der Musik und Klangkunst ist die Verwendung von Sonifikationstechniken innerhalb des letzten Jahrzehnts geradezu ein Modephänomen geworden. Egal, ob es sich dabei um Sequenzen des menschlichen Erbguts, Wetter- oder Börsendaten handelt – überall wird sonifiziert, was das Zeug hält.2 Auf der anderen Seite steht die anhaltende, auch von Sonifikationsforschern selbst beklagte Skepsis seitens der Naturwissenschaften gegenüber dem epistemogenen Potenzial von Sonifikation. Diese zieht dabei sowohl Sonifikation als Methode der Erkennt-

1 Am Institut für Elektronische Musik und Akustik in Graz zum Beispiel SonEnvir (2005-2007), QCDAudio (2007-2010), gegenwärtig die Entwicklung eines akustischen Interface zur Tremoranalyse sowie SysSon zur Sonifikation von Klimadaten.. 2 Vgl. etwa die Installation Inhale Exhale; Succession (2010) von Terike Haapoja im Rahmen der Ausstellung ISEA 2010 RUHR oder Johannes Kreidlers Chart Music (2009). Bei Haapoja legitimiert die Anwendung von Sonifikation die Gestaltung der auditiven Sphäre einer Installation, die sonst eines anderen ästhetischen Rückhalts bedürfte. Kreidler bezieht sich nicht einmal mehr ausdrücklich auf wissenschaftliche Sonifikationsverfahren, sondern nutzt nur noch den Marketing-Effekt, wenn Börsendaten zu Melodien werden.

223

nisproduktion (vor allem hinsichtlich deren Objektivierbarkeit) als auch Sonifikation als Verfahren zur Repräsentation von Forschungsergebnissen (also deren Publikation und Verbreitung) in Zweifel.3 Hingegen verläuft die geisteswissenschafliche Betrachtung der Sonifikation, wenn sie überhaupt stattfindet, weitgehend kritiklos, sowohl hinsichtlich ihrer wissenschaftlichen als auch ihrer künstlerischen Anwendungen.4 Im Diskurs der Populärwissenschaft und in den Feuilletons werden Sonifikationen nach wie vor als etwas Neues behandelt, das gleichermaßen exotisch wie auch kurios ist.5 Wie lässt sich dieses widersprüchliche Bild der Sonifikation erklären? Woher rührt ihre starke Verbreitung, worauf gründet sich ihre rasche Etablierung als einer eigenen Forschungsdisziplin? Warum lenkt sie allerorten so große Aufmerksamkeit auf sich? Wodurch wird die Skepsis ihr gegenüber begünstigt? In seinem Artikel Datenkörper aushorchen6 verweist Andi Schoon auf die doppelte Natur der Sonifikation: die »Transformation von Unhörbarem in hörbare Phänomene durch den Einsatz akustischer Medientechnologie« auf der einen Seite, die »Mittel zur Erkenntnisgewinnung […], bei denen das geschulte Ohr eine zentrale Rolle einnimmt« auf der anderen Seite. Zum einen geht es also um technische Verfahren, die erst durch die Medienentwicklung der letzten ca. 130 Jahre möglich geworden sind, zum anderen um die Weiterentwicklung der Kulturtechnik des Hörens. Dahinter verbirgt sich letztlich die ästhetische Annäherung an die hörbaren Sinnesobjekte, und damit eine Ontologie des Klangs. Aus dieser doppelten Natur der Sonifikation lässt sich die Erkenntnis ableiten, dass ihre Geschichte nur als kombinierte Betrachtung ihrer medientechnischen Voraussetzungen und der gleichzeitigen Emanzipation des Klangs begreifbar ist. Diese Engführung von technischer und ästhetischer Entwicklung ist der Musik- und Mediengeschichte des 20. Jahrhunderts bereits inhärent, auch wenn man sie nicht ausdrücklich aus dem Blickwinkel der Sonifikation betrachtet. Deshalb betrifft sie grundsätzlich auch alle Anwendungen der Sonifikation, sowohl die wissenschaftlichen als auch die künstlerischen.

3 Vgl. etwa de Campo et al. 2006, 7, die der allgemeinen Skepsis verschiedener Wissenschaftsdisziplinen gegenüber der Sonifikation aufgrund mangelnder erfolgreicher Anwendungen eine gewisse Berechtigung einräumen, sowie Grond, Dall‘Antonia 2008, 3: »[…] beyond the well known cultural bias against sonification there is also a lack of standards […]«. Zumeist wird diese Skepsis jedoch nur mündlich in den jeweiligen Projekten verhandelt, und eine direkte, veröffentlichte Kritik aus anderen Wissenschaftsbereichen scheint nicht zu existieren: Denn in welchem Forum sollte diese auch publiziert werden? 4 Vgl. Schoon 2011. 5 Als aktuelles Beispiel vgl. etwa Knoke 2011. 6 Vgl. Schoon 2011.

224

Umdeuten

Auf der Grundlage dieser Perspektive soll der vorliegende Artikel ein möglichst differenziertes Bild des Phänomens der Sonifikation zeichnen, das eine Annäherung an die oben aufgeworfenen Fragen ermöglicht. Ein Hype, wie er der Sonifikation in den letzten Jahren zukommt, führt zwangsläufig zu Verzerrungen, Pauschalisierungen und Vereinfachungen, insbesondere, wenn er gleichzeitig in derart vielen Bereichen stattfindet. Dieser Tendenz versucht der vorliegende Artikel entgegen zu wirken. In Abschnitt 2 werden Wegbereiter der Sonifikation aus den Bereichen der Musik-, Technik- und Mediengeschichte identifiziert und ihr Verhältnis zur Verklanglichung von Daten dargestellt. In Abschnitt 3 geht es um verschiedene Ansprüche, aber auch Versprechungen hinsichtlich des Potenzials der Sonifikation als Werkzeug zur Wissenserweiterung, während Abschnitt 4 gegenwärtigen Symptomen nachgeht, die die Verklanglichung von Daten als eine modische Marke erscheinen lassen. Dabei soll deutlich werden, dass sich die gegenwärtigen Diskurse um die Sonifikation auf mehreren, äußerst vielgestaltigen und miteinander oft inkompatiblen Ebenen abspielen, die mit den widersprüchlichen Stellenwerten der Sonifikation in den unterschiedlichen Kontexten korrespondieren.

2. Historische Wegbereiter der Sonifikation Die Popularität der Sonifikation ist wesentlich auf die erhöhte allgemeine Aufmerksamkeit gegenüber dem Auditiven innerhalb der letzten Jahre zurückzuführen. Die Verkündung eines acoustic turn7 gründet auf der Beoachtung, dass in den letzten Jahrzehnten nach und nach viele Bereiche unseres alltäglichen Lebens eine gezielte Gestaltung ihrer auditiven Sphäre erfahren haben. Sounddesign, einst hervorgegangen aus der Nachvertonung von Geräuschen im Film, prägt mittlerweile die meisten Alltagsgegenstände, sogar Lebensmittel. Digitale Sucherkameras sollen beim Auslösen nach dem Spiegelreflexprinzip klingen, obwohl schon analoge Sucherkameras gar keinen klickenden Spiegel hatten, sondern nur einen akustisch weniger markanten Verschluss. Musik, die bei längerem Genuss möglichst unerträglich ist, vertreibt Obdachlose von Bahnhöfen,

7 Vgl. Meyer 2008. Es bleibt zu diskutieren, inwieweit der Begriff acoustic turn adäquat die kulturelle Entwicklung erfasst, die mit ihm benannt werden soll. Denn »akustisch« bezieht sich vornehmlich auf die physikalische Erscheinung des Schalls als sich ausbreitende Druckwellen. Schulze 2008 spricht von einem sonic turn, Schoon 2011 verweist mit dem Begriff auditory turn auf die Vielzahl der Formulierungsvarianten. Letzterer scheint am angemessensten, da er auch die Wahrnehmung und Kognition von Schall einschließt. Die grundsätzlich immer angebrachte Skepsis gegenüber Verkündungen von »Turns« jeglicher Art, insbesondere, wenn sie sich nahezu auf die Gegenwart beziehen, bleibt davon unberührt.

Martin Rumori

225

während das vollständige Ruhigstellen eines Computers mit Standardeinstellungen zu einer immer umfangreicheren Aufgabe gerät. Das World Soundscape Project, das sich in den 1970er Jahren um R. Murray Schafer formierte, betrachtet unsere Umgebung unter klangökologischen Gesichtspunkten. Obwohl die gezielte Gestaltung etwa der städtischen Klangsphäre, also der Einzug des Sounddesign in die Architektur und Stadtplanung, nicht zum ursprünglichen Programm dieser Bewegung gehörte, kann diese gegenwärtige Tendenz dennoch zu ihren Folgen gerechnet werden. Das Erstarken der Sonifikation und ihre offizielle Taufe im Jahr 1992 fällt nicht zufällig in denselben Zeitraum wie die Professionalisierung des Sounddesigns. Auf der einen Seite hat sie den acoustic turn mitbestimmt, indem sie die Verklanglichung zu einer neuen Wissenschaftsdisziplin erhoben hat. Gleichzeitig konnte und kann die Sonifikation von der Verbreitung anderer Bereiche profitieren, die sich mit Strategien der Klanggestaltung befassen. Das Sounddesign hat die Sonifikation hier maßgeblich befruchtet, da beide das Anliegen teilen, Klänge gezielt im Hinblick auf die Vermittlung von Information zu formen. Imperativ der klanglichen Gestaltung Das Verständnis von Klang als etwas, das sowohl gestaltbar als auch gestaltenswert ist, hat sich im Verlauf der Musikgeschichte herausgebildet. Von jeher ist der Instrumentenbau ein Wegbereiter der Klanggestaltung, auch wenn er nicht Klänge, sondern Klangpotenziale hervorbringt. Mit der ästhetischen Entwicklung der Musik im 20. Jahrhundert hat sich auch deren Instrumentarium wesentlich erweitert. Spätestens mit Luigi Russolos Schrift L‘Arte dei Rumori (Die Kunst der Geräusche) aus dem Jahre 1913, die als Futuristisches Manifest der Musik angesehen werden kann, wurden Alltagsgeräusche als legitimes, musikalisch verwendbares Material etabliert. Bereits in der Spätromantik und im Impressionismus hatte sich der Klang als eine eigene musikalische Kategorie zu emanzipieren begonnen. Russolo baute nun systematisch ganze Orchester mimetischer Instrumente, die Intonarumori (ital. für »Geräuscherzeuger«). Sie erzeugten Klänge, die den sechs von Russolo identifizierten Geräuschfamilien zugeordnet waren und mit Attributen wie donnern, zischen oder murmeln8 beschrieben wurden. Auf diese Weise hat Russolo ein abstraktes Verständnis von Klängen befördert, in welchem sie seitdem unabhängig von ihren physikalischen Quellen betrachtet werden können. Diese bewusste Abstraktion ist der entscheidende Unterschied zur musikalischen Imitation, wie es sie schon immer als Kompositionstechnik, aber auch im Instrumentenbau gegeben

8 Russolo 2000, 11.

226

Umdeuten

hat.9 Wenn sich nun mit Klängen jeglicher Herkunft, aber auch jeglichen Charakters Musik machen lässt, so werden allmählich nicht mehr nur die von Musikinstrumenten erzeugten Klänge, sondern auch Alltagsgeräusche zur ästhetisch signifikanten und gestaltenswerten Variable. Nahezu zeitgleich mit dem musikalischen Impressionismus setzte gegen Ende des 19. Jahrhunderts die Verbreitung der technischen Medien ein, mit denen Klänge nun räumlich übertragen und gespeichert werden konnten. Das Telephon ermöglichte die Echtzeitübertragung durch Umwandlung von Schall in elektrische Signale, während der Phonograph und später das Grammophon die Schallspeicherung erlaubten, zunächst durch Konservierung der mechanischen Schwingungen in einem Trägermedium. Damit vollzog sich die räumliche und zeitliche Ablösung konkreter Klänge von ihren Quellen in der medientechnischen Domäne – eine weitere Voraussetzung für die Behandlung von Klängen als eigenständige ästhetische Objekte. Die Entwicklungen der darauffolgenden Jahrzehnte erweiterten das Instrumentarium, Klänge auf der Grundlage ihrer elektrischen Repräsentation zu verändern und schließlich auch zu erzeugen. Mit dem symbolischen Zugriff auf Klang in Form von Samplewerten, der mit der digitalen Signalverarbeitung in den 1950er Jahren möglich wird, sind Klangobjekte endgültig zu etwas frei Gestaltbarem geworden. Beide Voraussetzungen, das ästhetische Verständnis von Klang außerhalb eines musikalischen Kontexts als etwas Gestaltenswertem und die medientechnischen Mittel, die Klänge faktisch gestaltbar machen, sind die ausschlaggebenden Wegbereiter des acoustic turn. Die Feststellung, dass etwas gestaltenswert und zugleich gestaltbar ist, zieht den Imperativ nach sich, dass man es auch zu gestalten habe. Dieser Imperativ der klanglichen Gestaltung traf in der zweiten Hälfte des 20. Jahrhunderts auf die allgemein zunehmende Verbreitung von Marketing und Werbung. Deren Professionalisierung ist dadurch gekennzeichnet, zuvor kontingente Leerräume aufzuspüren und gezielt gestalterisch zu besetzen. Es ist daher nicht verwunderlich, dass sich in der Folge auch mehrere klangaffine Bereiche desselben Imperativs angenommen und sich in seinem Nährboden weiterentwickelt (wie die Musik einschließlich ihrer Distribution) oder als distinkte Tätigkeitsfelder konstituiert haben (wie die Sonifikation oder das Sounddesign). Inzwischen ist der gestaltende Eingriff in die Klangsphäre nur noch selten mit dem Selbstverständnis einer künstlerischen Intervention verbunden, sondern mit einer bis jetzt überraschend kritiklosen, affirmativen Besetzung des Auditiven.10 Das

9 Auf der einen Seite die musikalische Referenzierung zum Beispiel von Naturgeräuschen (Donnerrollen, Waldesrauschen), auf der anderen Seite etwa die Benennung der Register einer Pfeifenorgel nach Instrumenten, mit denen ihr Klang assoziiert wird: Voix Celeste, Vox humana, Rohrflöte usw. 10 Vgl. Volmar 2010 und Schoon 2011, die auch beide auf die fehlende kritische Reflexion dieses Phänomens im Diskurs der Sound Studies verweisen.

Martin Rumori

227

ist nicht zuletzt an der zunehmenden Diversifizierung des Sounddesigns ablesbar, die Teilgebiete wie das sound branding entstehen lässt, und an der Professionalisierung dieser Entwicklung durch eigens dafür geschaffene Studiengänge. Im Kontext des acoustic turn erscheint die zunehmende Verbreitung der Sonifikation also durchaus nicht als das Neue, als das es in den Feuilletons gern dargestellt wird. Vielmehr lässt sie sich als Bestandteil eines geschichtlichen Komplexes verstehen, in dem ästhetische und medientechnische Entwicklungen es ermöglicht haben, dass sich Klang als eigenständig betrachtete Entität etabliert hat. Für diese »Ebene zwischen dem Akustischen und Ästhetischen«11 wurde der Begriff des ›Sonischen‹ vorgeschlagen.12 In dieser Hinsicht ist Sonifikation eine der Disziplinen, die das Sonische bearbeiten, und zwar in Bezug auf seine Genese aus Daten außerklanglicher Herkunft und auf die Frage, wie sich diese Eigenschaft von Klängen zu ihrem epistemogenen Potenzial verhält. Algorithmische Komposition Wie im letzten Abschnitt beschrieben, verweist eine wesentliche Voraussetzung für die Entwicklung der Sonifikation als eigenständige Disziplin auf die Musikgeschichte: die Emanzipation des Klangs auf ästhetischer Ebene. Aber auch in einem engeren Sinne lässt sich die Musik als wegbereitend für die Sonifikation betrachten. Volker Straebel sieht die Sonifikationsmetapher bereits in der Programmmusik des 19. Jahrhunderts wirksam, als dieser nicht mehr nur eine rein narrative Funktion auf der Grundlage der musikalischen Imitation etwa von Naturgeräuschen zukommt, sondern vermehrt auch abstrakte, zum Teil nicht einmal benannte Gegenstände musikalisch referenziert werden.13 Eine neue Qualität erreicht die Affinität der Musik zur später so genannten Sonifikation in den 1950er Jahren, indem außermusikalische Entitäten, etwa wissenschaftliche Daten oder Verfahren, in musikalische Kompositionsprozesse integriert werden.14 Das ist insbesondere ein Kennzeichnen der algorithmischen Komposition, die alle Techniken umfasst, bei der musikalische Strukturen auf einer symbolischen Ebene erzeugt werden.15 Grundlage dafür ist ein Algorithmus, also eine Vorschrift, deren Anwendung meist musikalische Ereignisse (Noten) oder einzelne ihrer Parameter hervorbringt. Bei dieser Vorschrift kann es sich um einen kompakt fomalisierten mathematischen Zusammenhang handeln, aber auch um eine Zuordnung von nichtmusikalischen Ausgangsdaten zu musikalischen Ereignissen.

11 Wicke 2008. 12 Vgl. ebd. 13 Straebel 2010, 287; vgl. hierzu auch den Artikel von Volker Straebel in diesem Band. 14 Ebd., 288. 15 Vgl. Nierhaus 2008.

228

Umdeuten

Algorithmische Kompositionstechniken haben in der Musikgeschichte eine Jahrhunderte lange Tradition.16 Mit dem Aufkommen des digitalen Computers erhalten sie in der zweiten Hälfte des 20. Jahrhunderts einen besonderen Schub, denn die Repräsentation symbolisch formalisierter Algorithmen in Form von Programmen und deren effiziente numerische Auswertung sind die ureigenste Aufgabe der universellen Rechenmaschine. Die algorithmische Komposition kann insofern als Wegbereiter der Sonifikation angesehen werden, als dass sie selbstverständlich mit außermusikalischen Formalismen und Daten operiert, auf deren Grundlage musikalisch-klangliche Resultate entstehen. Die Transformationsprozesse, die den Zusammenhang algorithmisch komponierter klingender Werke zu ihren Ausgangsmaterialien beschreiben, sind hier auf eine besondere Weise explizit und zumindest theoretisch nachvollziehbar17 – eine wichtige Voraussetzung auch für die Anwendung von Sonifikationen im wissenschaftlichen Kontext. Dennoch darf die historische Entwicklung der algorithmischen Komposition nicht für die Geschichte der Sonifikation vereinnahmt werden. Ihre Werke sind keine Datenmusik im Sinne einer klanglichen Repräsentation abstrakter oder physikalischer Größen. Im Mittelpunkt stand und steht vielmehr die Erkundung abstrakter Formalismen und Regelsysteme hinsichtlich ihres ästhetischen Potenzials: Here, the composer limits the role of sonification to a point of departure for his inspiration. He is not so much interested in the concept of translating scientific data into musical parameters, but rather in emphasizing the connection between the arts of music and mathematics […].18 Das betrifft ebenso den Rücktransfer der Sonifikation, seit es sie unter diesem Namen gibt, in die Musik: die seriöse Anwendung von Sonifikationsverfahren als Kompositionstechniken, die sich heute als Teilgebiet der algorithmischen Komposition ansehen lässt. Auch dabei richtet sich das Erkenntnisinteresse nicht unbedingt darauf, verborgene oder bekannte Strukturen in den Daten erfahrbar zu machen, wie dies bei der wissenschaftlichen Sonifikation der Fall ist. Der Fokus kann zum Beispiel darauf liegen, neue Klänge

16 Historische Beispiele sind das System Guido von Arezzos zur Bildung von Melodien aus Texten (um 1025), der »Kompositionskasten« (»arca musarithmetica«) Athanasius Kirchers (1650) oder die musikalischen Würfelspiele etwa Kirnbergers, Haydns und Mozarts, vgl. ebd. 17 In der Praxis ist der Entstehungsprozess algorithmischer Kompositionen selten vollständig nachvollziehbar, weil kaum alle kompositorischen Entscheidungen formalisiert und dokumentiert, möglicherweise auch nicht formalisier- und dokumentierbar sind und auch die Ausgangsdaten nicht vorliegen oder gar unbekannt sind. 18 Vgl. Straebel 2010, 288, dort am Beispiel der Komposition Pithoprakta von Iannis Xenakis. Vgl. hierzu auch den Artikel von Volker Straebel in diesem Band.

Martin Rumori

229

zu erzeugen, die mit anderen Mitteln bisher nicht realisiert werden konnten, oder kaum benennbare Strukturen von Daten in musikalische, formbildende Strukturen zu überführen, ohne dass die Anwendung von Sonifikationsverfahren auch nur erwähnt würde. Im Zentrum steht dann die Emergenz dieser musikalischen Strukturen, nicht die der Daten. Künstlerische Sonifikation kann aber auch eine ausdrückliche Kommentierung des Verfahrens selbst beinhalten, nebst einer Reflexion der gesellschaftlichen Bezüge zu den zugrundeliegenden Daten. Das Ziel der Sonifikation im künstlerischen Kontext besteht daher nicht primär darin, quantifizierbare Ergebnisse zu produzieren, sondern ästhetische Erkenntnis zu ermöglichen. Das künstlerische Erkenntnisinteresse kann sich dabei durchaus mit dem wissenschaftlichen überlagern, wird mit ihm aber in den meisten Fällen nicht deckungsgleich sein. Technologien der Schallspeicherung und -übertragung Wie bereits erwähnt, besteht eine wesentliche Voraussetzung für die Sonifikation in der Entwicklung technischer Medien, die Klänge erst gestaltbar gemacht haben. Über diese recht allgemeine technische Voraussetzung hinaus ist jedoch auch das Erzeugen und Verändern von Klängen auf der Grundlage von Daten bereits ein medientechnisches Dispositiv. Die Interpretation von Daten als Klang, oder umgekehrt: das Verständnis von Klang als Daten, ist untrennbar mit der Beschaffenheit der Aufzeichnungs- und Übertragungsmedien verbunden. Eine wesentliche Bedeutung kommt dabei der Elektrizität zu: »Schallwandler (Mikrophon und Lautsprecher) führen […] zu einem entscheidenden Medienwechsel, […] durch den die Elektrizität den Status einer neutralen ›Tauschwährung‹ für akustische Sinnesdaten erhält«19. Damit wurde die mediale Umdeutung von Signalen möglich, die als elektrische Spannungsschwankungen repräsentiert sind. Ihr Potenzial wurde bereits 1878 erkannt, kurz nach der Einführung des Telephons, und zur Hörbarmachung von Muskelreizen, später auch von Gehirnströmen, angewendet.20 Im weiteren Verlauf der medientechnischen Entwicklung, insbesondere in der zweiten Hälfte des 20. Jahrhunderts, ist immer wieder eine Engführung der Aufzeichnung und Übertragung von Schall mit der von Daten sichtbar. Häufig wurde bis zur jeweiligen Entwicklung von Speziallösungen die vorhandene Technik zur Schallaufzeichnung oder -übertragung auch für Daten verwendet, da sie von ihrer großen Verbreitung bei geringen technischen Hürden für die Adaption profitieren konnte, letzteres eben auf Grund der universellen Tauschwährung der Elektrizität und des Elektromagnetismus'. So wurde in den 1950er Jahren Magnetband auch für die Aufzeichnung seismischer 19 Volmar 2007, 110. 20 Vgl. ebd.

230

Umdeuten

Daten verwendet, wobei die akustische Abhörmöglichkeit bekannt war, aber nicht systematisch zum Erkenntnisgewinn eingesetzt wurde.21 Auch in der Konsumelektronik waren und sind hörbare Daten (aus heutiger Sicht Audifikationen) immer wieder latent präsent: In den 1980er Jahren der Einsatz der Kompaktkassette als Speichermedium für Heimcomputer, Radioübertragungen und sogar Schallplatten mit als Klang kodierten Computerprogrammen,22 die hörbare Kommunikation von Telefaxgeräten und Modems beim Verbindungsaufbau oder versehentlich in einen CD-Spieler eingelegte Daten-CDs, deren Wiedergabe von vielen Geräten nicht verweigert wird. Obwohl diese Sonifikationserfahrungen nahezu alltäglich waren und nicht nur in Rechenzentren und Speziallabors stattfanden, konnten sie offensichtlich dennoch nicht zu einer breiten Entzauberung von als Klang gedeuteten Daten führen. Nur unter dieser Voraussetzung ist es zu erklären, dass ein Spiegel-Online-Artikel im Jahre 2011 die Audifikation von Programmcode als kurioses Novum anbieten kann, nebst Anleitung zum Selbstmachen mit Open-Source-Software.23 Ein Grund dafür könnte sein, dass die meisten alltäglichen Audifikationen durch nachfolgende Weiterentwicklungen wieder verschwanden und deshalb rückwirkend als überholte Artefakte veralteter technischer Lösungen gelten konnten.24 Vermutlich lag auch die Vorstellung fern, dass die abstrakte digitale Datenwelt für die menschlichen Sinne so unmittelbar erfahrbar sein könnte. In diesem Zusammenhang ist interessant, dass gerade ein Sonifikationsforscher die »Geräuschbelästigung durch sich einwählende Modems« beklagt, mit dem daraus gezogenen Schluss: »Keine Sonifikation […] ist besser als eine schlechte«25. Digitalisierung Obwohl es einige historische Beispiele für Sonifikationen gibt, die ohne Computer durchgeführt wurden,26 und obwohl angesichts der jeweiligen historischen Entwicklungsstände rein technisch noch weitaus komplexere realisierbar gewesen wären, hat

21 Vgl. Dombois 2006. 22 Vgl. Schnabel, Leppin 1999. 23 Vgl. Knoke 2011. 24 Für Heimcomputer kamen sogenannte Datasetten auf, die den normalen Kassettenrekorder als Speichergerät ablösten, sich technisch aber nur durch den fehlenden Lautsprecher und meist spezielle Steckverbinder von ihm unterschieden. Dadurch war die akustische Datenrepräsentation nicht mehr hörbar. 25 Frauenberger 2006. Das Urteil ist doppelt fatal, denn die Modemgeräusche waren zur effizienten Datenübertragung und nicht zum Hören konzipiert, stellten also keine Sonifikation im engeren Sinne dar. 26 Vgl. etwa Kramer 1994, Dombois 2006, Volmar 2007.

Martin Rumori

231

sich die Sonifikation erst als eine eigenständige Wissenschaftsdisziplin konstituiert, nachdem die große Verbreitung der digitalen Datentechnik eingesetzt hatte. Durch ihre digitale Repräsentation wird der Zugriff auf Daten weiter vereinheitlicht. Die ›universelle Tauschwährung‹ ist hier nur noch mittelbar die Elektrizität, indem sie binäre Schaltzustände darstellt. Vielmehr ist es der symbolische Zugriff auf digital gespeicherte diskrete Zahlenwerte, der die Umdeutung von Daten gleich welcher Herkunft in einem anderen physikalischen Kontext, etwa als Schall, als noch naheliegender erscheinen lässt. Diese Umdeutung, wie sie auch der Sonifikation zugrunde liegt, wird weiter durch den Wegfall spezialisierter Speichermedien vereinfacht: Heute sind nahezu alle Datensätze, welche physikalische oder abstrakte Größe sie auch repräsentieren, Dateien auf einer Festplatte. Allerdings haftet jeder dieser Medienrevolutionen eine Tendenz an, die Universalität der Datenrepräsentation in der Praxis wieder einzuschränken, sobald sie sich allgemein verbreitet. Denn diese Universalität bedeutet auch, dass die »nackten« Daten selbst keine Auskunft darüber geben, aus welchem Bezugssystem sie stammen und welche ursprüngliche physikalische Größe sie quantifizieren. Die Möglichkeit, solche »Metadaten« versehentlich oder absichtlich zu ignorieren und die Daten anders zu interpretieren, wird mit fortschreitender kommerzieller Verwertung gewissermaßen künstlich unterbunden. Ein gutes historisches Beispiel ist wieder das Magnetband, das, lose auf zwei einzelne Spulen gewickelt, noch ohne großen Aufwand zu diversen produktiven Missverständnissen führen konnte, selbst wenn es sich ausschließlich um die Wiedergabe von Schallaufzeichnungen handelte: andere Abspielgeschwindigkeit als die der Aufnahme, Rückwärtswiedergabe, unterschiedliche Anordnung und damit Mischung von Spuren bei Zwei- oder Mehrkanalbändern. Die amerikanische Music for Tape der 1950er und 1960er Jahre ist nach diesen technischen Möglichkeiten benannt. Bei der Kompaktkassette für den Massenmarkt wurden die Metadaten des aufgezeichneten Schalls durch technische Normung an den Medienträger gebunden, womit auch die Manipulationsmöglichkeiten wegfielen. Weitere Beispiele für diese Tendenz wurden bereits im Zusammenhang mit den alltäglichen Audifikationen erwähnt. Beim digitalen Computer wird die Unversalität der Datei, an sich nichts als eine Folge von Zahlen, durch unterschiedliche Dateiformate in der Praxis aufgehoben. In Verbindung mit dem hohen Abstraktionsgrad heutiger graphischer Bedienoberflächen ist eine Umdeutung von Daten oft nur noch über Umwege oder über den Rückgriff auf tieferliegende, weniger abstrahierende Schichten der Betriebssysteme möglich: »Im Datei-Menü finden Sie den Eintrag Import; klicken Sie dort auf Rohdaten. Das bedeutet, dass Audacity alle Dateien quasi mit Gewalt als Audiodatei interpretiert«27.

27 Knoke 2011.

232

Umdeuten

Die Betrachtung dieser geschichtlichen Zusammenhänge zeigt, dass die medialen Umdeutungsvorgänge, die auch der Sonifikation zugrunde liegen, weder durch die Digitalisierung ermöglicht noch durch sie besonders naheliegend geworden sind, wie oft behauptet wird.28 Die zunehmende technische Universalisierung der Datenrepräsentation zieht als Folge ihrer großen Verbreitung und kommerziellen Aufbereitung für den Massenmarkt wieder eine Spezialisierung des Datenzugriffs nach sich. Dass sich die Sonifikation gerade zu Beginn der 1990er Jahre als Forschungszweig formiert, mag insofern kein Zufall sein, als Computer bereits weit verbreitet waren, der Zugriff auf die mit ihnen verarbeiteten Daten aber zu dieser Zeit noch auf einem recht niedrigen Abstraktionsgrad, also weitgehend direkt erfolgte. Klangsynthese In der Geschichte der elektronischen Klangerzeugung sind Entwicklungen aus mehreren der erwähnten Bereiche kondensiert, vor allem aus der elektronischen Musik, der Medientechnik und der Digitalisierung. Die elektronische Klangerzeugung hat für die Sonifikation einen besonderen Stellenwert, weil sie die Werkzeuge bereitstellt, die die Umsetzung von universell repräsentierten Daten in Klang erst ermöglichen. 1992, als sich die Gemeinschaft der Sonifikationsforscher formierte, konnte sie bereits auf ein umfangreich entwickeltes Arsenal von Klangsynthesewerkzeugen zurückgreifen, neben einigen Hardware- und hybriden Systemen vor allem auf Software zur Erzeugung von Klängen.29 Ähnlich wie die oben erwähnte Algorithmische Komposition trägt auch die Klangsynthese mit Computerprogrammen die Sonifikationsmetapher bereits auf gewisse Weise in sich, da die zur Steuerung der Software erforderlichen Parameter symbolisch fixiert, also als Daten repräsentiert werden müssen. Aus diesem Grund kommt den digitalen Klangsyntheseprogrammen ein gewisser Aufforderungscharakter (engl. affordance30) für ihre Verwendung zur Sonifikation zu: Klangsynthesealgorithmen brauchen Eingangsdaten, und das, angesichts der möglichen Vielzahl der kontrollierbaren Parameter, in hoher Quantität. Dieser Aufforderungscharakter zeigt sich besonders bei dem noch heute weit verbreiteten Programm Csound, das auch Kramer in der Einleitung der ersten Sonifikations-

28 Etwa Ludger Brümmer in seinem Vortrag »Der Computer als Instrument der Synästhesie«, gehalten am 16.09.2010 im Rahmen des Festivals »zero‘n‘one. Komponieren im digitalen Zeitalter«, Akademie der Künste Berlin. Brümmer führte die Möglichkeit, Klänge und Videos aus demselben Ausgangsmaterial zu erzeugen und in ihrer zeitlichen Dimension entsprechend anzupassen, auf die Digitaltechnik zurück. 29 Vgl. Kramer 1994, 56 ff. 30 Vgl. Norman 1988.

Martin Rumori

233

publikation 1994 bereits erwähnt.31 Es ist dadurch gekennzeichnet, dass es zwei Eingangsdateien erfordert: eine sogenannte Instrumentendatei, die die Beschreibungen der eigentlichen Klangsynthesealgorithmen enthält, und eine sogenannte Partiturdatei mit Listen von Zahlenwerten, die jeweils die Parameter für die einzelnen Klangereignisse enthalten. Diese Partiturdatei lässt sich wegen ihres einfachen Formats hervorragend automatisiert erzeugen, zum Beispiel durch den Rückgriff auf vorhandene Datensätze.32 Da viele musikalische Kompositionsprozesse kaum mit dem manuellen Aneinanderreihen von Zahlenwerten am Computer vereinbar sind, war das automatische Generieren der Partiturdatei auch außerhalb von Sonifikationsanwendungen sogar der Standardfall, wie die Existenz zahlreicher sogenannter Csound-Frontends belegt.33 Es lässt sich also vermuten, dass der Datenhunger digitaler Klangsynthesealgorithmen in Verbindung mit der ebenso digitalen Repräsentation von Daten (und damit den geringer gewordenen medialen Schwellen zwischen Daten und Klangerzeugern) erheblich dazu beigetragen hat, dass Sonifikationen eine größere Verbreitung erreichen konnten.

3. Sonifikation: Anspruch und Widerspruch Wissenschaftliche Sonifikation hat den Anspruch, Daten derart aufzubereiten, dass durch deren sinnliche Wahrnehmung Erkenntnisse über die Daten gewonnen werden können: Strukturen, Regelmäßigkeiten, Abhängigkeiten. Dasselbe Ziel hat auch die Visualisierung von Daten. Der Unterschied liegt zunächst nur darin, dass verschiedene Sinne adressiert werden: bei der Visualisierung das Sehen, bei der Sonifikation das Hören. Mit dem Prozess der wissenschaftlichen Aufbereitung ist in beiden Fällen die Forderung verbunden, dass der Bezug zu den Daten nachvollziehbar gewahrt sein muss. Es muss sichergestellt sein, dass die Wahrnehmungsobjekte, also das Diagramm oder der sonifizierte Klang, die den Daten inhärenten Strukturen nicht verfälschen, so dass Erkenntnisse über sie gewonnen werden können. Dabei soll der Repräsentationsprozess selbst möglichst ausgeblendet werden. Sonifikationen müssen, ebenso wie Visualisierungen, dem Kriterium wissenschaftlicher Objektivität gehorchen. Sehen und Hören erfahren dabei unterschiedliche Urteile in der Forschungsgemeinschaft, wie unter anderem Alexandra Supper in diesem Band sehr aufschlussreich zeigt. Es liegt nahe, dass beide Wahrnehmungsapparate jeweils angepasster Diskurse hinsichtlich ihrer wissenschafts31 Vgl. Kramer 1994, 62. 32 Vgl. Rossiter 2000. 33 Vgl. etwa die Liste damals verfügbarer Frontends in Boulanger 2000, xxi ff.

234

Umdeuten

theoretischen Stellenwerte bedürfen. In der polarisierenden Debatte, die den Sonifikationshype begleitet, kann aber von einem wissenschaftlichen Diskurs nicht die Rede sein. Auch vor einigen Protagonisten der Sonifikation hat die Versuchung nicht Halt gemacht, sich an der ›audiovisuellen Litanei‹34 zu beteiligen, also die Eigenschaften von Auge und Ohr (wobei letzteres natürlich gewinnt) gegeneinander auszuspielen. Statt der wissenschaftstheoretischen Frage zuzuarbeiten, für welche Erkenntnisprozesse das Medium des Klangs möglicherweise adäquater oder vielversprechender ist, wird Sonifikation so auf eine bloße Kampfansage an die Jahrhunderte alte Dominanz des Visuellen in der westlichen Kultur und ihren Wissenschaften reduziert.35 Weitaus weniger pauschal erscheinen Ansätze, allgemeine Vor- und Nachteile der auditiven Datenrepräsentation herauszuarbeiten, in denen nicht nur die Eigenschaften der beteiligten Sinne, sondern auch der Einsatzzusammenhang berücksichtigt werden. Solche Aufstellungen erfolgten bereits in der Publikation zum ersten Treffen der Sonifikationsforscher 199236 und werden seitdem immer wieder in ähnlicher Form vorgenommen. Klassische, oft genannte Szenarien betreffen etwa die Prozessüberwachung, die explorative Datenanalyse oder die Signalisierung von Alarmen, insbesondere dann, wenn der Sehsinn durch eine Hauptaufgabenstellung größtenteils belegt ist. Doch die Aussagekraft derartiger Systematisierungen hat ihre Grenzen. Zum einen war und ist der Hörsinn auch ohne die Anwaltschaft von Befürwortern auditiver Displays in vielen Bereichen etabliert, in denen er sich als überlegen herausgestellt hat, zum anderen lassen sich im Einzelfall auch immer Gegenbeispiele finden, die die Allgemeingültigkeit der genannten Klassifizierungen konterkarieren.37 Eine Folge der allgemeinen Gegenüberstellung von Hörsinn und Sehsinn ist der Aufbau einer tendenziell überhöhten bis irrationalen Erwartung an die Möglichkeiten der Sonifikation, die ihren Gegnern gleich die Argumente mitliefert. Denn im Kontext des erwähnten, vielbeschworenen acoustic turn steht die gesamte Domäne des Auditiven im Zentrum allgemeiner Aufmerksamkeit, was nicht zwangsläufig zu qualifizierteren Diskussionen führt.

34 Dieser sehr plastische Begriff, der die endlose Reproduktion ontologischer Bestimmungen der Sinne meint, wurde von dem US-amerikanischen Medienwissenschaftler Jonathan Sterne geprägt, vgl. Sterne 2003. Diese »Litanei« ist, wie Axel Volmar gezeigt hat, auch im Diskurs der Sonifikation wirksam, vgl. Volmar 2007. 35 Neben den in Volmar 2007 zitierten Beispielen vgl. etwa die Einleitung zu Dayé et al. 2006, deren affirmativer Charakter sogar eine verhalten kritische Reaktion aus den eigenen Reihen provoziert, vgl. Frauenberger 2006. 36 Kramer 1994, 6 ff. 37 Ein Mitarbeiter am Institut für Elektronische Musik und Akustik in Graz schlug kürzlich vor, die akustischen Feuermelder im Labor um eine optische Signalisierung zu erweitern, denn bei der primären Arbeitssituation unter geschlossenen Kopfhörern könne der Feueralarm möglicherweise überhört werden.

Martin Rumori

235

Bezogen auf die Sonifikation wird durch die pauschale Aufwertung des Hörsinns das Versprechen vermittelt, man müsse »einfach den Daten zuhören«, um etwas über sie zu erfahren. Die Kritiker halten ebenso pauschal dagegen: Sonifikation verschaffe nicht den erwarteten Erkenntnisgewinn, wenn andere Darstellungsformen, etwa visuelle, ihn verweigern.38 Allenfalls ließen sich bereits bekannte Sachverhalte hörbar machen. Dazu sei aber eine ebenso zielgerichtete Aufbereitung der Daten nötig wie für andere Repräsentationsformen und setze dasselbe Vorwissen bzw. dieselben Vermutungen über in den Daten »verborgene« Zusammenhänge voraus. Kehrt man auf die Ebene seriöser Diskussion zurück, so lassen sich solche Ansprüche schnell als verfehlt entkräften. Jegliche Repräsentation von Daten, die sinnlich mit dem Ziel eines Erkenntnisgewinns aufgenommen werden soll, ist per definitionem aufbereitet, und zwar derart, dass der jeweils interessierende Ausschnitt für den betreffenden Sinn erfassbar wird. Das betrifft die Anwendung statistischer Verfahren zur Datenkompression vor der Visualisierung in einem Diagramm ebenso wie die Transposition von Erdbebendaten in den hörbaren Bereich. Immer richtet sich ein bestimmter Fokus auf die Daten, sowohl bei deren Aufbereitung als auch bei deren Wahrnehmung. Große Teile des Datenmaterials werden ausgeblendet zugunsten einer möglichst scharfen Wahrnehmung eines kleinen Datenkerns: bei der Aufbereitung durch die Wahl des Ausschnitts, beeinflusst durch Vorwissen oder Vermutungen, bei der Wahrnehmung durch die primäre Aufmerksamkeit. Dass viele Entdeckungen zufällig gemacht wurden, wobei gesuchte Zusammenhänge zeitweise außerhalb des aktuellen Fokus lagen, ist dazu kein Widerspruch. Es ist nicht evident, warum gerade diese Fokussierung bei der Anwendung des Hörsinns nicht stattfinden sollte. Natürlich unterliegen die Sinne ganz verschiedenen Fokussierungsmechanismen, etwa bei der Lenkung der Aufmerksamkeit, was weder aus evolutionsgeschichtlicher noch anatomischer noch medientechnischer Perspektive verwunderlich ist. Das bedeutet aber eben nicht, dass das menschliche Gehör dadurch in der Lage wäre, sich gewissermaßen automatisch durch das Dickicht beliebiger, höchst komplexer akustischer Datenwolken zu schlagen und dabei eine Erkenntnis nach der anderen hervorzubringen. Die Frage, unter welchen Bedingungen die Anwendung von Sonifikation einem erfolgreichen Erkenntniszuwachs dient, lässt sich weder allein aus den Eigenschaften des »medialen Ensembles«39 noch aus denen des Hörsinns ableiten. Vielmehr ist dafür ein komplexes Netzwerk zu betrachten, das sich aus dem Wahrnehmungskontext, dem angestrebten Erkenntnisgewinn, den Eigenschaften der Daten und den Mitteln, die für ihre Aufbereitung genutzt werden, zusammensetzt. Für letztere wiederum sind die Erfah38 So etwa der Physiker Willibald Plessas im persönlichen Gespräch mit dem Autor, Graz 2009. 39 Vgl. hierzu die Einleitung dieses Bandes.

236

Umdeuten

rungen derer ausschlaggebend, die die Sonifikation erstellen, deren Erkenntnisse über die Wahrnehmung selbst, aber auch ihr Wissen über die Werkzeuge, mit denen Daten transformiert und repräsentiert werden.

4. Der ›Marktwert‹ der Sonifikation Die beschriebenen Auswirkungen des acoustic turn haben gezeigt, dass sich die gestiegene Popularität der Sonifikation spezifischen historischen Entwicklungen verdankt. Hierzu gehören neben einer allgemein erhöhten Aufmerksamkeit für Klang auch die Mechanismen der Märkte, innerhalb derer Sonifikation stattfindet. Gerade die inflationäre künstlerische Anwendung der Sonifikation scheint eher modischen Strömungen des Kunstmarkts als einer innermusikalischen, musikästhetischen Auseinandersetzung geschuldet zu sein. Manche Klangkunstprojekte gehen mit der Marke »Sonifikation« geradezu hausieren. Sie profitieren dabei von der noch vorhandenen Exotik des Mediums Klang in der allgemeinen, nicht genrespezifischen Kunstwahrnehmung. Im Kontext des acoustic turn haftet ihm der Nimbus des Neuen, noch Unerschlossenen an (im Licht der audiovisuellen Litanei in der Spielart des Wiederentdeckten), denn gerade durch den schnellen, recht umfassenden Bedeutungsgewinn lässt sich Klang als viel zu lange unbeachtet und vernachlässigt darstellen. In diesem Umfeld kann Sonifikation als ein vermeintlich niedrigschwelliger Zugang zu einer neuen, geheimnisvollen Klangwelt etabliert werden, indem Daten des alltäglichen Lebens referenziert werden, die für sich genommen ebenfalls abstrakt sind, aber im Fokus der allgemeinen Aufmerksamkeit stehen. Wer wollte nicht schon immer mal hören, wie die Finanzmarktkrise, die Klimaentwicklung oder das menschliche Erbgut klingen? Umgekehrt beinhaltet dieses Angebot auch das Versprechen, einen für jedermann verständlichen Zugang zu komplexen Daten zu ermöglichen – man brauche schließlich nur zuzuhören. So suggerieren die Kompositionen Solar Wind von Robert Alexander eine auditive Erfahrung des Sound of the Sun40. Den flächigen Klangschichten, die nahezu sämtliche Klischees einer naiven esoterischen Vorstellung von Sonnenwind erfüllen, ist nicht anzuhören, dass sie durch Messdaten von Ladungszuständen und Teilchendichten strukturiert sind. Gleichwohl ist die Zuordnung der Datendimensionen zu den beeinflussten klanglichen Parametern stringent eingehalten und auch dokumentiert41. Die 40 So der Titel des entsprechenden YouTube-Videos (http://www.youtube.com/watch?v=R8Cq0ee3wrl, 17.11.2011). Vgl. auch Saerberg 2011. 41 Alexander et al. 2010.

Martin Rumori

237

beschriebene Anmutung der Kompositionen ergibt sich allerdings durch die Wahl der Ausgangsklänge (Rauschen, Vokalflächen) und die Harmonieverläufe, denen keine Sonifikationsdaten zugrunde liegen. Damit sind diese Kompositionen auch ein gutes Beispiel dafür, wie willkürlich die klangliche Ausformung einer Sonifikation ist, auch wenn die Daten durchaus wissenschaftlich valide umgesetzt werden. Das zumindest in Kauf genommene, wenn nicht durch die populärwissenschaftliche Darstellung gezielt gestreute Missverständnis, es handle sich hier um den »Klang der Sonne«, schlägt sich prompt in einem deutlichen Kommentar zum YouTube-Video nieder: »How the fuck can they figure out what the sound is, when space is a perfect vacuum and sound doesn't travel in a perfect vacuum?«42 Wie weit ein allgemeiner Sonifikationsverdacht gegenüber Kunstwerken mit Klangkomponente bereits in die Kunstbetrachtung vorgedrungen ist, zeigt ein Interview von Emanuel Andel mit Stefan Riekeles auf der Hauptausstellung des ISEA 2010, die letztgenannter kuratiert hat.43 Dabei ist Riekeles zugute zu halten, dass er wiederholt Kunstwerke vor der leichtfertigen Zuschreibung ›Sonifikation‹ verteidigt und um die Aufklärung dieses weit verbreiteten Missverständnisses bemüht ist. Ein Grund für diese Zuschreibung dürfte die allgemeine Verwissenschaftlichung der Kunst sein, wie sie in den letzten Jahren zu beobachten ist. Dabei werden allerdings selten wissenschaftliche Methoden, wohl aber einige ihrer empirischen Werkzeuge adaptiert, wie an Schlagworten wie Bio-Art oder Kunst als Forschung sichtbar wird. Das Erscheinungsbild vieler Werke der Medienkunst der letzten Jahre ist orientiert an prototypischen Versuchsaufbauten, wie sie auch naturwissenschaftliche Experimentallabors kennzeichnen: in Kleinserie gefertigte offene Leiterplatten, Metallröhren und Reagenzgläser.44 Wenn also in der Gegenwartskunst allerorts gemessen und visualisiert, mit Sensoren und Aktoren hantiert wird, dann scheint sich der Verdacht aufzudrängen, dass auch die Klangsphäre medialer Kunstwerke nicht einfach komponiert sein kann, sondern sonifiziert sein muss. Auch der Wissenschaftsbetrieb ist ein Markt, der von politischen, ökonomischen und sozialen Bezügen bestimmt ist. Er ist mithin vorherrschenden Strömungen unterworfen, durch die temporär bestimmte thematische und methodische Komplexe bevorzugt werden, während andere leichter in den Hintergrund treten. Über die allgemeinen Auswirkungen des acoustic turn auf den Wissenschaftsbetrieb45 hinaus konnte und kann die Sonifikation in dieser Hinsicht vor allem vom Postulat der Interdisziplinarität profitieren. 42 Wie Link in Anm. 40. 43 http://tagr.tv/tag/interview/ (17.11.2011). 44 Vgl. etwa die im Video von Anm. 43 vorgestellen Arbeiten auf dem ISEA 2010. 45 Vgl. etwa die europäische COST Action (Cooperation in Science and Technology) »Sonic Interaction Design« von 2007-2010, die auch Sonifikation beinhaltete, http://www.cost.esf.org/domains_actions/ict/Actions/IC0601(17.11.2011).

238

Umdeuten

Wissenschaftliche Sonifikation ist zwangsläufig und genuin interdisziplinär, verbindet sie doch nahezu beliebige Disziplinen, deren Daten zu sonifizieren sind, mit technischen und ästhetischen Verfahren aus den Bereichen Signalverarbeitung, Psychoakustik und Musik. Es liegt nahe, dass dieses integrative Moment einen großen Anteil an dem Erfolg hat, den die Sonifikation insbesondere hinsichtlich ihrer finanziellen Förderung zu verzeichnen hat. Eine zweite Entwicklung im Wissenschaftsbetrieb, von der die Sonifikation profitieren könnte, betrifft die Künstlerische Forschung. Dieser Bereich ist gerade dabei, die Anwendung künstlerischer Strategien zur Gewinnung wissenschaftlicher Erkenntnisse im wissenschaftstheoretischen Diskurs zu positionieren.46 Gleichwohl finden, wie oben erwähnt, bereits Rücktransfers statt, die Künstlern und Kunstwerken das Kokettieren mit der Marke Forschung erlauben. Von der künstlerischen Arbeit mit Klang könnte die Sonifikation lernen, dass Gestaltungsprozesse notwendig immer auch ästhetisch motiviert sind: »[…] a pleasant listening experience is an essential component of a successful sonification […]«47. Das ist bei Visualisierungen nicht anders: Auch deren Inhalte können leichter aufgenommen werden, wenn sie gern angeschaut werden, ohne dass sie dadurch zwangsläufig manipulativ würden. Bei vielen Sonifikationsforschern ist, der zitierten vereinzelten Einsicht zum Trotz, eine gewisse Abneigung gegen schöne Klänge zu verzeichnen, die häufig mit dem Hinweis auf eine vermeintliche Authentizität der verklanglichten Daten verteidigt wird.48 Dies ist ein Fehlschluss, der möglicherweise aus einer missverstandenen Forderung der Naturwissenschaft herrührt und der gleichzeitig maßgeblich das Erfolgspotenzial einschränkt. Dass viele Sonifikationen nicht über die klanglichen Möglichkeiten früher Digital-Synthesizer hinausgehen, ist ebenfalls eine ästhetische Entscheidung und keine Bedingung für Objektivität. Denn hauptsächlich wird der Klang einer Sonifikation durch die Wahl der Verfahren und Werkzeuge und nicht durch die Daten selbst bestimmt, wie die erwähnten Solar-Wind-Kompositionen von Robert Alexander zeigen. Diese Tatsache auch als identitätsstiftenden Anspruch der Sonifikation zu vertreten, dafür können Argumentationen dienen, wie sie die Künstlerische Forschung hervorbringt.

46 Vgl. hierzu die Beiträge von Florian Dombois und Holger Schulze in diesem Band. 47 Ballora et al. 2010, 86. 48 Vgl. etwa die Debatte um ›erlaubte‹ und ›nicht erlaubte‹ Klangmanipulationen, dargestellt in dem Beitrag von Alexandra Supper in diesem Band.

Martin Rumori

239

5. Fazit In diesem Text wurde der Versuch unternommen, ästhetische, technische und gesellschaftlich-soziale Bedingungen für das Erstarken der Sonifikation herauszuarbeiten. Dabei wurde der Ansatz verfolgt, sowohl die kulturellen Bedingungen für eine breite Akzeptanz des Mediums Klang als auch die apparativen Voraussetzungen für die Umsetzung von Sonifikationen gemeinsam als ausschlaggebenden Nährboden für die Entwicklung der Verklanglichung zu begreifen. Wie gezeigt wurde, kommt dabei dem sogenannten acoustic turn eine besondere Rolle zu, denn erst seitdem die Sphäre des Klangs als etwas Gestaltbares und auch zu Gestaltendes verstanden wurde, konnte auch die Entwicklung der Sonifikation auf breiter Grundlage einsetzen. Das zeigt sich daran, dass Sonifikationsversuche zuvor eher Einzelfälle waren, obwohl die vorhandenen technischen Werkzeuge einen »zweckentfremdeten Einsatz der Apparate«49 mit dem Ziel der Verklanglichung bereits zugelassen hätten. Andererseits erscheint das Jahr 1992 dennoch als ›spät‹ für die Formierung der Sonifikation als eigenständiger Disziplin, wenn man den zeitgleichen ästhetischen Stand der Elektronischen Musik und Klangkunst betrachtet sowie den Umstand, dass die Sonifikationsmetapher in der algorithmischen Musik bereits mehrere Jahrzehnte wirksam war. An dieser Stelle ist die Beobachtung erhellend, dass Sonifikationen erst in großem Stil erfolgten, als sich die Transformation von Daten in Klänge durch die Beschaffenheit vorhandener Werkzeuge zur elektronischen Klangerzeugung nahezu aufdrängte und sich diese gleichzeitig weit verbreiten, damit also relativ niedrigschwellig zugänglich waren. Das wiederum zieht die wohwollende Annahme in Zweifel, die grundlegende Motivation für die Entwicklung der Sonifikation sei ein wissenschaftliches Erkenntnisinteresse gewesen, das mit den vorhandenen Methoden, etwa der Visualisierung, nicht mehr befriedigt werden konnte. Für diese Zweifel spricht auch die Tatsache, dass bahnbrechende Erfolge in der inzwischen zwanzigjährigen Geschichte der Sonifikation weitgehend ausgeblieben sind. Das epistemogene Potenzial der Sonifikation für die Wissenschaft, aber auch im künstlerischen Kontext, bleibt weiter zu diskutieren, auch und gerade gegenüber visuellen Darstellungen. Wie in diesem Text begründet wurde, kann dies weder anhand der unterschiedlichen Eigenschaften der Medien Bild und Klang noch an deren korrespondierenden Wahrnehmungsapparaten allein erfolgen. Ausschlaggebend ist immer der konkrete Anwendungsfall und die sich an ihm vollziehenden Rückkopplungen zwischen Erfahrung, Erkenntnissen und den daraus folgenden gestalterischen Entscheidungen.

49 Ungeheuer, Decroupet 1996, 123.

240

Umdeuten

6. Quellen Alexander, Robert et al. (2010): Sonification of Ace Level 2 Solar Wind Data, in: Proceedings of the 16th International Conference on Auditory Display (ICAD 2010), Washington, 39-42. Ballora, Mark et al. (2010): Preliminary Steps in Sonifying Web Log Data, in: Proceedings of the 16th International Conference on Auditory Display (ICAD 2010), Washington, 83-87. Boulanger, Richard (2000): The Csound Book, Cambridge Mass./London. De Campo, Alberto et al. (2006): Sonification as an Interdisciplinary Working Process, in: Proceedings of the 12th International Conference on Auditory Display (ICAD 2006), London. Dayé, Christian / De Campo, Alberto / Egger de Campo, Marianne (2006): Sonifikationen in der wissenschaftlichen Datananalyse, in: Arbeitsgemeinschaft für Interdisziplinäre Angewandte Sozialforschung (Hg.), Angewandte Sozialforschung. Zeitschrift für Mitteleuropa, 24 (1&2), Wien, 41-56. Dombois, Florian (2006): Sonifikation. Ein Plädoyer, dem naturwissenschaftlichen Verfahren eine kulturhistorische Einschätzung zukommen zu lassen, in: Meyer, Petra Maria (Hg.), acoustic turn, München. Frauenberger, Christopher (2006): Sonifikation: Stärken, Schwächen und Anwendungen. Kritik zum Artikel von C. Dayé, M. Egger de Campo und A. de Campo, in: Arbeitsgemeinschaft für Interdisziplinäre Angewandte Sozialforschung (Hg.), Angewandte Sozialforschung. Zeitschrift für Mitteleuropa, 24 (1&2), Wien, 56-60. Grond, Florian / Dall‘Antonia, Fabio (2008): Sumo. A Sonification Utility for Molecules, in: Proceedings of the 14th International Conference on Auditory Display (ICAD 2008), Paris. Knoke, Felix (2011): Klingt wie ein besoffenes Tankerballett. Programmcode als Musik, Spiegel Online, 21.03.2011, http://www.spiegel.de/netzwelt/web/0,1518,751667,00.html, 03.10.2011. Kramer, Gregory (1994): An Introduction to Auditory Display, in: Kramer, Gregory (Hg.), Auditory Display. Sonification, Audification, and Auditory Interfaces, Reading u. a. Meyer, Petra Maria (2008): acoustic turn, München. Nierhaus, Gerhard (2008): Algorithmic Composition. Paradigms of Automated Music Generation, Wien/New York. Norman, Donald (1988): The Psychology of Everyday Things, New York. Rossiter, David (2000): Using Csound for Sonification, in: Boulanger, Richard (Hg.), The Csound Book, Cambridge Mass./London, Artikel auf begleitender CD-ROM. Russolo, Luigi (2000): Die Kunst der Geräusche (1916), Mainz.

Martin Rumori

241

Saerberg, Siegfried (2011): Von Hexenbesen, Graphen und Sonnenwinden – Sonifikation in Alltag, Kunst und Wissenschaft, Radiobeitrag, Ohrenblicke 11 (= Blinde und Kunst e. V. 11. Sendung), http://blog.radiofabrik.at/ohrenblicke/ohrenblicke-sendungsarchiv, 09.11.2011. Schnabel, Tom / Leppin, Lars (1999): Informatik und Rechentechnik in der DDR, Studienarbeit, http://waste.informatik.hu-berlin.de/Diplom/robotron/studienarbeit/index.html, 10.11.2011. Schoon, Andi (2011): Datenkörper aushorchen. Blicke in die Vergangenheit eines zukunftsgewandten Diskurses, in: kunsttexte.de, 2/2011, http://www.kunsttexte.de, 10.11.2011. Schulze, Holger (2008): Über Klänge sprechen, in: Schulze, Holger (Hg.), Sound Studies: Traditionen – Methoden – Desiderate, Bielefeld, 9-15. Sterne, Jonathan (2003): The Audible Past: Cultural Origins of Sound Reproduction, Durham. Straebel, Volker (2010): The Sonification Metaphor in Instrumental Music and Sonification‘s Romantic Implications, in: Proceedings of the 16th International Conference on Auditory Display (ICAD 2010), Washington, 287-294. Ungeheur Elena / Decroupet, Pascal (1996): Technik und Ästhetik der elektronischen Musik, in: de la Motte-Haber, Helga / Frisius, Rolf (Hg.), Musik und Technik. Fünf Kongreßbeiträge und vier Seminarberichte, Mainz, 123-142. Volmar, Axel (2007): Die Anrufung des Wissens. Eine Medienepistemologie auditorischer Displays und auditiver Wissensproduktion, in: Schröter, Jens / Thielmann, Tristan (Hg.), Display II: Digital, [Navigationen. Zeitschrift für Medien- und Kulturwissenschaften, Jg. 7, Heft 2], Marburg, 105-116. Volmar, Axel (2010): On Ideology and Sound Design, oscillation series no. 1, http://sonictheory.com/?p=89, 08.11.2011. Wicke, Peter (2008): Das Sonische in der Musik, in: PopScriptum 10 (= Schriftenreihe des Forschungszentrums Populäre Musik der Humboldt-Universität zu Berlin), http://www2.hu-berlin.de/fpm/popscrip/themen/pst10/pst10_wicke.htm, 10.11.2011.

242

Umdeuten

Semiotik auditiver Interfaces Zur Geschichte von Gestaltung und Rezeption auditiver Zeichen in Computer-Interfaces David Oswald

Was immer etwas sonst noch sein mag – es ist auch ein Zeichen. Charles Sanders Peirce Zeichen ist alles, was zum Zeichen erklärt wird und nur was zum Zeichen erklärt wird. Max Bense

1. Einleitung Die kulturhistorischen Wurzeln der Sonifikation kann man in drei Traditionslinien einteilen. Die älteste Traditionslinie findet man in der Philosophie und den Naturwissenschaften. Sie hat den Anspruch, wissenschaftlich richtige Zusammenhänge zwischen Klang beziehungsweise Musik und anderen Domänen zu finden. Die pythagoreische Sphärenharmonie1 oder Newtons Zuordnung von sieben Grundfarben auf die dorische Tonleiter2 sind prominente Beispiele dafür. Die zweite Traditionslinie basiert auf subjektiv-synästhetischen Empfindungen oder künstlerischem Ausdruck wie bei Skrjabins

1 Silvestrini 1998, 16. 2 Ebd., 37.

243

Lichtklavier3 oder Lászlós Farblichtmusik.4 Die dritte Traditionslinie findet man in der auditiven Vermittlung von Information, wie man sie zum Beispiel bei Alarmsignalen, Kirchenglocken oder Trompetensignalen findet. Auch auditive Elemente in ComputerInterfaces stehen in dieser Tradition. Seit den 1980er Jahren gibt es Versuche, nichtsprachliche Klänge in Computersoftware und Betriebssystemen zu nutzen, um den Nutzer über Ereignisse und Prozesse zu informieren. Es geht in diesem Bereich nicht um Sonifikation im Sinne einer Transformation von Daten in Klänge. Es geht nicht um Übersetzung sondern um Setzung – die bewusste Gestaltung auditiver Zeichen zur Vermittlung von Information. Hier unterscheidet sich die Klanggestaltung von klassischen, physikalischen Produkten fundamental vom Sounddesign im digitalen Bereich. Im klassischen Produktdesign werden physikalisch bedingte Geräusche (wie zum Beispiel der Klang einer Tür oder eines Schalters), durch gezielte Auswahl des Materials, durch die Ausformung des Resonanzraumes und durch Dämpfung gestaltet – vorhandene Klänge werden optimiert. Rechenprozesse in einem Computer laufen dagegen lautlos ab. Die wenigen physikalisch bedingten Geräusche, die ein Computer abgibt, wie zum Beispiel das leise Rasseln einer arbeitenden Festplatte, werden zwar von erfahrenen Nutzern als Informationsquelle genutzt, aber abgesehen von wenigen Ausnahmen arbeiten digitale Produkte und deren Nutzerschnittstellen absolut geräuschfrei. Der Hörsinn, der in der Interaktion mit den Dingen des Alltags eine wichtige Rolle spielt, bleibt bei der Interaktion mit digitalen Produkten weitgehend ungenutzt – und damit auch sein Potential zur Informationsvermittlung. Nachdem in den späten 1980er Jahren auch Personal Computer multimediafähig wurden, war es zumindest technisch möglich, diese Lücke zu schließen. Jedoch fehlte es an Erfahrung und Methoden zur auditiven Darstellung von abstrakten, geräuschlosen Prozessen. Im visuellen Bereich war es gelungen, die abstrakten textbasierten Interfaces durch ikonische, grafische Interfaces abzulösen. Es war daher naheliegend, die Prinzipien der neuen visuellen Schnittstellen als Vorbild für die Gestaltung im auditiven Interfacedesign zu übernehmen, denn auch das grafische Interface musste völlig abstrakte und unsichtbare Prozesse visualisieren. Es ist daher kaum ein Zufall, dass im Windschatten der damals neuen Schreibtischmetapher und der Icons auch im auditiven Interfacedesign mit metaphorischen Übertragungen und mit Begriffen wie Auditory Icons und Earcons gearbeitet wurde.

3 Jewanski 2005, 176 ff. 4 László 1925 und Jewanski 2005, 131 ff.

244

Semiotik auditiver Interfaces

Auditory Icons und Earcons In der HCI-Literatur5 wird heute zwischen Auditory Icons und Earcons unterschieden. Auditory Icons basieren auf Geräuschen und den Prinzipien des Alltagshörens, während Earcons auf musikalischen Prinzipien beruhen. Diese Termini und ihre Definitionen entstanden in einer Art Methodenstreit über Gestaltungsprinzipien für auditives Interfacedesign in den 1980er Jahren. Heute, mehr als zwei Jahrzehnte später, sind beide Konzepte auch außerhalb der Human-Computer Interaction Teil des Sounddesign-Kanons. Im zweiten Band der Sound Studies Reihe6, der den Titel Funktionale Klänge trägt, beziehen sich fünf der Autoren auf William Gaver7, der den Begriff Auditory Icon8 geprägt hat, und immerhin drei Autoren zitieren Meera Blattner9, die mit ihren Co-Autoren eine erste Definition von Earcons10 geliefert hat. Das Thema des vorliegenden Artikels ist nicht die praktische Gestaltung von Auditory Icons und Earcons. Vielmehr soll versucht werden, diejenigen Teile der Theorie zu Auditory Icons und Earcons zu überprüfen, welche mit Begriffen der Semiotik hantieren. Beide Begriffe verweisen schon in ihrem Namen auf den Zeichentyp Ikon, der durch das Prinzip der Ähnlichkeit definiert ist – das Ikon ist dem wofür es steht ähnlich. Es stellt sich die Frage, welcher Art diese Ähnlichkeit ist und ob Auditory Icons und Earcons wirklich ikonisch funktionieren. Dies scheint auf den ersten Blick eine prinzipielle und damit ahistorische Frage der Semiotik zu sein. Die Perzeption von auditiven Zeichen kann aber nicht getrennt vom historischen Entwicklungsstand der Computer-Interfaces und deren Wahrnehmung durch den Nutzer betrachtet werden. Denn der Zeichenprozess steht und fällt mit der Interpretation der Zeichen durch den Menschen – und die Art und Weise der Interpretation hat sich seit den achtziger Jahren des vergangenen Jahrhunderts grundlegend verändert. Die Entstehung von Theorie und Praxis der Auditory Icons und der Earcons in den 1980er Jahren muss daher im historischen Kontext der damals noch sehr jungen Grafischen User Interfaces (GUI) betrachtet werden. Im Jahre 1984 kam mit dem Apple Macintosh zwar nicht der erste Computer mit Grafischem User Interface auf den Markt, aber es war der erste, der auf dem Markt erfolgreich

5 HCI: Human-Computer Interaction. 6 Vgl. Spehr 2009. 7 Gaver studierte Experimentelle Psychologie und promovierte 1988 bei Donald Norman zum Thema Everyday Hearing, heute ist er Professsor für Interaction Research in London. 8 Vgl. Gaver 1986. 9 Blattner studierte Mathematik und promovierte 1973 zum Thema Formal Language Theory, sie war Professorin für angewandte Wissenschaft in Davis und beschäftigte sich seit Mitte der 1980er Jahren mit User Interfaces und Audio. 10 Vgl. Blattner 1989.

David Oswald

245

war und ein breiteres Publikum erreichte.11 Die heute immer noch prägenden Sounddesign-Konzepte der Auditory Icons und Earcons sind also in einer Zeit entstanden, in der die Zeichenwelt eines GUI noch alles andere als selbstverständlich war. In den seither vergangenen Jahrzehnten hat sich die Wahrnehmung der grafischen Interfaces verändert und – das ist die zentrale These dieses Artikels – damit auch die Wahrnehmung der auditiven Zeichen in diesen Interfaces. Die unterschiedlichen Möglichkeiten, wie Bedeutung in Klang eingeschrieben wird, sind im damaligen Diskurs mit Begriffen wie ikonisch, nomisch, metaphorisch, musikalisch, repräsentional, abstrakt und symbolisch beschrieben worden.12 Falls Peirce und Bense mit ihren im Eingang zitierten Allgemeingültigkeitsansprüchen der Semiotik Recht haben, dann muss auch jedes auditive Zeichen mit rein semiotischen Mitteln analysiert und beschrieben werden können. Die Beziehung zwischen dem auditiven Zeichen und seinem Denotat13 muss daher auch unter ausschließlicher Nutzung der drei semiotischen Zeichentypen Index, Ikon und Symbol zu beschreiben sein. Um diese Frage zu klären, ist es zunächst notwendig, etwas tiefer in das Thema Semiotik einzusteigen, um einige Grundbegriffe zu klären.

2. Semiotik Die Ursprünge der Semiotik sind bekanntlich in der Philosophie und der Linguistik zu finden, in der sie auch ihre größte Akzeptanz und Anwendung gefunden hat. Charles Morris war der erste der Semiotiker, der in einem Designkontext unterrichtete,14 er hatte von 1937 bis 1946 einen Lehrauftrag am New Bauhaus in Chicago.15 In den 1950er Jahren wurde die Semiotik zunehmend auf nicht-sprachliche Bereiche angewendet. So wurde an der HfG Ulm die Semiotik erstmalig in der Geschichte der Designausbildung in einem Lehrplan fest als eigenständiges Fach verankert und zwar nicht nur in der Abteilung Information, sondern auch in der Visuellen Kommunikation.16 Heute gehört semiotisches Grundwissen zum Kanon der Kommunikationsdesigner. In Bereichen, in denen es explizit um kommunikative Prozesse geht – sowohl sprachlich als auch visuell – dürften die Aussagen von Peirce und Bense also auf allgemeine Akzeptanz stoßen.

11 Verkauf von 75.000 Stück in den ersten fünf Monaten 1984, vgl. Heise 2009. 12 Vgl. Gaver 1988, 80. Gaver 1989, 10. Blattner 1989, 16, 34. 13 Das Denotat ist das, wofür das Zeichen steht, was es bezeichnet. 14 Betts 1999, 72. 15 Poisson 1997, 859. 16 HfG Ulm 1958, 18-23.

246

Semiotik auditiver Interfaces

Semiotik im Bereich Musik und Audio Eine systematische Anwendung der Semiotik auf nicht-sprachliche Klänge ist bis heute jedoch ausgeblieben. Eine Ursache für diesen blinden Fleck der Semiotik dürfte ihre von der Linguistik dominierte Tradition sein. So findet man im 600 Seiten starken Standardwerk Handbuch der Semiotik zwar ein immerhin sechsseitiges Kapitel zum Thema Musiksemiotik,17 jedoch sucht man im Sachregister des Handbuchs die Stichworte ›Klang‹ und ›Geräusch‹ vergeblich – der Autor kommt aus der Linguistik. Selbst das Stichwort ›akustisch‹ verweist lediglich auf Textabschnitte, die gesprochene Sprache oder die Kommunikation unter Tieren behandeln.18 Neben der Dominanz der Linguistik ist ein weiterer Grund für die Nicht-Existenz der Audiosemiotik, dass die wissenschaftliche Untersuchung des Auditiven bzw. des Akustischen bisher vorrangig aus physikalischer und musikwissenschaftlicher Sicht erfolgte. Bis auf die wenigen Versuche einer semiotisch-semantischen Analyse von Musik, zum Beispiel bei Tarasti oder Nattiez,19 konzentriert sich die traditionelle musikwissenschaftliche Analyse meist auf die rein syntaktischen Strukturen innerhalb der Musik. Denn im Gegensatz zu Alltagsgeräuschen hat Musik meist keine einfach oder gar eindeutig zu fassende Bedeutung. Wenn ein Musikstück überhaupt eine Bedeutung außerhalb der Musik hat, dann ist diese meist vielschichtig symbolisch kodiert und dadurch äußerst abhängig von kulturellem Kontext sowie von individueller Prägung und Vorwissen.20 Betrachtet man jedoch Klang als Informationsmedium in Computer-Interfaces unter semiotischen Gesichtspunkten, so richtet sich der Fokus vor allem auf die Semantik – also auf jenen Teil der Semiotik, der sich mit der Bedeutung der Zeichen befasst. Auch dies trägt zur Abgrenzung von musikalischem Hören und der Musikanalyse bei. Die erste wissenschaftliche Disziplin, in der Klang als Kommunikations- und Informationsmedium angemessen thematisiert wurde, war die Kognitionspsychologie. Eine wegweisende Arbeit war William Gavers Doktorarbeit aus dem Jahre 1988, in der er Gibsons ökologischen21 Ansatz in der visuellen Wahrnehmung22 auf die auditive Wahrnehmung übertrug. Unter dem Titel Everyday Listening and Auditory Icons23 analysiert Gaver die auditive Informationsvermittlung bei alltäglichem Hören, und grenzt dieses streng von

17 Nöth 2000, 433-438. 18 Ebd., 73, 267. 19 Vgl. Tarasti 2002 und Nattiez 1990. 20 Vgl Tarasti 2002, 3-25. 21 »ökologisch« ist hier nicht im Sinne von Umweltschutz gemeint, sondern im Sinne von ganzheitlicher und alltäglicher Umwelt. 22 Vgl. Gibson 1979. 23 Vgl. Gaver 1988.

David Oswald

247

musikalischem Hören ab.24 Aus den Prinzipien des Alltagshörens, das primär auf Geräuschen basiert, leitet er Gestaltungsregeln für die Sonifizierung von Computer-Interfaces ab, wobei er mitunter auf Begriffe und Methoden der Semiotik zurückgreift. Grundbegriffe der Semiotik Seit Peirce gehen die gängigen Zeichenmodelle von einer triadischen Relation aus, also von drei Aspekten des Zeichens, die zueinander in Beziehung stehen.25 Diese drei »Teile« eines Zeichens sind:

Abb. 1: Die drei Aspekte eines Zeichens und die drei Semiosedimensionen.

1. Zeichen: der sichtbare oder hörbare Zeichenträger, das Signal 2. Objekt: die bezeichnete Sache, für die das Zeichen steht 3. Interpretant: die Wirkung, die Interpretation beim Betrachter Im Zeichenprozess (Semiose) sind folgenden Relationen zwischen den drei Aspekten eines Zeichens wirksam: Syntax, Semantik und Pragmatik.26 1. Syntax: das Verhältnis von Zeichen zu Zeichen, Aufbau und Struktur der Zeichen27 2. Semantik: das Verhältnis des Zeichens zum bezeichneten Objekt, die Bedeutung des Zeichens 3. Pragmatik: das Verhältnis von Zeichen zum Interpretierenden, die Bedeutung für den Rezipienten

24 Vgl. ebd., 3. 25 Vgl. Nöth 2000, 62. 26 Vgl. Morris 1988, 23-28. 27 Die Syntax ist zum Beispiel im Fall von Sprache die Rechtschreibung und die Grammatik – also die Regeln zum Aufbau von schriftlichen Zeichen.

248

Semiotik auditiver Interfaces

Das Verhältnis des Zeichens zum Bezeichneten Die Semantik untersucht nicht nur die konkrete Bedeutung der Zeichen, sondern auch das Verhältnis des Zeichens zum bezeichneten Objekt und auf welche Weise die unterschiedlichen Zeichentypen Bedeutung vermitteln. Auch hier gibt es wieder drei Prinzipien: 1. Kausalität: Indexalisches Zeichen 2. Konvention: Symbolisches Zeichen 3. Ähnlichkeit: Ikonisches Zeichen Bevor im folgenden Abschnitt näher auf diese Zeichentypen eingegangen werden soll, gilt es zunächst die Frage zu klären, ob ein Verhältnis zwischen einem Zeichen und »seinem Objekt« überhaupt objektiv existiert. Denn bei genauerer Betrachtung gerät man unwillkürlich in eine philosophische bzw. weltanschauliche Streitfrage: Kann es diese Beziehung zwischen dem Zeichen und dem Bezeichneten unabhängig von einem wahrnehmenden Betrachter geben? Hat zum Beispiel das Papierkorb-Icon wirklich eine faktische, objektive Beziehung zu einem realen Papierkorb? Kann ein Zeichen eine objektiv richtige Bedeutung haben? Oder wird diese nicht immer durch einen Betrachter hergestellt und ist daher subjektiv? Zeichen werden erst durch das wahrnehmende Subjekt zum Zeichen. Der Zeichenprozess muss also ohne ein interpretierendes Wesen unvollständig bleiben bzw. es gibt ihn schlicht nicht. Wenn aber die Bedeutung des Zeichens nicht objektiv existiert, dann gilt das auch folglich für das Verhältnis zwischen Zeichen und dessen Bedeutung. Auch diese ist abhängig vom Betrachter – wo der eine Betrachter eine Ähnlichkeit zwischen Zeichen und bezeichnetem Objekt sieht, interpretiert ein anderer Betrachter das Zeichen nur auf Grund von Gewohnheit. Gleichwohl ist im gestalterischen Alltag die Unterscheidung der Zeichentypen Index, Ikon und Symbol sehr hilfreich – vor allem bei der Gestaltung visueller Zeichen, denn hier spielt die Kategorie Ähnlichkeit des Zeichens zum Objekt eine zentrale Rolle – auch wenn sogar das Prinzip der Ähnlichkeit in der Semiotik umstritten ist.28 Doch dazu mehr im folgendem Kapitel, in dem es um die Definition der unterschiedlichen Zeichentypen Index, Symbol und Ikon geht und um die Anwendung dieser Konzepte auf visuelle und auditive Zeichen.

28 Vgl. Eco 2002, 200-214.

David Oswald

249

3. Typologie der Zeichen – visuell und auditiv Das indexalische Zeichen Beim Zeichentyp Index fällt die Anwendung auf auditive Zeichen leicht. Denn nichtsprachliches Alltagshören basiert fast immer auf indexikalischen Zeichenrelationen. Als Standardbeispiel für ein Index-Zeichen im visuellen Bereich wird gerne Rauch als Zeichen für Feuer angeführt. Rauch verweist auf Grund von kausalen Zusammenhängen auf das Feuer. Das Indexzeichen ist dem Bezeichneten nicht ähnlich, es verweist lediglich auf das Bezeichnete. Rauch zeigt auf Feuer, aber es sieht nicht aus wie Feuer und es klingt auch nicht wie Feuer. Das Knistern und Knacken eines Feuers ist, wie der Rauch, physikalisch-kausal mit dem Feuer verbunden. Das Knistern ist dem Feuer aber nicht ähnlich, vielmehr verweist der Klang direkt auf das Feuer – es ist gewissermaßen der auditive Teil des menschlichen Gedankenmodells von Feuer. Nach Albersleben wird Schall meist direkt als Anzeichen für etwas verstanden, also nicht zuerst als Schall an sich wahrgenommen, sondern lediglich als begleitende Phänomene der Ereignisse in der Umwelt.29 Auch William Gaver beschreibt diese direkte und unbewusste Wahrnehmungsweise: Our normal mode of hearing is to listen to sounds to identify the events that cause them. From this perspective, sound provides information about materials interacting at a location in an environment.30 Natürliche Geräusche stehen also in kausaler Verbindung mit Ereignissen, die physikalisch bestimmt sind. Auf Grund von Erfahrung, die man während des ganzen Lebens durch Interaktion mit der Umwelt und den dabei entstehenden Geräuschen gesammelt hat, werden diese Verbindungen verinnerlicht und intuitiv verständlich.31 Dieses direkte Verstehen, ohne eine bewusste Reflexion, ist typisch für Indexikalität. Daher sagt man auch ich höre eine Autohupe oder ich höre Kirchenglocken, obwohl man Gegenstände natürlich nicht hören kann, sondern nur den Schall, der durch Interaktion mit diesen Gegenständen entsteht.32 Gaver empfiehlt diese Klangtypen vor allem aufgrund dieser mühelosen und schnellen Wahrnehmung für die auditive Gestaltung von Interfaces. Er nennt diese Zeichen jedoch nicht Auditory Index, da diese in digitalen Interfaces nicht kausal entstehen, sondern auf Basis einer metaphorischen Übertragung imitiert werden.

29 Albersleben 1980, 36. 30 Gaver 1986, 169. 31 Vgl. ebd., 173. 32 Vgl. Oswald 1996, 29.

250

Semiotik auditiver Interfaces

Gaver nennt sie – in Anlehnung an die visuellen Icons der grafischen Nutzeroberflächen – Auditory Icons. Das ikonische Zeichen Das ikonische Zeichen wird durch den Begriff Ähnlichkeit definiert. Ein Ikon ist demnach ein Zeichen, das seinem bezeichneten Objekt ähnlich ist oder – nach Morris – eine Auswahl von Eigenschaften mit ihm gemeinsam hat.33 Einfacher gesagt, hat zum Beispiel die scherenschnittartige Darstellung einer Kuh auf einem Verkehrsschild Ähnlichkeit mit einer Kuh. Genauer betrachtet sind jedoch sowohl die Kuh als auch deren schwarz-weiße Repräsentation letztendlich menschliche Wahrnehmungsmodelle. Eco hat zu Recht darauf hingewiesen, dass die Ähnlichkeit nicht zwischen der realen Kuh und dem KuhZeichen hergestellt wird, sondern vielmehr zwischen Wahrnehmungsmustern, die zur Konstruktion des Gedankenmodells Kuh führen und homologen graphischen Mustern des Zeichens.34 Ohne diese philosophische Erkenntnis anzuzweifeln, kann man sicher trotzdem sagen, dass sie im gestalterischen Alltag eines Schildermalers vernachlässigt werden kann. Selbst für Eco ist ein pragmatischer Umgang mit dem Konzept der Ähnlichkeit statthaft: Im täglichen Leben nehmen wir aber wahr, ohne uns des Mechanismus der Wahrnehmung bewußt zu sein und folglich ohne uns das Problem der Existenz oder der Konventionalität dessen, was wir wahrnehmen, zu stellen. Ebenso können wir gegenüber den ikonischen Zeichen annehmen, daß man dasjenige Zeichen als ikonisches Zeichen bezeichnen kann, das uns einige Eigenschaften des dargestellten Gegenstandes wiederzugeben scheint. In diesem Sinn ist die Morrissche Definition […] anwendbar, wenn nur klar ist, daß man sie als praktisches Hilfsmittel und nicht auf der Ebene der wissenschaftlichen Definition gebraucht.35 Die Ähnlichkeit muss zudem nicht visuell oder gar detailliert sein, etwa wie bei einer Fotographie. Sogar eine rein strukturelle, diagrammatische Ähnlichkeit gilt noch als ikonisch.36 Ein elektrischer Schaltplan muss zum Beispiel keinerlei visuelle Ähnlichkeit mit der bestückten Platine oder dem Kabelbaum haben, die Ähnlichkeit ist hier nur strukturell. Um die unterschiedlichen Grade von Ähnlichkeit zu fassen, führt Morris 1946 den Begriff der Ikonizität ein: je höher die Ikonizität, desto größer ist die Ähnlichkeit des

33 Vgl. Morris 1988, 97. 34 Vgl. Eco 1972, 213. 35 Ebd., 213-214 (Hervorhebungen im Original). 36 Vgl. Peirce 1998, 13.

David Oswald

251

Zeichens mit seinem Denotat. Die beiden Grenzen dieser Ikonizitätsskala sind einerseits definiert durch ein Zeichen, das dem Bezeichneten so ähnlich ist, dass es mit ihm identisch ist (und dadurch kein Zeichen mehr) und am anderen Ende der Skala mit einem Zeichen, das für den Betrachter keine erkennbare Ähnlichkeit mehr hat – dem Symbol (welches im nächsten Abschnitt behandelt wird). Dazwischen gibt es einen fließenden Übergang zwischen großer und kleiner Ähnlichkeit.37 In der gesprochenen Sprache gibt es nur wenige Wörter, die eine ikonische Komponente haben. Onomatopoetische Wörter wie klopfen, schnarren, knacken oder kikeriki imitieren natürliche Geräusche und können durch eine Ähnlichkeit mit dem bezeichneten Geräusch sogar für Anderssprachige verständlich werden. Ein physikalisch determiniertes Indexzeichen, wie zum Beispiel das Knacken eines Astes, wird durch sprachliche Imitation zum ikonischen Zeichen. Ein Teil der auditiven Zeichen, die als Feedback in Computer-Interfaces und anderen technischen Geräten eingesetzt werden, funktioniert ebenfalls nach diesem Prinzip. Das Geräusch, welches eine digitale Fotokamera beim Auslösen abspielt, imitiert das Geräusch eines mechanischen Fotoapparates. Im Fall der mechanischen Kamera ist das Geräusch schlicht konstruktionsbedingt und entsteht zwangsläufig durch die Abläufe im Verschlussmechanismus – ein Indexzeichen. Fotografierende und Fotografierte haben dieses Geräusch schnell als Anzeichen und Bestätigung für das Auslösen verinnerlicht. Wird dieses Zeichen von einer Digitalkamera imitiert, kann es zwar immer noch als Index für das Auslösen wahrgenommen werden, einen kausalen, physikalischen Zusammenhang gibt es aber nicht mehr, denn das Abspeichern des aktuellen Zustandes eines lichtempfindlichen Chips ist absolut geräuschlos. Man kann das auf die Digitalkamera übertragene Geräusch als auditives Ikon bezeichnen, wobei die Ähnlichkeit hier nicht zwischen dem Geräusch und dem bezeichneten Vorgang besteht, sondern zwischen dem wiedergegebenen auditiven Zeichen und einer tradierten Hörgewohnheit, die als Teil des Gedankenmodells Fotokamera auslösen verinnerlicht wurde. Für alle Menschen, die mit mechanischen Kameras aufgewachsen sind, ist es also ein ikonisches Zeichen, welches dem alten, ›echten‹ Auslösen ähnlich ist. Fehlt dieses alte Wissen aber, wird das Zeichen zu bloßer Konvention und damit zum Symbol für Auslösen. Das symbolische Zeichen Auch das symbolische Zeichen lässt sich relativ leicht auf auditive Zeichen übertragen. Das Symbol ist ein Zeichen, bei dem keinerlei natürliche, physikalische oder in irgendeiner Weise faktische Beziehung zwischen dem Zeichen und dem Bezeichneten besteht.

37 Vgl. Morris 1971, 273.

252

Semiotik auditiver Interfaces

Ein rohes Ei, das auf einen Steinboden fällt, erzeugt überall auf der Welt ein vergleichbares Geräusch – dieses Geräusch ist ein Indexzeichen, determiniert durch physikalische Gesetze. Das sprachliche Zeichen für Ei ist dagegen ein Beispiel für die symbolische Zeichenrelation. Die Tatsache, dass ein Ei mit egg, oeuf oder huevo bezeichnet werden kann, zeigt deutlich, dass sowohl das sprachliche als auch das schriftliche Zeichen nur auf Grund kultureller Konventionen mit dem bezeichneten Objekt verbunden ist.38 Das schon erwähnte Läuten einer Kirchenglocke kann man zunächst als Indexzeichen verstehen: Als Index für einen Metallklöppel, der auf eine gusseiserne Metallschale schlägt. Dies ist aber nicht die vorrangige Bedeutung, die diesem auditive Zeichen im mitteleuropäischen Kontext zukommt. Die Bedeutung dieses Zeichens – die Vermittlung der Uhrzeit oder der Aufruf zum Besuch des Gottesdienstes – entsteht vielmehr auf einer symbolischen Ebene durch eine kulturell verankerte Konvention. Welches konkrete auditive Signal zur Kodierung dieser Bedeutung gewählt wird, ist zu einem gewissen Grad beliebig – andere Religionsgemeinschaften rufen mit anderen Klängen zum Gottesdienst. Wenn diese Konvention (Glockenläuten gleich Uhrzeit oder Gottesdienst) aber lange genug eingeführt ist, kann sie im gleichen Maße verinnerlicht worden sein wie ein natürliches Indexzeichen und kann in Folge auch ebenso schnell und intuitiv verstanden werden. Noch deutlicher wird die Funktionsweise symbolischer auditiver Zeichen am Beispiel von Sinustönen. Ein Sinuston hat an sich keinerlei Bedeutung, er ist inhaltlich neutral. Er hat eine Tonhöhe, eine Lautstärke und man kann ihm auch eine (gewissermaßen neutrale) Klangfarbe zugestehen. Im alltäglichen Hören wird durch diese drei Klang-Parameter oft Bedeutung transportiert. Bei klingenden Gegenständen kann man anhand der Tonhöhe die Größe der Gegenstände erkennen. Durch die Klangfarbe kann man auf das Material schließen und ob ein Objekt solide und gefüllt oder hohl und dünnwandig ist. Beim Sinuston haben diese Parameter dagegen zuerst einmal keinerlei Bedeutung, da reine Sinustöne in der Natur im Prinzip nicht vorkommen. Eine Bedeutung erhält ein Sinuston erst dann, wenn man ihm eine Bedeutung gibt, ihn zu etwas erklärt – zum Beispiel zum Telefon-Freizeichen oder zum Zeichen für einen Fehler in einem Computerprogramm. Symbole entstehen aber nicht nur durch bewusste Setzung oder Erklärung. Gerade unbewusste soziokulturelle Prozesse führen zu symbolischen Bedeutungen. Wenn die synthetisch erzeugten Klangfarben von mittlerweile fünfzig Jahre alten Synthesizern in der Filmmusik heute noch für Zukunft und Science-Fiction stehen, dann handelt es sich ebenfalls um eine symbolische Kodierung, die kulturell bedingt ist und auf einen historischen Kontext verweist.

38 Vgl. Saussure 2001, 79.

David Oswald

253

Im Gegensatz zu William Gavers Auditory Icons, die natürliche Geräusche imitieren und indexalisch/ikonisch wirken, gelten Earcons als symbolische Zeichen, da sie auf rein musikalischen Prinzipien beruhen. Auch Earcons haben heute einen festen Platz im auditiven Interface. Vor allem Ereignisse für die es im analogen Leben keine Entsprechung gibt – und daher auch keine natürlichen Geräusche – werden von Computersoftware oft durch kurze Tonfolgen quittiert: das Eintreffen einer E-Mail, das Anschließen eines USB-Sticks. Ein einzelner artifizieller Ton, wie der berühmte Fehler-Biep, kann nur eine symbolische Bedeutung haben, aber schon durch zwei aufeinander folgende Töne entstehen Tempo, imaginäre Bewegung und eine kleine melodische Gestalt. Man assoziiert spontan Eigenschaften wie schnell oder langsam, fließend oder stockend, hinauf oder hinab – sind das noch symbolische, durch bloße Konvention bedingte Bedeutungen? Um diese Frage zu beantworten und um diese Zeichen semiotisch besser einordnen zu können, ist ein kurzer Exkurs in die Musik und Musiksemiotik notwendig. Earcons – rein symbolische Zeichen? Blattner et. al. prägten den Begriff Earcon im Jahr 1989. Earcons sind demnach sehr kurze Mikrokompositionen aus nur wenigen Tönen,39 deren Gestaltungsparameter aus der Musik bekannt sind: Tempo und Rhythmik, Intervallik und Melodieführung, Dynamik, Klangfarbe, Harmonik. Auf den über dreißig Seiten ihres Artikels Earcons and Icons: Their Structure and Common Design Principles40 findet man jedoch keinerlei konkrete Gestaltungskriterien für diese musikalischen Aspekte. Fragen nach der potentiellen Wirkung von musikalisch-gestalterischen Entscheidungen beim Entwurf von Earcons bleiben unbeantwortet: Wie wirkt ein schnelles Tempo? Was assoziiert man mit aufsteigenden Motiven? Wie wirken große Intervalle, wie kleine? Welche Informationen kann man mit Klangfarben kodieren? Was lässt sich durch Dynamik ausdrücken? Die Autoren weisen lediglich darauf hin, dass musikalische Earcons abstrakt seien41 und ihre Bedeutung daher erlernt werden müssten.42 Es entsteht fast der Eindruck, als könne man die Komposition der Earcons getrost dem Zufall überlassen, da die Form und Ausprägung des Zeichens nichts mit dessen Bedeutung zu tun haben kann. Schließlich ist es nunmal abstrakt beziehungsweise semiotisch gesehen: reines Symbol. Das ist aber keinesfalls zielführend, denn bei der Gestaltung von musikalischen Earcons muss auf eine über Jahrhunderte entwickelte musikalische Tradition Rücksicht genommen werden. Selbst

39 Blattner et. al. beschreiben die optimale Länge mit zwei bis vier Tönen, da längere Sequenzen schon als Musikstück wahrgenommen werden könnten (Blattner 1989, 28.). 40 ebd. 41 Vgl. ebd., 22. 42 Vgl. ebd., 37.

254

Semiotik auditiver Interfaces

wenn die Bedeutungsebenen von Musik primär kulturell bedingt und symbolisch sein sollten, kann man sie bei der Gestaltung von Earcons nicht einfach außer Acht lassen, denn die Perzipienten sind nun einmal von diesen Traditionen geprägt. Die traditionelle musiksemantische Theorie beschäftigt sich vor allem mit der emotionalen Wirkung der Musik. Für die Philosophin Susanne Langer bedeutet Musik einfach das, was sie beim Hörer an emotionaler Reaktion hervorruft.43 Werden beim Hörer Emotionen hervorgerufen, sieht der Musik-Semiotiker David Osmond-Smith dagegen einen unbewussten ikonischen Prozess am Werk, bei dem die Musik Reaktionen hervorruft, die psychologischen Erfahrungsmustern ähneln.44 Auch Helga de la Motte-Haber spricht primär von der emotionalen Wirkung der Musik, aber auch davon, dass sie nicht nur symbolisch, kulturell bedingt und selbstreferenziell ist, sondern sich auch auf außermusikalische Größen bezieht: Die emotionale Bedeutung von Musik ist weitgehend allgemein verständlich. Sie wirkt nicht beliebig und nicht willkürlich. Sie verweist auf fundamentale, universelle, vor der Musik liegende biologische Strukturen.45 Zudem gibt es eine Vielzahl von musikalischen Parametern, deren Wirkung von physikalischen und biologischen Größen geprägt und daher alles andere als arbiträr ist. Zum Beispiel dürfte der Maßstab für das musikalische Tempo der menschliche Herzschlag und die Schrittfrequenz beim Gehen sein: Sechzig Schläge pro Minute wird als weder schnell noch langsam empfunden. Langsamere Tempi werden als schleppend, schnellere als aufregend oder hektisch empfunden. Auch in Bezug auf Tempo, Intervallik und Dynamik gesprochener Sprache findet man übergreifende Muster – trotz aller Unterschiede zum Beispiel zwischen europäischen und ostasiatischen Sprachen: Wer freudig spricht, spricht höher, mit größerer Intervallik in den Sprechtönen, lauter und schneller. Dies sind jedoch genau die Merkmale, die in musiktheoretischen Lehrwerken und in musikpsychologischen Forschungen dem Eindruck einer fröhlichen Musik entsprechen.46 Der Begriff der Tonhöhe suggeriert eine Verbindung zwischen Tönen und räumlicher, physikalischer Höhe. Tatsächlich assoziieren die meisten Menschen eine Änderung der

43 Vgl. Langer 1951, 185. 44 Vgl. Osmond-Smith 1972, 39-40. 45 De la Motte-Haber 1994, 230. 46 Ebd., 226.

David Oswald

255

Tonhöhe mit einer Bewegung in einem imaginären Raum. Ob diese Assoziation von Tonhöhe und räumlicher Höhe kulturell bedingt ist oder eine neurophysiologische Basis hat, ist zwar umstritten,47 aber selbst wenn diese Assoziation nur kulturell bedingt sein sollte, kann und muss man diesen Effekt bei der Gestaltung von Earcons berücksichtigen. Aus der Filmmusik kennt man das sogenannte Mickey-Mousing, d. h. eine Doppelung der visuellen Ereignisse mit musikalischen Mitteln: Herunterfallende Gegenstände werden mit einem Ton mit fallender Tonhöhe illustriert. Dass der Sound im Betriebssystem Windows für Hardware hinzufügen ein aufsteigendes Intervall nutzt und für Hardware entfernen ein absteigendes Intervall, lässt sich zwar nicht zur Gänze logisch herleiten. Für diesen an sich abstrakten Vorgang gibt es keinerlei objektive bildliche oder klangliche Entsprechung. Die Zuordnung von aufsteigend für Anschließen und absteigend für Entfernen dürfte aber eine Gestaltungsentscheidung sein, die zumindest den westlichen Hörgewohnheiten entspricht und intuitiv nachvollzogen werden kann.

4. Klassifikation auditiver Zeichen in Computer-Interfaces William Gavers theoretische und praktische Arbeiten zu Auditory Icons waren wegweisend und gehören heute zur Standardliteratur zum Thema Audio in Mensch-MaschineInterfaces. Aus zwei Gründen kann man aber seine Klassifikation der auditiven Zeichen kritisieren: Sie ist erstens – aus semiotischer Sicht – nicht sauber formuliert und muss zweitens im historischen Kontext gesehen und historisch relativiert werden. Gavers Systematik der auditiven Zeichen Gavers SonicFinder nutzt parametrisierte auditive Zeichen.48 Klickt man in seinem Prototypen zum Beispiel auf Icons von Dateien, wird ein Sound generiert, der klingt als würde man auf Holz klopfen. Klickt man auf Programm-Icons hört man einen metallischen Klang. Diese Zuordnung beruht auf einer Material-und-Werkzeug-Metapher. Dateien werden zum Material erklärt und Programme zu Werkzeugen für deren Bearbeitung. Die visuelle Büro-Metapher mit ihren Akten, Ordnern und Papierkörben wird sozusagen durch eine auditive Schreinerei-Metapher ergänzt. Auf dieser Ebene sind Gavers Auditory Icons ikonische Zeichen auf der nach Peirce niedrigsten Ähnlichkeitsstufe der metaphorischen Übertragung.49 Durch die Metapher wird eine Ähnlichkeit zwischen 47 Vgl. Janata 2007. 48 Vgl. Gaver 1989. 49 Vgl. Peirce 1931, 277.

256

Semiotik auditiver Interfaces

den gedanklichen Modellen Datei/Programm und Material/Werkzeug beziehungsweise Holz/Metall hergestellt. Durch die Parametrisierung der Auditory Icons kommt dann eine weitere semantische Ebene ins Spiel. Gaver macht die Tonhöhe der Sounds abhängig von der Größe der angeklickten Datei. Eine große Datei erzeugt einen tieferen Ton als eine kleine Datei.50 Dadurch wird dem Nutzer bei der Interaktion eine Vorstellung von der Größe der Datei vermittelt – schnell und intuitiv, ohne Zahlen lesen zu müssen. Wenn die Holz-Metapher einmal akzeptiert ist, muss die Übertragung von Dateigröße auf Tonhöhe nicht mehr gelernt oder reflektiert werden. Sie entspricht der Alltagserfahrung im täglichen Leben: Ein großes Stück Holz klingt tiefer als ein kleines.51 Gaver spricht in diesem Zusammenhang von Icons, die auf physikalischen und kausalen Prinzipien beruhen. Finally, iconic mappings are based on physical causation – the display entities look or sound like the things they represent. This […] kind of mapping, [is] named after Peirce’s (1932) use of the term, […] an auditory icon may be a recorded sound, or one synthesized to capture important features of an everyday sound. What is important is that the attributes of the representation convey information by virtue of their causal relations to the attributes they represent.52 Wenn man sich aber auf Peirce bezieht, sind Zeichen, die auf physikalisch-kausalen Zusammenhängen beruhen, keineswegs Ikone, sondern Indexzeichen. Zum Ikon werden diese Indexzeichen erst, wenn man sie imitiert wie im Beispiel des Auslösegeräusches einer Fotokamera. Nun kann man diskutieren, ob es einen Unterschied gibt zwischen einem aufgezeichneten Geräusch, welches als Wellenform-Datei gespeichert vorliegt und einfach nur unverändert abgespielt wird und einem Sound, der mit Hilfe eines parameterabhängigen Algorithmus generiert wird – physikalisch modelliert und in Echtzeit. Für die Wahrnehmung des Computernutzers dürfte die Tatsache, dass dieser Klang auf einer metaphorischen Übertragung beruht und durch hochgradig symbolischen Programmierund Maschinencode erzeugt wird, zweitrangig sein: Die Tonhöhe wird als Index für die ›physikalische‹ Größe der Datei wahrgenommen. Gavers Diagramm zur Systematik der visuellen und auditiven Zeichen von 1989 (Abb. 2) beginnt links mit der Modellwelt des Computer-Interfaces, also im vorliegenden Fall die Schreibtisch- und Bürometapher der grafischen Benutzeroberfläche. Diese Modellwelt muss nun für den Nutzer sicht- und hörbar gemacht werden. Auf der visuellen Ebene diente die Schreibtischmetapher der grafischen Nutzeroberflächen mit ihren kleinen 50 Speicherplatz, der auf der Festplatte von der Datei belegt wird. 51 Vgl. Gaver 1989, 7 und Oswald 1996. 52 Vgl. Gaver 1989, 11 (Hervorhebung durch den Verfasser).

David Oswald

257

Abb. 2: William Gavers Systematik der visuellen und auditiven Zeichen in Computer-Interfaces von 1989.

Bildchen von Ordnern, Dateien und Papierkörben dazu, den Computer für normale Büroangestellte verständlich zu machen. Die Metapher war dem Nutzer dabei als bildhafter Vergleich zwischen Papierakte und Computerdatei ständig bewusst, denn erst diese bewusste Analogie ermöglichte das Verständnis und die Nutzung durch Computerlaien. Heute – drei Jahrzehnte später – ist die ursprüngliche Bedeutung dieser Metapher für die meisten Computernutzer völlig aus dem Bewusstsein verschwunden. Kaum jemand denkt bei einem Computer-Ordner noch an den ursprünglich referenzierten Pappordner, geschweige denn bei einem Dropdown-Menü an die Auswahl auf der namensgebenden Speisekarte in einem Restaurant. Die Metapher verliert ihren didaktischen Brückencharakter, sobald man die Brücke erfolgreich überquert und das Lernziel auf der anderen Seite verinnerlicht hat. Die Analogie, die das metaphorische Bild geliefert hat, verliert ihre Relevanz und wird vergessen. Man kann sie auf der anderen Seite zurücklassen und – um im Bild zu bleiben – man kann die Brücke hinter sich abbrechen. Um zurück auf die semiotischen Zeichenkategorien zu kommen: Eine Metapher stellt eine Ähnlichkeit her, sie funktioniert also ikonisch. Mit der Loslösung vom Ursprungsbild bleibt aber am Ende nur eine Konvention und damit streng genommen eine nunmehr symbolische Zeichenbeziehung. In der Wahrnehmung des Nutzers führt aber diese Verinnerlichung dazu, dass das selbe Zeichen indexalisch wahrgenommen wird – direkt und ohne bewusste Dekodierung. Ein Zeichen kann also durchaus gleichzeitig Index, Ikon und Symbol sein. Wenn zum Beispiel etwas in den Computer-Papierkorb geworfen wird, ist das dabei entstehende Geräusch für den Nutzer ein eindeutiges Anzeichen dafür, dass die Datei

258

Semiotik auditiver Interfaces

wirklich dort gelandet ist und nicht etwa knapp daneben – es ist in diesem Fall ein Index. Da das Geräusch nicht kausal bedingt ist, sondern auf hochgradig symbolischem Programmiercode beruht, ist es gleichzeitig ein Symbol. Und weil das abgespielte Geräusch einem Wegwerf-Geräusch im echten Leben ähnelt, ist es zudem ein Ikon. Welche der drei Funktionsweisen jeweils dominiert, ist dabei abhängig von der Erfahrung und Wahrnehmung des individuellen Nutzers und daher nicht vorhersehbar. Zurück zu Gavers Systematik. Er spricht von drei perzeptiven Mappingmethoden um die Modellwelt des Computers wahrnehmbar zu machen: ikonisch, metaphorisch und symbolisch. Dass hier die Kategorie der Indices fehlt, ist wahrscheinlich nicht philosophisch oder in einer ›fundamentalistisch‹ ausgelegten Semiotik begründet. Natürlich ist das Crash! beim Entleeren des virtuellen Mülleimers kein physikalisch erzeugter IndexSound. Da aber Gaver in der Tradition der Kognitionspsychologie steht, liegt die Vermutung nahe, dass er das Zeichen Ikon nennt, weil es damals wirklich als eine Repräsentation wahrgenommen wurde und eben nicht als quasinatürlicher Index. Das Geräusch ist dann ein Ikon, wenn es vom Perzipienten bewusst als imitiertes Geräusch wahrgenommen wird, welches nicht physikalisch-kausal bedingt ist. Das damals noch vorhandene Bewusstsein der Computernutzer dafür, dass visuelle Zeichen auf dem Bildschirm nur Repräsentationen und Metaphern sind, lag darin begründet, dass sie – auf Grund der kurzen Zeit seit Einführung der grafischen Interfaces – noch nicht verinnerlicht worden waren. Auch wenn die Wahrnehmung des individuellen Nutzers nicht vorhergesehen werden kann, gab und gibt es natürlich das Muster des typischen oder durchschnittlichen Nutzers – und dieses hat sich im Laufe der Jahrzehnte radikal verändert. Semiotikbasierte Systematik der auditiven Zeichen Mit dem Wandel des typischen Nutzers von Digital Naives in den 1980er Jahren zu den heutigen Digital Natives, hat sich auch die Wahrnehmung der Computer-Interfaces verändert. Die Modellwelt der Computer-Interfaces – der Computer als Büro-Puppenstube – wird schon längst nicht mehr als solche wahrgenommen. Die Interfaces werden quasi als zweite Natur wahrgenommen – indexikalisch und direkt. Dateien und Ordner werden heute als reale Objekte wahrgenommen, die wir erstellen, bearbeiten und wegwerfen können – unabhängig davon, wie viele symbolische Schichten darunter liegen mögen. Das begleitende Geräusch ist ein Index dafür, dass die Datei jetzt im Papierkorb ist. Die Nullen und Einsen auf der Festplatte mögen sich dabei um keinen einzigen Sektor bewegt haben – das spielt bei der Interpretation des Zeichens keine Rolle. Auf Grund dieser Überlegungen möchte ich eine Systematik vorschlagen, die auf der heutigen Wahrnehmung der Nutzer beruht und die Künstlichkeit und Metaphernhaftigkeit der Modellwelt der Interfaces bewusst außer Acht lässt (Tab. 1). Ich betrachte also

David Oswald

259

die auditiven Zeichen innerhalb der Modellwelt, unter der Prämisse, dass das Modell verinnerlicht wurde und in der Wahrnehmung seine Modellhaftigkeit verloren hat. Index

Ikon (hohe Ikonizität, bildlich)

Ikon (niedrige Ikonizität, metaphorisch)

Symbol

Parametrisierte Geräusche

Imitierte Geräusche

Musikalische Motive

Einzelne Töne

Tab. 1: Vorschlag für eine semiotikbasierte Systematik der auditiven Zeichen in Computer-Interfaces.

Parametrisierte Geräusche sind eigentlich ikonisch-metaphorische Übertragungen, die aber aufgrund von Erfahrung irgendwann genauso indexikalisch wirken wie natürliche Indices. Die parametrisierte Sonifizierung ist somit mit physikalisch-kausalen Zusammenhängen vergleichbar. Denn auch die Interpretation von natürlichen Indexzeichen muss man erlernen. Der Mensch beginnt mit dem Erlernen der natürlichen Indices nur früher – von Geburt an. Imitierte Geräusche können sowohl als Index wirken als auch als Ikon wahrgenommen werden. Ob der Klang bewusst als auditives Zeichen wahrgenommen wird, welches bildhaft für etwas anderes steht (Ikon) oder ob er nicht bewusst als Klang gehört wird, sondern nur als Begleitumstand eines Ereignisses (Index), ist abhängig vom Grad der Gewohnheit des Perzipienten, der konkreten Ausprägung des Zeichens und der intendierten Bedeutung. Musikalische Motive können eine strukturelle oder metaphorische Ähnlichkeit mit dem Denotat aufweisen. Während bei den Geräuschen vor allem Eigenschaften und Zustände durch Tonhöhe und Klangfarbe vermittelt werden, ist es bei musikalischen Motiven auch die Rhythmik, Intervallik und Melodieführung, die Bedeutung transportiert. Mit Hilfe von musikalischen Mitteln lassen sich auch physikalische Parameter wie Geschwindigkeit, Gewicht, Bewegung oder Richtung darstellen. Vor allem lassen sich aber emotionale Assoziationen hervorrufen, wie Gefährlichkeit, Spannung oder Harmonie. Bei der musikalischen Interpretation von Gefühlen wie Liebe oder Glück und abstrakten Begriffen wie Erfolg besteht die metaphorisch-ikonische Ähnlichkeit nur noch mit einer kulturell-symbolischen Bedeutungsebene der Musik. Einzelne Töne, deren Klangfarbe und Tonhöhe an sich keine Relevanz für die Bedeutung des Zeichens haben, sind reine Symbole. Früher wurden Fehler vom Computer mit einem einfachen, neutralen Piepton quittiert. Heute kann man seinen individuellen Fehler-

260

Semiotik auditiver Interfaces

Sound unter vielen auswählen: Froschquaken, klingende Glasflaschen, U-Boot-Sonare. Diese Zuordnung von Signal und Bedeutung ist völlig arbiträr und die Interpretation nur auf Basis einer Konvention möglich. Selbst wenn der Klang neben seiner intendierten Bedeutung (in diesem Beispiel Fehler) auf Grund seiner Klangeigenschaften noch andere Bedeutungen tragen sollte, ist er trotzdem zuerst ein Symbol und nur auf einer zweiten Ebene ein ikonisches Zeichen (zum Beispiel für Froschquaken) – was aber für die eigentliche Bedeutung unwesentlich ist.

5. Fazit und Ausblick Das Potential von Sound als Informationsträger in Computer-Interfaces liegt in der Praxis selbst 25 Jahre nach dem Beginn der Diskussion um Earcons und Auditory Icons noch weitgehend brach. Betrachtet man zum Beispiel den Ordner für Klangdateien des Betriebssystems Windows, scheint zwar der Methodenstreit beigelegt zu sein. Es herrscht dort eine friedliche Koexistenz von geräuschhaften Auditory Icons und musikalischen Earcons, sogar zu ungefähr gleichen Anteilen. Der Informationsgehalt dieser Klänge bleibt jedoch hinter den Möglichkeiten zurück. Oft sind die Klänge in Interfaces noch vorrangig dekorativ und haben kaum Informationsgehalt – ganz im Gegensatz zu alltäglichen Klängen. Vor allem die von William Gaver vorgeschlagene Parametrisierung der Klänge birgt hier noch ein riesiges ungenutztes Potential. In der analogen Lebenswelt kann man unendlich oft auf Holz klopfen – es klingt nie exakt gleich. Es klingt mal höher, mal tiefer, dann mehr oder weniger gedämpft: Unterschiede, die informativ sind. Diese natürliche Lebendigkeit und Informationsdichte fehlt im nicht-parametrisierten, Sounddesign, das immer noch fast ausschließlich auf dem simplen Abspielen von wenigen vorgefertigten Wellenformdateien beruht. Es geht also nicht mehr darum, welche der diskutierten Methoden die bessere ist. Es ist heute klar, dass beide ihre typischen und sinnvollen Anwendungsgebiete haben. Beide Methoden, die natürlich-geräuschhafte und die abstrakt-musikalische haben ihre spezifischen Vor- und Nachteile in der Anwendung. Der Gestaltungsprozess ist immer auch ein Auswahl- und Entscheidungsprozess. Daher muss der Gestalter zuerst den Möglichkeitsraum überblicken, also die Prinzipien und Methoden der unterschiedlichen Zeichentypen und deren Wahrnehmung kennen. Denn letztendlich geht es auch im auditiven Bereich um die klassischen Herausforderungen im Interfacedesign: Neben der ästhetischen Qualität soll eine zum jeweiligen Nutzertyp passende Balance aus schneller Lernbarkeit und langfristiger Effektivität gefunden werden.

David Oswald

261

Vielleicht ist es in den Augen des praxisorientierten Sounddesigners nicht das wichtigste Argument, aber für jeden Diskurs eigentlich eine Selbstverständlichkeit: Wenn mit Begriffen der Semiotik argumentiert wird, sollte dies auf einer semiotisch fundierten Basis passieren. Dass die Semiotik im auditiven Bereich bisher nur am Rande und in unsystematischer Weise zur Anwendung kam, ist erstaunlich, kann sie doch zum Verständnis der auditiven Kommunikation zwischen Mensch und Artefakt einen wertvollen Beitrag leisten – vor allem wenn nicht mehr nur vereinzelte, dekorative Klangzeichen gestaltet werden sollen, sondern ganze auditive Zeichensysteme. Doch ein Diskurs zu Non-Speech-Audio-Semiotics ist praktisch nicht existent. Vielleicht trägt dieser Artikel dazu bei, dies zu ändern.

6. Quellen Albersheimer, Gerhard (1980): Die Tonsprache, Tutzing. Betts, Paul (1999): New Bauhaus und School of Design, Chicago, in: Fiedler, Jeannine / Feierabend, Peter (Hg.), Bauhaus, Köln, 66-73. Blattner, Meera M. / Sumikava, Denise A. / Greenberg, Robert M. (1989): Earcons and Icons: Their Structure and Common Design Principles, in: Human-Computer Interaction, Volume 4, 11-44. Eco, Umberto (2002, original erstmals 1972): Einführung in die Semiotik, München. Gaver, William (1986): Auditory Icons: Using Sound in Computer Interfaces, in: HumanComputer Interaction, Volume 2 Issue 2. Gaver, William (1988): Everyday Listening And Auditory Icons. Diss., University of California, San Diego. Gaver, William (1989): The SonicFinder, An Interface That Uses Auditory Icons, in: Human Computer Interaction, 4, 67-94. Gibson, James Jerome (1979): The ecological approach to visual perception, Boston. Heise Verlag (2009): http://www.heise.de/newsticker/meldung/1984-Der-Macintoshschreibt-Geschichte-201823.html, 16.03.2011. HfG Ulm (Hg.) (1958): ulm 1, Vierteljahresbericht der Hochschule für Gestaltung, Ulm. Janata, Petr (2007): The Highs And Lows Of Being Tone Deaf, in: Nature Neuroscience 10, 810-812. Jewanski, Jörg / Sidler, Natalia (2005): Farbe, Licht, Musik: Synästhesie und Farblichtmusik, Bern. Klaus, Georg (1969): Semiotik und Erkenntnistheorie, Berlin.

262

Semiotik auditiver Interfaces

Langer, Susanne (1951, erstmals 1942): Philosophy In A New Key, New York, nach: Nöth, Winfried (1985), Handbuch der Semiotik, Stuttgart, 394. Lakoff, George (1987): The Death of Dead Metaphor, in: Metaphor and Symbolic Activity, 143-147. László, Alexander (1925): Die Farblichtmusik, Leipzig. Morris, Charles William (1971, erstmals 1946): Writings On A General Theory of Signs, Den Haag. Morris, Charles William (1988, original erstmals 1938/1939): Grundlagen der Zeichentheorie / Ästhetik der Zeichentheorie, Frankfurt a. M. Motte-Haber, Helga de la (1994): Die Musik als Affektlaut, in: Welt auf tönernen Füßen, Schriftenreihe Forum, Band 2, hg. von Kunst- und Ausstellungshalle der Bundesrepublik Deutschland, Göttingen. Poisson, Célyne (1997): De l‘objet au sujet; pour une sémiotique du projet en design. Charles Morris et le New Bauhaus, in: Semiotics around the world: synthesis in diversity, hg. von Rauch, Irmengard, Carr, Gerald, Berlin, 859-862. Nattiez, Jean-Jaques (1990, original erstmals 1987): Music and Discourse – Toward a Semiology of Music, Princeton. Nöth, Winfried (2000): Handbuch der Semiotik, Stuttgart. Osmond-Smith, David (1972): The Iconic Process in Musical Communication, in: Versus 3, Mailand, 31-42, nach: Nöth, Winfried (1985), Handbuch der Semiotik, Stuttgart, 396. Oswald, David (1996): Sound in Computer Interfaces, unveröffentlichte Diplomarbeit, Köln. Peirce, Charles Sanders (1931): Collected Papers of Charles Sanders Peirce, hg. von Hartshorne, Charles, Weiss, Paul, Harvard. Peirce, Charles Sanders (1998): The Essential Peirce: Selected Philosophical Writings, Volume 2 (1893-1913), hg. von Peirce Edition Project, Bloomington. Saussure, Ferdinand de (2001, original erstmals 1916): Grundfragen der allgemeinen Sprachwissenschaft, hg. von Bally, Charles, Sechehaye, Albert, Berlin. Silvestrini, Narciso / Fischer, Ernst Peter / Stromer, Klaus (Hg.) (1998): Farbsysteme in Kunst und Wissenschaft. Spehr, Georg (Hg.) (2009): Funktionale Klänge. Hörbare Daten, klingende Geräte und gestaltete Hörerfahrungen, Bielefeld. Tarasti, Eero (2002): Signs of Music – A Guide to Musical Semiotics, Berlin/NewYork.

David Oswald

263

Sonifikation und Organisation Von Arbeitsliedern und Corporate Songs/Sounds Nada Endrissat und Claus Noppeney

What you can’t measure, you can’t manage. Populäre Managerweisheit

1. Organisation und Klang Denkt man an Organisationen, so löst dies in vielen Fällen eine bildliche, visuelle Assoziation aus: ein Organigramm, große Gebäude, lange Flure, Büroräume, Computer oder vielleicht eine Produktionshalle. Doch wie klingen Organisationen? Was lässt sich hören, wenn man versucht, die Arbeit oder ihre Abläufe, die Organisationskultur oder ihr Image zu vertonen? Was lässt sich (Neues) über Organisationen erfahren, wenn man sich auf diese Form der Wahrnehmung fokussiert? Solche Fragen spielten bisher in der Managementtheorie und -praxis eine allenfalls marginale Rolle. Bislang dominiert – wie in vielen anderen Disziplinen auch – ein analytischer, von sinnlicher Wahrnehmung abstrahierender Zugang: Etymologists tell us that the word ›organization‹ means ›to endow with organs‹. Yet the history of organisation studies reveals an obsession with but one human sense organ: we work under the epistemological regime of the eye.1

1 Corbett 2003, 265.

265

Doch das Interesse für Sound, Musik und Sound Studies im Organisationskontext wächst. In historischer Perspektive erscheint dies auch als eine Wiederentdeckung alter Praktiken. Denn bereits die Pioniere modernen Managements beschäftigten sich zu Beginn des 20. Jahrhunderts mit dem Einsatz von Sound und Musik zur Erhöhung der Arbeitsproduktivität und Arbeitszufriedenheit bzw. zur Reduzierung von Monotonie und Müdigkeit.2 Die von Thomas Edison gegründete National Phonograph Company beispielsweise erkannte sehr früh die Potenziale ihres Kerngeschäfts für die Führung des eigenen Unternehmens. Bereits 1920 rief das Unternehmen einen musikpsychologisch ausgerichteten Forschungspreis ins Leben, um die Wirkungen unterschiedlicher Musikstile herauszuarbeiten. Anwendungsorientiert sollten auf diese Weise Instrumente entwickelt werden, mit denen Stimmung, Motivation und Wohlbefinden durch klangliche Interventionen gesteigert werden.3 Die klare betriebswirtschaftliche Fragestellung der Initiative weist auf den ideen- und wirtschaftsgeschichtlichen Kontext des Taylorismus. Mit den auf Frederick Taylor zurückgehenden Prinzipien wissenschaftlicher Betriebsführung wurden erstmals systematisch empirische Forschungsmethoden für die Unternehmensführung eingesetzt. Nach dem Vorbild des Ingenieurs, der die von den Naturwissenschaften entdeckten Naturgesetze für den Bau und Betrieb einer Maschine nutzt, sollte auch die Managementpraxis die Wissenschaft nutzen. An die Stelle individueller Erfahrungen und Fertigkeiten tritt Taylors Idee des effizienten Systems: »In the past man has been first, in the future the system will be first«4. Das Vorhaben, mit klanglichen Interventionen der Müdigkeit und Monotonie industrieller Arbeit entgegenzuwirken, orientiert sich damit an der betriebswirtschaftlichen Leitidee der technischen Effizienz. Sound und Klang haben darüber hinaus auch Eingang in das Sprechen über Organisationen und ihre Prozesse gefunden: In großen Organisationen bezieht man sich auf die Chefetage als Teppichetage und spielt so auf die Unnahbarkeit und Diskretion vieler Führungsprozesse an, die man am gedämpften Geräuschpegel des Bodenbelags festmacht. In neuerer Zeit werden Fragen der Improvisation, Innovation oder Führung gerne mit der Metapher des Jazz verhandelt.5 Fragen der Sonifikation, im Sinne des Hörbarmachens nicht hörbarer Phänomene, sind in den Management- und Organisationswissenschaften jedoch weniger präsent. Und doch gibt es Beispiele, die als Verklanglichung verstanden werden können. So drücken Arbeitslieder den Rhythmus der Arbeitsbewegung und die Beziehung des Arbeiters zu

2 Vgl. die Übersichten bei Gioia 2006; Styhre 2008; Korycznski 2007; Prichard, Korczynski, Elmes 2007 sowie einige beispielhafte Referenzen: Disersens 1926; Wyatt, Langdon 1937; Uhrbock 1961. 3 Vgl. Gioia 2006, 250. 4 Taylor, 1911, 7. 5 Vgl. Meyer, Frost, Weick 1998; Prichard, Korczynski, Elmes 2007.

266

Sonifikation und Organisation

seiner Tätigkeit aus, Corporate Songs machen die Kultur und die Vision einer Organisation hörbar und das Sound Branding übersetzt das Image oder den Markenkern der Organisation für die Konsumenten. Zugegeben: dieses sind Beispiele für Verklanglichung in einem weiteren und weicheren Sinne als beispielsweise die Sonifikation von quantitativen Daten im Kontext von Rechnungswesen oder Buchhaltung.6 Gleichwohl: wir meinen, dass mit diesem Fokus gut an die aktuelle Organisationsforschung angeschlossen werden kann. Ziel des vorliegenden Beitrags ist es daher, die Relevanz der Sonifikation für den Bereich der Management- und Organisationsforschung heraus zu arbeiten und an drei Beispielen (den Arbeitsliedern, den Corporate Songs und dem Sound Branding) zu verdeutlichen. Es sollen die historischen Entwicklungen und der aktuelle Wissensstand skizziert sowie die Entwicklungen problematisiert und offene Forschungsfragen identifiziert werden.

2. Arbeitslieder als Verklanglichung der Arbeitsbewegung und der Arbeitstätigkeit Die Praxis der Arbeitslieder reicht bis in die ägyptische Hochkultur zurück. Die damals zur Arbeit gesungenen Lieder hatten die Aufgabe »einen sich durch Laut bei der Arbeit ohnedies ergebenden Rhythmus zu verstärken oder ihn gleichmäßig zu erhalten, oder aber bei Arbeiten, die keinen Taktschall erzeugen, einen solchen künstlich hervorzurufen, um damit die Gleichmäßigkeit von Muskelbewegung zu gewährleisten«7. Die Lieder dienten somit der Rhythmisierung gleichbleibender Bewegungen (z. B. bei Arbeiten wie dem Rudern, Mähen, Dreschen oder Marschieren), um eine Erleichterung bzw. Ermutigung zur Arbeit zu erzielen. Dabei wurde bereits die Bedeutung der Verklanglichung des Rhythmus für die Arbeitsbewegung erkannt: Wo zwar eine rhythmenbildende Regulierung der Arbeit möglich ist, die letztere aber keinen eigentlichen Taktschall ergibt, wird dieser oft durch künstliche Mittel hervorgerufen. In erster Linie dient dazu die menschliche Stimme, die schon bei schwerer Arbeit eines einzelnen die Augenblicke der höchsten Anstrengung durch einen unartikulierten, gepreßten Laut oder durch lauten Ausruf markiert.8

6 Vgl. Bettner, Frandsen, McGoun 2010. 7 Brunner-Traut 1975, 378, vgl. auch Bücher 1924; Helck & Otto 1975. 8 Bücher 1924, 38.

Nada Endrissat und Claus Noppeney

267

Die Lieder wurden entweder von den Arbeitern selber gesungen oder von Sängern in Begleitung von Klatschern vorgesungen. Mit ihren musikalischen Eigenschaften (Rhythmus, Takt, Melodie) verklanglichen die Arbeitslieder einen idealtypisch gedachten Prozessablauf. Zugleich wirken sie unmittelbar auf die unterschiedlichen Prozessbeteiligten zurück und richten sie auf diesen ideal gedachten Ablauf aus. In der Praxis erweist sich das Arbeitslied damit als ein frühes Steuerungsinstrument der Ablauforganisation, mit dem auch arbeitsteilig organisierte Aktivitätsketten koordiniert werden können. Über ihre formale und musikalische Qualität hinaus spornten die Lieder auch inhaltlich in der Regel zur Arbeit an und unterstrichen dafür die positiven Aspekte.9 In einem Fischerlied beispielsweise heißt es: Es [das Netz] kommt, nachdem es uns einen schönen Fang eingebracht hat. In der Landwirtschaft werden die Rinder als Nutztiere vom Rindertreiber direkt angesprochen: Drescht für euch, drescht für euch, ihr Rinder, drescht für euch, drescht für euch! Das Stroh zum Futter, das Korn für eure Herren! Laßt eure Herzen nicht matt werden! Es ist kühl und angenehm. Es gibt jedoch auch Hinweise auf Lieder mit kritischen Stimmen, so zum Beispiel von Arbeitern, die Säcke mit Gerste und Dinkel auf Lastschiffe laden: Sollen wir den ganzen Tag Gerste und weißen Spelt tragen? Schon sind die Scheunen voll und laufen über, es häuft sich vor ihren Toren. Auch die Schiffe sind schwer beladen, und das Korn quillt heraus. Und doch treibt man uns an. Ist unser Herz denn aus Erz? Die Arbeitslieder drücken somit auch die Beziehung zwischen dem Arbeiter und seiner Tätigkeit aus. Der Vergleich zwischen einem Sklaven und einem Fischerlied legt die Unterschiede in Motivation und Freiwilligkeit der Arbeit offen.

9 Nachfolgende Beispiele aus Brunner-Traut 1975, 381 ff.

268

Sonifikation und Organisation

Für die Organisationsforschung ergeben sich aus den Arbeitsliedern Hinweise auf die Motivation und Freiwilligkeit der Arbeit (z. B. Sklavenlieder vs. Fischerlieder). Dies zeigt sich auch zu späteren Zeitpunkten. So kann man feststellen, dass Arbeitslieder vor der Industrialisierung vor allem zwei Funktionen erfüllten:10 erstens die Koordination und das pacing der Arbeit und zweitens den Arbeitern eine Stimme zu verleihen, um ihren Unmut oder Kummer auszudrücken, was auf anderem Wege (z. B. in gesprochener oder geschriebener Sprache) nicht möglich war. Vor der Industrialisierung waren Arbeitslieder in beiden Funktionen weit verbreitet. Es existieren zahlreiche kulturhistorische Studien zu Liedern von Arbeitern aus der Landwirtschaft, Fahrern von Pferde- und Viehwagen, Bergleuten, Seeleuten, Schneidern, Schustern, Händlern, etc.11 Auch hier reflektieren die meisten Lieder den Inhalt der jeweiligen Arbeitstätigkeit und drücken in ihrem Rhythmus die Arbeitsbewegungen aus. Diese Zusammenhänge zwischen Klang und Arbeit machen den Klang zu einem reichen Medium, mit dem konkrete Arbeitserfahrungen erkundet werden können.12 Denn Musik und Klang vermag gesellschaftliche Verhältnisse auszudrücken und zu ordnen.13 Diese soziale Funktion des Klangs kann soweit gehen, dass sie zeitlich begrenzt alternative Machtverhältnisse ermöglicht: Arenas for transgression or what may be called ›carnivalistic symbolism‹, that is, ›symbolic action‹ temporarily overturning the social order, thereby paradoxically reproducing the predominant social system.14 Diese ambivalente Funktion des Arbeitslieds setzt sich mit der Industrialisierung fort. Mit dem Aufkommen der Fabriken werden zunehmend neue Energieformen wie Dampf und Gas für den Betrieb von Maschinen und Werkzeugen genutzt. Gleichzeitig bringt die Industrialisierung neue Organisations- und Arbeitsformen hervor. Die Maschinen übernehmen die Strukturierung der Arbeit und geben den Arbeitsbewegungen einen Rhythmus vor. Mit der Fließbandfertigung – wie sie beispielsweise in Charlie Chaplins Modern Times vor Augen geführt wird – spitzt sich dieser Prozess der technisch definierten Arbeitsabläufe weiter zu. Aus einer Klangperspektive treten Maschinengeräusche an

10 Vgl. Prichard, Korczysnki, Elmes 2007. 11 Vgl. Prichard, Korczysnki, Elmes 2007; Gioia 2006 liefert eine umfassende Analyse von Arbeitsliedern. Dort finden sich auch Beispiele für populäre Tonaufnahmen (z. B. American industrial ballads; Back in the saddle again; Cattle calls: early cowboy music and its roots; Don’t mourn – organize! Songs of labor songwriter Joe Hill; Harvest Songs: music from around the world inspired by working the land; The iron muse: a panorama of industrial folk music; Railroad songs and ballads).. 12 Korczynski 2007, 258. 13 Styhre 2008, 112. 14 Lloyd 1967 zitiert nach: Prichard, Korczynski, Elmes 2007.

Nada Endrissat und Claus Noppeney

269

die Stelle des gesungenen Lieds. Die Technologien wiederum begünstigen die Trennung zwischen den eigentlichen Arbeitsprozessen und der Managementfunktion (Planung, Organisation, Kontrolle). Der einzelne Arbeiter hat sich auf wenige, einfache Arbeitsgänge zu spezialisieren. Hohe Arbeitsteilung, Mechanisierung, Massenfertigung kennzeichnen den Übergang vom Handwerk zum Fabriksystem. Damit differenzieren sich die Arbeitswelt und ihre Organisationen aus der Lebenswelt. Die inneren Zusammenhänge zwischen Musik und Arbeit, wie ihn die vor-industriellen Arbeitslieder beispielhaft zum Ausdruck bringen, lösen sich auf. Das selbstbestimmte und selbstkomponierte Arbeitslied verschwindet aus der Welt der Arbeit und zieht sich in die private Sphäre der Erholung zurück. Viele Organisationen betrachten das Singen von Liedern als schädlich für Arbeitsmoral und Disziplin.15 Die Musik steht unter dem Verdacht der Nostalgie und des Widerstands gegen die neue Organisation. Aus einer Spinnereifabrik in Manchester wird aus dem frühen 19. Jahrhundert berichtet, daß das Pfeifen eines Liedes bestraft wurde.16 Mit dem Verbot sollten die Akteure vermutlich möglichst umfassend kontrolliert werden. Denn tatsächlich begleitet Musik und Gesang seit jeher soziale Proteste.17 Mit einem Verbot soll daher auch ein Gefühl von Zusammengehörigkeit und Einheit unterbunden werden. In den ersten Ford-Werken gab es sogar Versuche, das Sprechen zu unterbinden und dadurch absolute Stille – von den Maschinengeräuschen abgesehen – zu erzielen. Die politische Dimension dieser Praxis liegt auf der Hand: mit Stille verbindet sich der Versuch, eine Ordnung zu schaffen, zu legitimieren oder aufrechtzuerhalten.18 Zusammenfassend kann das Verbot des Arbeitslieds so auch als eine frühe Form der gezielten Kontrolle eines unternehmensspezifischen Soundscapes gedeutet werden. Zum ambivalenten und brisanten Status des Sounds in Organisationen gehört es, dass fast gleichzeitig erste Unternehmen nicht die Stille, sondern die Musik bzw. den Klang bewusst zu nutzen beginnen: Die englischen Schokoladenunternehmen Cadbury und Rowntree gehören zu den ersten, die den Gesang im Organisationskontext anordnen.19 Beide Unternehmen waren im Geist der Quakerbewegung gegründet worden. So war Edward Cadbury besorgt um die negativen Folgen der monotonen und repetitiven Fabrikarbeit. Hier sollte die Musik ansetzen. Denn vom organisierten Gesang erhoffte man sich wie von einer körperlichen Ertüchtigung eine Linderung der negativen Folgen. Auch bei Rowntree gab es organisierten Gesang. Die tägliche 30-minütige Durchführung erinnert an die Form einer religiösen Andacht, die der seelischen Erbauung nach den Stra-

15 Vgl. Watson 1983. 16 Korczynski, Jones, 2006, 14. 17 Attali 1985. 18 Attali 1985, 30. 19 Robertson, Korczynski, Pickering 2007.

270

Sonifikation und Organisation

pazen der Fabrikarbeit dient. Der religiöse Hintergrund der Firmengründer deutet auf ein kompensatorisches Verhältnis zwischen der entmenschlichten Welt der Fabrikarbeit und der Musik: Die Musik und das Singen sollte den Arbeiter erbauen und etwas von seiner Würde zurückgeben. Diese Praxis bricht in der Zwischenkriegszeit aus Sorge um die ablenkenden und aufwiegelnden Folgen der Musik jedoch bereits wieder ab.20 Gleichzeitig wird die Musik in den Vereinigten Staaten als Managementinstrument im modernen Dienstleistungssektor entdeckt. Ein besonderes Beispiel ist der Haushaltsgerätehersteller Maytag. Bei Maytag wird das Arbeitslied in der Organisation der Vertriebsabteilung eingesetzt, was für die Organisationsforschung eine wichtige Neuerung darstellt.21 Gegenüber der Industriearbeit in der Fabrik erscheint die Arbeit in einer Vertriebsorganisation zunächst als Gewinn individueller Freiheitsgrade für den einzelnen Angestellten. Denn Vertriebsmitarbeiter lassen sich viel schwieriger kontrollieren als Arbeiter in einer Fabrik. Schon die räumliche Distanz verunmöglicht die direkte Überwachung. So zielen diese neuen Lieder darauf ab, zunächst überhaupt eine verbindende Identifikationsbasis und ein Gemeinschaftsgefühl der eigenständig arbeitenden Vertriebsmitarbeiter zu schaffen. Die Texte zu den Liedern waren zu einem großen Teil von den Mitarbeitern selber verfasst, die Vorlage für die Melodie stammte meistens aus der Populärmusik, um die Motivationswirkung zu stärken. Zeitungsberichten zufolge gab es sogar Wettbewerbe um die besten Songs, die dann durch das Management prämiert wurden. Ähnlich wie die frühen Arbeitslieder in Ägypten drücken auch die Arbeitslieder der Vertriebsmitarbeiter bei Maytag ihr Selbstkonzept als Verkäufer und ihre Beziehung zur Tätigkeit aus. Zudem spiegeln sie die Kultur und Werte der Organisation. Zwei Beispiele: Gone are the days, when I laid in bed till nine, Gone are the days, when I wasted hours so fine, Gone and fore aye, for I wakened with a jerk, I heard the prospect loudly calling: Work, work, work. It’s a great gang that sells the Maytag, It’s a great gang to know; They are full of pep and ginger, And their watchword is ›Let’s Go!‹

20 Robertson, Korczynski, Pickering 2007. 21 Vgl. zum Fall Maytag: Nissley, Taylor, Butler 2002.

Nada Endrissat und Claus Noppeney

271

Always on the level Always fair and square, It’s a great old gang that sells the Maytag, And my heart is right there! Die Maytag-Songs definieren die Rolle der Vertriebsmitarbeiter im Unternehmen, ihr Selbstkonzept und ihre Beziehung zu den Kunden. Zudem steuern und regulieren sie ihr Verhalten. Daher können sie in diesem Sinne als eine wirksame Form von Managementkontrolle angesehen werden, da sie am Selbstkonzept der Mitarbeiter ansetzt.22 An den Arbeitsliedern bei Maytag fällt auf, dass sie zunächst eine bestimmte Kultur und Erwartungshaltung abbilden und gleichzeitig diese Kultur mit beeinflussen und verstärken. Auf diese Weise werden die existierenden Machtverhältnisse unter Beteiligung der Betroffenen einerseits verfestigt.23 Andererseits wird jedoch immer wieder auch das positive Entwicklungspotenzial für Organisationen hervorgehoben.24 Fazit: Die Industrialisierung geht mit einer Instrumentalisierung und Funktionalisierung von Sound und Musik einher. An die Stelle selbstbestimmter und in der Lebenswelt verwurzelter Lieder tritt eine durch das Management verordnete Musikpraxis. Das vorindustrielle Arbeitslied geht musikalisch von konkreten Arbeitsbewegungen, Arbeitsrhythmus oder Arbeitsinhalt aus und sucht nach einer klanglichen Repräsentation. Der systematische und organisierte Einsatz von Sound, wie er im 20. Jahrhundert aufkommt, vermittelt demgegenüber eine strategische Orientierung, die sich aber weiterhin auf konkrete Tätigkeiten bezieht. Diese arbeitspsychologisch fundierte Konzentration auf die konkreten Arbeitsschritte prägte auch das BBC Radioprogramm Music while you work. Es entstand unter den Bedingungen der Kriegswirtschaft 1940 und sendete bis 1967 täglich leichte Unterhaltungsmusik, die für das Hören bei der Arbeit zusammengestellt wurde. Die Auswahl der Musiktitel zielte auf eine Beschleunigung einfacher Fabrik- und Büroarbeiten. Ebenso wurde konsequent auf Titel verzichtet, bei denen durch Klatschen oder Mitklatschen Störungen der Arbeitsschritte befürchtet werden konnten.25

22 Zur Bedeutung von Selbstkonzepten für die Managementkontrolle vgl. Alvesson, Willmott 2002; Barker 1999. 23 Vgl. Conrad 1988. 24 Vgl. Gioia 2006, 254f; Nissley, Taylor, Butler 2002. 25 Styhre 2008, 139; Jones & Schumacher 1992.

272

Sonifikation und Organisation

3. Corporate Songs als Verklanglichung der Kultur und der Vision von Organisationen IBM, happy men, smiling all the way Oh what fun it is to sell our products night and day!26

Mit dem Aufkommen der Corporate Songs verschiebt sich die Perspektive von einzelnen Tätigkeiten und Funktionen in einer Organisation auf das Unternehmen als Ganzes und seine Kultur. Unter Corporate Songs versteht man Lieder und Hymnen, die vom Unternehmen vorgegeben und sowohl von Mitarbeitern als auch vom Management gesungen werden. Sie stärken das Zusammengehörigkeitsgefühl, steigern die Arbeitsmotivation und drücken eine angestrebte Unternehmenskultur aus. Die Unternehmenskultur prägt die Interpretation und das Verhalten ihrer Mitglieder. Ihre Verklanglichung über das Medium der Unternehmenslieder (corporate songs) leistet für die Mitglieder somit wichtige Interpretations- und Verhaltenshinweise. Erste Corporate Songs entstehen in der Zwischenkriegszeit in den USA. Das am besten dokumentierte Beispiel in diesem Zusammenhang ist das Liederbuch des Büromaschinenherstellers IBM.27 Die Idee des Singens geht auf den langjährigen Vorstandsvorsitzenden und faktischen Firmengründer Thomas Watson zurück. Watsons paternalistisches Führungsverständnis schlägt sich in den Liedtexten nieder. Die Texte beschwören IBM als Familie und den Vorstandsvorsitzenden in der Rolle des Vaters. Ferner thematisieren die Lieder das Unternehmen als Gemeinschaft, die Bedeutung von Ordnung und ein zeittypisches Verständnis von Verantwortung. Eine genauere Analyse der Textinhalte der IBM Songs ergibt, dass sich in ihnen mehrheitlich IBM als Arbeitgeber feiert und der Glaube an IBM wieder findet: Offen und direkt werden die Führungskräfte und Watson selbst gelobt und gefeiert. Paternalismus, Bekehrung, Absatz und Arbeitsethik ziehen sich durch die Texte. Musikalisch gehen vier von fünf Liedern auf bekannte Volkslieder, politische und religiöse Hymnen und Marschlieder zurück. Darüber hinaus finden sich auch Anspielungen an Balladen, Ragtime und Swing. Am Beispiel der aus dem amerikanischen Bürgerkrieg bekannten Marschlieder zeigen sich die Unterschiede zum einfachen Arbeitslied, das lediglich Bewegungsabläufe regulieren und koordinieren sollte. Denn der politische Hintergrund der Musik weckte Gefühle von Patriotismus, mutigem Fortschritt sowie die

26 Song 74 des IBM Liederbuchs zitiert nach: El-Sawad, Korczysnki 2007, 86. 27 Die nachfolgenden Ausführungen zu IBM stützen sich auf El-Sawad, Korczysnki 2007; vgl. auch die Dokumentation des Unternehmensarchivs, http://www-03.ibm.com/ibm/history/exhibits/music/music_intro.html (15. Oktober 2011).

Nada Endrissat und Claus Noppeney

273

Erinnerung an Erfolge. Mit den bekannten Melodien konnten diese positiven Gefühle und Erfahrungen auf das Unternehmen umgeleitet werden. Denn auch die ursprüngliche Musik bezog sich mehrheitlich auf patriotische Aspekte und andere kollektive Zugehörigkeiten. Zudem tauchen Glück und Optimismus, Nostalgie (bezogen auf das Zusammengehörigkeitsgefühl) und Romantik als Themen auf. Im Folgenden seien drei Beispiele aus dem IBM Songbook zur Verdeutlichung der Argumentation zitiert:28 Who are we? Who are we? The International Family. We are T. J. Watson men We represent the I. B. M. (Auszug aus Song 76, The IBM slogan) We’re co-workers at IBM-all one big family. (Auszug aus Song 67, The IBM family) He’s a real father and a friend so true. Say all we boys. Ever he thinks of things to say and do, To increase our joys. (Auszug aus Song 5) Von einzelnen Liedern weiß man, dass sie bereits um 1910 gesungen wurden. Doch erst 1925 erfolgte mit der Drucklegung des IBM Liederbuchs eine systematische Dokumentation der mehr als 100 Lieder. Die breite Nutzung des Liederbuchs fällt in die Jahre 1925 bis 1950. Nach dem 2. Weltkrieg nimmt die Nutzung bis 1970 ab. Schließlich werden alle noch existierenden Liederbücher verbrannt. Ein Grund für das Verschwinden dürfte im Wandel des Musikgeschmacks und damit in der Unpopularität von bestimmten Volksliedern zu suchen sein. Mit dem Einsatz des Sounds hatte sich das Unternehmen neben der operativen und ökonomischen Sachrationalität nun auch an ästhetischen Kriterien orientiert. Doch mit der sinnlichen Erfahrung geht auch ein Zwang zur ästhetischen Erneuerung einher. Neue Musikrichtungen wie Jazz und Swing ließen die Lieder für die Hörer veralten. Zugleich waren die Lieder nicht flexibel genug, um den Wandel und die Entwicklung des Unternehmens klanglich aufzugreifen. Zudem hatte der politische

28 Die Liedzeilen sind entnommen: El-Sawad, Korczynski, 2007.

274

Sonifikation und Organisation

Missbrauch der Musik durch die Nationalsozialisten in Deutschland das gemeinsame Singen diskreditiert. Letztlich bot die Abschaffung des Liederbuchs Watsons Nachfolger die Chance, sich von seinem prägenden Vorgänger zu distanzieren. Der Erfolg des IBM Songbooks lässt sich insgesamt darauf zurückführen, dass es gelungen war, Lieder zu komponieren, die genau das ausdrückten, was die Mitarbeiter tagtäglich bei IBM sahen und erlebten, sprich: die IBM Organisationskultur. Die Lieder fangen die Alltags- und Erfahrungswelt der Organisation ein und übertragen sie in eine sinnliche Erfahrung. In diesem Sinne können die Corporate Songs als erfolgreiche Verklanglichung der Unternehmenskultur, der Werte, Normen und Versprechen von IBM angesehen werden: »What they sang resonated with what they saw, which in turn became what they knew«29. Mit einem eigenen Liederbuch ist IBM sicher ein Sonderfall. Doch ähnlich wie IBM benutzten auch die Gewerkschaften nicht nur in den USA Lieder und ähnliche Melodievorlagen, um Gemeinschaft und Solidarität zu erzeugen, z. B. »Marching through Georgia«. Bei IBM: »Hurrah! Hurrah! For glorious IBM. Hurrah! Hurrah! We‘re T. J.Watson‘s men«. Bei den Gewerkschaften: »Hurrah! Hurrah! The Union makes us free. Hurrah! Hurrah! It‘s all for you and me«30. In den späten 1980er Jahren zeichnet sich dann eine Wiederentdeckung der Unternehmenslieder ab. Diese Entwicklung fällt zusammen mit der Diskussion um die Bedeutung der Unternehmenskultur für den Erfolg eines Unternehmens, wie sie vor allem in der Auseinandersetzung mit den japanischen Exporterfolgen entstanden war.31 Gelebte Werte und Normen wurden so als Erfolgsfaktoren gesehen. In diesem Kontext entstehen in vielen grossen Unternehmen neue Unternehmenslieder: AT&T, Hewlett Packard, Philips, KPMG sind bekannte Beispiele dieser Entwicklung, die später durch das Internet auch neue kulturelle Resonanzen ausgelöst hat. Kaum bekannt ist dabei das Beispiel der amerikanischen Restaurantkette Johnny Rockets, die 1986 in Kalifornien gegründet wurde.32 Das Konzept der einzelnen Filialen orientiert sich an der typischen Atmosphäre eines amerikanischen Restaurants der unmittelbaren Nachkriegszeit: Burger, Cola und Milchmischgetränke. Die klassisch bestückte Musikbox komplettiert den bewusst nostalgischen Gesamteindruck der authentischen Innendekoration. So gehört ein bestimmter Sound zur Konsum- und Arbeitserfahrung

29 »Resonance refers to the phenomenon when one object, vibrating at the same natural frequency of a second object, forces that second (and perhaps a third, fourth, etc.) object into vibrational motion in sympathy and unison with the first, creating a loud, powerful, multisource sound«, El-Sawad, Korczynski, 2007, 97 f. 30 El-Sawad, Korczynski, 2007, 94. 31 Vgl. Peters, Watermann 1982. 32 Das Beispiel der Restaurantkette Johnny Rockets ist bislang noch nicht beforscht worden. Doch finden sich auf YouTube zahlreiche Kurzfilme.

Nada Endrissat und Claus Noppeney

275

bei Johnny Rockets. Ausserdem hat sich bis heute in vielen Filialen eine Musikpraxis erhalten, die vor dem Hintergrund der bisherigen Argumentation bereits bei der Unternehmensgründung nur als historische Anspielung funktioniert haben dürfte: Denn zur Hauptgeschäftszeit über den Mittag unterbrechen zuweilen alle Mitarbeiter einer Filiale ihre Arbeit, um nach Möglichkeit gemeinsam mit den Kunden vor oder hinter der Theke zu einem populären Musiktitel zu singen und zu tanzen. Zunächst erscheint die musikalische Intervention angesichts von Stress und Hektik um die Mittagszeit als irrational: Die Kunden kommen zum Essen ins Restaurant und die Mitarbeiter in der Küche und in der Bedienung singen statt zu kochen oder die fertigen Speisen an die Tische zu bringen. Doch offensichtlich signalisiert das Lied nicht nur, dass nun die Hauptgeschäftszeit angebrochen ist und deshalb mit längeren Wartezeiten zu rechnen ist. Die kurze musikalische Unterbrechung verwandelt das Restaurant in einen Ort der Musik. Die Küche wird zur Bühne, die von einigen mit sichtbarer Passion bespielt wird. Das gemeinsame Singen hebt die verschiedenen Grenzen in einem Restaurant auf: zwischen Küchenmitarbeitern und Bedienung, zwischen Kunden und Mitarbeitern, zwischen Stammgästen und Laufkundschaft etc. Die beteiligten Mitarbeiter erleben die Unterbrechung als eine schöne Seite ihrer Tätigkeit. Die Kunden erleben die Wartesituation als eine Musik- und Tanzshow, zu der sie selber beitragen. Die Musikpraxis erzeugt für wenige Minuten eine eigene Erfahrungswelt für alle Beteiligten. Denn schliesslich geht es nach dem Singen weiter im Rhythmus einer rationalisierten Restaurantkette. Bei Johnny Rockets hat sich eine Musikpraxis in einem Unternehmen in den letzten 30 Jahren entwickeln und erhalten können, die verschiedene Elemente aus der Tradition des Arbeitslieds, des Unternehmenslieds und der bei der Arbeit bloß laufenden Volksmusik kombiniert. In der Tradition des Arbeitslieds bezieht sich die Musik auf konkrete Tätigkeiten. Zudem sind es die Mitarbeiter selbst, die über die Musik entscheiden. Auch wenn die große Zeit des Arbeitslieds vorbei ist, entwickeln sich auch heute Praktiken, die Grundprinzipien des Arbeitslieds aktualisieren.33 Ähnlich dem Unternehmenslied weist die Musikpraxis bei Johnny Rockets schließlich aber auch auf das Unternehmen als Ganzes, das Unternehmensimage und Branding. Doch werden die Lieder nicht unternehmensspezifisch verändert, sondern wie im Radio einfach mitgesungen. Fazit: Die verschiedenen Beispiele zeigen ein breites Spektrum von Unternehmensliedern. Sie sind vor allem dann effektiv, wenn sie die soziale Realität in den Organisationen einfangen und klanglich umsetzen. Dabei dient das Unternehmenslied als ein Mittel zur Regulation und Kontrolle der Mitarbeiter:

33 »Conventional wisdom tells us that the work song is dead, […] the work song of yore will never return«. Gioia 2006, 255.

276

Sonifikation und Organisation

Through song[s], employees were informed of the social order and social relations of the company, of their position within the corporate hierarchy, and were instructed to whom they should show reverence and deference, what they should think, how they should feel, how they should behave, and why. Songs, it seems, acted as a highly effective disciplinary device.34 Unternehmenslieder werden als Instrument zur Kontrolle und Durchsetzung bestimmter Ideologien verwendet. Musik und Sound sind niemals »unschuldig«, sondern stets eingebunden in bestimmte Ideologien und materielle Bedingungen, die sie verkörpern und tendenziell verstärken.35

4. Corporate Sound als Verklanglichung von Brand, Identität und Image einer Organisation Mit Corporate Sound ist die akustische Gestaltung einer Organisation gemeint. Der Klang baut eine emotionale Beziehung zwischen Sender und Empfänger auf und schafft assoziative Anker zur Wiedererkennung Zudem kommuniziert der Klang Botschaften und festigt das Image einer Organisation.36 Alternativ spricht man von sound strategy, sound design, sound identity, acoustic identity und organisational soundscape.37 Im vorliegenden Beitrag wird Corporate Sound im Sinne einer Strategie verstanden, die verschiedene Soundaspekte einer Organisation umfasst und zusammen genommen die akustische Identität einer Organisation widerspiegelt. Sie umfasst: den Werbesound (inklusive Sound-Logo und Jingles), den Sound in Warteschleifen am Telefon, den Sound in Aufzügen und Eingangshallen, den Sound auf Internetseiten sowie den Brand Song zu bestimmten Marken und Produkten. Aufgrund dieser unterschiedlichen Komponenten spricht man auch vom Corporate Sound als einem »Soundtrack der Organisation«38. Als Teil des Branding und des Marketing richtet sich der Corporate Sound zunächst an die Kunden. Doch geht mit dem Branding auch eine Entgrenzung der Organisation einher. Der Klang repräsentiert die Organisation nach außen und innen. Durch den Corporate Sound wird das Image, der Brand und die Identität der Organisation übersetzt, das,

34 El-Sawad, Korczynski 2007, 95; vgl. auch Nissley, Taylor, Butler 2002; Styhre 2008. 35 Attali 1985. 36 Spehr 2009, 32. 37 Vgl. dazu Steiner 2009, 181 ff. 38 Weiss 1995.

Nada Endrissat und Claus Noppeney

277

wofür die Organisation steht und was sie einzigartig macht. Die akustische Identität wird durch musikalische Parameter wie beispielsweise »Tempo, Rhythmus, Instrumentierung, Melodie etc. beschrieben und über Sound-Samples oder Klang-Collagen hörbar gemacht«39. Die Entwicklung zu dieser Form der Verklanglichung von Organisationen reicht bis in die 1930er Jahre zurück. Als frühe Beispiele wurden Pepsi Cola oder Chiquita bekannt. Eine andere Entwicklung ist unter dem Namen Sound Logo bekannt geworden. Als Beispiel kann hier »Intel Inside« angeführt werden. Der damals führende Computer-Chip Hersteller Intel fühlte sich vom Markt nicht angemessen wahrgenommen: Obwohl Intel das wichtigste Bauteil für die Mehrheit der weltweiten Computer herstellte, kannte kaum jemand die Firma. Dies veränderte sich schlagartig mit der Einführung der Pentium Klänge (dem Intel Sound Logo), die – nachdem sie endlos in der Fernsehwerbung wiederholt wurden – zu einem der meist wiedererkannten Sounds geworden sind.40 Radio-Jingles und Sound-Logos stellen jedoch nur Teilaspekte des Corporate Sounds dar, weil sich der Einsatz auf den Werbebereich beschränkt. Zentrale Bedeutung hat der Corporate Sound mit Beginn des 21. Jahrhunderts gewonnen. Herkömmliche visuelle Formate weichen einer stärker multisensorischen Kommunikation, die auch den Klang umfasst. Über den spezifisch gestalteten Corporate Sound können sehr konkrete Eigenschaften einer Organisation akustisch repräsentiert werden, indem der Sound beim Hörer bestimmte Bilder und Assoziationen hervorruft. Der Corporate Sound von Aventis (heute Sanofi-Aventis), einem international tätigen Pharmazieunternehmen mit Sitz in Frankreich, soll beispielsweise Gesundheit, Kraft, Forschung und Technologie ausdrücken.41 Für Alstom, einen weltweit agierenden Konzern im Energie- und Transportbereich, sollten die Eigenschaften von Intelligenz, Bewegung und Kraft umgesetzt werden. Grundsätzlich sollte nach Aussage des Sound-Designers ein upmarker image entstehen: Almost a fugue, the counterpoint expresses the technical and technological strengths of Alstom, as well as the pace of its activity.42 Ein aktuelles Forschungsbeispiel, das die Relevanz von sonifikationsähnlichen Verfahren für Organisationen unterstreicht, ist das Projekt Music/Innovation/CorporateCulture an der Universität Duisburg-Essen.43 Ziel des Projekts ist es, Organisationskulturen klang-

39 Steiner 2009, 182. 40 Partridge 2001. 41 Ebd. 42 Aude, zitiert in Partridge 2001. 43 Vgl. http://micc-project.org/ www.youtube.com/watch?v=UW6lAybMa0o, 15. Oktober 2011.

278

Sonifikation und Organisation

lich bzw. musikalisch hörbar zu machen und damit neben der Sprache ein sensorischemotionales Kommunikationsmedium für die Organisationsmitglieder zur Verfügung zu stellen. Praktisch werden dazu Verklanglichungen von Organisationen in Zusammenarbeit mit Musikern und Praxispartnern erarbeitet. Systematische Untersuchungen zur Wirkung von Corporate Sounds liegen bislang nicht vor. Gut dokumentierte Praxisbeispiele sind die Erarbeitung eines Corporate Sounds für die Hotelkette Intercontinental44 sowie für das schwedische Energieunternehmen Vattenfall45. Dabei ist für die Organisationsforschung interessant, dass der Corporate Sound von spezialisierten Agenturen und nicht vom Unternehmen selbst entwickelt wird. Es ist also weder eine bottom-up Bewegung, wie man sie beispielsweise bei den Arbeitsliedern beobachten kann, noch eine top-down Auswahl durch das Management, wie es zumindest anfänglich bei den Corporate Songs der Fall war. Ein Corporate Sound entsteht in intensiver Zusammenarbeit mit professionellen, externen Experten. Der Auftraggeber ist in der Regel eine Strategie- oder Marketingabteilung, wobei in vielen Fällen das Top Management an der Erarbeitung beteiligt ist. Während es der Anspruch des Corporate Sounds ist, die Organisation akustisch auszudrücken, kommen in der Regel nur sehr wenige Personen und Mitarbeiter zu Wort. Das konsequent verklanglichte Unternehmen des Corporate Sound geht so mit der tatsächlichen Ausgliederung der Musik und des Klangs in der Organisation einher. Erst die fortschreitende Spezialisierung und gesellschaftliche Arbeitsteilung ermöglichen die Entstehung des Phänomens Corporate Sound.

5. Fazit Ziel des vorliegenden Beitrags war es, einen Überblick über die Entwicklung der Verklanglichung von Organisationen bzw. organisatorischen Aspekten aus dem Blickwinkel der Managementforschung zu geben. Demnach interessieren sich die Managementund Organisationswissenschaften zunehmend für Fragen des Sounds. Über die Jahre lässt sich eine Tendenz verzeichnen, die von der Verklanglichung einzelner Bewegungsabläufe zugunsten komplexer Phänomene abstrahiert. Damit entstehen für die Sonifikation neue Herausforderungen: Wie kann in der Verklanglichung eines komplexen Systems wie einer multinationalen Organisation das Spezifische der Organisation hörbar werden und damit die unmittelbare Erfahrung erreicht werden, die den Klang auszeichnet? Denn die Praxis des Corporate Sound ist Teil umfassender Branding-Ansätze und 44 Vgl. Spencer 2010. 45 Vgl. Nerpin, Veit, Heller 2009.

Nada Endrissat und Claus Noppeney

279

damit eingebunden in Bestrebungen, Unternehmen vor allem als Marke zu denken. Als Teil des Brandings steht Corporate Sound dann neben Corporate Design und Corporate Behavior – mit anderen Worten: der Klang ist für Unternehmen aus den Niederungen operativer Details in strategische Höhen aufgestiegen. Zugleich ist der Klang damit eingebunden in multi-sensorische Positionierungsstrategien. Fragen der Stimmigkeit und der Konsistenz zwischen den verschiedenen Dimensionen einer Marke treten an die Stelle präziser Übereinstimmungen zwischen Klang und Bewegung. Zugleich löst die Orientierung am Branding die Grenze zwischen innen und außen auf: Denn die aktuelle Praxis des Branding zielt, auch wenn sie ideengeschichtlich im außenorientierten Marketing gründet, gleichermaßen auf die Innen- und Aussenwirkung. Denn die Adressaten eines Corporate Sound sind alle Anspruchsgruppen – und eben nicht nur die Mitarbeiter. An den drei Stationen – Arbeitslied, Unternehmenslied und Corporate Sound – zeigt sich so eine Entgrenzung des Unternehmens. Damit vollzieht sich in der auditiven Kultur eine Entwicklung, die auch für die visuelle Kultur in Unternehmen sichtbar wurde.46 Dies gilt auch für die Beobachtung einer forschreitenden Professionalisierung: Das Arbeitslied entstand in der alltäglichen Arbeitswelt und bleibt an sie gebunden. Neben aller Funktionalität im Prozess dienten die Lieder auch der Bewältigung der Arbeit. Die Konzeption vieler Unternehmenslieder nutzt dagegen bereits eine spezifische Expertise. Der Corporate Sound schließlich setzt spezifische Klangexpertisen voraus, während die Mitarbeiter aus der Rolle des Produzenten zu bloßen Konsumenten werden. Die Sonifikation von organisationalen Aspekten hat so stets auch eine politische Dimension, indem sie das Unhörbare und Ungreifbare hörbar macht, das Implizite explizit und damit eine Problematisierung bzw. Aushandlungs- und Gestaltungsprozesse ermöglicht. Allerdings ist das Potential dafür bislang nur ansatzweise erkannt. Seit der Industrialisierung wird Sound vom Management funktionalisiert. Dort, wo Sound als Wandel für Veränderung der existierenden Verhältnisse eingesetzt werden könnte, wurde er häufig unterdrückt bzw. gemaßregelt oder verboten. Dennoch scheint im Sound ein großes Potential zu stecken – immer wieder ist es dem Klang gelungen, sich der Kontrolle von oben zu entziehen, sie zu unterlaufen oder gar offen zu widersetzen: Authorities have a hard enough time controlling people and things, but fighting against sounds and rhythms is almost impossible; it’s a guerrilla warfare in which the enemy eludes every battle, slipping back into the vapors and mists.47

46 Vgl. Noppeney 2007. 47 Gioa 2006, 255.

280

Sonifikation und Organisation

Auf den ersten Blick handelt es sich um eine historische Einschätzung. Doch zeichnet sich ab, dass sich auch in einer Welt der Soundscapes neue Optionen der Subversion, des Unterlaufens und des Widerstands öffnen werden. Auch der vermeintliche Konsum öffnet Chancen kreativer Aneignung und Umnutzung.48

6. Quellen Alvesson, Mats / Willmott, Hugh (2002): Identity regulation as organizational control: producing the appropriate individual, in: Journal of Management Studies, Jg. 39, 619-644. Attali, Jacques (1985): Noise. The political economy of music, Minneapolis. Balu, Rekha (2001): A Nice Beat, But Can You Dance to It?, http://www.fastcompany.com/articles/2001/04/corporate_songs.html (15. Oktober 2011). Barker, James R. (1999): The discipline of teamwork: participation and concertive control, Thousand Oaks. Bettner, Mark S. / Frandsen, Ann-Christine / McGoun, Elton G. (2010): Listening to accounting, in: Critical Perspectives on Accounting, Jg. 21, 294-302. Bronner, Kai / Hirt, Rainer (Hg.) (2009): Audio-Branding. Entwicklung, Anwendung, Wirkung akustischer Identitäten in Werbung, Medien und Gesellschaft, Baden-Baden. Brunner-Traut, Emma (1975): Arbeitslieder, in: Wolfgang Helck / Eberhard Otto (Hg.), Lexikon der Ägyptologie. Band 1, A-Ernte, Wiesbaden, 378-385. Bücher, Karl (1924): Arbeit und Rhythmus, Leipzig. Certeau, Michel de (1988): Kunst des Handelns, Berlin 1988. Conrad, Charles (1988): Work songs, hegemony, and illusions of self, in: Critical Studies in Mass Communication, Jg. 5 (3), 179-201. Corbett, Martin J. (2003): Sound Organisation: a brief history of psychosonic management, in: Ephemera. Critical dialogues on organization, Jg. 3 (4), 265-276. Diserens, Charles M. (1926): The influence of music on behavior. Princeton, 1926. El-Sawad, Amal / Korczynski, Marek (2007): Management and music: The exceptionial case of the IBM songbook, in: Group & Organization Management, Jg. 32 (1), 79-108. Gioia, Ted (2006): Work songs, Durham.

48 Vgl. de Certeau.

Nada Endrissat und Claus Noppeney

281

Hazen, Mary Ann (1993). Towards polyphonic organization, in: Journal of Organizational Change Management, Jg. 6 (5), 15-26. Jones, Simon C. / Schumacher, Thomas G. (1992): Muzak: On functional music and power, in: Critical Studies in Mass Communication, Jg. 9, 156-169. Korczynski, Marek (2007): Music and meaning on the factory floor, in: Work and Occupations, Jg. 34, 253-289. Korczynski, Marek / Jones, Keith (2006): Instrumental music? The social origin of broadcast music in British factories, in: Popular music, Jg. 25 (2), 145-164. Meyer, Alan / Frost, Peter J. / Weick, Karl E. (1998): The Organization Science Jazz Festival: Improvisation as a Metaphor for Organizing: Overture, in: Organization Science, Jg. 9 (5), 540-542. Nerpin, Stefan / Veit, Richard / Heller, Milo (2009): The Sound of Vattenfall: Ein Markenversprechen wird vertont, in Bronner, Kai (Hg.), Audio-Branding: Entwicklung, Anwendung, Wirkung Akustischer Identitäten in Werbung, Medien und Gesellschaft. Baden-Baden, 266-278. Nissley, Nick / Taylor, Steven S. / Butler, Orville (2002): The power of organizational song: an organizational discourse and aesthetic expression of organizational culture, in: Tamara: Journal of critical postmodern organization science, Jg. 2 (1), 47-62. Noppeney, Claus (2007): Vom Jahresfilm zum Corporate Video: Organisationen und ihre Filmpraxis, in: Hentschel, Beate / Casser, Anja (Hg), The vision behind, Berlin, 76-91. Partridge, Chris (2001): How does a company sound?, www.thetimes.co.uk/appointments, http://www.corporate-sound.com, 15.10.2011. Prichard, Craig (2007): Music and work, in: Stewart R. Clegg & James R. Bailey (Hg.), International Encyclopedia of Organization Studies, Los Angeles, 938-940. Prichard, Craig / Korczynski, Marek / Elmes, Michael (2007): Music at work: an introduction, in: Group & Organization Management, Jg. 32, 4-21. Robertson, Emma / Korczynski, Marek / Pickering, Michael (2007): Harmonious relations? Music at work in the Rowntree and Cadbury factories, in: Business Horizon, Jg. 49 (2), 211-234. Spehr, Georg (2009): Audio-Branding – alles neu?, in: Bronner, Kai / Hirt Rainer (Hg.), Audio-Branding. Entwicklung, Anwendung, Wirkung akustischer Identitäten in Werbung, Medien und Gesellschaft, Baden-Baden, 32-39. Spencer, Michael (2010): If InterContinental were a sound… what would it be?, in: Journal of Business Strategy, Jg. 31 (4), 39-46.

282

Sonifikation und Organisation

Styhre, Alexander (2008): Perception and organization. Art, music, media. Palgrave Macmillan. Taylor, F. Winslow (1911/1967). The Principles of Scientific Management. New York. Uhrbock, R. (1961): Music on the job: Its influence on worker morale and production, in: Personnel Psychology, Jg. 14, 9-38. Watson, Ian (1983): Song and democratic culture, London. Weiss, P. P. (1995): Corporate Sound: Marketinginstrument der Zukunft? In: Tomczak Torsten / Müller, Frank / Müller, Roland (Hg.), Die Nicht-Klassiker der Unternehmungskommunikation. St.Gallen, 230-233. Wyatt, S. / Langdon, J. (1937): Fatigue and boredom in repetitive work, Medical Research Council Industrial Health Research Board Report 77, London.

Nada Endrissat und Claus Noppeney

283

Unmerkliche Eindringlinge Versuch über akustische Kontrolle Andi Schoon

Freilich manche List ist so fein, daß sie sich selbst umbringt. Franz Kafka

1. Datenkörper aushorchen Klänge respektieren keine Grenzen. Sie sickern durch Wände, sie ignorieren den Sichtschutz, sie diffundieren in alle Richtungen. Das unmerkliche Eindringen ist akustisches Terrain. Mit taktisch oder rhetorisch klug eingesetzter Klanglichkeit landen wir umgehend unter der Haut der Zielperson. Wir erhalten sogar Zugang zu ihrem Herzen: Möchte der Regisseur im Betrachter ein bestimmtes Gefühl erzeugen, wird er seinen Sounddesigner zu Rate ziehen. Wir müssen eine Klanglandschaft noch nicht einmal mögen – entziehen können wir uns ihr nur schwerlich. Sounddesign liefert den Menschen etwas, das sie nicht bestellt haben, es suggeriert ihnen Qualitäten, die verkauft werden sollen. Bringt die Audiosuggestion also unbestellte Klänge, nimmt uns die akustische Überwachung Klänge ungefragt. Auch in dieser umgekehrten Richtung gibt es keine Hürden, denn wo sich das Bild dem Auge entzieht, bleibt das Ohr informiert. Dabei werden nicht nur Menschen abgehört, sondern auch Maschinen: Die Überwachung von Produktionsprozessen zählt mit zur betrieblichen Optimierung.1 Im Alltag lauschen wir besorgt in unser direktes Umfeld, horchen auf Gefahr oder auf das Timbre des Gegenübers,

1 Vgl. die Beiträge von Stefan Krebs und Michael Iber et al. in diesem Band.

285

um dessen Stimmung auszumachen. Manchmal kontrollieren wir über das Gehör die korrekte Proportion, etwa im Verhältnis klingender Saiten. Nicht zuletzt beschreibt das Abhören eine Form der Kriegsführung, sei sie heiß oder kalt, staatlich oder privat. Was aber hat das mit der Sonifikation zu tun? Bereits die Erfindung des Stethoskops durch René Laënnec 1816 stößt uns auf eine entsprechende Traditionslinie, weil deren Ziel »the use of non-speech audio to convey information«2 ist – genau so lautet eine der kanonisierten Definitionen von Sonifikation. Laënnecs Hörrohr ermöglichte es, Informationen über die Lungen- und Herzfunktion, den Blutkreislauf und die Darmtätigkeit zu erhalten, ohne dem Patienten Operationswunden beizufügen.3 Dieser eigentlich überzeugenden Methode bis zur Mitte des 20. Jahrhunderts folgend, kreuzt eine fatale Innovation unseren Weg: mit Leon Theremins Erfindung der Abhörwanze wird es machbar, die Kommunikation vermeintlich subversiver Elemente auszuhorchen. Freilich handelt es sich bei der hier gewonnenen Information um speech audio. Und doch: die Abhörwanze hat uns zu interessieren, wenn wir Sonifikation verstehen als das Aushorchen eines »virtuellen Datenkörpers«4. Denn was auch immer da klingen mag – die sonifizierende Instanz möchte etwas darüber herausfinden. So scheint es mir einen Versuch wert, die Kulturgeschichte der Sonifikation im Zusammenhang mit der Geschichte der akustischen Überwachung zu denken, einer Geschichte des Anzapfens und der Auswertung von speech audio. Dabei geht es mir nicht um die Ergebnisse der jeweiligen Abhörmaßnahme. Auch kann und möchte ich nicht die Frage beantworten, ob die gewonnene Information verlässlich ist oder als Beweis taugt. Mich interessiert vielmehr das gesellschaftliche Setting bzw. die geistige Verfassung, die den Abhörvorgang motiviert. Denn der von Michel Foucault5 (und seither von vielen anderen) beschriebene Weg von der äußeren Repression zur Selbstkontrolle lässt sich auch akustisch nachvollziehen – was als Gesellschaftsdiagnose wiederum Folgen für den heutigen Umgang mit dem Klang als Erkenntnismedium hat bzw. haben sollte.

2 3 4 5

Kramer 1997. Vgl. den Beitrag von Axel Volmar in diesem Band. Volmar 2007, 374. Foucault 1977.

286

Unmerkliche Eindringlinge

2. Abhör-Phantasmen Zahlreiche Beispiele zur Veranschaulichung einer Geschichte der akustischen Überwachung finden sich bereits in einem Beitrag von Dörte Zbikowski.6 Sie weist etwa auf das Ohr des Dionysos hin, eine sizilianische Touristenattraktion. Hier soll der örtliche Tyrann im 4. Jahrhundert v. Chr. attische Kriegsgefangene eingekerkert haben. Die mächtige Steinhöhle erinnert in ihrer Form an ein Hörorgan und verfügt über eine imposante Akustik. Schon im 17. Jahrhundert kamen viele Reisende hierher. Unter ihnen war der Maler Caravaggio, der beeindruckt weiterphantasierte: Dionysos müsse wohl einen akustischen Gang von der Höhlendecke in ein nahe gelegenes Theater eingerichtet haben. Dort saß er dann, um zu hören, was die Gefangenen untereinander sprachen – ein Mythos, der den Besuchern noch heute aufgebunden wird. Mutmaßlich verrät er weniger über Machtausübung in der Antike als über Caravaggios Zeit. Zumindest spricht des Malers barocker Hang zum Kuriosen auch aus Athanasius Kirchers verspielten Abhörphantasmen. Der Universalgelehrte versammelte 1662 in seinem Buch Musurgia Universalis allerhand komplexe Architekturen zur akustischen Überwachung von Herrscherresidenzen. Der Schall wird jeweils von einem großen Trichter eingefangen und durch einen schneckenhausartigen Gang geleitet. Die Öffnung im Abhörraum bildet zumeist eine Büste, mithin eine schlichte Symbolisierung des geheimen Informanten.7 Warum diese Häufung von erdachten Abhörsituationen im 17. Jahrhundert? Der Grund liegt wohl weniger in der Zahl der Verschwörungen zur damaligen Zeit als vielmehr in der technischen Verspieltheit der Geheimkommunikation. Kirchers Abhörentwürfe sollen etwa im Auftrag italienischer Adliger entstanden sein – als Sicherung, aber auch als sensationelles »Extra« der eigenen Behausung. Man mag die Unterwanderung befürchtet haben, vor allem aber hatte die Erfindungslust Konjunktur.8 Ein drittes von Zbikowskis Beispielen sei stellvertretend für Abhörmotive in der Malerei herangezogen: Nicolaes Maes, ein Schüler Rembrandts und Zeitgenosse Athanasius Kirchers, hat immer wieder das Motiv der Lauscherin gemalt: eine Magd, die ihre Herren abhört. Sie steht im Vordergrund des Bildes auf dem Korridor, die Augen auf den Betrachter gerichtet, den ausgestreckten Zeigefinger auf ihren Mund gelegt, während die Herrschaften in einem entlegenen Hinterzimmer durch den geöffneten Türspalt zu beobachten sind. Die Dienerin nimmt Kontakt zu uns auf, mahnt uns, zu schweigen. Wir 6 Zbikowski 2002. 7 Richard Wagner ließ 1876 ähnlich komplizierte Gänge in seinem Bayreuther Festspielhaus verbauen. Sie führen von der Bühne zum hinteren Teil des Saals, von wo aus sie das Publikum rückwärtig beschallen. Der Grüne Hügel ist sozusagen eine Musik-Abhöranlage. 8 Vgl. Zbikowski 2002, 40 f. Dass sich der Hang zur spielerischen Neuschöpfung bis auf die sprachliche Ebene zog, lässt sich etwa in Quirinus Kuhlmanns »Kühlpsalter« (1684-86) nachlesen.

Andi Schoon

287

sehen, was sie hört, aber nicht sieht, und sie hört offenbar, was wir sehen, aber nicht hören können. Die Szene entbehrt nicht einer gewissen Komik, zudem sind Magd und Betrachter durch die Kontaktaufnahme partners in crime. Es entsteht die solidarische Hoffnung darauf, dass hier eine Information zugänglich werde, die bisher zu Unrecht unter Verschluss stand. In Temperament und Gestik ganz anders gelagert, obwohl benachbart in Raum, Zeit und Stil: Jan Vermeers Lautenspielerin am Fenster. Auf einem Tisch vor ihr liegen verteilte Noten, ihre linke Hand befindet sich an der Mechanik der Laute, ihr Blick schweift nach Draußen, die Situation wirkt vollkommen harmonisch. Sie sieht etwas, das wir nur erahnen können. Nehmen wir an, dass Vermeer seine Motive aus dem eigenen Umfeld schöpfte, dann müssten wir Delft in den Jahren 1662/63 vor uns sehen. Wenn es aber so ist, dann kann die Musikerin vor ihrem Fenster eigentlich nur auf zerstörte Landschaft geblickt haben – verwüstet durch Krieg und den Delfter Donnerschlag, die Explosion eines Pulverturms, die wenige Jahre zuvor einen Großteil der Stadt dem Erdboden gleichgemacht hatte. Warum scheint die Lautenspielerin trotzdem ganz bei sich selbst zu sein? Der amerikanische Kunstwissenschaftler James Merle Thomas hat darauf hingewiesen: sie schaut ja gar nicht, ihr Blick ist leer, weil sie gerade versucht, ihre Laute zu stimmen! Ihre Hand ist mit minimaler Nachjustierung befasst, sie horcht in den Verlauf der Schwingungen.9

3. Hinhören und Abhören In seinem Beitrag zum vorliegenden Band beschreibt Stefan Krebs die Hörpraktiken nach Karin Bijsterveld und Trevor Pinch: Sie unterscheiden zwischen monitory und diagnostic listening, also einem beobachtenden Hinhören, das registriert, ob etwas passiert, und einem diagnostischen Abhören, das registriert, was passiert.10 Eine Vorrichtung, um gesprochene Sprache durch monitory listening abzufangen, hatte zeitweise schon das berühmte, Panopticon genannte Gefängnismodell von Jeremy Bentham (1791).11 Die Grundanordnung: In der Mitte steht ein Turm, ringsherum sind die Zellen derart angeordnet, dass der Turmwächter sie allesamt einsehen kann. Die einzelnen Zellen sollten nun über schmale, strahlenförmig angeordnete Gänge abhörbar sein. Was Bentham schließlich dazu brachte, die Anlage doch nur rein optisch auszulegen, 9 Thomas 2009. 10 Bijsterveld 2011. 11 Vgl. Zbikowski 2002, 42.

288

Unmerkliche Eindringlinge

war die Einsicht, dass sich die akustischen Rohre in beide Richtungen hätten benutzen lassen: Der Gefangene hätte also auch hören können, was im zentralen Wachturm gesprochen wird. Im Kern ist Benthams Modell der Aufklärung verpflichtet, denn es setzt auf eine mögliche Resozialisierung des als potenziell produktiv verstandenen Gefangenen. Dieser wird überwacht, um seine Besserung sicherzustellen. Die reaktionäre Antwort darauf kam ab 1819 aus Wien. Klemens Fürst Metternichs Überwachungsstaat hatte den Deutschen Bund bis 1848 fest im Griff. Weil ihm die bürgerliche Freiheit zutiefst unheimlich war, errichtete der österreichische Außenminister und Staatskanzler mit den Karlsbader Beschlüssen ein System aus Zensur und Bespitzelung. Neben der Frankfurter Bundeszentralbehörde, in der sich die Mitschriften stapelten, unterhielt Metternich ein Informationsbüro in Mainz, von dem aus die Spitzel ausschwärmten, unter ihnen auch namhafte Personen des Geisteslebens, die Zugang zu Räumen hatten, in denen sich interessante Gespräche mithören ließen (etwa die des Zirkels um Karl Marx). Dass Metternichs System in den Revolutionsunruhen von 1848 binnen weniger Monate zusammenbrach, war dem Geist der Zeit geschuldet: Auf Grundlage von Misstrauen gegenüber dem eigenen Volk ließ sich in der Folge der Aufklärung offenbar kein moderner Staat mehr auf Dauer regieren.12 Schließlich generiert das kaltgestellte Individuum keinen Mehrwert. Doch weit gefehlt: Etwa ein Jahrhundert später erfand Theremin im Auftrag des KGB die Abhörwanze, das akustische Kontrollgerät schlechthin. Die Vorrichtung hat inzwischen nicht nur eine Karriere als reales Mittel der Spionage, sondern auch als Element zahlreicher Kino- und TV-Produktionen hinter sich. In den meisten dieser Agententhriller und Cold-War-Dramen wimmelt es von gebrochenen Charakteren auf beiden Seiten der Wanze – die Abhörenden sind hier ebenso zu bemitleiden wie die Abgehörten. So legte Francis Ford Coppola 1974 mit The Conversation einen Film vor, der das paranoide Lebensgefühl der Amerikaner nach dem Watergate-Skandal präzise einfing: Gene Hackman wird als verschrobener Abhörspezialist Harry Caul selbst abgehört. In der Schlusssequenz versucht er, eine vermeintlich in seiner Privatwohnung installierte Wanze ausfindig zu machen. Die Szene endet mit der völligen Zerstörung seines Heims. Als der Abspann einsetzt, kann sich der Zuschauer nicht mehr sicher sein, ob Caul wirklich überwacht worden ist oder sich lediglich der Verfolgungswahn des Protagonisten verselbständigt hat. Der Oscar-prämierte Film Das Leben der Anderen nahm das Motiv des traurigen Überwachenden unter den Bedingungen des Stasi-Milieus 2006 wieder auf. Während sich The Conversation um Privat- und Wirtschaftsspionage dreht, erleben wir hier staatliche Kontrolle im Stile Metternichs bzw. Orwells: Ein Stasi-Hauptmann

12 Vgl. Zerback 2009.

Andi Schoon

289

Abb. 1: Wer kontrolliert hier wen? Gene Hackman in der Schlussszene des Films The Conversation.

fungiert zu Beginn als personifiziertes Mikrofon, als kleines Rädchen in einem unüberschaubaren Überwachungssystem. Mit der Zeit entwickelt er sich durch die indirekte Erfahrung der abgehörten Lebenswelt jedoch zum mitfühlenden Menschen und Gegner des unmenschlichen Systems. Einen vergleichbar schlechten Leumund wie in diesen fiktionalen Beispielen hat auch die nicht-fiktionale Überwachung via Echelon, das von der US-amerikanischen National Security Agency (NSA) betriebene weltweite Abhörsystem, das noch aus Zeiten des Kalten Kriegs stammt und inzwischen auch zur Wirtschaftsspionage eingesetzt wird. Die Aufdeckung dieses Zusammenhangs geht maßgeblich auf die Recherchen des britischen Journalisten Duncan Campbell zurück.13 Ende 2010 startete NROL32, der bis dato größte Abhörsatellit, von Cape Canaveral aus ins All, mit unbekannter Mission, aber bekanntem Absender: die NRO ist das Nationale Amt für Aufklärung (National Reconnaissance Office), eine mit der NSA kooperierende Subdivision des US-Verteidigungsministeriums, die es bis in die 1990er Jahre hinein offiziell überhaupt nicht gab. Da war sie allerdings schon mehrere Jahrzehnte alt. Die inzwischen vollautomatisierte Auswertung der Kommunikation über Algorithmen und permanent aktualisierte Schlüsselwortlisten hat ihre Wurzeln freilich in der Fähigkeit des menschlichen Ohrs, Muster in großen Datenmengen zu erkennen.

13 Vgl. Campbell 2000.

290

Unmerkliche Eindringlinge

Ein Blick zurück: Zunehmender Nachfrage erfreute sich das diagnostische Abhören schon seit der Installation des Radios als militärisches Mittel, mit dem die Übermittlung von Information über Kontinente hinweg gegeben war. Weil dieser Kanal aber grundsätzlich jedermann offenstand, kamen im Ersten Weltkrieg Kryptologie und Nachrichtenaufklärung zu großer Bedeutung. Die gegnerische Seite produzierte verschlüsselte Daten, auf der jeweils anderen suchte man im Rauschen des Äthers nach verwertbarem Material. Im Zweiten Weltkrieg errichteten die Amerikaner und Briten ein globales Abhörsystem, nach Kriegsende mit Unterstützung der Länder des Commonwealth. Während des Kalten Krieges stand die Überwachung des sowjetischen und chinesischen Hochfrequenzfunks im Fokus. Auch hier zeigte sich der Überwachende mitunter als tragische und paranoide Figur: Im Inneren von fensterlosen Gebäuden arbeiteten Abhörteams in langen Schichten, um in die Stille zu lauschen [...]. Mitarbeiter auf solchen Basen erinnern sich oft daran, dass Kollegen unter dem Druck zusammenbrachen und sich zum Beispiel in einem Schrank versteckten, da sie glaubten, dass sie gerade eine Nachricht abgehört hatten, die den Beginn des globalen thermonuklearen Krieges ankündigte.14 Die Öffentlichkeit weiß wenig über das Ausmaß der Abhöraktionen, auch der genaue Beginn des Echelon-Projekts, seine heutigen Aufgaben und die Frage, wie lange in der Überwachung überhaupt menschliche Ohren zum Einsatz kamen, sind weitgehend ungeklärt. Jahrzehntelang sickerten Informationen ausschließlich über ehemalige NSAMitarbeiter durch, die die unterzeichnete Verschwiegenheitsklausel brachen. So berichteten 1960 zwei Ex-Angestellte von gut zweitausend manuellen Abhör-Arbeitsplätzen weltweit. Erst 1995 räumte Direktor Lew Allen offiziell ein, dass ªdie NSA systematisch internationale Sprach- und Kabelkommunikation abhört.©15 Die Echelon-Historie führt also von der Entstehung als Kriegstechnik über ein Mittel zur Linderung von Kommunismus-Paranoia bis hin zum Einsatz aus Wirtschaftsinteressen. Seit den Anschlägen vom 11. September 2001 wird als Argument (wieder) die innere Sicherheit ins Feld geführt.16 14 Ebd. 15 Zit. n. ebd. 16 In Deutschland sind akustische Überwachungsmaßnahmen seit 1967 gesetzlich untersagt, die Herstellung und der Vertrieb von Wanzen sind dagegen erlaubt. Seit der Installation des ›Großen Lauschangriffs‹ 1998 darf der Staat auch in privaten Räumlichkeiten fast alles mithören, wenn es »Zwecken der Strafverfolgung« dient. Selbst nach einer Revision 2005 rangiert Deutschland mit jährlich etwa 40.000 Telefonüberwachungen in Sachen polizeilicher Neugier weltweit in der Spitzengruppe.

Andi Schoon

291

Doch nicht nur in den Reden von Sicherheitspolitikern ist das Anzapfen von Telefonen heute durchaus positiv belegt. Als innovative Technik der ›Guten‹ erscheint es auch in der hochgelobten US-Serie The Wire (2002-2008): Eine tapfere Spezialeinheit kämpft mit subtilen Mitteln gegen die Drogenbosse von Baltimore, anstatt immer nur die kleinen Fische hochzunehmen. Die Methode wird uns (gerne in Parallelmontagen) als weitaus effektiver als die Razzia vor Ort vorgeführt. Während tumbe Polizisten erfolglos die Wohnungen vermeintlicher Dealer stürmen, sitzen unsere Helden mit Laptops im Büro und lächeln still, wenn sich der Hintermann am Handy verrät. Das hochtechnisierte Lauschen auf die Gespräche anderer wirkt in dieser Serie kreativ und intelligent, diskret und elegant wie die Dienstleistung einer Beratungsagentur.

4. Freiwillige Selbstkontrolle Die Figuren in Ernst Barlachs Fries der Lauschenden (1935) scheinen völlig vertieft. Der Bildhauer hatte seine Holzplastiken zunächst für ein Beethoven-Denkmal entworfen. Nachdem sich dieser Auftrag zerschlagen hatte, widmete er sie um: Eine der Figuren »sieht ihre fernen Wünsche näher«, eine andere »nimmt einfach auf, mit der Gebärde des Willkommens«, so die Titel. Sie alle haben geschlossene Augen. Sie lauschen in sich hinein – monitory listening. Auch die Selbstüberwachung des zeitgenössischen Kreativarbeiters funktioniert über das tiefe Lauschen, die inwendige Befragung. Zweifelsohne trägt Sound ganz explizit zur Selbstkontrolle bei, wenn etwa das You-Got-Mail-Earcon den Menschen zum Laptop ruft und ihn dort bindet oder wenn der Bordcomputer uns im Auto auf eine Unregelmäßigkeit aufmerksam macht. Selbst das akustische Feedback im Fitnessstudio setzt uns ins Verhältnis zur Arbeit. Hörbar gemacht werden hier die Zwänge, denen wir qua systemischer Einbindung unterliegen. Es melden sich jeweils Dinge von außen, doch sie treffen auf unsere innere Bereitschaft – wir warten auf die Meldung, denn der seelische Boden ist bestellt. Die Voraussetzung dafür ist das unsichtbare Ego-Stethoskop, mit dem nicht nur Barlachs Lauschender, sondern auch der flexible Mensch der Postmoderne seinem Innenleben nachstellt. Deshalb noch einmal zurück zum Prinzip des Panopticons. In Benthams Modell ist pro Zelle nur eine Person untergebracht, für die der Wächter im Gegenlicht verschwindet. Der Inhaftierte kann also nicht erkennen, ob der Turm überhaupt besetzt ist. Aber, so Benthams innovative Idee, er wird sich stets so verhalten, als sei der Turm besetzt. Im Ergebnis überwacht der Gefangene sich selbst. Sein Modell ist äußerst rational, es individualisiert den Gefangenen und zielt darauf ab, ihn wieder

292

Unmerkliche Eindringlinge

fürs Gemeinwohl verwertbar zu machen. Wer lernt, sich zu benehmen, wird nach einer gewissen Zeit in die Freiheit und damit sich selbst überlassen. In seinem Buch Überwachen und Strafen nahm Michel Foucault 1975 eine legendäre Deutung des Panopticons vor. Für ihn spiegelt sich darin das Funktionsprinzip der spätkapitalistischen Gesellschaft. Unter dem Vorzeichen und im Geiste persönlicher Freiheit kontrolliert sich das Individuum unablässig selbst: Es prüft den eigenen Leibesumfang, hinterfragt den persönlichen Lebenswandel, gleicht das erworbene Kompetenzprofil mit den Anforderungen des Marktes ab. Ich möchte zum Ende und ausgehend von der Diagnose Foucaults eine literarische Erzählung vornehmen, die akustische Einflussnahme prominent verhandelt. In Franz Kafkas unvollendet gebliebenem Text Der Bau verrennt sich ein unterirdisch situiertes Tier in ein zunehmend hysterisches Selbstgespräch, weil es nicht in der Lage ist, die Herkunft eines Geräuschs in seinem Umfeld zu klären. Dabei beschwert es sich darüber, dass es wie fremdgesteuert etwas tue, ªso als sei nur der Aufseher gekommen und man müsse ihm eine Komödie vorspielen.© Der 1923/24 verfasste Text wurde u. a. als Verweis auf das Lauschen auf einen äußeren Feind in den Grabenkämpfen des Ersten Weltkriegs gedeutet.17 Auch hat man in Erwägung gezogen, Kafka könne im Horchen auf einen in Wirklichkeit inneren Klang seine beginnende Lungentuberkulose thematisiert haben (hier bekäme das Bild der Selbstauskultation immerhin einen eigenen Sinn). Dass der Klang dem Tier entspringt, ist plausibel. Doch scheint mir das Geräusch kein Krankheitssymptom im physischen Sinne zu sein, kein Rasseln oder Pfeifen der Lunge. Vielmehr spricht die Selbstkontrolle zu ihm, ein Über-Ich, das Befehle erteilt, die sich unmöglich einlösen lassen. Kafkas Tier ist nicht Herr im eigenen Haus. Das Geräusch lässt sich nicht lokalisieren, weil es mit dem Tier umherwandert, weil es in ihm wohnt. Selbst sein geschultes Ohr18 hilft ihm im vorliegenden Fall nicht weiter. Während es seinen Bau auseinandernimmt wie Gene Hackman seine Wohnung in The Conversation, ahnt der Leser längst: das Tier wird nichts finden, denn der Aufseher, den es in seinem Nacken fühlt, ist wie in Foucaults Bentham-Deutung nur imaginiert. Hätte Kafka den Text in den 1990er Jahren oder später geschrieben, so wäre das nicht enden wollende Geräusch der Klang, der den Dienstleistungsbeschäftigten zur permanenten Optimierung seines berufs-biografischen Baus mahnt. Wirksam wäre kein be-

17 Vgl. Encke 2006, 128 ff. 18 In der Erzählung heißt es: »Bei solchen Gelegenheiten ist es gewöhnlich das technische Problem, das mich lockt, ich stelle mir z. B. nach dem Geräusch, das mein Ohr in allen seinen Feinheiten zu unterscheiden die Übung hat, ganz genau, aufzeichenbar, die Veranlassung vor, und nun drängt es mich nachzuprüfen, ob die Wirklichkeit dem entspricht.« Mit anderen Worten: Kafkas Tier legt wert darauf, in der Entschlüsselung nicht-sprachlicher Audioinformation geschult zu sein. Kafka 1994, 189 f.

Andi Schoon

293

nennbares Außen, das um Einlass kämpft, sondern der ªTerror der Immanenz©19. Kafkas Tier wäre ein animal laborans, das an der eigenen Positivität zugrunde geht, am produktiven Drang, den die Kontrollgesellschaft in uns gepflanzt hat.

5. Sonifikation in der Kontrollgesellschaft Nun zur Frage, was uns all dies über die Sonifikation sagen will: Ich habe zum einen dargestellt, dass die Geschichte der Beschaffung von Informationen über den akustischen Kanal über weite Strecken eine unrühmliche ist. In Form des Abhörens ist sie als feindselige Maßnahme von außen zumeist durch Misstrauen und Paranoia motiviert gewesen. Dies allein als Argument gegen die Methoden der Verklanglichung zu richten, wäre jedoch allzu spitzfindig. Bedenkenswerter ist die Haltung des Sonifikationsdiskurses zur gesellschaftlichen Gegenwart. Hier betreten wir das Feld der schleichenden Beeinflussung des Individuums sowie dessen Selbstkontrolle im Zeichen von Fortschritt und Produktivität – diese Mechanik, deren Wurzeln in der Aufklärung ich beschrieben habe, erstreckt sich inzwischen subtil bis auf das hier verhandelte Forschungsfeld: Es geht der ICAD-Community stets um die Nutzbarmachung, die Zweckbestimmung der sonifizierten Daten. Tatsächlich entwickelt sich die Technologie auf allen beteiligten Gebieten. Sounddesigner berichten vom optimierten Feedback der Maschine, Logistik-Experten hören den Lieferengpass inzwischen deutlich, Psychologen stellen neue Einsichten in das Rezeptionsverhalten vor, auch Chemiker und Astronomen lauschen jetzt klarer als im Vorjahr. Es geht voran – und es wäre ja auch zum Verzweifeln, wenn dem nicht so wäre. Mit anderen Worten aber lässt sich feststellen: Die Community unterhält ein modernistisches Verständnis von Innovation und pflegt eine womöglich nicht hinreichend reflektierte Tendenz zur allgemeinen Optimierung der Verhältnisse, in denen das getriebene Ich den Stimmen, die in ihm, zu ihm und durch ihn sprechen, auf den Leim geht. Weil Sonifikation immer auch gestalteter Klang ist, hat sich das Forschungsfeld mit der Tatsache auseinanderzusetzen, dass heutzutage erhebliche Anstrengungen unternommen werden, Strategien zur unbewussten Steuerung von Hörern durch Sounddesign zu formulieren, die zumeist auf die Erzeugung kalkulierter Assoziationen und Lesarten zielen. Zwar führt die Sonifikation bislang kein ausdrücklich kommerzielles Interesse im Schilde. Doch was im Sounddesign das erklärte Ziel ist, könnte in der Sonifikation

19 Mit dieser Wendung beschreibt der Philosoph Byung-Chul Han, wie sich die Selbstbefragung gegen das Individuum richtet. Han 2010, 15.

294

Unmerkliche Eindringlinge

zumindest als Nebenwirkung auftreten: die still dirigierte Reaktion des Rezipienten und die Manipulation seiner inneren Stimme. Die Unmöglichkeit, unterschwelliger Einflussnahme von außen und latenter Kontrolle von innen zu entkommen, ist ein Kennzeichen unserer Gegenwart. Der Klang ist als ausgezeichnetes Mittel zur unmerklichen Wirkung daran beteiligt, diesen Zustand zu erhalten. Die Einflüsterungen innerhalb des Panakustikons sind sogar noch schwerer zu identifizieren als die Sichtachsen einer idealen Gefängnisarchitektur. Kurz: Der ªauditory turn© hat eine affirmative Kehrseite, die auch im fortschrittsorientierten Sonifikationsdiskurs nicht ungehört bleiben sollte. Dieser kann nur an Kontur gewinnen, wenn er sich die aktualisierte Gretchenfrage gefallen lässt: Nun sag, wie hast du’s mit dem Kapitalismus?

6. Quellen Bijsterveld, Karin / Pinch, Trevor (2011): New Keys to the World of Sound, in: The Oxford Handbook of Sound Studies, edited by T. Pinch and K. Bijsterveld. Oxford/New York, 3-35. Brunbauer, Wolfgang (1988): Die Lauscher. Aus der Frühzeit der Geheimen Dienste 1780-1815, Paris, München, Wien, Rosenheim. Campbell, Duncan (2000): Inside Echelon, in: Telepolis, http://www.heise.de/tp/r4/artikel/6/6928/1.html, 24.7.2000. Encke, Julia (2006): Augenblicke der Gefahr. Der Krieg und die Sinne, München. Foucault, Michel (1977): Überwachen und Strafen. Die Geburt des Gefängnisses, Frankfurt a. M. Han, Byung-Chul (2010): Müdigkeitsgesellschaft, Berlin. Kafka, Franz (1994, verfasst 1923/24): Der Bau, in: Werke in 12 Bänden nach der Kritischen Ausgabe von Hans-Gerd Koch. Band 8: Das Ehepaar und andere Schriften aus dem Nachlass in der Fassung der Handschrift, Frankfurt a. M., 165-208. Kittler, Friedrich (1986): Grammophon, Film, Typewriter, München. Kramer, Gregory et al. (1997): Sonification Report: Status of the Field and Research Agenda, http://www.icad.org/websiteV2.0/References/nsf.html. Thomas, James Merle (2009): Tuning in? Vermeer at the Metropolitan Museum of Art (unpublished essay).

Andi Schoon

295

Volmar, Axel (2007): Gespitzte Ohren. Akroamatische Dispositive und musisches Wissen als Grundlage für eine Geschichte epistemogener Klänge, in: Musiktheorie. Zeitschrift für Musikwissenschaft 22 (4), Laaber, 365-376. Zbikowski, Dörte (2002): The Listening Ear. Phenomena of Acoustic Surveillance, in: Levin, Thomas Y. et. al, CTRL[SPACE]. Rhetorics of Surveillance from Bentham to Big Brother, Karlsruhe, 32-49. Zerback, Ralf (2009): Metternichs IM, in: Die Zeit, http://www.zeit.de/2009/25/A-Metternich, 10.6.2009.

296

Unmerkliche Eindringlinge

Sonarisationen Ein Projekt künstlerischer Forschung des Deutschlandradio Kultur Holger Schulze

Ich schalte ein Radioprogramm ein. Das Hörspiel oder Feature, das dort soeben lief, ist offenbar beendet. Was kommt nun? Ich höre Klänge, die mich überraschen. Ich folge diesen Klängen in einen Strom aus Signalen und Lautungen, wortähnlichen Geräuschen. Ist das Musik – oder eine Maschine? Verfolge ich naturwissenschaftliche Messungen? Oder Materialerkundungen der Neuen Musik, des New Jazz? Höre ich Sendesignale oder Testgeräusche? Mal spärliche, einzelne Klänge irgendwo in der Tiefe des Raumes, mal aufgeregtes Gefiepe und Geblubber auf allen Ebenen, aber vor allem: Zusammenhänge im dezentralen Gespräch werden deutlich: Ein Trendthema wie #Egypt manifestiert sich als massiver Cluster von ähnlichen, verschmelzenden Klängen, Retweets schießen wie sich verästelnde Blitze durchs Panorama.1 Nach einiger Zeit bemerke ich – und erinnere mich wieder an die knappen Sätze der Einleitung zu diesem Stück –, dass ich hier wohl den hörbar gemachten Äußerungen verschiedener Menschen auf der Kurznachrichtenplattform Twitter folge. Der Sprecher sprach von einer Sonifikation von Twitter; er nannte diese Sonifikation eine Sonarisation. Ich lausche weiter.

1 Anselm Venezian Nehls, E-Mail an Sam Auinger, 12. Februar 2011.

297

1. Sonifikation zwischen Kunst und Wissenschaft Das Feld der Sonifikation bewegt sich per se zwischen den Künsten und den Wissenschaften: zwischen der grundsätzlichen, sensorischen, ästhetischen, kategorialen und gestalterischen Erkundung der klingenden und hörbaren Welt in den Klangkünsten einerseits – und andererseits der Aufzeichnung, Analyse, Evaluation und Korrelation von messbaren Datenströmen und ihrer Dynamik in der Informatik. Das Projekt der Sonarisationen nun, das vom Deutschlandradio Berlin, Redaktion Klangkunst, von Marcus Gammel und Wolfgang Hagen angeregt wurde, dieses Projekt fordert artistic research, die künstlerische Forschung zwischen Kunst und Wissenschaft auf eine zugespitzte Weise am Beispiel der Sonifikation heraus. Die Frage, die sich artistic research generell stellt, lautet: Wie lassen sich künstlerisches und wissenschaftliches Forschen, ästhetisches und epistemologisches Arbeiten so miteinander verflechten, dass ein Artefakt entsteht, das in beiden Feldern gleichermaßen bestehen kann – als Forschungsarbeit und als Kunstwerk zugleich?2 Künstlerische Forschung ist vor allem der Versuch, die klischeehafte Stilisierung einer unüberwindbaren Trennung und wechselseitigen Fremdheit der Bereiche Kunst und Wissenschaft durch konkrete Beispiele fortdauernder Verflechtung und Verfransung3 (Adorno) aufzulösen. Arbeiten der künstlerischen Forschung sollen, wie erwähnt, möglichst sowohl im Feld der Kunst wie im Feld der Wissenschaft ihre Anerkennung finden: just daran scheitern aber viele Arbeiten. Denn wie lassen sich Arbeitsziele, Methoden, Bewertungskriterien, Karriereschritte und Publikationsformen der Künste und der Wissenschaften so miteinander verflechten und verschränken, dass eine Arbeit auch tatsächlich in beide Felder nachhaltig hineinwirken kann? Und worin besteht die Gemeinsamkeit tatsächlich – abseits von Gemeinplätzen des Projektmanagements, intensiver konzeptueller Reflexion und überkommener, teils widerlegter, Kreativitätstheorien? Die kontroverse Diskussion künstlerischer Forschung beginnt darum bei ganz prozeduralen Fragen der Bewertungsgrundlage akademischer Abschlüsse, sie streift begrifflichkomparatistische Differenzierungen zwischen dem englischen research, deutscher Forschung, norwegischem forskning – bis zu respektvollen Abgrenzungen norwegischer kunstnerisk utviklingsarbeid oder schwedischer konstnärlig forskning och utveckling. Die Diskussion erstreckt sich schließlich bis zur kulturanthropologischen Frage einer wechselseitigen Ersetzbarkeit oder doch nur modischen Attraktivität, gewissermaßen einem projizierten Exotismus zwischen vermeintlich essenzialistisch abgetrennt gedachten Künsten und Wissenschaften: die Künste sind ebensowenig ein – wie der klischierte 2 Holert 2011. 3 Eichel 1993.

298

Sonarisationen

Gemeinplatz es will – Feld der ungebundenen Kreativität, wie die Wissenschaften – ein anderer Gemeinplatz – unbedingt ein Feld strikt-kleinteiliger Faktenexaktheit sein müssen. Geht es bei künstlerischer Forschung dann am Ende doch nur, ganz forschungsstrategisch, um einen Zugriff auf mehr funding, mehr Drittmittel für die Künste und die Wissenschaften? Eine Nobilitierung des einen durch Bezug auf das andere? Die Bemühungen, diese oszillierende Arbeitsform methodisch präzise und explizit zu beschreiben und institutionell einzubetten, haben sich im letzten Jahrzehnt verdichtet. Zahlreiche Publikationen, das beeindruckende Journal for Artistic Research sowie eine internationale Assoziation setzen sich mit all diesen Fragen auf höchstem Niveau auseinander.4 Sie versammeln einen Kanon von Arbeiten künstlerischer Forschung, der materiell nachvollziehbar und erlebbar macht, worin die besonderen Merkmale, Stärken, Erkenntniswege, aber auch die Schwächen, selektiven Blindheiten und Selbsttäuschungen dieser systematisierten Gratwanderung, dieses Verbindens und Hybridisierens der Ausdrucksformen, Handlungsweisen und Selbstverständnisse bestehen könnten. So zeigen etwa die versammelten Beispiele auf der Website des Journal for Artistic Research, dass künstlerische Forschung nicht zuletzt neue und medial erweiterte, hochdynamische Formen des wissenschaftlichen Publizierens hervorbringt. Sissel Tolaas‘ Beitrag zur ersten Ausgabe etwa, prononcierte Forschungskünstlerin der Gerüche und Düfte, An alphabet for the nose, ist Teil des sogenannten Research Catalogue, in dem künstlerische Forschung in ihrer methodischen Vielfalt und medial ebenso vielfältigen Darstellungsformen präsentiert werden können. Auf der zweidimensionalen Webpage verteilt – ohne Zwang zur linearen Lektüre, frei aleatorisierbar zu lesen –, stellt sie ihr Re_search Lab vor (mit ihrem Smell Archive und ihrem ›Nasenalphabet‹ NASALO) sowie die beiden Einzelprojekte SWEAT FEAR | FEAR SWEAT (2005) und FEAR/CHEES = BACTERIA/SMELL (2011, work in progress).5 Trotz 15 Fotografien und zwei Grafiken, eher illustrativ verteilt, ist natürlich auch dann nur imaginär etwas zu riechen. Demgegenüber zeigt Sher Doruff in Diagrammatic Praxis in vier dichten visuellen Collagen und 13 lakonischen Anfügungen (von Emails, Präsentationen, Artikeln und anderen Materialien), wie eine diagrammatische Praxis des Bildhandelns künstlerisch möglich ist.6 Der

4 Shiner 2001; Borgdorff 2007; Schulze 2005. 5 Tolaas 2011. Das Abstract dieses Beitrages liest sich wie folgt: »Given that our societies have developed a language for colour, it is remarkable that we have not yet developed one for smell. Generally, when we categorize smells we only use the subjective connotations ›like it‹ or ›don’t like it‹. This is why I began to invent the first words for a language of smells, which I named NASALO. After nearly twenty years of collecting and archiving smells and dozens of artistic research projects on smell and smelling, NASALO has developed into an alphabet for the nose with its own logic and linguistic rules.« 6 Doruff 2011.

Holger Schulze

299

Klangkünstler Anders Hultqvist stellt seine Reflexionen und Selbstreflexionen während einer Neuinterpretation von Beethovens 5. Sinfonie und Tomaso Albinonis Adagio in g-moll vor.7 Und die Videokünstler Daniel Kötter und Constanze Fischbeck zeigen in staats-theater neben den 19 Einzelvideos ihrer Arbeit auch einen architekturtheoretischen Beitrag sowie eine spekulative Recherche anderer Autoren.8 Weitere Künstler dieser Erstausgabe des Journal for Artistic Research wählen dagegen das vergleichsweise klassische Format eines linearen, diskursiven Textes, dem Fußnoten und Bild- und Tonbeispiele angefügt sind. Wie der geschäftsführende Herausgeber Michael Schwab betont, sieht das JAR die einzelnen Beiträge nicht als Artikel, sondern eher als kleine Ausstellungen (oder Inszenierungen, Aufführungen, Herausgeberschaften, Übersetzungen Entfaltungen):9 Die Vielfalt und Ambivalenz dieser Begriffe soll den besonderen Ort der forschenden Kunst herausheben. Die besten Beispiele zeigen denn auch: Artistic research besteht weder darin, ein künstlerisches Vorhaben mit aktuell beliebten Denkfiguren, Theoretikern oder natur-/technikwissenschaftlichen Erkenntnissen, Formeln, Sachverhalten oder Forschungsrichtungen zu schmücken; noch entsteht artistic research durch das Übertragen von Publikations-, Argumentations- und Zitationsnormen quantitativ-empirischer Naturwissenschaften auf die Künste. Artistic research entsteht vielmehr in Momenten, da sich die Suche nach Erkenntnis durch ein künstlerisches Handeln, durch ästhetische Suchprozesse und Studien, durch Versuchsanordnungen einer materialbezogenen und hochreflektierten, offenen Erkundung einer benennbaren Forschungsfrage vollzieht: Artistic research ist zugleich wissenschaftliche Forschung und künstlerische Arbeit: ihre Arbeiten sind zugleich ästhetische Artefakte und epistemische Traktate. Dem doppelten Anspruch der Künste und der Wissenschaften an Ästhetik und Erkenntnis ist zu entsprechen. Dieser Beitrag unternimmt nun den Versuch, einen ganz spezifischen künstlerischen Forschungsprozess im Feld der Sonifikation zu untersuchen: Arbeitsweisen der Kunst (hier: der Klangkunst und Musik) verschränken sich konkret und produktiv konflikthaft mit Arbeitsweisen der Wissenschaft (hier: der Informatik und Physik). Für das Projekt der Sonarisationen Klänge zu gestalten und dynamisch zu entwickeln, war die Aufgabe, die sich Thomas Hermann, Informatiker und Leiter der Ambient Intelligence Group im Center of Excellence in Cognitive Interaction Technology (CITEC) an der Universität Bielefeld und Sam Auinger, Klangkünstler und Professor an der Universität der Künste Berlin im Jahr 2011 stellten. 7 Hultqvist 2011. 8 Kötter, Fischbeck 2011. 9 Schwab 2011.

300

Sonarisationen

Von Anfang an konnte ich dieses Projekt in teilnehmender Beobachtung mitverfolgen: vom Moment einer ersten vagen Idee in einem flinken Mobiltelefongespräch über die konkrete Ausformulierung an einem Kaffeehaustisch im Sommer 2010 bis hin zur intensiven Auseinandersetzung der Beteiligten mit den Arbeitsweisen, Methoden und Bewertungskriterien der jeweils anderen im Laufe der Projektentwicklung. Die Einzelheiten der Entwicklung in individuellen und institutionellen Kommunikationen sowie in persönlichen und halböffentlichen Workshops und Meetings an der Universität der Künste Berlin werden in diesem Artikel in ihrem jeweiligen Beitrag zum Projekt analysiert: Wie reagieren die Beteiligten aufeinander? Welche Worte meinen was für wen? Wie schnell müssen und wollen die Beteiligten wie konkret werden? Wie lange möchten sie sich alternative Möglichkeiten offenhalten? Verstehen sie sich einander in Humor, konstruktiver Kritik und unauflösbarem Dissens?

2. Thomas Hermann: Technische Sonifikation von Datenströmen Der Physiker und promovierte Informatiker Thomas Hermann arbeitet an der Universität Bielefeld seit über zehn Jahren im Rahmen der Neuroinformatics Group an Verfahren der wissenschaftlichen Sonifikation. Er orientiert sich dabei an den Prinzipien, die in der letzten Dekade im Rahmen der internationalen wissenschaftlichen Vereinigung ICAD entwickelt wurden und die er mitgeprägt hat.10 Eine Sonifikation vorliegender, wissenschaftlich erhobener Daten, folgt demnach den Prinzipien der expliziten: (A) Objektivierbarkeit der vorliegenden Daten (B) Beschreibbarkeit, wie Klänge durch Daten verändert werden (C) Reproduzierbarkeit mit identischen Daten (D) Übertragbarkeit auf andere Daten11

10 Die Soziologin Alexandra Supper erforschte den Prozess der Etablierung der scientific community der ICAD in einer beeindruckenden Studie: Supper 2011. 11 »Any technique that uses data as input, and generates (eventually only in response to additional excitation or triggering) sound signals may be called sonification, if and only if (A) the sound reflects properties/relations in the input data. (B) the transformation is completely systematic. This means that there is a precise definition of how interactions and data cause the sound to change. (C) the sonification is reproducible: given the same data and identical interactions/triggers the resulting sound has to be structurally identical. (D) the system can intentionally be used with different data, and also be used in repetition with the same data.« Hermann 2008.

Holger Schulze

301

Für Hermann bildet die Sonifikation eine notwendige Ergänzung und Erweiterung der Visualisierung: eine Verklanglichung von Ausgangsdaten, die andere Aspekte zu verdeutlichen und erkennbar zu machen vermag als es die Verbildlichung vermöchte. Seine Arbeit beschreibt er als anwendungs- und problemorientiert: Auditive Darstellungsformen sollten nicht Selbstzweck sein, sondern konkret benennbare Defizite ausgleichen und einen größeren Erkenntniswert erbringen. Gegebenes Arbeitsfeld kann dabei sowohl eine technische Konstruktion als auch ein Ausschnitt der beobachtbaren Natur sein, die sich idealerweise hochdynamisch entwickelt. Solche Sonifikationen im wissenschaftlich-systematischen Sinne nennt er modellbasiert, wenn sie nach dem Vorbild des musikalischen Instruments funktionieren: ein dynamisches und hochreaktives System wird durch äußere Einflussnahme, durch Erregung und Zufluss von Energie (durch einen Instrumentalisten respektive einen eintreffenden Datenstrom) derart angeregt, dass analog oder digital Schallwellen ausgesandt werden.12 Modellbasierte Sonifikation bringt somit ein virtuelles, algorithmisches Instrument hervor: A sonification model is the set of instructions for the creation of such a ›virtual sound-capable system‹ and for how to interact with it. Sonification models remain typically silent in the absence of excitation, and start to change according to their dynamics only when a user interacts with them. The acoustic response, or sonification, is directly linked to the temporal evolution of the model.13 In der konkreten Entwicklungsarbeit geht es ihm darum, anhand einer vorliegenden Fragestellung zunächst ein, wie er sagt, »kreatives Atom«, eine erste Idee zur Instrumentgestalt zu finden. Hierzu sind geeignete, messbare und hinreichend diskrete Parameter aus dem Untersuchungs- und Arbeitsfeld herauszulösen (z. B. dynamische Höhenunterschiede, Geschwindigkeit, Bewegung, Gewicht, Größe oder Außentemperatur, Feuchtigkeit, Lautstärke, Windgeschwindigkeit) – und diese Parameter anhand von sechs Kategorien der modellbasierten Sonifikation (Model Setup, Model Dynamics, Model Excitation, Initial State, Model-Link Variables, Listener Characteristics) auf eine Weise ineinander sowie an klangliche Parameter (z. B. Tonhöhe/Frequenz, Lautstärke, räumliche Ausrichtung, Klangfarbe) zu koppeln, dass ein imaginiertes algorithmisches Instrument entsteht.14 Davon ausgehend wird dann ein erster Prototyp entwickelt (sprich: program-

12 Als Anwendungsfelder sieht Hermann dabei »Exploratory Data Analysis«, »Augmenting Human Computer Interaction«, »Process Monitoring«, »Augmented Acoustics and Ambient Information«, Hermann 2011a, 328 f. 13 Hermann 2011a, 307. 14 Hermann 2011b.

302

Sonarisationen

miert), der in der Folge immer wieder überarbeitet und in Konfrontation mit der Empirie des Hörens und verschiedenen Nutzer/innen verbessert wird. Die eigenen Klangerwartungen der ersten Idee – so konstatiert er – seien dabei immer wieder zu brechen. Diese hörenden Zugänge zur Welt nennt er denn auch Peraudekte statt Perspektive. Diese beiden Schritte der Bestimmung des Parameterfeldes und der selektiven Koppelung bereiten das Feld, in dem sich hernach sonifizierend überhaupt arbeiten lässt. In beiden Schritten gestaltet Hermann tatsächlich in einem ganz grundlegenden Sinne, da er die hinreichend aleatorische Heterogenität und Inkonsistenz aller möglichen Parameterfelder und Parameterkopplungen hochselektiv und charakteristisch reduziert und reduzieren muss. Hermanns Heuristik ist dadurch gekennzeichnet, dass sie sucht, die angemessenen Datensätze respektive -ströme zu bestimmen, die es erlauben, sie mit auditiv wirksamen Parametern der Klanglichkeit zu korrelieren: eine Heuristik, die auf beiden Seiten der Gleichung hochdynamische Elementreihen austariert und in ein abbildungs-, genauer: sonifikationsfähiges Spiel zu bringen trachtet. Ich möchte diese Heuristik darum als eine Hörheuristik der doppelten Datenströme bezeichnen: Datenraum und Wahrnehmungsraum werden über einen Signalraum verbunden.

3. Sam Auinger: Künstlerische Audifikation einer Erfahrungssituation Der Klangkünstler und Komponist Sam Auinger entwickelt seit den 1990er Jahren Klanginstallationen, Hörstücke und Ensemblearbeiten, die sich mit Hörerfahrungen des öffentlich-urbanen Raumes auseinandersetzen. Er legt großen Wert auf das individuelle Hören vor Ort, die intermodale und sensorisch dichte Wahrnehmung unterschiedlicher Menschen sowie die architektonisch-urbanistische Zurichtung unseres Erlebens und Hörerlebens: die nichthörsame Unwirtlichkeit unserer Städte. In einem programmatischen Text von 2006 konstatiert er gemeinsam mit einem seiner zahlreichen Kollaborateure, dem Musiker und Künstler Bruce Odland: Since the Renaissance we have had an agreed visual perspective, and language to speak acurately about images. This we still lack in the world of sound, where words fail us to even describe for instance the complex waveforms of an urban

Holger Schulze

303

environment, much less what those sounds do to us and how they make us feel. We are lost in a storm of noise with no language for discussion.15 Während die wissenschaftliche Forschung sich den Begriff der Sonifikation als übergreifenden gewählt hat, nimmt Auinger sich in künstlerischer Freiheit heraus, dem wissenschaftlich eher untergeordneten Begriff der Audifikation ein größeres Gewicht zu verleihen. Audifikation als ein ›Hörbarmachen‹ (im Gegensatz zum ›Verklanglichen‹ der Sonifikation) erlaubt ihm, sich ganz auf die gegebenen Schwingungsverhältnisse einer Hörsituation zu konzentrieren: When we make large scale sound installations in public spaces, our starting point is the basic environmental soundscape of the site. Architecture, history, acoustics, and social dynamics of a given space are taken into account. Often there is a large discrepancy between the visual and sonic aesthetic. A carefully planned visual aesthetic of serenity, focus, and power can easily exist within the sonic chaos of cars, helicopters, muzak, and emergency sirens. The challenge is to regain information which our hearing can decode from that chaos, and re-invigorate our hearing environment with that harmonious version of reality.16 Die Gestaltung nimmt hier also einen anderen, einen deutlich späteren und untergeordneten Stellenwert ein neben der vorgängigen Erforschung einer auditiven Erfahrungssituation. Ein charakteristischer Beleg für die Grundannahme der künstlerischen Forschung, dass die Arbeitsschwerpunkte der künstlerischen Gestaltung einerseits und der methodischen Forschung andererseits sich eher selten trivial und sortenrein auf die Künste und die Wissenschaften verteilen lassen: methodische Forschung kann künstlerische Vorhaben ebenso stark prägen wie eine künstlerische Gestaltung (wenn auch öfter uneingestanden) wissenschaftliche Vorhaben durchzieht. Die konkrete Vorgehensweise Auingers ist dabei vor allem geprägt durch ein Öffnen der üblichen hearing perspective17 hin auf ein tatsächliches Situationshören. Das täglich gewohnte Hören erstarrt durch kulturelle Prozesse der Über- und Unterforderung, der Fokussierung und Defokussierung gewohnheitsmäßig in Routinen der Mustererkennung und der Konzentration auf möglichst geringe Kontingenz und hohe Überraschungslosigkeit der erkannten, vorwiegend semiotischen Muster. Demgegenüber bemüht sich Auinger in seinen Hörerkundungen an konkreten Orten und Zeitpunkten vor allem darum, 15 O+A 2006. 16 O+A 2006. 17 Ebd.

304

Sonarisationen

sein musikalisches, kompositorisches, sein akustisches und sonisches Wissen dazu zu nutzen, die besonders ungewohnten, erratischen, subtilen und irritierenden Formationen in diesen Zeiträumen herauszuhören18: O+A collect, filter, and expand resonances found in nature and cities and try to unlock their meaning. These sounds are often shut out of our mental picture of a space as ›noise‹. By listening to and studying these noises, they become useful sound sources. Closer observation of these sounds often reveals a hidden music of interesting details, useful tones, and harmonics, even a potential melodic interest. These we collect and archive as an Alphabet of Sounds.19 Diese besonderen Formationen hochkontingenter Klangverläufe in situativ-hochreaktiven Verstärkungen und Bewegungen bilden dann den Ausgangspunkt seiner Arbeiten, in denen er diese auditiven Entdeckungen und Erkenntnisse betont, vorzeigt und künstlerisch nutzt. Auinger hierzu: Odland and Auinger are learning to make sense of the sound environment we live in by listening with attention, hearing, exploring, and attempting to understand the cultural waveform as a language. In a primarily visual culture where decisions and budgets are often arrived at through visual logic, we must note that thinking with your ears tells a very different story. Why does the MOMA sculpture garden, bastion of High Art sound like any taxi stand in midtown NYC? Why is an expensive ›quiet‹ car quiet only when riding on the inside?20 Entsprechend betont er auch im Gespräch mit Thomas Hermann (vor allem bei der ersten persönlichen Begegnung am 31. Januar 2011), dass er sich in seiner Herangehensweise vornehmlich den taktilen und körpernahen Wirkungen des Hörens in diesem Projekt zuwenden möchte.21 Nachdem klar wurde, dass die Plattform Twitter ein Zentrum der

18 Ein ästhetischer Anspruch, der sich in den Worten Hermanns verstehen ließe als: »INFORMATION richness: sonifications should be ›non-trivial‹. In other words they should be complex and rich on different layers of information«. Hermann 2011a, 311. 19 O+A 2006. 20 Ebd. 21 Er kategorisiert das Hören in diesem Gespräch in drei Felder des Hörens: a) das widefield, das auch visuell und beobachtend zu erschließen ist; b) das midfield, das den Grund für einen Großteil unserer sozialen, stark routinierten Alltagshandlungen und -reaktionen bildet; und c) das nearfield, welches ganz taktil und körpernah wirkt und üblicherweise nicht (oder nur in großen Ausnahme- und Spezialfällen) in unsere Alltagswahrnehmung rückt.

Holger Schulze

305

Arbeit bilden würde, reflektierte er deren mediale Wirkungsweise und netzwerkartige Verankerung ganz grundsätzlich, um vor einer übereilten und unangemessenen Nutzung zu warnen: die sowohl für gewohnte Nutzer als auch die Hörer des Sendeplatzes womöglich gleichermaßen grotesk, peinlich und inkohärent wirken könnte. Die Arbeitsweise Auingers ist damit – charakteristisch für bestimmte künstlerische Herangehensweisen – geprägt vom skrupulösen, immer wiederkehrenden Hinterfragen vermeintlich schon gesetzter und vereinbarter Rahmenbedingungen und Vorannahmen auf höchstem Niveau. Kein Element der eigenen und gemeinsamen Arbeit soll unreflektiert bleiben – um am Ende der Wochen und Monate künstlerischer Arbeit tatsächlich alle Aspekte bedacht und das bestmöglich stimmige Werk im gegebenen Zeitrahmen hervorgebracht zu haben. Dieser Anspruch prägt eine wissenschaftliche Arbeit gleichermaßen; doch rückt hier die Planungssicherheit der Forschungsarbeit, die selbstauferlegte Beschränkung der Reflexionsebenen und Forschungsaufgaben sowie ein üblicherweise weitaus engerer Zeitrahmen in den Vordergrund, für den das punktuelle Scheitern oder Ungenügen eines Projektes mitunter als hilfreiches Ergebnis und Grundlage eines Folgeprojektes angesehen werden kann (deutlich etwa im von Hermann betonten wiederholten Überarbeiten und Austesten eines Prototypen). Das Abgleichen von enger Zeitplanung und umfassender Tiefenreflexion ringt in jedem künstlerischen und wissenschaftlichen Projekt miteinander. Auingers Heuristik des Hörens ist somit situativ und parametersprengend wie auch -innovierend gelagert. Sie wendet sich nicht im ersten Schritt einem Bestimmen, Korrelieren und Kombinieren von Parametern zu, was eher in einem späteren, oft letzteren Schritt der Arbeit geschieht. Auingers erster Schritt ist es, eine Erfahrungssituation aufzusuchen und darin sehr feine, doch irritierend ungewohnte Parameterverschlingungen und -verknotungen zu finden, die herkömmliche Koppelungen erschweren und fragwürdig erscheinen lassen. In diesem Konflikt des eigentlich Unverstehbaren kommt seine Heuristik des Hörens zum Tragen, die sich ganz auf das menschliche Hören vor Ort konzentriert und daraus auditiv subtil überraschende Artefakte zu lösen beabsichtigt. Seine Hörheuristik möchte ich eine Heuristik der Erfahrungssituation nennen.

306

Sonarisationen

4. Annäherungen zwischen Datenstrom und Erfahrungssituation Ausgehend von der Anregung durch das Deutschlandradio Kultur kamen Auinger und Hermann zusammen. Der Sendeplatz des sogenannten Geräuschs des Monats22 sollte mit einer innovativen und intuitiv verständlichen künstlerischen Sonifikation bespielt werden, jeweils zwischen 2 und 5 Minuten lang. Die Annäherung der heterogenen Arbeitsansätze von Auinger und Hermann verlief dabei über verschiedene Schritte. Ein erster Schritt, bedingt durch die starke Reisetätigkeit aller Protagonisten dieser Kooperation, war ein etwa einstündiges Gespräch über Skype am 19. Oktober 2010 ab 14 Uhr; abzüglich der gängigen technischen Abstimmungsfragen und Ausfälle dauerte das inhaltliche Gespräch etwa 30-40 Minuten: aufgrund der intensiven Vorkenntnisse übereinander und der jeweiligen Erfahrung durchaus ein ausreichender und üblicher Zeitraum für solche Erstkontakte. Eine erste grobe, eher formale Abstimmung der Teilnehmer war hierbei möglich. Der zweite Schritt war ein etwa zweistündiges Gespräch der beiden vor Ort, an der Universität der Künste Berlin am 31. Januar 2011 zwischen 15 und 18 Uhr, in einem Raum, in dem Sam Auinger Sound Studies lehrt.. Für dieses Gespräch waren etwa zwei Stunden anberaumt, die auch ausgeschöpft werden konnten. Aufgrund der Vorbereitungszeit und des Austausches in der Zwischenzeit konnte im Gespräch der Konflikt der heterogenen Ansätze hilfreich zugespitzt werden: vor allem, indem künstlerische Ideen von Studierenden der Sound Studies als mögliche Projekte sondiert wurden. Eine ganze Reihe (Aktienkurse, ozeanische Wasserströme, submarine Fauna, Rollkofferklangmuster an Bodenbelägen verschiedener Flughäfen/Bahnhöfe, politische Demonstrationen u. a. m.) wurden spielerisch erkundet, verworfen, belächelt, wieder hervorgeholt und neu gedacht. In einem Pingpong der Beispiele zwischen Auinger, Hermann und den anderen Teilnehmern des Gespräches ereignete sich so ein Abgleich des jeweils Undenkbaren für die eine mit dem jeweils Möglichen für die andere Seite. Der größte Konflikt und die größte Verständnisschwierigkeit in diesem Austausch möglicher Projekte bestand jeweils darin, wie (für die technische Sonifikation) Parameterfelder herausgelöst und bestimmt werden könnten oder wie (für die künstlerische Audifikation) das Hören als ein situativer und politisch-gesellschaftlich sensibler Sinn im Zuge einer Arbeit aktiviert werden könnte: Das Sonifizieren von Aktienkursen erfüllt so etwa

22 Die regelmäßigen Sendeplätze des Geräusches des Monats waren (in der Länge sehr unterschiedlich, je nach Kürze oder Länge der zuvor gesendeten Produktion) seit 1998: Feature am Samstag 18:05 Uhr, Freispiel Montag 00:05 Uhr, Hörspiel Mittwoch 21:33 Uhr, Hörspiel Sonntag 18:30 Uhr, Hörspiel am Mittwoch 21:33 Uhr, Hörspiel am Sonntag 18:30 Uhr, Kinderhörspiel Sonn- und Feiertag 14:05 Uhr, Klangkunst Freitag 00:05 Uhr, Kriminalhörspiel Montag 21:33 Uhr.

Holger Schulze

307

die technische, nicht aber eine künstlerische Ambition; das Audifizieren von Rollkofferklangmustern dagegen erreicht Ziele der künstlerischen, erschwert aber die Umsetzung einer technischen Arbeit. Einen gemeinsamen Zugang fanden Auinger und Hermann, indem sie einen Ansatz suchten, der gleichermaßen die Situativität des Hörens wie auch die Datenextraktion berücksichtigt. Ein Vorschlag von Anselm Venezian Nehls – Studierender an der Universität der Künste sowie Programmierer und Gestalter – platzierte sich schließlich genau in diese Lücke: er schlug die Programmierung von Tweetscapes vor, die in Echtzeit eine große Menge im Kurznachrichtendienst Twitter ausgesendeter Nachrichten auswertet und in eine entsprechende Sonifikation umsetzt: Was ich verklanglichen möchte, sind kommunikative Zusammenhänge zwischen Menschen, die sich im Social Web äußern: Das Grundrauschen ebenso wie das plötzliche Aufflammen von Themen, das Aufgreifen und Verbreiten von Ideen, intensive Diskussionen, die langsam wieder absterben etc.23 Am Nachmittag des 16. Mai 2011 schließlich erarbeitete Auinger ab 16 Uhr mit Studierenden die nächsten Schritte. In einem weiteren Workshop am 1. Juli 2011, von 16 bis 19 Uhr, wurde dies gemeinsam mit Thomas Hermann (zugeschaltet via Skype) und einem weiteren Programmierer diskutiert und problematisiert: 1. Wie genau soll die Menge der weltweiten, deutschsprachigen oder in Deutschland lebenden oder bestimmte Stichworte erwähnenden Twitterer eingegrenzt werden? Soll in Echtzeit oder in Tagen gefiltert und komprimiert werden? 2. Welche Dynamiken sollen auditiv abgebildet werden? Ein Hintergrund der großen Entwicklungen, vor dem sich womöglich einzelne, kurzzeitige trending topics, beliebte Themen also, auditiv abheben können? 3. Wie lassen sich Klänge aus diesem Material gewinnen? Reicht ein Sonifizieren durch Vogelstimmen – oder soll das Material direkt aus dem Flirren und Schwatzen der Twitterer gewonnen werden? Welche nicht-triviale Ästhetik lässt sich finden, die gleichermaßen auditiv reich und subtil und zugleich für die vielfältigen Sendeplätze und die Zielgruppe (Durchschnittsalter 43 Jahre) intuitiv verständlich ist?

23 Nehls 2011.

308

Sonarisationen

5. Anselm Venezian Nehls: Tweetscapes als soziales Klangmedium Wie lässt sich eine Erfahrungssituation als Datenstrom abbilden? Das schlussendliche Projekt Tweetscapes nutzt hierzu den Strom der Äußerungen auf der Kurznachrichtenplattform Twitter als heterogenen und höchst diversen Datenstrom, der es ermöglicht, synchron eine Erfahrungssituation etwa aller deutschsprachigen Twitterer abzubilden. Nehls schreibt in seinem ersten Konzept vom 12. Februar 2011 hierzu: Ich möchte dafür nicht lediglich ein ›Stück‹ erstellen, welches dann offline gespielt werden kann, sondern das Echtzeit-Web auch in Echtzeit darstellen, also online. Die Verklanglichung würde von einem dezidierten Rechner rund um die Uhr berechnet und live im Internet gestreamt – und so mit sehr geringer Latenz auf die aktuelle Situation reagieren. Das Publikum könnte so die Sonarisation direkt live während des Hörens beeinflussen. Für die eigentlich gewünschten ›Einspieler‹ im Deutschlandradio müsste dann nur der aktuelle Stream übers Radio ausgestrahlt werden – man hört also kurz in die momentane Situation hinein, die sich aber unabhängig davon online weiterentwickelt. Wird im Radio auf diesen Zusammenhang hingewiesen, können Interessierte also direkt auf der Deutschlandradio-Webseite weiterhören. Ich halte das für eine sehr gute Art, Radio und Internet in einen aktuellen und eleganten Zusammenhang zu bringen.24 En détail bedeutet dies nun, dass die Datenmasse von Twitter geordnet, gegliedert und derart gestalterisch für eine Verklanglichung aufbereitet werden muss. Dieses Ordnen der Materialien und die künstlerische Entscheidung für ein bestimmtes Repertoire an Tweets, die sonifiziert werden sollen, bildete die Hauptarbeit in der ersten Phase. Erst in einem zweiten Schritt – gedanklich aber stets parallel mitreflektiert – kann die klangliche Gestalt erarbeitet werden, da deutlich ist, welche dynamischen Strukturen möglich sind und wie komplex die Klänge ineinandergreifen müssen, um den strukturierten Strom der Tweets auditiv darstellen zu können.25

24 Ebd. 25 In der ersten Konzeption schrieb Nehls hierzu noch: »Konkret stelle ich mir vor, dass ein Programm eine bestimmte Gruppe (nicht zu klein, nicht zu groß, optimalerweise wohl ein paar Tausend) von Twitter-Accounts monitort. […] Die empfangenen Tweets werden nun verklanglicht. Da es mir nicht um konkrete Inhalte, sondern um größere Strukturen und Zusammenhänge geht, werden hierfür aus den Tweets nur folgende Informationen ausgelesen: Geolocation, User, Hashtags (also thematische Einordnung) und ob es sich um einen Retweet (also eine direkte, quasi unveränderte Weiterleitung eines Inhalts) handelt. Nun ruft jeder Tweet eines der Follower von Deutschlandradio ein Klangereignis hervor. Wie dieses genau beschaffen sein soll, ist zunächst nicht so relevant, wichtig ist nur, dass

Holger Schulze

309

Anfang Juli 2011 hatte Nehls darum via Redaktion des Deutschlandradio Kultur Kontakt mit Twitter Deutschland aufgenommen: eine Anfrage, die positiv beantwortet wurde. In einem ersten Schritt wurde nun ein Log, also ein Protokoll der bei Twitter eingehenden Nutzerdaten für 24 Stunden erstellt; dieses Log kann nun als Lehm- oder Styropormodell dienen, anhand dessen die möglichen Verarbeitungs- und Sonifizierungsvarianten exemplarisch durchgespielt werden können. In einer etwa einstündigen Telefonkonferenz am 11. Juli 2011 entstanden dann die ersten Ideen zur Klanggestaltung: Basisparameter der Klänge werden generell aus den Hashtags […], Varianz der Klänge (z. B. Microtuning, unwichtigere Parameter) wird durch Hashbildung über den Rest des Tweet-Textes gewonnen.26 In den folgenden Wochen erarbeitet Nehls nun das algorithmische Werkzeug, das aus den Tweets der deutschsprachigen Twittersphäre eine auditive Tweetscape hervorbringt: zum einen gemeinsam mit dem Entwickler und Programmierer Florian Eitel, zum anderen aber in fortwährendem Austausch und mit konkreter Unterstützung durch Thomas Hermann, Sam Auinger und Marcus Gammel. Mitte August trafen Nehls und Hermann sich schließlich, um in 1-2 Tagen einen Prototypen zu entwickeln.27 Hierbei entstand der Kern des Sonifikationstools. Dabei wurde klar:

eine Ähnlichkeit von Inhalten auch eine Ähnlichkeit im Klang hervorruft. Beispielsweise könnte ein Tweet in Inhalt und (Hash-)Tag aufgeteilt werden. Aus dem Tag wird nun eine Nummernfolge errechnet (z. B. mittels MD5-Hash-Algorithmus), welche eindeutig auf bestimmte Klangparameter gemappt ist. Die Klangfarbe wird nun im Rahmen von ca. +/- 10 % durch einen zweiten MD5-Hash (oder eine geeignetere Methode) variiert, welcher sich aus dem eigentlichen Inhalt des Tweets ergibt. Im Ergebnis bedeutet das also, dass zwei Tweets, welche mit dem gleichen Hashtag als zum selben Thema zugehörig markiert sind, zwei Klangereignisse hervorrufen, welche nicht exakt gleich klingen, aber akustisch direkt miteinander verwandt sind. Direkte Retweets hingegen klingen auch akustisch fast exakt gleich. Geschicktes Mapping der Parameter ist hier natürlich die halbe Miete. Die Klangereignisse werden nun im Stereopanorama verteilt und zwar z. B. nach folgender Methode: Anhand der Geolocation des Tweets wird die Distanz zum Deutschlandradio-Studio und die relative Ausrichtung festgestellt. Das 360 ° Panorama um das Studio herum wird auf die Stereo-Ebene gemappt, so dass z. B. 0 ° dem linken Anschlag des Panorama-Reglers entspricht und 359 ° dem rechten Anschlag. Die Distanz des Tweets vom Sender wird durch die Nähe des Ereignisses zum Hörer, also die Tiefenstaffelung, verklanglicht.« Nehls 2011. 26 Ebd. 27 Ebd.

310

Sonarisationen

Die Tweetscape sollte zwar eine ›Landschaft‹ formen, aber insgesamt abstrakt bleiben, da Field Recordings/Samples einen Kontext aufmachen, den wir nicht inhaltlich verankern können.28 Daneben plante Nehls, diese Tweetscape auch als Tweetspace zugänglich zu machen, indem er eine mehrkanalige Rauminstallation der Jury der Transmediale im Frühling 2012 vorschlug; Tanzen zu Twitter war dann eine weitere Idee zur Realisation: hierbei sollte die Tweetscape kombiniert werden mit ebenso aus Tweets generierten Beats, Basslinien und Samples für einen Abend im Club Transmediale. Zum Zeitpunkt der Lektorierung dieses Bandes lagen die Tweetscapes erst in einer Demonstrations-Version vor; sie waren noch nicht uraufgeführt. Was sollte zum Sendestart in der ersten Oktoberwoche 2011 zu hören sein? Wie lassen sich die Konjunkturen der Hashtags in der deutschen Twittersphäre konkret erlauschen? Welcher Klangeindruck ergibt sich, aus dem Repertoire einer Samplelibrary, die auf ca. 1000 Einzelsymples angelegt sein soll? Wie verändert deren algorithmisch realisierte und auch für den Programmierer en détail unvorhersehbare Bearbeitung durch Halleffekte, Loopen, Granularsynthese und Herausschneiden einzelner Sekundenpassagen? In seinem Konzept schrieb Nehls: Perkussive Einzelereignisse, welche sich zu Clustern ausbilden […], vielfältige Klanglandschaft […], großer Ambitus, hohe Varianz innerhalb der Einzelklänge (Bsp. Rauschanteile variieren, verschiedene Syntheseformen, die abwechselnd angesteuert werden).29 Ich höre bei der Ursendung am 7. Oktober 2011, wie die suchenden, tastenden Klangannäherungen der ersten Skizzen sich nunmehr etabliert haben; aus einem Grund flächiger Klänge, Tastaturgeklapper und grauen, elektronischen Lauten, fernen, verhuschten Worten, steigen die einzelnen Hashtags auf: das Auf und Ab der AufmerksamkeitsKonjunkturen der deutschsprachigen twittersphere wird tatsächlich hörbar. Wichtig ist Nehls dabei vor allem – bei aller Freude am gelungenen Produkt –, dass die soundscape dieser twittersphere selbst wiederum gehackt werden könnte von ambitionierten Hörerinnen und Programmierern:

28 Ebd. 29 Ebd.

Holger Schulze

311

Twitter-User können mit ihren Tweets das so geschaffene ›Instrument‹ spielen. Sie können sich mit anderen Usern verabreden und live und gemeinsam im Radio eine Komposition spielen, indem sie vorher abgestimmte Hashtags kombinieren, einander retweeten etc. – eine offene Bühne, eine direkte klangliche EchtzeitVerbindung vom Internet ins Radio und zurück.30

6. Quellen Borgdorff, Henk (2007): The Mode of Knowledge Production in Artistic Research, in: Gehm, Sabine / Husemann, Pirkko / von Wilcke, Katharina (Hg.), Knowledge in motion: perspectives of artistic and scientific research in dance, Bielefeld. Doruff, Sher: Diagrammatic Praxis, in: Journal of Artistic Research 1 (2011), H. 0. Online: http://www.researchcatalogue.net/view/?weave=6622 Eichel, Christine (1993): Vom Ermatten der Avantgarde zur Vernetzung der Künste. Perspektiven einer interdisziplinären Ästhetik im Spätwerk Theodor W. Adornos. Frankfurt a. M. Hermann, Thomas (2008): Taxonomy and definitions for sonification and auditory display, Proc. ICAD 2008, IRCAM, France. Hermann, Thomas (2011a): Model-Based Sonification, in, Hermann, Thomas / Hunt, Andy / Neuhoff, John G. (Hg.), The Sonification Handbook, 307-335. Hermann, Thomas (2011b): Telefongespräch mit Holger Schulze, 4. Juli 2011, 13 Uhr 44 bis 14 Uhr 37. Holert, Tom (2011): Künstlerische Forschung: Anatomie einer Konjunktur, in: Texte zur Kunst 21 (2011), H. 83: Aesthetic Research, 39-63. Hultqvist, Anders: ›Who creates the creator‹ – and the limits of interpretation?, in: Journal of Artistic Research 1 (2011), H. 0., http://www.researchcatalogue.net/view/?weave=506 Kötter, Daniel / Fischbeck, Constanze (2011): Staatstheater, in: Journal of Artistic Research 1 (2011), H. 0., http://www.researchcatalogue.net/view/?weave=5702 Nehls, Anselm Venezian (2011), Mail an Sam Auinger, 12. Februar 2011, 18:32 Uhr. O+A (Sam Auinger & Bruce Odland) (2006): Hearing Perspective, in: http://www.o-a.info/background/hearperspec.htm, 01.07.2011.

30 Ebd.

312

Sonarisationen

Schulze, Holger (2005): Was sind Sound Studies? Vorstellung einer neuen und zugleich alten Disziplin, in: Vorkoeper, Ute (Hg.): Hybride Dialoge. Rückschau auf die Modellversuche zur künstlerischen Ausbildung an Hochschulen im BLK-Programm »Kulturelle Bildung im Medienzeitalter«, Bonn, 79-83. Schwab, Michael (2011): Editorial, in: Journal of Artistic Research 1 (2011), H. 0., http://www.jar-online.net/index.php/issues/editorial/480 Shiner, Larry (2001): The Invention of Art – A Cultural History, Chicago. Supper, Alexandra (2011): The Search for the »Killer Application«: Drawing the Boundaries Around the Sonification of Scientific Data, in Pinch, Trevor / Bijsterveld, Karin (Hg.), The Oxford Handbook of Sound Studies (in print). Tolaas, Sissel (2011): An alphabet for the nose, in: Journal of Artistic Research 1 (2011), H.0., http://www.researchcatalogue.net/view/?weave=1036

Holger Schulze

313

Autorenverzeichnis

Prof. Dr. Florian Dombois *1966 in Berlin, beschäftigt sich mit Landformen, Labilitäten, Seismik, wissenschaftlichen und technischen Fiktionen in unterschiedlichen Darstellungs- und Publikationsformaten. – Als Künstler Studium der Geophysik und Philosophie in Berlin, Kiel und Hawaii. Kulturwissenschaftliche Promotion Was ist ein Erdbeben?, in der historische und zeitgenössische, künstlerische und wissenschaftliche Erdbebendarstellungen miteinander verglichen und die Methode Kunst als Forschung entwickelt wurden. Zahlreiche Happenings, sowie Lehraufträge an Kunsthochschulen und Universitäten in Deutschland, den Niederlanden und den USA. 2003-2011 Professor an der Hochschule der Künste Bern und Gründer des Institut Y für den transdisziplinären Austausch zwischen den Künsten in Forschung und Lehre. Seit 2011 Professor an der Zürcher Hochschule der Künste, Leiter des Forschungsschwerpunkts Transdisziplinarität. 2010 Preisträger des Deutschen Klangkunstpreises. Einzel- und Gruppenausstellungen  unter anderem  in der Kunsthalle Bern, Akademie der Künste Berlin, Galerie gelbe MUSIK Berlin, ZKM Karlsruhe, Galerie Rachel Haferkamp Köln, Riga Art Space, Fundació Suñol Barcelona und CIC Kairo.

Dr. rer. pol. Dipl.-Psych. Nada Endrissat ist Dozentin für Organisation und Personal am Fachbereich Wirtschaft der Berner Fachhochschule. Nach dem Studium der Psychologie an der Freien Universität Berlin, Promotion am Wirtschaftswissenschaftlichen Zentrum der Universität Basel zum Thema Führungs- und Identitätskonstruktionen in Schweizer Spitälern. Ihre Forschungsinteressen umfassen kritische Ansätze in der Management- und Organisationsforschung sowie die Rolle von Kunst und Kreativität in Organisationen. Aktuell arbeitet sie an einem Projekt zu Wissens- und Designprozessen in der Parfumentwicklung sowie zu Fragen des multisensuellen Branding.

315

Sabine von Fischer Architektin und Autorin. Sie studierte an der ETH Zürich, an der Harvard Graduate School of Design in Cambridge und an der Columbia University, New York. Nach dem Studium arbeitete sie als Architektin in Büros in Zürich und New York, wie auch selbständig (www.diaphanarch.ch). Sie hat in Europa, in Nordamerika und in Indien zu verschiedenen Themen aus der Architektur Vorträge gehalten, unterrichtet und publiziert. 20042008 war sie Redaktorin der Zeitschrift werk, bauen und wohnen. Seit 2008 arbeitet sie als Doktorandin am Institut für Geschichte und Theorie der Architektur an der ETH Zürich am Projekt ›Hellhörige Häuser. Architektur, Alltag und Akustik 1930-1970‹ (www. alltagsakustik.ch; vom SNF gefördert). 2010 erhielt sie ein Forschungsstipendium des Canadian Center for Architecture in Montréal.

Florian Grond *1975 in Graz, studierte Chemie mit dem Schwerpunkt chemische Systemtheorie und nichtlineare Dynamik in Graz, Leicester und Tübingen. Danach angestellt am ZKM (Zentrum für Kunst und Medientechnologie) in Karlsruhe. Forschungsaufenthalte am Input Devices and Music Interaction Laboratory 2008 und dem Shared Reality Lab 2010 an der McGill Universität in Montreal. Momentan PhD Stipendiat am CITEC an der Universität Bielefeld in der Arbeitsgruppe Ambient Intelligence. Seit 2002 Publikationen im Bereich nichtlineare Dynamik, Sonifikation und im Kontext interdisziplinärer Kunst und Wissenschaftsprojekte. Seit 2004 Beteiligung an zahlreichen Ausstellungen in Europa, Nordamerika und Japan. 2011 kuratierte er die deutsche Sektion des Festivals für zeitgenössische Kunst TINA B in Prag. Seit Nov. 2011 Affiliate Member am Centre for Interdisciplinary Research in Music Media and Technology McGill Montreal. Im kürzlich erschienenen Sonification Handbook (hrsg. von Hermann, Hunt und Neuhoff, 2011) ist er zusammen mit Jonathan Berger Author des Kapitels zur Parametermapping-Sonifikation.

Dr. Michael Harenberg Musik- und Medienwissenschaftler, Komponist. Studierte systematische Musikwissenschaft in Gießen und Komposition bei Toni Völker in Darmstadt. Medienwissenschaftliche Promotion zum Thema Virtuelle Instrumente im akustischen Cyberspace. Poietische Dimensionen musikalischer Medialität bei Prof. Dr. Georg Christoph Tholen, Universität Basel. Arbeitsschwerpunkte sind digitale Soundculture, experimentelle Interfaces, kompositorische Virtualitätsmodelle des Digitalen, elektroakustische Musik im Rahmen instrumentaler und installativer Settings. Diverse Preise und Stipendien sowie interna-

316

Das geschulte Ohr

tionale Vorträge und Publikationen zum Schwerpunkt Musik und digitale Medien. Mitglied in verschiedenen Improvisations- und Kompositionsensembles mit internationaler Konzerttätigkeit. Harenberg ist Dozent für Musikalische Gestaltung und Medientheorie sowie Leiter des Studiengangs Musik und Medienkunst an der Hochschule der Künste Bern. Er lebt als Komponist und Musik-/ Medienwissenschaftler in Bern und Karlsruhe. Harenberg ist Vorsitzender der Deutschen Gesellschaft für elektroakustische Musik (DEGEM) und Leiter des DEGEM Webradios.

Dr. rer. nat. Dipl.-Phys. Thomas Hermann *1970, Studium der Physik an der Universität Bielefeld, Promotion in Informatik an der AG Neuroinformatik der Universität Bielefeld mit dem Thema Sonification for Explo- ratory Data Analysis, Forschungsaufenthalte in den Bell Labs (NJ, USA, 2000), GIST (Glasgow University, U. K., 2004), McGill University (Montreal, Kanada, 2008); Deutscher Delegierter der COST Action 287 (Gesture Controlled Audio Systems, bis 2007), seit 2003 Vorstandsmitglied der ICAD (International Community for Auditory Display), Initiator und Organisator der ISon Workshops (International Workshop on Interactive Sonification, mit Andy Hunt), zweiter Vorsitzender und Deutscher Delegierter der COST Action IC0601 Sonic Interaction Design (SID). Seit 2008 leitet Thomas Hermann die Forschungsgruppe Ambient Intelligence im Exzellenzcluster Cognitive Interaction Technology (CITEC) an der Universität Bielefeld. Seine Schwerpunktthemen sind Sonifikation, multimodale Mensch-Maschine Interaktion, kognitive Interaktionstechnologien, Datamining, Tangible Computing und Augmented Reality. Thomas Hermann lebt und arbeitet in Bielefeld.

Michael Iber *1965, ist Musiker und Rundfunkjournalist. Ursprünglich »klassischer Interpret«, interessiert sich inzwischen für ein erweitertes Verständnis von Kunstwerk und Urheberschaft und die Bedeutung kultureller Referenzen im Rahmen künstlerischer Arbeit. Die für die Realisation seiner Projekte benötigte Software programmiert er weitestgehend selbst. An der Bremer Jacobs University ist er als wissenschaftlicher Mitarbeiter tätig und entwickelt im Rahmen seiner Dissertation eine Methode zur Datenanalyse auf Basis von Auditory Display für die Produktionslogistik.

Autorenverzeichnis

317

Julian Klein *1973, Komponist und Regisseur, Direktor des Instituts für künstlerische Forschung (Berlin), Mitglied und künstlerischer Leiter der Gruppe a rose is, Dozent für Regie an der Universität der Künste Berlin sowie für Performance und interdisziplinäre Projektentwicklung an der Hochschule für Musik und Darstellende Kunst Frankfurt am Main, ist derzeit Gastwissenschaftler am Institut für Verhaltens- und Neurobiologie der Freien Universität Berlin / Exzellenzcluster Languages of Emotions. Von 2003 bis 2008 war Julian Klein Mitglied der Jungen Akademie an der Berlin-Brandenburgischen Akademie der Wissenschaften und der Deutschen Akademie der Naturforscher Leopoldina, dort Sprecher der Arbeitsgruppen Relativität und Zukunft der Arbeit, und Mitglied der Arbeitsgruppen Rhythmus, Abwehr und other minds. Ausbildung: Studium der Komposition bei Reinhard Febel, Nigel Osborne, Heiner Goebbels und Wolfgang Rihm sowie Musiktheorie, Mathematik und Physik; Regieassistent und Bühnenkomponist u. a. am Niedersächsischen Staatstheater Hannover (Intendanz Ulrich Khuon). www.julianklein.de

Dr. Stefan Krebs Nach seinem Studium der Geschichte, Politischen Wissenschaft und Philosophie hat Stefan Krebs im Februar 2008 an der RWTH Aachen mit einer Dissertation zur Disziplingenese der Aachener Eisenhüttenkunde promoviert. Die Arbeit ist 2009 unter dem Titel Technikwissenschaft als soziale Praxis im Franz Steiner Verlag erschienen. Seit September 2011 arbeitet er als Postdoc Researcher am Department for Technology & Society Studies der Universität Maastricht. Sein dortiges Forschungsprojekt beschäftigt sich mit den Hörpraktiken von Ingenieuren.

Shintaro Miyazaki * 1980, aufgewachsen in Basel, lebt in Berlin. Studium der Medienwissenschaft, Philosophie und Musikwissenschaft an der Universität Basel und der Humboldt Universität zu Berlin. Aktuelle Themenschwerpunkte: Sonische Medienarchäologie, Hacking, Klang als Episteme, Sonifikation, Manuel Delanda und Adrian Mackenzie. Derzeit Doktorand bei Prof. Dr. Wolfgang Ernst, Humboldt Universität zu Berlin, 2008-2011 Stipendiat der cogito foundation. 2011-2012 Resident Fellow der Akademie Schloss Solitude Stuttgart. Gründer des unabhängigen Kunst-, und Forschungsprojekts Institut für Algorhythmik und Mitinitiator und Kurator (mit Jan Thoben) der Berliner Vortragsreihe Oscillation Series. Sonic Theories and Practices.

318

Das geschulte Ohr

Dr. Claus Noppeney *1968, ist Dozent an der Hochschule der Künste Bern und am Fachbereich Wirtschaft der Berner Fachhochschule. Er studierte Ökonomie und Management in St. Gallen, an der Fuqua School of Management der Duke University und als Stipendiat des Schweizerischen Nationalfonds an der Harvard University. Seine Doktorarbeit untersucht die normativen Fundamente der frühen Chicago Schule (1998). Zunächst arbeitete er als wissenschaftlicher Assistent am Institut für Wirtschaft und Ökologie der Universität St. Gallen. Anschliessend war er viele Jahre in der Unternehmensberatung tätig. Als Projektleiter bei Arthur D. Little in Zürich unterstützte er namhafte Unternehmen bei der Entwicklung und organisatorischen Umsetzung von Strategien. Gemeinsam mit Armin Chodzinski gründete und leitete er die Forschungs- und Beratungsplattform CNC mit einem Fokus auf Fragen von Bild und Management, Form und Prozess, Kultur und Ökonomie (2002-2008). Seit Anfang 2009 ist er in Bern tätig. Aktuell arbeitet er zu Wissensund Designprozessen in der Parfumentwicklung und zu multisensorischen Aspekten in der Organisationsforschung. Daneben lehrt er seit mehreren Jahren an der Universität St. Gallen und als Affiliate Professor an der Grenoble Ecole de Management.

Prof. David Oswald Seit 2011 Professur für Gestaltung in der Wirtschaftskommunikation an der Hochschule für Technik und Wirtschaft (HTW) Berlin, 2004-2011 Professur für Gestaltung Digitaler Medien an der Hochschule Bremen, Lehraufträge an der Universität der Künste (UdK) Berlin am Institut für Electronic Business, an der Hochschule für Künste (HfK) Bremen im Bereich Interface im Produktdesign, an der Universität GH Essen (heute Folkwang Universität). 1996-1999 Mitarbeiter in Forschung und Lehre bei Gui Bonsiepe. Diplom in integriertem Design an der Fachhochschule Köln (heute Köln International School of Design, KISD).

Martin Rumori *1976, studierte Musikwissenschaft und Informatik in Berlin. Freischaffende Tätigkeit als Klangkünstler und Klangprogrammierer. 2005-2010 künstlerisch-wissenschaftlicher Mitarbeiter im Klanglabor der Kunsthochschule für Medien, Köln (KHM). Seit 2011 Projektmitarbeiter im Rahmen des FWF-Forschungsprojektes The Choreographie of Sound am Institut für Elektronische Musik und Akustik an der Universität für Musik und darstellende Kunst in Graz.

Autorenverzeichnis

319

Dr. Andi Schoon *1974, Studium der Musikwissenschaft, Soziologie und Literatur in Hamburg. Promotionsschrift Die Ordnung der Klänge (transcript). Lehraufträge an der Universität Hamburg. Mitglied der Gruppe Jullander (www.jullander.de). An der Hochschule der Künste Bern Dozent für Geschichte und Theorie der Transdisziplinarität, Leitung des Forschungsfelds Sonifikation.

Prof. Dr. Holger Schulze *1970, Gastprofessor an der Humboldt-Universität zu Berlin. Leiter des Sound Studies Lab und des internationalen Forschernetzwerkes Sound in Media Culture (beides DFGgefördert). Herausgeber der Buchreihe Sound Studies. Veröffentlichungen (Auswahl): Das aleatorische Spiel. Erkundung und Anwendung der nicht-intentionalen Werkgenese im 20. Jahrhundert, München 2000; Heuristik. Theorie der intentionalen Werkgenese, Bielefeld 2005; Theorie Erzählungen. Persönliches Sprechen vom eigenen Denken, (Hg. mit hyper[realitäten]büro) Wien 2005; Klanganthropologie. Performativität – Imagination – Narration, (Hg. mit Christoph Wulf), Berlin 2007; Intimität und Medialität. Tektonik der Medien, Habilitation, Berlin 2007; Sound Studies: Eine Einführung, (Hg.) Bielefeld 2008.

Volker Straebel *1969, beschäftigt sich als Musikwissenschaftler mit elektroakustischer Musik, der amerikanischen und europäischen Avantgarde, Performance, Intermedia und Klangkunst. Er ist Ko-Direktor des Elektronischen Studios der Technischen Universität Berlin und unterrichtet am Studiengang Sound Studies der Universität der Künste Berlin. Außerdem ist er kuratorisch (u. a. als langjähriger Berater der MaerzMusik) und künstlerisch tätig.

Alexandra Supper ist seit Januar 2008 wissenschaftliche Mitarbeiterin am Institut für Wissenschaft, Technik und Gesellschaft der Universität Maastricht. Sie hat in Wien Soziologie studiert und war 2005-2007 als Studienassistentin, Projektmitarbeiterin und Diplomandin am Institut für Wissenschaftsforschung der Universität Wien tätig. Momentan beschäftigt sie sich in ihrer Dissertation mit der Sonifikation wissenschaftlicher Daten, und zwar insbesondere in Hinblick auf Fragestellungen zum Gebrauch von Sonifikation zur Popularisierung wissenschaftlicher Kenntnis, zur Praxis interdisziplinärer Zusammenarbeit, zur Herausbildung und Abgrenzung von wissenschaftlichen Feldern, und zur durch

320

Das geschulte Ohr

Sonifikation aufgeworfene Fragen über die Bedeutung von Begriffen der Objektivität und Subjektivität. 2011 erschien ihr Beitrag »The Search for the ›Killer Application‹: Drawing the Boundaries Around the Sonification of Scientific Data« im Oxford Handbook for Sound Studies.

Jan Thoben *1978, studierte Musikwissenschaft und Kunstgeschichte an der Humboldt-Uniersität in Berlin. 2009 Research Fellow am Ludwig-Boltzmann-Institut in Linz und Mitherausgeber des Print- und Online-Kompendiums See This Sound. Laufendes Dissertationsprojekt über audiovisuelle Transformation als ästhetische Strategie am Musikwissenschaftlichen Institut der Martin-Luther-Universität Halle. Seit August 2010 zusammen mit Shintaro Miyazaki Veranstalter der Vortragsreihe Oscillation Series. Sonic Theories and Practices.

Axel Volmar *1976, ist Medien- und Kulturwissenschaftler. Seit 2008 arbeitet er als wissenschaftlicher Mitarbeiter am Seminar für Medienwissenschaft der Universität Siegen. Seinen Abschluss erlangte er im Jahre 2005 mit einer Arbeit über die Frühgeschichte der Raumakustik 1600-1900. Von 2006 bis 2008 war er wissenschaftlicher Mitarbeiter am Seminar für Medienwissenschaft an der Humboldt-Universität zu Berlin. Forschungsschwerpunkte: Audiomedien und Auditive Kultur, Sound Studies, Theorie und Geschichte der Filmtongestaltung, Akustikgeschichte, Medien und Zeitlichkeit Promotionsvorhaben zur Geschichte der auditiven Kultur der Naturwissenschaften seit 1800. Axel Volmar ist Herausgeber der Publikation Zeitkritische Medien. Berlin 2009.

Daniel Weissberg *1954, Studium bei Klaus Linder (Klavier), Jacques Wildberger (Komposition) und David Johnson (Elektronische Musik) an der Musik-Akademie Basel sowie in der Klasse für Neues Musiktheater (Mauricio Kagel) an der Musikhochschule Köln. Schwerpunkte des kompositorischen Schaffens sind Werke mit Live-Elektronik, instrumentale Theaterstükke, Multimedia-Projekte und radiophone Werke. Interpret und Improvisator im Bereich live-elektronischer Musik. Co-Leiter des Bachelorstudiengangs Musik und Medienkunst sowie Leiter des Masterstudiengangs Contemporary Arts Practice an der Hochschule der Künste Bern.

Autorenverzeichnis

321

Prof. Dr. Katja Windt *1969, leitet die Arbeitsgruppe Global Production Logistics an der Jacobs University in Bremen. Als Mitglied der Jungen Akademie der Berlin-Brandenburgischen Akademie der Wissenschaften und der Deutschen Akademie der Naturforscher Leopoldina initiierte sie zusammen mit dem Komponisten Julian Klein das Projekt der Grooving Factory. Sie wurde 2008 mit dem Alfried-Krupp-Förderpreis für junge Hochschullehrer ausgezeichnet und vom Deutschen Hochschulverband zur Hochschullehrerin des Jahres gewählt.

322

Das geschulte Ohr

Abbildungsverzeichnis

Axel Volmar

79 Abb. 1: Laënnec à l‘hôpital Necker ausculte un phtisique devant ses élèves, Gemälde von Théobald Chartran (1816). 82 Abb. 2: Stromprüfender Froschschenkel. Quelle: Du Bois-Reymond, 1860, Bd. 2, V. Tafel. 84 Abb. 3: Elektrophysiologische Experimentalanordnung mit stromprüfendem Froschschenkel und eingeschaltetem Telefon. Quelle: Nikolai Wedensky, 1900. 87 Abb. 4: Apparat zur elektro-akustischen Verstärkung von Herztönen. Quelle: Ferdinand Scheminzky, 1927.

Stefan Krebs

100 Abb. 1: Einsatz eines Hörstabs. Meccano Werbeanzeige. Quelle: Das Kraftfahrzeug-Handwerk 3, H. 4, 1930. 101 Abb. 2: Der Diaton-Resonator. Diaton Werbeanzeige. Quelle: Das Kraftfahrzeug-Handwerk 10, H. 1, 1937.

Sabine von Fischer

113 Abb. 1: Nachbarschaftslärm. Quelle: Rich Berger, 1931. 117 Abb. 2: Akustisches Laboratorium des National Bureau of Standards in Washington D.C. Quelle: Vivian L. Chrisler, 1930.

323

118 Abb. 3: Der Physiker Vivian Leroy Chrisler bei einer akustischen Messung in den 1920er Jahren. Quelle: Emilio Segrè Visual Archives / American Institute of Physics. 119 Abb. 4: »Machine for producing impact sounds«. Quelle: Vivian L. Chrisler, 1930. 120 Abb. 5: »Trittschallsender« des Instituts für Schwingungsforschung an der Technischen Hochschule zu Berlin. Quelle: Arnold Schoch, 1937. 120 Abb. 6: »Apparatus to impart an impact power of 1 watt«. Quelle: Leo Leroy Beranek, 1949. 122 Abb. 7: Tragbares Hammerwerk, Stuttgart. Quelle: Karl Gösele, 1951. 122 Abb. 8: »Normtrittschallhammerwerk in Betrieb«. Quelle: Werner Bürck, 1960.

Shintaro Miyazaki

136 Abb. 1: Blockschaltdiagramm des JP-1 Sonar Equipments. Quelle: Bureau of Naval Personnel, 1953.

Michael Iber et al.

158 Abb. 1: Schematischer Ausschnitt eines Produktionsnetzwerks. Quelle: Peter Nyhuis, Hans-Peter Wiendahl, 2009. 159 Abb. 2: Systemorientierte und auftragsorientierte Sichtweisen. Quelle: Jürgen Gläsner, Holger Fastabend, o. J. 159 Abb. 3: Parametermapping des Durchlaufelements. Quelle: Peter Nyhuis, Hans-Peter Wiendahl, 2009.

324

160 Abb. 4: Partial-Tracking-Analyse der Sonifikation mit der Software »Spear«. Quelle: Michael Klingbeil,  o. J.

Florian Dombois

166 Abb. 1: Florian Dombois bei der Aufnahme; Skulptur »Marlsku« von W. Graeff (1970/2). Foto: Dirk Specht, 2010.

Jan Thoben

175 Abb. 1: Rainer Maria Rilke, Zeichnung zum Essay »Ur-Geräusch«, März 1920. © Schweizerische Landesbibliothek in Bern. 185 Abb. 2: Wellensirene. Aus Rudolph Koenig, »Ueber den Ursprung der Stösse und Stosstöne bei harmonischen Intervallen«, Quelle: G. Wiedemann, 1881. 186 Abb. 3: Beipiele von Ornamentstreifen, die Oskar Fischinger für seine Ornament-Ton-Experimente verwendet hat, ca. 1932. © Fischinger Trust, mit freundlicher Genehmigung des Center for Visual Music.

Volker Straebel

193 Abb. 1: Iannis Xenakis, Kompositionsskizze für Pithoprakta, Takte 52-60. Quelle: Iannis Xenakis, 1992. © 1967 by Boosey & Hawkes Music Publishers Limited, London. Reprint by kind permission of Boosey & Hawkes Bote & Bock GmbH, Berlin. 194 Abb. 2: Iannis Xenakis, Partiturausschnitt von Pithoprakta (Violinen I, Takt 51-54). Quelle: Iannis Xenakis, 1956. © 1967 by Boosey & Hawkes Music Publishers Limited, London. Reprint by kind permission of Boosey & Hawkes Bote & Bock GmbH, Berlin.

325

196 Abb. 3: Karlheinz Stockhausen, Gruppenspektrum aus Gruppen für drei Orchester. Quelle: Karlheinz Stockhausen, 1963. © Archiv der StockhausenStiftung für Musik, Kürten (www.stockhausen.org). 197 Abb. 4: John Cage, Solo for Voice 65 aus Song Books. Quelle: John Cage, 1970. 199 Abb. 5: John Cage, Ryoanji (Flötenstimme). Quelle: John Cage, 1984. 201 Abb. 6: Alvin Lucier, Panorama für Posaune und Klavier. Auszug aus Zeichnung und Partitur. Quelle: Alvin Lucier, 2005. © Alvin Lucier. 203 Abb. 7: Chladni-Figuren, die entstehen, wenn man mit Sand bestreute Metallplatten zum Schwingen bringt. Quelle: Ernst Florens Friedrich Chladni, 1787.

David Oswald

248 Abb. 1: Die drei Aspekte eines Zeichens und die drei Semiosedimensionen. Quelle: David Oswald in Anlehnung an Peirce und Morris. 258 Abb. 2: William Gavers Systematik der visuellen und auditiven Zeichen in Computer-Interfaces von 1989. Quelle: William Gaver, 1989.

Andi Schoon

Umschlag

326

290 Abb. 1: Wer kontrolliert hier wen? Gene Hackman in der Schlussszene des Films The Conversation (Francis Ford Coppola, 1974). Quelle: screenshot.

Foto: Lindenthal / photocase.com Zeichnung: A. G. v. Loewe, Die Sprache Ihres Wagens, Motor 17, (1929), 21.