Visualisierung Der Wissenschaft 3506786466, 9783506786463

Ein Blick in naturwissenschaftliche Zeitschriften verdeutlicht die große Bedeutung von Visualisierungen bei der Wissensv

111 76 83MB

German Pages 177 [178] Year 2017

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
VISUALISIERUNG DER WISSENSCHAFT
INHALT
Vorwort. Sichtbarmachen und Verstellen. Visualisierungspraktiken in den Wissenschaften
Ölbilder. Visualisierungen der globalen Ölwirtschaft im 20. Jahrhundert
Zustandsbilder. „Live Cell Imaging“ zur Visualisierung biochemischer Prozesse in vivo
Abstammungsbilder. Konstruktionsprinzipien und Entstehungsgeschichte evolutionärer Stammbäume
Projektionsbilder. Die Bedeutung des Beobachters in der Physik
Mathematik im Bild. Das mathematische Porträt
Klangbilder. Zur Visualisierung von Musik und musikalischen Verläufen
Recommend Papers

Visualisierung Der Wissenschaft
 3506786466, 9783506786463

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Nordrhein-Westfälische Akademie der Wissenschaften und der Künste

Gefördert durch

Rüdiger Graf und Florian Leese (Hg.)

VISUALISIERUNG DER WISSENSCHAFT

Ferdinand Schöningh

Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.

© 2016 Ferdinand Schöningh, Paderborn (Verlag Ferdinand Schöningh GmbH & Co. KG, Jühenplatz 1, D-33098 Paderborn) Internet: www.schoeningh.de Alle Rechte vorbehalten. Dieses Werk sowie einzelne Teile desselben sind urheberrechtlich geschützt. Jede Verwertung in anderen als den gesetzlich zugelassenen Fällen ist ohne vorherige schriftliche Zustimmung des Verlages nicht zulässig. Printed in Germany. Herstellung: Ferdinand Schöningh, Paderborn ISBN 978-3-506-78646-3

INHALT

Inhalt

5

Rüdiger Graf und Florian Leese Vorwort. Sichtbarmachen und Verstellen. Visualisierungspraktiken in den Wissenschaften . . .

7

Rüdiger Graf Ölbilder. Visualisierungen der globalen Ölwirtschaft im 20. Jahrhundert . . . . . . . . . . . . . . . . . . . . . . . . .

19

Roland Reinehr und Annika Sommerfeld Zustandsbilder. „Live Cell Imaging“ zur Visualisierung biochemischer Prozesse in vivo . . . . . . . . . . . . . . .

53

Florian Leese Abstammungsbilder. Konstruktionsprinzipien und Entstehungsgeschichte evolutionärer Stammbäume

73

Alex Greilich Projektionsbilder. Die Bedeutung des Beobachters in der Physik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105

Sina Ober-Blöbaum Mathematik im Bild. Das mathematische Porträt

Inhalt

6

..

125

Dominik Höink Klangbilder. Zur Visualisierung von Musik und musikalischen Verläufen . . . . . . . . . . . . . . . . . . . . . . . .

155

VORWORT

SICHTBARMACHEN UND VERSTELLEN Visualisierungspraktiken in den Wissenschaften Rüdiger Graf und Florian Leese

Vorwort

9

Im Jungen Kolleg der Nordrhein-Westfälischen Akademie der Wissenschaften und der Künste sind Wissenschaftlerinnen und Wissenschaftler aller Fachrichtungen versammelt, um, wie es in der Selbstbeschreibung des Kollegs heißt, „ihre Projekte in interdisziplinären Arbeitsgruppen unter dem Dach der Akademie zu diskutieren.“1 Mindestens einmal im Jahr stellen sie ihre Arbeit auf einem Forschungstag einer breiteren Öffentlichkeit vor. Nicht erst bei dieser popularisierenden Präsentation spielen Visualisierungen wissenschaftlichen Wissens eine Rolle. Vielmehr sind Visualisierungspraktiken auch für die intradisziplinäre Wissenskommunikation zentral und werden noch einmal wichtiger für den interdisziplinären Austausch. Zwar müssen die Jungen Kollegiaten ihre Auswahlgespräche vor den Mitgliedern der Akademie ohne jegliche Hilfsmittel bestreiten und können sich nur der Kraft des gesprochenen Wortes bedienen. Wenn es aber nach der Aufnahme darum geht, den Mitkollegiaten die eigenen Forschungsprojekte vorzustellen, greifen jedoch die meisten auf zumindest einige wenige Visualisierungen zurück, um Kernelemente ihrer Arbeit zu vermitteln. Sie nutzen, mit Bruno Latour gesprochen, kleine Objekte, die „mobil, aber auch unveränderlich, präsentierbar, lesbar und miteinander kombinierbar sind“. Oftmals sind dies einprägsame Bilder oder Graphiken, die wesentlich komplexere Zusammenhänge in der Welt sichtbar machen sollen, um so möglichst schnell

Rüdiger Graf und Florian Leese

10

„Alliierte“ oder zumindest Sympathisanten für die jeweilige wissenschaftliche Auffassung zu gewinnen.2 In besonderem Maße gilt dies für natur- und ingenieurswissenschaftliche Disziplinen, in denen die untersuchten Phänomene entweder extrem klein (z.B. Moleküle, subatomare Teilchen) oder aber so groß (z.B. Planeten, Galaxien) sind, dass die wissenschaftlichen Gesetzmäßigkeiten ohne spezielle bildgebende Verfahren abstrakt und ungreifbar blieben oder ohne spezielle Visualisierungspraktiken nicht erforscht werden können. Entsprechend zeigte sich bei der Verwendung von Visualisierungen in den Projektvorstellungen im interdisziplinären Jungen Kolleg eine recht deutliche Differenz entlang der Trennungslinie von Natur- und Geisteswissenschaften, die sich im 19. Jahrhundert etabliert und auch in der Struktur wissenschaftlicher Akademien niedergeschlagen hat.3 Keiner der Naturwissenschaftler und Ingenieure kam ohne Bilder aus, während es Vertreter der geisteswissenschaftlichen Disziplinen gab, die sich in ihren Präsentationen zwar vieler Sprachbilder bedienten, aber keine Folien oder Poster nutzten. Die Aufforderung, ihr Wissen in Postern zu präsentieren, wurde hier von manchen gar als Zumutung empfunden, weil sie es jenseits der sprachlichen Fassung für nicht leicht visualisierbar hielten. Zugleich fragten einige der Geisteswissenschaftler aber auch, wie die Komposition und Farbauswahl der bunten Bilder und Filme ihrer naturwissenschaftlichen Mitkollegiaten eigentlich genau zustande gekommen waren, und sprachen damit ein Problem an, das auch in den Naturwissenschaften selbst reflektiert wird.4 Aus der Beobachtung unterschiedlicher Visualisierungskulturen entstand die Idee, im Rahmen einer Arbeitsgruppe die Bedeutung von Visualisierungspraktiken in den verschiedenen Fächern genauer zu untersuchen. Teilergebnisse dieser Arbeitsgruppe, der noch weitere Kollegiatinnen und Kollegiaten angehörten, präsentiert der vorliegende Band.5 In den Diskussionen der Arbeitsgruppe selbst zeigten sich ebenfalls rasch die unterschiedlichen Perspektiven von Natur- und Geisteswissenschaftlern auf die Visualisierung wissenschaftlichen Wissens: Grundsätzlich betonten die Naturwissenschaftler vor allem die erkenntnisfördernde Funk-

11 Vorwort

tion der in ihren Fächern vorherrschenden Visualisierungspraktiken. Erst mithilfe spezieller bildgebender Techniken könnten die häufig hochkomplexen oder mikroskopisch kleinen Zusammenhänge in ihren jeweiligen Forschungsfeldern sichtbar gemacht werden. Durch sie werde wissenschaftliche Evidenz erzeugt und der Wissenstransfer vereinfacht.6 Dieser Nutzung von Visualisierungen standen die Geisteswissenschaftler skeptischer gegenüber und betonten stattdessen oft weniger den durch das Bild erzielten Erkenntnisgewinn als vielmehr den Verlust all dessen, was in ihm nicht repräsentiert werde. Wo die Naturwissenschaftler tendenziell „Seht her, was das Bild zeigen kann“ sagen wollten, meinten die Geisteswissenschaftler, betonen zu müssen, dass es so einfach wie im Bild ganz gewiss nicht sein könne. Jenseits dieser wissenschaftskulturellen Differenz zeigten die Diskussionen dann aber, dass die Naturwissenschaftler sehr viel mehr zu sagen hatten über die physiologischen und technischen Mechanismen der Bildproduktion und damit auch darüber, was Bilder tatsächlich sichtbar machen und was nicht, als bei deren innerfachlicher Nutzung zum Ausdruck kam, und das geisteswissenschaftliche Wissen auch nicht so frei von Visualisierungstechniken war, wie es zunächst den Anschein haben sollte. Das Spannungsverhältnis von Sichtbarmachen und Verstellen, das alle Visualisierungspraktiken kennzeichnet, steht auch im Zentrum der Beiträge dieses Bandes, die einen Teil der interdisziplinären Debatten der Arbeitsgruppe wiedergeben und ihre disziplinären Ursprünge in der Geschichtsund Musikwissenschaft, der Medizin und Biologie sowie der Physik und Mathematik haben. Unter dem Titel „Ölbilder“ untersucht der Historiker Rüdiger Graf „Visualisierungen der globalen Ölwirtschaft im 20. Jahrhundert“ als Kunstwerke ganz eigener Art. Während wir täglich in vielfältiger Weise mit Ölprodukten in Kontakt kommen und zumindest als Konsumenten an der Ölwirtschaft teilhaben, ist diese doch nicht als Ganze zu erfassen, sondern bedarf vielmehr der Visualisierung. Diese erfolgt sowohl auf Landkarten, auf denen zentrale Parameter wie Ölreserven, -produktion oder -verbrauch graphisch ver-

Rüdiger Graf und Florian Leese

12

zeichnet werden, als auch in metonymischer Form, indem einzelne Bilder als stellvertretend für die gesamte Ölwirtschaft gesetzt werden. An ausgewählten Beispielen zeigt der Beitrag, dass die Art der Visualisierung sich nicht von selbst ergibt, sondern vielmehr immer mit bestimmten politischen und wirtschaftlichen Interessen verbunden ist, die zwar bestimmte Aspekte hervorheben, zugleich aber immer auch andere in den Hintergrund treten lassen oder intentional verschleiern. Die Konstitution wissenschaftlicher Erkenntnisse durch die Erfindung neuer Techniken der Visualisierung untersuchen der Mediziner Roland Reinehr und die Biologin Annika Sommerfeld am Beispiel der Visualisierung biochemischer Prozesse, der „Prozessbilder“ des sogenannten „Live Cell Imaging“. Dabei liefert ihr Beitrag einen Überblick über die rasanten Entwicklungen in der Mikroskopie in den vergangenen Jahren und die Forschungsbereiche, in denen die neuen Verfahren zum Einsatz kommen. Im Unterschied zu den klassischen elektronenmikroskopischen Techniken erlauben es die neuen Verfahren, lebende Zellen in Echtzeit bei ihrer ‚Arbeit‘ zu erforschen. Ferner können mithilfe gentechnischer Verfahren, spezieller Färbe- und Bildbearbeitungsmethoden selektiv bestimmte zelluläre Prozesse dargestellt und andere ausgeblendet werden. Diese modernen Techniken haben das Prozessverständnis auf subzellulärer Ebene revolutioniert und essenzielle Erkenntnisgewinne in Biologie, Biochemie und Medizin ermöglicht. Während der Beitrag zum Live Cell Imaging die Auswirkungen jüngster Visualisierungstechniken in den Blick nimmt, untersucht der Biologe Florian Leese unter dem Titel „Abstammungsbilder“ die Bedeutung einer älteren Kulturtechnik, nämlich des Zeichnens von Stammbäumen für die Erfassung und Darstellung evolutionärer Prozesse. Am Beispiel der bereits im Mittelalter populären Familienstammbäume charakterisiert er spezifische Merkmale und Vorteile des Baumsymbols. Anschließend zeigt Leese, wie die visuelle Metapher des Baumes in den unterschiedlichsten Kontexten bei der Beschreibung der organismischen Vielfalt genutzt wurde. Neben rein praktischen Aspekten wie der

13 Vorwort

Komplexitätsreduktion und damit dem Schaffen von Bedingungen, um evolutionäre Einsichten in die Vielfalt organismischen Lebens erst zu ermöglichen, wurde die Baummetapher auch immer wieder genutzt, um gezielt weltanschauliche Aspekte zu transportieren. Abschließend diskutiert Leese auch die Grenzen der Visualisierung durch Stammbäume, die in den letzten Jahren zunehmend deutlich geworden sind. Der Physiker Alex Greilich unterscheidet in seinem Beitrag zu den „Projektionsbildern“ der Physik zwischen einer „beschreibenden Visualisierung“, bei der mathematische Gleichungen graphisch dargestellt werden, um sie leichter fassbar zu machen, und einer grundlegenderen Visualisierung, bei der physikalische Phänomene durch menschliche Sinnesorgane und ihre technischen Erweiterungen überhaupt erst sichtbar gemacht werden. Während der erste Fall verhältnismäßig unproblematisch ist, wirft der zweite grundsätzliche epistemologische Fragen auf, die am Beispiel der Quantenmechanik diskutiert werden. Denn hier zeigt sich, dass die Sichtbarmachung quantenmechanischer Phänomene diese immer verändert, so dass wir nicht diese Phänomene selbst, sondern immer nur ihre für uns visualisierte Form erfassen. Daraus werden aber keine radikal-konstruktivistischen Schlussfolgerungen abgeleitet, sondern vielmehr, dass die Erkenntnis der physikalischen Welt nur durch die Korrelation verschiedener perspektivischer Zugangsweisen möglich ist. Die Mathematikerin Sina Ober-Blöbaum beschäftigt sich mit dem was Greilich „beschreibende Visualisierung“ nennt und zwar genauer mit der Frage, wie eine mathematische Gleichung in einem Bild dargestellt werden kann, das heißt mit dem mathematischen Porträt. Diese wird am Beispiel der Visualisierung dynamischer Systeme im Phasenporträt untersucht, wobei deutlich wird, dass der Porträtbegriff hier nicht willkürlich gewählt wurde. Denn tatsächlich besteht eine Ähnlichkeit zwischen dem mathematischen Porträt und der Porträtmalerei darin, dass beide Charakteristika aufweisen sollen, die das jeweils porträtierte Objekt von anderen seiner Art unterscheiden. In beiden Fällen erschließen sich

Rüdiger Graf und Florian Leese

14

diese Merkmale nicht von selbst, sondern hängen, wie die Lesbarkeit anderer Sprachen auch, vom Vorwissen des Betrachters oder der Betrachterin ab. „Klangbilder“ stehen im Zentrum des Beitrags, in dem der Musikwissenschaftler Dominik Höink die „Visualisierung von Musik und musikalischen Verläufen“ diskutiert. Die sprichwörtliche Unterscheidung von Augen- und Ohrmenschen übersieht, dass auch Musiker Augen brauchen, um Noten zu lesen und Musik in verschiedenen Aufschreibesystemen visualisierbar ist. Diese Notenbilder, ihre Intentionen, Funktionen und Komplexitätsreduktionen untersucht der Beitrag an verschiedenen Beispielen. Wie schon die anderen Visualisierungen sind auch die Notationen der Musik voraussetzungsreich, so dass die Musik in ihnen nur sehen kann, wer zuvor die entsprechende Sprache erlernt hat. Zugleich argumentiert Höink auch, dass das Notenbild im Kompositionsprozess mehr ist als die bloße Visualisierung der vorgestellten Musik, insofern die Art der Notation auch die Gestalt der Komposition beeinflusst. Alle Beiträge legen also nahe, dass Visualisierungen nichts Kontingentes, dem eigentlichen Erkenntnisprozess Nachgeordnetes sind und nur zur Kommunikation des auf andere Weise Erkannten eingesetzt werden. Vielmehr spielen sie an vielen Stellen eine zentrale Rolle im Erkenntnisprozess selbst, der somit nicht von ihnen abzukoppeln ist. Zugleich sind sie aber innerhalb dieses Prozesses nicht vollständig zu begründen und zu rechtfertigen. Vielmehr folgen Visualisierungspraktiken auch außerwissenschaftlichen Konventionen und Einflussfaktoren, wie zum Beispiel technischen Entwicklungen. Diese gilt es sowohl in ihrer erkenntnisfördernden Kraft adäquat zu reflektieren als auch ihre Blindstellen und systematischen Verzerrungen zu berücksichtigen. Darüber hinaus resultiert die Art der Visualisierung gerade im interdisziplinären Kontext und bei der Präsentation von Erkenntnissen für ein breites, nicht-wissenschaftliches Publikum oftmals aus handfesten Interessen und seien es nur die, im Wettbewerb um Forschungsfördermittel mit den schönsten Bildern zu punkten. Gerade in diesen Fällen ist es entscheidend, die erkenntnisfördernde Kraft von

Visualisierungen zwar zu nutzen, dabei aber zugleich auf die möglichen Verzerrungen und Ausblendungen hinzuweisen.

Anmerkungen

15 Vorwort

1 Für die intellektuelle und finanzielle Förderung dieser Möglichkeit, mit Wissenschaftlerinnen und Wissenschaftlern anderer Fachrichtungen in Austausch zu treten, danken wir der Nordrhein-Westfälischen Akademie der Wissenschaften und der Künste, der Stiftung Mercator und dem Ministerium für Innovation, Wissenschaft und Forschung des Landes Nordrhein-Westfalen sowie persönlich und herzlich Herrn Professor Dr. Dr. Hanns Hatt und Frau Ministerin Svenja Schulze. 2 Bruno Latour, Drawing Things Together. Die Macht der unveränderlich mobilen Elemente, in: Andréa Belliger/David J. Krieger (Hrsg.), ANThology. Ein einführendes Handbuch zur Akteur-Netzwerk-Theorie, Bielefeld 2006, S. 259–307, hier S. 266. 3 Lorraine Daston, Die Akademien und die Einheit der Wissenschaften. Die Disziplinierung der Disziplinen, in: Jürgen Kocka, Rainer Hohlfeld, und Peter T. Walther (Hrsg.), Die Königlich Preussische Akademie der Wissenschaften zu Berlin im Kaiserreich. Berlin 1999, S. 61–84. 4 Julio M. Ottina, Is a picture worth 1,000 words? Exciting new illustration technologies should be used with care, in: Nature 421 (2003), S. 474– 476; Ulrich Pontes, Realität, Schein, Trug? Visualisierungen zwischen Wirklichkeit und Konstruktion, in: Junge Akademie Magazin 14 (2012), S. 5–9. 5 Für Hinweise und Diskussionsbeiträge vor allem zu Beginn der AG danken wir Sebastian Lohsse, Anke Schmeink, Christian Tapp, Gottfried Vosgerau und Cornel Zwierlein. 6 Die Bedeutung von Visualisierungsmethoden in den Naturwissenschaften wird durch die Tatsache untermauert, dass zahlreiche Nobelpreise im Bereich Medizin und Chemie für eben solche Techniken vergeben wurden, so z.B. erst 2014 der Nobelpreis für Chemie für die Entwicklung der superauflösenden Fluoreszenzmikroskopie.

KAPITEL 1: ÖLBILDER

VISUALISIERUNGEN DER GLOBALEN ÖLWIRTSCHAFT IM 20. JAHRHUNDERT 19 Ölbilder

Rüdiger Graf

Einleitung Im Verlauf des 20. Jahrhunderts veränderte der spektakuläre Aufstieg der internationalen Ölwirtschaft weltweit – vor allem aber in den Industrieländern – das Leben der Menschen auf fundamentale Weise. Öl treibt Fahrzeuge, Flugzeuge und Schiffe an, es heizt Wohnungen, erzeugt Elektrizität und es bildet den Grundstoff für tausende Produkte der chemischen Industrie. Diese sind nicht nur wesentliche Bestandteile des „modernen Lebens“, die aus unserer Konsum- und Warenwelt nicht mehr wegzudenken sind, sondern auch die Grundlage der Intensivierung der Landwirtschaft, die die Ernährung immer größerer Bevölkerungen ermöglichte. Sowohl geologische Ölvorkommen als auch der Verbrauch von Ölprodukten waren und sind weltweit sehr ungleich verteilt, so dass sich mit dem Aufstieg der Ölwirtschaft ein komplexes, globales Transport- und Verarbeitungssystem herausbildete. An diesem sind viele Akteure beteiligt, die über je verschiedene Möglichkeiten verfügen, den Fluss des Öls zu verändern. Letztlich kommen wir alle Tag für Tag in der einen oder anderen Form mit der globalen Ölwirtschaft in Kontakt bzw. haben durch Kauf und Konsum an ihr teil. Dabei nehmen wir sie aber niemals insgesamt wahr, sondern immer nur in konkreten Ausschnitten wie zum Beispiel den Benzinpreisen an der Tankstelle, den Lastwagen, die die Heizöltanks im Keller auffüllen, Raffinerien

Rüdiger Graf

20

oder Förderanlagen, die man im Vorüberfahren sieht, Medienberichten von Ölkatastrophen, OPEC-Konferenzen oder Ähnlichem. Große Bereiche der Ölwirtschaft wie die Produktion der chemischen Industrie werden demgegenüber seltener als solche begriffen. Die globale Ölwirtschaft ist ein komplexes Phänomen, das unser Leben in vielerlei Hinsicht beeinflusst, das aber zugleich als Ganzes weder zu sehen noch anzufassen ist, wenn es überhaupt in seiner ganzen Komplexität erfasst und begriffen werden kann.1 Um die globale Struktur der Ölwirtschaft sichtbar zu machen, also das Unsichtbare zu repräsentieren, dienen zunächst einmal Zahlenreihen: Lokal erhobene Daten über noch im Boden befindliche Ölreserven, Förderquoten, Tankertransporte und Pipelinedurchläufe, Exporte und Importe, die Verarbeitung in Raffinerien sowie den Verbrauch von Ölprodukten in den verschiedenen Wirtschaftszweigen. Schon diese Zahlenreihen reduzieren die Komplexität der internationalen Ölwirtschaft erheblich, indem sie von unzähligen akzidentiellen lokalen Faktoren absehen und sie für Experten sicht- und kommunizierbar machen.2 Vor allem im Bereich der Ölreserven sind diese Daten nur mit großen Schwierigkeiten zu erheben und hängen von den verwendeten Messverfahren und Techniken ab.3 Aber auch jenseits dessen wohnt den Repräsentationen der globalen Ölwirtschaft immer ein hoher Konstruktionsgrad inne. Denn in Bezug auf die Ölwirtschaft insgesamt sind der Informationsgrad und der kommunikative Wert langer Zahlenkolonnen über einzelne Ölförderanlagen und den Verbrauch individueller Haushalte gering. Um die Welt des Öls sichtbar zu machen, müssen die Daten aggregiert werden, und nichts in der Welt entscheidet in allgemein verbindlicher Weise darüber, wie diese Datenaggregation zu vollziehen ist. Das Bild der globalen Ölwirtschaft verändert sich signifikant in Abhängigkeit davon, ob Daten zu Produktion und Reserven weltweit angegeben oder regional aufgeschlüsselt werden. Wiederum ergeben sich völlig andere Eindrücke, wenn die Aufschlüsselung nach konkreten Fördergebieten, einzelnen Ländern oder nach Großregionen erfolgt. Jenseits der Geologie spielen hier politische Faktoren

21 Ölbilder

eine entscheidende Rolle, so wurde bis 1990 gerne zwischen einer „westlichen Hemisphäre“, einer „östlichen, nicht-kommunistischen Hemisphäre“ und einem „kommunistischen Block“ unterschieden. Wie die Welt des Öls eingeteilt wird, wird nicht durch diese selbst bestimmt, sondern die Klassifikationen ergeben sich aus den politischen, ökonomischen oder gesellschaftlichen Interessen, bestimmte Aspekte der globalen Ölwirtschaft sichtbar zu machen. So kann der Ölverbrauch national, regional, nach Wirtschaftssektoren oder nach Ölprodukten unterteilt werden, woraus sich je verschiedene Bilder ergeben und damit auch Schlussfolgerungen ableiten lassen. Jede Klassifikation der numerischen Energiebilanzen hebt bestimmte Aspekte der globalen Ölwirtschaft hervor und lässt damit zugleich andere in den Hintergrund treten. Insgesamt ist der Visualisierungseffekt der Zahlenreihen und Tabellen jedoch gering: Je nach Aggregierungsgrad sind sie selbst oft sehr kompliziert, und es sind zusätzliche Informationen nötig, um sie adäquat lesen zu können. Über diese verfügen meist nur entsprechend vorgebildete Experten und nur sie „sehen“ beim Blick auf die Statistiken, welche Entwicklungen sie abbilden bzw. welche Probleme und Handlungsimperative aus ihnen abgeleitet werden können. Um diese zu verdeutlichen und auch dem Laien unmittelbar verständlich zu machen, werden, wie in anderen Bereichen statistischen Wissens auch, verschiedene Visualisierungsstrategien gewählt, um den weltweiten Fluss des Öls und seinen Verbrauch sichtbar zu machen.4 Zunächst geschieht dies durch Tabellen und Graphiken, die Produktion, Transport und Verbrauch sichtbar machen sollen. Indem hier Daten aus Vergangenheit und Gegenwart zu Prognosen über die Zukunft in Beziehung gesetzt werden, kann leicht auf bestimmte Entwicklungen aufmerksam gemacht und daraus eine energiepolitische Handlungsanweisung abgeleitet werden. Gerade in den oftmals heftigen wissenschaftlichen, ökonomischen und politischen Auseinandersetzungen über Öl sind diese Visualisierungen von entscheidender Bedeutung, weil sie Probleme schnell verdeutlichen und damit Andere von einer bestimmten Position überzeugen können.

Rüdiger Graf

22

Die besondere Qualität dieser Tabellen und Graphiken, nach Bruno Latour „unveränderliche hochmobile Elemente“, die für den Aufstieg der Wissenschaften insgesamt essenziell waren, liegt darin, dass sie miteinander kombinierbar sind und so neue Informationen mit alten zusammenfügen und leicht anschlussfähig machen.5 Um die globale Ölwirtschaft zu repräsentieren wird daher gern auf ein anderes altbekanntes und in der Geschichtswissenschaft inzwischen hinlänglich untersuchtes Medium zur Repräsentation der Welt zurückgegriffen, das eine ähnliche Komplexitätsreduktions- und Visualisierungsleistung erbringt: die Landkarte.6 Verschieden aggregierte Daten über die Produktion, den Transport oder Verbrauch des Öls zu einem oder mehreren Zeitpunkten werden auf Weltkarten übertragen, um so gerade die Globalität der Ölwirtschaft hervorzuheben. Im Folgenden sollen diese Strategien der visuellen Evidenzerzeugung an ausgewählten Beispielen untersucht und danach gefragt werden, auf welche Weise diese geographischen Repräsentationen von politischen Kategorien und Konflikten imprägniert waren: Welchen Konstruktionsprinzipien folgten die Bilder der globalen Ölwirtschaft und inwiefern blendeten sie, indem sie bestimmte Aspekte der internationalen Ölwirtschaft sichtbar machten, andere systematisch aus? Um dies zu klären muss jeweils gefragt werden, welche Daten überhaupt abgebildet und zueinander in Beziehung gesetzt wurden (z. B. Reserven, Förderung, Verarbeitung, Verbrauch, Transport) und mit welchen graphischen Mitteln dies geschah. Darüber hinaus müssen die Einteilungen des Raums und die Wahl der Aufnahmezeitpunkte genauer betrachtet und daraufhin untersucht werden, inwiefern durch sie politische Probleme visualisiert bzw. erst erzeugt werden. Mit Tabellen, Graphiken und Karten sind aber die Möglichkeiten, die globale Ölwirtschaft zu visualisieren, noch nicht erschöpft. Oftmals dienen zur Visualisierung auch besonders einprägsame Bilder und Fotografien, die auf den ersten Blick einen geringeren Konstruktionsgehalt aufweisen und unmittelbar verständlich erscheinen. Wie die Weltkarten auch, bedürfen sie jedoch eines gewaltigen Kontextwis-

1. Ölgemälde – Welt- und Landkarten Durch die Umstellung der Marine von Kohle auf Öl und die zunehmende Motorisierung des Militärs bzw. der Kriegsführung avancierte das Erdöl im Ersten Weltkrieg zwar zu einem kriegswichtigen Rohstoff, an seinem Ende schien die Zukunft der Ölwirtschaft jedoch zunächst düster auszusehen.7 So schätzte David White, der Chefgeologe des United States Geological Survey, die Menge des noch auf dem Territorium der Vereinigten Staaten befindlichen Öls im Jahr 1920 auf ungefähr sieben Milliarden Barrel und prognostizierte, dass die Produktion in den nächsten drei bis fünf Jahren zu sinken begänne, sofern keine weiteren Felder entdeckt würden. Er warnte: „An unprecedented crisis in our country may call for action without precedent.“8 Um die Problematik der fehlenden Ölreserven für die US-amerikanische Ölwirtschaft zu verdeutlichen und auch dem Laien

23 Ölbilder

sens, insofern sie – ganz analog zur alltäglichen Wahrnehmungen der Menschen – immer nur winzige Ausschnitte der globalen Ölwirtschaft erfassen. Damit fungieren sie als Metonymien, in dem sie den Anspruch erheben, der jeweilige Teilaspekt stehe stellvertretend für das Ganze. Bilder von Ölförderanlagen, Raffinerien oder Supertankern können dies genauso wie Aufnahmen der leeren Autobahnen während der Ölkrisen der 1970er Jahre oder Fotos von ölverschmierten Seevögeln nach Ölkatastrophen. Einerseits nutzten die großen Ölfirmen in ihren PR-Strategien bestimmte Bilder des ölbasierten modernen Lebens zur Visualisierung ihrer Arbeit, wobei sie inzwischen auch deren Umweltverträglichkeit beanspruchen. Andererseits setzten Umweltverbände und Kritiker der Kohlenwasserstoffökonomie Bilder ein, um auf die problematischen Aspekte und Gefahren der globalen Ölwirtschaft zu verweisen. Um diese unter unterschiedlichen Vorzeichen doch sehr ähnlichen Strategien der visuellen Evidenzerzeugung, die die Auseinandersetzungen um das Öl bis in unsere Gegenwart prägen, wird es im zweiten Teil des Textes gehen.

Abb. 1: World Map of Developed and Potential Petroleum Reserves (1920)

Rüdiger Graf

24

25 Ölbilder

zugänglich zu machen, zeichnete White die zu seiner Zeit weltweit bekannten Ölvorkommen mit Kreisen auf einer Weltkarte ein (Abbildung 1). Fünf verschiedene Kreisgrößen unterschieden die Menge der Reserven in produzierenden sowie in prospektiven Förderregionen. Mit kleinen Quadraten kennzeichnete White voraussichtliche Felder, für die die Explorationstätigkeit noch nicht so weit fortgeschritten war, dass man ihre Größe hätte angeben können. Entscheidend an Whites Weltkarte der Ölvorkommen war jedoch weniger die absolute Größe der Ölreserven, auch wenn diese ihm Grund zur Besorgnis gab. Zentral war vielmehr die Einteilung der Welt in „regions closed to American companies or open only under discriminating restrictions“, die dunkel schraffiert wurden, und die helleren „open door territories“. Die Karte dramatisierte also den Fortbestand kolonialer Sonderwirtschaftsräume vor allem Großbritanniens, der Niederlande und Frankreichs für die US-Ölversorgung angesichts des Mangels an Ölreserven in der westlichen Hemisphäre und den Gebieten, mit denen die Vereinigten Staaten Meistbegünstigungsklauseln vereinbart hatten und die damit den US-amerikanischen Firmen offenstanden. Anders als die offenen und die geschlossenen Territorien waren die aus der Pariser Friedenskonferenz resultierenden Mandatsgebiete im Nahen und Mittleren Osten sowie in Afrika weiß gehalten und mit Fragezeichen versehen. Denn für diese Regionen, deren Ölvorkommen noch weitgehend unbekannt waren, existierten noch keine genauen Regelungen. Die aus heutiger Perspektive wichtigste Förderregion bildete also in Whites Karte eine vielsagende Leerstelle. In der Folge des Ersten Weltkriegs bemühten sich die Siegerstaaten intensiv darum, diese zu füllen und die dortige Ölexploration und dann Förderung unter ihre bzw. die Kontrolle von ihren Ländern ansässigen Ölfirmen zu bringen.9 Die kriegsentscheidende Rolle des Öls als strategische Ressource wurde im Zweiten Weltkrieg vollends deutlich. Angesichts fehlender eigener Ölreserven motivierte der Zugang zum Öl den japanischen Kriegseintritt, und das Scheitern der Wehrmacht bei dem Versuch, die Ölfelder im Kau-

Abb. 2: World Oil Production (1942)

Rüdiger Graf

26

27 Ölbilder

kasus unter ihre Kontrolle zu bringen, schwächte die deutschen Kriegsanstrengungen entscheidend. Unter den Bedingungen des Krieges verliefen die wesentlichen Trennungslinien in der Welt des Öls jedoch anders als noch am Ende des Ersten Weltkriegs, wie die Karte der Economic Warfare Analysis Section des US-amerikanischen Board of Economic Warfare verdeutlicht (Abbildung 2).10 Da unter der kurzfristigen Perspektive des Krieges die absolute Größe der Ölreserven zunächst einmal nebensächlich war, verzichteten die Analysten darauf, diese überhaupt zu visualisieren. Stattdessen stellte die Karte die Ölproduktion der Achsenmächte der Ölproduktion der gegen sie Vereinten Nationen gegenüber und kam zu einem eindeutigen Ergebnis: Zwar hatten die Achsenmächte vor allem durch die Kontrolle über die rumänischen Ölfelder und den niederländischen Kolonialbesitz entscheidende Gewinne erzielt, verfügten aber doch 1942 nur über 6,5 Prozent der weltweiten Ölproduktion; ein Rückstand, der auch durch die aufwändige Produktion synthetischen Benzins nicht aufgefangen werden konnte. Interessanterweise verzeichnete die Karte nicht nur die Größe der Ölproduktion in den Regionen der Erde – wie schon White durch unterschiedlich große Kreise –, sondern auch die Lage und Form der Ölfelder, obwohl diese für die Botschaft der Karte irrelevant war und deren Informationsgehalt eher verunklarte. Möglicherweise blieb die weitere Komplexitätsreduktion hier aus, weil für die militärische Kartographie in anderen Kontexten die exakte Lage von Ölfeldern, genauso wie die von allen wesentlichen wirtschaftlichen Produktionsstätten und Infrastrukturelementen, von großer Bedeutung war. Die von Eric Hobsbawm als „goldenes Zeitalter“ bezeichneten Jahrzehnte vom Ende des Zweiten Weltkriegs bis zur Mitte der 1970er Jahre waren in einem doppelten Sinn die goldene Zeit der Ölwirtschaft: Das goldene Zeitalter basierte auf Öl und verschaffte der Ölwirtschaft eine goldene Zeit.11 Die Nachfragesteigerungen übertrafen immer wieder auch die höchsten Erwartungen, konnten aber zugleich von einer stetig steigenden Ölförderung zunehmend aus der Region um den Persischen Golf befriedigt werden.

Abb. 3: Welt 1965: Erdöl- und Erdgasvorkommen, Reserven (1966)

Rüdiger Graf

28

29 Ölbilder

Die großen Ölfirmen sahen sich selbstbewusst als Schöpfer der modernen Zivilisation und ihre PR-Abteilungen versuchten, der Öffentlichkeit die schöne neue Welt des Öls zu präsentieren. Im Schulbuch-Verlag Westermann publizierte beispielsweise die Esso AG 1966 zum ersten Mal einen fortan alle zehn Jahre neu aufgelegten Erdöl-Weltatlas, der die komplexen Zusammenhänge der internationalen Ölwirtschaft auch Laien in Graphiken und Landkarten optisch nahebringen sollte.12 Der Erdöl-Weltatlas teilte die Welt von Öl und Gas Mitte der 1960er Jahre in sieben Regionen ein, die über unterschiedlich große Reserven verfügten (Abbildung 3). Während die Einteilung der Weltregionen bei Nord- und Südamerika sowie Afrika und Europa klassischen Kontinentaleinteilungen folgt, wurde Asien entlang der politischen Geographie des Kalten Krieges aufgeteilt in „Osteuropa, UdSSR und China“, den „Nahen Osten“, wozu auch die Golfregion zählte, und den „Mittleren und Fernen Osten sowie Australien“. Am hervorstechendsten bei dieser Einteilung der weltweiten Öl- und Gasreserven ist die Dominanz des Nahen Ostens. In der Darstellung verfügt die Region um den Persischen Golf, die in Whites Karte von 1920 noch zu wesentlichen Teilen terra incognita gewesen war, über mehr Reserven als der Rest der Welt. Aus der weltweit ungleichen Verteilung des Öls im Boden – potenzielle Förderregionen unterscheidet die Karte von solchen, in denen sich kein entsprechendes Sedimentgestein befindet – und des ebenfalls ungleichen Ölverbrauchs vor allem in den industriellen Zentren der Welt, ergab sich im 20. Jahrhundert ein kompliziertes Produktions- und Verteilungssystem, das die folgende Karte darstellen sollte (Abbildung 4). Während Förder- und Raffineriekapazitäten, repräsentiert durch grüne Pyramiden und lila Türme, in Nordamerika, Südamerika und Osteuropa ungefähr ausgeglichen waren, zeigt die Karte ein deutliches Missverhältnis für Westeuropa und den Fernen Osten, wo die Raffineriekapazität die Förderung bei weitem überstieg und für den Nahen Osten, wo umgekehrt viermal mehr Öl gefördert als verarbeitet wurde. Pfeile unterschiedlicher Dicke symbolisieren

Abb. 4: Welt 1965: Förderung, Raffinierie-Kapazität, Ölströme (1966)

Rüdiger Graf

30

31 Ölbilder

den Fluss des Öls aus den Förder- in die Verarbeitungsregionen und erzeugen das Bild einer komplexen, aber zugleich geschmeidig funktionierenden weltweiten Ölwirtschaft. Die westliche Hemisphäre war genauso wie der politisch definierte Ostblock Mitte der 1960er Jahre noch weitgehend ölund energieautark, aber die Raffinerien Westeuropas und Japans bezogen große Mengen Öl aus der Region um den Persischen Golf. Während die Karte also die Abhängigkeit Westeuropas und Japans von der Golfregion verdeutlichte, bedurfte es eines erheblichen Kontextwissens über die jährlichen Steigerungsraten des Ölkonsums, um aus ihr auch eine zukünftige Abhängigkeit der USA abzuleiten. Die Vereinigten Staaten schienen vielmehr in einer privilegierten Position zu sein: Da die amerikanischen Ölfelder zur Stabilisierung des Preises unter ihrer eigentlichen Kapazität produzierten, konnte die Produktion im Fall von Lieferengpässen heraufgefahren werden. Auch wenn es in den 1950er und 1960er Jahren in Europa zu Versorgungsschwierigkeiten gekommen war, waren diese durch die USA kompensiert worden. Zu Beginn der 1970er Jahre änderten sich jedoch die Grundkonstanten der internationalen Ölwirtschaft, als die US-amerikanischen Ölimporte begannen, die zusätzliche Produktionskapazität auf den einheimischen Feldern zu übersteigen.13 Von nun an konkurrierten die USA mit den westeuropäischen Ländern und Japan um das Öl aus der Region um den Persischen Golf, so dass das Gewicht dieser Förderländer – allen voran Saudi-Arabiens, das über die größten Ölreserven verfügte – größer wurde. Die neuen Kräfteverhältnisse brachten das bisherige Ölproduktions- und Ölverteilungssystem aus dem Gleichgewicht. Diese neuen Ungleichgewichte, und nicht die sie ausgleichenden Ölflüsse, repräsentiert daher eine Weltkarte, auf der Gerhard Bischoff 1970 in dem von ihm herausgegebenen „Energiehandbuch“ die Ölproduktion und den Ölverbrauch in den verschiedenen Weltregionen miteinander korrelierte (Abbildung 5).14 Die Größe der unterschiedlich schraffierten Kreise repräsentiert jeweils die Dimensionen der Ölförderung und des Verbrauchs. Legt man sie für die einzelnen politisch-konti-

Abb. 5: Produktion und Verbrauch von Erdöl 1968, aufgelistet nach Regionen (1970)

Rüdiger Graf

32

33 Ölbilder

nental definierten Regionen übereinander, erscheint die Welt des Öls aus dem Gleichgewicht geraten zu sein, und es zeigen sich die globalen Abhängigkeiten, die die Zeitgenossen seit dem Ende der 1960er Jahre zunehmend beschäftigten. Während der Ostblock ölpolitisch autark war bzw. ein leichtes Produktionsplus erzielte, wurde in Südamerika, Afrika und vor allem aber dem Nahen und Mittleren Osten wesentlich mehr Öl gefördert als verbraucht. Dem standen ein leicht importabhängiges Nordamerika und ein stark von kontinuierlichen Öleinfuhren abhängiges Europa gegenüber. Die Bildung der Region „übriges Asien“ kaschiert, dass die Importabhängigkeit des mit weitem Abstand größten asiatischen Ölverbrauchers Japan noch größer war als die der westeuropäischen Länder, auf denen Bischoffs Fokus lag. Während Bischoffs Karte die globalen Abhängigkeiten andeutet, ihre Ausbuchstabierung aber dem Betrachter und dessen Kontextwissen überlässt, konnten sie wesentlich dramatischer durch Karten visualisiert werden, die den weltweiten Ölfluss zu verschiedenen Zeitpunkten gegenüberstellen. So kontrastierte Shell in einer Mitte der 1970er Jahre erschienenen Energieprognose den Verbrauch und den Transport des Öls in den Jahren 1970 und 1980 Abbildungen 6 und 7).15 Die rote Farbgebung der Pfeile unterstützte die Dramatik der Entwicklung, der zufolge Europa nicht nur in den 1970er Jahren wesentlich mehr Öl aus dem Mittleren Osten importieren, sondern auch zunehmend mit den USA um diese Importe konkurrieren würde. Stammte 1970 nur ein geringer Teil des in den USA verbrauchten Öls nicht aus der westlichen Hemisphäre, sah man voraus, dass sich dies bis 1980 trotz aller Versuche, der Entwicklung entgegenzusteuern, ändern würde. Eine ganz ähnliche Entwicklung zeigte das von der deutschen BP AG 1978 herausgegebene Buch vom Erdöl, in dem nur noch die Ölflüsse verzeichnet wurden und zugleich das unproblematische Öl aus der westlichen Hemisphäre von dem von Lieferunterbrechungen bedrohten Öl aus der Golfregion und aus Afrika farblich abgehoben wurde (Abbildung 8).16

Abb. 6: 1970 World Petroleum Consumption and Major Movements (1974)

Rüdiger Graf

34

Ölbilder

Abb. 7: 1980 World Petroleum Consumption and Major Movements (1974) 35

Rüdiger Graf

36

Abb. 8: Erdöl, Erdgas und der Welt-Energiebedarf (1978)

Die Visualisierungen der globalen Ölwirtschaft im Medium der Landkarte waren also niemals nur Repräsentationen geologischer und wirtschaftlicher Realitäten, sondern sie repräsentierten immer auch die politische Geographie des Öls. Sie folgen bis heute niemals nur dem Anspruch, die Welt des Öls abzubilden, sondern entstehen zur Verdeutlichung bestimmter politischer und ökonomischer Entwicklungen, die oft als Problem wahrgenommen und deshalb mit bestimmten Handlungsimperativen verbunden werden.

37

2. Metonymische Bilder – die Ölwirtschaft und ihre Kritik

Ölbilder

Angesichts des gewaltigen Aufstiegs der Ölwirtschaft im 20. Jahrhundert sahen sich die großen Ölfirmen selbstbewusst als Schöpfer einer neuen Welt des Öls und versuchten, diese in ihren Werbeanzeigen und -filmen zu visualisieren. Bisweilen wählten sie dabei ebenfalls Land- oder Weltkarten wie zum Beispiel die Esso AG in einer Werbung im Scientific American (Abbildung 9).17 Die Repräsentation der Ölreserven durch Fässer oder Barrels, die eine klassische Maßeinheit des Öls bildeten, war nicht unüblich und diente in diesem Fall dazu, den materiellen Aspekt und die Tätigkeit der Ölfirmen herauszustreichen.18 Nicht zuletzt um steigende Preise zu rechtfertigen, betonte Esso im Text der Werbeanzeige den Aufwand, den der vertikal integrierte Konzern bei der Erschließung neuer Ölfelder, dem Transport, der Verarbeitung und der Bereitstellung für die Konsumenten betrieb. Verbreiteter als die Versuche, die Welt des Öls in ihrer globalen Dimension durch Weltkarten zu erfassen, waren in der Unternehmenskommunikation jedoch metonymische Repräsentationen: Einzelne Bilder konnten zwar immer nur Teilaspekte und Ausschnitte der globalen Ölwirtschaft darstellen, sollten diese aber pars pro toto insgesamt repräsentieren. Diese metonymische Qualität entfalteten sowohl Bilder der upstream Tätigkeit, das heißt von der Erschließung und Förderung bis zur Verarbeitung in der Raffinerie, als auch der downstream Tätigkeit, das heißt von der Raffinerie bis zum Endverbrau-

Abb. 9: Anzeige Esso: The World’s Known Oil Reserves. And The Search Goes On (1971)

Rüdiger Graf

38

39 Ölbilder

cher. Während upstream Bilder von Förderanlagen, Tankern, Pipelines und Raffinerien häufiger in der Kommunikation zwischen Unternehmen, zum Beispiel bei der Werbung in Fachzeitschriften, eingesetzt wurden, dienten downstream Aufnahmen von Tanklastern, Tankstellen, aber auch Autos und anderen Konsumgütern, die vom Öl abhingen, stärker als Werbung für Endverbraucher. Die Grenzen waren hier allerdings fließend, und noch heute werben Ölfirmen sowohl mit der Bedeutung und dem Nutzen ihrer Produkte für Konsumenten und Gesellschaft als auch mit ihren Leistungen bei der Exploration. Der durch Ölprodukte erzeugte Komfort wird dabei kontrastiert mit der Unwirtlichkeit der Orte, an denen die Ingenieure Öl fördern, und die Distanz zwischen Produktion und Konsumption hebt zugleich die Globalität der Ölwirtschaft hervor. So hieß es beispielsweise 1983 in einem Werbespot der Esso AG, in dem aus einem Hubschrauber heraus eine Bohrinsel gefilmt wurde: „Auf dem Weg zum Öl für kommende Jahrzehnte dringen unsere Männer in immer unwirtlichere Regionen vor. Verbunden nur durch Funkkontakt und Helikopter leben und arbeiten die Bohrspezialisten hier mitten im Eismeer vor der Nordküste Kanadas und Alaskas auf künstlich geschaffenen kleinen Inseln. Nur so ist es möglich, trotz der Bedrohung durch das Packeis mit moderner Technik an das Öl heranzukommen.“19 Beispiele für die Kommunikation zwischen Unternehmen, die in den verschiedenen Bereichen der Ölwirtschaft tätig waren, liefert das Journal of Petroleum Technology, die Verbandszeitschrift der amerikanischen Petroleum-Ingenieure. In aufwändigen Hochglanzanzeigen warben hier vor allem Zulieferfirmen wie Halliburton um potenzielle Firmenkunden. Die Anzeigen wurden dominiert von Fotografien und Zeichnungen, die Förderanlagen, Bohrinseln, Fördertürme und Pumpen zeigten, auf denen heroische, männliche Arbeiter und Ingenieure das technische Gerät der Firma nutzten und – so der stereotype Text – von dessen Qualität abhingen. Die Bilder und die begleitenden Texte entwarfen eine moderne Welt, die wesentlich durch Öl geprägt und damit überhaupt erst durch die Tätigkeit der Fir-

Rüdiger Graf

40

Abb. 10: Anzeige Halliburton: Oil. Energy for Civilization (1959)

men und Ingenieure geschaffen worden sei. Besonders deutlich sprach diese selbstbewusste Weltwahrnehmung aus einem Sonderheft des Journals of Petroleum Technology

41 Ölbilder

zum hundertsten Jahrestag der kommerziellen Ölförderung in den Vereinigten Staaten im Jahr 1959.20 Ganz typisch visualisierte hier die Werbeanzeige von Halliburton (Abbildung 10) eine Zivilisationsgeschichte des Öls von den antiken Weltwundern bis zu modernen Förder- und Verarbeitungsanlagen sowie von Öl angetriebenen Verkehrsmitteln. In dem Öltropfen im Zentrum befindet sich als Ursprungsmythos eine Zeichnung von Drake’s Well, der legendären ersten Ölförderanlage in Titusville/Pennsylvania. Die Globalität der Ölwirtschaft und Halliburtons Beitrag zu dieser symbolisiert nicht zuletzt das Firmenlogo, auf dem in der Ölproduktion genutzte Fahrzeuge auf einer angedeuteten Autobahn eine Weltkugel umkreisen. Im gleichen Heft wählte Shell eine Fotomontage, um die Welt des Öls von der Produktion bis zum Konsum darzustellen (Abbildung 11): Neben der Familie, die im warmen Zimmer beim Essen sitzt, steht der Arbeiter, der am Rad einer Förderanlage dreht; mitten ins Getreidefeld wird ein überlebensgroßer Chemiker montiert, der den zur Intensivierung der Landwirtschaft notwendigen Kunstdünger aus Kohlenstoffen herstellt; neben dem Zug befindet sich ein Taucher, der für die zunehmende off-shore Förderung steht und zwischen den ölbetriebenen Autos sitzt eine Sekretärin. Der Text der Anzeige unterstreicht die visuelle Botschaft, dass die ganze moderne Welt von Ölprodukten durchdrungen und damit von der Arbeit der Ölfirmen abhängig sei: „Shell salutes the oilman and – woman, too. Together they produce and supply three-fourths of the energy for a dynamic America. […] Without them there would be […] not much of a world.“21 Hochglanzfirmenmagazine wie Essos Pétrole Progrès entwarfen die schöne neue Welt der Kohlenwasserstoffe und vor allem des Öls, die sich dann auch in Fernseh- und Zeitungswerbungen in Reinform wiederfand. Tankstellen wurden in den 1950er und 60er Jahren als Ikonen moderner Architektur und Fixpunkte des automobilen Lebensstils inszeniert und zusammen mit den Förder- und Verarbeitungsanlagen als moderne industrielle Landschaft präsentiert.22 Vor allem Aufnahmen der neuen Supertanker, die nicht zu-

Rüdiger Graf

42

Abb. 11: Anzeige Shell: Shell salutes the oilman – and woman, too (1959)

letzt in Reaktion auf akute Versorgungsschwierigkeiten gebaut wurden, symbolisierten die weltweite Aktivität der Firmen, die Globalität des Ölflusses und die Fähigkeit des

Ölbilder

43

Abb. 12a: „Nodding Donkey“

Abb. 12b: Ölbohrinsel vor der schottischen Küste24

Rüdiger Graf

44

Menschen, die Natur zu beherrschen und sich untertan zu machen.23 Neben den Tankern wurden vor allem die gerne vor Sonnenuntergang aufgenommenen, sich bewegenden Ölpumpen, die sogenannten „nodding donkeys“, und Bohrinseln zu Ikonen der globalen Ölwirtschaft (Abbildungen 12 a und b). Zu den langsamen Bewegungen der Ölpumpen in menschenleeren, oft wüsten Landschaften passt die Sonnenuntergangsszenerie auch insofern, als die Pumpen in einer späten Phase der Förderung eingesetzt werden, wenn der durch den Ursprungsdruck erzeugte Ölfluss versiegt. Bohrinseln stehen demgegenüber wie kaum eine andere technische Konstruktion für Ingenieurskunst und Erfindergeist, der das

Abb. 13a: Die havarierte „Torrey Canyon“ (1967)

Ölbilder

45

Abb. 13b: ölverschmutzter Seevogel25

Unmögliche möglich und Rohstoffe noch unter schwierigsten Bedingungen dem Menschen nutzbar macht. Die Bilder technischer Errungenschaften, die die Leistungen der internationalen Ölwirtschaft in der Beherrschung und Nutzbarmachung der Natur zur Steigerung von Wohlstand und Lebensstandard zumindest in den Industrieländern visualisieren, sind jedoch in ihrer Botschaft nicht eindeutig und können leicht umcodiert werden. Als am 18. März 1967 der Supertanker Torrey Canyon vor der Küste von Cornwall auf Grund lief, breitete sich rasch ein großer Ölteppich aus und Bilder der ersten großen Tankerkatastrophe gingen um die Welt (Abbildung 13 a). Trotz massiver Anstrengungen, die Versuche der britischen Marine einschlossen, das Öl in Brand zu setzen, konnte eine Verschmutzung der britischen wie auch der französischen Küste nicht verhindert werden. Nicht nur Bilder des zerstörten Tankers und des auslaufenden Öls, sondern auch der vom Öl verschmutzten und verendeten See-

Rüdiger Graf

46

vögel (Abbildung 13 b) wurden damit zu Metonymien für die Gefahren der globalen Ölwirtschaft. Bei weiteren Tankerkatastrophen wie zum Beispiel der Exxon Valdez 1989 entstanden immer wieder ähnliche Bilder, die vor allem von der Ökologiebewegung intensiv genutzt wurden und heute Ikonen für die mit der Ölausbeutung verbundene menschliche Hybris und den Raubbau an der Natur darstellen. Insofern auch die Auswirkungen einer Tankerkatastrophe auf die Umwelt selbst nicht insgesamt zu erfassen sind, sondern andere Repräsentationsformen zu ihrer Beschreibung nötig sind, setzt die metonymische Qualität dieser Aufnahmen schon vorher ein und wird dann in immer allgemeinere Zusammenhänge transferiert. Das Bild der beiden toten Vögel steht stellvertretend zunächst für die geschätzt mehr als 100.000 ölverschmutzten Vögel, dann für die anderen betroffenen Tierarten, die ökologischen Konsequenzen der einzelnen Tankerkatastrophe, die Folgen aller Tanker- und Ölkatastrophen insgesamt und schließlich auch für die vom Menschen geschundene Pflanzen- und Tierwelt. Auch bei der letzten schweren Ölkatastrophe, der Explosion der Bohrinsel Deepwater Horizon im Golf von Mexiko am 20. April 2010, waren die ökologischen Folgen äußerst komplex und, nicht zuletzt weil der Austritt des Öls weit unter der Meeresoberfläche erfolgte, schwer zu visualisieren, so dass das Bild der brennenden Bohrinsel stellvertretend für die ökologische Katastrophe und die Folgen der Ölwirtschaft insgesamt genutzt wurde. Die Werbestrategien der großen Ölfirmen reagieren inzwischen auf die Umkodierung ihrer technischen Leistungen von Segensbringern für wirtschaftliches Wachstum und gesellschaftlichen Fortschritt zu ökologischen Gefahrenquellen, indem sie neben der globalen Bedeutung des Öls und seiner Produkte zugleich auch ihr ökologisches Engagement betonen. Am deutlichsten verfolgt Chevron diese Strategie. Chevrons Werbespot „Untapped Energy“ integriert alle bisher angesprochenen, zu Werbezwecken eingesetzten Visualisierungen der globalen Ölwirtschaft: Aufnahmen von Förder- und Verarbeitungsanlagen, Öltropfen, Bilder des modernen ölbetriebenen Verkehrs, des urbanen Lebens auf

47 Ölbilder

allen Kontinenten und Clips heroischer Männer und Frauen, die angeblich für Chevron tätig sind. All dies wird dann unterlegt mit der Botschaft von Chevrons globaler sozialer, aber auch ökologischer Verantwortlichkeit:26 „And outside the debate rages: oil, energy, the environment. It is the story of our time and it is definitive and all-encompassing and it leaves no one untouched. Because make no mistake: this is not just about oil companies, this is about you and me and the undeniable truth that at this moment there are more than six and a half billion people on this planet and by year’s end there will be another 75 million. And every one of us will need energy to live. Where will it come from? This is our challenge each day because for now, tomorrow and the foreseeable future our lives demand oil. But what’s also true is that we can provide it more intelligently, more efficiently, more respectfully, that we will never stop looking for alternatives, that an oil company can practice and espouse conservation. Yes, we are an oil company, but right now we are also providing natural gas, solar, hydrogen, geothermal because we live on this planet, too. This is who we are in a hundred and eighty countries, not corporate titans but men and women of vision, sixty thousand citizens of the world, liberals and conservatives, engineers and scientists, pipeline welders and geologists, husbands and wives, part-time poets and coaches, people who daily try to find newer ways, cleaner ways to power the world. Humans have always reached to what seemed impossible because it is then that we find a way. Tell us it cannot be done, then watch us retap the greatest source of energy in the world: ourselves. This is the power of human energy.“27 Chevrons ökologische Imagekampagne hat unter Umweltaktivisten, die dem Unternehmen verantwortungsloses Verhalten vor allem in Ecuador vorwerfen, viel Häme und Kritik hervorgerufen, die sich unter anderem auch in kritischen Aneignungen der Werbespots manifestiert, in denen wiederum die entgegengesetzten ikonenhaften Bilder zur Visualisierung der globalen Ölwirtschaft eingesetzt werden.28 So unterlegt ein Youtube-Video den oben zitierten Text mit Aufnahmen von verfallenen, dreckigen und qualmenden Förder- und Verarbeitungsanlagen, von verkehrsin-

Rüdiger Graf

48

farktartigen Situationen auf verstopften Straßen und in überfüllten Zügen, von ölverschmutzten Vögeln, von Terrorismus und Gewalt sowie von den amerikanischen Kriegseinsätzen am Golf und in Afghanistan. Ausgelassen wird Chevrons Behauptung, die Firma praktiziere und unterstütze Energiesparmaßnahmen und stelle neben Öl auch Erdgas, Sonnen-, Wasserstoff- und geothermische Energie bereit. Dafür wird in der Schlusssequenz die „greatest source of energy in the world“ umdefiniert, indem ein US-amerikanischer Soldatenfriedhof gezeigt wird.29

3. Fazit Die Ölwirtschaft ist global strukturiert und als solche nicht direkt wahrnehmbar, obwohl wir täglich an verschiedenen Stellen mit ihr in Kontakt kommen. Zu ihrer Repräsentation dienen daher oft Visualisierungen, von denen hier zwei untersucht wurden: Land- bzw. Weltkarten, die die Komplexität der internationalen Ölwirtschaft reduzieren und ihre wesentlichen Strukturen sichtbar machen sollen und Bilder, die als Metonymien fungieren und über einen Ausschnitt das Ganze der Ölwirtschaft erhellen sollen. In allen Fällen wurde gezeigt, dass diese Ölbilder trotz ihrer intuitiven Eingängigkeit nur mit erheblichem Kontextwissen als Visualisierungen der Welt des Öls verständlich und lesbar werden. Auch die vermeintlich objektiven Repräsentationen, bei denen auf Weltkarten bestimmte Daten über Produktion, Transport oder Konsumption eingezeichnet werden, weisen einen hohen Konstruktionsgrad auf. Sowohl die Auswahl der Daten als auch ihre räumliche Klassifikation folgt immer bestimmten Interessen, die zumeist mit einer konkreten wirtschaftlichen oder politischen Agenda verbunden sind. Genauso sind auch die Aufnahmen der Förderanlagen oder der ölverschmierten Vögel nur auf den ersten Blick eindeutige Repräsentationen eines Ausschnitts der Ölwirtschaft. Durch ihre Rahmung und Instrumentalisierung beanspruchen sie vielmehr ein Bild des Ganzen zu liefern, heben dabei aber nur einen Aspekt hervor und blenden unzählige

andere aus. Statt die untersuchten Ölbilder einfach als Repräsentationen der internationalen Ölwirtschaft einzusetzen, gilt es also, ihren Konstruktionsgehalt sichtbar zu machen und damit immer zugleich auch das, was sie ausblenden, indem sie etwas Bestimmtes zeigen.

Anmerkungen 49 Ölbilder

1 Siehe zur sozialen Realität ähnlicher Phänomene John R. Searle, The construction of social reality, London 1996. 2 Bruno Latour, Drawing Things Together. Die Macht der unveränderlich mobilen Elemente, in: Andréa Belliger/David J. Krieger (Hrsg.), ANThology. Ein einführendes Handbuch zur Akteur-Netzwerk-Theorie, Bielefeld 2006, S. 259–307. 3 Kenneth S. Deffeyes, Hubbert’s peak. The impending world oil shortage, Princeton N.J. 2003; Rüdiger Graf, Expert Estimates of Oil-Reserves and the Transformation of „Petroknowledge“ in the Western World from the 1950s to the 1970s, in: Frank Uekötter/Uwe Lübken (Hrsg.), Managing the Unknown. Essays on Environmental Ignorance, New York 2014, S. 140–167. 4 Siehe zum Beispiel zur Bevölkerungsstatistik Thomas Etzemüller, Ein ewigwährender Untergang. Der apokalyptische Bevölkerungsdiskurs im 20. Jahrhundert, Bielefeld 2007. 5 Latour, Drawing Things Together, 276f. 6 Iris Schröder, Das Wissen von der ganzen Welt. Globale Geographien und räumliche Ordnungen Afrikas und Europas 1790–1870, Paderborn 2011; David Kuchenbuch, Arno Peters, die Peterskarte und die Synchronoptische Weltgeschichte. Mediale Repräsentationen der „Einen Welt“ 1950–1990, in: Zeitschrift für Geschichtswissenschaft 59, H. 10 (2011), S. 824–846. 7 Daniel Yergin, The Prize. The Epic Quest for Oil, Money, and Power, New York 1991, S. 167–184. 8 David White, The Petroleum Resources of the World, in: Annals of the American Academy of Political and Social Science 89 (1920), S. 111– 134, hier S. 134. 9 Helmut Mejcher, Die Politik und das Öl im Nahen Osten, Bd. 1, Der Kampf der Mächte und Konzerne vor dem Zweiten Weltkrieg, Stuttgart 1980; Dietrich Eichholtz, Krieg um Öl. Ein Erdölimperium als deutsches Kriegsziel 1938–1943, Leipzig 2006. 10 Aus Mejcher, Die Politik und das Öl, Umschlaginnenseite. 11 Eric J. Hobsbawm, The Age of Extremes. The Short Twentieth Century 1914–1991, London 1995, S. 257–286. 12 Ferdinand Mayer, Erdoel-Weltatlas, Hamburg/Braunschweig 1966; John C. McCaslin (Hrsg.), International Petroleum Encyclopedia, Tulsa/ Okla. 1977.

Rüdiger Graf

50

13 Lantzke (Abt. III) an BM über Rowedder, Sicherung der Rohölversorgung Europas in Krisenzeiten, Bericht über Sitzung der High Level Group am 28./28. Mai 1970, 2. Juni 1970, Bundesarchiv Koblenz, B 102/131405. 14 Gerhard Bischoff/Werner Gocht/F. Adler (Hrsg.), Das Energiehandbuch, Braunschweig 1970. 15 Shell, The National Energy Outlook, o.O. 1974. 16 Deutsche BP Aktiengesellschaft (Hrsg.), Das Buch vom Erdoel, Hamburg 1978. 17 Scientific American 225 (1971), 22f. 18 Auch eine Graphik in dem Artikel „Ölscheichs gegen Europa“, in: Der Spiegel, H. 46 (1973), S. 110–118, verband zum Beispiel eine Landkarte des Nahen Ostens und Nordafrikas mit der Darstellung von Fördertürmen, deren Größe die Produktion in den jeweiligen Ländern angab und Ölfässern, deren Zahl die Menge der europäischen Ölimporte repräsentieren sollte. 19 http://www.youtube.com/watch?v=CMut6aY7BCI, (zuletzt besucht am 10.10.2015). Gulf Oil zeigte in seinen Werbefilmen einfach stolz die eigene Tankerflotte und unterlegte die Bilder mit dem Song „Bringin’ Home the Oil“. 20 Petroleum Panorama. Commemorating 100 years of Petroleum Progress, Tulsa/Okla 1959. 21 Werbung von Shell Oil Company, in: Petroleum Panorama. Commemorating 100 years of Petroleum Progress, Tulsa, Okla. 1959, S. A–114, hier S. A–114. 22 Siehe zum Beispiel Pétrole Progrès, Revue Trimestrielle 91 (printemps 1972), 96 (automne 1973) oder 97 (hier 1973–74). 23 38 superpétroliers, in: Pétrole Progrès. Revue Trimestrielle. Nr. 91 (Printemps 1972). 24 http://commons.wikimedia.org/wiki/File:Schoonebeek_Jaknikker3.jpg; http://commons.wikimedia.org/wiki/File:CromartyOilPlatform.JPG?uselang=de (beide zuletzt besucht am 10.10.2015). 25 Dieses und andere Fotos der Torrey Canyon unter http://www.shipwrecklog.com/uk/infamous-shipwrecks/torrey-canyon/; verschmutzte Vögel: Photo courtesy of the Exxon Valdez Oil Spill Trustee Council, http://commons.wikimedia.org/wiki/File:EVOSWEB_013_oiled_bird3.j pg?uselang=de (beide zuletzt besucht am 10.10.2015). Siehe Kathryn Morse, There Will Be Birds. Images of Oil Disasters in the Nineteenth and Twentieth Centuries, in: The Journal of American History 99, H. 1 (2012), S. 124–134. 26 https://www.youtube.com/watch?v=-KyjTGMVTkA (zuletzt besucht am 10.10.2015). 27 Siehe auch mit ähnlicher Botschaft: Chevron,The Impossible, https: //www.youtube.com/watch?v=Y_99VuYXhBM (zuletzt besucht am 10.10.2015). 28 Zur Kritik an Chevron/Texaco siehe auch den Dokumentarfilm Crude (Regie: Joe Berlinger, 2009).

29 http://www.youtube.com/watch?v=kuP9U9WQPiY (zuletzt besucht am 10.10.2015). Siehe auch den ähnlich angelegten Remix einer Chevron Werbung von RebelliousPixels: https://www.youtube.com/watch?v= C_dF9EjIvsA (zuletzt besucht am 10.10.2015); oder die animierte Kritik ChevronToxico: http://chevrontoxico.com/news-and-multimedia/ 2008/0414b-chevrons-inhumane-energy.html (zuletzt besucht am 10.10.2015).

Ölbilder

51

KAPITEL 2: ZUSTANDSBILDER

„LIVE CELL IMAGING“

Roland Reinehr und Annika Sommerfeld

Einleitung In Medizin und Biologie steht die Untersuchung zellulärer und subzellulärer Prozesse im Zentrum vieler Forschungsbereiche. Traditionell werden hierzu Präparate von Geweben oder Zellen zu verschiedenen Zeitpunkten angefertigt, fixiert und dann verglichen. Über den Vergleich der zellulären Zustände in dem fixierten Präparat kann so auf biologische Prozesse rückgeschlossen werden. Die technische Entwicklung der Fluoreszenzmikroskopie hat es nunmehr möglich gemacht, dass wir heute zelluläre und subzelluläre, d.h. molekulare Prozesse, wie Membrandiffusion, Zelladhäsion und Signaltransduktion in lebenden, kultivierten Zellen und Geweben sichtbar machen und dadurch einfacher verstehen können. Abbildung 1 zeigt hierbei exemplarisch an verschiedenen Zelltypen das Spektrum von Visualisierungsmöglichkeiten der Technik. Neben monochromen Darstellungen der Zelltypen im Phasenkontrast (Abb. 1A,C) können mit Hilfe spezifischer Fluoreszenzmarker sehr spezifische Strukturen und zelluläre Prozesse angefärbt und damit für den Beobachter hervorgehoben werden (Abb. 1D-F). Zurzeit befinden wir uns an der Grenze zur Visualisierung molekularer Mechanismen in lebenden Geweben mit einer Auflösung von 10-9 Metern unter Echtzeitbedingungen. Diese

55 Zustandsbilder

ZUR VISUALISIERUNG BIOCHEMISCHER PROZESSE IN VIVO

Roland Reinehr und Annika Sommerfeld

56

Entwicklung erscheint vor dem Hintergrund immer wichtiger, dass die Zell-Zell- und Organ-Organ-Interaktionen eine fundamentale Rolle für den geregelten Ablauf biologischer Prozesse spielen. Hierbei bleibt zu berücksichtigen, dass auch die Fluoreszenzmikroskopie selbst biologische Prozesse zu beeinflussen vermag, da teilweise die Verwendung hoher Strahlungsenergien erforderlich ist, um eine ausreichende Penetration des Lichts in tiefe Gewebeschichten zu ermöglichen. Die Kombination von moderner Fluoreszenzmikroskopie und genetischen Modellorganismen (z.B. Mäuse, bei denen ein bestimmtes Gen ausgeschaltet worden ist, sogenannte „Knock out-Mäuse“) erlaubt neben der bloßen Visualisierung von dynamischen Prozessen auf Einzelmo-

Abb. 1: Experimentelle Bildgebungsverfahren. Mit Hilfe experimenteller Systeme können Zellen unter Kulturbedingungen und sogar im lebenden Organismus sichtbar gemacht werden. (A) Tumorzellen des Pankreas im Phasenkontrast. (B) Grün-fluoreszierendes Protein in Tumorzellen des Pankreas. (C) Phasenkontrast-Aufnahme kultivierter Stammzellen der Maus. (D) Grün-fluoreszierende Vorläufer von Pigmentzellen eines genetisch veränderten Mausmodells. (E) Grünfluoreszierende Zellen wurden einer Maus injiziert, um die Aktivität eines Proteins (rot) zu visualisieren. (F) Grün-fluoreszierende Krebszellen in der extrazellulären Matrix (blau) abgebildet mit Hilfe der „second harmonic generation“. Maßstabsbalken: 10 mm für die Ganzkörperaufnahme der Maus und 20 µm für die Aufnahmen der Zellen.1

lekülniveau auch deren gezielte Manipulation. Im Folgenden werden einzelne Mikroskopiertechniken exemplarisch vorgestellt, deren technische Visualisierungsstrategien erläutert und die Bedeutung für den wissenschaftlichen Erkenntnisgewinn an Beispielen aufgezeigt wird.

Visualisierung zellulärer Dynamik

Abb. 2: Darstellung des Funktionszustands eines Proteins. Mittels Differentialinterferenzkontrast (DIK, obere Bildreihe) und mit Hilfe von fluoreszierenden Proteinen (RhoA, untere Reihe) können menschliche Epithelzellen abgelichtet und Proteine in der Zelle sichtbar gemacht werden. Während des Zellzyklus (von G2- bis G1-Phase) lässt sich die Aktivität des Proteins RhoA durch das Verhältnis der Rot-/Grün-Färbung beobachten. Zu Beginn der Metaphase nimmt die Aktivität des Proteins rapide ab (grün), während sie im Laufe der Zellteilung in der späten Telophase allmählich wieder zu nimmt (rot). Maßstabsbalken = 10 µm.4

Zustandsbilder

57

Der technische Fortschritt in der optischen Mikroskopie erlaubt mittlerweile die Visualisierung von Proteindynamiken in kultivierten Zellen. Dies basiert v.a. auf der Entwicklung fluoreszierender Proteine, die es ermöglichen, Proteine nicht nur sichtbar zu machen, sondern auch deren Funktionszustand abzubilden.2 Dadurch kann z.B. unmittelbar am dargestellten Bild verfolgt werden, wie sich beim Prozess der Zellteilung (Abb. 2 oben) die Aktivität des Proteins RhoA3 verändert (Abb. 2 unten). Eine konkrete und häufige Anwendung dieser Techniken findet sich in der medizinischen Forschung. So sind für bestimmte Krankheiten Tiermodelle entwickelt worden, bei

Roland Reinehr und Annika Sommerfeld

58

denen gewebespezifische Mutationen an die Expression von fluoreszierenden Proteinen gekoppelt sind. Hierdurch können die molekularen Veränderungen, die Ursache oder Folge von Krankheiten sein können, in den betreffenden Geweben des Modellorganismus spezifisch in ihrer Dynamik studiert werden. Die generierten Daten sind für das Verständnis zellulärer Signalmechanismen in sogenannten „Gewebs-Nischen“ zentral.5 So ist z.B. die Eigenschaft von Stammzellen, ihre Pluripotenz zu erhalten, an das Vorhandensein einer „Stammzell-Nische“ gekoppelt.6 Daneben ergeben sich auch Applikationen zu Untersuchungen der Tumorentstehung oder Pharmakodynamik.7 Seit den 1990er Jahren finden fluoreszierende Proteine Anwendung in der Molekularbiologie, um zelluläre und subzelluläre Prozesse zu visualisieren. Zunächst erfolgten Studien an klassischen Modellorganismen wie der Fruchtfliege Drosophila melanogaster oder dem Zebrafisch. Hierbei gelang es mit der Technik erstmals einen vollkommen neuen Einblick in physiologische Prozesse am lebenden Organismus zu erhalten, so zum Beispiel über den Transport von rot-gefärbten Blutkörperchen durch die – grün gefärbten – Gefäße im Zebrafisch Danio rerio (Abb. 3). Neben der Entwicklung und Anwendung „leuchtender Proteine“ist auch die Bandbreite der mithilfe dieser Technik zu beantwortenden Fragen einer steten Entwicklung unterzogen. Einige Beispiele werden nachfolgend gezeigt. 1) Die Ganzkörper-Fluoreszenzmikroskopie wurde zunächst entwickelt, um die Lokalisation und das Wachstum von Tumoren in lebenden Mäusen sichtbar zu machen. Dieser Ansatz erlaubt wiederholte Messungen an ein und demselben Tier, so dass z.B. der Einfluss von Arzneistoffen auf das Tumorwachstum untersucht werden kann.8 Einfache optische Apparaturen (Epifluoreszenzmikroskopie, makroskopische Linsen, CCD-Kameras) geben hierbei einen qualitativen Eindruck in Form eines optischen Bildes. Mit der Zeit ist die Auflösung dieser Systeme so weit vorangeschritten, dass auch Einzelzellmessungen9 oder quantitative Aussagen möglich sind.10

2) Die konfokale Laserscanningmikroskopie ist heute die Technik der Wahl zur Darstellung von molekularen Prozessen in in vitro-Zellkultursystemen oder Gewebeschnitten. Es gelingt hierbei durch fluoreszierende Antikörper markierte Moleküle oder Moleküle, die an fluoreszierende Proteine gekoppelt wurden, und deren Interaktion in Zellen oder Geweben sichtbar zu machen. Ein von einem Laser ausgesendetes Licht einer definierten Wellenlänge regt hierbei fluoreszierende Proteine so an, dass diese wiederum ein Licht einer definierten Wellenlänge aussenden, das detektiert wird. Der Lichtstrahl des Lasers scannt hierbei verschiedene Schichten der Probe, so dass neben der zweidimensionalen Auflösung am Bildschirm mithilfe einer Computersoftware ein dreidimensionales Bild rekonstruiert werden kann. Die optische „Schnittdicke“ wird hierbei durch die selektive Detektion der Fluoreszenz eines Einzelpunktes in der Probe durch Verwendung eines räumlichen Filters vergleichbar mit einem Nadelloch (pinhole) erreicht, der vor den Detektor platziert wird. Der Hauptvorteil der konfokalen Laserscanningmikroskopie liegt heutzutage in der weiten Verbreitung, der Kosteneffektivität und der sicheren Verwendung der Methode. Der Hauptnachteil dieser Technik ist das Ausbleichen der Probe bei in vitro-Ansätzen und die durch die starke Strahlung des Lasers induzierte Phototoxizität bei in vivoApplikationen.11 Darüber hinaus kann die Aussagekraft erheblich eingeschränkt werden, wenn das emittierte Licht im Gewebe selber zu sehr gestreut wird.12 Dies bestimmt auch

59 Zustandsbilder

Abb. 3: Rot fluoreszierende Blutkörperchen bahnen sich ihren Weg durch grün fluoreszierende Gefäße im Zebrafisch-Embryo. (Quelle: Wiebke Herzog, Münster).

Roland Reinehr und Annika Sommerfeld

60

die maximale Eindringtiefe der konfokalen Laserscanningmikroskopie von < 50 µm.13 3) Die Spinning Disk konfokale Mikroskopie stellt eine Weiterentwicklung der konfokalen Laserscanningmikroskopie dar und ist für die in vivo-Untersuchung von „dünnen“ Organismen, wie der Fruchtfliege Drosophila melanogaster14, dem Fadenwurm Caenorhabditis elegans15 oder dem Zebrafisch Danio rerio16 geeignet. Hierbei kommt eher eine Batterie von Nadellöchern als ein einzelnes pinhole (s.o.) zum Einsatz, was zu einem deutlich verbesserten „Signalzu-Rausch-Abstand“, also einer verbesserten Auflösung führt. Auch die notwendige Strahlungsintensität ist dadurch verringert und somit die mögliche Verfälschung des Messergebnisses durch unerwünschte Störeffekte vermindert. Der große Nachteil besteht hierbei in der Anfälligkeit für Artefakte, die mit der Dicke der Probe zunimmt, da es zu Wechselwirkungen zwischen den einzelnen pinholes kommt, insbesondere bei Streuung des Lichts im Gewebe.17 4) Bei der Multiphotonen-Laserscanningmikroskopie gelingt es nunmehr, die Dynamik von Zellen sichtbar zu machen, indem man einzelne Moleküle in der Zelle verfolgen kann. Während bei der konfokalen Laserscanningmikroskopie optische Schnitte durch die selektive Detektion von Schichten bei gleichzeitiger Anregung der gesamten Probe erzielt werden, wird bei der Multiphotonen-Laserscanningmikroskopie nur eine Schicht und nicht die ganze Probe mit Licht angeregt. Das Besondere dieser Technik liegt in der Tatsache, dass nur die Moleküle im Fokus mit Licht angeregt werden, so dass ein Ausbleichen der Probe und die Phototoxizität minimiert werden.18 Zur Detektion der Probe ist somit kein pinhole erforderlich, da alles emittierte Licht aus der region of interest (ROI) selber stammt. Die Vorteile dieser Methode liegen in dem guten Signal-zu-Rauschen-Verhältnis und der hohen Sensitivität.

Visualisierung molekularer Dynamik

61 Zustandsbilder

Die große technische Herausforderung der in diesem Abschnitt diskutierten Methoden zur Visualisierung molekularer Prozesse auf subzellulärem Niveau liegt in der Verwendung dieser Techniken nicht nur unter idealisierten Bedingungen, wie z.B. bei auf Deckgläsern fixierten Zellen, sondern auch in Geweben unter in vivo-Bedingungen. Im Folgenden werden aktuell genutzte Methoden vorgestellt und deren Visualisierungsprinzipien erklärt. 1) Beim sogenannten Photobleichen wird ein ganz umschriebener Teil der Probe, die region of interest (ROI), so stark einem Licht ausgesetzt, dass der Fluoreszenzfarbstoff vollkommen ausbleicht und auch bei Anregung kein messbares Licht mehr emittiert. In einer lebenden Zelle wird dann das sogenannte FRAP (fluorescence recovery after photobleaching) gemessen, also das Wiederauftreten von Fluoreszenzlicht, das die Probe bei Anregung emittiert. Eine Visualisierung von Messungen mit der FRAP-Technik ist exemplarisch in Abbildung 4 dargestellt. Hier wird gezeigt, wie selektiv die ROI (Abb. 4B) vollkommen ausgebleicht wird und somit zwischenzeitlich als schwarzes Oval dargestellt wird (Abb. 4C), wieder ein Wiederauftreten in der ROI festgestellt wird (Abb. 4D). Mit der Technik misst man z.B. anhand der Zeit bis zum halbmaximalen FRAP, ob ein an einen Fluoreszenzfarbstoff gekoppeltes Protein nur durch passive Diffusion oder durch einen aktiven Prozess an die ROI gelangt.19 Diese Technik wurde vor allem zur Analyse von Zellstrukturproteinen genutzt. 20 2) Bei der Photoaktivierung und Photokonversion nutzt man die Tatsache, dass man einen Farbstoff durch eine chemische Reaktion an- und ausschalten kann. So wird z.B. bei einem photoaktivierbaren grün fluoreszierenden Protein (PA-GFP) durch Anregung mit ultraviolettem Licht durch Decarboxylierung eines Glutamatrestes das elektrisch neutrale und nicht fluoreszierende Protein in die anionische, fluoreszierende Form überführt.22 Man kann also die Fluoreszenzeigenschaften des Proteins von Interesse an einem definierten Ort in der Zelle mit einem Lichtimpuls anschalten und

Roland Reinehr und Annika Sommerfeld

62

Abb. 4: Ein FRAP-Experiment zeigt, dass ein grün-fluoreszierendes Protein die Zellmembran passieren kann. (A) Myoblast mit grün-fluoreszierenden Proteinen vor dem Photobleichen. (B) Eine ROI (Zellkern) wird mit einem Laser hoher Intensität gebleicht. (C) Nach dem Photobleichen kann der Farbstoff bei Anregung kein messbares Licht mehr emittieren und die ROI erscheint als dunkler Bereich. (D) Wiederauftreten von Fluoreszenzlicht.21

dann das Protein selektiv verfolgen. Das Signal-zu-Rauschen-Verhältnis ist bei dieser Methode optimal und erlaubt Messungen auch schwacher Signalintensitäten. Der Nachteil dieser Methode ist, dass das „Sichtbarmachen“ des Proteins von Interesse dieses gleichzeitig auch als Farbstoff „anschaltet.“ Die Photokonversion ist eine Weiterentwicklung der Photoaktivierung, die diesen Nachteil überwunden hat. Hier wird durch ein Lichtsignal ein Farbstoff als solcher nicht angeschaltet, sondern in seinen Eigenschaften verändert: Ein grüner Fluoreszenzfarbstoff wird z.B. in einen roten Fluoreszenzfarbstoff konvertiert.23 Diese Methoden wurden nicht nur in Einzelzellen sondern auch in Geweben angewendet. So gelang z.B. die Verabfolgung von in ein Gewebe implantierten Tumorzellen.24 Diese Anwendung ist jedoch dadurch limitiert, dass es bei jeder Zellteilung auch zu einer Verdünnung des Fluoreszenzfarbstoffes durch Verteilung auf die beiden Tochterzellen kommt. 3) Die Fluoreszenz- (oder Förster-) Resonanz-Energietransfer (FRET)-Mikroskopie und das Fluorescence Lifetime Imaging (FLIM) sind zwei moderne Mikrospiertechniken, die sich die Energieübertragung von einem Fluoreszenzfarbstoff (Donor) auf einen zweiten Fluoreszenzfarbstoff (Akzeptor) zunutze machen und auch oft gemeinsam Verwendung finden. Dieser sogenannte Förster-Effekt tritt nur dann auf,

Abb. 5: FRET-FLIM-Abbildungen eines Proteinkomplexes in menschlichem Tumorgewebe. In gesundem Brustgewebe liegen die grün und rotmarkierten Proteine nicht nah genug beieinander („blaue“ Farben in der FRET-Effizienz-Karte oben links), sodass sie nicht miteinander interagieren können. Im Krebsgewebe dagegen kommen sich Donor und Akzeptor so nah, sodass eine Interaktion zwischen den Proteinen messbar wird („rote“ Farben in der FRET-Effizienz-Karte unten links).26

63 Zustandsbilder

wenn sich Donor und Akzeptor 5 nm nah kommen: Man kann also die Bindung, bzw. die Interaktion, von zwei Proteinen visualisieren. Der Trick besteht darin, dass der Donor bei Anregung ein Licht emittiert, das in der Lage ist, den Akzeptor anzuregen, der dann wiederum selber das für ihn charakteristische Licht emittiert. Der Akzeptor leuchtet also, obwohl der Donor angeregt wird. Dies führt gleichzeitig dazu, dass der Donor selbst weniger stark leuchtet. Man kann also die Zunahme des vom Akzeptor emittierten Lichts zum Verlust der vom Donor emittierten Lichtmenge ins Verhältnis setzen und dadurch das Signal-zu-Rauschen-Verhältnis verbessern. Diese Methode ist besonders geeignet, um

Roland Reinehr und Annika Sommerfeld

64

die Interaktion von zwei Proteinen in lebenden Zellen nicht nur örtlich und zeitlich aufzulösen, sondern auch zu quantifizieren. Dies wird eindrucksvoll im Vergleich von gesundem und tumorösem Brustgewebe deutlich (Abb. 5). Nur in dem Tumorgewebe (Abb. 5 unten) kommen sich die Interaktionspartner so nahe, dass komplexe, farblich auffällige Interaktionsmuster entstehen. Mit Hilfe der FRET-Mikroskopie kann man z.B. auch die Interaktion von Wachstums- und Todesrezeptoren in lebenden Zellen studieren.25 Bei der FLIM-Technik werden Änderungen der Fluoreszenz-Lebensdauer des Donors gemessen. Dies hat den Vorteil, dass die Expressionsmenge von Donor und Akzeptor weniger stark ins Gewicht fällt als bei der FRET-Mikroskopie. Die Expression der Donor- und Akzeptor-Proteine ist in manchen Fällen sehr unterschiedlich und auch nicht immer gut steuerbar. Durch die unterschiedliche Fluoreszenz-Lebensdauer in normalem im Gegensatz zu tumorösem Gewebe (Abb. 6D) kann durch Abbildung der gemessenen Fluoreszenz-Lebensdauern auf das im Gewebsbild ein distinktes Farbmuster erzeugt werden (Abb. 6C). Dieses lässt über die Farbgebung unmittelbare und präzise Rückschlüsse über die Lokalisation des Karzinoms zu. In Abb. 6C sind dies die blauen Bereiche auf dem Gewebsbild. Die gleichzeitige Verwendung von FLIM und FRET ist also weniger artefaktbehaftet als die FRET-Mikroskopie alleine. 4) Bei der Fluoreszenz-Korrelations-Spektroskopie handelt es sich nicht um eine Mikroskopiertechnik im herkömmlichen Sinne. Mit dieser Methode erhält man Informationen über die Konzentration, Beweglichkeit und Bindungsaffinitäten von fluoreszierenden Proteinen in Lösungen, neuerdings auch in Zellen und sogar Geweben.28 Wie bei der konfokalen Laserscanningmikroskopie wird ein Laserlicht auf einen Fokus innerhalb der Probe gerichtet, jedoch ist dieser Fokus fixiert und es wird die in den Fokus hinein- und herausdiffundierende Menge des Fluoreszenzfarbstoffes gemessen. So kann z.B. die Konzentration eines Hormons und dessen Affinität zu einem Rezeptor gemessen werden.29

Zustandsbilder

65

Abb. 6: FLIM einer Harnblase mit Plattenepithelkarzinom. (A) Auflichtaufnahme der Probe (Kasten: Bereich der Fluoreszenzaufnahme). (B) Fluoreszenz-Intensitätsbild. Maßstabsbalken: 1 cm. (C) Falschfarben-FLIM-Darstellung der Abklingzeiten. Die Farbskala der Fluoreszenzlebensdauer geht von Blau-Purpur (2300 ps) bis Rot (4500 ps). (D) Histogramm der Fluoreszenzabklingzeiten von gesundem und Karzinomgewebe.27

Alternative Methoden der Fluoreszenzmikroskopie Alle der oben genannten Methoden stoßen an ihre Grenzen, sobald Fragenstellungen in vivo, also an lebenden Zellen, vitalen Geweben oder ganzen Organismen für eine längere Zeit verabfolgt werden sollen. Zum einen muss das fluoreszierende Protein z.B. durch genetische Manipulation in die Zelle eingeschleust werden, zum anderen darf sowohl das anregende als auch das emittierte Licht durch seine Energie nicht selbst die Fragestellung artifiziell beeinflussen. Durch die Applikation exogener Fluoreszenzfarbstoffe kann man z.B. das Gefäßsystem sichtbar machen und dar-

Roland Reinehr und Annika Sommerfeld

66

stellen30 ob dieses unter bestimmten Bedingungen durchlässiger wird, so dass der Fluoreszenzfarbstoff auch im Gewebe sichtbar wird. Darüber hinaus gibt es Fluoreszenzfarbstoffe, die an DNA binden und dadurch Zellkerne sichtbar machen.31 In Abbildung 7 ist ein Gewebsschnitt gezeigt, in dem über einen spezifischen exogenen Fluoreszenzfarbstoff selektiv die DNA in den Zellkernen markiert wurde. Durch diese Visualisierungstechnik werden nahezu alle anderen Strukturen im Gewebsschnitt ausgeblendet und der Fokus liegt alleine auf der Topologie der Zellkerne. Ist der Fluoreszenzfarbstoff nun so beschaffen, dass er nur die Zellmembran von absterbenden Zellen penetrieren kann, gelingt die Visualisierung eines Zelluntergangs im ansonsten intakten Gewebe in vivo.

Abb. 7: DAPI-gefärbte Zelle. Durch einen blauen Fluoreszenzfarbstoff (DAPI), der an die DNA bindet, wird der Kern der Zelle sichtbar gemacht. Microscopy: Science, Technology, Applications and Education A. Méndez-Vilas and J. Díaz (Eds.) ©FORMATEX 2010

67 Zustandsbilder

Die Entwicklung von funktionellen Fluoreszenzfarbstoffen stellt einen weiteren wesentlichen Fortschritt in der Fluoreszenzmikroskopie dar. So gibt es zum einen Farbstoffe, die erst durch eine enzymatische Reaktion, das heißt z.B. durch das Abschneiden eines Teils des Proteins durch Proteasen, zu einem fluoreszierenden Protein werden32 oder die durch Anregung mit Licht aktiviert werden (siehe bitte Photoaktivierung und Photokonversion). Zum anderen gibt es Fluoreszenzfarbstoffe, die ihre fluoreszierenden Eigenschaften zeitabhängig (durch das „Reifen“ des Proteins nach dessen Zusammenbau) ändern. Diese sogenannten „molecular timers“ erlauben damit neben der bloßen Verteilung eines Proteins auch quantitative Aussagen über dessen Bildung, Reifung und Abbau. Bei der Autofluoreszenz nutzt man die Eigenschaft mancher Zellen, dass sie im Zellinneren Stoffe enthalten, die bei entsprechender Strahlungsanregung fluoreszieren (z.B. Abb. 8). Man benötigt also keine Manipulation von außen, um einen Farbstoff an den Ort des Interesses zu bringen und kann somit z.B. in einem Gewebe eine bestimmte Zellsorte durch dessen charakteristische Autofluoreszenz sichtbar machen.33 Daneben gibt es Moleküle, die je nach Oxidationszustand oder Bindung an ein weiteres Molekül ihre fluoreszierenden Eigenschaften wechseln, so dass die Messung von chemischen Reaktionen oder molekularen Interaktionen auf diese Weise gelingt.34 Die sogenannte second harmonic generation (SHG) ist ein Verfahren, das sich anstatt fluoreszierender Proteine der Eigenschaften kristalliner Materialien bedient. Hierbei werden zwei in die Probe eingehende Photonen zu einem Photon mit der zweifachen Energie und der halben Wellenlänge kombiniert. Das Besondere ist hierbei, dass in der Probe selber keine potenziell toxische Energie absorbiert wird. Entsprechend kann man diese Technik gut nutzen, um zelluläre Prozesse auch über einen langen Zeitraum (mehrere Stunden) zu verfolgen. In Abbildung 8 wird dies am Beispiel der Zellteilung in Embryonen vom Zebrafisch Danio rerio gezeigt. Hierbei wurden die second harmonic generation-Eigenschaften der Mitosespindeln ausgenutzt.35 Zellmembra-

Abb. 8: Second harmonic generation (SHG)-Mikroskopie. Die SHG-Mikroskopie erlaubt es, dreidimensionale Zellteilungsprozesse im Zebrafischembryo in vivo zu beobachten (Mikrotubulispindeln, grün; Membranen, purpur).36

Roland Reinehr und Annika Sommerfeld

68

nen sind in der Visualisierung distinkt durch die purpurne Fluoreszenz zu erkennen. Die Mikrotubulispindeln, welche die Chromosomen trennen, fluoreszieren grün. Deutlich ist im zeitlichen Verlauf (von links nach rechts) zu erkennen, wie die Chromosomen sich an zwei Orte bewegen und am Ende eine purpurne Barriere (= neue Zellmembran) die Zellteilung abschließt. z.B. dazu nutzen, während der Entwicklung eines Zebrafisches die Zellteilung von embryonalen Zellen über Stunden zu verabfolgen.

Zusammenfassung und Ausblick Mithilfe der verschiedenen in diesem Artikel vorgestellten technischen Möglichkeiten der Fluoreszenzmikroskopie gelingt es in zunehmendem Maße, die Dynamik der zellulären und molekularen Interaktionen sichtbar zu machen. War es früher nur möglich, diese Untersuchungen in fixierten Zellen oder Gewebeschnitte durchzuführen, gelingt es heute durch die technische Weiterentwicklung der verwendeten Methoden, auch lebende Gewebe zu untersuchen. Durch diese neue Möglichkeit der Visualisierung komplexester zellulärer und subzellulärer Prozesse konnten in jüngster Zeit revolutionäre neue Erkenntnisse im Bereich der Biologie, Biochemie und Medizin erfolgen. Der Nachteil der Fluoreszenzmikroskopie besteht in der Notwendigkeit der „Bestrahlung“ der Region von Interesse, um das von ihr wieder emittierte Licht messen zu können. Hierbei wird zum einen

Anmerkungen 1 Timpson et al., Imaging molecular dynamics in vivo – from cell biology to animal models, in: Journal of Cell Science 124 (2011), S. 2877– 2890. 2 Yoshizaki et al., Activity of Rho-family GTPases during cell division as visualized with FRET-based probes, in: The Journal of Cell Biology 162 (2003), S. 223–232; Wang et al., Performance comparison between the high-speed Yokogawa spinning disc confocal system and single-point scanning confocal systems, in: Journal of Microscopy 218 (2005), S. 148–159. 3 RhoA ist die Abkürzung für „Ras homolog gene family, member A“. Dabei handelt es sich um eine Genfamilie von Enzymen, die bei der Zellteilung und bei Transportprozessen innerhalb der Zelle eine wichtige Rolle spielen.

69 Zustandsbilder

vor Ort Energie absorbiert, zum anderen muss je nach verwendeter Technik die gesamte Probe durchstrahlt werden. Im Weiteren erfordert eine Visualisierung tiefer liegender Gewebeschichten auch eine dementsprechend höhere Energie, so dass die Toxizität und mögliche Artefakte mit zunehmender Eindringtiefe wahrscheinlicher werden. Neuere Ansätze bedienen sich daher eher den biochemischen Struktureigenschaften von Molekülen, als dass sie fluoreszenzmarkierte Biomoleküle nutzen. Neben den optisch-technischen Fragen, ist auch die Wahl des experimentellen Systems von Bedeutung. So wird eine Vielzahl der fluoreszenzoptischen Untersuchungen aufgrund seiner günstigen optischen Eigenschaften am Zebrafisch durchgeführt. Wünschenswert wären aber auch ähnlich praktikable Experimente z.B. an Mäusen, so dass man durch gezielte genetische Manipulation Proteine, Signalketten, usw. modifizieren könnte (Knock out-, Knock in-Mäuse, …). Die technische Entwicklung, sowohl im optisch-technischen als auch im molekularbiologisch-biochemischen Bereich, wird zunehmend längere Beobachtungszeiträume mit höchster örtlicher und zeitlicher Auflösung in immer komplexeren Systemen erlauben, so dass wir dem Traum der Echtzeit-Visualisierung biologischer Vorgänge immer näher kommen werden.

Roland Reinehr und Annika Sommerfeld

70

4 Yoshizaki et al. 2003. 5 Timpson et al., Imaging molecular dynamics in vivo – from cell biology to animal models, in: Journal of Cell Science 124 (2011), S. 2877– 2890. 6 Zhang et al., Identification of the haematopoietic stem cell niche and control of the niche size, in: Nature 425 (2003), S. 836–841. 7 Kamb, What’s wrong with our cancer models?, in: Nature Reviews Drug Discovery 4 (2005), S. 161–165. 8 Ahmad et al., beta-Catenin activation synergizes with PTEN loss to cause bladder cancer formation, in: Oncogene 30 (2011), S. 178–189. 9 Yamauchi et al., Development of real-time subcellular dynamic multicolor imaging of cancer-cell trafficking in live mice with a variable-magnification whole-mouse imaging system, in: Cancer Research 66 (2006), S. 4208–4214. 10 Ntziachristos et al., Looking and listening to light: the evolution of whole-body photonic imaging, in: Nature Biotechnology 23 (2005), S. 313–320. 11 Pawley, Handbook of Confocal Microscopy. New York 2006; Hoebe et al., Controlled light-exposure microscopy reduces photobleaching and phototoxicity in fluorescence live-cell imaging, in: Nature Biotechnology 25 (2007), S. 249–253. 12 Helmchen und Denk, Deep tissue two-photon microscopy, in: Nature Methods 2 (2005), S. 932–940. 13 Oheim et al., Twophoton microscopy in brain tissue: parameters influencing the imaging depth, in: Journal of Neuroscience Methods 111 (2001), S. 29–37. 14 Aldaz et al., Live imaging of Drosophila imaginal disc development, in: Proceedings of the National Academy of Sciences 107 (2010), S. 14217–14222. 15 Mayer et al., Anisotropies in cortical tension reveal the physical basis of polarizing cortical flows, in: Nature 467 (2010), S. 617–621. 16 Wang et al., The Rho kinase Rock2b establishes anteroposterior asymmetry of the ciliated Kupffer’s vesicle in zebrafish, in: Development 138 (2011), S. 45–54. 17 Egner et al., Comparison of the axial resolution of practical Nipkowdisk confocal fluorescence microscopy with that of multifocal multiphoton microscopy: theory and experiment, in: Journal of Microscopy 206 (2002), S. 24–32. 18 Denk et al., Two-photon laser scanning fluorescence microscopy, in: Science 247 (1990), S. 73–76. 19 Sprague und McNally, FRAP analysis of binding: proper and fitting, in: Trends in Cell Biology 15 (2005) S. 84–91. 20 Cavey et al., A two-tiered mechanism for stabilization and immobilization of E-cadherin, in: Nature 453 (2008), S. 751–756. 21 Ishikawa-Ankerhold et al., Advanced fluorescence microscopy techniques-FRAP, FLIP, FLAP, FRET and FLIM, in: Molecules 17 (2012), S. 4047–4132.

71 Zustandsbilder

22 Patterson und Lippincott-Schwartz, A photoactivatable GFP for selective photolabeling of proteins and cells, in: Science 297 (2002), S. 1873–1877. 23 Ando et al., An optical marker based on the UV-induced green-to-red photoconversion of a fluorescent protein, in: Proceedings of the National Academy of Sciences 99 (2002), S. 12651–12656. 24 Kedrin et al., Intravital imaging of metastatic behavior through a mammary imaging window, in: Nature Methods 5 (2008), S. 1019–1021. 25 Eberle et al., Fluorescence resonance energy transfer analysis of proapoptotic CD95-EGF receptor interactions in Huh7 cells, in: Hepatology 41 (2005), S. 315–326. 26 Kelleher et al., The potential of optical proteomic technologies to individualize prognosis and guide rational treatment for cancer patients, in: Targeted Oncology 4 (2009), S. 235–252. 27 Mc Ginty et al., Wide-field fluorescence lifetime imaging of cancer, in: Biomedical Optics Express 1 (2010), S. 627–640. 28 Haustein und Schwille, Fluorescence correlation spectroscopy: novel variations of an established technique, in: Annual Review of Biophysics and Biomolecular Structure 36 (2007), S. 151–169. 29 Ries et al., Modular scanning FCS quantifies receptor-ligand interactions in living multicellular organisms, in: Nature Methods 6 (2009), S. 643–645. 30 Wang et al., Single cell behavior in metastatic primary mammary tumors correlated with gene expression patterns revealed by molecular profiling, in: Cancer Research 62 (2002), S. 6278–6288. 31 Chaplin et al., Cell selection from a murine tumour using the fluorescent probe Hoechst 33342, in: British Journal of Cancer 51 (1985), S. 569–572. 32 Bremer et al., In vivo molecular target assessment of matrix metalloproteinase inhibition, in: Nature Medicine 7 (2001), S. 743–748. 33 Mc Ginty et al. 2010. 34 Niesner, Selective detection of NADPH oxidase in polymorphonuclear cells by means of NAD(P)H-based fluorescence lifetime imaging, in: Biophysical Journal (2008), S. 602–639. 35 Olivier et al., Cell lineage reconstruction of early zebrafish embryos using label-free nonlinear microscopy, in: Science 329 (2010), S. 967– 971. 36 Sun et al., Higher harmonic generation microscopy for developmental biology, in: Journal of Structural Biology 147 (2004), S. 19–30.

KAPITEL 3: ABSTAMMUNGSBILDER

KONSTRUKTIONSPRINZIPIEN

Florian Leese

Einleitung Bäume als Symbole und visuelle Metaphern werden seit der Antike in den verschiedensten Kulturkreisen und Kontexten genutzt. In den metaphorischen Darstellungen bilden die charakteristischen Teile eines Baums, d.h. Wurzeln, Stamm, Äste, Blätter und Früchte sowie ihre relative Anordnung, bestimmte Sachverhalte und deren Interdependenzen im übertragenen Sinne ab. In aller Regel stellt hierbei die vorgegebene Richtung der Baumtopologie, von der Wurzel zur Blattkrone, sowie die zunehmende Verzweigung des Baumes eine praktische Orientierungshilfe dar, an welcher der Betrachter die visualisierten Sachverhalte verorten und miteinander in Beziehung setzen kann. Stammbäume als explizit evolutionäre Diagramme der gemeinsamen Abstammung sind in fast allen wissenschaftlichen Teildisziplinen der modernen Biologie omnipräsent. Grund hierfür ist die Bedeutung der Evolutionsbiologie für alle Teildisziplinen des Fachs, oder, um mit Theodosius Dobzhanskys Worten zu sprechen: „Nothing in biology makes sense except in the light of evolution“.1 Alle Phänomene in der Biologie, von subzellulären Strukturen bis zu Ökosystemen, haben eine evolutionäre Historie und ihre jetzigen Ausprägungsformen können nur dann vollständig verstanden werden, wenn

75 Abstammungsbilder

UND ENTSTEHUNGSGESCHICHTE EVOLUTIONÄRER STAMMBÄUME

Florian Leese

76

eben diese Entstehungsgeschichte in die Interpretation miteinbezogen wird. Mit Hilfe des Baumes als visueller Metapher werden in der Evolutionsbiologie die häufig komplexen Abstammungshistorien von Organismen schematisch dargestellt. Wie wohl keine andere Abbildungsform vermögen Stammbäume den Verlauf dieser evolutionären Historie simplifiziert darzustellen. Entsprechend kommt der Verwendung von Baumsymbolen bei der Verbreitung der Evolutionstheorie, insbesondere im 19. und 20. Jahrhundert, eine wichtige Rolle zu. Als Grund für die Popularität von Baumsymbolen kann speziell in Europa die häufige Verwendung von Baumsymbolen bei der Darstellung familiärer Abstammungsfolgen in sogenannten Familien-Stammbäumen vermutet werden. Diese Stammbaumdarstellungen waren seit dem Mittelalter bekannt und als Symbole akzeptiert. In dem vorliegenden Beitrag sollen exemplarisch Konstruktionsprinzipien evolutionsbiologischer Stammbäume in verschiedenen Epochen analysiert werden. Hierbei soll speziell den Fragen nachgegangen werden, welche Vorteile die Darstellung von Abstammungs- bzw. Ordnungssystemen in Form von Baumdiagrammen aufweisen und inwiefern evolutionäre Stammbäume auf bekannte Elemente von Familienstammbäumen zurückgreifen. Abschließend soll, mit Blick auf die massive Datenexplosion in der modernen evolutionsbiologischen Forschung, der Stellenwert bzw. die Möglichkeiten von Stammbäumen bei der Visualisierung riesiger Datenmengen hinterfragt werden.

Familienstammbäume In Familienstammbäumen werden beobachtbare genealogische Tatsachen, d.h. Vorfahren-Nachkommen-Beziehungen innerhalb einer Familie über mehrere Generationen hinweg, in Form eines Baumes dargestellt. Prinzipiell geht eine solche Beschreibung auch ohne Visualisierungshilfen in Form eines Textes, wie die in der Bibel beschriebene Abstammungsfolge von Adam bis Noah belegt2; oder auch einfache Linien können diese Beziehungen aufzeigen. Trotzdem fin-

77 Abstammungsbilder

det man die Verwendung von Baum- bzw. Pflanzenstrukturen zur Darstellung genealogischer Hierarchien schon im Mittelalter.3 Die Visualisierungsstrategie, das kontinuierlich wachsende Familiengefüge in Form eines lebendigen Baumes darzustellen, ist denkbar geeignet, da die Familiengenerationen analog wie die Äste und Zweige im Baum sich weiter verzweigen und weiter wachsen. Hierbei lassen sich prinzipiell zwei verschiedene Verzweigungsmuster abhängig von der Perspektive darstellen: Soll die Abstammung einer bestimmten Person gezeigt werden (retrospektiv), so ist die Polarität von alt zu jung häufig von den Blättern (außen/oben) zum Stamm (innen/unten) gezeichnet. Wird ausgehend von einem Vorfahren die Nachkommenschaft visualisiert, so wird eben jener Vorfahr auf dem Stamm dargestellt, von dem aus nach außen/oben (stellvertretend für „rezent“) die Folgegenerationen ausgehen.4 Der Stamm des Baumes repräsentiert entsprechend den gemeinsamen Ursprung aller betrachteten Familienmitglieder. Haben zwei verschiedene Äste einen nur ihnen gemeinsamen Gabelpunkt, so ist eindeutig, dass es sich bei den zwei Ästen um Geschwister handelt, welche auf den gemeinsamen „Hauptast“, die Eltern, zurückzuführen sind. Entsprechend ist die bildliche Metapher eines Baumes geeignet, da sie auf bekannte und beobachtbare Grundmerkmale zurückgreift und keine speziellen Vorkenntnisse abverlangt. Hervorragend war die Nutzung des Motivs auch in anderer Hinsicht: Wie kaum ein anderes Symbol impliziert der Baum Wachstum, Fruchtbarkeit und die „alle Zeitalter überlebende Kraft eines Stammes“.5 Ein typisches Beispiel eines Familienstammbaums ist die Genealogie der venezianischen Familie Cornaro etwa aus dem Jahr 1700 (Abbildung 1). Der Stammbaum zeigt an der untersten Position am Stamm, d.h. an der Wurzel, den Vorfahr Marcus (Jahrgang 1365). Die unmittelbaren zwei Nachkommen von Marcus, Andreas und Georgius, hatten jeweils einen männlichen Nachkommen. Die erste Verästelung ist erst ausgehend von Marcus Fove (1479) zu finden. Sehr häufig wurde nur die männliche Linie in dem Baum dargestellt, d.h. die Linie der „Stammhalter“. Dies hatte den praktischen Nebeneffekt, dass selbst

Florian Leese

78

Abb. 1: Beispiel eines Familienstammbaumes um 1700. Hier sind die männlichen Abstammungslinien (mit einer Ausnahme) der Familie Cornaro ausgehend vom gemeinsamen Vorfahr MARCUS (1365) unten im Baum dargestellt. Die dargestellten Personen sind als kleine Gemälde in dem Baum plaziert und halten jeweils ihre Namen und Geburtsdaten in den Händen. Quelle: Klapisch-Zuber (2004).

79 Abstammungsbilder

in kinderreichen Familien die Komplexität des Baumes noch überschaubar blieb.6 Ein Rückgriff auf Familienstammbäume im metaphorischen Sinne findet man in den unterschiedlichsten Kontexten, um intrinsische Abhängigkeiten und Entwicklungstrends auch unbelebter Gegenstände zu verdeutlichen. So kann z.B. die Entstehung von Schriftarten ausgehend von der römischen Capitalis monumentalis in Form eines „Stammbaumes“ visualisiert werden (Abbildung 2). Dieser ist im Hinblick auf visuelle Konstruktionsprinzipien nahezu identisch mit dem in Abbildung 1 dargestellten Familienstammbaum. Ähnliche bzw. aufeinander folgende Schriften werden wie Geschwister bzw. Nachkommen jeweils benachbart gruppiert dargestellt. Unten in dem Baum ist für den Betrachter der allen Schriftarten gemeinsame Stamm zu sehen. Die Differenzierung in verschiedene Schriftarten mit der Zeit erfolgt von unten nach oben bzw. innen nach außen analog zum Familienstammbaum. Durch die kontinuierliche Abfolge und die Darstellung der Merkmalsänderungen entlang der Äste sowie zusätzlich durch Darstellung einer Person in für die Zeitepoche typischer Kleidung, wird es dem Betrachter ermöglicht, historische Entwicklungen und den Status der Person besser nachzuvollziehen. Auch wenn dieser Baum kein biologischer Stammbaum ist, so nutzt er die Symbole des Familienstammbaumes wie z.B. in Abbildung 1, um den räumlich-zeitlichen Verlauf der kontinuierlichen Schriftdifferenzierung ohne erklärende Worte darzustellen. Der Begriff „Stammbaum“ wird in diesem Kontext wiederum als Metapher eingesetzt, um die teils komplizierten und nicht leicht nachzuvollziehenden Entwicklungslinien bei der Schriftentwicklung analog der biologischen Abstammung darzustellen.

Florian Leese

80

Abb. 2: Visualisierung der Entstehungsgeschichte verschiedener Schrifttypen ausgehend von der römischen Capitalis monumentalis der Antike mit Hilfe eines Baumes.7 Zusätzlich zu den Schriftbeispielen wurden von dem Zeichner verschiedene Personen in für das Zeitalter/die Region charakteristischer Kleidung auf die Äste des Baumes gezeichnet. Diese präsentieren die Schriftbeispiele und liefern dadurch dem Betrachter intuitiv weitere Informationen zu der Zeitepoche, in der die Schrift genutzt wurde.

Ordnende Baumdarstellungen von der Antike bis zur frühen Neuzeit

81 Abstammungsbilder

Stammbäume zur Visualisierung evolutionärer Abstammungsbeziehungen und damit der Einordnung von Lebewesen in natürliche Kategorien wurden erst seit dem späten 19. Jahrhundert populär. Jedoch wurde bereits viel früher, schon in der Antike, nach Ordnungsprinzipien der belebten und unbelebten Natur geforscht. Von zentraler Bedeutung und bis ins 19. Jahrhundert weit verbreitet war die von Aristoteles postulierte Scala Naturae (Stufenleiter der Natur). Mit dieser wird der Übergang von unbelebter zu belebter Materie und schließlich zum Menschen durch klare lineare Strukturen beschrieben. Im Mittelalter wurde diese Stufenleiter über die Stufen verschiedener Engelhierarchien zu Gott weiter abstrahiert und explizit abgebildet.8 Visualisierungen der Scala Naturae aus der Antike sind nicht bekannt. Das Konzept, Bäume bzw. verzweigte Diagramme als bildliche Metaphern zu nutzen, um Ähnlichkeitsbeziehungen zwischen Organismengruppen darzustellen, kam vermutlich erst zu Beginn der Neuzeit auf, als Familienstammbäume bereits sehr populär waren.9 So wurden im 16. Jahrhundert Ähnlichkeitsbeziehungen zwischen Organismengruppen anstatt in Tabellen erstmals durch dichotome Verzweigungsmuster visualisiert (siehe Abbildung 3 für ein Beispiel). Die Verzweigungen hatten hierbei schlichtweg eine ordnende Funktion und grenzten bestimmte Organismengruppen von anderen ab, basierend auf Unterschieden in klar definierten phänotypischen Merkmalen. Mit Hilfe des dargestellten dichotomen Bestimmungsschlüssels von Gessner (Abbildung 3) konnten verschiedene Arten von Wasservögeln anhand des Schnabels (Rostro) bestimmt werden.10 Hierbei muss betont werden, dass es sich um kein evolutionäres Diagramm handelt, auch nicht um einen Rückgriff auf das Motiv der Familienstammbäume. Vielmehr war es schlicht ein Versuch, die als konstant begriffene Schöpfungsvielfalt nach eindeutigen und praktischen Aspekten zu ordnen und auch für weitere Leser oder Naturforscher erschließbar zu machen.11 Schon zu Zeiten Gessners wurde der enorme

Abb. 3: Conrad Gessners dichotomer Bestimmungsschlüssel „Ex Gallinulis Aquaticis, quas novimus, sunt“ von Watvögeln anhand eines dichotomen, baumartigen Diagramms aus dem Jahre 1585.13

Florian Leese

82

83 Abstammungsbilder

Form- und Facettenreichtum von Arten als Herausforderung und Problem erkannt, welchem nur durch einheitliche Schemata begegnet werden konnte.12 Ähnliche dichotom-diagrammartige Darstellungen wurden im 17. und insbesondere ab dem 18. Jahrhundert populär und sie waren häufig die einzig praktikable Lösung für die Forscher und Museen das Tier- und Pflanzenmaterial, welches in gigantischen Mengen durch die zahlreichen naturkundlichen Expeditionen herbeigebracht wurde, zumindest weitgehend einheitlich zu kategorisieren. Wie erwähnt spielten bei dem Diagramm von Gessner wie auch bei anderen dichotomen Diagrammen zur Ordnung der biologischen Vielfalt Bäume als Vorbild vermutlich keine Rolle. Die Verzweigung der Strichzeichnungen folgte eher einem pragmatischen, systematisch-ordnenden Ansatz. In der Retrospektive lassen sich jedoch bei diesen Darstellungen zunehmend offensichtliche Ähnlichkeiten erkennen, da auch moderne Stammbäume auf Ähnlichkeiten basieren und oft dichotome Verzweigungen nutzen. Die Verwendung der Metapher eines Baumes für die Beschreibung von Abstammungsprozessen ist vermutlich erst im 18. Jahrhundert zu finden. So stellte Charles Bonnet in seiner Contemplation de la Nature die Frage nach spezifischen Verwandtschaften von Insekten und Mollusken und nutze hierfür die Analogie zu den Strukturen eines Baumes: „Les Insectes & les Conquillages seroient-ils deux branches latérales & paralleles de ce grand Tronc?“.14 Gleichermaßen bediente sich der Naturforscher Peter Simon Pallas bei der Suche nach bildlichen Analogien für das zugrundeliegende Ordnungssystem der Natur der Baumanalogie in seinem russischen Werk Elenchus Zoophytoru: „Unter allen übrigen bildlichen Vorstellungen des Systems der organischen Körper würde es aber wohl die beste sein, wenn man an einem Baum gedächte, welcher gleich von der Wurzel an einen doppelten, aus den allereinfachsten Pflanzen und Thieren bestehenden, also einen thierischen und vegetabilischen, aber doch verschiedentlich aneinander kommenden Stamm hätte“.15 Visualisierungen dieser schriftlich formulierten Ordnungsprinzipien von Bäumen waren jedoch bis zur zweiten

Florian Leese

84

Abb. 4: Klassifikation verschiedener Hauptgruppen tierischer Organismen (römische Zahlen an den Ästen) nach Eichwald (1829), vermutlich basierend auf dem Konzept von Pallas (1766). Es handelt sich hierbei jedoch ebenfalls um die Einteilung der von Gott erschaffenen Vielfalt nach Ähnlichkeit und nicht um einen evolutionären Stammbaum. Siehe Ragan (2009) für weitere Details.

85 Abstammungsbilder

Hälfte des 19. Jahrhunderts selten. Eine erste Visualisierung der von Pallas beschriebenen Einteilungen erfolgte im Jahr 1829 durch Carl Edward von Eichwald, welcher den Stammbaum tierischen Lebens in seinem Werk „Zoologia specialis“ zusammengefasst darstellte (Abbildung 4). Ob Eichwald hierbei tatsächlich explizit den von Pallas formulierten Verwandtschaftszusammenhang abbilden wollte, ist unklar. Interessant an der Baumdarstellung ist jedoch, dass ein gemeinsamer Ursprung aller Äste eben nicht zu sehen ist. Es sind vielmehr viele parallele Teilstämme einer blattlosen Baumchimäre zu sehen, welcher vor einer imposanten Himmelskulisse steht. Ragnan (2009) vergleicht dieses Bild mit zahlreichen Spargel-Schösslingen,16 die ohne wirkliche Verzweigungen nebeneinander wachsen. Es ist nicht unwahrscheinlich, dass das modifizierte Baummotiv und seine Kulisse bewusst verwendet wurden, um auf die vermutete göttliche Schöpfung der Vielfalt des Lebens hinzuweisen. Ein evolutionärer Gedanke kann jedenfalls nicht erkannt werden, eher eine lineare Entwicklung distinkter Schöpfungseinheiten (Teilstämme), die mit römischen Nummern klassifiziert wurden.17 Es muss erwähnt werden, dass insbesondere zu Beginn des 19. Jahrhunderts neben Diagrammen und Bäumen auch weitere, häufig beeindruckende geometrische Ordnungssysteme genutzt wurden, um Konzepte für die Einteilung der Organismen basierend auf ihren offensichtlichen Ähnlichkeiten zu visualisieren.18 Die wesentlichen Grundlagen für den Erfolg der evolutionären Abstammungstheorie und deren Visualisierung am Beispiel von Baumdarstellungen wurden zu Beginn des 19. Jahrhunderts gelegt. Eine zentrale Antriebskraft waren die enormen Fortschritte in der Paläontologie. In klar getrennten Gesteinsschichten konnten Paläontologen systematisch die Archive der vergangenen biologischen Vielfalt einsehen und dabei Organismen identifizieren, die große Ähnlichkeiten mit rezenten Organismen aufwiesen. Hierdurch erfolgte der Beleg, dass heutige Organismen auch – wenngleich häufig modifiziert – bereits in früheren Erdzeitaltern existierten. Diese Beziehungen wurden in häufig eindrucksvollen geo-

Florian Leese

86

Abb. 5: Der Mensch als die Krone des Tierreichs – so kann dieses geologische Stammbaumschema von Hitchcock (1840) gedeutet werden. Die horizontalen Linien begrenzen die geologischen Epochen. Die Farben verdeutlichen die unterschiedlichen Organisationsformen tierischen Lebens. Die blauen Verzweigungen links im Bild stellen die „Vertebral Animals“, d.h. die Wirbeltiere dar, von denen der Mensch die Krone der Säugetiere („Mammalia“) darstellt.

87 Abstammungsbilder

logischen Tafeln visualisiert, in welchen das Auftreten der Organismengruppen in verschiedenen Erdepochen (dargestellt durch horizontale Ebenen von unten (= alt) nach oben (= jung)) dargestellt wurde. Häufig wurde hierbei über die Dicke der Äste die Dominanz unterschiedlicher Tiergruppen in den Epochen hervorgehoben (Abbildung 5). Es ist wichtig zu betonen, dass den dargestellten Entwicklungslinien zunächst kein evolutionäres Konzept im Sinne einer gemeinsamen Abstammung zugrunde lag. Im Gegenteil, in dem in Abbildung 5 dargestellten geologischen Schaubild von Hitchcock (1840) wurde die spezielle Bedeutung des Menschen in dem von Gott geschaffenen System hervorgehoben, in dem auf die Gruppe der Säugetiere (Mammalia) eine Krone eingezeichnet wurde. Auch wenn Hitchcock nicht explizit das Symbol eines Baumes nutzte, so hat die Abbildung doch große Ähnlichkeit mit einer Pflanze samt Wurzeln. Ähnlich wie bei dem Baumhybriden von Eichwald (Abbildung 4) gibt es mehrere Entstehungspunkte (stellvertretend für Schöpfungen) und lange parallele Entwicklungslinien von Organismengruppen. Diese werden mit Hilfe unterschiedlicher Farben deutlich voneinander getrennt dargestellt. Wenn auch kein evolutionärer Gedanke bei der Generierung der Tafel intendiert war, so war der Schritt von dem geologischen Schaubild, an welches explizit eine Zeitachse angelegt war, zu einem evolutionären Stammbaum nur ein kleiner: Durch die von Darwin postulierten Prozesse der Arttransformation konnte die Abbildung bzw. die hinter den Verzweigungen vermuteten Prozesse im Schaubild von Hitchcock vollkommen anders interpretiert werden. Ob dies ein Grund war, weshalb Hitchcock diesen Baum nach der Veröffentlichung von Darwins Werk aus dem Jahre 1859 aus der Neuauflage seines Bands entfernte, kann nicht ausgeschlossen werden.19

Stammbäume seit Darwin

Florian Leese

88

Wie gezeigt existierten Baumsymbole zur Darstellung organismischer Gruppierungen und ihres geologischen Auftretens seit dem frühen 19. Jahrhundert. Erst mit dem aufkommenden Evolutionsgedanken in der zweiten Hälfte des 19. Jahrhunderts wurden die baumartigen Visualisierungen jedoch explizit dafür verwendet, den gemeinsamen Ursprung von Organismen, inklusive des Menschen, und deren Stammesgeschichte abzubilden.20 Darwin wird häufig als der Vater der modernen Evolutionstheorie und des Begriffs „Tree of Life“ genannt. Stammbäume selbst spielten aber zumindest in Darwins veröffentlichten Werken nur eine marginale Rolle. Nur einen Baum veröffentliche Darwin in seinem Werk von 1859 (Abbildung 6 unten). Dieser Stammbaum ähnelte ferner keinem Baum im engeren Sinne, sondern stellte ein abstraktes Liniendiagramm dar. Dass Darwin jedoch skizzierte Stammbaumdarstellungen häufig nutze, um seine Gedanken zur Merkmalstransformation und zur Verwandtschaft von Organismengruppen zu verdeutlichen, belegen eindrucksvoll Abbildungen in seinen Notizbüchern (z.B. Abbildung 6 oben). Zahlreiche oft mehrfach modifizierte und beschriebene Skizzen lassen auf die Erkenntnisprozesse schließen, die Darwin während seiner Untersuchungen am Expeditionsmaterial zwischen 1837 bis 1859 hatte und unmittelbar mit oder an den Baumskizzen gewann.21 Auch wenn Baumabbildungen rar waren, bemühte Darwin die Metapher des Baumes bei der sehr umfangreichen Beschreibung der Prozesse, welche zu einer Änderung von Arten im Laufe der Zeit führten, vermutlich auch deshalb, weil genau diese Verzweigungsmuster bereits in weiteren, v.a. geologischen Abbildungen zu finden waren. Eine auffällige Ähnlichkeit von Darwins skizzierten Strich-Bäumen mit den zu dieser Zeit omnipräsenten Familienstammbäumen kann nicht gefunden werden. Vielmehr ähneln Darwins Skizzen stark den modernen Kladogrammen, in welchen Baumelemente nur schematisiert verwendet werden. Die Prozesse, die Darwin in seinem Werk von 1859 beschreibt, sind jedoch Prozesse,

Abstammungsbilder

89

Abb. 6: Darwins „Stammbäume“ aus seinem Notizbuch von 1937 (oben) und dem berühmten Werk „On the Origin of Species“ (1859). Darwin war einer der ersten Wissenschaftler, die ein auf Abstammung und Selektion basierendes Abstammungssystem aller Organismen postulierten. In seinen Abbildungen wir deutlich, dass Organismen gemeinsame Vorfahren (Knotenpunkte) haben, dass diese sich mannigfaltig verzweigen (Artbildung) und auch aussterben können. Insbesondere in der Abbildung aus dem Jahr 1859 wird die zeitliche Komponente gerichtet von unten nach oben mit Artbildungsprozessen zu bestimmten Zeitpunkten (I – XIV) dargestellt.

Florian Leese

90

die explizit in Genealogien abzubilden gewesen wären (natürliche Zuchtwahl über Generationen hinweg). Die bildliche Metapher eines Stammbaumes kann somit nicht als das revolutionäre22 Produkt von Darwins Werk angesehen werden, sondern vielmehr seine postulierten biologischen Prozesse der Anpassung von Merkmalen in Populationen mit der Zeit. Diese zeitabhängigen biologischen Prozesse, d.h. die Generierung neuer Formen und Arten im Laufe der Erdgeschichte, waren Kern des Evolutionsgedankens – und dieser ließ sich hervorragend in Form verzweigter Baumdiagramme visualisieren bzw. in bestehenden Abbildungen wie der von Hitchcock (Abbildung 5) wiederfinden. Darwin nutze die Visualisierungen als visuelle Hilfsmittel, um vor dem Hintergrund der ihm bekannten Erkenntnisse auf den Gebieten der Paläontologie, Morphologie, Systematik sowie der Biogeografie sein Konzept der Merkmalstransformation zu entwickeln. Die zahlreichen Notizen und Fragen an den Ästen der Baumdiagramme belegen die Bedeutung dieser Visualisierungen für Darwin bei der Entwicklung seiner Theorie über Abstammungsprozesse, auch wenn sie in seinen populären Werken selten waren.23 Stammbäume als visuelle Metaphern für eine breitere wissenschaftliche Öffentlichkeit gewannen erst in der Folgezeit an Bedeutung. In Deutschland erfolgte dies insbesondere durch Ernst Haeckel. Haeckel konnte qualitativ exzellente Darstellungen von Stammbäumen produzieren, welche die Verwandtschaft von Organismengruppen einfach und eingängig vermittelten. Haeckel nutzte hierfür den Rückgriff auf den Familienstammbaum. So findet man z.B. in dem berühmten Werk „Anthropologie“ von 1874 die große Eiche, auf der die Abstammungslinien nachgezeichnet sind (Abbildung 7). Die Popularität des Baumes auch zu Haeckels Zeit wird sicher auch darauf zurückzuführen sein, dass Haeckels Stammbaum implizit eine Gewichtung der Organismen nach ihrem Entwicklungszustand ermöglicht. So sind ganz unten die Urtiere zu finden und zuoberst, quasi als „Baumkrone“, der Mensch. Dieses visuelle Element ist entsprechend zunächst nicht unähnlich der geologischen Schautafel von Hitchcock (Abbildung 5) und von Haeckel sicherlich be-

Abstammungsbilder

91

Abb. 7: Der berühmte „Stammbaum des Menschen“ von Ernst Haeckel (1874). In dem evolutionären Baum, der eine gemeinsame Abstammung allen Lebens implizit postuliert, ist der Mensch an die höchste Stelle gesetzt, ein Ausdruck, der sowohl zur teleologischen Weltanschauung Haeckels als auch in die vieler Zeitgenossen passte. Aus: Anthropogenie oder Entwicklungsgeschichte des Menschen, 1. Auflage (1874).

Florian Leese

92

wusst eingesetzt.24 Trotzdem war Haeckels Baum ein explizit evolutionsbiologischer Baum, welcher klar einen gemeinsamen Ursprung allen Lebens nach Darwins Gesetzmäßigkeiten postulierte. Die Zusammenhänge wurden nur erheblich intuitiver und verständlicher als in den Baumgrafiken von Darwin dargestellt, indem eben kein abstraktes Liniendiagramm, sondern ein organisches Bild eines Baumes analog den bekannten Familienstammbäumen genutzt wurde. Viele der Visualisierungen von Stammbäumen durch Ernst Haeckel und andere Zeitgenossen zeigten jedoch keine wissenschaftlichen Belege zur Unterstützung der Richtigkeit der dargestellten Verzweigungen. Vielmehr musste der Betrachter den Darstellungen glauben oder sich intensiv mit der wissenschaftlichen Lektüre beschäftigen. Dies änderte sich fundamental zu Beginn des 20. Jahrhunderts. Hier wurden häufiger neue visuelle Möglichkeiten genutzt, um für den Betrachter bekannte Sachverhalte (Stammbaum) mit neuen wissenschaftlichen Belegen (z.B. Anordnung von Knochen im Schädel) zu kombinieren und dadurch logische Entwicklungslinien zu zeigen. Besonders eindrucksvoll (wenngleich nicht immer richtig) sind die Beispiele von William King Gregory (siehe Abbildung 8). Sie besaßen ob ihrer Verbindung verschiedenster zeitlicher und räumlicher Ebenen (Geologie und Geographie) sowie der Filterung der als relevant für die Begründung von Abstammungsgemeinschaften befundenen Merkmale (Form, Anzahl) eine enorme Überzeugungskraft. Wie kein Wissenschaftler zuvor versuchte Gregory wissenschaftliche Evidenz durch seine Visualisierungen zu erzeugen.25 Er überführte die von ihm anhand morphologischer Untersuchungen gewonnenen Erkenntnisse in Stammbäume und platzierte – quasi als Beweis für die reale Existenz der durch die Äste symbolisierten Abstammungs- und Transformationslinien – Abbildungen der morphologischen Strukturen und erklärende Stichworte an die Stammbaumlinien. Zudem ergänzte er die Polarität (alt vs. neu) im Stammbaum häufig durch Einzeichnen geologischer Zeitskalen (wie auch schon bei Hitchcock 1840), so dass die Stammbäume explizit Chronogramme wurden, in denen über Fossilien und ihre Merkmale explizite Kalibrierungspunkte gesetzt wurden.

Abstammungsbilder

Abb. 8: Stammbaum der Wirbeltiere, abgeleitet anhand von Ähnlichkeiten der Schädelöffnungen. Ähnlich wie bei den geologischen Tafeln nutzte Gregory die Einteilung in Erdzeitepochen und platzierte aus fossilen Funden bekannte Schädelmuster unten am Baum (=alt).25 93

Florian Leese

94

Der Stammbaum aus dem Jahre 1951 (Abbildung 8) zeigt die Ähnlichkeiten in der Schädelanatomie von Wirbeltieren, basierend auf der Größe und Anordnung von Schädelknochen und insbesondere -öffnungen. Der Stammbaum zeigte somit nicht nur, welche Arten näher miteinander verwandt waren, sondern über die Anordnung der relevanten morphologischen Strukturen im Baum selbst sollte der Baum explizit die Beweise für dessen Richtigkeit liefern. So schrieb Gregory an die Äste von ihm vermutete Prozesse (z.B. den Verlust oder die Reduktion bestimmter Strukturen). Gregory komprimierte dadurch auf eindrucksvolle Weise einen höchst komplexen evolutionären Sachverhalt in nur einer Darstellung.

Evolutionäre Stammbäume im 20. Jahrhundert Stammbäume wie jener von Gregory (Abbildung 8) fassten relevante Informationen über Abstammungsprozesse und ihre zeitliche Sukzession überzeugend zusammen. Auch wenn sie nicht komplett selbsterklärend waren, so konnten sie mit nur geringer Zusatzinformation begriffen werden. Die hinter den Ästen vermuteten Prozesse kontinuierlicher Fortpflanzung über Generationen mit gleichzeitiger Merkmalstransformation (Mutation, genetische Drift) blieben hier jedoch abstrakt. Den wohl eindringlichsten Versuch, die Stammesgeschichte nach klar definierten, evolutionären Regeln zu rekonstruieren, unternahm Willi Hennig. In seinem bekannten Werk „Phylogenetic Systematics“ (1966) formulierte Hennig einheitliche Kriterien für die Ordnung von Organismen nach Verwandtschaft. Hennig versuchte die in Familienstammbäumen dargestellten Prozesse explizit mit evolutionären Stammbäumen zu verbinden. An Beispielen „vergrößerte“ er quasi die Ausschnitte von Stammbaumlinien (Abbildung 9), um explizit darzustellen, wofür diese auch im evolutionären Stammbaum stehen sollen: kontinuierliche Vorfahren-Nachkommen-Beziehungen innerhalb von Populationen sich natürlich fortpflanzender Individuen (sog. tokogenetische Beziehungen). Ein Ast steht nach der

Abstammungsbilder

95

Abb. 9: In der Abbildung „The process of species cleavage“ verdeutlicht Hennig26 den Zusammenhang zwischen Familienstammbäumen und evolutionären Stammbäumen. Die Arten B und C gehen als Linien auf ihren gemeinsamen Vorfahren A zurück (obere Abbildung). Hinter den beiden Linien verbergen sich komplizierte Veränderungen in dem Populationsgefüge, welches ursprünglich die Art A darstellte. Männliche und weibliche Organismen (dargestellt als weiße und schwarze Kreise) erzeugen Nachkommen (aufeinander aufbauende Reihen). Nach sechs Generationen (d.h. sechste Reihe von unten) findet jedoch eine Veränderung statt, dargestellt durch den schraffierten Keil. Die Populationen links und rechts im Stamm der Art A können nicht mehr miteinander Nachkommen erzeugen (genetische Isolation). Dadurch entstehen über die Zeit hinweg zwei neue Arten B und C aus der Stammart A. Häufig wurden und werden geographische Trennungen als Ursachen für solche Artbildungsprozesse gesehen. Das bedeutet, dass räumliche Barrieren als Ursache der Trennung mit dem Keil symbolisiert werden.

Florian Leese

96

Abb. 10: Die Verbindung zwischen Individuen (A) und ihrer unmittelbaren Abstammung (B) über Familien- und Populationsstammbäume (CE) hin zum Stammbaum von Arten (F) ist ein kontinuierlicher Prozess über lange Zeiträume. In der Darstellung werden von unten nach oben jeweils kleine Zeiträume vergrößert. Hierdurch ist es möglich in einer Darstellung vom Familienstammbaum (oben) auf den evolutionären Stammbaum (unten) zu schließen.27

Abstammungsbilder

97

Abb. 11: Stammbaum verschiedener Affenarten und des Menschen basierend auf genetischen Distanzdaten aus dem Jahr.28

Darstellung von Hennig stellvertretend für den Prozess der Weitergabe des Erbguts über eine Generation. Diese unmittelbare Anlehnung der Stammbäume auf dem IndividuenNiveau (entsprechend den Familienstammbäumen) und das graduelle „Herauszoomen“ wurde in der Folgezeit durch zahlreiche Autoren aufgegriffen und ist in vielen Standardwerken der Evolutionsbiologie zu finden (Abbildung 10). Insbesondere seit den 1970er Jahren wurden Stammbaumrekonstruktionen in der Biologie sehr beliebt. Viele der Stammbäume wurden anhand von Merkmalstabellen z.B. über die genetische Verwandtschaft mit Hilfe neuer mathematischen Algorithmen standardisiert erstellt. Waren bis in die Mitte des 20. Jahrhunderts noch aufwändige Baumdiagramme weit verbreitet, so wurden diese zunehmend durch sehr schlichte und häufig rechtwinklige Kladogramme abgelöst (Abbildung 11). Diese wurden, wie in Abbildung 11

Florian Leese

98

am Beispiel des Stammbaums der Affen, zudem seltener in der Ausrichtung von unten nach oben als von links nach rechts dargestellt. Dies hatte den einfachen Grund, dass so die Namen der Organismen einfacher an den Astenden gelesen werden konnten. Neben den Informationen über die zeitliche Abfolge von Aufspaltungsereignissen von Arten und Artengruppen enthielten die Stammbäume nun häufig ein weiteres explizit informatives Element: die Astlänge. Endeten ehemals alle heute lebenden Organismen auf einer Ebene und spiegelten weiter basal (d.h. meist unten) im Stammbaum dargestellte Organismen ausgestorbene Formen wider, so war die Astlänge nun proportional zu der Anzahl der Merkmalsunterschiede. Als Maßstab für die Astlänge wurde in den Stammbäumen zur Interpretation eine Skala an die X-Achse angelegt (s. Abbildung 11) oder eine explizite Maßstabsreferenz eingezeichnet.

Von Stammbäumen zu „Superbäumen“ und evolutionären Netzwerken Die Rekonstruktion von Verwandtschaftsbeziehungen hat in den letzten drei Jahrzehnten eine Revolution erfahren. Verantwortlich dafür waren methodische Fortschritte in der Molekularbiologie, der Sequenziertechnologie, sowie insbesondere die Tatsache, dass sich nunmehr zahlreiche Forschergruppen der Thematik widmeten. Neue analytische Verfahren wurden entwickelt, um Stammbäume zu rekonstruieren. Einerseits werden die Bäume genutzt, um Organismengruppen gemäß ihrer natürlichen Abstammung nach den Prinzipien von Hennig zu ordnen. Andererseits wurden sie als Hilfsmittel verwendet, um die Entstehung und Funktion von Molekülen, Zellen und Organsystemen zu verstehen. Durch die exponentielle Zunahme der Daten zur Berechnung von Stammbäumen in der Biologie wurde bzw. wird die Darstellung aller Evidenzen in Form zweidimensionaler, schlichter Kladogramme zunehmend eine Herausforderung. Dies wird eindrucksvoll an einem rezenten Stammbaum der Vögel aus der Zeitschrift Nature deutlich

Abb. 12: Stammbaum der Vögel aus dem Jahre 2012. In der radialen Darstellungsweise wurden zusätzlich Farben an den Ästen des Baumes genutzt, um die Diversifizierungsrate darzustellen.29

99 Abstammungsbilder

(Abbildung 12). Die Autoren berechneten einen Stammbaum für knapp zehntausend Vögel. Diesen stellten sie in einer radialen Form dar und beschrifteten nicht mehr jede einzelne Art, sondern fassten Arten zu übergeordneten Gruppen zur besseren Übersicht zusammen. Zudem nutzten die Autoren unterschiedliche Farben, um die evolutionären Diversifizierungsraten abzubilden (blau für langsam und rot für schnell, eine erklärende Skala ist zudem zentral angebracht; Abbildung 12). Mit der Form eines Baumes hat die Darstellung nicht mehr viel zu tun. Der Baum ist in einer radialen Form dargestellt, was es dem Betrachter

Florian Leese

100

ohne Vorkenntnisse erschwert, eine klare Richtung zu erkennen. Selbst mit Vorkenntnissen ist es nicht einfach, Verwandtschaftsgruppen zu lokalisieren oder Abstammungspunkte zu erkennen. Zur Vereinfachung wurden schwarze und graue Teilstriche angebracht, um übergeordnete Gruppierungen zusammenzufassen und diese wurden am Rande beschriftet. Ferner wurden über mit Buchstaben versehene Tortendiagramme Informationen zu Verzweigungspunkten im Baum eingebracht. Der direkte Erkenntnisgewinn des riesigen Baumes erschließt sich ob der Fülle der visuellen Informationen nicht unmittelbar und für Personen ohne Vorkenntnissen unter Umständen gar nicht. Zunehmend wird daher insbesondere in Lehrbüchern auch auf alte visuelle Elemente zurückgegriffen, welche die Darstellungen des Stammbaumes des Lebens erheblich plastischer vermitteln können. In dem Stammbaum von Leonard Eisenberg (Abbildung 13) wird ähnlich wie bei dem Stammbaum von Hitchcock aus dem Jahr 1860 wieder ein Farbelement genutzt, um Hauptgruppen im Stammbaum zu unterscheiden (wie schon bei Hitchcock 1840, siehe Abbildung 5). Es werden ovale Linienelemente genutzt, um einen expliziten geologischen Kontext zu erzeugen. Dieser geologische Kontext wurde geschickt mit Hilfe einer spiegelsymmetrischen Zeitskala auf der X-Achse angebracht. Auf dieser stellen die jeweils äußeren Bereiche die Gegenwart und die inneren Bereiche die Vergangenheit dar. Wichtige geologische Ereignisse sind in dem Baum kommentiert. So sind die fünf Massenaussterbeereignisse („Mass extinctions“) ebenso eingezeichnet wie die Kambrische Explosion („Cambrian Explosion“), in deren Kontext es zu einer rasanten Zunahme der Artendiversität auf der Erde kam. Durch neue Entwicklungen auf dem Gebiet der Bioinformatik können zudem heute verschiedenste Stammbäume kombiniert werden. Die dadurch entstehenden „Superbäume“ liefern entscheidende neue Erkenntnisse bei der Erforschung des hochkomplexen Stammbaums des Lebens. Gleichzeitig erfordern sie verstärkt wieder den Rückgriff auf alte Elemente in der Baumvisualisierung wie der Färbung und dem Anbringen zusätzlicher Visualisie-

rungshilfen im Baum selbst, um die immer komplexer verzweigten Baumtopologien besser darzustellen und somit den Informationsgewinn auch wieder einer breiteren Öffentlichkeit zu vermitteln.

Fazit Evolutionäre Stammbäume sind heute innerhalb der Lebenswissenschaften omnipräsent. Eine Ähnlichkeit zu dem traditionellen Baumsymbol ist jedoch nur noch selten zu finden und auch nicht mehr nötig. Abstrakte Strichdiagramme und riesige „Superbäume“ dominieren das Bild und sind als Visualisierungshilfen für die komplexen Zusammenhänge bei der Kommunikation über das Thema geeignet und bekannt. Bei der Entwicklung der Evolutionstheorie jedoch wurde das Symbol des Baumes häufig gezielt genutzt, teils mit Rückgriff auf die seit dem späten Mittelalter populären und allgemein bekannten Familienstammbäume, teils durch Elemente geologischer Schautafeln. Geschickt arrangierten

101 Abstammungsbilder

Abb. 13: Halbradiale Darstellung des Stammbaumes des Lebens. Durch die Farbgebung ist eine einfache Einteilung in die verschiedenen Hauptgruppen einfach möglich. Zusätzlich wurden nicht alle terminalen Organismengruppen, sondern nur Hauptvertreter aus Gründen der Übersichtlichkeit dargestellt. Mit Hilfe von kleinen Abbildungen wurden prominente ausgestorbene Vertreter im Stammbaum dargestellt.

und nutzten verschiedenste Autoren insbesondere seit der zweiten Hälfte des 19. Jahrhunderts visuelle Elemente im Kontext von Baumdarstellungen, um die Evidenz für eine bestimmte evolutionäre Abstammung explizit zu verdeutlichen und eine visuelle Beweisführung zu ermöglichen.

Anmerkungen

Florian Leese

102

1 Theodosius Dobzhansky, Nothing in Biology Makes Sense Except in the Light of Evolution, in: American Biology Teacher 35 (1973), S. 125–129. 2 Siehe hierzu: 1 Mose, 5; Matthäus 1, 2. 3 Siehe „On the origins of the trees of life“ in: J. David Archibald, Aristotles’s Ladder, Darwin’s Tree. The Evolution of visual metaphors for biological order, New York 2014. 4 Es gibt jedoch auch verschiedenste Modifikationen der Visualisierungsstrategien, so werden z.T. die Bäume auch umgedreht oder die Vorfahren in das Wurzelwerk des Baumes eingezeichnet. Für Beispiele siehe Christiane Klapisch-Zuber, Stammbäume: Eine illustrierte Geschichte der Ahnenkunde, München 2004. 5 Ebd., S. 37. 6 In dem dargestellten Baum (Abbildung 1) stellt eine Frau unten rechts, Catherina Regina, die Ausnahme dar. Sie ist als Ehegattin von Jacob Eusignanus Rex Cipri in dem gleichen Textfeld gelistet. Die Krone auf ihrem Kopf sowie der Titel Rex sowohl bei dem Ehegatten sowie dem Nachkommen weisen auf eine Einheirat in eine herrschaftliche Familie hin. 7 Stammbaum der Schrift der Bauerschen Gießerei, Frankfurt am Main zum 100-jährigen Bestehen. Fotografie eines Abdrucks des Freilichtmuseums Hagen. 8 Für Beispiele siehe Theodore W. Pietsch, Trees of Life: A visual history of evolution, Baltimore 2012, S. 5–6. 9 Für eine ausführliche Diskussion über die Ursprünge von Bäumen als visuelle Metaphern in der Antike siehe Archibald 2014, Kapitel 2 „The roots of the tree of life“. 10 Zum Beispiel: Schnabel gerade (recto) oder mäßig gekrümmt (modice inflexo); wenn mäßig gekrümmt, dann länger (longiore) oder kürzer (breviore) etc. 11 Siehe Katharina Springer, „De aviium natura“ von Conrad Gessner (1516–1565) als Quellenwerk für Faunendynamik, Umweltgeschichte und Kulturzoologie, Rostock 2007, S. 69f. 12 Der italienische Botaniker Cesalpino brachte diese Notwendigkeit in dem Vorwort zu seinem Werk De plantis libri (1583) eindrucksvoll zum Ausdruck: „Bei dieser unermeßlichen Vielfältigkeit der Pflanzen halte ich für unverzichtbar, was bei jeder ungeordneten Menge am meisten

14

15

16 17 18 19 20

21 22 23

24 25 26 27 28

29

103 Abstammungsbilder

13

angestrebt zu werden pflegt. Wird eine solche Masse nicht ebenso wie die Schlachtreihe einer Armee in Abteilungen gebracht, so wird das Ganze notwendig durch Tumult und Schwankungen verwirrt. Dies sehen wir sich bei der Botanik ereignen (...) durch unklare Bestimmung der Gattungen muss alles konfus werden.“ Zitiert nach Wolfgang Lefèvre, Die Entstehung der biologischen Evolutionstheorie, Frankfurt a.M. 2009, S. 222. Conrad Gessner, Historia animalium liber III, qui est de avium natura. Nunc denuo recognitus ac pluribus in locis emendatus, multisque novis iconibus & descriptionibus locupletus, Frankfurt a. M. 1585. Stellen die Insekten und Weichtiere zwei laterale oder parallele Äste des großen Stammes dar? Charles Bonnet, Contemplation de la Nature, Vol. 2, Amsterdam 1764. Siehe Übersetzung in Peter Simon Pallas, Charakteristik der Thierpflanzen: worin von den Gattungen derselben allgemeine Entwürfe, und von denen dazu gehörigen Arten kurtze Beschreibungen gegeben werden; nebst den vornehmsten Synonymen der Schriftsteller, Nürnberg 1787. Mark A. Ragan, Trees and networks before and after Darwin, in: Biology Direct, 4/43 (2009), S.5. Ebd. Siehe Pietsch 2012, S. 23–25. Siehe Archibald 2014. Auch Jean Baptiste de Lamarck hatte bereits im Jahr 1809 eine erste Skizze eines Stammbaumes veröffentlicht. Diese blieb jedoch zu der Zeit weitgehend unbeachtet, ebenso wie die von Lamarck postulierten ersten Ideen einer Evolution. Siehe Lefèvre 2009 für eine exzellente Diskussion. Siehe Diskussion in Julia Voss, Darwins Bilder. Ansichten der Evolutionstheorie 1837–1874, Frankfurt a.M. 2007 u. Archibald 2014. Zur Diskussion des Begriffs „Revolution“ in diesem Kontext siehe Lefèvre 2009, S. 294ff. Siehe Ebd.; es muss zudem betont werden, dass neben Darwin auch weitere Forscher, insbesondere Wallace, unabhängig nahezu zu den identischen Schlüssen der Merkmalstransformation kamen. Haeckel vertrat die Ansicht einer „Biologischen Teleologie“ d.h. der kontinuierlichen Entwicklung zu größerer Vollkommenheit. Siehe William King Gregory, Evolution emerging: A survey of changing patterns from primeval life to man, Vol. 1, New York 1951. Hennig, W. (1966) Phylogenetic Systematics. Univ. Illinois Press, Urbana. David Baum, Reading a phylogenetic tree: The meaning of monophyletic groups, in: Nature Education 1 (1) 190 (2008). Hayasak, K. Gojobori, T. Horai, S (1988): Molecular phylogeny and evolution of primate mitochondrial DNA. Molecular Biology and Evolution, 5: 626–644. Jetz, W., Thomas G.H., Joy J.B., Hartmann K. & Mooers, A.O. (2012): Diversification across the avian tree. Nature 491, 444–448.

KAPITEL 4: PROJEKTIONSBILDER

DIE BEDEUTUNG DES BEOBACHTERS IN DER PHYSIK Alex Greilich

Einleitung Als eine der Naturwissenschaften versucht die Physik die Gesetzmäßigkeiten der Natur möglichst genau zu verstehen und zu beschreiben. Dabei reduziert sie die komplexen physikalischen Phänomene auf wenige Eigenschaften oder Basisgrößen, stellt die Gesetzmäßigkeiten zwischen diesen in Form eines Modells dar und beschreibt sie durch mathematische Gleichungen. Diese Gleichungen können in der Regel graphisch dargestellt werden und vereinfachen die Beschreibung und Wahrnehmung der Phänomene. In dieser Hinsicht nimmt die Visualisierung in der Physik eine wichtige Rolle ein. Diese Art der Visualisierung bezeichnen wir hier als die beschreibende oder klassische Visualisierung. Alternativ könnte man behaupten, dass die Beobachtung und Experimente, die der mathematischen Beschreibung voran stehen und Teile der empirischen wissenschaftlichen Methode sind, auch eine Visualisierung darstellen. Bei der Beobachtung der Naturphänomene beschäftigt sich unser Bewusstsein nicht mit der realen Welt, sondern mit ihrer Projektion auf unsere Sinnesorgane beziehungsweise deren künstliche Erweiterung – physikalische Messgeräte. Dabei verzerren und vergröbern wir unausweichlich das der Messung zugrunde liegende Phänomen. Einiges wird vernachlässigt und anderes erfunden. Die Welt existiert nicht in der Form, in der wir sie empfinden. Wir erschaffen uns zunächst

Projektionsbilder

107

Alex Greilich

108

ein gedankliches Bild durch die beobachteten Phänomene mit Hilfe unseres Denkens. Dieser Prozess hängt maßgeblich davon ab, mit welchem Wissen wir vorbeladen sind. Ist unser Bewusstsein unvorbereitet, so können wir bestimmte relevante Phänomene nicht wahrnehmen, so als ob diese nicht existierten. Nur langsam, mit der zunehmenden Ansammlung, Vernetzung und Filterung des Wissens, entsteht eine präzisere Form, die nicht von unserer Wahrnehmung abhängt. Dies ist eine Visualisierung im größeren Sinne und wird im weiteren Verlauf auch als Repräsentation der Welt bezeichnet. In der japanischen Stadt Kyoto gibt es den berühmten Zen-Steingarten, den Ryooan-ji Tempel (jap. , dt. „Tempel des zur Ruhe gekommenen Drachen“). Der Garten besteht aus feinem Kies und fünfzehn darauf liegenden Steinen, die so geschickt platziert sind, dass unabhängig von der Blickrichtung (außer von oben) immer nur vierzehn Steine zu sehen sind. Jede Beobachtungsrichtung ergibt ein neues Bild, eine neue Projektion. Natürlich fällt es einem nicht schwer, alle Projektionen zu einer vollständigen Komposition im eigenen Bewusstsein zusammenzufügen. Traditionell wird aber gesagt, dass es nur durch Erleuchtung möglich wäre, den fünfzehnten Stein zu sehen. Dies stellt für uns eine Verkörperung der Verbindung zwischen der Realität (15 Steine) und ihrer Beobachtung (14 Steine) dar. In der traditionellen Physik existiert ein Algorithmus, der die Vorgehensweise bei der Untersuchung physikalischer Phänomene beschreibt: Zuerst wird eine Serie von Experimenten durchgeführt. Anschließend wird basierend auf den Resultaten eine Hypothese entwickelt, die das Phänomen beschreibt und weiterhin zur Entstehung einer Theorie führt. Dabei soll die Theorie das Phänomen qualitativ und quantitativ beschreiben, das heißt, mit den experimentellen Daten übereinstimmen1 und so zu unserer Repräsentation der Welt beitragen. In den nachfolgenden Kapiteln betrachten wir einige Experimente, die Meilensteine der Entwicklung der Physik darstellen und beide Arten der Visualisierung gut repräsentieren.

Abb. 1: Ein Seitenblick auf einen Teil der Ryoan-ji Temple

Intuitives Weltbild – Klassische Mechanik Bis Ende des 18. Jahrhunderts herrschte unter Wissenschaftlern ein physikalisches Bild, das auf den Prinzipien der klassischen Mechanik basierte. Diese sind kein Ergebnis reinen Denkens, sondern basieren auf der Alltagserfahrung und Beobachtung. Jeder weiß, dass man den Bewegungszustand eines Körpers nur dann verändern kann, wenn eine Kraft angelegt wird. Oder ein Körper befindet sich nur dann in Ruhe, wenn sich die Summe aller darauf wirkenden Kräfte zu Null kompensiert. Dies stellte auch schon der englische Physiker Isaac Newton fest (1643–1727). Er beobachtete genau, wie sich Gegenstände bewegen und erkannte viele wichtige Regelmäßigkeiten, welche er 1687 in drei Gesetzen zusammenfasste. Mit diesen drei Gesetzen könne man jede Bewegung beschreiben und, noch wichtiger, vorhersagen, wie sich Körper unter Einwirkung äußerer Kräfte bewegen.2 Die Bewegung der Körper vollzieht sich in der klassischen Mechanik in einem dreidimensionalen Raum und einer Zeit, die vom Raum unabhängig ist. Um Objekte und

Projektionsbilder

109

Alex Greilich

110

deren Verhalten zu beschreiben oder zu visualisieren, benutzt man unterschiedliche Modelle – abstrakte Körper oder ein physikalisches Verhalten – mit dem Ziel die komplexe Realität simplifiziert abzubilden. Eines der bekanntesten Beispiele ist das Modell, in dem ein Körper durch einen Massepunkt ersetzt wird. Es bedeutet, dass man die Größe des Körpers vernachlässigt und die ganze Masse nur einem Punkt zuschreibt. Diese Vereinfachung hängt natürlich von dem betrachteten System ab. Wenn man zum Beispiel die Bewegung der Erde um die Sonne beschreibt, kann die Erde als ein Massepunkt angesehen werden. Betrachtet man hingegen die Drehung der Erde um ihre eigene Achse, so kann sie nicht mehr bloß als Punkt angesehen werden, da die physikalische Zusammensetzung und Beschaffenheit der Erde wichtige Parameter sind. Die Beschreibung eines Körpers als Massepunkt ist eine Abstraktion. Wir verwerfen alle Eigenschaften des Körpers, die für die Betrachtung unwichtig sind. Dies vereinfacht die Untersuchung der Bewegung. Für die Beschreibung der Bewegungseigenschaften des Massepunktes ist es nur wichtig zu wissen, wo sich dieser Punkt zu welchen Zeiten befindet. Weiterhin kann man die Position des Objektes nur relativ zu anderen Objekten beschreiben. Wenn es sich in einem leeren Raum befindet, kann man nichts über die Bewegung sagen, da sich nichts im Vergleich zum Objekt ändert.3 Dafür führt man einen Referenzkörper oder einen Referenzpunkt ein, zu dem sich ein Körper relativ bewegt. Mit dem Referenzpunkt wird ein Koordinatensystem in Verbindung gesetzt. Um jetzt ein Experiment im Rahmen der klassischen Mechanik zu demonstrieren, betrachten wir eine frei fallende Masse (siehe Abb. 2). Dabei ist es üblich, den Ursprung des Koordinatensystems dort zu positionieren, wo die Bewegung anfängt, und die Koordinatenachse entlang der Bewegung zu richten, d.h. vertikal nach unten. Die Kräfte, die auf die Masse wirken, werden als Pfeile (Vektoren) gezeichnet, die in Richtung der Kraftwirkung zeigen und deren Länge die Stärke der Kraft symbolisieren. Eine solche Darstellung stellt in der Physik eine klassische Visualisierung dar.

Die Bewegung des frei fallenden Körpers kann auch anhand der folgenden Formel beschrieben werden: y=

g . t2 2

wobei t die verstrichene Zeit ab dem Punkt meint, an dem der Körper angefangen hat, sich zu bewegen. Es ist auch üblich, die Zeitabhängigkeit der Koordinatenveränderung anhand von Diagrammen wie in Abb. 3 zu visualisieren. Lange Zeit war man der Ansicht, dass die Erde unterschiedliche Beschleunigung auf unterschiedliche Körper ausübt. Einfache Beobachtungen scheinen dies zu bestätigen. So fallen zum Beispiel eine Feder oder ein Blatt Papier viel langsamer zu Boden als ein Stein. Deswegen herrschte seit Aristoteles (4. Jahrhundert v. Chr.) zunächst lange die Vorstellung, dass die Beschleunigung, die die Erde an Körper vermittelt, von ihrer Masse abhängt. Erst gegen Ende des 16. Jahrhunderts widerlegte Galileo Galilei die Vorstellung mit Hilfe eines Experiments. Er zeigte, dass der Luftwiderstand berücksichtigt werden muss, da genau dieser das Bild von einem freien Fall verändert, das man ohne Luftwiderstand beobachten kann.

111 Projektionsbilder

Abb. 2: Visualisierung der Gesetzmäßigkeiten von Masse im freien Fall. m – symbolisiert die Körpermasse, FG die Gewichtskraft, FG =mg, wobei g = 9.81 m/s2 die Erdbeschleunigung ist. „0 - y“ – bezeichnet die Koordinatenachse und Richtung der Bewegung. Diese ist in der Darstellung zur besseren Übersicht horizontal von dem Massenpunkt nach links verschoben.

Alex Greilich

112

Abb. 3: Abhängigkeit der Entfernung der Masse von dem Ursprung als Funktion der Zeit. Entfernung „y“ ist in Metern angegeben.

In seinen berühmten Experimenten auf dem schiefen Turm von Pisa hat Galileo gezeigt, dass unterschiedlich große Körper (Kanonenkugel, Steine, usw.) die gleiche Beschleunigung erfahren und in etwa gleicher Zeit auf die Erde fallen. Dieses Experiment funktioniert in der Ausführung nur für relativ schwere Objekte, weil der Luftwiderstand dabei eine kleine Rolle spielt. Nur wenn sich diese Objekte sehr schnell bewegen, wirkt sich der Widerstand aus. Für leichte Materialien, wie etwa eine Feder, spielt der Luftwiderstand schon bei sehr kleinen Geschwindigkeiten eine große Rolle. Wie man sieht, verändert sich hier das Weltbild bezüglich des Verstehens dieses Phänomens, das etwa 2000 Jahre gehalten hat. Wir machen jetzt einen großen Sprung in der zeitlichen Entwicklung der Physik und betrachten ein weiteres beeindruckendes Beispiel, für die Veränderung eines Weltbildes – die Entwicklung der Speziellen Relativitätstheorie durch Albert Einstein (1905).4 Diese relativistische Theorie zeigt, dass die 200-jährige alte Newtonsche Theorie nur den Grenzfall

Projektionsbilder

113

Abb. 4: Galileo Experimente auf dem schiefen Turm von Pisa.

Alex Greilich

114

betrifft, dass sich alle Körper viel langsamer als die Lichtgeschwindigkeit bewegen, die bei etwa 300.000 km/s liegt. Falls ein Körper in die Nähe dieser Geschwindigkeit kommt, verändern sich seine Masse, Länge sowie der Zeitablauf im Vergleich zu einem externen Beobachter, der relativ zum Bezugssystem ruht.5 Der moderne Technologiestand erlaubt es allerdings nicht, so schnelle Systeme zu bauen, um mit deren Hilfe die spezielle Relativitätstheorie (SRT) zu überprüfen. Trotzdem liegt eine Vielzahl experimenteller Belege vor. Man registriert die Zeitverlangsamung der Elementarladungen (Mesonen), die in der höheren Atmosphäre durch die Stoßprozesse kosmischer Strahlung entstehen. Die durchschnittliche Lebensdauer dieser Teilchen beträgt lediglich 10-8 Sekunden, sodass diese unmittelbar nach ihrer Entstehung nicht mehr als 3 Meter zurücklegen können. Wenn sich aber das Meson mit einer Geschwindigkeit bewegt, die nah an der Lichtgeschwindigkeit liegt, verlangsamen sich die Zeitprozesse aus unserer Sicht und die Zerfallszeit wird länger. Dadurch vergrößert sich ihre Weglänge auf etwa 30 km – 10.000-mal länger als normal erwartet.6 Es wird dadurch möglich, diese Teilchen, auf der Erdoberfläche zu registrieren. Somit sagt die SRT aus, dass Raum und Zeit zusammengebunden sind und alle Ereignisse im Universum in einem vier-dimensionalen Zeit-Raum geschehen. Die Schaffung der SRT war ein großer Schritt in der Entwicklung der Wissenschaft und unserer heutigen Repräsentation der Welt. Im Vergleich zu der klassischen Mechanik bezieht die SRT den Beobachter, der diese relativistischen Effekte erfassen (d.h. messen) muss, explizit mit in ihre Gesetzmäßigkeiten ein. Die Beschreibung der physikalischen Prozesse in dieser Theorie ist entsprechend nicht universell, sondern hängt von der Auswahl des Bezugssystems ab. Hierdurch wird deutlich, dass eine Person oder ein Gerät nicht als rein passive Beobachter, sondern als aktive Gestalter bei den Untersuchungen zu verstehen sind. Noch deutlicher wird diese Erkenntnis, wenn eine weitere Entwicklung der Physik betrachtet wird – die Entstehung der Quantenmechanik.

Nicht-Intuitives Weltbild – Quantenmechanik

115 Projektionsbilder

Eine weitere Begrenzung der klassischen (Newtonschen) Theorie ist die Beschreibung der Bewegung von sehr kleinen und sehr leichten Objekten. In der klassischen Mechanik beschreibt man die Bewegung der Teilchen durch die Koordinaten im Raum und deren Abhängigkeiten von der Zeit, wie in Abb. 3 gezeigt. Diese Beschreibung entspricht einer bestimmten Trajektorie. Für sehr kleine und leichte Objekte ist dies nicht mehr möglich. Bei einer Messung sind ausschließlich nur bestimmte Projektionen dessen sichtbar, was in der Welt passiert. Eine allgemeinere Beschreibung der Welt liefert die Quantenmechanik, die in sich wiederum die klassische Mechanik als einen Grenzfall einschließt. Entgegen unserer gewohnten, ‚alltäglichen‘ Sichtweise, ergeben sich auf quantenmechanischer Ebene deutliche Veränderungen. Können wir etwa im makroskopischen Bereich präzise sagen, wo sich ein Buch zum jetzigen Zeitpunkt befindet, und können wir mit einem Lineal seine Größe messen, so verhalten sich die Objekte in der Quantenwelt anders. Hier muss sich unsere Sicht auf die Welt wieder erweitern und die Bedeutung von Beobachtung bzw. des Beobachters überdacht werden. Wenn wir jetzt beispielsweise die Koordinaten eines Elektrons feststellen möchten, können wir nicht mehr vernachlässigen, wie unser Messgerät mit dem Elektron wechselwirkt. Die Kraft der Wechselwirkung des Lineals oder eines anderen Messgerätes auf das Buch ist hingegen vernachlässigbar und wirkt sich nicht auf das Messergebnis aus. Wenn aber das Ziel der Untersuchung ist, die Koordinaten eines Elektrons zu bestimmen, so muss ein Photon, ein zusätzliches Elektron oder ein anderes Teilchen, das etwa dieselbe Größe wie das Elektron hat, dazu benutzt werden, die Position des Elektrons zu lokalisieren. Dabei ändern sich jedoch die Eigenschaften des zu messenden Elektrons durch die Wechselwirkung mit dem Mess-Teilchen. Somit wird klar, dass keine Messung ohne Wechselwirkung und keine Wechselwirkung ohne Veränderung der Eigenschaften des zu messenden Objekts möglich ist. Dieser Zusammenhang

Alex Greilich

116

wird in der Quantenmechanik durch die Unschärferelation beschrieben.7 Sie setzt ein Limit, wie präzise man Eigenschaften von Quantenobjekten bestimmen kann. In der klassischen Mechanik beschreiben Koordinaten und Geschwindigkeiten das Verhalten eines Systems vollständig. In der Quantenmechanik gilt dies nicht. Je präziser hier die Koordinate eines Objekts gemessen wird, umso unpräziser wird die Messung seiner Geschwindigkeit und andersherum. Anstelle von Raumkoordinaten und Geschwindigkeiten, die für uns natürlich und einfach interpretierbar wären, beschreibt man in der Quantenmechanik die Objekte durch eine Wellenfunktion. Der Berg dieser Welle entspricht dem Maximum der Wahrscheinlichkeit, dass ein Teilchen in dem Moment an der Stelle messbar ist. Die Bewegung dieser Welle wird durch die Schrödinger-Gleichung beschrieben und deren zeitliches Verhalten sagt voraus, wie sich das Quantensystem entwickelt.8 Die durch die Schrödinger-Gleichung beschriebenen Quantenereignisse kann man sich wie eine Welle auf einem Raum-Ozean vorstellen und entsprechend visualisieren (Abb. 5). Es ist wiederum eine klassische Visualisierung, die

Abb. 5: Visualisierung eines Teilchens im 2-dimensionalen Raum durch die Lösung der Schrödinger-Gleichung

117 Projektionsbilder

wir für unsere makroskopische Welt verwenden. Somit hat das, was wir uns traditionell als ein Teilchen vorstellen, in der Quantenwelt auch Welleneigenschaften. In verschiedenen Schlüsselexperimenten wurde gezeigt, dass Quantenobjekte sowohl Teilchen als auch Welleneigenschaften aufweisen, weshalb in der Quantenphysik der Welle-TeilchenDualismus eingeführt wurde. In der klassischen Physik ist so etwas nicht möglich, doch in einer Quantenwelt sind unsere alltäglichen Vorstellungen über die Materie und ihr Verhalten nicht mehr gültig. Allein die Tatsache, dass wir eine Welle zur Beschreibung von Teilchen verwenden, ist schon ein guter Beleg dafür. Dieses logische Problem wurde zunächst 1927 durch das Komplementaritätsprinzip gelöst (auch bekannt als Kopenhagener Deutung der Quantenmechanik).9 Nach ihm besitzt nicht das Quantenobjekt selbst die beiden Eigenschaften, sondern es hängt davon ab, wie man es misst. Wenn man es als Teilchen misst, wird es die Eigenschaften eines Teilchens zeigen. Wenn man hingegen die Welleneigenschaften misst, zeigt es sich als eine Welle. Dies stellt eine Verkörperung der aktiven Gestaltung des Weltbildes und die Einwirkung von dem Beobachter auf das Ergebnis der Messung dar. Phänomene wie Beugung oder Interferenz des Lichtes bestätigen die Wellennatur, da sich die Teilchen nicht auslöschen können, wie es bei der Interferenz passiert, siehe Abb. 6(a). Wenn an der Stelle der Lichtwelle die Teilchen auf einen Doppelspalt treffen würden, bildeten sich nur zwei Maxima hinter beiden Öffnungen und nicht ein Interferenzmuster (mehrere Maxima und Minima). Gleichzeitig kann man Photoeffekt,10 Compton-Effekt11 oder Wärmestrahlung aus der klassischen Sicht nur durch die Vorstellung von Photonen als diskrete Lichtteilchen erklären. Das Komplementaritätsprinzip erlaubt es, die beiden Sichtweisen, die die Welt beschreiben zu vereinigen und sagt aus, dass das Licht gleichzeitig Welle und Partikeleigenschaften besitzt. Je größer die Wellenlänge von Licht ist, desto kleiner sind der Impuls und die Energie und desto schwieriger fällt es, den Teilchen-Charakter zu sehen. Der Photoeffekt entsteht zum Beispiel dann, wenn die Photonen eine Energie

Alex Greilich

118

a

b

Abb. 6: (a) Doppelspalt Experiment mit Lichtwellen und (b) Photoeffekt durch Lichtteilchen.

besitzen, die größer oder gleich der Austrittsarbeit des Elektrons aus der Materie ist (Abb. 6(b)). Andersherum, je kleiner die Wellenlänge der elektromagnetischen Strahlung ist, desto größer ist die Energie und der Impuls der Photonen und desto schwieriger ist es, die Wellennatur zu erkennen. So wird beispielsweise Röntgenstrahlung nur an einer sehr dünnen Gitterschicht gebeugt – dem Kristallgitter eines Festkörpers.12 Eines der Schlüsselexperimente zur Untersuchung des Welle-Teilchen-Dualismus wurde 1999 von Olaf Nairz, Markus Arndt und Anton Zeilinger an großen C60 Molekülen durchgeführt.13 Diese aus 60 Kohlenstoffatomen bestehenden Moleküle (sog. Fullerene, Abb. 7(a)) besitzen die Form eines Balls und können sogar als die 4 nm großen Strukturen mit einem Raster-Tunnel-Mikroskop erkannt werden. Ziel des Experiments war es zu klären, ob die postulierten Phänomene nur für die kleinsten elementaren Teilchen Gültigkeit besitzen oder auch in größeren zusammengesetzten Systemen. Es gelang den Experimentatoren ein Interferenzmuster an großen Molekülen zu sehen (Abb. 7(b)). Dem Betrachter der Abbildung fällt sofort der Widerspruch der generierten Muster auf der Platte hinter den Spalten (5 Streifen) zur Erwartung (2 Streifen) auf.

b

Abb. 7: Interferenz mit C(60) Molekülen. (a) Schematische Visualisierung eines C(60) Moleküls. (b) Schematische Interferenzmuster bei einem Doppelspalt Experiment mit Teilchen. Die Abbildung verdeutlicht, dass nicht wie zu erwarten eine Teilchen-Streife hinter jedem Spalt, sondern ein Interferenzmuster mit fünf Streifen entsteht. Dieses zunächst paradoxe Phänomen kann nur durch Wellen erklärt werden.

Im Zentrum der fünften Solvay-Konferenz im Jahr 1927 entstand zwischen Albert Einstein und Niels Bohr eine Debatte über die Prinzipien des Komplementaritätsprinzips.14 Einstein war der Ansicht, dass die Quantenmechanik weiterhin auf den deterministischen Prinzipien der klassischen Mechanik basiert. Die Messergebnisse sollten dabei unabhängig von dem „ungebundenen Beobachter“ (engl. „detached observer“) bleiben. Auf der anderen Seite bestand Bohr auf einem prinzipiell nicht deterministischen (statistischen) Charakter der Quantenereignisse und einer unvermeidbaren Einwirkung des Beobachters auf den Zustand des Systems. Als Quintessenz dieser Debatte werden oft die Dialoge zwischen den beiden Wissenschaftlern zitiert: „Gott würfelt nicht!“ – Einstein, „Aber es kann doch nicht unsere Aufgabe sein, Gott vorzuschreiben, wie Er die Welt regieren soll.“ – Bohr. Hinzu kommt noch die sarkastische Frage von Einstein: „Glauben Sie wirklich, der Mond ist nicht da, außer wenn jemand hinschaut?“ Als eine Folge dieses Streites erschien 1935 ein wissenschaftlicher Artikel von Einstein, Podolsky und Rosen (EPR),

119 Projektionsbilder

a

Alex Greilich

120

in welchem die Autoren ein sogenanntes EPR-Paradoxon formulierten, dass die Unvollständigkeit der Quantenmechanik zeigen sollte.15 Das Gedankenexperiment sollte der Heisenbergschen Unschärferelation nicht gehorchen: Bei zwei Teilchen, die einen gemeinsamen Ursprung haben, sei der Zustand eines der Teilchen sehr genau messbar und dadurch könnte der Zustand des zweiten bestimmt werden, ohne dieses zu vermessen. Schrödinger hat diesen Zustand in seiner späteren Analyse des Problems als Verschränkung bezeichnet (engl. entanglement).16 Hierbei muss jedoch darauf hingewiesen werden, dass Schrödinger die beiden Teilchen nur dann als verschränkt angesehen hat, wenn diese physisch miteinander wechselwirken. Bei einer größeren Entfernung voneinander verschwand diese Verschränkung. Heutzutage versteht man unter Verschränkung eine von dem Abstand unabhängige Wechselwirkung. Einstein betrachtete das EPR-Paradoxon nicht als Beschreibung eines realen Phänomens, sondern eher als Gedankenkonstruktion. In einem seiner Briefe an Max Born nannte er diese Wechselwirkung eine „spukhafte Fernwirkung“.17 In einem weiteren Artikel hat Bohr später seine Antwort zu dem EPR-Paradoxon publiziert.18 Bohrs Anhänger haben dabei das Paradoxon selbst als eine falsche Interpretation der Rolle des Beobachters in der Physik betrachtet. Die Verschränkung und spukhafte Fernwirkung wurde fast 30 Jahre lang ignoriert, bis ein irischer Physiker, John Bell, sich dafür interessierte. Bell hatte das EPR-Paradoxon weiter analysiert und 1964 eine eigene Theorie entwickelt, die „Bellschen Ungleichungen“.19 Vereinfacht und ohne Betrachtung von mathematischen Gleichungen kann das Phänomen folgendermaßen interpretiert werden: Wenn die Messung von einem der beiden Teilchen, die einen gleichen Ursprung hatten, durchgeführt wird, erfährt man gleichzeitig den Zustand von dem zweiten Teilchen, unabhängig von dessen Entfernung. Somit hat diese Wechselwirkung einen nicht lokalen Charakter (d.h. sie hängt nicht von dem Abstand ab). Wenn das Problem klassisch betrachtet wird, ist es unmöglich, dass beim Zerfall eines Systems, die Einwirkung auf einen Teil den Zustand der anderen Teile verändert,

Fazit In dem vorliegenden Kapitel wurde die Rolle des Beobachters bei der Messung von Mikroteilchen thematisiert, speziell wie durch den Beobachtungsprozess sich die zu messenden Eigenschaften und damit das geschaffene Abbild verändert. Aus Sicht der klassischen Mechanik sollte es prinzipiell möglich sein, präzise Messgräte zu entwickeln, deren Wirkung

121 Projektionsbilder

wenn diese nicht miteinander wechselwirken. Weiterhin heißt es, da die Verbreitungsgeschwindigkeit des Signals nie die Lichtgeschwindigkeit überschreiten kann, dass ab einer bestimmten Entfernung – im Rahmen der klassischen Physik – keine Wechselwirkung mehr möglich ist. Die Bellschen Regeln lieferten eine theoretische Basis für weitere Experimente, die erst 1972 von John Clauser und Stewart Freedman erfolgreich durchgeführt wurden.20 Aus den Experimenten folgte, dass der Zustand der Teilchen unbestimmt war, bis die Messung an einem der Teilchen durchgeführt wurde. Die modernen Überprüfungen werden experimentell so durchgeführt, dass die Verschränkung beider Teilchen auf immer größerem Abstand zwischen den beiden getestet wird. Für das Beispiel der zwei verschränkten Photonen (Lichtteilchen) haben Forscher des MIT (Massachusetts Institute of Technology) im Jahr 2007 die Verschränkung bei einem Rekordabstand von 1 Meter nachgewiesen.21 Im Jahr 2008 hat eine Gruppe der Universität Genf die Verschränkung von Photon-Paaren auf 18 Kilometer erweitert. Unter anderem ist es ihnen gelungen, Messungen mit bisher unerreichter zeitlicher Präzision durchzuführen. Als Ergebnis wurde festgestellt, dass die Wechselwirkung zwischen den Paaren mindestens 100.000 mal schneller als die Lichtgeschwindigkeit im Vakuum sein muss.22 Nichtlokalität ist ein mystisches Synchronverhalten beider Teilchen ohne jegliche erklärbare Verbindung zwischen ihnen. Wenn es klassisch betrachtet wird, dann sollte eine Überlichtgeschwindigkeit akzeptiert werden.

Alex Greilich

122

auf das Messobjekt vernachlässigbar klein ist und somit die reine Eigenschaften der Objekte gemessen werden kann. Mit der Entwicklung der Quantenmechanik stellte es sich jedoch heraus, dass eben dies prinzipiell unmöglich ist, da es immer eine Einwirkung auf der mikroskopischen Skala gibt, die unmittelbar vom Beobachter abhängt. Daraus kann man ableiten, dass auch die makroskopischen Phänomene davon betroffen sind, da Prozesse auf mikroskopischer Skala diesen zu Grunde liegen. Dieser Gedanke stellt die Frage, ob es, entsprechend unser auf Messergebnissen erzeugten Repräsentation der Welt, stets durch die Anwesenheit von uns als Beobachtern beeinflusst wurde und damit von uns abhängt. Solche Schlussfolgerung entsteht nur dadurch, dass wir uns in die Umgebung der Teilchen, mit der diese auch in Wechselwirkung stehen, einmischen. Die Umgebung und die Teilchen können von dem Beobachter (oder Gerät) absolut unabhängig existieren. Daraus folgt, dass die Quantenmechanik es nicht verbietet die Fragen zu den Naturphänomenen, die unabhängig vom Beobachter sind, zu stellen. Dies führt uns zurück zu dem Beispiel mit dem Zen-Steingarten. Wir brauchen im wahrsten Sinne eine Erleuchtung, um das wahre Bild zu verstehen. Wir sollen nur genug Projektionsbilder zusammen haben. Solch seltsame Phänomene wie Verschränkung und Nichtlokalität sind nur der Anfang eines Weges zu einem tiefen Verständnis der Natur und ein weiterer Schritt zu einem immer präziseren Weltbild. Auf diesem Weg soll uns der Verstand helfen unsere Welt und unsere Rolle als aktive Beobachter zu begreifen.

Anmerkungen 1 Notwendig, aber nicht hinreichend. Es ist möglich, dass die Theorie nicht zur bisherigen Repräsentation der Welt passt und so zur wissenschaftlichen Krise oder Revolution führt. 2 Herbert Goldstein/Charles. P. Poole/John Safko, Klassische Mechanik, Weinheim 2006. 3 Hier muss man bemerken, dass Objekt selbst sich nicht verformen soll. Fall es doch der Fall ist, kann die Krafteinwirkung und derer Richtung aus der Verformung abgeleitet werden.

123 Projektionsbilder

4 Albert Einstein, Zur Elektrodynamik bewegter Körper, in: Annalen der Physik und Chemie 17 (1905), S. 891–921. 5 G. Saathoff/S. Karpuk/U. Eisenbarth, et al., Improved Test of Time Dilation in Special Relativity, in: Physical Review Letters 91 (2003), S. 190403. 6 D. H. Frisch/J. H. Smith, Measurement of the Relativistic Time Dilation Using µ-Mesons, in: American Journal of Physics 31, H. 5 (1963), S. 342–355. 7 W. Heisenberg, Über den anschaulichen Inhalt der quantentheoretischen Kinematik und Mechanik, in: Zeitschrift für Physik 43, H. 3 (1927), S. 172–198. 8 E. Schrödinger, „Quantisierung als Eigenwertproblem I“, in: Annalen der Physik 79 (1926), S. 361–376; ebd., „Quantisierung als Eigenwertproblem II“, Annalen der Physik 79 (1926), S. 489–527, 1926; Ebd., „Quantisierung als Eigenwertproblem III“, Annalen der Physik 80 (1926), S. 734–756; Ebd., „Quantisierung als Eigenwertproblem IV“, Annalen der Physik 81 (1926), S. 109–139. 9 N. Bohr, Atomtheorie und Naturbeschreibung, o.O. 1931. 10 A. Einstein, Über einen die Erzeugung und Verwandlung des Lichtes betreffenden heuristischen Gesichtspunkt, in: Annalen der Physik 322, H. 6 (1905), S. 132–148. 11 A. H. Compton, A Quantum Theory of the Scattering of X-rays by Light Elements, in: Physical Review 21 (1923), S. 483–502. 12 Immanuel Estermann/Otto Stern, Beugung von Molekularstrahlen, in: Zeitschrift für Physik 61 (1930), S. 95–125. 13 Olaf Nairz/Markus Arndt/Anton Zeilinger, Quantum interference experiments with large molecules, in: American Journal of Physics 319 (2003), S. 319–325. 14 W. Heisenberg, Criticisms and Counterproposals to the Copenhagen Interpretation of Quantum Theory, in: Physics and Philosophy: The Revolution in Modern Science, New York 1962, S. 128–146. 15 Einstein A./Podolsky B./Rosen N., Can Quantum-Mechanical Description of Physical Reality Be Considered Complete?, in: Physical Review 47 (1935), S. 777–780 . 16 Schrödinger E., Discussion of Probability Relations between Separated Systems, in: Mathematical Proceedings of the Cambridge Philosophical Society 31, H.4 (1935), S. 555–563, hier S. 555. 17 M. Born/A. Einstein, Albert Einstein, Max Born. Briefwechsel 1916–1955, München, 1955, S. 210. 18 N. Bohr, Can Quantum-Mechanical Description of Physical Reality be Considered Complete?, in: Physical Review 48 (1935), S. 696–702. 19 J. S. Bell, On the Einstein-Podolsky-Rosen paradox, in: Physics 1, H. 3 (1964), S. 195–200. 20 S. J. Freedman/J. F. Clauser, Experimental test of local hidden-variable theories, in: Physical Review Letters 28 (1972), S. 935–941, hier S. 938.

21 D. L. Moehring, et al., Entanglement of single-atom quantum bits at a distance, in: Nature 449 (2007), S. 68–71. 22 D. Salart, et al. Testing the speed of „spooky action at a distance, Nature 454 (2008), S. 861–864.

Alex Greilich

124

KAPITEL 5: MATHEMATIK IM BILD

DAS MATHEMATISCHE PORTRÄT Sina Ober-Blöbaum

Mathematik im Bild

127

Einleitung – Das Auge denkt mit Was ist ein mathematisches Porträt? Typischerweise wird mit dem Begriff „Porträt“1 ein Gemälde oder eine Fotografie einer Person assoziiert. Doch was macht ein Porträt zu einem „mathematischen“ Porträt? Abbildung 1 zeigt ein Abbild des bedeutenden französischen Mathematikers Henri Poincaré. Ein solches Bild – das Porträt eines Mathematikers – könnte demnach durchaus als ein „mathematisches Porträt“ verstanden werden. Jedoch ist es im Rahmen dieses Beitrages nicht die Person des Mathematikers, die porträtiert werden soll. Vielmehr soll vermittelt werden, wie die Sprache des Mathematikers, nämlich die mathematische Gleichung, mit Hilfe von Bildern dargestellt werden kann, was zu der Frage führt: Können mathematische Gleichungen porträtiert werden? Auf den ersten Blick haben mathematische Gleichungen und Porträts wenig miteinander gemein. Dennoch spielt der Begriff des Porträts eine wichtige Rolle im Bereich der dynamischen Systeme, einem Teilgebiet der Mathematik, welches von großer Relevanz für vielfältige anwendungsorientierte Probleme aus der Physik oder Biologie ist. Dynamische Systeme sind mathematische Beschreibungen zeitabhängiger Prozesse, z.B. der Form x¨ (t) = –sin(x (t)).

(1)

Abb. 1: Porträt des französischen Mathematikers Henri Poincaré (1854-1912)

Sina Ober-Blöbaum

128

Aber wie könnte ein Porträt einer solchen Gleichung aussehen und wofür könnte es gebraucht werden? In diesem Beitrag wird aufgezeigt, wie ein dynamisches System mit Hilfe mathematischer Werkzeuge „porträtiert“ werden kann. Insbesondere soll verdeutlicht werden, wie ein solches Porträt in der Mathematik genutzt wird, um dynamische Systeme und ihre Eigenschaften zu verstehen. Zur Veranschaulichung werden sowohl bei der Erstellung als auch bei der Interpretation des mathematischen Porträts eines dynamischen Systems verschiedene Parallelen zu Porträts aus der Malerei und Fotografie aufgezeigt. Die Porträtierung dynamischer Systeme wird in diesem Beitrag als eines von vielen mathematischen Konzepten gewählt, um die Rolle von Bildern in der Mathematik zu veranschaulichen. Denn entgegen der oft anzutreffenden Meinung, dass Mathematik abstrakt und wenig bildhaft ist, zeigen überraschend viele Beispiele in der Vergangenheit und Gegenwart, dass Bilder und Mathematik eng miteinander verknüpft sind. Bereits seit Jahrhunderten nutzen Wissenschaftler die bildhafte Mathematik, um Theorien zu veranschaulichen und herzuleiten. Das berühmteste Beispiel ist wohl der Satz des Pythagoras, der Lehrsatz der euklidischen Geometrie über das rechtwinklige Dreieck2:

a2 + b2 = c2

Diese Formel besagt, dass bei einem rechtwinkligen Dreieck (Abb. 2) das Quadrat der Seitenlänge c, die dem rechten Winkel gegenüber liegt, der Summe der Quadrate der beiden anderen Seitenlängen a und b entspricht. Inzwischen existieren ca. 300 verschiedene Beweise für den Satz des Pythagoras. Ein Beweis basiert auf einfachen geometrischen Formen wie Dreiecken und Quadraten und ist in Abbildung 3 visualisiert. In ein Quadrat mit der Seitenlänge a + b können auf zwei verschiedene Weisen vier gleiche rechtwinklige Dreiecke mit Seitenlängen a, b und c gezeichnet werden. In beiden Bildern finden sich die

Abb. 3: Geometrischer Beweis des Satzes des Pythagoras

129 Mathematik im Bild

Abb. 2: Rechtwinkliges Dreieck mit den Seitenlängen a, b und c

Sina Ober-Blöbaum

130

Abb. 4: Mengendiagramme: Venn-Diagramme (eingeführt von John Venn in 1881). (a) Durchschnitt: A geschnitten mit B, d. h. alle Elemente, die sowohl in A als auch in B sind. (b) Differenzmenge: A ohne B, d.h. alle Elemente, die in A aber nicht in B sind. (c) Symmetrische Differenz: Alle Elemente, die entweder in A aber nicht in B sind, oder in B aber nicht in A sind. (d) Vereinigung: Alle Elemente, die in A oder in B sind. (e) Komplement: Alle Elemente, die nicht in A sind.

gleichen vier Dreiecke mit jeweils gleichem Flächeninhalt wieder. Da die Fläche des linken und des rechten Quadrates gleich ist ((a + b) 2), müssen auch die Flächen der Teilquadrate in beiden Bildern gleich sein. Daraus ergibt sich c2 (Fläche des Quadrates links) = a2 + b2 (Summe der

Mathematik im Bild

131

Abb. 5: Algebraische Flächen visualisiert von Herwig Hauser

Flächen der Quadrate rechts), und der Satz des Pythagoras ist bewiesen. Auch heute helfen Bilder sehr oft beim Verständnis von verschiedenen Konzepten der Mathematik. Insbesondere sind Bilder in der schulischen und universitären Lehre nicht wegzudenken, um mathematische Inhalte oder Formeln zu veranschaulichen wie zum Beispiel die sogenannten VennDiagramme in Abbildung 4. Diese Mengendiagramme dienen dazu, verschiedene Relationen zwischen zwei Mengen A und B grafisch darzustellen. Ein weiteres sehr bekanntes Beispiel zur Visualisierung mathematischer Inhalte kommt aus der Algebraischen Geometrie. Alle Zahlen, die die Gleichung x2 + z2 = y 3(1 – y)3 erfüllen, bilden eine so genannte algebraische Fläche. Werden die Lösungen der obigen Polynomgleichung visualisiert,

Sina Ober-Blöbaum

132

so erhält man die zitronenartige geometrische Form aus Abbildung 5 (links oben). Im „Jahr der Mathematik“ 2008 faszinierten diese und ähnliche mathematische Kunstwerke bei der Ausstellung IMAGINARY3 ein breites Publikum.4 Während die Figuren in Abbildung 5 alle Lösungen der eingezeichneten algebraischen Gleichungen abbilden, ist es weitaus schwieriger, alle Lösungen des dynamischen Systems aus der Gleichung (1) zu visualisieren. An dieser Stelle erhält der Terminus „Porträtierung mathematischer Gleichungen“ seine Bedeutung: Das Werkzeug zur Darstellung aller Lösungen eines dynamischen Systems ist das sogenannte Phasenporträt.

Das Phasenporträt – der Fingerabdruck eines dynamischen Systems Wie bereits der Begriff Phasenporträt5 andeutet, liegt seine Aufgabe darin, dynamische Systeme der Form (1) zu „porträtieren“. Doch wie sieht so ein Porträt aus und welche Informationen können aus diesem Porträt gewonnen werden? Was macht ein Porträt überhaupt aus? In der Malerei und Fotografie ist es ein wesentliches Ziel des Porträtierens, die Persönlichkeit und charakteristischen Merkmale des Motivs zu erfassen und zum Ausdruck zu bringen. Auch das dynamische System als abzubildendes Motiv des Phasenporträts besitzt charakteristische Merkmale und wird durch besondere Eigenschaften geprägt, die visuell herausgestellt werden können. Um einen ersten Eindruck zu vermitteln, ist in Abbildung 6 das Porträt des dynamischen Systems (1) dargestellt. Zunächst scheinen die verschiedenfarbigen Kurven und Linien wenig mit den uns vertrauten Porträts zu tun zu haben. Was jedoch dieser Art von Porträt wie auch Porträts aus der Malerei und Fotografie zu eigen ist, ist die oftmals betonende Darstellung ganz besonderer Charakteristika und spezifischer Details. Das Porträt in Abbildung 6 zeichnet sich mitunter durch Linien verschiedener Arten aus. Ins Auge fallen neben Familien von Kreislinien auch Familien

Abb. 6: Beispiel eines Mathematischen Porträts

wellenförmiger Linien. All diese Familien werden wiederum von einem sich kreuzenden Linienpaar voneinander getrennt. Ein weiteres Merkmal bilden die gemeinsamen Mittelpunkte im Inneren der Kreislinien. Wenn auch der Laie mit dieser Ansammlung von Linien und Kreisen, als die man Abbildung 6 sicherlich ohne Weiteres beschreiben kann, nicht allzu viel anzufangen vermag, erkennt der Mathematiker hingegen in dieser speziellen Struktur das Phasenporträt des sogenannten mathematischen Pendels. Um solch ein Phasenporträt eines dynamischen Systems besser verstehen zu können, sollen im Folgenden sein Motiv, seine Erstellung sowie seine Interpretation vorgestellt werden.

Das Motiv – ein dynamisches System sitzt Modell Die Motive mathematischer Porträts der Art, wie Abbildung 6 sie darstellt, bilden dynamische Systeme. Ein dynamisches System ist ein mathematisches Modell eines zeitabhängigen Prozesses, der z.B. einen physikalischen Vorgang innerhalb der realen Welt beschreibt. Dabei hängt der Verlauf des zeitabhängigen Prozesses jeweils vom Anfangszustand des Prozesses ab.6 Beispielsweise bilden die Modellierung des Strö-

Mathematik im Bild

133

Sina Ober-Blöbaum

134

mungsverhaltens von Flüssigkeiten oder die mathematische Beschreibung der Bewegungen von Himmelskörpern unter gegenseitiger Beeinflussung durch die Gravitation dynamische Systeme. Ebenso können die Entwicklungen von Populationsgrößen von Lebewesen oder wirtschaftlicher Kenngrößen unter dem Einfluss der Marktgesetze als dynamische Systeme modelliert werden. Mathematisch werden dynamische Systeme durch die Beschreibung der Zustandsänderung des Systems in Abhängigkeit von der Zeit t beschrieben. Dieser Zusammenhang ist als allgemeine Formel . x (t) = f (x (t)).

(2)

gegeben. Dabei bezeichnet x (t) den Zustand des Systems zum Zeitpunkt t. Mit fortschreitender Zeit t beschreibt x (t) demnach einen zeitlichen Prozess des Systemzustandes. Die Größe x· (t) gibt an, wie sich der Systemzustand über die Zeit t ändert oder, anders ausgedrückt, in welche Richtung sich der Prozess entwickelt. Das bedeutet, dass aufgrund der Beziehung in Formel (2) in jedem Zustand x (t) zu einem beliebigen Zeitpunkt t die Richtung bzw. die Änderung des Zustandes x· (t) bekannt ist. Diese Richtung ist durch das Vektorfeld f (x(t)) gegeben. Ein sehr einfaches Beispiel eines zeitabhängigen Prozesses ist das Bewegungsverhalten des mathematischen Pendels7, skizziert in Abbildung 7. Abhängig von seiner Anfangsauslenkung und -geschwindigkeit beschreibt das Pendel unterschiedliche, aber vorbestimmte Bahnen. Das dynamische System des Pendels wird durch die Gleichungen f· = w · w = – sinf

(3)

beschrieben.8 Hier bezeichnet f den Auslenkwinkel und w die Winkelgeschwindigkeit des Pendels. Zusammen beschreiben sie den momentanen (zum Zeitpunkt t) Zustand des Pendels. Das Vektorfeld des Pendels ist somit von der

Abb. 7: Die Bewegung eines Pendels

Form f (f,w) = (w,–sinf) und gibt die zeitliche Entwicklung der beiden Zustände f und w an.

Die Erstellung des Phasenporträts – der Mathematiker bei der Arbeit Zur Erstellung eines Phasenporträts betrachtet man den sogenannten Phasenraum, welcher für Systeme mit bis zu drei Dimensionen, d.h. bis zu drei Zustandsvariablen, grafisch dargestellt werden kann.9 Zur Veranschaulichung werden im Folgenden vorrangig Phasenporträts für dynamische Systeme mit zwei Dimensionen betrachtet. Der Phasenraum enthält die Menge aller prinzipiell möglichen Zustände x eines dynamischen Systems, wobei jeder Zustand einem Punkt im Phasenraum entspricht. Jedem Punkt x kann wiederum die Richtung f (x) zugeordnet werden. Solche Richtungsangaben werden durch Pfeile dargestellt. Alle Pfeile zusammen veranschaulichen das Vektorfeld (ein „Feld“ von Vektoren, d.h. Pfeilen) des dynamischen Systems in jedem Punkt des Phasenraumes. In Abbildung 8a ist das Vektorfeld des dynamischen Systems des Pendels, das durch die Gleichung (3) gegeben ist, skizziert. Der Phasenraum entspricht hier der (f,w)-Ebene, d.h. auf

Mathematik im Bild

135

Sina Ober-Blöbaum

136

Abb. 8a: Visualisierung des Vektorfeldes des mathematischen Pendels

der horizontalen Achse ist der Auslenkwinkel und auf der vertikalen Achse die Geschwindigkeit des Pendels dargestellt. Jedem Punkt (f,w) wird die Richtung (w,–sinf) zugeordnet. Die so entstehenden Pfeile verdeutlichen, wie sich Auslenkwinkel und Geschwindigkeit des Pendels je nach aktuellem Zustand verändern. Um einzelne Bewegungsbahnen des dynamischen Systems zu erhalten, startet man in einem beliebigen Punkt des Phasenraumes – einem Anfangszustand des dynamischen Systems – und verfolgt, wie dieser sich unter dem Einfluss des Vektorfeldes fortbewegt. Bei dem Beispiel des Pendels führt dies beim Loslassen des Pendels aus einer nicht zu großen Anfangsauslenkung auf Kreisbahnbewegungen, wobei der Radius der Kreisbahn

Abb. 8b: Visualisierung des Vektorfeldes des mathematischen Pendels mit zwei eingezeichneten Trajektorien, welche hin- und herschwingenden Pendelbewegungen mit unterschiedlicher Amplitude ensprechen.

vom Anfangszustand abhängt, wie in Abbildung 8b visualisiert. Ein Anfangszustand nahe des Punktes (0,0) führt zu einer Kreisbahn mit kleinerem Radius (grüne Kreisbahn) im Vergleich zu einem Anfangszustand, der weiter entfernt vom Nullpunkt ist (rote Kreisbahn). Die so durch das Vektorfeld erzeugten Bewegungsbahnen werden im Bereich der dynamischen Systeme als Trajektorien bezeichnet. Trajektorien sind Lösungen des dynamischen Systems zu einem gegebenen Anfangszustand. Bemerkenswert ist, dass sich Trajektorien im Phasenraum niemals schneiden, so dass man von jedem der Punkte einer Trajektorie ihren weiteren Verlauf eindeutig bestimmen kann. Prinzipiell kann mit dieser Methode jede Lösung des dynamischen Systems gefunden werden. Da das Einzeichnen aller Trajektorien das Phasenporträt jedoch unübersichtlich werden ließe, ja praktisch überhaupt nicht umsetzbar wäre, beschränkt man sich typischerweise auf einige signifikante Trajektorien, zwischen denen der Betrachter Lösungen zu anderen Anfangswerten interpolieren kann, was soviel heißt

Mathematik im Bild

137

Sina Ober-Blöbaum

138

Abb. 8c: Visualisierung des Vektorfeldes des mathematischen Pendels mit zusätzlicher dritter Trajektorie (lila), welche einer Überschlagbewegung entspricht.

wie, dass der Betrachter Aufschluss darüber erhält, welcher Art die nicht explizit aufgeführten Trajektorien sein müssen. In diesem Sinne führt beispielsweise ein Anfangswert, der zwischen der roten und der grünen Kreisbahn in Abbildung 8b gewählt wird, auf eine weitere dazwischenliegende Kreisbahn. Alle so erzeugten Kreisbahnen im Phasenporträt beschreiben qualitativ gleichwertige Lösungen. Wie im nächsten Abschnitt im Zuge der Interpretation des Phasenporträts noch erläutert wird, entsprechen diese Lösungen hin- und herschwingenden Pendelbewegungen: Je weiter das Pendel zu Beginn ausgelenkt ist (je größer die Entfer-

Die Interpretation des Phasenporträts – charakteristische Merkmale erkennen Das Phasenporträt bildet die Gesamtheit aller wesentlichen Lösungen des Systems ab. Demzufolge können die zeitlichen Entwicklungen dynamischer Systeme mit Hilfe von Phasenporträts grafisch analysiert werden. Eine solche Betrachtungsweise soll Aufschluss über das globale Verhalten des dynamischen Systems geben: Anstatt eine einzelne Lösung zu einem gegebenen Anfangswert zu bestimmen, ist man also vielmehr am qualitativen Verhalten der Lösung zu beliebigen Anfangszuständen interessiert, oder anders formuliert: Man möchte das charakteristische Wesen des dynamischen Systems erkennen.

139 Mathematik im Bild

nung des Anfangszustandes vom Nullpunkt ist), desto größer gestaltet sich die Amplitude des schwingenden Pendels (der Radius der Kreisbahn), wie es in der Abbildung 8b skizziert ist. Wird der Anfangswert in der oberen linken Ecke des Phasenraums gewählt, so erhält man die wellenförmige Trajektorie in Abbildung 8c. Diese Lösung entspricht einer Überschlagbewegung des Pendels und beschreibt somit eine qualitativ deutlich andersartige Bewegung als die Kreisbahnen. Ziel bei der Erstellung des Phasenporträts ist es, alle qualitativ unterschiedlichen Trajektorien zu detektieren und einzuzeichnen. Somit ist die Erstellung eines mathematischen Porträts ähnlich zu dem des Porträts in der Malerei: Erst nach dem Zeichnen der gröbsten Formen, wie beispielsweise der Kopf-, Augen- und Mundform, werden wichtige Details herausgestellt, welche die Charaktereigenschaften des Motivs unterstreichen. Für das Phasenporträt ist der grobe Entwurf durch die Visualisierung des Vektorfeldes gegeben. Anhand des Vektorfeldes können zusätzlich typische Trajektorien in den Phasenraum eingezeichnet werden, die helfen, das qualitative Verhalten der zeitlichen Entwicklung und die Eigenschaften des dynamischen Systems zu beurteilen.

Dazu ist es wichtig, charakteristische Trajektorien im Phasenporträt mit Eigenschaften eines dynamischen Systems in Bezug setzen zu können. Um also das vom Mathematiker gestaltete Phasenporträt weitergehend zu analysieren, ist die Erläuterung charakteristischer Trajektorien und ihrer Bedeutung für das dynamische System erforderlich. Dazu ist es an dieser Stelle unerlässlich, sich mit einigen mathematischen Konzepten detaillierter auseinanderzusetzen.

Sina Ober-Blöbaum

140

Charakteristische Trajektorien Charakteristische Trajektorien sind beispielsweise sogenannte Fixpunkte, periodische Bahnen oder Verbindungsbahnen (vgl. Abbildung 9). Ein Fixpunkt x 0 eines dynamischen Systems ist ein Punkt, in dem keine Bewegung stattfindet, d.h. die Änderungsrate des Systems ist null: f (x0) = 0. Startet ein System in einem solchen Fixpunkt x0, so hat die Trajektorie für alle Zeiten den gleichen Wert x (t) = x0. Eine periodische Lösung des dynamischen Systems ist eine Lösung x (t), welche für eine Periode T die Beziehung x (t + T) = x (t )

(4)

für alle Zeiten t erfüllt. Das System nimmt somit periodisch wiederkehrend die gleichen Zustände an. Dies sind z.B. die schon erwähnten Schwingbewegungen (oder Oszillatio-

Fixpunkt

periodische Bahn

Abb. 9: Spezielle Lösungen des dynamischen Systems

Verbindungsbahn

Quelle

Sattel

Zentrum

141 Mathematik im Bild

Senke

Abb. 10: Charakterisierung verschiedener Fixpunkte eines dynamischen Systems

nen) des Pendels, die im Phasenraum durch geschlossene Kurven dargestellt werden. Eine Verbindungsbahn ist eine Lösung, die zwei Fixpunkte, zwei periodische Lösungen oder einen Fixpunkt und eine periodische Lösung miteinander verbindet. Fixpunkte und periodische Lösungen können durch weitere Eigenschaften charakterisiert werden.10 Die Charakterisierung verschiedener Fixpunkte basiert auf dem Verhalten einzelner Trajektorien in der Nähe des jeweiligen Fixpunktes (vgl. Abbildung 10).

stabiler Grenzzyklus

Sina Ober-Blöbaum

142

instabiler Grenzzyklus

Abb. 11: Charakterisierung verschiedener periodischer Lösungen eines dynamischen Systems

Ist der Fixpunkt x0 eine Senke, so werden alle Trajektorien, die in der Nähe von x0 starten, von dem Fixpunkt angezogen. Einen solchen Fixpunkt bezeichnet man auch als attraktiv. Das Gegenstück zu einer Senke ist die Quelle, welche repulsiv ist: Der Fixpunkt x0 ist eine Quelle, falls jede Trajektorie, die in der Nähe von x0 startet, von dem Fixpunkt abgestoßen wird. Ein Sattel zeigt ein gemischtes Verhalten aus Quelle und Senke. Je nach Startposition in der Nähe des Fixpunktes x0 werden manche Trajektorien von dem Fixpunkt angezogen und andere abgestoßen. Bilden die Trajektorien geschlossene Bahnen um den Fixpunkt, d.h. existieren periodische Lösungen um den Fixpunkt, so wird er als Zentrum bezeichnet. Senken und Zentren werden auch als stabile Fixpunkte bezeichnet, während Quellen und Sattel instabile Fixpunkte sind. Eine periodische Lösung wird Grenzzyklus genannt, wenn sie attraktiv oder repulsiv ist. Dabei werden attraktive Grenzzyklen als stabil und repulsive Grenzzyklen als instabil bezeichnet (vgl. Abbildung 11). Fixpunkte, periodische Lösungen und Verbindungsbahnen sind Hauptbestandteile mathematischer Porträts für dynamische Systeme mit zwei Dimensionen. Ähnlich wie bestimmte charakteristische Merkmale das Motiv eines Porträts in der Malerei und Fotografie unverwechselbar machen, ist es das Zusammenspiel dieser typischen Trajektorien, die ein dynamisches System einzigartig machen.

Spezielle Phasenporträts

Abb. 12: Phasenporträt des mathematischen Pendels

143 Mathematik im Bild

Das Phasenporträt aus Abbildung 12 kann nun genutzt werden, um das dynamische Verhalten des mathematischen Pendels zu analysieren. Auf der horizontalen Achse ist die Auslenkung und auf der vertikalen Achse die Geschwindigkeit des Pendels aufgetragen. Es sind vier grundsätzlich verschiedene Bewegungsarten zu unterscheiden. Die Punkte an den Stellen (–2p,0), (0,0), (2p,0) stellen die untere Ruhelage (einen Fixpunkt) dar.11 Hier hängt das Pendel gerade herunter und bewegt sich nicht. Hingegen beschreiben die Punkte (–3p,0), (–p,0), (p,0), (3p,0) die obere Ruhelage, d.h. das Pendel steht senkrecht nach oben und ist dort bewegungslos. Die oberen Ruhelagen sind Sattel, die unteren Ruhelagen sind Zentren. Die Ellipsen um die unteren Ruhelagen (gekennzeichnet mit ) stellen oszillierende Pendelbewegungen unterschiedlicher Amplituden dar, wie sie bereits in Abbildung 9c zu sehen sind. Wird das Pendel mit einer ausreichend hohen Geschwindigkeit angestoßen, so vollführt es aufeinander folgende Überschläge. Dieses Verhalten wird durch wellenförmige Kurven oben und unten im Bild (markiert

untere Ruhelage

obere Ruhelage

periodische Schwingbewegung

Sina Ober-Blöbaum

144

Pendelüberschlag

Verbindungsbahn

Abb. 13: Qualitativ unterschiedliche Pendelbewegungen

mit ) visualisiert. Die sich kreuzenden Bahnen, die diese beiden Bereiche der Dauerschwingung und der Überschläge trennen, sind Verbindungsbahnen (gekennzeichnet mit ). Sie stellen Bewegungen dar, bei denen das Pendel aus der oberen Ruhelage nach unten fällt und sich wieder in diesen Zustand hinauf schwingt. Dabei beschreibt die Trajektorie vom Fixpunkt (–p,0) zum Fixpunkt (p,0) oberhalb der horizontalen Achse diese Bewegung gegen den Uhrzeigersinn, während die Trajektorie vom Fixpunkt (p,0) zum Fixpunkt (–p,0) unterhalb der horizontalen Achse die entgegengesetzte Bewegung mit dem Uhrzeigersinn darstellt, d.h. insbesondere, dass sich die Trajektorien in den Fixpunkten nicht schneiden, sondern dort beginnen bzw. enden. In Abbildung 13 sind die vier qualitativ verschiedene Pendelbewegungen skizziert.

145 Mathematik im Bild

Das Phasenporträt des Pendels ist ein klassisches Beispiel in der Theorie dynamischer Systeme, um das globale Verhalten dynamischer Systeme zu visualisieren und zu interpretieren. Die grafische Darstellung der Gesamtheit aller wesentlichen Lösungen gibt dem Betrachter nicht nur Aufschluss darüber, wie einzelne Pendelbewegungen abhängig von Anfangsauslenkung und -geschwindigkeit mit fortschreitender Zeit aussehen, sondern auch, welche qualitativ unterschiedlichen Bewegungsarten in welchen Bereichen des Phasenraumes auftreten. Ein weiteres sehr bekanntes Phasenporträt ist das des sogenannten Van-der-Pol-Systems. Es wurde 1927 von dem Physiker Balthasar van der Pol als Ergebnis seiner Forschungen an Oszillatoren mit Vakuumröhren vorgestellt. Das Vander-Pol-System dient der mathematischen Beschreibung von Oszillationen in elektrischen nichtlinearen Schwingkreisen.12 Die Eigenschaften des Van-der-Pol-Systems sind insbesondere durch die Quelle im Punkt (0,0) und dem stabilen Grenzzyklus im Phasenporträt (siehe Abbildung 14) charakterisiert. Bei kleinen Amplituden des Systems wird die Bewegung verstärkt, bis eine periodische Lösung des Systems auftritt und beibehalten wird. Diese Bewegung ist im Phasenporträt durch die ausgehend vom Punkt (0,0) nach außen in den Grenzzyklus spiralenden Kurven dargestellt. Bei sehr hoher Amplitude des Schwingkreises wird das System gedämpft, so dass es nach gewisser Zeit wieder in den Grenzzyklus übergeht. Am Phasenporträt des Van-der-Pol-Systems in Abbildung 14 erkennt man somit, dass alle Lösungen mit fortschreitender Zeit in den stabilen Grenzzyklus (auch Attraktor genannt) laufen, d.h. unabhängig von der Wahl der Anfangswerte beginnt das Van-der-Pol-System nach einer gewissen Zeit zu oszillieren und verweilt in diesem periodischen Bewegungszustand. Das Phasenporträt ist ein wichtiges Werkzeug in der Welt der dynamischen Systeme: In nur einem einzigen Bild fasst es alle wesentlichen Lösungen und dynamischen Eigenschaften eines Systems zusammen und wird somit zu einer Wissensdatenbank von Bewegungen eines dynami-

Sina Ober-Blöbaum

146

Abb. 14: Phasenporträt des Van-der-Pol-Oszillators

schen Systems. Dieses Wissen über die globale Dynamik ist unverzichtbar, um dynamische Systeme zu analysieren und ihr Verhalten voraussagen zu können. Insbesondere gibt es Aufschluss über die asymptotische Stabilität von Lösungen, also ihr Verhalten im zeitlichen Grenzwert (auch Langzeitverhalten genannt). Diese Eigenschaften spielen bei der Regelung und Stabilisierung dynamischer Systeme eine wichtige Rolle. Beispielsweise kann der Einsatz von Reglern oder Dämpfungsmechanismen bei technischen Systemen die Dynamik des Systems so beeinflussen, dass ein gewünschtes Bewegungsverhalten eintritt.

Vom Porträt zum Chaos – wie dynamische Systeme den Rahmen sprengen

„Predictability: Does the flap of a butterfly’s wings in Brazil set off a tornado in Texas?“ Dieser Titel eines Vortrags des amerikanischen Meteorologen Edward N. Lorenz während der Jahrestagung der „American Association for the Advancement of Science“ im Jahr 1972 war namensgebend für den Schmetterlingseffekt. Im Grunde besagt er, dass geringfügig veränderte Anfangsbedingungen im langfristigen Verlauf zu einer völlig anderen Entwicklung des Systems führen können. Dieser Effekt erschwert es natürlich maßgeblich, das qualitative Verhalten eines dynamischen Systems zu verstehen. Beispielsweise kann das mathematische Pendel in ein chaotisches System überführt werden, wenn es durch ein Gelenk mit einem weiteren Pendelarm verbunden wird: das sogenannte Doppelpendel. Obwohl sich das System nicht wesentlich verändert hat, gilt dies nicht für seine Dynamik.

147 Mathematik im Bild

Beide Beispiele, sowohl das Pendel als auch das Van-derPol-System, sind relativ kleine Systeme mit lediglich zwei Dimensionen. Die zugehörigen Phasenporträts sind verhältnismäßig leicht zu erstellen und zu interpretieren, um das qualitative Verhalten der dynamischen Systeme zu analysieren. Um reale Systeme mathematisch abzubilden, werden jedoch oft sehr viel komplexere und höherdimensionale dynamische Systeme benötigt, für welche die Phasenporträts, also die Gesamtheit aller Lösungen, nicht mehr grafisch darstellbar sind. Stattdessen ist man hier an bestimmten wesentlichen Charakteristika des dynamischen Systems interessiert, also lediglich an einen Teil der globalen Informationen. Eine solche Herangehensweise wird z.B. verfolgt, wenn man sogenannte chaotische Systeme untersucht.14 Obwohl ihr Verhalten deterministisch, d.h. nicht vom Zufall geprägt, ist, erscheint die zeitliche Entwicklung chaotischer Systeme unvorhersehbar. Ein Beispiel hierfür ist der berühmte Schmetterlingseffekt:

Sina Ober-Blöbaum

148

Abb. 15: Bewegungen eines Doppelpendels

149 Mathematik im Bild

Anstatt zweier Zustandsvariablen besitzt das Doppelpendel vier Zustandsvariablen, und somit ist sein Phasenporträt allein aufgrund der hohen Dimension nicht grafisch darstellbar. Zur Demonstration seines chaotischen Verhaltens wurde am Tag der offenen Tür der Universität Paderborn 2012 die Bewegung eines Doppelpendels mittels Leuchtdioden und einer Langzeitbelichtung aufgenommen. In Abbildung 15 sind exemplarisch drei Bewegungen des Doppelpendels mit unterschiedlichen Startwerten dargestellt, welche alle unterschiedliches komplexes dynamisches Verhalten aufzeigen. Während bei dem mathematischen Einfachpendel zu zwei ähnlichen Anfangsauslenkungen zwei qualitativ gleiche Schwingbewegungen mit lediglich leicht unterschiedlicher Amplitude gehören, führen bei dem Doppelpendel nahezu gleiche Anfangswerte zu sehr unterschiedlichen Bewegungsbahnen. Somit war es auch im Rahmen dieses Versuchs nicht möglich, identische Aufnahmen zu erzeugen. Dies demonstriert die hohe Sensitivität der Lösungen bezüglich des Anfangswertes, was die Darstellung und Interpretation aller wesentlichen Lösungstrajektorien zur Analyse der globalen Dynamik unmöglich macht. Trotz des praktisch nicht vorhersagbaren Verhaltens chaotischer Systeme, ist man im Bereich der dynamischen Systeme sehr daran interessiert, ihr Langzeitverhalten zu untersuchen und zu interpretieren. Dies betrifft beispielsweise die Detektion von Attraktoren, d.h. solcher Bereiche im Phasenraum, in die die Lösungen des dynamischen Systems mit fortschreitender Zeit hineinlaufen und diese nicht mehr verlassen. Bei dem Van-der-Pol-System bildet gerade der Grenzzyklus genau einen solchen Attraktor. Ein berühmtes Beispiel eines chaotischen Systems ist das sogenannte Lorenz-System, welches Edward N. Lorenz im Jahr 1963 entwickelt hat, um atmosphärische Konvektionsströmungen zum Zweck einer Langzeitvorhersage zu modellieren. Das Lorenz-System14 besitzt drei Zustandsvariablen und somit drei Dimensionen. Seine chaotischen Lösungen zeichnen sich dadurch aus, dass sie unregelmäßig oszillieren, ohne dabei periodisch zu sein. Eine exemplarische Lösung ist in Abbildung 16 (oben) visualisiert: Die Tra-

Sina Ober-Blöbaum

150

Abb. 16: Zwei Visualisierungen des Lorenz-Attraktors

Resümee Bilder spielen seit jeher eine wichtige Rolle in der Mathematik, sei es zur anschaulichen Darstellung mathematischer Regeln wie z.B. die Mengendiagramme in Abbildung 4, als Hilfsmittel zur Beweisführung mathematischer Sätze wie dem Satz des Pythagoras oder zur Analyse dynamischen Verhaltens, wie es im Rahmen dieses Beitrags anhand des

151 Mathematik im Bild

jektorie läuft zunächst mehrfach in einer Spirale, wobei sie immer weiter nach außen spiralt, dann wechselt sie auf die andere Seite und macht dort mehrere Umläufe bevor sie wieder in die erste Spirale zurück kommt usw. Die Anzahl der Umläufe auf den beiden Seiten variiert dabei auf scheinbar zufällige Weise. Vergleicht man zwei anfangs nahe beieinander liegende Trajektorien, unterscheidet sich nach fortschreitender Zeit die Anzahl der Umläufe auf den beiden Seiten. Es konnte bewiesen werden,15 dass die Trajektorien eine komplizierte Menge beschreiben, die als Lorenz-Attraktor bezeichnet wird. Die in Abbildung 16 (unten) dargestellte Figur, der Lorenz-Attraktor, gibt zwar keine vollständigen Informationen über das Verhalten einzelner Lösungstrajektorien und ist somit kein vollständiges Phasenporträt des Lorenz-Systems, jedoch gibt sie Aufschluss darüber, in welchen Bereichen sich das System auf lange Sicht aufhält und wie eine solche Langzeittrajektorie qualitativ aussieht. Das Bild unten wurde im Rahmen der IMAGINARY Ausstellung von Jos Leys erstellt.16 Das Lorenz-System hat zahlreiche Mathematiker fasziniert und viele Forschungsarbeiten in der Chaostheorie motiviert. Die Schmetterlingsgestalt des LorenzAttraktors steht nicht nur als Sinnbild für den Schmetterlingseffekt, sondern wird auch seither unverwechselbar mit dem Lorenz-System assoziiert und macht es in diesem Sinne zu seinem einmaligen „Porträt“. Die Detektion, Berechnung, sowie die Darstellung von Objekten wie Attraktoren in chaotischen Systemen ist Gegenstand aktueller Forschung in der modernen Mathematik.

Sina Ober-Blöbaum

152

Phasenporträts eines dynamischen Systems beschrieben wurde. Dabei lassen sich sowohl bei der Erstellung als auch bei seiner Interpretation viele Parallelen zwischen mathematischen Phasenporträts und Porträts aus der Malerei erkennen: Auf das Zeichnen grober Formen und Strukturen folgt die Betonung der Details, die das abzubildende Motiv einzigartig und sein charakteristisches Wesen erkennbar machen. Ebenso wie der Ausdruck in den Augen einer porträtierten Person sehr viel über deren Gefühlszustand aussagt, lassen geschlossene Bahnlinien im Phasenporträt auf die Existenz periodischer Lösungen im dynamischen System schließen. Je mehr Vorwissen über Malerei, Fotografie oder Mathematik der Betrachter hat, desto mehr Details werden interpretierbar und desto mehr Erkenntnis kann aus dem Porträt gewonnen werden. Natürlich kann man sich ohne jegliches Vorwissen an den schönen geometrischen Formen algebraischer Flächen, Porträts und Attraktoren erfreuen. Je mehr Wissen jedoch vorhanden ist, desto mehr Information lässt sich aus den Bildern erschließen: Einfache Quadrate und Dreiecke beweisen den wichtigsten Satz der euklidischen Geometrie. Hübsche Skulpturen entpuppen sich als Lösungen komplexer algebraischer Gleichungen. Willkürlich angeordnete Linien und Punkten werden zu Wissensdatenbanken von Bewegungen dynamischer Systeme, und Schmetterlinge bilden Chaos.

Anmerkungen 1 Laut „Lexikothek“ Bertelsmann Lexikon ist ein Porträt die Darstellung eines Menschen oder einer Menschengruppe. 2 Siehe zum Beispiel A. M. Fraedrich, Die Satzgruppe des Pythagoras. Materialien. Landesinst. für Erz. u. Unterr., 1990 für eine Darlegung verschiedener Beweistechniken. 3 http://www.imaginary2008.de/about.php, (zuletzt besucht am 10.10. 2015). 4 Die in Abbildung 5 aufgeführten Bilder stammen von Herwig Hauser, Professor für Mathematik an den Universitäten Wien und Innsbruck (http://imaginary.org/gallery/herwig-hauser-classic), (zuletzt besucht am 10.10.2015).

153 Mathematik im Bild

5 Siehe zum Beispiel B. Marx and W. Vogt, Dynamische Systeme: Theorie und Numerik, Heidelberg 2011 zur Einführung eines Phasenporträts. 6 Für genaue Definitionen und Eigenschaften dynamischer Systeme, wie sie im Folgenden beschrieben werden, sei hier auf die mathematischen Lehrbücher A. Katok and B. Hasselblatt. Introduction to the modern theory of dynamical systems. Encyclopedia of mathematics and its applications. Cambridge 1995; J. Guckenheimer and P. Holmes, Nonlinear Oscillations, Dynamical Systems, and Bifurcations of Vector Fields, Volume 42 of Applied Mathematical Sciences, New York 1983; Marx/Vogt, Dynamische Systeme 2011 verwiesen. 7 Der Ausdruck „mathematisch“ bedeutet hier, dass es sich um ein idealisiertes Pendel mit konzentrierter Masse des Pendelkörpers und masselosem Pendelfaden ohne Reibung handelt. 8 Mit x = f sind die Pendelgleichungen formuliert als Differentialgleichungssystem erster Ordnung äquivalent zu der Differentialgleichung zweiter Ordnung x¨ (t) = –sin(x (t )). 9 Beispielsweise besitzt das dynamische System des Pendels in Gleichung (3) zwei Zustandvariablen, f und w, und somit zwei Dimensionen. 10 Auch andere Arten von Trajektorien können durch weitere Eigenschaften charakterisiert werden, siehe zum Beispiel Guckenheimer/Holmes, Nonlinear Oscillations 1983; Exemplarisch werden hier nur Fixpunkte und periodische Lösungen genauer betrachtet. 11 Da die Ruhelagen im Rahmen der gewählten mathematischen Beschreibung nicht eindeutig sind, wiederholen sich diese Strukturen im Phasenraum. 12 Siehe zum Beispiel Marx/Vogt. Dynamische Systeme 2011 für eine ausführliche Beschreibung und Analyse des Van-der-Pol-Systems. 13 Für eine Einführung in die Chaostheorie sei beispielsweise auf das Fachbuch W. Metzler, Nichtlineare Dynamik und Chaos: Eine Einführung, Stuttgart/Leipzig 1998 verwiesen. 14 Für eine Einführung siehe beispielsweise U. Jönck and F. Prill. Das Lorenz-System. Seminar über gewöhnliche Differentialgleichungen, Februar 2003. Online unter http://www.math.uni-hamburg.de/home/ lauterbach/scripts/seminar03/prill.pdf. (zuletzt besucht am 10.10.2015) und die dort zitierten Referenzen. 15 Siehe z.B. W. Tucker. The Lorenz attractor exists. C. R. Acad. Sci. Paris, 328: 1197–1202, 1999. 16 http://imaginary.org/gallery/the-lorenz-attractor (Bild von Jos Leys, www.josleys.com) (zuletzt besucht am 10.10.2015).

KAPITEL 6: KLANGBILDER

ZUR VISUALISIERUNG VON MUSIK UND MUSIKALISCHEN VERLÄUFEN 157 Klangbilder

Dominik Höink

Einleitung Musik ist kein visuelles Phänomen. Musik ist, so ließe sich im Rekurs auf John Cages Credo sagen, eine organisierte Form von Geräuschen („organization of sound“).1 In jedem Fall ist Musik ein auditives Phänomen, welches aber zugleich vermittels technischer Apparaturen sichtbar gemacht werden kann – zumindest lassen sich die Schwingungen visualisieren. Doch nicht allein die Messbarkeit und Darstellung mit einem Oszilloskop wäre als Beispiel für die Visualisierung von Musik anzuführen. Auch ließe sich an die Nähe bestimmter Musiken zur bildenden Kunst, an die Integration visueller Elemente in musikalische Kunstwerke oder gar an die Sichtbarmachung neuronaler Aktivitäten beim Hören von Musik denken, um nur einige weitere Bezugsmöglichkeiten zu nennen. Wenn von Musik und Visualisierung die Rede ist, so liegt – insbesondere vor dem Hintergrund eines emphatischen Kunstmusikbegriffs – ein weiterer Bezug auf der Hand: die Visualisierung von Musik im Notenbild. Dieser Aspekt soll der erste sein, dem die nachfolgenden Ausführungen sich zuwenden. Wenn die verschiedenen Dimensionen des ‚InsBild-Setzens‘ eines auditiven Geschehens in Form jenes spezifischen Zeichensystems beleuchtet sind, soll ein weiterer Aspekt, für den die Notenbilder die Grundlage darstellen, betrachtet werden: die Analyse von Musik – und dabei ge-

nauer: die visuelle Vermittlung von Analyseergebnissen in Form- oder Strukturbildern. Leitend bei der Auseinandersetzung mit diesen beiden Facetten des so reichhaltigen Themas der Visualisierung von Musik sind verschiedene Fragen: Welche Intentionen verbinden sich mit den Visualisierungen? Welche Funktionen haben sie? Wo liegen die Grenzen der Visualisierbarkeit? Welche Rolle spielen Interpretation oder auch Vereinfachung?

Dominik Höink

158

Notenbilder In seinem Standardwerk zum Schriftbild der Neuen Musik beschreibt Erhard Karkoschka die zentralen Funktionen der Verschriftlichung von Musik, nämlich „komplexere Musik aufzubauen, zu bewahren und zu vermitteln“.2 Die im Gang der Musikgeschichte sich entwickelnden Formen der schriftlich-visuellen Fixierung von musikalischen Verläufen haben es zunächst ermöglicht, polyphone Kompositionen niederzuschreiben, deren Komplexitätsgrad – unter Bewahrung einer Strukturiertheit – weitaus höher ist als derjenige einer vormals rein improvisierten Mehrstimmigkeit. Mit der Notenschrift sei es nun möglich, eine „komplexere Musik aufzubauen“.3 Die Fixierung einer Musik im visuell greifbaren Notat verbürgt zugleich die Bewahrung selbiger. Die Flüchtigkeit einer improvisierten Mehrstimmigkeit ist ersetzt worden durch die Reproduzierbarkeit, die die Schriftlichkeit ermöglicht. Dabei differieren die Informationsgehalte der verschiedenen Notationsformen erheblich. Mitunter ist ein hoher Grad an Expertise notwendig, um das visuell Greifbare in ein auditives Ergebnis zu verwandeln: Bereits die verschiedenen Formen mittelalterlicher Choralnotation, der Neumen, sind nicht zuletzt dadurch unterschieden, dass die einen, die sogenannten adiastematischen Neumen, keine Tonhöhen anzeigen, sondern lediglich die musikalischen Verläufe widerspiegeln, während die sogenannten diastematischen Neumen mit genauen Tonhöhen in Verbindung gebracht werden können. In jedem Fall ist die schriftliche Fi-

„Ich wünschte ein für allemal zu verhindern, daß meine Werke falsch interpretiert werden. Schon immer hatte ich nach einem Mittel gesucht, jene gefährliche Freiheit der Auslegung zu begrenzen, die heute so weit verbreitet ist,

159 Klangbilder

xierung von Musik, das heißt die Visualisierung dieses zeitgebundenen, verklingenden Phänomens, fundamental für die Beschäftigung mit der Geschichtlichkeit von Musik. Musik wird bewahrt und kann anschließend neu vermittelt werden. Notenbilder sind jedoch nicht allein das Produkt eines zuvor – davon losgelöst – erfolgten Kompositionsprozesses, sie sind nicht die schriftlich-bildliche Form eines rein auditiv Vorgestellten. Vielmehr besteht ein reziprokes Verhältnis, indem nämlich nicht nur das Notierte Abbild des Komponierten ist, sondern indem das Komponieren selbst durch die Art der Notation beeinflusst wird. Und nicht allein das Generieren von Musik ist von den Notationsformen beeinflusst, sondern vielmehr – wie bereits Karkoschka betont hat – „das gesamte musikalische Denken aller Musiker, so daß klangliche und bildliche Seinsweise eines Musikwerkes in jeder Epoche charakteristisch verbunden bleiben“.4 Jedes Notenbild bedarf der Interpretation. So eindeutig ein Zeichensystem der Musik auch definiert sein mag, es erfordert stets eine Auslegung, um das Visuelle zunächst in etwas Motorisches umzusetzen und schließlich etwas Auditives zu generieren. Die Komponisten haben verschiedentlich versucht, jenen Interpretationsspielraum zu begrenzen, beispielsweise durch das Einfügen von Metronomangaben, um das Tempo genau zu fixieren. Dennoch ist offenkundig, dass eine völlige „Objektivierung im Notenbild“ utopisch ist.5 Erst die Möglichkeiten der technischen Reproduzierbarkeit von Musik ermöglichten die unendliche Wiederholbarkeit der immer gleichen – möglicherweise vom Komponisten autorisierten – Klangdarbietung. Im frühen 20. Jahrhundert war es etwa Igor Stravinsky, der die Erfindung der Player Pianos feierte, sah er sich doch mit einer allzu freien Interpretation seiner Kompositionen beziehungsweise von deren Notenbildern konfrontiert:

und die es dem Publikum unmöglich macht, die wahren Intentionen des Komponisten kennenzulernen. Dieses Mittel glaubte ich in den Walzen des mechanischen Klaviers gefunden zu haben.“6

Dominik Höink

160

Der Interpret wird in dieser Perspektive disqualifiziert. Stattdessen möchte der Komponist die totale Kontrolle über das Werk und jede der nachfolgenden Aufführungen erhalten, um auf diese Weise seine „wahre Intention“ (vermeintlich) objektiv zu vermitteln. Aber nicht allein der Interpret muss das Notenbild auslegen, um es darzubieten; das Notenbild selbst ist bereits in seiner Anlage eine Interpretation. Betrachtet man etwa die Tonart C-Dur, so stellt sich diese Tonart in unserem ‚gewohnten‘ Notationssystem ohne Vorzeichen dar. Entsprechend gilt C-Dur zwischen den Kreuz- und den B-Tonarten als eine Art Mitte. Obschon C-Dur bereits seit geraumer Zeit keineswegs mehr als tonartliche Mitte angesehen werden kann, suggeriert dies unser Notationssystem bis heute.7 Verschiedene Reformbestrebungen waren die Folge. Mit der Entwicklung neuer Notationsformen kommt der Aspekt der Angemessenheit ins Spiel, der für jede Form der Visualisierung von Musik zu prüfen wäre. Adäquat ist eine Notation dann, wenn zunächst „die Zusammenhänge zwischen den Zeichen den Beziehungen entsprechen, die das musikalische System konstituieren“ und wenn „den Werken, die in einer Schrift notiert sind, das Bezugssystem zugrunde lieg[t], das die Notation ausdrückt“.8 Jene Angemessenheit wiederum muss jedoch immer eine Verbindung zur Tradition bewahren, „um nicht ins Sektiererische zu geraten“ und um verständlich zu bleiben. Die Kontinuität tritt als weiteres Kriterium einer Notationsform hinzu.9 Sind Angemessenheit und Kontinuität wesentliche Kriterien einer Form der Bildlichkeit von Musik, mit der Komponisten versuchten und versuchen, ihre Klangvorstellungen möglichst präzise zu visualisieren, um sie zu bewahren und reproduzierbar zu machen, so ist seit dem Ende der 1950er Jahre eine völlig andere Entwicklung zu verzeichnen: Komponisten verlassen zunehmend den Bereich eines möglichst

„Diese Blätter entstanden als Versuch (oder Wille) die Idee einer Musik, die mir gerade vorschwebte, so schnell wie möglich zu fixieren, sie quasi ‚in flagranti‘ zu erwischen. Am Anfang jedes Werkes liegt eine zeitlose Idee, die – primär – mit irgendeiner bekannten Notation nichts gemeinsam hat, und deren ‚Bild‘ eher einer graphischen Aufzeichnung ähnelt. Die ganze sogenannte ‚Konsequenz‘ ist nur ein Gedankenspiel, dem Ablesen einer Patience ähnlich. Meine größte Zuneigung gilt dem ‚Unaufführbaren‘.“ 11 Die Transformation einer musikalischen Idee in ein ‚gewöhnliches‘ Notationsbild verändert sogleich die ursprüngliche Idee. Gerade die unübersetzte Idee jedoch ist es, die Haubenstock-Ramati unmittelbar im Akt ihres Entstehens, also „in flagranti“, abbilden möchte, und weshalb er sich von „irgendeiner bekannten Notation“ löste, die keine Schnittmenge mit dem musikalisch Vorgestellten hat.

161 Klangbilder

eindeutigen Zeichensystems und wenden sich nicht-determinierten Formen von Musikbildern zu. Die Instanz des Interpreten, die – wie exemplarisch an Stravinsky vorgeführt – bisweilen als eher störend empfunden wurde, wird nun fundamentaler Bestandteil des Werkes. Die Spontaneität des Darbietungsaktes bei der Interpretation eines Musikbildes wird zum konstituierenden Faktor der Komposition, die in dieser Weise nicht mehr einem klassischen Werkbegriff unterliegt. Inbegriffen in die Zersetzung des überkommenen Werkbegriffs, welche mit dem Aufkommen von zufälligen und indeterminierten Inhalten weitere Nahrung erhalten hat, ist auf visueller Ebene die Wendung zur musikalischen Grafik. Roman Haubenstock-Ramati prägte den Begriff der „musikalischen Grafik“ und pointierte mit dieser Form der Notation sein Credo „‚realisieren‘ heißt ‚interpretieren‘“.10 In der 1980 publizierten Sammlung seiner grafischen Werke beschreibt der Komponist seine Vorstellung vom ‚Ins-Bild-setzen‘ der Idee einer Musik und verweist auf die Spannung, die zwischen der Idee und den üblichen Notationsformen herrscht:

Abb. 1: Haubenstock-Ramati, Mobile for Shakespeare (1958) (aus: Haubenstock-Ramati, Musik-Grafik Pre-Texte, S. 25.)

Dominik Höink

162

163 Klangbilder

Dass der Komponist jedoch nicht ausschließlich mit Notenbildern operierte, die jenseits der „bekannten Notation“ liegen, sondern sich ebenso in seinen grafischen Werken der üblichen Notationsweise bediente, zeigt ein Beispiel wie Mobile for Shakespeare (Abb. 1). Das Stück ist komponiert für Gesang (Sopran oder Mezzosopran) und 6 Spieler, die sich in drei Partien aufteilen. Der äußere Rahmen des Mobile (bestehend aus zwölf Feldern) ist der Gesangsstimme und einem Schlagzeug zugeordnet, der mittlere Rahmen (bestehend aus zehn Feldern) wird von einem Klavier und einer Celesta übernommen, während für den inneren Teil (bestehend aus sechs Feldern) zwei Schlagzeuge und ein Vibraphon vorgesehen sind. Die Felder jeder einzelnen Partie sind im oder entgegen dem Uhrzeigersinn zu musizieren. Der Beginn einer jeden Partie ist ebenso wie das Tempo nicht festgelegt.12 Entsprechend ergeben sich unzählige Möglichkeiten der Realisierung dieser Musik. Haubenstock-Ramati differenziert in seiner Musik grundsätzlich zwischen „offenen“ und „dynamisch geschlossenen“ Formen, die mit entsprechenden Notationsformen verbunden sind. Sein Mobile for Shakespeare bezeichnete der Komponist als „dynamische geschlossene Form“, sie „integriert die Wiederholung, gibt aber sowohl der Wiederholung als auch der Variation eine neue Bedeutung. Sie ist eine variable, mobileartige Form, die als ‚konstante Variation durch konstante Wiederholung‘ bezeichnet werden kann.“13 Die Zeit sei in diesem Stück ein „mitschöpferische[r] Faktor“, der – „wie in der Unscharfphotographie oder der Photographie eines bewegten Objekts“ – das Kunstobjekt direkt beeinflusse.14 Sorgt die mobileartige Gestaltung des Stücks für eine formale Unbestimmtheit, so ist das musikalische Material selbst herkömmlich notiert. Ein frühes und gleichzeitig das wohl prominenteste Beispiel für eine musikalische Grafik, die jenseits jeglicher ‚gewöhnlicher Notation‘ funktioniert, stellt Earl Browns December 1952 (Abb. 2) dar:

Dominik Höink

164

Abb. 2: Earle Brown, December 1952 (aus: Karkoschka, Das Schriftbild der Neuen Musik, S. 93.)

Bediente sich Brown in seinem Stück November 1952 (Abb. 3) noch der ‚gängigen‘ Notenzeichen und überließ den Ausführenden lediglich Schlüsselwahl, Instrumentierung etc., so findet sich in December 1952 zunächst kein Element eines ‚traditionellen‘ Notenbildes. Der Komponist verstand seine Grafik als Anregung und reklamierte dabei keine Deutungshoheit. Alle Interpretationen hätten ihre Berechtigung, ob man sich beispielsweise die vertikale Dimension als verschiedene Tonhöhen oder als Beschreibung des dynamischen Verlaufs denke. Brown selbst hat im Rahmen der Darmstädter Ferienkurse für Neue Musik 1964 das Blatt einem Orchester vorgelegt und es anschließend selbst dirigiert. Folgt man der Beschreibung Karkoschkas, so haben dabei wohl eher Browns Hand-

Abb. 3: Earle Brown, November 1952 (aus: Karkoschka, Das Schriftbild der Neuen Musik, S. 92.)

bewegungen das klangliche Resultat beeinflusst als das grafische Notat. Die Musiker spielten etwa ausgedehnte Crescendi oder das Eulenspiegel-Thema von Richard Strauss, welche nur schwerlich dem vorliegenden Notenblatt entnommen werden können.15 In jedem Fall ist December 1952 ein vorzügliches Beispiel für die Freiheit, die mit grafischen Notationsformen einhergeht. Diese Freiheit bedeutet zugleich eine Aufwertung der Rolle des Interpreten. Bisweilen ist diese Verschiebung als ein Wandel vom „Hierarchischen zum Kooperativen“ und schließlich – ins Politische gewendet – als „eine neue Art künstlersicher Vergesellschaftung“, als „anderes Gesellschaftsmodell“, beschrieben worden.16 Durch die musikalische Grafik hat überdies eine Verschiebung auf ästhetischer Ebene stattgefunden, insofern als die Grafik „in der Qualität als visuelle Konfiguration“ eine Ausdrucksdimension aufweist.17 Das notierte Musikstück ist als Bild selbst ein ästhetischer Gegenstand. Auf die Spitze getrieben ist diese Entwicklung in der sogenannten ‚visuellen Musik‘. Entstanden als eine „spielart der bildenden kunst“ gewährt die visuelle Musik dem Interpreten nicht allein größtmögliche Freiheit bei der Ausführung, sie verabschiedet sich sogar gänzlich vom Interpreten: „sie will ausschliesslich durch sich selbst wirken, der interpret ist hier

Klangbilder

165

Dominik Höink

166

allein der betrachter.“18 Entsprechend verlagert sich der Zugang, denn visuelle Musik soll „mit den augen wahrgenommen werden und nur im ‚inneren Ohr‘, synoptisch, vage akustische vorstellungen wecken.“19 Bereits dieser kurze Blick auf verschiedene Formen der Visualisierung von Musik liefert einen Eindruck von der Vielgestaltigkeit und zugleich von den Polen, zwischen denen sich das ‚Ins-Bild-setzen‘ von Musik bewegt: Auf der einen Seite steht der Wunsch nach einem Notationssystem, welches so präzise wie möglich die Klangvorstellung des Komponisten festzuhalten vermag, während auf der anderen Seite die Einbeziehung gerade der interpretatorischen Freiheit zum wesentlichen Merkmal der Stücke erklärt wird und die bildliche Vorlage entsprechend vieldeutig bleibt. In den Kontext letzterer Notationsformen gehören freilich auch Diskussionen darüber, welche Form der grafischen Vorlage anregend für den Interpreten ist.20 Die Schwierigkeit, die Musik seit der Mitte des 20. Jahrhunderts angemessen notieren zu können, hat vielfach dazu geführt, dass die Komponisten gleichzeitig zu Schöpfern neuer Notationsformen geworden sind. Das Unbehagen gegenüber dem herkömmlichen Zeichensystem sowie der teilweise Verlust der Vorstellung vom musikalischen Werk als einem opus perfectum et absolutum haben immer wieder die Forderung nach neuen Notenschriften laut werden lassen. Dabei wird zum Gradmesser, inwiefern es gelingt, „Kompliziertes einfacher erscheinen zu lassen als die heutige Schrift“.21 Neben den eingangs erwähnten drei Funktionen der Verschriftlichung von Musik, dem ‚Aufbauen‘, ‚Bewahren‘ und ‚Vermitteln‘ komplexer Musik, ist der Bereich der Beurteilung anzuführen. Arnold Schönberg stellte etwa mit Verweis auf Johannes Brahms heraus, dass er ein Urteil über die amerikanische Musik nur dann abgeben könne, wenn er die Musik ‚vor Augen‘ habe, da ein Höreindruck stets trügerisch oder zumindest wandelbar sei: „Es gibt nur sehr wenig Musik amerikanischer Komponisten, von der ich die Noten kenne. Und Sie werden viel-

leicht wissen, daß Brahms, z. B., sich weigerte, ein Stück zu beurteilen, von dem er nicht die Noten gesehen habe – womit ich übereinstimme. […] Meiner langen Erfahrung nach ändert sich der Eindruck eines Stückes beträchtlich, wenn man es öfters hört.“22

Analysebilder Bedienen sich Komponisten der Notenbilder, um komplexe musikalische Strukturen zu fixieren und ihre Überzeitlichkeit und Reproduzierbarkeit zu ermöglichen, so bedienen sich Analytiker vielfach ebenfalls visueller Hilfsmittel bei der Auseinandersetzung mit Notenbildern. Insbesondere im Zusammenhang mit musikalischer Formanalyse dienen Schaubilder, Tabellen und Grafiken der Sichtbarmachung der inneren Organisation eines Musikwerks. Vermittels bildlicher Übersetzung wird das strukturelle Gefüge in einer Weise dargestellt, die wesentlich einfacher nachvollziehbar ist als eine textliche Beschreibung.23 Freilich ist diese erleichterte Einsicht in den Aufbau einer Komposition verbunden mit einem hohen Grad an Vereinfachung durch Reduktion auf einen Aspekt des musikalischen Geschehens. Zunächst werden Notenbilder jedoch als Analysemittel verwendet (1), bevor – möglicherweise – die Ergebnisse der Werkbetrachtung in anderen Grafiken aufgehen (2). (1) Der bereits zitierte Brief Schönbergs illustriert, dass selbst Komponisten und Experten im Umgang mit Musik sich der visuell greifbaren Form, das heißt der Noten, bedienen, um ein fundiertes Urteil zu fällen. Im Gegenüber von visueller und auditiver Analyse hat Walter Kolneder zwei wesentliche Gründe vorgebracht, die für erstere und gegen letztere sprechen:

167 Klangbilder

Die visuelle Erfassung der notierten Komposition ist für ein tiefergehendes Verständnis fundamental und somit – nicht immer, aber doch meistens – ebenso grundlegend für die Analyse.

„1. die Einführung in musikalische Gestaltzusammenhänge gibt erst dem bewußten gehörsmäßigen Erfassen das Material, muß ihm also vorausgehen, 2. im Hinblick auf den zeitlichen Ablauf der Musik ist das Ohr nur sehr bedingt imstande, die analytische Arbeit zu leisten.“ 24

Dominik Höink

168

Das Betrachten von Musik in Form von Noten ermöglicht es dem Analysierenden, stehen zu bleiben und beliebig vor oder zurück zu springen, um Zusammenhänge, Wiederholungen oder Proportionen zu erkennen. Der ansonsten zeitgebundenen Kunstform wird gerade diese Bindung genommen; es kommt zu einer „Statik der Werkbetrachtung“.25 Hierin wiederum mag aber ebenso eine Gefahr liegen, da sich der Analyseprozess zu sehr in Kleinteiligkeit verlieren kann und gerade dynamische Verlaufsdimensionen vernachlässigt werden. Ein historisch wirkmächtiges Beispiel für die Reduktion von musikalischen Verläufen auf einen Kern, der als Ausgang eines gesamten Werkes oder Werkteils betrachtet wird, ist Heinrich Schenkers Idee der ‚Urlinie‘. Der Musiktheoretiker ‚zerlegte‘ in seinen Analysen die musikalischen Werke regelrecht in verschiedene Schichten und differenzierte dabei zwischen einem Vordergrund, einem Mittelgrund und einem Hintergrund. Die Schichten wiederum werden in Schenkers Analyse in verschiedenen Grafiken dargestellt. In der Zusammenschau konstituieren sie ein Bild der tonalen Organisation eines Stücks (Abb. 4 und 5).26 Insbesondere das zweite Beispiel illustriert Schenkers Segmentierung des musikalischen Ganzen und die anschließende grafische Aufbereitung. Das innovative Moment dieser Form der musikalischen Analyse lag darin, den Inhalt einer Komposition vollständig grafisch darzubieten und nicht rein textlich (mit lediglich vereinzelten Notenbeispielen). Ist es bei Analysen in Textform stets nur möglich, eine Dimension (Melodik, Harmonik oder Rhythmik) gleichzeitig zu beschreiben, so erscheinen in der grafischen Analyse alle Parameter synchron dargestellt. Auf diese Weise wird das Wechselspiel zwischen den musikalischen Eigenschaften

Abb. 5: Anfang von Heinrich Schenkers Analyse des Chorals „Ich bin’s, ich sollte büssen“ von Johann Sebastian Bach (aus: Schenker, Five Graphic Music Analyses, S. 32)

leichter greifbar. Dabei ist jedoch nicht zu verkennen, dass diese Form der Präsentation ein hohes Maß an Expertenwissen voraussetzt, um die musikalischen Zusammenhänge begreifen zu können.

169 Klangbilder

Abb. 4: Anfang von Heinrich Schenkers Analyse der 3. Symphonie Ludwig van Beethovens (aus: Schenker, Das Meisterwerk in der Musik, Anhang)

Dominik Höink

170

Auch waren Schenkers Studien anfangs keineswegs rein grafisch angelegt, sondern lediglich Bestandteil einer durchaus umfangreichen Untersuchung in Textform. Die Resonanz jedoch, die seine Betrachtung von Beethovens „Eroica“ hervorgerufen hat, hat Schenker dazu verleitet, 1932 eine Sammlung vergleichbarer Arbeiten zu veröffentlichen.27 Die grafische Analyse sah Schenker in den 1930er Jahren, in denen er das Vorwort zu den fünf grafischen Analysen geschrieben hat, als selbsterklärend an, weshalb er auf einen erläuternden Text verzichtete: „Die Darstellung ist jetzt zu einer Vollendung gelangt, die einen Text entbehrlich macht.“28 Schenkers Analysemethode mit seiner Rückführung des musikalischen Materials auf einen Kern, den Ursatz, und die Darbietung in grafischer Form stellt ein Beispiel für die Visualisierung musikalischer Verläufe dar, die noch mit herkömmlichen Notenbildern operiert. (2) Losgelöst von traditionellen Notenbildern erscheinen Formbilder, mit denen versucht wird, die klangliche Dimension eines Musikstücks grafisch darzustellen. Dabei werden abstrakte Symbole generiert, die beispielsweise zu Repräsentanten von Punkt-, Liege- oder Bewegungsklängen werden. Schließlich lässt sich der klangliche Verlauf eines in herkömmlicher Weise notierten Musikstücks (Abb. 6) mithilfe solcher Satzbilder grafisch übersetzen (Abb. 7):29 Die Komplexitätsreduktion ist offenkundig. Der Betrachter der Satzbilder erhält keinerlei Informationen zur Instrumentierung, zum genauen musikalischen Verlauf oder zur Tonalität. Dennoch vermitteln die grafischen Formen – insbesondere beim hörenden Nachvollzug – dem nicht notenkundigen Laien einen Eindruck vom Ablauf der Komposition, den der Notentext lediglich mit Vorkenntnissen offenbart. Überdies fokussieren die Satzbilder die Brüche und Wechsel innerhalb der Stücke, indem jeweils einem bestimmten Abschnitt ein Symbol zugeordnet wird. Auf diese Weise ist die musikalische Struktur leichter fassbar. Generell sind grafische Formen beliebt, um Formverläufe

Klangbilder

171

Abb. 6: Béla Bartók, Musik für Saiteninstrumente, Schlagzeug und Celesta, Beginn des 3. Satzes (aus: Krämer, Strukturbilder, Sinnbilder, Weltbilder, S. 138)

Abb. 7: Satzbilder des 3. Satzes von Béla Bartóks Musik für Saiteninstrumente, Schlagzeug und Celesta (aus: Krämer, Strukturbilder, Sinnbilder, Weltbilder, S. 139)

sichtbarer zu machen. Dies hilft insbesondere dann, wenn verdeutlicht werden soll, wie bestimmtes musikalisches Material aus einer älteren Komposition in ein neues Stück implementiert worden ist. Exemplarisch sei die Analyse einer Herrschermesse von Jachet von Mantua gezeigt, deren Vorlagenkomposition die berühmte Missa Hercules Dux Ferrariae von Josquin des Prez ist.30 Jachet griff in seiner – nota bene gleichnamigen – Messe auf das sogenannte soggetto cavato Josquins zurück, das heißt auf das – nach einem be-

Dominik Höink

172

Abb. 8: Soggeto-Verlauf in Jachet von Mantuas Missa Hercules Dux Ferrariae (aus: Ammendola, Herrschermessen, S. 105.)

stimmten Prinzip gewonnene – substantielle musikalische Motiv (Abb. 8). Die kompositorische Verarbeitung des soggetto cavato der Referenzkomposition wird in der gezeigten Grafik in ihrem Verhältnis zur Darbietung des neukomponierten eigenen soggetto dargeboten. Die drei Abschnitte meinen die drei Abschnitte der letzten Agnus Dei-Anrufung im letzten Messensatz. Sie erklingen entsprechend nacheinander und sind nicht mit den Schichten in Schenkers Analyse zu verwechseln. Jeder farbige Kasten steht für einen Einsatz des soggetto, wobei die schwarze Linie jeweils die Dauer symbolisiert. Diese vereinfachte Darstellung der musikalischen Verläufe, in der allein die soggetto-Einsätze visualisiert sind, reduziert die Vielschichtigkeit des musikalischen Geschehens selbstverständlich enorm. Vor dem Hintergrund der Fragestellung, die der Analyse zugrunde liegt, ist eine solche Komplexitätsreduktion geradezu zwangsläufig, um eine Aussage über das spezifische Verhältnis des nachgeschaffenen zum Referenzwerk formulieren zu können. Somit wird zum Verständnis dieses Beispiels der Visualisierung musikalischer Verläufe zwar ein Spezialwissen vorausgesetzt, nämlich die Kenntnis des soggetto-Prinzips und die besondere

Klangbilder

173

Abb. 9: Self-similarity matrix des Minuetts aus Georg Friedrich Händels Wassermusik Nr. 1 in F-Dur (aus: Hanna u.a., Visualisation, S. 133.)

Bedeutung der Messe Josquin des Prez’, die Grafik ermöglicht es aber demgegenüber auch einem Leser, der keinerlei Kenntnis des Notationssystems hat, eine Aussage darüber zu formulieren, wie die beiden soggetti in die Struktur der polyphonen Messkomposition eingebunden sind. Dienen einfache grafische Modelle dieser Art vornehmlich der Visualisierung struktureller Verläufe, also der Organisation des musikalischen Materials im zeitlichen Ablauf der Komposition, so benutzen neuere computergestützte Analyseverfahren grafische Abbildungen, um etwa motivische Ähnlichkeiten innerhalb einer Komposition in einer Matrix darzustellen (Abb. 9).31 Das abgebildete Beispiel der Analyse von Händels Wassermusik zeigt, wie der musikalische Verlauf jeweils in ein Verhältnis zu sich selbst gesetzt worden ist. Sowohl auf der

x- als auch auf der y-Achse sind jeweils die Noten beziehungsweise musikalischen Abschnitte abgetragen (links oben beginnend). Die dunkle Farbe markiert einen höheren Ähnlichkeitsgrad. Entsprechend ist die Diagonale schwarz gefärbt, da an diesen Stellen ein bestimmter musikalischer Abschnitt mit sich selbst verglichen worden ist. Die schwarzen diagonalen Linien jenseits der Hauptlinie weisen schließlich auf Entsprechungen auf musikalischer Ebene hin.

Dominik Höink

174

Fazit Die vorgestellten Beispiele von Noten- und Analysebildern zeigen die Verschiedenartigkeit dieser Visualisierungsformen, die jedoch auf systematischer Ebene verglichen werden können. Zunächst ist evident, dass jede Überführung des auditiven Phänomens Musik in eine grafische Form ein Akt der Interpretation ist. Überdies wirkt im Fall des Komponierens die gewählte Visualisierungsform auf den Kompositionsprozess selbst zurück. Bisweilen kommt es zu einer Erweiterung der Notation, damit der Komponist präzise seine Vorstellungen ‚ins Bild setzen‘ kann. Entgegen dem Streben nach möglichst großer Genauigkeit finden sich freie Formen, die den Akt der Interpretation durch einen Ausführenden bewusst als Teil des Stücks selbst einbeziehen. Diese grafischen Notationsformen folgen keinem geregelten Zeichensystem, sondern bleiben indeterminiert. Die Notenbilder erstrecken sich somit zwischen möglichst großer Präzision auf der einen und absoluter Freiheit auf der anderen Seite. Ein Expertenwissen ist für die Rückübersetzung einer ‚herkömmlichen‘ Notation in ein klangliches Phänomen zwingend erforderlich. Überdies hilft ein möglichst großes Kontextwissen bei der Interpretation des Notierten. Sowohl für Noten- als auch für Analysebilder ist ein hoher Grad an Komplexitätsreduktion kennzeichnend. Keine Form der Notation oder grafischen Analyse wird der Komplexität des klanglichen Geschehens gerecht. Im Zusammenhang mit Analysebildern ist die Reduktion der Vielschichtigkeit des musikalischen Geschehens beabsichtigt,

„Es besteht kein Zweifel darüber, daß im Musikdenken unseres Jahrhunderts [des 20. Jahrhunderts; Anm. d. Verf.], soweit wir es bisher überschauen können, eine starke Verlagerung vom Gehörsmäßigen ins Optische erfolgt ist.“32

Anmerkungen 1 Vgl. John Cage, The future of music: Credo, in: ders. (Hrsg.), Silence. Lectures and Writings, Hannover 1961, S. 3–6. 2 Erhard Karkoschka, Das Schriftbild der Neuen Musik. Bestandsaufnahme neuer Notationssymbole. Anleitung zu deren Deutung, Realisation und Kritik, Celle 1966, S. 1. 3 Ebd. 4 Ebd. 5 Oliver Krämer, Strukturbilder, Sinnbilder, Weltbilder. Visualisierung als Hilfe beim Erleben und Verstehen von Musik, Augsburg 2011, S. 141. 6 Igor Stravinsky, Mein Leben, München 1958, S. 93f. 7 Vgl. Karkoschka, Das Schriftbild der Neuen Musik, S. 1. 8 Carl Dahlhaus, Notenschrift heute, in: Ernst Thomas (Hrsg.), Notation

175 Klangbilder

um einen bestimmten Aspekt der Analyse sichtbar zu machen und um somit nur einen Teil des Werkes zu interpretieren. Die verwendeten Grafiken erscheinen zunächst leichter zugänglich für den Leser, da beispielsweise strukturelle Verläufe illustriert werden, deren Sichtbarmachung ansonsten ein aufwendiges Partiturstudium erforderlich machen würde. In einigen Fällen werden die Strukturverläufe dadurch einem Leserkreis zugänglich gemacht, der nicht über das notwendige Wissen verfügen muss, welches nötig wäre, um eigenständig eine Partituranalyse durchzuführen. Und dennoch ist zu einer vollständigen Erfassung des in der Analyse grafisch Ausgesagten ein Kontextwissen erforderlich. Bereits diese knappe Beschreibung einiger weniger Aspekte des Themas „Visualisierung von Musik und musikalischen Verläufen“ zeigt die Vielgestaltigkeit und die Unterschiedlichkeit hinsichtlich Interpretation, eines notwendigen Kontext- und Expertenwissens und einer Eindeutigkeit in der Aussage. Die Aktualität des Themas ist für die Musikgeschichte spätestens seit dem 20. Jahrhundert größer denn je:

9 10 11 12 13

Dominik Höink

176

14 15 16

17 18

19 20 21

22 23 24

25 26

27 28 29 30

Neuer Musik (= Darmstädter Beiträge zur Neuen Musik, 9), Mainz 1965, S. 9–34, hier S. 18. Ebd., S. 19. Roman Haubenstock-Ramati, Musik-Grafik Pre-Texte, Wien 1980, S. 3. Ebd., S. 5. Vgl. die Beschreibung in der Notenausgabe: Roman Haubenstock-Ramati, Mobile for Shakespeare für Gesang und 6 Spieler, London 1961. Roman Haubentstock-Ramati, Notation – Material und Form, in: Ernst Thomas (Hrsg.), Notation Neuer Musik (= Darmstädter Beiträge zur Neuen Musik, 9), Mainz 1965, S. 51–54, hier S. 54. Ebd. Vgl. Karkoschka, Das Schriftbild der Neuen Musik, S. 93. Habakuk Traber, Expressionismus und graphische Notation. Moderne als Präsenz der Geschichte in León Schidlowskys Komponieren, in: David Schidlowsky/León Schidlowsky (Hrsg.), Musikalische Grafik – graphic music, Berlin 2011, S. 13–19, hier S. 18. Franzpeter Goebels, Musikalische Grafik – Grafische Musik. Eine bimediale Ausstellung, Hagen 1972, S. 5. Erläuterungen des Autors zu Werkgruppen und einzelnen Arbeiten, in: Monika Lichtenfeld (Hrsg.), Gerhard Rühm, Gesammelte Werke: 2.2 visuelle Musik, Berlin 2006, S. 649. Ebd., S. 650. Vgl. Karkoschka, Das Schriftbild der Neuen Musik, S. 3. Ebd., S. 10. Carl Dahlhaus verweist beispielsweise auf die Problematik, ein Cluster in der traditionellen Notation darzustellen, was zur Folge hat, eine Reihe von Einzeltönen notieren zu müssen, wodurch wiederum „der undifferenzierte Cluster erscheint als differenzierter Akkord“. Dahlhaus, Notenschrift heute, S. 13. Arnold Schönberg an Roy Harris, Brief vom 17. Mai 1945, in: Erwin Stein (Hrsg.), Arnold Schönberg. Briefe, Mainz 1958, S. 245f. Vgl. zum Themenkomplex grundsätzlich: Krämer, Strukturbilder, Sinnbilder, Weltbilder. Zum Thema „Strukturbilder“, vgl. bes. S. 134–149. Walter Kolneder, Visuelle und auditive Analyse, in: Der Wandel des musikalischen Hörens (= Veröffentlichungen des Instituts für Neue Musik und Musikerziehung Darmstadt, 3), Berlin 1962, S. 57–66, hier S. 58. Ebd., S. 59. Vgl. Felix Salzer, Introduction to the Dover Edition, in: Heinrich Schenker, Five Graphic Music Analyses (Fünf Urlinie-Tafeln), New York 1932, S. 14. Vgl. das Vorwort zu Heinrich Schenker, Fünf Urlinie-Tafeln, Wien 1932. Ebd. Vgl. Krämer, Strukturbilder, Sinnbilder, Weltbilder, S. 136–140. Vgl. Andrea Ammendola, Polyphone Herrschermessen (1500–1650): Kontext und Symbolizität (= Abhandlungen zur Musikgeschichte, 26), Göttingen 2013, S. 96–107.

31 Vgl. Pierre Hanna/Matthias Robine/Pascal Ferraro, Visualisation of musical structure by applying improved editing algorithms, in: Proceedings of the 2008 International Computer Music Conference. August 24–29, 2008, Belfast, Northern Ireland, San Francisco/Belfast 2008, S. 132–135. 32 Vgl. Kolneder, Visuelle und auditive Analyse, S. 66.

Klangbilder

177