200 101 32MB
German Pages 112 Year 2017
Bettina Bock von Wülfingen (Hg.)
Spuren Erzeugung des Dagewesenen
Bildwelten des Wissens Band 13
Bettina Bock von Wülfingen (Hg.)
SPUREN Erzeugung des Dagewesenen
1
4
2
3
5
6
7
9
8
10
11
1: Teilchenspuren in einer Nebelkammer, LMU München, 2010. 2: Darstellung einer Proton-Bleiion-Kollision, ALICE (A Large Ion Collider Experiment)/CERN. 3: Eislaufspuren, Buckingham Pond, Albany, 2013. 4: „Chronocyclograph of golf champion Francis Ouimet”, ca. 1915, Sammlung Frank B. Gilbreth Motion Study Photographs. 5: Rosalind Franklin: Foto 51, Röntgenbeugungsbild einer DNA. 6: Tony Orrico: „Penwald: 4: unison symmetry standing“, Dance Theater Workshop, New York, 2010. 7: Étienne-Jules Marey: Flugbahn der Flügelspitze einer Krähe, Chronofotografie, ca. 1890. 8: Kármánsche Wirbelstraße bei Jan Mayen Island im Nordatlantik, 2012. 9: Galaxiehaufen Cl 0024+17, Hubble-Weltraumteleskop-Aufnahme mit vorgeblendeter Karte der Dunkle-Materie-Verteilung (blau). 10: Diagramm mit Spektren verschiedener Typen von Blutproben, 1894. 11: Fingerprint-Analyse eines Öls, zweidimensionale Gaschromatografie mit Flammenionisationsdetektor. Unterschiedliche Farben stehen für verschiedene Bestandteile
12
14
13
15
16
17
19
18
20
21
der Probe. 12: Arcangelo Sassolino: Untitled, 2006/2007, Ausstellungsansicht (Kratzspuren). 13: Digital produziertes Spektrogramm einer Stimme. 14: Rembrandt Research Project: Acht Signaturen Rembrandts zwischen 1626 und 1633. 15: Jan Schmidt: Tod der Maria, 2011, Kreidegrund auf Eichenholz, 78 × 42 × 2,4 cm, Detail. 16: Pharaoameisen folgen einer Spur von Pheromonen auf Rauchglas. 17: Autoradiogramm einer DNA-Sequenzierung, Detail. 18: Katzenumriss, Quantenfotografie, 2014. 19: Ammoniumsulfate, polariskopische Mikrofotografie, Objektträger ca. 1830–1900, moderne Aufnahme. 20: „Tag and Track“, videobasiertes Tracking-System zur Verfolgung markierter Personen mit CCTV-Kameras, Screenshot. 21: „Modelling criminal patterns using the NGS GeoTime“, Zeit-RaumBewegungsdiagramm, courtesy of Uncharted Software Inc.
Inhalt
7 Editorial Bildbesprechung 9 Kathrin Friedrich Schichten der Operation. Lars Leksells neurochirurgisches Planungsbild
12 John A. Nyakatura Beschreibung, Experiment, Modell. Zum Spurenlesen in der paläobiologischen Forschung am Beispiel einer funktionsmorphologischen Analyse
24 Bildbesprechung Kathrin Mira Amelung, Thomas Stach Viren visualisieren. Notizen zu David S. Goodsells Wissenschafts-Illustrationen und ihrer Verwendung in der Molekularbiologie zwischen Bildmodell und Spur
29 Dieter G. Weiss, Günther Jirikowski, Stefanie Reichelt Mikroskopische Bildgebung. Interferenz, Intervention, Objektivität
48 Soraya de Chadarevian „Um das Buch der Natur zu verstehen, reicht es nicht, die Seiten umzublättern und die Bilder anzuschauen. Wie beschwerlich es sein mag, es wird nötig sein zu lernen, den Text zu lesen“. Visuelle Evidenz in den Lebenswissenschaften um 1960
57 Bettina Bock von Wülfingen Einer Theorie Körper verleihen. Die Färbetechnik und die „Alleinherrschaft des Zellkerns“ ab 1876
66 Interview Muster und Spuren. Bilder von Interferenzen und Kollisionen im physikalischen Labor: ein Dialog zwischen Dr. Anne Dippel und Dr. Lukas Mairhofer
78 Barbara Orland Vom liquiden zum globularen Körper. Gestaltsehen in den Lebenswissenschaften des frühen 19. Jahrhunderts
87 Marietta Kesting Operative Porträts und die Spuren von Körpern. Über die Konstruktion pikturaler Evidenz
98 Sophia Kunze Komplexitätsreduktion oder Essenzialisierung? ‚Spurenlesen‘ in Kunst- und Medizingeschichte
106 Bildnachweis 110 Autorinnen und Autoren
Editorial
Am 28. April 1906 verstarb eine Patientin mit Namen Auguste D. in der Klinik für Irre und Epileptische in Frankfurt am Main. Der Arzt Alois Alzheimer hatte ihren Krankheitsverlauf intensiv verfolgt, seit sie 1901 aufgenommen worden war; nach seinem Fortgang wurde er daher auch umgehend von ihrem Tod unterrichtet. Ihr verwirrtes Verhalten und Sprechen hatte ihm paradigmatisch erschienen für seine Vermutung, dass ein solcher Zustand durchaus nicht bei allen bei ihm eingelieferten Menschen Ausdruck einer Syphilis sein müsse. In diesem Fall verband Alzheimer erstmals die Patientenbeobachtung mit histologischer Befundung und Publikation: Nach dem Tod von Auguste D. ließ er ihr Gehirn von Frankfurt an seine neue Wirkstätte, die Königlich Psychiatrische Klinik in München senden. Dort fertigte er Schnitte der Großhirnrinde an und behandelte diese mit verschiedenen, heute nur noch zum Teil nachvollziehbaren Färbemethoden. Die Färbungen fixierten das Material, es wurde damit zu einem zeitlichen Behälter zum Todeszeitpunkt der Auguste D. Zugleich wurden mit bestimmten Färbungen wiederholt Plaques und Fibrillen in und zwischen den Nervenzellen sichtbar: Die Farbchemikalien hafteten ihnen an, so dass lichtbrechende Verdichtungen im Gewebe entstanden, die mit Lupe und Gegenlicht erkennbar wurden. Solche Verdichtungen entstanden – mit derselben Färbemethode – nicht im Hirnmaterial von nicht-dementen Verstorbenen. Alzheimer deutete sie als Veränderungen im Hirngewebe, die Auguste D. verwirrt sprechen und handeln ließen und die für diesen und ähnliche Fälle als typisch beschrieben werden könnten. Kurz darauf veröffentlichte er die Fallgeschichte gemeinsam mit dem Befund als eine eigene spezifische Krankheit, die auf Anregung seines Vorgesetzten, des Klinikleiters Emil Kräpelin, in Zukunft den Namen „Alzheimer-Krankheit“ tragen sollte. Doch damit ist die Geschichte der Spuren der Demenz von Auguste D. nicht zu Ende: Im Dezember 1995 wurde die lange gesuchte Krankenakte der Auguste D. im Keller der Klinik in Frankfurt wiederentdeckt – und zwei Jahre später auch der Bestand der Originalpräparate, in diesem Falle in München durch die Neuropathologen Mehrein und Graeber. Man hatte wissen wollen, ob die Zuordnung des namengebenden Falles von Auguste D. als Alzheimer-Fall heutigen Kriterien Stand halte. Wenige Jahre nach Konrad Kujaus gefälschten Hitler-Tagebüchern stellte sich obendrein die Frage, ob es sich überhaupt um die originalen, von Alzheimer erstellten Präparate auf Objektträgern handelte. Um die Identität der Präparate über einhundert Jahre nach ihrer Produktion als die gesuchten Spurenträger nachzuweisen, bemühte Graeber die Kriminaltechnik, um die Glastinte auf den Objektträgern auf ihr Alter hin prüfen zu lassen. Schriftkundige verglichen außerdem die Signatur im handschriftlichen Lebenslauf Alzheimers, die ihm eindeutig zugeordnet werden konnte, mit der Schrift auf den Objektträgern. Dieses weitere Spurenproduzieren und Spurenlesen
8
Editorial
stellte sicher: Es müsse Alzheimer selbst gewesen sein, der diese Spuren hinterlassen habe. Zeitliche Behälter blieben Alzheimers Präparate damit auch ein Jahrhundert nach ihrer Herstellung, wenn auch in anderer Hinsicht als im Schnittpräparat vorgesehen. Diente jenes als Bild, das mit dem höhenverstellbaren Mikroskop dreidimensional erfahrbar wird, interessierte nun lediglich ein in dem Präparat enthaltenes Molekül, für das die Alzheimer’sche Spurenerzeugung weniger zuträglich war: die DNA der ehemaligen Patientin. Um sie zu gewinnen, wurden Präparate aus den Objektträgern gelöst, das Bild zerstört, die DNA vervielfältigt und mit chemisch aufwendigen, inzwischen robotisierten Verfahren analysiert. Computerbild und -ausdruck zeigten die gesuchte Veränderung in der Genfolge als Buchstaben und Graphen. Die über mehr als einhundert Jahre fortschreitende 1: Alzheimer-Präparat „Deter“, Geschichte der Spuren der Alzheimer-Krankheit in den Nummerierung durch Graeber. Gehirnpräparaten Auguste D.s zeigt, bei aller Differenz der technischen Vorgehensweise, eine Übereinstimmung in den Grundlagen der Verfahren: Spuren halten Zeit als Form fest – damals wie heute sind Spuren nie das eigentlich Gesuchte, sondern ein Verweis auf etwas, das (da) gewesen war. Dabei bleibt es jedoch bei dem Verweis: Nicht das Gesuchte kommt zum Vorschein, sondern ein Ereignis, das auf bestimmte Art und Weise mit dem Gesuchten in Beziehung steht – das Anhaften von Farbmolekülen, die Unterzeichnung eines Lebenslaufs, die elektrische Reaktion bestimmter Aminosäuren als Bestandteile der DNA. Spuren werden produziert und gezeigt, um zunächst sich selbst, dann auch ein bestimmtes Publikum zu überzeugen. Auch dafür ist der Zeitspeicher nötig: Die Spur des Dagewesenen ist vorführbar. Angesichts der beharrlichen Abwesenheit des Gesuchten zeigt sich die besondere epistemische Kontinuität vieler im Labor gelesener wie erzeugter Spuren im Laufe des Jahrhunderts. In mikroskopischen Bildern ebenso wie im Teilchenbeschleuniger CERN, der, so heißt es von dort Tätigen, auch nur ein großes Mikroskop sei, werden durch Spuren Karten erzeugt, die uns Orientierung geben. Zumindest, wenn die Karten gut sind, denn dann ersetzen die Spuren das eigentlich Gesuchte, das schließlich in Vergessenheit gerät. Die Herausgeberin
1: Neurochirurgisches Planungsbild, angefertigt von Lars Leksell.
Bildbesprechung Kathrin Friedrich
Schichten der Operation. Lars Leksells neurochirurgisches Planungsbild Das Planungsbild einer neurochirurgischen Behandlung wurde 1971 von dem schwedischen Mediziner Lars Leksell in seinem Buch Stereotaxis and Radiosurgery. An Operative System veröffentlicht. ◊ Abb. 1 Leksell erläutert neben den technischen und klinischen Grundlagen strahlentherapeutischer und minimalinvasiver Gehirnoperationen, etwa zur Behandlung von Hirntumoren, insbesondere den Einsatz seines selbstentwickelten stereotaktischen Rahmens im Zusammenspiel mit Bildgebungsverfahren und visueller Planung. Im gezeigten Bild haben verschiedene Materialitäten, Prozesse und Intentionen eine ‚Spurenlage‘ geschaffen, deren Entzifferung letztlich zu einem therapeutischen Eingriff in den Patientenkörper führen soll.
Das gezeigte Bild suggeriert eine Überlage rung mehrerer Schichten. Die ‚unterste‘ Schicht des Gesamtbildes, der graustufige Hintergrund, wird durch die pneumoenzephalografische Auf nahme eines menschlichen Schädels gebildet. Bei dieser, heutzutage verbotenen, Form des Röntgenverfahrens wurde den Untersuchten kurz vor bzw. während der Aufnahme über einen Zugang am unteren Rücken Gehirnwasser entnommen und auf gleichem Weg durch Luft ersetzt. Bevor die pneumoenzephalografische Aufnahme Aufschluss über den gesundheitlichen Zustand geben konnte, mussten Patientinnen und Patienten auf die Bedingungen der Bild gebung zugerichtet und so präpariert werden, dass ein kontextuell signifikantes Bild entstehen konnte. Die Luft sammelte sich in den Hohlräumen des Gehirns, etwa in Teilen des Ventrikelsystems, wie in diesem Fall die dunkle Stelle in der Bildmitte vermuten lässt. Die im Röntgenbild dargestellte Verteilung der Luft sollte auf Malformationen in den Hohlräumen
10
selbst oder im umliegenden Hirngewebe verweisen. Leksells Figure 26A findet sich im Abschnitt „Targets that cannot be visualized“.1 Das vordringliche Ziel des neurochirurgischen Eingriffs konnte hier mittels Röntgenografie nicht visualisiert werden, allein die Ableitung von Lagebeziehungen stellt eine Bezugnahme darauf her. Erst durch die ästhetische und epistemische Relationsbildung zwischen der dargestellten Verteilung des Kontrastmittels und typischer neuroanatomischer Visualisierungen, zwischen normalen und pathologischen Formen von Ventrikeln, kann auch auf eine vermutete Veränderung im umgebenden Areal geschlossen werden. Sichtbar kann das eigentliche Ziel des Eingriffs nicht werden, dafür reichen die Mittel des Röntgenverfahrens wenige Jahre vor der klinischen Einführung der Computertomografie noch nicht aus. Auf einer weiteren Ebene zeigt das Bild eine ebenfalls drastisch erscheinende und sich im Bild abzeichnende Form der ‚vorbildlichen Präparation‘. An den seitlichen Bildrändern sowie am unteren Bildrand lassen sich schwach Maßskalen erkennen, welche sich in ihrer geordneten, geometrischen Darstellung vom diffusen Hintergrund absetzen. Ebenfalls differenzierbar erscheinen zwei weißliche Blöcke in den unteren Bildecken sowie ein Gebilde in der Mitte des rechten Bildrandes. Ihre weißliche Erscheinung lässt darauf schließen, dass es sich um ein sehr dichtes, homogenes Material handelt, das von den Röntgenstrahlen nur wenig durchdrungen wurde. Dem betreffenden Patienten war vor der Pneumoenzephalografie ein Metallrahmen am Kopf angeschraubt worden, der bis zur neurochirurgischen Operation angebracht war. Mittels eines solchen stereotaktischen Rahmens wurde ein cartesianisches Koordi natensystem auf den Schädel montiert und so in der Röntgendarstellung sichtbar. Das Koordinatensystem sollte gleichermaßen zur Planung eines operativen Eingriffs als auch zur geordneten Übertragung der Planung auf den Körper während des Eingriffs dienen. Dass es dabei nicht allein um eine epistemische
Bildbesprechung
und zeitliche ‚Verschraubung‘ von Körpern, Koordinaten, Visualisierung und Intervention geht, sondern um eine materielle Passung, lässt sich anhand der im Bild dargestellten Schraube und Einfassungen erahnen. Auf Leksells Planungsbild wurde eine weite re Ebene in Form einer transparenten Folie auf gebracht. Auf dieser dienen die Einzeichnung der normalen Morphologie des Ventrikelsystems und anatomischer Orientierungslinien zum Abgleich mit dem individuellen Patienten. Daneben können Koordinaten und Winkel für den späteren Eingriff abgelesen und gleichermaßen vermerkt werden. Leksell hatte ein mathematisch-geometrisches Verfahren zur Berechnung der Eingriffskoordinaten in Form eines Diagramms erarbeitet, dessen fein gezeichnete, angedeutet spiralförmige und konzentrische Kreise sich fast über die gesamte Bildfläche ziehen. In Zusammenschau dieses Diagramms und des stereotaktischen Rahmens sowie unter Zuhilfenahme weiterer Berechnungsformeln,wurden die Winkel zur späteren Einbringung von Instrumenten und Elektroden ins Innere des Gehirns abgeleitet. Die Ergebnisse der Berechnungen konnten auf dem Planungsbild sodann in den entsprechenden Lücken notiert und damit sogleich als „operation program“2 in die Operationssituation überführt werden. So sollen etwa die „electrode angles“, die in der oberen linken Bildecke eingetragen sind, intraoperativ die Anbringung von Instrumenten am stereotaktischen Rahmen leiten, welche es erlauben, durch Bohrlöcher in der Schädeldecke Elektroden ins Gehirn einzuführen. Dort sollen Wärmeimpulse gezielt zur Läsion spezifischer Hirnareale und Manipulation zerebraler Funktionsabläufe dienen und damit etwa zur Behandlung von Schizophrenie beitragen. Beschriftung und Bezifferung nehmen im gezeigten Bild ebenfalls den eigentümlichen Status ein, der für das gesamte Ensemble gilt – die verschiedenen Komponenten und Ebenen der Visualisierung verweisen gleichzeitig auf einen Ist-Zustand und auf eine auszuführende Handlung, auf eine vorangegangene Präparation und deren Übertragung bzw. Übersetzung in
Bildbesprechung
eine nachgelagerte therapeutische Intervention. Erst durch zeitliche, materielle, ästhetische und epistemische Relationsbildungen erschließt sich ein solches Planungsbild, das nicht als singuläres Objekt existiert, sondern als eine zentrale Stufe in einem Prozess aus Relationen, die immer wieder neu gebildet, aber auch differenziert werden müssen. Dieses neurochirurgische Planungsbild enthält Handlungsanweisungen, die es programmatisch vereint und scheinbar ebenso koordiniert wie der stereotaktische Rahmen am Kopf von Behandelten auf die konkrete Operation zurichtet. Die sich im Bild überlagernden Spuren des Dagewesenen, des abwesenden Körpers, werden um Spuren des Zukünftigen, der operativen Planung, erweitert, um in Körper und deren Lebensbedingungen einzugreifen. 1 Lars Leksell: Stereotaxis and Radiosurgery. An Operative System. Springfield 1971, S. 37–41. 2 Leksell (s. Anm. 1), S. 16.
11
John A. Nyakatura
Beschreibung, Experiment, Modell. Zum Spurenlesen in der paläobiologischen Forschung am Beispiel einer funktionsmorphologischen Analyse „[O]ur approach is to exploit motion to illuminate morphology in extant forms so that morphology can help to illuminate motion in extinct ones.“ 1
Die erkenntnistheoretische Tätigkeit des Spurenlesens kann auf eine archaische Praxis zurückgeführt werden, die auf der Fähigkeit des Menschen beruht, von etwas Vorhandenem auf etwas Dagewesenes zu schließen.2 Sie ist eng mit dem Begriff der Spur verwoben, der teilweise kontrovers aufgefasst wird. In einem einführenden Text stellt Sybille Krämer prägnant die konstituierenden Attribute von Spuren zusammen.3 Aus dieser Zusammenstellung erscheinen für den vorliegenden Versuch die folgenden Attribute besonders wichtig: Die Abwesenheit dessen, was die Spur hervorgerufen hat; die Unabsichtlichkeit einer hinterlassenen Spur; der Umstand, dass Spuren nicht selbsttätig sind, sondern passiv durch äußere Aktivität entstehen; die Abhängigkeit von jemandem, die oder der die Spur liest; und schließlich das Hervorbringen von Spuren durch Interpretation. Spuren weisen demnach eine Latenz auf.4 Diese Eigenschaft von Spuren erfordert eine gerichtete Aufmerksamkeit der sie lesenden Person, welche sich zudem zunächst in einem Zustand der Ungewissheit und Unsicherheit befindet.5 Der letzte Aspekt wird auch von Werner Kogge herausgestellt, indem er das Versuchen und Zweifeln, das Wechseln der Perspektive, das Erproben, Variieren und neu Kontextualisieren als typische Tätigkeiten des Spurenlesens aufzählt.6 Insbesondere das aktive Involviertsein mit dem Material und suchende Aufspüren von Spuren unterscheide das Spurenlesen von anderen Vorgängen.7 Eine knappe Arbeitsdefinition des Spurenlesens für den vorliegenden Text könnte lauten: Spurenlesen als Tätigkeit der Wissenserzeugung bezeichnet einen durch direkte Beschäftigung mit dem Material 1 Steven M. Gatesy, David B. Baier: Skeletons in motion: an animator’s perspective on vertebrate evolution. In: Kenneth P. Dial, Neil Shubin, Elizabeth L. Brainerd (Hg.): Great transformations in vertebrate evolution, Chicago 2015, S. 303–316. 2 Louis Liebenberg: The art of tracking. The origin of science, Claremont/Cape Town 1990, S. 1–187. 3 Vgl. Sybille Krämer: Was also ist eine Spur? Und worin besteht ihre epistemische Rolle? Eine Bestandsaufnahme. In: Dies., Werner Kogge, Gernot Grube (Hg.): Spur. Spurenlesen als Orientierungstechnik und Wissenskunst, Frankfurt a. M. 2007, S. 11–33. 4 Siehe auch die Zusammenfassung eines Workshops zur Spur von Johanna Sackel: Tagungsbericht. Workshop: Spur – Zur Belastbarkeit eines epistemologischen Modells. In: H-Soz-Kult, 09.01.2014, http:// www.hsozkult.de/conferencereport/id/tagungsberichte-5170 (Stand: 04/2016). 5 Krämer (s. Anm. 3), S. 11–33. Im Gegensatz dazu ist für Kogge das Spurenlesen nicht bereits gerichtet, wohl aber eine sich ausrichtende Tätigkeit. Werner Kogge: Spurenlesen als epistemischer Grundbegriff: Das Beispiel der Molekularbiologie. In: Sybille Krämer, Werner Kogge, Gernot Grube (Hg.): Spur. Spurenlesen als Orientierungstechnik und Wissenskunst, Frankfurt a. M. 2007, S. 182–221. 6 Kogge (s. Anm. 5). 7 Kogge (s. Anm. 5).
Beschreibung, Experiment, Modell
13
ermöglichten, aktiv aufspürenden und interpretierenden Vorgang, welcher aufgrund der Latenz von Spuren diese erst im Vollzug als solche in Erscheinung treten lässt. Diese Arbeitsdefinition überprüfend, kann im Folgenden der Versuch unternommen werden, anhand eines konkreten Forschungsprojekts und der dabei zum Einsatz kommenden Forschungspraktiken aufzuzeigen, welche Rolle das Spurenlesen im Sinne einer allgemeinen Tätigkeit der Wissenserzeugung in der Paläobiologie einnimmt. Herausforderungen und Praktiken paläobiologischer Forschung
Die Paläobiologie widmet sich der biologischen Erforschung ausgestorbener Organismen. Funktionsmorphologische Analysen in der paläobiologischen Forschung sind im Gegensatz zu vergleichbaren Untersuchungen heute lebender Tiere mit spezifischen Problemen und Herausforderungen konfrontiert: Einerseits ist in Fossilien nur ein Teil der Informationen des einst lebenden Organismus erhalten. Prozesse wie beispielsweise Bewegungsabläufe von Tieren während eines bestimmten Verhaltens können heute nicht mehr beobachtet werden. Andererseits ist der Fossilbericht8 naturgemäß unvollständig und unausgewogen.9 Insgesamt steht nur lückenhaftes Wissen über die untersuchten Individuen und deren Lebensgemeinschaften zur Verfügung. Um diesen Problemen zu begegnen, werden heute in funktionsmorphologischen Analysen in der paläobiologischen Forschung unterschiedliche Forschungsansätze verknüpft. Besonders funktionelle Analysen bedienen sich eines weiten Spektrums an Techniken unterschiedlicher Forschungsgebiete einschließlich, aber nicht beschränkt auf, Anatomie und (Skelett-)Histologie, Physiologie, Verhaltensbiologie, Biomechanik und Ingenieurwissenschaften. Häufig werden dazu stellvertretend heute lebende Tiere zum Vergleich herangezogen10 oder bestimmte Eigenschaften des zu untersuchenden Fossils modelliert. Die Analysen werden also durch Argumente gestützt, die durch u nterschiedliche, 8 Der Fossilbericht ist die Summe der wissenschaftlich beschriebenen Fossilien unter Berücksichtigung der für die Datierung notwendigen Informationen (Stratigrafie). 9 Fossilisation ist beispielsweise von vielen klimatischen Faktoren abhängig. Dies führt zu einer unausgewogenen Repräsentation der Organismen im Fossilbericht. Ein weiterer wichtiger Grund für die Unausgewogenheit des Fossilberichts ist die weltweit sehr ungleichmäßige Verteilung von Grabungsund Fundstellen. 10 Es gibt zahlreiche kritische Einschränkungen dieses Ansatzes. Problematisch ist u. a. die Auswahl der rezenten Spezies. Wittmer schlägt ein transparentes Verfahren vor. Larry M. Wittmer: The extant phy logenetic bracket and the importance of reconstructing soft tissues in fossils. In: Jeffrey J. Thomason (Hg.): Functional Morphology in Vertebrate Paleontology, New York 1995, S. 19–33. Weiterhin führt die Komplexität muskulo-skelettaler Funktion dazu, dass ähnliche Form nicht ähnliche Funktion bedeuten muss (siehe hierzu den in Hinblick auf die Paläobiologie pessimistischen Standpunkt von Lauder). George V. Lauder: On the inference of function from structure. In: Jeffrey J. Thomason (Hg.): Functional Morphology in Vertebrate Paleontology, New York 1995, S. 9–18.
14
John A. Nyakatura
aber nicht gänzlich unabhängige Forschungspraktiken wie Beschreiben, Experimentieren und Modellieren hervorgebracht werden. Die Beschreibung der Vielfalt organismischer Formen und Strukturen ist ein Grundanliegen der Morphologie und damit auch funktionsmorphologischer Analysen in der Paläozoologie. Auf Basis der Beschreibung möchte die Morphologie natürliche Gruppierungen aufdecken, Erklärungen für die Entstehung und Transformationen organismischer Strukturen ableiten und letztlich auch das Verhältnis von Organismen zu ihrer Umwelt über die Untersuchung von Form-Funktions-Beziehungen bestimmen.11 Potenziell sind sämtliche erhaltenen Strukturen eines Fossils informativ für eine Fragestellung und so obliegt es den Untersuchenden, informative Strukturen zu identifizieren, zu beschreiben und zu interpretieren. Ein Experiment wird durchgeführt, sobald prinzipiell wiederholbare Messungen zur Funktionsweise einer Struktur im Rahmen funktionsmorphologischer Analysen angestrebt sind. Dazu bedarf es eines kontrollierbaren Umfeldes, das es erlaubt, potenzielle Störfaktoren zu minimieren und das Augenmerk auf die spezifische Funktion zu legen. Des Weiteren bedarf es Apparaturen, die etwa Bewegungen, Kraftentfaltungen, elektrische Muskelaktivität und weiteres mehr direkt oder indirekt erfassen. Es kann sowohl explorativ als auch überprüfend vorgegangen werden. Diese nicht zuletzt aufgrund der Subjektivität von Beschreibungen eingeforderten quantitativen Ansätze gehen Hand in Hand mit dadurch ermöglichten Vergleichen und dabei festgestellter (quantifizierbarer) Unterschiede, die als Indizien für eine funktionelle Interpretation herangezogen werden. Da nur in den seltensten Fällen Funktionsweisen direkt am Fossil experimentell untersucht werden können, muss entweder auf die Analyse vergleichbarer rezenter Tiere zurückgegriffen werden oder es werden stellvertretend für das eigentliche Fossil physische oder virtuelle Modelle experimentell untersucht. Ein Modell wird häufig auf Basis dieser experimentellen Verhaltensbeobachtungen erstellt. Es ist kaum möglich, die Vielfalt an Modellen zu erfassen – sie reicht von abstrakten mathematischen Beschreibungen bestimmter, in funktionellen Analysen meist mechanischer Eigenschaften eines Organismus, bis hin zu virtuellen oder tatsächlichen Nachbauten von Körpern oder Körperteilen.12 Allen Modellen ist 11 Vgl. Gerhard Scholtz: Versuch einer analytischen Morphologie. In: Bildwelten des Wissens, 2013, Bd. 9,2, S. 30–44. 12 Beispielhaft für das Spektrum können das abstrakte Feder-Masse-Modell für die menschliche Fortbewegung und ein nachgebauter Fledermausflügel zum experimentellen Überprüfen aerodynamischer Eigenschaften aufgeführt werden. Reinhard Blickhan: The spring-mass model for running and hopping. In: Journal of Biomechanics, Jg. 22, 1989, Heft 11/12, S. 1217–1227. Joseph W. Bahlman, Sharon M. Swartz, Kenneth S. Breuer: Design and characterization of a multi-articulated robotic bat wing. In: Bioinspiration and Biomimetics, Jg. 8, 2013, doi:10.1088/1748-3182/8/1/016009.
Beschreibung, Experiment, Modell
15
gemeinsam, dass sie den Forschenden Kontrolle über die Eingangsvariablen geben.13 Zwar werden mit der Modellierung weitere Annahmen notwendig, der Einfluss von Annahmen auf das Ergebnis lässt sich jedoch durch die gezielte Manipulation einzelner Variablen abschätzen.14 Rekonstruktion der Fortbewegung eines frühen Landwirbeltieres
In dem nachfolgend im Zentrum stehenden Forschungsprojekt werden die Mechanik der Fortbewegung und die funktionelle Morphologie des Bewegungsapparates des fast 300 Millionen Jahre alten frühen Landwirbeltieres Orobates pabsti rekonstruiert.15 Die in diesem Beitrag verwendeten Bildtafeln entsprechen der visuellen Ergebnispräsentation in Publikationen des Faches. Die symmetrische, quasi-tabellarische Anordnung der Bilder zeigt Neutralität gegenüber dem Dargestellten sowie, dass dokumentarische Ziele der Listung von visuellen Belegen vor ästhetischen Kriterien Vorrang haben. Den Ausgangspunkt des Projekts bildet der hervorragend erhaltene, annähernd vollständige Holotypus,16 welcher an einer Fundstelle im Thüringer Wald ausgegraben und anschließend am Carnegie Museum in Pittsburgh, USA, wissenschaftlich beschrieben wurde.17 Darüber hinaus stehen weitere, weniger vollständige Wirbeltierfossilien derselben Art sowie eine Gesteinsplatte fossiler Fährten, welche der Spezies des untersuchten Körperfossils zugeordnet werden konnte, zur Verfügung.18 ◊ Tafel 1: A+B Insbesondere der hergestellte Zusammenhang zwischen dem Körperfossil und einer fossilen Fährte bietet eine hervorragende Grundlage für die Rekonstruktion der Fortbewegung, da mit der Fährte Informationen über das Fortbewegungsverhalten des Erzeugers erhalten geblieben sind. Der Holotypus des Körperfossils wurde nur oberflächlich aus der 13 Philip S. L. Anderson, Jen A. Bright, Pamela G. Gill, Colin Palmer, Emily J. Rayfield: Models in paleontological functional analysis. In: Biology Letters, 2013, doi:10.1098/rsbl.2011.0674. 14 Dies geschieht im Rahmen einer Sensitivitätsanalyse, z. B. Collum F. Ross: Finite element analysis in vertebrate biomechanics. In: Anatomical Record Part A, Jg. 283, 2005, S. 253–258. 15 Das Forschungsprojekt sieht eine Zusammenarbeit mit Forschenden der Biologie, Paläontologie, Biomechanik, Geologie, Materialforschung und Mechatronik aus den USA, Großbritannien, der Schweiz und Deutschland vor. 16 Der Holotypus ist das für die Beschreibung einer Art herangezogene „typische“ Individuum. Es muss als Belegexemplar in einer öffentlichen Sammlung verwahrt werden. 17 David S. Berman, Amy C. Henrici, Richard A. Kissel, Stuart S. Sumida, Thomas Martens: A new diadectid (Diadectomorpha), Orobates pabsti, from the early Permian of central Germany. In: Bulletin of Carnegie Museum of Natural History, Jg. 35, 2004, S. 1–36. 18 Sebastian Voigt et al. gelang es, die in den Fährten erhaltenen relativen Längen der einzelnen Finger und Zehen zueinander mit denen des Körperfossils zu korrelieren. Sebastian Voigt, David S. Berman, Amy C. Henrici: First well-established track-trackmaker association of paleozoic tetrapods based on Ichniotherium trackways and diadectid skeletons from the Lower Permian of Germany. In: Journal of Vertebrate Paleontology, Jg. 27, 2007, Heft 3, S. 553–570.
16
John A. Nyakatura
umgebenden Gesteinsmatrix herauspräpariert, um eine Beschädigung zu vermeiden. Dieser Umstand sowie die plastische Deformation und Fragmentierung der fossilen Knochen aufgrund taphonomischer Prozesse, also der Prozesse der Fossilisation, verhindern eine effektive Analyse der Morphologie. Abgekürzt und die vielen Sackgassen und Irrwege ignorierend, lässt sich das Vorgehen im Projekt so zusammenfassen: In einem ersten Schritt wurde in Zusammenarbeit mit dem Institut für Leichtbau- und Kunststofftechnik der Technischen Universität Dresden ein sonst zur zerstörungsfreien Materialprüfung verwendeter Mikrofokus-Computertomograf (µCT) eingesetzt, um eine virtuelle, dreidimensionale Version des Holotypus zu erstellen.19 ◊ Tafel 1: C+D Unter Zuhilfenahme direkter Hinweise (unter Wiederherstellung von Symmetrieachsen) und indirekter Hinweise (anhand von Vergleichsmaterial) wurden Deformation und Fragmentierung korrigiert.20 ◊ Tafel 1: E–H Parallel wurden die Individuen von vier zum Vergleich herangezogenen rezenten Arten21 jeweils nach demselben Protokoll untersucht: In einem Laufkanal wurden die auf den Boden übertragenen Kräfte einer Extremität erfasst. ◊ Tafel 2: A+B Gleichzeitig zeichneten zwei synchronisierte Hochgeschwindigkeitsröntgenkameras die Bewegung aus zwei Raumrichtungen auf. ◊ Tafel 2: C+D Dies ermöglichte eine zeitlich hoch aufgelöste Korrelation der Bewegungen und der dabei entstehenden Bodenreaktionskräfte zur Charakterisierung der Bewegungsmechanik.22 ◊ Tafel 2: E+F Die Fährtenerzeugung der heute lebenden Spezies in Abhängigkeit von der Fortbewegungsgeschwindigkeit und des Feuchtigkeitsgehaltes des Untergrundes wurde untersucht, um die in den fossilen Fährten erhaltene Bewegungsinformation zu entschlüsseln.23 Schließlich wurde in den rezenten Vergleichsspezies der Einfluss der nur selten fossil erhaltenen Weich-
19 Für eine ausführliche Beschreibung der Rekonstruktion mittels unterschiedlicher Produktdesign- und Animationsfilm-Software siehe John A. Nyakatura, Vivian R. Allen, Jonas Lauströer, Amir Andikfar, Marek Danczak, Hans-Jürgen Ullrich, Werner Hufenbach, Thomas Martens, Martin S. Fischer: A three-dimensional skeletal reconstruction of the stem amniote Orobates pabsti (Diadectidae): analyses of body mass, centre of mass position, and joint mobility. In: Plos One, Jg. 10, 2015, doi: 10.1371/journal. pone.0137284. 20 Nyakatura et al. (s. Anm. 19). 21 Die Auswahl erfolgte nach phylogenetischen, ökologischen, morphologischen und rein pragmatischen (Limitierungen der zur Verfügung stehenden Apparaturen etc.) Gesichtspunkten. 22 Siehe z. B. die Charakterisierung der Bewegungsmechanik einer rezenten Echse in John Nyakatura, Emanuel Andrada, Stefan Curth, Martin S. Fischer: Bridging „Romer’s Gap“: Limb mechanics of an extant belly-dragging lizard inform debate on tetrapod locomotion during the early Carboniferous. In: Evolutionary Biology, Jg. 41, 2014, Heft 2, S. 175–190. 23 Siehe dazu Stefan Curth, Martin S. Fischer, John A. Nyakatura: Ichnology of an extant belly-dragging lizard – analogies to early reptile locomotion? In: Ichnos, Jg. 21, 2014, S. 32–43.
Beschreibung, Experiment, Modell
17
gewebe wie Haut und Muskulatur auf die Beweglichkeit in den Gelenken untersucht und mit der tatsächlich auftretenden Bewegung verglichen.24 Dies diente als Grundlage für die funktionelle Interpretation der Beweglichkeit in den Gelenken des Fossils. ◊ Tafel 2: G+H Prinzipien der Fortbewegung wurden identifiziert und können auch für das Fossil wahrscheinlich gemacht werden. In Zusammenarbeit mit Fachleuten der Wissenschaftsillustration wurde abschließend ein virtuelles Ganzkörper-Modell des skelettalen Bewegungsapparates des Fossils geschaffen, welches innerhalb der fossilen Fährten läuft und die gezielte Manipulation einzelner Bewegungsparameter ermöglicht.25 ◊ Tafel 3: A–E Die Bewegung des Modells erfolgt nach den experimentell identifizierten Bewegungsprinzipien. Es wird genutzt, um nach Parameterkombinationen zu fahnden, bei denen es weder zu Kollisionen einzelner Knochen kommt, noch Gelenke virtuell de-artikulieren. Das Modell ist damit ein Instrument, plausible Lösungen für das Problem der Bewegungsrekonstruktion des Fossils zu finden. Die Rekonstruktion der Fortbewegung des Fossils beruht also auf einer Integration von morphologischer Beschreibung und Interpretation, der Übertragung experimentell identifizierter, bewegungsmechanischer Prinzipien lebender Referenzorganismen auf das Fossil und der durch die Modellierung der Fortbewegung gewonnen Einsichten. Spurenlesen in der paläobiologischen Forschungspraxis
Carlo Ginzburg verweist für das Spurenlesen im Indizienparadigma auf den Umstand, dass häufig kleinste Hinweise (clues) den Schlüssel zu einer tiefer liegenden Realität bereitstellen.26 In der Analyse des fossilen Materials werden dementgegen sämtliche Hinweise für die paläobiologische Interpretation herangezogen, die den Untersuchenden offenbar werden: das gesamte Spektrum des graduellen Übergangs zwischen offensichtlichen und subtilen Hinweisen. Zu ersteren zählen die fossilen Fährten. Hier ist es allerdings wichtig, die Erforschung von fossil erhaltenen Lebensspuren (Ichnia) von einem Spurenlesen im Sinne einer allgemeinen Tätigkeit der Wissensproduktion abzugrenzen, welches im Zentrum dieses Aufsatzes steht. In der Palichnologie, einer 24 Vgl. Patrick Arnold, Martin S. Fischer, John A. Nyakatura: Soft tissue influence on ex vivo mobility in the hip of Iguana: comparison with in vivo movement and its bearing on joint motion of fossil sprawling tetrapods. In: Journal of Anatomy, Jg. 225, 2014, Heft 1, S. 31–41. 25 Das Modell kann als ein dreidimensionales Bild verstanden werden, dessen Entstehung dem Feedback, im Sinne der Beschreibung von Cynthia M. Pyle, entspricht: Art as science: scientific illustration, 1490–1670 in drawing, woodcut and copper plate. In: Endeavour, Jg. 24, 2000, Heft 2, S. 69–75. Vgl. auch Bettina Bock von Wülfingen im vorliegenden Band. 26 Carlo Ginzburg, Anna Davin: Morelli, Freud and Sherlock Holmes: Clues and Scientific Method. In: History Workshop, Jg. 9, 1980, S. 5–36.
18
John A. Nyakatura
1: Beschreibung. Idealisierte Darstellung der digitalen Rekonstruktion eines Wirbeltierfossils mittels zerstörungsfreier Bildgebung. Die Anordnung und Nummerierung suggeriert eine schrittweise, lineare Vorgehensweise. Sackgassen im Rekonstruktionsprozess und Fehlversuche werden nicht gezeigt. A: Dorsale Ansicht des Holotypus von Orobates pabsti, Diadectidae. B: Fossile Fährtenplatten konnten Orobates pabsti als Fährtenerzeuger zugeordnet werden. C: Der Holotypus wurde mittels µCT am Institut für Leichtbau und Kunststofftechnik der TU Dresden gescannt. D: Hochaufgelöstes Volume Rendering des Schädels. E+F: Die Deformation des Schädels wurde unter Wiederherstellung der Symmetrieachsen korrigiert. G: Vollständiges digitales Skelett. H: Eine lebensnahe Rekonstruktion erfordert weitere Annahmen.
Beschreibung, Experiment, Modell
19
2: Experimentelles Beobachtungssetting. Bewegungseigenschaften moderner Tiere können mit der Ausprägung morphologischer Strukturen korreliert werden, die evtl. auch am Fossil identifiziert werden können. A: Die Wirbeltier-Röntgenvideografieanlage des Instituts für Spezielle Zoologie und Evolutionsbiologie der FSU Jena. B: Ein Grüner Leguan im Laufkanal während der Bewegungsstudie. C+D: Ein digitales Knochenmodell wird mit dem Röntgenschatten (hier laterale Projektion eines Grünen Leguans) zur Deckung gebracht, um die skelettale Bewegung zu visualisieren und gleichzeitig zu quantifizieren. E+F: Die Fährtenerzeugung moderner Tiere wird auf feuchtem Ton untersucht. G+H: Der Bewegungsumfang in den Gelenken wird anhand einer Manipulation von Kadavern heutiger Tiere mit Hilfe der Röntgenvideografie bestimmt.
20
John A. Nyakatura
3: Modellierung. Ein digitales Modell kann mit Hilfe von Animationssoftware beliebig manipuliert werden und erlaubt ein systematisches Variieren einzelner Parameter. A+B: Innerhalb der Software (hier Animationssoftware Maya) kann jedes Gelenk einzeln bewegt werden. C–E: Die fossile Fährte wird ebenfalls digitalisiert und schränkt die Möglichkeiten der Bewegung ein. Mittels des interaktiv bewegbaren Modells wird ein Möglichkeitsspielraum exploriert. Trotz der oberflächlichen Ähnlichkeit zu experimentellen Beobachtungssettings und der vergleichbaren Anordnung der Abbildungen ist die Übertragung der Bewegungsprinzipien moderner Tiere (Tafel 2) auf Fossilien (Tafel 3) problematisch.
Beschreibung, Experiment, Modell
21
Disziplin der Paläobiologie, werden Fährten, einzelne Trittsiegel, Kratzspuren etc., die von Organismen hinterlassen wurden und fossil erhalten blieben, untersucht.27 Dabei kommt es aber auch zu einem Spurenlesen als Tätigkeit der Wissenserzeugung. An der Fährte lassen sich Spuren festmachen, die Informationen über die Schrittlänge, die Schrittweite und die Haltung und Orientierung der Hände und Füße preisgeben. Das Kriterium einer Spur für die funktionsmorphologische Wissenserzeugung ist nicht nur, dass sie Hinweis darauf gibt, welches Tier die Fährte hinterlassen hat, sondern auch wie es die Fährte hinterlassen hat, um Rückschlüsse auf die Funktionsweise des Bewegungsapparates ziehen zu können. Subtilere Hinweise liefert die Untersuchung der Gelenkmorphologie des Körperfossils. Die Passung der Gelenkflächen der an einem Gelenk beteiligten Knochen erlaubt eine grobe Einschätzung des möglichen Bewegungsumfanges eines Gelenks, obwohl dieser Zusammenhang alles andere als gradlinig zu sein scheint.28 Weiterhin, und ebenso vage, geben Muskelansatzstellen Auskunft über Größe und Wirkrichtung von Muskeln. Die Identifikation von Spuren zur Beantwortung einer Forschungsfrage hängt maßgeblich von deren Zugänglichkeit und Sichtbarkeit ab. Stellvertretend für das eigentliche Fossilmaterial können mittels der digitalen Repräsentation nun Strukturen des Fossils visualisiert, analysiert und schließlich beschrieben und interpretiert werden, die zuvor nicht freipräpariert werden konnten.29 Es verwundert daher nicht, dass insbesondere die µCT–Rekonstruktion zu einer „digitalen Revolution“ in der Paläozoologie führte.30 Trotz dieser teilweise euphorisch stimmenden technischen Fortschritte bleibt das Spurenlesen als ein suchender und interpretierender Vorgang an die forschenden Subjekte gebunden. Auch um dieser Kritik der Subjektivität zu entgegnen, werden immer häufiger quantitative Ansätze in der Experimentalisierung und Modellierung verfolgt. Für die paläobiologische Forschung liegt der bedeutende Vorteil des Experimentierens mit rezenten Tieren darin, dass auch Eigenschaften oder Merkmale untersucht und dann für Fossilien wahrscheinlich gemacht werden können, die gar nicht am Fossil beobachtet werden können (beispielsweise das Vorhandensein bestimmter 27 Siehe dazu etwa das einführende Lehrbuch von Arno H. Müller: Lehrbuch der Paläozoologie. Band 1: Allgemeine Grundlagen, Jena (5. Auflage) 1992, S. 1–514. 28 Vgl. Arnold et al. (s. Anm. 24). Es wurde gezeigt, dass i. d. R. nicht fossilisierende Weichgewebe wie Muskeln und Sehnen einen großen Einfluss auf die Beweglichkeit eines Gelenks haben. 29 Für Orobates konnte beispielsweise eine dorsale Lippe an der Hüftgelenkspfanne beschrieben werden, die eine Einschränkung der Abduktionsfähigkeit des Oberschenkels bedeutete. Diese Struktur ist in der Gesteinsmatrix verborgen und wurde erst durch das bildgebende Verfahren für die Analyse zugänglich. 30 Es ist hervorzuheben, dass die digitale Visualisierung ein Anschauen aus allen Raumrichtungen und unter Ein- bzw. Ausblendung benachbarter Strukturen am Bildschirm zulässt.
22
John A. Nyakatura
Muskeln oder das Auftreten besonderer Verhaltensweisen). Für das Spurenlesen ist entscheidend, dass in experimentellen Beobachtungssettings das Erkennen von latent im Material, hier in den anatomischen Strukturen, vorhandenen Spuren zur funktionellen Interpretation eines Fossils aktiv provoziert werden kann. Die Entschlüsselung von Form-Funktions-Zusammenhängen in experimentellen Beobachtungen lebender Tiere ermöglicht es in der Untersuchung gezielt nach morphologischen Korrelaten einer Funktion am Fossil zu suchen, also auf eine Spur im Sinne der oben genannten Arbeitsdefinition aufmerksam zu werden. Die untersuchte Funktion einer Struktur der rezenten Tiere wird also stets an die Strukturen des Fossils zurückgebunden. Die experimentellen Ergebnisse werden zum Argument der Interpretation beschreibbarer morphologischer Ausprägungen. Das Modellieren stellt einen qualitativen Unterschied zum Spurenlesen im Rahmen der morphologischen Beschreibung und der Identifikation weiterer Spuren mittels experimenteller Beobachtung dar. Im Modell können Fälle durchgespielt werden, die kein natürlich vorkommendes Pendant mehr haben. Das Modell kann dementsprechend genutzt werden, um durch systematisches Überschreiten der Grenzen des anatomisch Möglichen, bei Variation jeweils nur eines einzelnen Parameters, den Möglichkeitsspielraum funktioneller Interpretationen im Rahmen paläozoologischer Studien transparent und reproduzierbar auszuloten.31 Um dem Modell Glaubwürdigkeit zu verleihen, ist jedoch der Rückgriff auf die anderen Forschungspraktiken notwendig: Ein Modell muss mit experimentellen Daten validiert werden.32 Dem Experimentieren kommt somit eine Scharnierfunktion zu, da diese Tätigkeit nun sowohl für das Spurenlesen am Fossilmaterial als auch für die Modellierung bedeutsam wird. Das Modell selbst beruht zwar auf dem Ausgangsmaterial, ist aber insofern von diesem losgelöst, als dass es im Gegensatz zum Experimentieren nicht auf die Interpretation des Ausgangsmaterials ausgerichtet ist, sondern direkt auf die zu rekonstruierende Eigenschaft des ausgestorbenen Tieres abzielt. Das Spurenlesen als allgemeine Tätigkeit der Wissensproduktion wird in der paläobiologischen Forschung entweder durch unmittelbare Beobachtung und Beschreibung des Materials, mittelbar durch experimentelle Beobachtungssettings oder sogar indirekt mittels Modellierung realisiert. Das Experimentieren im Rahmen funktio 31 Ein anschauliches Beispiel liefern Steven M. Gatesy, Martin Bäker, John R. Hutchinson: Constraintbased exclusion of limb poses for reconstructing theropod dinosaur locomotion. In: Journal of Vertebrate Paleontology, Jg. 29, 2009, Heft 2, S. 535–544. 32 Anderson et al. (s. Anm. 13) und John R. Hutchinson: On the inference of function from structure using biomechanical modelling and simulation of extinct organisms. In: Biology Letters, 2011, doi:10.1098/ rsbl.2011.0399.
Beschreibung, Experiment, Modell
23
neller Untersuchungen an stellvertretenden rezenten Organismen oder mit in dieser Art eingesetzten Modellen bedarf der Rückbindung erkannter Form-Funktions-Zusammenhänge an die Strukturen des Ausgangsmaterials. Beim Modellieren kommt es zu einem Wechsel der Materialität, wenn das Modell nicht mehr physisch konkret vorliegt, sondern virtuell. Ein größer werdender Abstand zum Ausgangsmaterial wird auch durch die zunehmende Verwendung von Repräsentationen (hier beispielhaft die digitale Rekonstruktion, die Modelle und die stellvertretende Spezies) deutlich. Dadurch nimmt die Involviertheit mit dem Ausgangsmaterial beim Spurenlesen ab. Ziel ist nicht mehr, die Interpretierbarkeit des Ausgangsmaterials zu verbessern, sondern direkt Aussagen über die zu rekonstruierende Eigenschaft des Fossils zu treffen. Die eingangs formulierte Arbeitsdefinition des Spurenlesens als Tätigkeit der Wissensproduktion in der Paläobiologie müsste also um den qualitativen Sprung des Spurenlesens im Falle der Veränderung der Materialität von konkret zu virtuell erweitert werden.
1: Die Abbildung zeigt einen Querschnitt durch ein HI-Virus im Blut bei einer Vergrößerung von etwa einer Million. Bei dieser Vergrößerung würde man makromolekulare Bestandteile mit dem menschlichen Auge wahrnehmen können.
Bildbesprechung Kathrin Mira Amelung, Thomas Stach
Viren visualisieren. Notizen zu David S. Goodsells Wissen schafts-Illustrationen und ihrer Verwendung in der Molekularbiologie zwischen Bildmodell und Spur „Imagine that we had some way to look directly at the molecules in a living organism. […] Think of the wonders we could witness firsthand. […] Many of the questions puzzling the current cadre of s cientists would be answered at a glance.” 1 Die Vision, die David S. Goodsell, Professor für Molekularbiologie am Scripps Research Institut in La Jolla, Kalifornien, in dem vorangestellten Zitat zum Ausdruck bringt, versucht er in seinen wissenschaftlichen Illustrationen zu verwirklichen: ◊ Abb. 1 Im Zentrum der in einem Hochformat angelegten Zeichnung befindet sich ein grüner Kreis, der, etwas unterhalb der Mitte beginnend, fast den gesamten oberen Bildraum einnimmt. Die Oberfläche des Kreises wird in rhythmischen Intervallen von baumartigen Gebilden in hellroter Farbe unterbrochen, welche eine Verbindung zwischen Innen- und Außenraum herstellen. Trotz dieser Kontaktstellen heben sich der Kreis und die sich in ihm befindenden Formen und Strukturen deutlich von ihrer Umgebung ab: Der Kreis umschließt einzelne Formen in Hellblau, Braun, Rot und Lila sowie eine aus Einzelelementen zusammengesetzte Struktur, die in ihrer Formgebung und Farbwahl an eine quer aufgeschnittene Aubergine erinnert. Die Umgebung, in die der Kreis eingebettet ist, besteht hingegen aus einer unübersehbaren Vielzahl einander ähnlicher, über- und untereinander angeordneter Einzelelemente in leicht durchscheinenden warmen Erdtönen, die den gesamten restlichen Bildraum ausfüllen. Nimmt man an dieser Stelle die Unterschrift des Bildes HI-Virus in Bloodserum, 1000000 × Magnification hinzu, so wird der über die Zeichnung vermittelte Eindruck einer Differenz zwischen
Kreisstruktur und Umgebungsdarstellung den meisten Betrachtenden unmittelbar einleuchten, da sich der Begriff Blutserum dem kleinteilig dargestellten Umraum und HI-Virus der Kreisstruktur zuordnen lässt. Dass es sich bei dem hier vorgestellten, scheinbar nahtlosen Ineinander von Anschau ung und Begriff lediglich um ein in der Mole kularbiologie notwendiges Konstrukt in Form eines Bildmodells handelt, wird dabei – wenn überhaupt – erst auf den zweiten Blick deutlich. Dieser Effekt ist durchaus gewollt, geht es Goodsell bei der Visualisierung doch genau darum, den Betrachtenden einen scheinbar unmittelbaren Einblick in eine Welt jenseits der normalen menschlichen Wahrnehmung zu gewähren. Goodsell schreibt: „[T]he world of molecules is completely invisible. I created […] illustrations […] to help bridge this gulf and allow us to see the molecular structure of cells, if not directly, then in an artistic rendition.“ 2 Für die künstlerische Umsetzung seiner wissenschaftlichen Illustrationen greift Good sell dabei auf einen am Cartoon3 orientierten Stil zurück. Diese Wahl eröffnet ihm zwei ent scheidende Vorteile: Die einfache Formensprache und der flächige Farbauftrag ermöglichen einen guten Bildüberblick und damit eine schnellere Informationserfassung. Gleichzeitig weist der Bezug zum Cartoon auf eine in diesem Stil selbst begründete Abweichung zwischen Darstellung und Referenz-Objekt hin: Da der Cartoon eine komplexe Geschichte stets in einem einzigen, auf das Wesentliche reduzierten und zugleich pointierten Bild präsentiert, sind auch die wissenschaftlichen Illustrationen von Goodsell nicht als die „Sache an sich“, in diesem Fall als Präsentation von Blutserum und HI-Virus selbst, zu sehen.4 Vielmehr lenkt die Wahrnehmung der im Bild angelegten Abweichung den Blick auf das eigentliches Potenzial von Goodsells wissenschaftlichen Illustrationen: Nicht die Präsenz der Darstellung ist hier der ausschlag gebende Faktor, sondern die Spur, die die Zeich nung zu einem epistemischen Objekt oder Sachverhalt legt. ,Spur‘ meint dabei gerade nicht das Bild-Modell an sich, sondern den im
26
Bildbesprechung
2: Teil der wissenschaftlichen Evidenzherstellung, die zur integrierten Aquarelldarstellung in den Bildern von David S. Goodsell führt, am Beispiel des Capsid-Strukturproteins (Proteindatenbankidentifizierungsnummer 3h47). A: Fourier-Transformation einer elektronenmikroskopischen Darstellung einer in Eis präservierten Kugel aus Capsid-Protein. B: Dreidimensionale Rekonstruktion der Capsid-Proteine auf Grundlage ihrer optischen Dichte in elektronenmikroskopischen Präparaten. C: Bändermodell der Proteinstruktur des Capsid-Proteins.
Bild liegenden oder über das Modell erfahrbaren Verweis auf etwas Nicht-Gegenwärtiges.5 Dass die Herstellung von Modellbildern vor diesem Hintergrund eine besondere Herausforderung für das immer komplexer werdende Wissen innerhalb der molekularbiologischen Forschung darstellt, liegt auf der Hand. Goodsell begegnet dieser Aufgabe in zwei verschiedenen, jedoch aufeinander aufbauenden Arbeitsschritten: Im ersten Schritt trägt Goodsell alle bislang vorhandenen Informationen6 zu einem bestimmten epistemischen Objekt zusammen und veranschaulicht diese in einem ungewohnt komplexen Modellbild wie der HIVIllustration. Grundlegend hierfür ist nicht nur ein großes molekularbiologisches Wissen und eine akribische Materialsammlung, sondern die Transformation dieser „Spurenlese“7 in ein „lesbares“8 Bildkonzept. Mit der „Lesbarkeit“ spricht Goodsell die Einbindung des jeweiligen Bildes in einen bestimmten Funktionszusammenhang an: Bilder werden normalerweise nicht gelesen, sondern angesehen. Indem Goodsell die Lesbarkeit betont, unterstreicht er die Verwendung seiner Bilder als Verweis auf etwas, das der unmittelbaren Wahrnehmung entzogen ist. Ihre Faszination und Produktivität liegt dabei in der Konstruktion einer komplexen
und dennoch übersichtlichen Anschaulichkeit. Diese kann außerhalb seiner wissenschaftlichen Illustrationen nicht erfahren werden, da es sich hier um die Zusammenstellung ausschließlich separat existierender Informationen handelt. ◊ Abb. 2 Gleichzeitig ist der hier angesprochene Verweis der wissenschaftlichen Illustration auf die ihr zugrunde liegenden Informationen nicht einseitig, sondern eine sich gegenseitig bedingende Stabilisierung der Lesbarkeit: Denn erst „die Lektüre der Spur schafft […] jenes Konstrukt, das im Nachhinein als Verursacher der Spur gedeutet wird. Spuren sind somit […] sowohl materielle Aufforderungen zu als auch Ergebnis von transkriptiven Prozessen“.9 Betrachtet man sich aus diesem Blickwinkel die Illustration des HI-Virus in Abbildung 1 noch einmal genauer, so erkennt man, dass sich Goodsell für ein Konzept entschieden hat, das er selbst als cross-sectional metaphor bezeichnet. Dieses Konzept ermöglicht die Wiedergabe großer Molekülbereiche und ganzer Molekülzusammenhänge, wobei die zeichnerische Querschnittsdarstellung des HI-Virus und seine Einbettung in Blutplasma bewusst an die Zurichtung der Objekte in der Licht- und Elektronenmikroskopie anknüpft. Auf diese Weise wird der konstruierte, auf ausschließlich
Bildbesprechung
disparaten Informationen aufbauende Charakter seiner Zeichnung zugunsten einer einheitlichen Bild-Narration verwischt und so die beabsichtigte Lesbarkeit des Bildes gefördert. Dazu tragen nicht zuletzt die eingesetzten Farben und Formen bei: Die Wahrnehmung einer Differenz zwischen den vielfältigen Einzelelementen (Blut) und dem kompakten, abgeschlossenen Kreis (HIV) beruht sowohl auf der Kontrastwirkung der eingesetzten Farben als auch der Unterscheidbarkeit ihrer Formen. Während die Darstellung des Blutserums in gedämpften und einander ähnlichen Erdtönen gehalten ist, zeichnen sich der Kreis und die Elemente, die er umschließt, durch einen starken Farbkontrast aus. Die Formenwahl unterstützt diese Differenzierung, indem sie einen Vergleich zwischen ähnlichen und unähnlichen Formen ermöglicht und damit das (Wieder)Erkennen bzw. Unterscheiden von Strukturen gewährleistet. Die Form- und Farbwahl basiert wiederum auf der Anwendung des einheitlichen Darstellungsstils (Cartoon) und der einheitlichen Darstellungstechnik (Aquarell- und Zeichentechnik), die es dem Betrachter ermöglicht, das Bild als eine in sich geschlossene Komposition zu erfahren, die Übersicht und damit Orientierung10 gewährt. In einem zweiten Schritt verbindet Goodsell die fertige wissenschaftliche Illustration u. a. des HI-Virus interaktiv mit aktuellsten Forschungs erkenntnissen innerhalb der RCSB Protein Data Bank.11 ◊ Abb. 3 Auf diese Weise verweist das zuvor aus der Transformation verschiedener Informationen erstellte Modellbild sowohl auf die Grundlagen seiner Herstellung zurück als auch darüber hinaus: Denn die über Hyperlinks erfolgte Verknüpfung einzelner Strukturen, beispielsweise in der wissenschaftlichen Illus tration des HI-Virus,12 mit den Informationen, die ihnen zugrunde liegen, ist nicht statischer Natur. Verändert sich etwa die Forschungslage zu einem bestimmten Protein, wie dem CapsidStrukturprotein, so kann diese aktualisierte Information die ursprüngliche Information ersetzen, ohne dass die interaktive Kopplung an die wissenschaftliche Illustration aufgegeben werden muss.13
27
3: Digitale Spuren. A: Klickt man in A auf die durch den Pfeil markierte Stelle, kommt man zur Internetseite, die in B zu sehen ist. B: Aquarelldarstellung des CapsidStrukturproteins in der Online-Proteindatenbank (Protein datenbankidentifizierungsnummer 3h47). Über Hyper links gelangt man über mehrere visualisierte Schritte zu weiteren Informationen, die schließlich zu den Original publikationen führen, die der Darstellung des betreffenden Moleküls zugrunde liegen (z. B. C). Damit ist eine Spur zum Experiment gelegt, das die Evidenz in einer intersub jektiven Realität verortet. C: Eine der wissenschaftlichen Originalpublikationen, die die Aufklärung der Molekül strukturen beschreiben, die in Goodsells Aquarellen gezeigt werden.
28
Kurz gesagt verweist das über die Sichtbarkeit der wissenschaftlichen Illustrationen angelegte Spurenlesen auf das epistemische Ding molekularbiologischer Forschung. Dieser Verweis ist jedoch nicht einfach gegeben, sondern stets an eine prozessuale Handhabung gebunden, da sich der Verweis erst im Aufnehmen der Spur sowohl herstellt als auch aktualisiert. Dementsprechend können die wissenschaftlichen Illustrationen von David S. Goodsell jeweils als Kreuzungspunkt unterschiedlicher Spuren aufgefasst werden, deren Lektüre(n) ins Zentrum molekularbiologischer Erkenntnisproduktion zielt. 1 David S. Goodsell: The Machinery of Life, New York 2009, S. vii. 2 Goodsell (s. Anm. 1). 3 Auf die Verbindung zum Cartoon macht Goodsell in einem Video aufmerksam, wenn er betont: „So I wanted to come up with a style that’s simple enough that you can see the whole picture. So that’s why I use these flat colors and simple outlines, kind of cartoony stuff.“ https://www.youtube.com/ watch?v=f0rPXTJzpLE (Stand: 05/2016). 4 Auf die vor allem in der Lehre auftretende Problematik, Bild-Modelle als die „Sache an sich“ zu betrachten, machen u. a. Alexander Vögtli und Beat Ernst aufmerksam. Alexander Vögtli, Beat Ernst: Wissenschaftliche Bilder. Eine kritische Betrachtung, Basel 2007, S. 58. 5 Gisela Fehrmann, Erika Linz, Cornelia Eppig-Jäger (Hg.): Spuren, Lektüren. Praktiken des Symbolischen, München 2005, S. 9. 6 Die verwendeten Informationen stammen aus der Anwendung verschiedener Erkenntnistechniken und Medien wie z. B. Röntgenkristallografie, Elektronenmikroskopie, Texte und Graphen.
Bildbesprechung
7 „‚Spurenlese‘ ist ein mühevoller, komplizierter Vorgang, der seinen Gegenstand nicht einfach vorfinden und ihn ablesen kann, sondern durch Selektion […] allererst hervorbringen muss.“ Sybille Krämer: Was also ist eine Spur? Und worin besteht ihre epistemologische Rolle? Eine Bestandsaufnahme. In: Dies., Werner Kogge, Gernot Grube (Hg.): Spur. Spurenlesen als Orientierungstechnik und Wissenskunst, Frankfurt a. M. 2007, S. 18f. 8 Goodsell spricht in diesem Zusammenhang von Konzepten, die „readable“ sind. David S. Goodsell: Visual Methods from Atoms to Cells. In: Structure, Jg. 13, 2009, Heft 3, S. 353. 9 Fehrmann et al. (s. Anm. 5), S. 9. 10 „In der Orientierung [geht es] nicht um vollständiges Wissen, sondern um die Wahl […] geeigneter Sichten und ihre Ausrichtung. […] Spuren sind mehr als bloße Anhaltspunkte [für die Orientierung], sie sind besonders attraktive Anhaltspunkte, wenn man etwas Bestimmtes sucht. Man hält sie fest und kehrt zu ihnen zurück, um sie gezielt mit anderen Spuren zu verknüpfen […].“ Werner Stegmaier: Anhaltspunkte. Spuren zur Orientierung. In: Krämer et al. (s. Anm. 7), S. 86, 91. 11 Bei der Protein Data Bank handelt es sich um eine zentrale und frei zugängliche Internet-Datenbank für 3D- Strukturdaten von Proteinen und Nukleinsäuren (www.rcsb.org). 12 Z. B. http://www.rcsb.org/pdb/101/static101. do?p=education_discussion/educational_resources/ hiv-animation.html (Stand: 09/2016). 13 Klickt man beispielsweise auf eine Struktur in der digitalisierten Illustration (vgl. Abb. 3A), so gelangt man schrittweise zu den mit dieser Struktur verknüpften Informationsseiten. Diese Informationen, besonders die Fachartikel (Abb. 3C), welche der Darstellung des betreffenden Moleküls zugrunde liegen, werden im Laufe der Forschung beständig aktualisiert. Auf diese Weise aktualisiert sich auch die Information, die mit den Strukturen der digitalisierten Illustration verbunden ist, ohne dass sich die Illustration dabei selbst verändert.
Dieter G. Weiss, Günther Jirikowski, Stefanie Reichelt
Mikroskopische Bildgebung. Interferenz, Intervention, Objektivität
„But why, it may be asked, should a philosopher care how they [the microscopes] work? Because a correct understanding is necessary to elucidate problems of scientific realism […].“ 1
Unter dem Mikroskop2 ist niemals der Gegenstand selbst, sondern Spuren des Objekts zu erkennen, die mit den Mikroskopierverfahren erzeugt, gesammelt und zu einem Bild kombiniert wurden. Das kann der Betrachtung oder der Präsentation dienen. Die sichtbar gemachten Spuren des Objekts dienen als Evidenzen in einem manifestierten Bild, während das Objekt selbst unzugänglich bleibt. Die Spurenerzeugung erfolgt heute durch immer komplexere Techniken. Objektivität bedeutet in diesem Fall, so argumentieren wir, die erlernte Fähigkeit, die resultierenden Spuren richtig zu deuten. Wir führen hier die Formulierung epistemische Tugend der begründeten Selektivität (epistemic virtue of educated selectivity) ein, die eine entsprechende Tugend und Fertigkeit beschreibt, die von den Mikroskopikern3 in den Jahren zwischen 1830 und 1850 entwickelt worden war. Die heutigen Lichtmikroskope können Objekte sichtbar machen, die nicht nur für das unbewaffnete Auge unsichtbar, sondern auch kleiner sind als die klassische, lange Zeit für unüberwindbar gehaltene Auflösungsgrenze der Lichtmikroskopie (nach Abbe die halbe Wellenlänge des sichtbaren Lichtes, etwa 250 nm bei einer 2000-fachen opti schen Vergrößerung, also 2000 ×).4 Wie in Abbildung 1 und 2 gezeigt, liefern die seit den 1980er-Jahren entwickelten Verfahren sogar Informationen über Strukturen im Inneren der Zelle, die kleiner als 25 nm sind. Wir sprechen von Superauflösungstechniken (super-resolution techniques). Damit wurde die klassische Auflösungsgrenze der Lichtmikroskopie um den Faktor 10 überschritten. Die modernen Lichtmikroskope arbeiten dabei nicht mehr nur mit optischen Elementen wie Linsen, optischen Filtern oder Gittern, sondern diese werden mit elektronischen Kamerasensoren, Verstärkern, digitalen Filtern und Photonenvervielfachern kombiniert. So konnte erst mit den heutigen Techniken gezeigt werden, dass bestimmte Proteinkomponenten der Zentriolen 1 Ian Hacking: Do we see through a microscope? In: Paul M. Churchland, Clifford A. Hooker (Hg.): Images of Science, Chicago 1985, S. 132. 2 Die Frage, ob wir mit dem Mikroskop „sehen“ wurde von Ian Hacking in seinem Artikel “Do we see with the microscope?“ behandelt. In: Representing and Intervening. Introcuctory Topics in the Philosophy of Natural Science. Chapter 11: Microscopes, Cambridge 1983, S. 186ff. Er räumt ein dass, auch wenn es sich um eine andere Art des Sehens handelt, es doch legitim ist zu sagen „Wir sehen mit dem Mikroskop“. 3 Wenn wir den Begriff „Mikroskopiker“ benutzen, meinen wir gender-neutral alle Menschen, die mit den bildgebenden Verfahren der Mikroskopie arbeite(te)n. 4 Ein Nanometer (nm) ist ein Millionstel Millimeter.
30
Dieter G. Weiss, Günther Jirikowski, Stefanie Reichelt
in Form von Diamantringen angeordnet sind. ◊ Abb. 1 Ebenso wurde erst mit der Videomikroskopie entdeckt, dass sich die Zellorganellen (Durchmesser ~50 nm, im Bild rund) im Zytoplasma der lebenden Zelle entlang von 1: Mikroskopie jenseits der Auflösungsgrenze. Mikrotubuli (Durchmesser 25 a: konfokale Mikroskopie der Zentriolen (grün und rot) in der Nähe des Zell kerns (blau), die für die Steuerung der Zellteilung mitverantwortlich sind. nm, im Bild stäbchenförmig) b: Superauflösungsmikroskopie nach der Structured-Illumination-Methode bewegen. ◊ Abb. 2 Ein Ver (SIM). Durchmesser der Zentriolen mit Ringen: 300 nm. Zur Methode siehe gleich der beiden Bilder zeigt, J.-H. Sir et al. In: Nat. Genet., Jg. 43, 2011, Heft 11, S. 1147–1153. dass die Mikrotubuli selbst über den Untergrund gleiten. Keines dieser Objekte ist mit dem Auge im Lichtmikroskop zu erkennen.5 Die neuen elektronischen Lichtmikroskopieverfahren komplizieren ganz wesentlich das Verweis verhältnis zwischen dem abzubildenden Objekt und den visuellen Effekten, die es produziert,6 so dass sich die Frage nach der epistemischen Bewertung solcher Bilder noch dringlicher stellt. Wie mikroskopische Bilder entstehen und das Unsichtbare sichtbar machen, wird darum im Folgenden in drei Schritten verdeutlicht. Wir beginnen mit der Darstellung der physikalischen Grundlage der Kontrastentstehung im Lichtmikroskop, die nicht auf reiner Vergrößerung, sondern auf der optischen Interferenz des vom Objekt gebeugten Lichts beruht. Wir zeigen im Anschluss, wie drastisch durch menschliche Interventionen auf allen Ebenen in den Bildgebungsprozess eingegriffen werden kann, indem die Proben, das Mikroskop und die Art der Aufnahme beeinflusst sowie die Bilder nachbearbeitet werden. Diese Interventionen haben das Ziel, für verschiedene Zwecke jeweils spezifisch gestaltete Bilder, also intendierte Artefakte, zu schaffen. Wir geben einen Überblick über die zunehmend verfeinerten Techniken zur Modifikation von Kontrast und Farbe, die es – verknüpft mit einem steigenden Auflösungsvermögen – ermöglichen, immer mehr Spuren zu erfassen. Nicht nur die Topografie eines Objekts kann heutzutage abgebildet werden, sondern auch viele physikalische und chemische Eigenschaften und, im Falle lebender Objekte, auch physiologische Prozesse. 5 Robert D. Allen, Dieter G. Weiss: An experimental analysis of the mechanisms of fast axonal transport in the squid giant axon. In: Harunori Ishikawa, Sadashi Hatano, Hidemi Sato (Hg.): Proceedings of the X. Yamada Conference on Cell Motility at Nagoya, 11.–13. Sept., 1984, Tokyo 1985, S. 327–333. 6 Vgl. hierzu auch den Beitrag von Kathrin Mira Amelung und Thomas Stach im vorliegenden Band.
Mikroskopische Bildgebung
31
2: Superauflösungsmikroskopie der Dynamik der Mikrotubuli und synaptischen Vesikel in der Nerven zelle. Videomikroskopie, AVEC DIC-microscopy, Auflösung bis 150 nm, bei einer Sichtbarmachung von Objekten bis 20 nm, Bildbreite 10 µm, Intervall 40 sec.
In Anbetracht der Tatsache, dass bei der Mikroskopie auf allen Ebenen in die Bildgebung eingegriffen wird, werden wir im dritten Abschnitt besprechen, wie eine objektive Bildgebung überhaupt möglich ist. Denn aus der Zunahme produzierter Spuren in der Mikroskopie erwuchs schon früh die Notwendigkeit, zwischen Spuren, die vom Objekt herrühren und so ein echtes Bild im Sinne eines intendierten Artefaktes erzeugen, und solchen anderen Ursprungs, also nicht-intendierten Artefakten, zu unterscheiden. Wir machen an dieser Stelle darauf aufmerksam, dass der Begriff „Interferenz“ hier ausschließlich im optischen Sinne gebraucht wird. Den Eingriff von Mikroskopikern in die Bildgebung bezeichnen wir im Gegensatz dazu mit Hacking7 als „Intervention“. Interferenz: Bildentstehung und Auflösungsvermögen
Interferenz ist ein optisches Phänomen, genutzt in der Lichtmikroskopie, bei dem zwei sich überlagernde Wellen eine neue Welle mit größerer oder geringerer Amplitude hervorbringen. Bei Lichtwellen wird dies von unserem Auge als Kontrast wahrgenommen. Aus dem täglichen Leben kennen wir das analoge Phänomen von der Interaktion der konzentrischen Wellenfronten von zwei ins Wasser geworfenen Steinen. Wann immer also ein optisches Instrument für die Untersuchung eines Gegenstandes benutzt wird, wird das Licht nicht einfach nur durch das optische System geleitet, so dass die Linsen ein vergrößertes Abbild erzeugen. Stattdessen werden nahe beieinander liegende Wellen beim Passieren des Objekts an den Grenzen seiner Strukturen gebeugt. Die in verschiedene Richtungen gebeugten und die ungebeugten Wellen rufen dann durch konstruktive und destruktive Interferenz 7 Hacking (s. Anm. 2), S. 149ff.
32
Dieter G. Weiss, Günther Jirikowski, Stefanie Reichelt
Helligkeitsunterschiede, also Kontrast, hervor. Im Mikroskop ist daher das Bild einer Gruppe sehr kleiner Objektpunkte nicht einfach ihr größeres Bild, sondern das der Summe ihrer Airy-Scheibchen. Das Beugungsmuster, das von einem winzigen Objektpunkt ausgeht, wird als Airy-Scheibchen 3a: Das Airy-Scheibchen einer punktförmigen bezeichnet (nach Sir George B. Airy, einem britischen Lichtquelle zeigt die Intensitätsverteilung, die durch Beugung zustande kommt. b: Astronomen des 19. Jahrhunderts). Es besteht aus Objektive für starke Vergrößerung erzeugen einem zentralen Bündel aus nicht gebeugtem Licht, Airy-Scheibchen mit geringerem Durchmesser, umgeben von mehreren Ringen gebeugten Lichtes. so dass solche von zwei nahe beieinander liegenden Punkten noch besser als in (c) als In der Nomenklatur der Beugungstheorie wird das getrennt, also aufgelöst, erkennbar werden. Zentrum als Maximum nullter Ordnung bezeichnet, die Ringe als Maxima erster, zweiter etc. Ordnung. ◊ Abb. 3 Bevor die Lichtwellen jedoch in der primären Bildebene ankommen, passieren sie die hintere Fokusebene des Objektivs, auch Fourierebene genannt. ◊ Abb. 4 Durch das Objekt abgelenkte Lichtwellen legen unterschiedliche Strecken zurück und breiten sich daher mit einer Phasenverschiebung relativ zueinander und zum direkten Licht aus, so dass sie interferieren. In der hinteren Fokusebene des Objektivs wird das gesamte Objekt, hier ein Gitter, das man sich als aus vielen Punkten zusammengesetzt vorstellen kann, als zweidimensionales Beugungsmuster, dem sogenannten Fourierspektrum, wiedergegeben. Es enthält in dieser völlig veränderten Form die komplette geometrische Information und Intensitätsinformation des vom Objekt erzeugten Bildes.8 Im Fourierspektrum sind die Abstände zwischen allen Objektdetails und ihre Richtungen in Abstandsinformationen (räumliche Frequenzen) umgewandelt. Geringe Abstände (hohe räumliche Frequenzen) ergeben die Punkte, die am weitesten vom Zentrum entfernt sind. Die kleinsten auflösbaren Distanzen der verwendeten Optik sind im Fourierspektrum durch die am weitesten außen liegenden Punkte erster Ordnung definiert. ◊ Abb. 4 Da unterschiedliche Wellenlängen (d. h. Farben) mit unterschiedlichen Winkeln gebeugt werden, erscheinen die Spektralfarben des weißen Lichts getrennt. Das direkte (Licht der nullten Ordnung) und das gebeugte Licht (Nebenmaxima des Lichts) erzeugen dann durch Interferenz das Bild.
8 Bei der Röntgendurchstrahlung von Kristallen aus Mineralien oder Makromolekülen entstehen nach dem gleichen Prinzip Beugungsmuster (3D-Fourierspektren), die die Information über alle Atomabstände im Kristall enthalten. Durch Rücktransformation kann man 3D-Modelle der Moleküle errechnen. Siehe dazu Soraya de Chadarevian im vorliegenden Band.
Mikroskopische Bildgebung
33
4: Im Mikroskop wird ein gitterförmiges Objekt zuerst in sein Beugungsmuster (Fourierspektrum) umgewandelt und anschließend für die Beobachtung vergrößert. Das Fourierspektrum in der Fourieroder hinteren Fokusebene zeigt ein Maximum nullter Ordnung (direktes Licht, Mitte) und die Maxima erster Ordnung (gebeugtes Licht, außen).
In der Bildebene definiert der Radius der Beugungs-Airy-Scheibchen die Auflösungsgrenze, d. h. den geringsten unterscheidbaren Abstand zweier Objekte oder das kleinste Objekt, das wirklich aufgelöst ist, also in einem den Referenzobjekten entsprechenden Größenverhältnis abgebildet ist. Die Theorie der beugungsbegrenzten Auflösung wurde von Ernst Abbe 1873 entwickelt, als er fand, dass die laterale Auflösung definiert ist als: Abbe-Auflösung x,y ≈ λ/2NA,
wobei λ die Wellenlänge der Beleuchtung und NA die numerische Apertur des Objektivs oder Kondensors darstellt, ein Maß für die Fähigkeit des Objektivs, das Licht einzufangen. Als Konsequenz verringert sich die Größe eines abgebildeten Punktes mit abnehmender Wellenlänge und zunehmender numerischer Apertur. ◊ Abb. 3a+b Für den sichtbaren Bereich des Lichtspektrums (400–600 nm Wellenlänge) und eine optimale optische Ausstattung liegt die Auflösungsgrenze nach Abbe im Bereich zwischen 200 und 250 nm, also etwa der Hälfte der verwendeten Wellenlänge. Die maximal erreichbare nützliche Vergrößerung mit einem Mikroskop läge demnach bei nahezu 2000-fach. Eine höhere Vergrößerung kann dann zwar größere Bilder erzeugen, aber nicht mehr Details abbilden (sogenannte leere Vergrößerung).
34
Dieter G. Weiss, Günther Jirikowski, Stefanie Reichelt
Von der Fourierebene aus breiten sich die Lichtwellen weiter aus, werden in die primäre Bildebene projiziert und dort in das reelle Zwischenbild des Objekts zurückgewandelt. ◊ Abb. 4 Das Bild ist ein Mosaik von Airy-Scheibchen, die zu klein sind, um individuell erkannt zu werden, aber zusammen die hellen bzw. dunklen Bereiche des Bildes ergeben. Das Okular fokussiert das Bild wie eine Lupe auf die Linse des Auges, die es vergrößert auf die Netzhaut projiziert und so den Sehvorgang abschließt.9 Intervention
Für wissenschaftliche Untersuchungen zellulärer Objekte oder Prozesse ist es wichtig, Bilder zum Zweck des Verstehens und des Überzeugens zu generieren. Dazu bedient sich die Mikroskopie einer Fülle von Interventionsmöglichkeiten, mit denen es sich auf allen Ebenen geplant in den Bildgebungsprozess eingreifen lässt, um kontrastreiche Bilder von einem Objekt zu erhalten. So versteht es sich von selbst, dass jede mikroskopische Bildgebung intendierte Artefakte erzeugt. Wer mikroskopiert, muss diese Interventionsmöglichkeiten kennen, um damit die Anschaulichkeit der Bilder verbessern und bestimmte Details herausarbeiten zu können, aber auch, um den Eingang verfälschender Einflüsse oder Voreingenommenheiten in das Bild vermeiden zu können. Wer sich der Natur der möglichen Interventionen nicht bewusst ist, kann leicht Opfer nichtintendierter Artefakte werden oder die Bilder falsch interpretieren. Modifikation des Untersuchungsobjekts selbst
Färbetechniken oder die Anfertigung von Schnittpräparaten erfordern gewöhnlich eine chemische Fixierung (z. B. mit Formaldehyd), die den Zerfall des biologischen Materials verhindert. Die Objekte werden zum Schneiden oft in Polymersubstanzen wie Paraffin oder Kunstharz eingebettet. Hierbei können zahlreiche nicht-intendierte Artefakte wie Schrumpfung, Ausdehnung oder Rissbildung entstehen, vor allem aber sind alle dynamischen Prozesse in zuvor lebenden Objekten eingefroren.10 In der Histologie und Pathologie werden Farbstoffe verwendet, die das Licht bestimmter Wellenlängen absorbieren und, wenn sie an bestimmte Komponenten gebunden sind, die Verteilung dieser Komponenten sichtbar machen. Passende Farbfilter können eingesetzt werden, um Licht bestimmter Wellenlängen zu blockieren, so dass der Kontrast für bestimmte gefärbte Komponenten im mikroskopischen Bild reduziert oder erhöht wird. 9 Rudi Rottenfusser: Proper Alignment of the Microscope. In: Methods in Cell Biology, Jg. 114, 2013, S. 43–67. 10 Vgl. die Beiträge von Bettina Bock von Wülfingen und von Barbara Orland in diesem Band.
Mikroskopische Bildgebung
35
5: Unterschiedliche Bilder desselben Objekts, erzeugt durch unterschiedliche Kontrastverfahren. a: Die einzellige Grünalge Micrasterias (Größe ca. 150 × 120 µm) im Hellfeldkontrast (Durchlicht). b: Dunkelfeldkontrast (Seitenlicht). c: Fluoreszenz der Chlorophyllmoleküle. d: Differenzieller Interferenzkontrast (DIK).
Die Vielfalt optischer Kontrastverfahren
Anhand des Wissens über die physikalischen Grundlagen der mikroskopischen Bild gebung, vor allem der Interferenz gebeugten und nichtgebeugten Lichtes, wurden verschiedene Techniken entwickelt, die mithilfe optischer Modulatoren in der vorderen Fokusebene (Kondensorebene) oder der hinteren Fokusebene (Fourierebene) des Objektivs in die Bildgebung eingreifen, um Kontrast zu erzeugen.11 ◊ Abb. 4 Mit Aus nahme der Hellfeld- und Dunkelfeldmikroskopie, die dieselben Prinzipien anwendet, die wir beim Betrachten makroskopischer Objekte im täglichen Leben intuitiv nutzen, produzieren diese Techniken Kontrast aufgrund optischer und chemischer Eigenschaften des Objekts, die dem unbewaffneten Auge nicht zugänglich sind. So wird der Kontrast bei der Hellfeldmikroskopie durch Absorption des Lichtes, bei der Dunkelfeldmikroskopie ausschließlich durch indirektes, gebeugtes Licht, bei der Interferenzmikroskopie durch Höhenunterschiede, bei der Phasenkontrast- und der Differenziellen Interferenzkontrastmikroskopie (DIK) durch objektabhängige Verzögerung der Geschwindigkeit des Lichts, bei der Polarisationsmikroskopie durch doppelbrechende Eigenschaften des Objekts und bei der Fluoreszenzmikroskopie durch Anregung von Fluoreszenzfarbstoffen und Emission von Fluoreszenzlicht hervorgerufen, was in ◊ Abb. 5 an Beispielen gezeigt wird. Viele transparente Objekte, wie z. B. Zellen, sind Phasenobjekte, die mit dem Hellfeld- und Dunkelfeldverfahren nicht sichtbar gemacht werden können, weil sie kein Licht absorbieren. Das sie durchdringende Licht erfährt jedoch eine Verzögerung, und 11 Ausführlich dargestellt in Savile Bradbury und Peter J. Evennett: Contrast Techniques in Light Microscopy, Oxford 1996.
36
Dieter G. Weiss, Günther Jirikowski, Stefanie Reichelt
6: Verbesserte Auflösung durch Videomikroskopie. Auflösung und Sichtbarmachung sind zwei ver schiedene Dinge, wie der Vergleich von Abb. 6 und 7 zeigt. Die Auflösungsgrenze wird anhand der Helligkeitsverteilung der Airy-Scheibchen zweier eng beieinander liegender heller Objekte demon striert. a: Abbe-Auflösungsgrenze für das menschliche Auge. b: Kontrastverstärkung für den oberen Bereich von (a) durch Veränderung der Schwellenwerte für Schwarz und Weiß. c: Die Auflösungsgrenze für elektronische Augen wird erreicht, wenn die Airy-Scheibchen so nahe beieinander liegen, dass der Kontrastunterschied fast gleich Null ist (vergleiche b und d, Sparrow-Kriterium der Auflösung).
die damit verbundene Phasenverschiebung führt zu einer Interferenz der Lichtwellen, die mit Phasenkontrast- oder Differenziellen Interferenzkontrastmikroskopen sichtbar gemacht werden kann.12 Beide Kontrastverfahren erzeugen sichtbare optische Artefakte: Im Phasenkontrast erscheinen Objekte mit einer künstlichen hellen Umrandung, im DIK bekommen die Objekte durch Gegenschattierung eine künstliche dreidimensionale Erscheinung. ◊ Abb. 2+5d Zur Bewertung von DIK-Bildern muss man wissen, dass das Gesehene nur einen sehr dünnen optischen Schnitt durch das Objekt repräsentiert, weil die Details oberhalb und unterhalb der Fokusebene ausgeblendet werden. Erst durch die Pseudodreidimensionalität wird das Objekt sichtbar, sie sagt aber nichts über seine Höhe aus. Für die Publikation solcher Bilder muss man beachten, dass optisch dichte Objekte (Partikel) mit dem hellen Bereich oben abzubilden sind, so dass sie als konvex wahrgenommen werden. Die Fluoreszenzmikroskopie ist heute das wohl wichtigste Kontrastverfahren, da sie die Möglichkeit bietet, Substanzen spezifisch zu markieren. Ein fluoreszierendes Molekül verhält sich dabei wie eine Fackel vor einem dunklen Hintergrund. Die Markierung mit Farbstoffen, die an Antikörper gebunden sind, erlaubt, wegen der hohen Spezifität der Antigen-Antikörper-Reaktion, aus tausenden von Proteinspezies nur eine bestimmte sichtbar zu machen. Eine Variation dieser Färbetechnik basiert auf gentechnischer Modifikation der zu untersuchenden Zellen. Das Gen eines fluoreszierenden Proteins, z. B. des grün fluoreszierenden Proteins (GFP), das aus einer leuchtenden Qualle stammt, wird an das Gen eines beliebigen Zielproteins angehängt. Die so modifizierte Zelle und oft auch alle ihre Nachkommen produzieren die fluoreszierende Variante 12 Frits Zernike: Das Phasenkontrastverfahren bei der mikroskopischen Beobachtung. In: Z. techn. Phys., Jg. 16, 1935, S. 454ff.; Georges Nomarski: Microinterféromètre différentiel à ondes polarisées. In: J. Phys. Radium, Jg. 16, 1955, S. 9S–11S (Supplement).
Mikroskopische Bildgebung
37
des Zielproteins, dessen Verteilung dann durch Fluoreszenzmikrosko pie visualisiert werden kann. Mit anderen Fluoreszenzfarbstoffen wer den auch Spuren und Dynamik phy siologischer Abläufe in den Zellen bildgebend erfasst wie der intra zelluläre pH-Wert, die Kalzium ionen-Konzentration13 oder das Membranp otenzial. Durch die rasante Entwicklung der FluoreszenzVerbesserte Sichtbarmachung von Objekten kleiner als die mikroskopie dringt die Lichtmi 7: Abbe-Auflösungsgrenze durch Videomikroskopie. a: Intensitätsver kroskopie in Bereiche vor, die bisher teilung über ein helles Objekt. b: Bei kleineren Objekten bleibt der der Biochemie und Physiologie vor Durchmesser der Airy-Scheibchen konstant, lediglich die Amplitu de nimmt ab. c: Wenn jedoch die Intensität des oberen Bereiches behalten waren. Der wesentliche verstärkt wird, steigt der Kontrast, so dass auch kleinere Objekte Störfaktor der Fluoreszenzmikro deutlich sichtbar werden, wenn auch nicht in echter Auflösung, skopie ist aber das starke Hinter wie in Abb. 6. grundleuchten. Die konfokale Laser-Rastermikroskopie macht da den wesentlichen Unterschied. Sie bringt eine Verbesserung der Auflösung um den Faktor 1,4 und eliminiert das störende Hintergrundlicht, das von Molekülen außerhalb der Fokusebene ausgeht, indem nur ein winziger Laser-Punkt als Beleuchtung verwendet und nur dieser konfokal auf den Detektor abgebildet wird. Damit wird das Objekt abgerastert, so dass Pixel für Pixel und Ebene für Ebene ein Bildstapel und daraus im Rechner ein dreidimensionales Bild entsteht. Bei der Betrachtung kann durch solche virtuellen Zellen digital navigiert und ein volles Verständnis der Zellstrukturen und ihrer Anordnung erlangt werden. Dieses Verfahren der Bildgebung und 3D-Rekonstruktion verlangt am Computer eine bisher nicht dagewesene Vielfalt von Interventionen. Auflösungsgrenze und Superauflösung
Als um 1980 das Sehen mit elektronischen Kameras und die elektronische Bildbearbei tung aufkamen, eröffnete dies neue Möglichkeiten, zusätzliche Bilddetails abzubilden, und führte unerwarteterweise zur Überwindung der bis dahin für unüberwindbar gehaltenen Auflösungsgrenze nach Abbe, da man erkannte, dass diese zwar für das 13 Grzegorz Grynkiewicz, Martin Poenie, Roger Y. Tsien: A new generation of Ca2+ indicators with greatly improved fluorescence properties. In: J. Biol. Chemistry, Bd. 260, 1985, Heft 6, S. 3440–3450.
38
Dieter G. Weiss, Günther Jirikowski, Stefanie Reichelt
Sehen mit dem Auge, nicht jedoch für das Sehen mit elektronischen Kameras gilt. Damit war der Schritt in die Superauflösungsmikroskopie getan. a) Video-Kontrastverstärkungsmikroskopie (Video-enhanced contrast microscopy)
Robert D. Allen entdeckte zufällig, dass die Auflösungsgrenze nach Abbe von der beschränkten Fähigkeit des menschlichen Auges abhängt, Graustufen zu unterscheiden. Während zwei nahe benachbarte Objekte mit dem Auge nur unterschieden werden können, wenn ein ausreichender Kontrastunterschied zwischen ihnen besteht, ◊ Abb. 3c+6a erlaubt die Aufnahme mit elektronischen Geräten eine erstaunliche Kontrastverstärkung ◊ Abb. 6d und durch eine Neudefinition der jeweiligen Hell- und Dunkelwerte eine Zunahme des Auflösungsvermögens. ◊ Abb. 6c+d R. D. Allen erkannte, dass mit seiner Video-kontrastverstärkten Differenziellen Interferenzkontrastmikroskopie (AVEC-DIC) die Auflösung nicht nur um das Doppelte verbessert wird, sondern dass die Sichtbarmachung von winzigen Objekten und ihrer Bewegungen sogar um den Faktor 10 anstieg. ◊ Abb. 7a+b Zur Bewertung solcher Bilder muss aber beachtet werden, dass Objekte kleiner als die Auflösungsgrenze nicht mehr maßstabsgetreu abgebildet werden, sondern durch Beugung größer erscheinen. ◊ Abb. 7b+c Sie sind zwar erstmals abbildbar, können aber in Wirklichkeit um das Zehnfache kleiner sein als abgebildet, wie das z. B. für die Mikrotubuli in Abbildung 2 zutrifft.14 Die Veröffentlichung der AVEC-DIC-Methode durch Allen 1981 löste eine Revolution in der Zellbiologie aus, da es nun möglich wurde, die Vorgänge ohne Fixierung und Trocknung in lebenden Zellen bei Vergrößerungen bis zu 20.000x zu beobachten, die bis dahin der Elektronenmikroskopie vorbehalten waren.15 Unser heutiges Wissen über die Dynamik in der Zelle, die Zellmotilität und die Motorenzyme geht auf dieses Verfahren zurück.16 ◊ Abb. 2
14 Robert D. Allen, Nina S. Allen, Jeffrey L. Travis: Video-enhanced contrast, differential interference contrast (AVEC-DIC) microscopy: A new method capable of analyzing microtubule-related motility in the reticulopodial network of Allogromia laticollaris. In: Cell Motil., Jg. 1, 1981, S. 291–302. 15 Robert D. Allen: New observations on cell architecture and dynamics by video-enhanced contrast optical microscopy. In: Ann. Rev. Biophys. Biophys. Chem., Jg. 14, 1985, S. 265–290; Watt W. Webb: Light microscopy – a modern renaissance. In: Ann. N.Y. Ac. Sci., Jg. 483, 1986, S. 387–391; David Shotton: The current renaissance in light microscopy. In: Proc. Roy. Microsc. Soc., Bd. 22, 1987, S. 37–44. 16 Thomas Breidenmoser, Fynn Ole Engler, Günther Jirikowski, Michael Pohl, Dieter G. Weiss: Transfor mation of Scientific Knowledge in Biology: Changes in our Understanding of the Living Cell through Microscopic Imaging. In: Preprint Series of the Max Planck Institute for the History of Science, Berlin 2010, No. 408.
Mikroskopische Bildgebung
39
b) Superauflösungs-Fluoreszenzmikroskopie
Verschiedene opto-elektronische Methoden machen es seit etwa 20 Jahren sogar mög lich, die Auflösungsgrenze auch für die Fluoreszenzmikroskopie auf etwa 20 nm, also die Größe großer Proteinkomplexe, zu senken. Da bereits gute Übersichtsartikel dazu existieren,17 werden hier nur einige der neuen Techniken kurz erwähnt. Die Methode der Structured Illumination Microscopy (SIM) ◊ Abb. 1b überwindet die klassische Auflösungsgrenze durch Interventionen auf der Ebene der Bildaufnahme. Stimulated Emission Depletion Microscopy (STED) erreicht dies durch eine laseroptische Verringerung des Durchmessers des Beleuchtungspunktes im konfokalen Laser-Raster mikroskop. Die statistische Analyse der von fluoreszierenden Molekülen emittierten Einzelphotonen mittels der Photo-activated Localization Microscopy (PALM) oder der Stochastic Optical Reconstruction Microscopy (STORM) erzeugen Bilder mit der höchsten lichtmikroskopischen Auflösung. Objektivität Selektivität oder die Auswahl der Betrachtungsregion
Selektivität spielt bereits im physiologischen Aufnahmeprozess von visuellen Daten zwischen Netzhaut und Gehirn eine Rolle.18 Wolf Singer demonstriert in seiner Abhandlung über das Verhältnis von Sehen und Wahrnehmung die physiologischen Probleme, die mit der mentalen Aufnahme von Bildinformation einhergehen.19 Es überrascht, wie wenig wir uns der Eigenständigkeit unseres visuellen Systems bewusst sind und in welch hohem Maß vorher existierende Informationen in die Wahrnehmung einfließen. Unser Gehirn bietet uns bevorzugt Aspekte an, die es aufgrund von Erfahrungen als bekannt, besonders auffällig oder wichtig einstuft, um die visuelle Wahrnehmung besonders effizient und informativ zu gestalten. Diese Art der Subjektivität entwickelt sich bereits im Kindesalter, beeinflusst die Interpretation optischer Information, hilft aber bei der visuellen Orientierung in der makroskopischen Welt. Die nach Objektivität strebenden Mikroskopiker müssen sich also immer dieser Tatsache bewusst sein und hinterfragen, ob ihr Gehirn ein Bild vielleicht in intuitiver 17 Lothar Schermelleh, Rainer Heintzmann, Heinrich Leonhardt: A guide to super-resolution fluorescence microscopy. In: J. Cell Biol. Jg. 190, 2010, Heft 2, S. 167–175; Siegfried Weisenburger, Vahid Sandoghdar: Light Microscopy: An ongoing contemporary revolution. In: Contemporary Physics, Jg. 56, 2015, Heft 2, S. 123–143. 18 Zum Beispiel Christoph von Campenhausen: Die Sinne des Menschen, Stuttgart 1993. 19 Wolf Singer: Das Bild in uns, vom Bild zur Wahrnehmung. In: Hubert Burda, Christa Maar (Hg.): Iconic Turn. Die neue Macht der Bilder, Köln 2004, S. 56–76.
40
Dieter G. Weiss, Günther Jirikowski, Stefanie Reichelt
Weise subjektiv wahrgenommen haben könnte. Um komplexe Situationen in ver antwortungsvoller und fundierter Art beobachten zu können, müssen wir beachten, dass unser Gehirn auch Informationen ausblendet, die scheinbar unwichtig sind, z. B. weil sie nicht zu den Objekten oder Hypothesen über dieselben in Beziehung gesetzt werden können.20 Es scheint, dass wir eine Hypothese brauchen, um nicht Dinge zu übersehen, zugleich müssen wir jedoch versuchen, auch Dinge, die (noch) keinen Bezug zu einer Hypothese haben, wahrzunehmen. Objektive Bildgebung beginnt mit der unvoreingenommenen Auswahl einer repräsentativen Region des Objekts, die untersucht werden soll. Dies wird umso bedeutender, je höher die Vergrößerung des verwendeten Mikroskops ist. Von einem Kubikzentimeter Gewebe könnte man zwischen fünf und zehn Millionen elektronenmikroskopischer Dünnschnitte anfertigen, von denen jeder etwa tausend Bilder liefern könnte. Das bedeutet, dass alle Labore der Welt bis heute wahrscheinlich nur wenige Kubikzentimeter Gewebe genauer abgebildet haben. Aufgrund der großen Zahl möglicher Bilder, die auch mit dem Lichtmikroskop bei hoher Vergrößerung von einer einzelnen Zelle gemacht werden können, benötigt die mikroskopische Bildgebung eine Arbeitshypothese, Konzepte und Vorwissen, auf deren Grundlage eine geschulte Auswahl eines repräsentativen Bereiches getroffen werden kann, um informative, repräsentative und somit wahre Bilder zu produzieren. Bilder zufällig oder automatisiert aufzunehmen, wäre für die Lösung wissenschaftlicher Probleme im Mikrokosmos unnütz. Mikroskopiker sollten also bei der Bewertung der Zuverlässigkeit eines wissen schaftlichen Bildes die Art und Weise, wie unser Gehirn mit der Bildinformation umgeht, ebenso berücksichtigen wie die Methode, mit der das Bild hergestellt wurde. Theoriegeleitet oder voreingenommen?
In der Geschichte der Mikroskopie realisierten die Mikroskopiker dies früh und wussten, dass sie ein Konzept benötigen, um die zu beobachtenden Gegenstände zu finden und Ausschnitte auszuwählen, deren Untersuchung im jeweiligen Kontext sinnvoll ist. Ansonsten würde man sich in den endlosen Weiten des vergrößerten Mikrokosmos verlieren. Daher wurde eine theoriegeleitete und objektbezogen selektive visuelle Aufmerksamkeit für notwendig befunden und zugleich versucht, die Gefahr zu vermeiden, Objekte oder Vorgänge zu übersehen, die in keinem Bezug zur Arbeitshypothese stehen und auch zu versuchen, von Vorurteilen geleitete Aspekte 20 Herbert Hagendorf, Josef Krummenacher, Hermann-Joseph Müller, Torsten Schubert: Wahrnehmung und Aufmerksamkeit, Chapter 15: Selektive Aufmerksamkeit, Berlin 2011, S. 179–201.
Mikroskopische Bildgebung
41
zu erkennen und herauszufiltern. Mit diesen Gedanken mahnte bereits Henry Baker (1698–1774): „When you look through the microscope, shake off all prejudice, nor harbour any favourite opinions; for, iff [sic!] you do, ’tis not unlikely fancy will betray you into error, and make you see what you wish to see.“ 21
Es gibt zahllose Beispiele, in denen Mikroskopiker an der Gratwanderung zwischen zu wenig Arbeitshypothese, was zum Übersehen wichtiger Informationen führte, und zu viel Arbeitshypothese, so dass die Voreingenommenheit zur Überinterpretation von Bildinformation und Bestätigung von Lieblingstheorien führte, gescheitert sind.22 Begründete Selektivität, die Objektivitätstugend der klassischen Mikroskopie
Wenn nun ein Bild mittels dieser zahlreichen Interventionen am Objekt, an den optischen und den elektronischen Bildgebungsverfahren produziert wurde, so mag man sich fragen, ob es überhaupt als objektiv bezeichnet werden kann. Lorraine Daston und Peter Galison haben die Frage der Objektivität epistemischer, vorwiegend makroskopischer Bilder in wissenschaftlichen Atlanten und Katalogen grundlegend analysiert.23 Sie beschrieben die Grundtypen der epistemischen Objektivitätstugenden, die im Prozess der Bildgebung zur Anwendung kamen und ihr sukzessives Erscheinen im Verlauf der vergangenen Jahrhunderte. Die erste dieser Tugenden, Naturwahrheit (truth-to-nature), kam im frühen 18. Jahrhundert auf. Generalisierung und Idealisierung waren hier legitime Mittel, um die Wahrheit bildlich darzustellen. Darauf folgte die Tugend der mechanischen Objektivität (mechanical objectivity) zwischen den 1830er- und 1930er-Jahren, in der man gehalten war, die Natur für sich selbst sprechen zu lassen. Automatisierte Abbildungsmethoden wie die Fotografie sollten den menschlichen Einfluss so weit wie möglich reduzieren. Dann, im ersten Drittel des 20. Jahrhundert entstand ein Unbehagen in Bezug auf die mechanische Reproduktion und es setzte sich die Tugend des geschulten Urteils (trained judgment) gegen die mechanische Reproduktion durch.24
21 Henry Baker: The Microscope Made Easy, London (2. Auflage) 1743, S. 62. 22 Beispiele siehe Breidenmoser et al. (s. Anm. 16). 23 Lorraine Daston, Peter Galison: Objektivität, Frankfurt a. M. 2007, S. 531. 24 Daston, Galison (s. Anm. 23), S. 327–383.
42
Dieter G. Weiss, Günther Jirikowski, Stefanie Reichelt
Wenden wir Carlo Ginzburgs und Anna Davins im Kontext der Kulturgeschichte von Bildern vielzitierte Metapher des Spurenlesens25 auf den mikroskopischen Bildgebungsprozess an, so können wir sagen, dass beim Arbeiten mit dem Mikroskop die Spuren, die die physikalischen und chemischen Techniken vom Objekt hinterlassen haben, gesammelt, gelesen und bewertet werden müssen, um sich einem objektiven Bild anzunähern. Geht es Ginzburg bei seinem methodologischen Paradigma eher um eine Auswahl aller verwertbaren Spuren, so sollte in der Mikroskopie eher Wert auf das Erkennen und den geschulten Ausschluss der irrelevanten Spuren gelegt werden. Die führenden Mikroskopiker dieser Zeit, Pieter Harting, Hermann Schacht, Lionel S. Beale, Leopold Dippel, Carl Nägeli und andere, entwickelten dazu zwischen 1830 und 1850 ihre eigenen Regeln anstelle von und im Gegensatz zu der damals üblichen Tugend der mechanischen Objektivität und fassten diese in ihren Standardwerken zur Mikroskopie zusammen (Erstausgaben jeweils 1850, 1851, 1857, 1867 und 1867). Demnach sollte das Objekt gründlich mit dem Mikroskop untersucht und dann in einer Zeichnung festgehalten werden.26 Die Zeichnung sollte lediglich die Aspekte enthalten, die auf das Objekt selbst zurückzuführen sind, während die übrigen Aspekte, obgleich sichtbar, auf der Grundlage von Erfahrung und Vorwissen als unerwünschte Artefakte eliminiert werden sollten. Die folgenden fünf Ansprüche wurden an die Herstellung objektiver Bilder gestellt: 1. Da das Sehen mit dem Mikroskop sich fundamental von dem alltäglichen Sehen unterscheide, wurde eine besondere Schulung im mikroskopischen Sehen gefordert, die es ermögliche, aus den zweidimensionalen optischen Ebenen ein dreidimensionales Verständnis des Objekts zu erarbeiten, optische und chemi sche Artefakte, Täuschungen und Bildanteile, die nicht aus der eigentlichen Fokusebene stammen, zu erkennen sowie zu beurteilen, ob der ausgewählte Objektbereich repräsentativ ist.27 2. Bevor die Zeichnung angefertigt werde, solle das Objekt erforscht und die Ergebnisse mit bereits vorhandenem Wissen kombiniert werden. Das Objekt solle unter einer Vielzahl verschiedener, gut gewählter Bedingungen mikro 25 Carlo Ginzburg, Anna Davin: Morelli, Freud and Sherlock Holmes: Clues and scientific method. In: History Workshop, Nr. 9, Oxford 1980, S. 5–36. 26 Jutta Schickore: Fixierung mikroskopischer Beobachtungen. Zeichnung, Dauerpräparat, Mikrofotografie. In: Peter Geimer (Hg.): Ordnungen der Sichtbarkeit, Fotografie in Wissenschaft, Kunst und Technologie, Frankfurt a. M. 2002, S. 285–310. 27 Leopold Dippel: Das Mikroskop und seine Anwendung, Erster Theil, Braunschweig (1. Auflage) 1867, S. 305ff.: „Eigenthümlichkeit des mikroskopischen Sehens“; Carl Nägeli, Simon Schwendener: Das Mikroskop. Theorie und Anwendung desselben, Leipzig (2. Auflage) 1877, S. 167–168 und 188–247.
Mikroskopische Bildgebung
43
skopisch untersucht werden, um ein umfassendes Verständnis des Gegenstandes zu erhalten (verschiedene Arten der Beleuchtung, Chemikalien zur Fixierung, Färbetechniken, Kontrastverfahren, verschiedene Fokusebenen etc.).28 3. Nur solche Aspekte, die nach diesem Studium als dem Objekt zugehörig erkannt würden, dürften gezeichnet werden, während alle anderen durch aktiven Ausschluss („Ausscheidung“) zu eliminieren seien. Dieser Vorgang der begründeten Selektivität ermögliche es, nicht-intendierte Artefakte, optische Illusionen und Trugschlüsse zu vermeiden. Idealisierung oder Abstraktion im Sinne von Dastons und Galisons Tugend der Naturwahrheit wurden als unzulässig abgelehnt. Die damaligen Mikroskopiker propagierten, dass Naturtreue nur durch die nach ihren Regeln angefertigten Zeichnungen zu erlangen sei.29 4. Die Eliminierung bestimmter Bildinformationen erforderte das Anfertigen von Handzeichnungen, die später in Kupferstiche oder Lithografien übertragen werden.30 Im Gegensatz zu Forschungsfeldern, die sich mit makroskopischen Objekten befassten, wurde die mechanische Objektivität durch Einsatz der Fotografie weitgehend abgelehnt, da sie nur schwer die Eliminierung zulasse und damit nützliche und unnütze Information gleichermaßen abbilde, anstatt wahre Darstellungen des Objekts zu liefern.31 Harting schrieb 1866 über die Fotografie: „[…] gerade durch diese übermässige Treue sind solche Bilder nicht allein undeutlich, sondern auch unwahr.“ 32 5. Aufgabe sei es, dem Betrachter ein begreifbares Bild zur Verfügung zu stellen, das aus der wissenschaftlichen Auseinandersetzung mit dem Objekt hervorgehe und alle wichtigen Spuren enthalte, irrelevante Spuren vermeide und dem Betrachter eigene Forschungsbemühungen an einem Gegenstand, der ihm nicht zugänglich sei, erspare.33 28 Pieter Harting: Das Mikroskop. Theorie, Gebrauch, Geschichte und gegenwärtiger Zustand desselben. Zweiter Band: Gebrauch des Mikroskopes und Behandlung mikroskopischer Objecte, Braunschweig (2. Auflage) 1866, S. 14–15; Dippel (s. Anm. 27), S. 306ff.: „Methoden der mikroskopischen Beobachtung“; Lionel S. Beale: How to work with the microscope, London 1868, S. 187ff. 29 Dippel (s. Anm. 27), S. 306, 308–317; Harting (s. Anm. 28), S. 276; Beale (s. Anm. 28), S. 191–195; Hermann Schacht: Das Mikroskop und seine Anwendung, Berlin (3. Auflage) 1862, S. 273. 30 Dippel (s. Anm. 27), S. 456–468; Harting (s. Anm. 28), S. 276ff.; Beale (s. Anm. 28), S. 33; Schacht (s. Anm. 29), S. 267 und 272. 31 Harting (s. Anm. 28), S. 276, 281–294. 32 Harting (s. Anm. 28), S. 276. 33 Dippel (s. Anm. 27), S. 458; Schacht (s. Anm. 29), S. 272 („[…] was […] Zeichnung sein soll: ein getreues Bild der Natur, aber keine subjektive Vorstellung.“).
44
Dieter G. Weiss, Günther Jirikowski, Stefanie Reichelt
An diesen Forderungen kann man erkennen, dass die Gemeinschaft der Mikroskopiker sich bereits vor 150 Jahren eingehend mit der Frage beschäftigt hat, wie man objektive Bilder erhält und dazu eine eigene epistemische Tugend entwickelt hat. Dieses Vorgehen trägt der spezifischen Situation Rechnung, dass von einem Objekt bei höherer Vergrößerung aus den unzähligen möglichen Bildausschnitten wenige und kleine Bereiche ausgewählt werden müssen. Weiterhin sollte die Abbildung auf sorgfältiger Auswahl der geeigneten Interventionen bei der Bilderzeugung und der selektiven Darstellung beim Zeichnen beruhen. Dies ist die Bildpraxis, für die wir hier, wie eingangs angekündigt, den Begriff Tugend der begründeten Selektivität (virtue of educated selectivity) einführen. Tugend der begründeten Selektivität heute?
Während die Lichtmikroskopie eine fortlaufende Revolution erfährt, in der neue Technologien in immer kürzer werdenden Zeitabständen erscheinen,34 drängt sich die Frage auf, welcher Tugend der Objektivität die heutige Mikroskopie folgt. Nach unserem Wissen existieren weder geschriebene Regeln, noch sind epistemische Tugenden unter Fachleuten der Mikroskopie ein viel diskutiertes Thema. Offensichtlich werden aber auch heute wesentliche Aspekte der epistemischen Grundsätze der begründeten Selektivität sehr effizient befolgt, jedoch geschieht dies zu einem gewissen Grad aus Tradition. Heutzutage werden Bilder entweder mit analogen Videokameras oder mit digitalen CCD- oder CMOS-Chip-Kameras aufgenommen und dabei Pixel für Pixel aufgezeichnet. Dadurch sind Bilder zu Intensitätskarten geworden, die wir als Resultat einer Umwandlung von Photonen zu Elektronen und wieder zurück zu Photonen auf dem Monitor betrachten können. Das Zeichnen ist heute nicht mehr populär, doch die Methoden der Bildverarbeitung ermöglichen es, einen guten Teil der damaligen Handlungsanweisungen in digitaler Form durchzuführen. Das geforderte Durchfokussieren zum Verständnis des Objekts und die Elimi nierung von Fluoreszenzlicht, das von außerhalb der Fokusebene kommt, werden heute durch die konfokale Laser-Rastermikroskopie abgelöst. Die Eliminierung von Bildanteilen, die nicht zum Objekt gehören, ist mit der Videomikroskopie besonders elegant lösbar. ◊ Abb. 8 In einem Schritt werden nicht-intendierte Artefakte wie Staub und ungleichmäßige Beleuchtung aus dem Bild eliminiert, indem eine Aufnahme außerhalb des Objekts, die alle diese Artefakte enthält, aufgezeichnet und in einen Bildspeicher gelegt wird. ◊ Abb. 8c Dieses Hintergrundbild wird dann von allen Bildern subtrahiert, die die laufende Kamera liefert, ◊ Abb. 8b so dass nur das Bild des eigentlichen 34 Weisenburger, Sandoghdar (s. Anm. 17).
Mikroskopische Bildgebung
45
8: Eliminierung aller Bilddetails, die nicht zum Objekt gehören, durch Videomikroskopie am Beispiel eines völlig transparenten Dünnschnitts eines quergestreiften Muskels. a: Fokussiertes Bild, wie im Mikroskop mit sehr geringem Kontrast zu sehen. b: Elektronische Kontrastverstärkung desselben Bildes wie auf dem Monitor zu sehen, Staub und Fasern stören das Bild, das Untersuchungsobjekt ist nur am rechten Rand schwach zu erkennen. c: Das in einer Fokusebene außerhalb des Objekts aufgenommene Hintergrundbild zeigt nur die nicht-intendierten Artefakte. d: Das Hintergrundbild wurde subtrahiert, der Muskel ist selektiv sichtbar. Bildbreite 15 µm.
Objekts zu sehen bleibt. ◊ Abb. 8d Auf diese Weise können selbst die schwächsten Spuren eines von Störungen verdeckten Objekts selektiv sichtbar gemacht werden. Es wird oft angenommen, Bilder, die auf Silber- oder Papierfilm aufgenommen wurden, seien grundsätzlich wahre Darstellungen der Spuren des Objekts, während digital aufgenommene oder bearbeitete Bilder kaum als wahr anerkannt werden dürften, da sie meist nachbearbeitet sind und auch leicht verändert werden können. Wie falsch das ist, wissen alle, die die Dunkelkammerpraxis kennen, weil auch sie es erlaubt, Bildanteile zu verfälschen oder zu eliminieren. Alle anderen Mikroskopieverfahren sind ebenfalls Gegenstand von Interventionen und können somit zur Verfälschung von scheinbar objektiven Bildern missbraucht werden. Solcher Generalverdacht wäre typisch für jene, die der mechanischen Objektivität anhängen und zweifeln, dass in der Mikroskopie die Bildbearbeitung verantwortungsvoll eingesetzt wird. Die digitalen Verfahren in der Mikroskopie sind vielmehr von unschätzbarem Wert, eben weil sie, verantwortungsvoll angewendet, Objekte sichtbar machen können, die sonst verborgen geblieben wären. Im Gegensatz zu digital erzeugten werden digital gefälschte Abbildungen in der Regel von der Publikation ausgeschlossen, da die hochrangigen wissenschaftlichen Journale im Begutachtungsprozess die Angabe der Bearbeitungsschritte und die Vorlage der Bilder zusätzlich im unbearbeiteten RAW-Format verlangen.35 Kontrastbearbeitung zur Verbesserung der Anschaulichkeit ist zugelassen, während das fälschende Einfügen oder Entfernen von Bilddetails oder die Bearbeitung nur bestimmter Bereiche als betrügerisch gilt und solche Bilder nicht publiziert werden. 35 http://www.councilscienceeditors.org/resource-library/editorial-policies/white-paper-on-publicationethics/3-4-digital-images-and-misconduct/ (Stand: 01/2016).
46
Dieter G. Weiss, Günther Jirikowski, Stefanie Reichelt
Alle physikalischen, chemischen, biologischen sowie die analogen und digitalen Schritte der mikroskopischen Bildgebung werden durch intendierte Interventionen eingesetzt, so dass die Bilder des Objekts ab initio intendierte Artefakte darstellen. Ob die Bilder jedoch wahre Darstellungen oder durch den Wunsch, falsche Theorien zu belegen, beeinflusst sind, unterliegt der genauen Prüfung durch die verantwortungsbewusste Forschung. Validierung ist die grundsätzlich notwendige Voraussetzung für die Objektivität mikroskopischer Bilder und die Beständigkeit ihrer Aussagen. Validierung erfolgt durch Kompatibilität mit Beobachtungen in anderen Forschungsgebieten, durch unabhängige biophysikalische oder biochemische Methoden, durch parallele Untersuchungen mit anderen mikroskopischen Techniken und, vor allem im Fall der Hochauflösungsverfahren, mit der Elektronenmikroskopie. Die Medien der elektronischen Kommunikation machen darüber hinaus die epistemischen Bilder sofort weltweit verfügbar, so dass sie der Prüfung tausender Fachkollegen unterzogen werden, was die Gefahr einer Täuschung der wissenschaftlichen Gemeinschaft durch falsch produzierte oder fehlinterpretierte Bilder verringert. Dies ist ein weiterer klarer Vorteil des digitalen Zeitalters für die Mikroskopie. Je tiefer wir jedoch in die bisher unsichtbare mikroskopische Welt vordringen, umso weiter entfernen wir uns vom tatsächlichen physischen Objekt36 und umso mehr Vorwissen über die Verfahren der Bildgebung ist notwendig, um die Bedeutung der Bilder korrekt zu verstehen. Während Mikroskopiker die Tugend der begründeten Selektivität beherzigen, gibt es möglicherweise Probleme auf der Seite der weniger informierten Betrachtenden. Da sie im Betrachten und Interpretieren der modernen epistemischen Bilder oftmals ungeschult sind und den technischen Entstehungszusammenhang nicht kennen oder nicht verstehen, können sie leicht Fehlinterpretationen zum Opfer fallen. Die DIK-Mikroskopie beispielsweise erzeugt einen reliefartigen ‚Schattenwurf‘ an einem abgebildeten Objekt, der jedoch nicht unbedingt seine wahre Höhe anzeigt. ◊ Abb. 2+5d Eine Aufklärung des Bildpublikums über die korrekte Interpretation epistemischer Bilder wäre somit eine weitere, wenn auch nicht epistemische, Tugend, zu der sich Mikroskopiker verpflichtet fühlen sollten. Wir haben zu zeigen versucht, dass erstens die Bildgebung mit Mikroskopen einen komplexen Prozess darstellt, der auf der Interferenz gebeugten Lichtes basiert. Zweitens gibt es eine Vielzahl von Möglichkeiten, in den Bildgebungsprozess einzugreifen. Drittens wurde es seit 1850 von den Mikroskopikern als wichtig erachtet, aktiv eine Reihe von Auswahlen zu treffen, um zu einem wahren und signifikanten Bild 36 Horst Bredekamp: In der Tiefe die Künstlichkeit. Das Prinzip der bildaktiven Disjunktion. In: Ders., John Michael Krois (Hg.): Sehen und Handeln, Berlin 2011, S. 206–224.
Mikroskopische Bildgebung
47
zu gelangen. Basiert der Auswahlprozess auf Vorwissen und Erfahrung der in Mikroskopie geübten Forscherinnen und Forscher, auch unter Berücksichtigung nichtmikroskopischen Wissens, so ist das resultierende Bild, das so weit wie möglich frei ist von extrinsischen Details bzw. nicht-intendierten Artefakten, weder eine subjektive Idealisierung noch eine mechanische Kopie. Stattdessen kann eine solche Sammlung der Spuren als ein ‚wahres‘ Bild des Objekts verstanden werden. Daston und Galison beschreiben für die Bildgebung zwischen 1900 bis 1930 den Übergang von der Tugend der mechanischen Objektivität zu der des geschulten Urteils: „Im ersten Drittel des 20. Jahrhunderts ergaben sich neue Möglichkeiten, als die sich selbst verleugnenden Wissenschaftler mitsamt ihren verschiedenen Formen automatischer Aufzeichnung allmählich denjenigen Forschern das Feld räumten, die mit hochempfindlichen Instrumenten arbeiteten, aber trotzdem zur Gestaltung und Bedeutung von Bildern stolz ihr gut geschärftes Urteilsvermögen einsetzten.“ 37
Es gibt Ähnlichkeiten zwischen der Tugend des geschulten Urteils und der hier für die Mikroskopie beschriebenen Tugend der begründeten Selektivität. Offenbar haben also die Mikroskopiker vieles um fast 100 Jahre vorweggenommen, was sich für die übrige epistemische Bildgebung erst im frühen 20. Jahrhundert durchsetzte, als die Wissenschaft begann, auf allen Gebieten Bilder mit zunehmend komplizierten Geräten zu erzeugen und für die Präsentation zu bearbeiten. Mit dem Begriff der begründeten Selektivität betonen wir einen Weg zur Objektivität epistemischer Bilder, der von den Mikroskopikern vor über 150 Jahren entwickelt wurde und der auch nach der Einführung der digitalen Mikroskopieverfahren und der Superauflösung seine Gültigkeit behalten hat. Diese Arbeit wurde unterstützt vom Landes-Exzellenzförderprogramm Mecklenburg-Vorpommern und dem Forschungsfonds M.-V. für DGW und GJ. Wir danken Fynn Ole Engler, Julia O. M. Lippmann und Bettina Bock von Wülfingen für fruchtbare Diskussionen und wertvolle Hinweise.
37 Daston, Galison (s. Anm. 23), S. 337.
Soraya de Chadarevian
„Um das Buch der Natur zu verstehen, reicht es nicht, die Seiten umzublättern und die Bilder anzuschauen. Wie beschwerlich es sein mag, es wird nötig sein zu lernen, den Text zu lesen“. Visuelle Evidenz in den Lebenswissenschaften um 1960 Das Titelzitat stammt von Francis Crick, einer Schlüsselfigur der Molekularbiologie der Nachkriegszeit. Das Ziel von Cricks wenig verschleiertem Angriff waren Zellgenetikerinnen und Zellgenetiker, die ihre Zeit vermeintlich damit verbrachten, Mikroskopierbilder von Chromosomen zu studieren. Crick war keineswegs uninteressiert an der Struktur und Funktion von Chromosomen, den Zellstrukturen, die im Zentrum der Bemühungen der Zellgenetik standen. Ganz im Gegenteil hatte er in den frühen 1970er-Jahren die Struktur der Chromosomen von höheren Organismen als das „wahrscheinlich wichtigste ungelöste Problem der Biologie heute“ bezeichnet.1 Er hatte selbst einen Aufsatz veröffentlicht, in dem er kühn ein „allgemeines Modell für die Struktur der Chromosomen höherer Organismen“ vorgeschlagen hatte. Dieses Modell sah vor, dass auf komplex gefaltete Bereiche, die die regulierenden Teile des DNA-Moleküls enthielten, gestreckte Abschnitte folgten, die aus kürzeren codierenden Bereichen bestanden. Er benutzte schematische Skizzen mit seitenlangen Bildunterschriften, um die verschiedenen Aspekte des Modells zu erläutern, das er als „spekulativ“, aber „logisch kohärent“ und „mit einer großen Menge von experimentellen Daten, die auf den verschiedensten Techniken beruhen, vereinbar“ beschrieb.2 Das Modell hielt der kritischen Überprüfung einiger seiner Kollegen nicht stand. Dennoch wurde Crick vermutlich aufgrund dieser Arbeit 1977 als Kommentator zur Chromosome Conference, einem regelmäßigen Treffen für Chromosomenforschende, eingeladen. Bei eben dieser Gelegenheit – und in nicht uncharakteristischer Respektlosigkeit gegenüber den Veranstaltern des Treffens – kam es zu seinen kritischen Bemerkungen. Dies war nicht das erste und auch nicht das einzige Mal, dass Crick seine Verachtung für die Mikroskopbiologie zeigte. Als Crick, der seine biologische Karriere unter dem Zellbiologen Arthur Hughes begann, zu seinem früheren Lehrer befragt wurde, fasste er seine Antwort mit den Worten zusammen: „Nun, sehen Sie, er war Mikroskopiker.“ 3 Cricks Biograf mutmaßte, dass dies aus dem Munde von Crick eine ziemlich „verurteilende Bemerkung“ war.4 Crick war nicht allein, was seine Skepsis gegenüber der Evidenz von Bildern angeht. Tatsächlich gibt es insbesondere in der Physik eine lange Tradition, Bilder 1 Francis H. C. Crick: The Double Helix. A Personal View. In: Nature, Jg. 248, 1974, Heft 5451, S. 767. Hier und im Folgenden beruhen alle Zitate auf Übersetzungen der Autorin. 2 Francis H. C. Crick: General model for the chromosomes of higher organisms. In: Nature, Jg. 234, 1971, S. 27. 3 Zitiert nach Robert Olby: Francis Crick. Hunter of Life’s Secrets, New York 2009, S. 78. 4 Olby (s. Anm. 3), S. 78.
Visuelle Evidenz in den Lebenswissenschaften um 1960
49
zugunsten von formalen mathematischen und gesetzesähnlichen Strukturen zu verschmähen.5 Natürlich verließ man sich auch in der Molekularbiologie auf visuelle Evidenz – so jedenfalls scheint es. An dieser Stelle sei nur auf die Rolle hingewiesen, die die Röntgenbeugungsaufnahme der DNA, die von Rosalind Franklin und ihrem Assistenten Raymond Gossling aufgenommen wurde (heute bekannt als Foto 51), in Watsons und Cricks Arbeit spielte, die zum Vorschlag der DNA-Doppelhelix führte. Die uneingestandene Verwendung dieses Fotos durch die beiden Wissenschaftler wurde von vielen verurteilt. Hätte diese Aufnahme nicht nützliche Information geliefert, wäre die Polemik wohl weit weniger heftig ausgefallen. Tatsächlich legt das Bild für den kristallografisch geübten Blick eine helikale Konformation des Moleküls nahe – selbst wenn Crick schon früh darauf verwies, dass Watson, der das Foto als einziger gesehen hatte, kein ausreichendes mathematisches und kristallografisches Wissen besaß, um dessen Bedeutung vollkommen zu erfassen.6 Es stellen sich demnach die folgenden Fragen: Was unterscheidet kristallografische Aufnahmen von Mikroskopbildern und deren jeweilige Verwendung in der Molekularbiologie und Zellgenetik? Und vor allem: Was ist ein Bild? Welche Bilder liefern hinreichende Evidenz für wen und warum? Um diese Fragen zu beantworten, müssen wir über die polemischen Äußerungen hinausgehen und die visuellen Praktiken der Chromosomenforschung und der Molekularbiologie näher betrachten. Dieser Beitrag untersucht zunächst die Produktion und Verwendung von Bildern in der Zellgenetik um 1960. Im weiteren Verlauf wird die Rolle der visuellen Evidenz in der Molekularbiologie untersucht. Dabei liegt der Schwerpunkt auf der Proteinkristallografie, Cricks eigenem Spezialgebiet und ein wesentlicher Ansatz der frühen Molekularbiologie. Der letzte Abschnitt geht kurz auf die Entwicklung hochauflösender Mikroskope und ihre Anwendung in den molekularen Lebenswissenschaften ein und analysiert die Rolle bildlicher Darstellungen im aktuellen Umgang mit Daten. Mikroskopie und visuelle Evidenz
Techniken zur Sichtbarmachung spielten bei der Untersuchung von Chromosomen eine grundlegende Rolle. Sie schlossen die Präparation von Zellen, Färbung, geübte Mikroskopbeobachtung, Zeichnen, Fotografieren und das Anordnen von Chromosomen ein. Bilder von Chromosomen zirkulierten auch außerhalb des Labors. Sie tauchten in klinischen Untersuchungen und in Medienberichten auf und lieferten sogar ein Muster für einen Marimekko-Stoffdruck. Besonders ikonisch wurden das X- und Y-Chromosom. 5 Lorraine Daston, Peter Galison: Objectivity, New York 2007, S. 253–307. 6 Francis Crick: What Mad Pursuit. A Personal View of Scientific Discovery, London 1989, S. 67.
50
Soraya de Chadarevian
Bis weit in die siebziger Jahre des letzten Jahrhunderts hinein stellten aufgereihte Chromosomensätze das bekannteste Bild der Genetik dar. Unser Schwerpunkt liegt jedoch auf der Konstruktion von visueller Evidenz im Labor. Die Chromosomenbilder, die in der Zellgenetik zur Betrachtung kamen, 1: Mikrofotografie menschlicher Chromosomen. waren hochgradig konstruiert. Um zum Beispiel die berühmten Bilder zu produ zieren, die zur Korrektur der Anzahl menschlicher Chromosomen von 48 auf 46 führ ten, stellten Joe Hin Tjio und Albert Levan am Labor für Krebschromosomen im Institut für Genetik der Universität Lund Zellkulturen von embryonischem Gewebe her. Sie behandelten die Zellen mit Colchicin, um die Zellteilung in einem Stadium zu stoppen, in dem die diffusen Chromatinfäden zu kompakten Chromosomenstrukturen kondensiert waren; sie gaben eine hypotone Lösung zum Kulturmedium, um die Zellen aufzuschwemmen; sie färbten die Zellen, brachten die Präparate auf einen Objektträger und pressten schließlich geschickt ihren Daumen auf die Deckgläser in einem letzten Versuch, die Chromosomen auf einer Ebene zu verteilen. Anschließend konnten die Chromosomenpräparate unter einem Mikroskop betrachtet und gezeichnet oder auch fotografiert werden. Der epistemische Wert der beiden bildlichen Ansätze war eine Streitfrage zwischen den Autoren. Während für Levan das Sehen eng mit dem Akt des Zeichnens verbunden war, sah Tjio in der Mikrofotografie die entscheidende Evidenz. Die Mikrofotografien in ihrer gemeinsamen Publikation zeigten „die Leichtigkeit, mit der das Zählen erfolgte“ und lieferten, zumindest für Tjio, den direkten Beweis für die neue Chromosomenzahl.7 ◊ Abb. 1 Sowohl das Zeichnen mit der Camera Lucida als auch das Herstellen der Fotografien erforderten große Kunstfertigkeit. So überrascht es wenig, dass Levan ein hervorragender Tuschezeichner war, während Tjio über lange Zeit Erfahrung mit der Fotografie gesammelt hatte. Tjio verließ sich nicht einfach auf die mechanische Objektivität der Fotografie, sondern setzte die Manipulation der Bilder in der Dunkelkammer fort.8 Trotz Levans standfester Verteidigung des Zeichnens setzten die Entwicklungen in der Chromosomenforschung zunehmend auf die Fotografie. 7 Joe Hin Tjio, Albert Levan: The Chromosome Number of Man. In: Hereditas, Jg. 42, 1956, Heft 1–2, S. 2. 8 Soraya de Chadarevian: Chromosome Photography and the Human Karyotype. In: Historical Studies in the Natural Sciences, Jg. 45, 2015, Heft 1, S. 115–46.
Visuelle Evidenz in den Lebenswissenschaften um 1960
51
2: Tabelle mit Chromosomenmessungen, die das Ergebnis der Standardisierungskonferenz in Denver (1960) zusammenfasste.
Fotografien (wie zum Teil auch Zeichnungen) hielten das Mikroskopierbild und damit die experimentelle Evidenz fest. Sie lieferten Belege und luden andere Forschende ein, die Evidenz zu überprüfen. Diskussionen über die Anzahl der Chromosomen fanden rund um fotografische Aufnahmen statt. Dennoch erforderte die Beobachtung der Chromosomen Übung und selbst eine scheinbar so banale Aktivität wie das Zählen der Chromosomen war alles andere als unkompliziert, wie Aryn Martin eindrücklich gezeigt hat.9 Tatsächlich war ein kurioser Aspekt der Bestätigung der neuen Chromosomenzahl, dass vorher veröffentlichte Mikrofotografien nun als konsistent mit der neuen Anzahl von 46 betrachtet wurden. Die Fotografien selbst wurden Gegenstand weiterer Manipulationen. Vergrößerte Abdrucke wurden zerschnitten und die ausgeschnittenen Chromosomen gemäß einem festen Schema geordnet, auf das man sich bei einer speziell einberufenen Standardisierungskonferenz geeinigt hatte. Diapositive konnten auf eine Leinwand projiziert werden, was die Messung der vergrößerten Chromosomen vereinfachte. Das Messen spielte in den frühen Untersuchungen der Chromosomenforschung eine wichtige Rolle. Der Bericht der ersten Standardisierungskonferenz von 1960 schloss bewusst keinerlei Bilder ein. Stattdessen bestand der zentrale Teil des Berichts aus einer Tabelle, die die mittleren Messwerte mit Abweichungen der Gesamtlänge von jedem Chromosom, das Längenverhältnis beider Arme und andere Zahlen detailliert aufführte. ◊ Abb. 2 Der weitgeschätzte britische Humangenetiker Lionel Penrose, 9 Aryn Martin: Can’t Any Body Count? Counting as an Epistemic Theme in the History of Human Chromosomes. In: Social Studies of Science, Jg. 34, 2004, Heft 6, S. 923–948.
52
3: Röntgenbeugungsaufnahme von Myoglobin, dem ersten Protein, dessen molekulare Struktur gelöst wurde (späte 1950er-Jahre).
Soraya de Chadarevian
der nicht an der Konferenz teilgenommen hatte, machte sich die Mühe, sämtliche in dem Bericht veröffentlichten Zahlen zu überprüfen, und deckte dabei verschiedene Rechenfehler auf. Er betrachtete das Messen als grundlegend für die Erforschung der menschlichen Chromosomen. So wurden Chromosomen durch die Fotografie zu greifbaren Objekten, die weiter manipuliert, vermessen und sortiert werden konnten. Was genau hatte Crick nun aber an der Verwendung von Bildern in der Zellgenetik auszusetzen? Was waren Bilder für die Kristallografie und welche epistemische Rolle spielten sie in der experimentellen Praxis?
Röntgenbeugung und die molekulare Struktur von biologischen Molekülen
Die Röntgenanalyse begann mit einem Röntgenbeugungsbild, das dadurch entstand, dass einkristalline Proteinkristalle – oftmals über Stunden – einem Röntgenstrahl ausgesetzt wurden (in dieser Hinsicht kann Röntgenbeugung als eine Art von Mikroskopie betrachtet werden und umgekehrt). Das Ergebnis wurde auf fotografischen Platten festgehalten und diese entwickelt. ◊ Abb. 3 Der kristallografisch geübte Blick sieht in diesen Bildern ein Muster aus Punkten verschiedener Intensität. Aus der Anordnung der Punkte und ihrer Intensität sowie den berechneten Phasen konnte die Elektronendichteverteilung im Molekül ermittelt werden. Die Intensitäten wurden direkt aus den Fotografien gemessen. Anfangs erfolgte dies manuell, indem die Dunkelheit der Punkte mit einer Bezugsskala abgeglichen wurde. Später wurden Dichtemessgeräte eingesetzt, um die Beugungsbilder zu vermessen. Das Bestimmen der Phasen und der Elektronenverteilung erforderte umfangreiche Berechnungen, für die schon früh elektronische Rechner eingesetzt wurden. Elektronendichtekarten sahen topografischen Karten sehr ähnlich. ◊ Abb. 4 Um die dreidimensionale Verteilung von Elektronendichten zu erfassen, wurden Schnitte durch das Molekül gelegt und Umrisskarten auf transparente Folien gedruckt, die übereinandergelegt und beleuchtet werden konnten. Die resultierende Karte lieferte einen Beleg für die dreidimensionale Struktur des Moleküls, obwohl dessen präzise Konfiguration nur durch den Bau eines 3D-Modells bestimmt werden konnte – eine weitere Art visueller Darstellung. An diesem Punkt musste eine Wahl getroffen werden, welches Baumaterial verwendet werden sollte, wobei verschiedene Modellteile verschie-
Visuelle Evidenz in den Lebenswissenschaften um 1960
53
dene Aspekte der Struktur beleuchteten und verschiedene Manipulationen und weitere Verfeinerungen erlaubten. Die kristallografische Analyse eines Moleküls vom Beugungsbild bis zum 3D-Modell kann also als eine Reihe von Transformationen visueller Darstellungen rekonstruiert werden, wobei jede Darstellung die Information für den nächsten Analyseschritt 4: Umrisszeichnungen auf Elektronendichtekarten (circa 1957). lieferte.10 Ist Cricks Ablehnung der Bilderpraxis in der Chromosomenforschung angesichts der Bedeutung visueller Darstellungen in der Kristallografie also vielleicht nur als Polemik zu verstehen? Oder können wir Unterschiede in der Art ausmachen, in der die beiden Forschungsgruppen Bilder interpretierten und verwendeten? Bilder und Daten
Ein möglicher Unterschied zwischen den beiden Ansätzen ist die Ebene, auf der Phä nomene untersucht werden. Wenn Crick Bilder gegen Text ausspielte, mag er vielleicht die Molekularanalyse gegen eine Analyse auf zellulärer Ebene, die der Lichtmikro skopie zugänglich ist, verteidigt haben. Dennoch sind die Begriffe, mit denen er den Unterschied zwischen den beiden Ansätzen formulierte, aufschlussreich. Epistemisch gesehen entwickelten Forschende in der Zellgenetik ihre Beobachtungsfähigkeit, während Kristallografinnen und Kristallografen ihre Aufmerksamkeit auf die Anzahl der Berechnungen lenkten, die für jeden nächsten Schritt der Analyse notwendig war. Angefangen mit John Kendrew, der 1957 die erste Atomstruktur eines globulären Pro teins vorstellte, betrachtete man in der Proteinkristallografie die Strukturanalyse als ein enormes Datenverarbeitungsproblem. Diese Sicht erlaubte es schon früh, die Nützlich keit der damals noch experimentellen elektronischen Rechner für die Berechnung und Speicherung von Daten zu sehen.11 Die Menge der Daten, die für die Berechnung der ersten atomaren Proteinstrukturen verarbeitet wurde, war beispiellos. Die Beteiligten wurden nicht müde, diesen Umstand zu betonen. Ihre Leistungen erhielten damit eine besondere Aura. 10 Vgl. die Beiträge von Amelung und Stach sowie Weiss, Reichelt und Jirikowski im vorliegenden Band. 11 Soraya de Chadarevian: Designs for Life: Molecular Biology after World War II, Cambridge 2002, S. 98–135.
54
Soraya de Chadarevian
Ebenso wie in der Kristallografie wurde auch in der Chromosomenforschung versucht, elektronische Rechner einzuspannen, um die mühselige und zeitraubende Arbeit der Chromosomenanalyse zu erleichtern und zu beschleunigen. Jedoch lag dabei der Bedarf mehr im Bereich der Mustererkennung. Auto matisierung über setzte die Arbeit der menschlichen Beobachtung für jedes Chromosom in die folgenden Schritte: Digitalisierung des sichtbaren Bildes, Feld segmentierung, Merkmalsextraktion und 5: Cytoscan für eine computerunterstützte Chromo Klassifizierung. Die Computerwissenschaft somenanalyse, entwickelt von der Pattern Recognition versuchte, ähnliche Probleme in anderen Group in Edinburgh. Das Gerät umfasste ein mit Be reichen zu lösen. Ein prominentes einem Computer verbundenes Mikroskop und einen Computerbildschirm für die Bildbearbeitung. Bei spiel war die Herausforderung der Zeichenerkennung von sowohl Maschinenwie auch Handschrift. Die Parallele zwischen Zeichen- und Chromosomerkennung ist interessant, da Chromosomen (ohne Crick zu nahe treten zu wollen) damals wie auch heute noch häufig mit Buchstaben verglichen werden, und zwar im metaphorischen Sinne wie auch anderweitig. Jedoch erwies sich die Chromosomerkennung als noch problematischer als die Zeichenerkennung, da Chromosomen überlappen und in verschiedenen Richtungen liegen können. In der Zeichenerkennung spielte Messung keine Rolle und die Dichte oder Anomalien von Buchstaben waren uninteressant, während für die Chromosomenanalyse beides entscheidend war. Um diese Probleme der Chromosomenanalyse zu überwinden, wurden verschiedene Algorithmen entwickelt. Doch trotz intensiver Bemühungen in diesem Bereich blieben Menschen den Maschinen bei dieser Aufgabe weiterhin überlegen. Wie einer der Projektleiter in Großbritannien es ausdrückte, wurde sehr schnell klar, „dass menschliche Augen zu Tricks fähig sind, die verdammt schwer mit Maschinen nachzuahmen sind“.12 Das Gerät, das die Gruppe schließlich entwickelte und kommerzialisierte, bestand aus einem interaktiven System, das die Rastererkennungsfähigkeit des Computers mit der Mustererkennungsfähigkeit der menschlichen Beobachtung verband. Es handelte sich um ein selbstständiges Gerät, das aus einem mit einem Computer verbundenem Mikroskop und einem bildschirmbasierten Editor bestand. ◊ Abb. 5 12 Interview der Autorin mit Denis Rutovitz, Edinburgh, 1. April 2008.
Visuelle Evidenz in den Lebenswissenschaften um 1960
55
Bei näherer Betrachtung war allerdings der Unterschied zwischen Kristallografie und Chromosomenforschung in Bezug auf die Verwendung von Rechnern nicht ganz so eindeutig wie es scheinen mag. Einerseits beklagten viele Kristallografinnen und Kristallografen das Fehlen eines Bildschirms am digitalen Rechner und bevorzugten für die Durchführung ihrer Berechnungen 6a: Der Analogrechner, gebaut von Ray Pepinsky, konnte zeitweilig einen analogen Rechner, der kristallografische Echtzeitberechnungen durchführen und exklusiv für die Berechnung von Patterson- das Ergebnis von Fouriersynthesen grafisch darstellen Projektionen gebaut worden war und die (1951). berechneten Elektronendichtekarten auf dem Bildschirm eines Kathodenstrahloszilloskops anzeigte. ◊ Abb. 6a+b Dies unterstütze, so jene, die dieses Verfahren befürworteten, die Interpretation der Daten. Neben der Ver wendung von Computern für Rechenopera tionen, versuchten Forschende in der Mole kularbiologie Rechner auch zur molekularen Modellierung zu benutzen. Dieser Versuch, der zuerst in den 1960er-Jahren von Cyrus Levinthal am MIT in Angriff genommen wurde, zielte darauf, Modellierungs-Soft ware mit einem interaktiven grafischen Displaysystem zu verbinden, um dreidimen 6b: Darstellung einer Patterson-Projektion auf dem sionale Molekülstrukturen auf dem Bild Bildschirm des Analogrechners. schirm zu erzeugen.13 ◊ Abb. 7a+b Andererseits hoffte man in der Chromosomenforschung, rechnergestützte Ver fahren zusätzlich zur Beschleunigung der Chromosomenanalyse auch zum Messen der optischen Dichte von Chromosomen – ein Schritt ähnlich der Verwendung des auto matisierten Dichtemessgeräts in der Kristallografie – zu verwenden, um Anomalien zu finden, die mit dem Lichtmikroskop nicht beobachtet werden konnten. Das Verfahren sollte die Chromosomen gleichsam „wiegen“, statt deren Länge zu messen. 13 Eric Francoeur, Jérôme Segal: From Model Kits to Interactive Computer Graphics. In: Soraya de Chadarevian, Nick Hopwood (Hg.): Models. The Third Dimension of Science, Stanford 2004, S. 402–429.
56
Soraya de Chadarevian
Dennoch bezogen sich Praktizierende der Mole kularbiologie insgesamt nur dann auf Bilder, wenn diese von umfangreichen Messungen und Berechnun gen gestützt waren. Dieser Rückgriff auf Zahlen, um visuelle Evidenz zu begründen, hat nicht nachgelassen, aller Evidenz zum Trotz. Veröffentlichungen in der Molekularbiologie sind heute voll von farbigen Darstellungen, und superauflösende Mikroskope, die 7a: Computer-Arbeitsplatz mit interaktivem Displaysystem (auch als „Kluge“ bekannt), den die Abbildung biologischer Prozesse in der lebenden Cyrus Levinthal am MIT Mitte der sechziger Zelle auf molekularer Ebene in Echtzeit erlauben, sind Jahre für die Proteinmodellierung verwendete. hochgeschätzt. Selbst die Sequenzierung, die textuelle Analyse der DNA par excellence, basiert heute auf Mikroskoptechniken. Tatsächlich ist der IlluminaSequencer, ein verbreitetes Sequenzierungsgerät, im Wesentlichen ein Fluoreszenzmikroskop, das mit einer intelligenten Chemie kombiniert wurde. Ebenso erlauben jüngste Entwicklungen den Forschenden, die Synthese von DNA in vivo auf dem Bildschirm zu verfolgen. Und doch basieren diese Bilder auf der Ver arbeitung riesiger Zahlenmengen. In der neuen Gene ration von Mikroskopen sind Software-Algorithmen, die Bilder analysieren und aus einer immensen Daten menge neu aufbauen, entscheidend, um die optische 7b: Detail mit Bildschirm und sogenanntem Globus, der es erlaubte, die Struktur auf dem Auflösung der Geräte weiter zu erhöhen. Compu Bildschirm zu verschieben und zu rotieren. teralgorithmen fügen auch den schwarz-weißen Fluoreszenzbildern Farben zu. Auch die Bioinforma tik greift zunehmend auf Bilder zurück, um Daten zu visualisieren und damit der Analyse zugänglicher zu machen. Doch trotz des Gebrauchs von Bildern wird die Arbeit an Datenbanken nach wie vor als theoretische Arbeit verstanden.14 Frei nach Crick können wir zusammenfassend sagen, dass die Bildgeschichte sich nicht allein auf das verlassen darf, was zu sehen ist. Wichtig ist vielmehr, was Bilder für wen darstellen. Diese Arbeit wurde mit einem Scholars Award von der National Science Foundation (Grant Number 1534814) gefördert.
14 Hallam Stevens: Life Out of Sequence. A Data Driven History of Bioinformatics, Chicago 2013, S. 171–201.
Bettina Bock von Wülfingen
Einer Theorie Körper verleihen. Die Färbetechnik und die „Alleinherrschaft des Zellkerns“ ab 1876 Der Zoologe Oscar Hertwig war einer der ersten an Zeugung interessierten Zellmikroskopiker, der Färbemethoden verwendete. In der Auseinandersetzung darüber, ob eher das Zellplasma oder der Zellkern die Zeugung und Vererbung organisiere, nutzte er sie, um 1875 zu beobachten, was nach dem Verschmelzen von Eizelle und Spermium geschieht, und um zu belegen, dass dem Zellkern die wesentliche Rolle bei der Vererbung zukomme. Hertwigs Art zu arbeiten ist typisch für die Zellmikroskopie der Zeit, die, wie Jutta Schickore beschreibt, eine Epistemologie verfolgte, nach der dem Urteil der Forschenden und deren Synthesefähigkeit ein hoher Wert zukommt. Dank des höhenverstellbaren Objekttisches müssen sie aus vielen Einzeleindrücken von einem einzigen Objekt ein räumliches Bild ihrer Erfahrung wiedergeben können. Zusätzlich bediente sich Hertwig einer älteren Traditionslinie, nämlich jener der zeitlichen Reihung der Präparate, und sprengt damit den von Schickore beschriebenen epistemologischen Rahmen: Aus vielen Einzelpräparaten stellte er einen gezeichneten zeitlichen Ablauf der Prozesse nach der Zeugung zusammen. Möglich ist dies nur, indem Färbemethoden nicht nur zuvor Unsichtbares differenzierbar machen, sondern auch erlauben, die Bewegungen in der Zelle in einem bestimmten Moment anzuhalten und zu fixieren. Dieser Beitrag entwirft eine These: Indem sich seit den späten 1870er-Jahren, begonnen unter anderem mit Hertwig, Färbemethoden als die einzig zur Sichtbar machung wirksamen und „beweiskräftigen“ 1 Methoden etablierten, verschwanden Objekte und Prozesse, die der Färbung entgingen, und womöglich nur in der Bewe gung auszumachen waren, aus der Sicht.2 So dürfte die Theorie, nach der dem Zell plasma eine wesentliche Rolle beim Zeugungs- und Vererbungsprozess zukam, nicht nur allzu früh aufgrund der Werte, die zeitgenössisch den Geschlechtern zugewiesen wurden – wie vielfach beschrieben – das Nachsehen gehabt haben, sondern auch durch neue epistemische Werte und infolgedessen durch das Ausbleiben ihrer chemischen Verkörperung delegitimiert worden sein. Mikroskopie Ende des 19. Jahrhunderts: Naturtreue durch disziplinierte Erfahrung
Ein Phänomen öffentlich vor Augen führen zu können, ist bereits früh Bestandteil der wissenschaftlichen Beweisführung im aufklärerischen Diskurs. Im 19. Jahrhundert gerät die Art und Weise solcher Sichtbarmachung zu einem wesentlichen Bestandteil 1 Jutta Schickore: Fixierung mikroskopischer Beobachtungen. Zeichnung, Dauerpräparat, Mikrofotografie. In: Peter Geimer (Hg.): Ordnungen der Sichtbarkeit, Fotografie in Wissenschaft, Kunst und Technologie, Frankfurt a. M. 2002, S. 285–310, S. 293. 2 Vgl. eine analoge Argumentation zum Verhältnis von flüssig und fest in der Daguerreotypie als Instrument der Physiologie von Barbara Orland in diesem Heft.
58
Bettina Bock von Wülfingen
kultureller wie wissenschaftlicher Auseinandersetzung,3 Sichtbarmachung wird selbst zum wissenschaftlichen Gegenstand. Hierzu gehört auch die Rolle der Forschenden selbst,4 deren diszipliniert korrekte Vorgehensweise, besonders in der Mikroskopie zunächst Mitte des 19. Jahrhunderts in England und dann seit den 1860er-Jahren in den deutschsprachigen Ländern zunehmend Gegenstand von Publikationen und Schulungskursen wird.5 Ende des 19. Jahrhunderts wird schließlich, folgen wir Carlo Ginzburg, in verschiedenen Kulturbereichen und so auch in der Wissenschaft relevant, das nicht Offensichtliche, das Unauffällige systematisch und reproduzierbar als materielle Spur des zu zeigenden Phänomens vorführen zu können.6 Daston und Galison verfolgen einen anderen Fokus, nämlich den des Spuren Produzierens anstatt den des Spuren Lesens:7 Im frühen 19. Jahrhundert galt es, Naturtreue zu erreichen, indem ein idealer oder charakteristischer Naturgegenstand gezeichnet wurde, selbst wenn er so in der Natur kaum vorzufinden war. Dieses Objektivitätsideal der Naturtreue sei Mitte des Jahrhunderts abgelöst worden von einem der mechanischen Objektivität. Es bestand darin, durch Aufzeichnungsverfahren der Natur selbst zu ermöglichen, sich auf dem Papier zu zeigen. Idealerweise würde der wissenschaftliche Beobachter vollständig durch mechanisierte Vorgänge ersetzt. Wie Schickore deutlich macht, scheint dieses Ideal in der Mikroskopie des späten 19. Jahrhunderts nicht zu gelten. Denn es finde sich in der Mikroskopie, diskutiert unter anderem am Beispiel der Forscher und Mikroskopie-Lehrbuchautoren Matthias Jacob Schleiden und Leopold Dippel, ein anderes Objektivitätskonzept für die Sichtbarmachung und deren Präsentation, das sich in der Diskussion von Präparaten, Zeichnungen und Mikrofotografien zeigt. Diese Objektivität ist weder kompatibel mit einer Objektivität, die aus vielen Objekten ein idealtypisches präsentiert, noch mit einer solchen, die das beobachtende 3 Martin Jay: Downcast Eyes: The denigration of vision in twentieth-century French thought, Berkeley 1993; Hans Jonas: Der Adel des Sehens. In: Ralf Konersmann (Hg.): Kritik des Sehens, Leipzig 1999, S. 257–271. 4 Der Forscher, mit dem Ideal der Selbstbeherrschung einhergehend, wird hier historisch bedingt explizit in männlicher Form genannt (vgl. Lorraine Daston, H. Otto Sibum: Introduction: Scientific personae and their histories. In: Science in Context, Jg. 16, 2003, Heft 1, S. 1–8). 5 Graeme Gooday: ‚Nature‘ in the laboratory: domestication and discipline with the microscope in Victorian life science. In: The British Journal for the History of Science, Jg. 24, 1991, Heft 3, S. 307–341; Soraya De Chadarevian: Sehen und Aufzeichnen in der Botanik des 19. Jahrhunderts. In: Michael Wetzel, Herta Wolf (Hg.): Der Entzug der Bilder. Visuelle Realitäten, München 1994, S. 121–144; William Coleman: Prussian pedagogy. Purkyne at Breslau, 1823–1839. In: William Coleman, Frederic L. Holmes (Hg.): The investigative enterprise, Berkeley 1988, S. 15–64; Jutta Schickore: The microscope and the eye. A history of reflections, 1740–1870, Chicago/London 2007. 6 Carlo Ginzburg, Anna Davin: Morelli, Freud and Sherlock Holmes: clues and scientific method. In: History Workshop, Jg. 9, 1980, Heft 1, S. 5–36. 7 Lorraine Daston, Peter Galison: Objectivity, New York 2007.
Einer Theorie Körper verleihen
59
Subjekt in den Hintergrund drängt. Im Gegenteil, der Mikroskop-bewehrte Beobachter müsse darin begabt sein, durch eine „productive […] Einbildungskraft“ 8 aus den verschiedenen Beobachtungstiefen an dem dreidimensionalen Objekt, das sich jeweils durch das Monokular nur in einer Ebene zeigt, die Syntheseleistung zu vollbringen, die vollzogene Naturerfahrung in seiner mehrdimensionalen Gesamtheit zu reproduzieren. Erfahren und geübt ist er auch in der Lage, mögliche Fehlerquellen in der Anschauung zu eliminieren oder, wenn dies nicht möglich ist, in der Präsentation zu diskutieren. Selbst den verschwundenen Zellkern sichtbar machen: Färbung und Vererbung
Die Arbeitsweise des Zoologen Oscar Hertwig entspricht geradezu vorbildlich Schickores Beschreibung. Hertwig hatte bei Ernst Haeckel in Jena und bei dem Mikroskopiker Max Schultze in Bonn studiert. Seit den 1860er-Jahren hatten zahlreiche Forscher versucht zu beweisen, dass bei der Befruchtung Spermien- und Eizelle miteinander verschmolzen, und Hertwigs Studie gelang es, dies, der Rezeption nach unstrittig, zu belegen.9 Es blieb jedoch weiterhin offen, was mit den Nuklei während und nach der Befruchtung geschah. Der Pathologe Leopold Auerbach etwa beschrieb an einem lebenden Objekt deren anschließende Auflösung.10 Zerfielen also die Nuklei womöglich direkt nach der Befruchtung oder verschmolzen sie und blieben im neuen Embryo bestehen? Hertwig untersuchte die Kern- und Plasmabewegungen im Sommer 1875 anhand von Keimzellen des Seeigels, die er in einer Flasche zusammenschüttelte und so die Befruchtung herbeiführte. Auch Hertwig gelang die Beobachtung der Zellkerne aufgrund der Grenzen von Auflösung und Kontrast am lebenden Objekt nur bis zu dem Moment der Aufnahme des Spermiums in die Eizelle und nachdem sie einige Zeit später wieder auftauchten. Hertwig zeigte sich der Einschränkungen auch seines Zeiss-Mikroskops bewusst, so dass er bei der ersten Gelegenheit von der chemischen Färbemethode Gebrauch machte, nachdem sie erst kurz zuvor für die Gewebeforschung propagiert worden war.
8 Leopold Dippel: Das Mikroskop und seine Anwendung, Braunschweig 1867, S. 467. 9 Oscar Hertwig: Beiträge zur Kenntniss der Bildung, Befruchtung und Theilung des thierischen Eies. In: Morphologisches Jahrbuch, 1876, Heft I, S. 347–432, S. 382. Für die Wissenschaftsgeschichte gilt meist Fols im selben Jahr erschienene Veröffentlichung als der erste Nachweis des Eindringens des Spermiums, obwohl zeitgenössische Besprechungen Ende des 19. und zu Beginn des 20. Jahrhunderts zuerst Hertwigs überzeugenden Bericht zur Befruchtung als solchen Nachweis lobten. Als Erscheinungsjahr verzeichnet die Studie selbst 1875. 10 Leopold Auerbach: Organologische Studien 1: zur Charakteristik und Lebensgeschichte der Zellkerne, Breslau 1874.
60
Bettina Bock von Wülfingen
Um die Kerne genauer sichtbar zu machen, galt es einiges zu tun, was Hertwig auf einer halben Seite anderen zu „empfehlen“ gab.11 So wurden die in einem Uhrschälchen befruchteten Eier zunächst mit Osmiumsäure übergossen, gespült und gefärbt:
1: Zwei Zellkerne wandern im befruchteten Ei auf einander zu – oder werden zueinander geschoben und gezogen („Ei, fünf Minuten nach der Befruch tung. Einwandern des Spermakerns. […]“, Hertwig 1875, Anhang, Tafel 11).
„Durch ein baldiges Einlegen in Baele’schem Carmin wird einestheils die bei Osmiumanwendung sonst eintretende Nachdunklung der Eier vermieden, anderntheils werden die Kerne roth imbibiert, während der Dotter [das Zellplasma] nur eine sehr geringe Färbung annimmt und daher vollkommen durchsichtig bleibt. Auf diesem Wege konnte ich mir Färbungsbilder von überzeugender Klarheit verschaffen.“ 12
Der in seinem Handwerk erfahrene Beobachter wollte demnach zunächst einmal sich selbst überzeugen. Indem die Färbemittel zugleich sämtliche Prozesse in der Zelle zum Halten brachten, schuf Hertwig unterschiedliche fixierte Stadien, die er dann in einer Reihe von Bildern zellulärer Momente zusammenstellte. Die Bewegung in den Zellen wurde nach standardisierten Zeitabständen gestoppt. Seinen Kollegen kreidet Hertwig an, keiner von ihnen habe vor ihm auf diesem Weg „die Theilungsvorgänge in allen Stadien Schritt für Schritt genau verfolgt und beschrieben“,13 oder sie hätten, wie Auerbach, „die Möglichkeit, dass der Kern im frischen Zustande unkenntlich geworden ist, nicht berücksichtigt“.14 ◊ Abb. 1 Die Einführung der Färbetechnik fiel in denselben Zeitraum, in dem Zweigeschlechtlichkeit und der jeweilige Zeugungsbeitrag der Geschlechter zu einem der zentralen Themen für die Embryologie aufstieg.15 Die Beobachtungen Hertwigs und anderer Forscher der sich aufeinander zubewegenden und miteinander verschmelzen 11 12 13 14 15
Hertwig: Beiträge (s. Anm. 9). Hertwig: Beiträge (s. Anm. 9). Hertwig: Beiträge (s. Anm. 9), S. 419. Hertwig: Beiträge (s. Anm. 9), S. 425, Hervorhebung B. v. W. Frederick B. Churchill: From heredity theory to Vererbung – the transmission problem, 1850–1915. In: Isis, Jg. 78, 1987, Heft 3, S. 337–364; Helga Satzinger: Differenz und Vererbung. Geschlechterordnungen in der Genetik und Hormonforschung 1890–1950, Köln 2009.
Einer Theorie Körper verleihen
61
den Zellnuklei von Spermium und Eizelle galten zunächst als Beleg, dass die Theorie, nach der das Spermium bei der Zeugung der Eizelle nur einen immateriellen Impuls zur Entwicklung gäbe, falsch sei. Sie müsse der Feststellung weichen, dass beide Geschlechter den gleichen materiellen Beitrag zum formgestaltenden Erbmaterial in der Zelle leisteten. Hertwig rahmte seine Ergebnisse allerdings zehn Jahre später in eine Theorie der geschlechtlichen Arbeitsteilung, wie Haeckel sie vor ihm erstmals als eine zwischen Teilen innerhalb der Zelle eingeführt hatte. Bei Hertwig gilt nun das Spermium, der so bezeichnete „Befruchtungsstoff zugleich auch als Vererbungsstoff“.16 „Die weibliche Zelle oder das Ei hat die Aufgabe übernommen, für die Substanzen zu sorgen, welche zur Ernährung und Vermehrung des Zellprotoplasmas bei einem raschen Anlauf der Entwicklungsprocesse erforderlich sind […].“ 17 Und: „Das eine nennen wir männliche, das andere weibliche Organisation, männliche und weibliche Sexualcharaktere.“ 18 Im Gegensatz zu Hertwig und Zoologen, Botanikern und Embryologen, die eine solche Arbeitsteilung ebenfalls annahmen (wie vor ihm, allerdings ohne bildliche Belege zur Persistenz der Zellkerne, bereits Eduard Strasburger, August Weismann und Carl Wilhelm von Nägeli), insistierten andere auf der dominanten Rolle des Zellplasmas. Forschende in den USA um Charles Otis Whitman widersprachen explizit dieser von Hertwig und anderen beschriebenen Arbeitsteilung, die Whitman als eine „anthropomorphic conception“ 19 bezeichnete. Der Embryologe Hans Driesch und der Physiologe Max Verworn beschrieben, gegen die „Alleinherrschaft des Kerns der Zelle“,20 wie das Zentrosom, eine strahlenförmige Struktur im Plasma, die Zellkerne und, während dessen Teilung, Bestandteile daraus, durch die Zelle bewegten. Allerdings unterlegten sie ihre Beschreibungen nur verein 16 Oscar Hertwig: Das Problem der Befruchtung und der Isotropie des Eies, eine Theorie der Vererbung. In: Jenaische Zeitschrift für Naturwissenschaft, Jg. 18, 1885, Heft 11, S. 276–434, S. 277. 17 Hertwig: Das Problem (s. Anm. 16), S. 222f. 18 Hertwig: Das Problem (s. Anm. 16), S. 222. 19 Charles Otis Whitman: The inadequacy of the cell-theory of development. In: Journal of Morphology, Jg. 8, 1893, Heft 3, S. 639–658, S. 648f. 20 Max Verworn: Allgemeine Physiologie, Jena 1897, S. 56; Hans Driesch: Analytische Theorie der organischen Entwicklung, Leipzig 1894, S. 151ff.
2: Hertwigs serielle Zeich nung des Vorgangs nach der Eizellbefruchtung (die ersten beiden Bilder ohne, die anderen mit Färbung).
62
Bettina Bock von Wülfingen
zelt mit Bildern des beobachteten Zellmaterials. Das Zentrosom, das nach heutigem Stand aus Proteinfäden besteht, war schwierig vom restlichen Plasma differenziert einzufärben. So fasst der Anatom und Lehrbuchautor Ernst Ziegler noch 1905 zusammen, die Zentrosomen seien wegen ihrer Kleinheit schwer zu sehen und färbten sich mit kernfärbenden Chemikalien nicht, „wohl aber mit saurem Fuchsin, Saffranin und Eisenhämatoxylin“ und seien doch „schwer nachweisbar“.21 Im Gegensatz zum Zentrosom ließ sich der Zellkern derart leicht, nicht nur mit Baele’schem Carmin, sondern auch mit Anilin, färben, dass Walther Flemming den im Kern befindlichen, farbig hervortretenden Stoff 1882 „Chromatin“ nannte, abgeleitet vom griechischen Wort chroma für Farbe.22 „Allein die Färbung bringt Wissen voran“ 23
Im Unterschied zu einer reinen Vergrößerung und auch zum Refraktionsbild im Mikroskop, macht Färbung Objekte sichtbar, indem sie sie materiell überhaupt erst produziert, indem sie sie durch neue Verbindungen mit den hinzugegebenen Färbemitteln chemisch verändert. Objekte wurden dadurch oft schon mit dem bloßen Auge sichtbar, sie wurden differenzierbar und erforschbar.24 Gerade bei der Färbung krankheitserregender Mikroorganismen zeigte sich bereits mit den ersten Versuchen, Färbemittel in der Mikroskopie einzusetzen, ein Objekt, das der Färbemethode nachhaltigen Erfolg sicherte. Die Bakterienfärbung machte die zuvor nur theoretisch angenommenen Krankheitserreger für die Forschung wie für die Öffentlichkeit sichtbar. Sie gelang erstmals 1871, wurde aber von Rieder und Weigert erst 1874 als Methode beschrieben, die ermöglichte, „verschiedene Gewebe als qualitativ verschieden im mikroskopischen Bild hervortreten zu lassen“.25 Indem die Koch’schen Postulate der Erregerlehre schließlich in den 1880er-Jahren durch die Färbung der Mikroorganismen belegt werden konnten, diente „die Färbung der pathogenen Organismen als ‚objektives‘ Evidenzkriterium“, so Hüntelmann in seinem historischen Rückblick zu
21 Ernst Ziegler: Lehrbuch der allgemeinen Pathologie und der pathologischen Anatomie, Jena 1905, S. 299. Entsprechend würden Flemming und Hertwig die Spindelfigur, die analog zum Zentrosom in den Kernen auftritt und die Chromosomen bewegt, „von der achromatischen Substanz des Kerngerüsts“ ableiten, während Strasburger sie aus Zellplasma entstehen ließe. 22 Walther Flemming: Zellsubstanz, Kern und Zelltheilung, Leipzig 1882, S. 99–129. 23 S. Ramón y Cajal: Recollections of my life (E. H. Craigie with J. Cano, Trans.) (1937), Cambridge 1996, S. 526f., Übersetzung B. v. W. 24 Axel C. Hüntelmann: „Ehrlich färbt am längsten“. Sichtbarmachung bei Paul Ehrlich. In: Berichte zur Wissenschaftsgeschichte, Jg. 36, 2013, Heft 4, S. 354–380. 25 Robert Rieder: Carl Weigert in seiner Bedeutung für die medizinische Wissenschaft unserer Zeit. In: Ders. (Hg.): Carl Weigert. Gesammelte Abhandlungen, Bd. 1, Berlin 1906, S. 1–132, S. 14.
Einer Theorie Körper verleihen
63
Paul Ehrlichs Einführung von Gewebefärbemitteln.26 Gemeinsam mit den Koch’schen Postulaten „stellten die sichtbar gemachten Bakterien einen objektiven Beweis dar, der unabhängig von Ort und Person diskutiert und gegen konkurrierende Modelle […] ins Feld geführt werden konnte“.27 Dass die Färbemethoden in der Mikroskopie sich so schnell durchsetzten, war, so Axel Hüntelmann mit Referenz auf den Ehrlich-Biograf Ernst Bäumler, Ergebnis der „historischen Kreuzung“ 28 verschiedener Entwicklungen: In den 1860er-Jahren wurden aufwendig aus Pflanzen und Tieren gewonnene Färbepräparate ersetzt durch aus in der Produktion von Teer anfallende, preisgünstigere Stoffe. Deren färbender Effekt beförderte wiederum die aus der Farbstoffindustrie hervorgehende chemische Industrie. In der Forschung zur Vererbung, wie sich etwa an den Arbeiten von August Weismann, Carl Wilhelm von Nägeli und besonders schließlich Albert von Kölliker zeigen lässt, wurde, entsprechend der immer stärker chemisch orientierten Mikroskopie, zunehmend chemisch argumentiert.29 Die Visualisierung und der Beleg durch Färbemethodik erlangte eine solche Bedeutung, dass der Lebendbeobachtung der Zelle jede wissenschaftliche Relevanz abgesprochen wurde. Ebenso wie andere bereits lange vor ihm befand etwa der Neuroanatom und Nobelpreisträger Ramón y Cajal 1937, es sei nur möglich „[to] advance in the knowledge of the tissues […] by impregnating or tinting“.30 Die Färbung jedoch machte Lebendbeobachtung unmöglich, was in manchen Forschungsbereichen, wie denen zur Entwicklung neuronaler Zellen, zum Hemmnis wurde.31 Die Färbemethode im Wettbewerb der Theorien
In seinem Visualisierungsprozess lässt sich Hertwigs Arbeit, die ihn (und sein Publikum) zu der Überzeugung bringt, dass die Zellkerne sich nicht nach der Zeugung auflösen, sondern beständig und maßgeblich für die Vererbung seien, in mindestens vier Bilder generierende Schritte teilen: Das Präparat, zunächst „‚Bild‘ seiner selbst“,32
26 Hüntelmann (s. Anm. 24), S. 273. 27 Hüntelmann (s. Anm. 24), S. 274. 28 Ernst Bäumler, Paul Ehrlich: Forscher für das Leben, Frankfurt a. M. 1979, S. 36. 29 Rudolph Albert von Kölliker: Die Bedeutung der Zellenkerne für die Vorgänge der Vererbung. In: Zeitschrift für wissenschaftliche Zoologie, 1885, Heft 42, S. 1–46. 30 Ramón y Cajal (s. Anm. 23), S. 526f. 31 Hannah Landecker: New times for biology: Nerve cultures and the advent of cellular life in vitro. In: Studies in History and Philosophy of Science Part C: Studies in History and Philosophy of Biological and Biomedical Sciences, Jg. 33, 2004, Heft 4, S. 667–694. 32 Hans-Jörg Rheinberger: Präparate – ,Bilder‘ ihrer selbst. Eine bildtheoretische Glosse. In: Bildwelten des Wissens, 2003, Bd. 1,2, S. 9–19.
64
Bettina Bock von Wülfingen
wird, sofern die Färbetechniken auch die chemische Fixierung beinhalten, zu einem dauerhaften Beleg, über den mit anderen kommuniziert werden konnte. Der Beleg oder Beweis braucht in jedem Fall ein Gegenüber: Wenn Hertwig sich mit seinen Färbepräparaten zunächst selbst „überzeugen“ musste, diente ihm das Präparat als Instrument33 zum „Micro-Feedback“, das Cynthia Pyle als die Kommunikation der Forschenden mit sich selbst bezeichnet. Sie unterscheidet es vom „Macro-Feedback“, wozu die Publikation dient.34 In Hertwigs Publikation selbst finden sich zahlreiche Lithografien, die, neben dem des Lithografen, seinen Namen tragen. Deren zeichnerische Vorlage erwähnt Hertwig nicht in einem Wort. Die Bilder zeigen Zellen stets rund, meistens symmetrisch und geordnet und frei von Organellen im Zellplasma, so dass sie schematisiert erscheinen. Da die Zeichnung Hertwig, ähnlich wie seinen Zeitgenossen, keiner Rede wert ist, wissen wir nicht, ob sie für ihn Teil des MikroFeedbacks, der Erkenntnisweise ist,35 die sich als diszipliniertes Spurenlesen bezeichnen ließe, und die hierin und in ihrer Synthesefähigkeit auch der Mikrofotografie überlegen ist.36 Zumindest erlaubt sich Hertwig durch die Schematisierung, wie es auch seine methodischen Beschreibungen zeigen, auszuwählen und einzugreifen. Hertwigs einzige Methodenbeschreibung ist der Färbung des Objekts gewidmet. Die Färbung gab den Bestandteilen des Zellkerns, die in bestimmten Momenten des Zellzyklus ansonsten unsichtbar wurden, einen Körper, der als so sichtbar gewordener Artefakt den Beobachter Hertwig überzeugen und darüber hinaus eine Öffentlichkeit generieren konnte.37 Dies war, wie Hertwig im Nachhinein erklärte, sein Ziel: Die Theorien von Haeckel und Nägeli, die keine sichtbaren Nachweise vorlegen konnten, zu belegen. Es galt zu zeigen, dass der (bei ihm wie den Vorgängern männlich konnotierte) Nukleus als das Organ der Vererbung und das (wiederum wegen seiner überwiegenden Herkunft aus der Eizelle als weiblich bezeichnete) Zellplasma das Organ der Anpassung sei.38 Im Wettbewerb mit der durch die leichte Einfärbbarkeit des Zellkerns gestützten Theorie hatten jene Forschende, die dem Zentrosom im Plasma eine maßgebliche Rolle im Vererbungsprozess zuschrieben, ungleich weniger Möglichkeiten, ihre Theorie mit 33 Im Sinne Simondons zeichnen sich Instrumente dadurch aus, dass ihnen eine Feedback-Struktur inhärent ist. Gilbert Simondon: Du mode d’existence des objets techniques, Paris 1989. 34 Cynthia M. Pyle: Art as science: scientific illustration, 1490–1670 in drawing woodcut and copper plate. In: Endeavor, Jg. 24, 2000, Heft 2, S. 69–75. 35 Vgl. Christoph Hoffmann, Barbara Wittmann: Introduction: Knowledge in the Making: Drawing and Writing as Research Techniques. In: Science in Context, Jg. 26, 2013, Heft 2, S. 203–213. 36 Soraya De Chadarevian: Chromosome Photography and the Human Karyotype. In: Historical Studies in the Natural Sciences, Jg. 45, 2015, Heft 1, S. 115–146; Schickore (s. Anm. 1). 37 Vgl. Hüntelmann (s. Anm. 24), S. 345–380. 38 Oscar Hertwig: Das Problem der Befruchtung, Jena 1885, S. 277f.
Einer Theorie Körper verleihen
65
den Methoden, die in der moralischen Ökonomie der Mikroskopie zu der Zeit Geltung hatten, zu belegen. Schickore verwendet für andere Mikroskopiker, die ebensolche Färbemethoden anwenden, weiterhin den Begriff der Naturtreue als Objektivitätskriterium. Er bedeutet allerdings eben in den von ihr diskutierten Fällen der Mikroskopiker des letzten Drittels des 19. Jahrhunderts nicht, dass von vielen Objekten ein ideales Objekt in der Zeichnung erschaffen wird. Es fragt sich, ob diese Mikroskopiker, die über den beweglichen Objekttisch verfügten und daher das eine Objekt in mehreren Ebenen erfahren und die mehrdimensionale Erfahrung im Bild wiedergeben konnten, nicht bereits einer dritten Form des Objektivitätsideals anhingen. Neben Naturtreue und mechanischer Objektivität deuten Daston und Galison für die Zeit um die Jahrhundertwende ein Weiteres an, das den Forschenden das Einbringen des eigenen Urteilsvermögens und selbst Schematisierung erlaubte: das Objektivitätsideal des trained judgement, und dieses wird hier offensichtlich in der Mikroskopie antizipiert.
Interview Muster und Spuren. Bilder von Interferenzen und Kollisionen im physikalischen Labor: ein Dialog zwischen Dr. Anne Dippel und Dr. Lukas Mairhofer Dippel:
Mairhofer:
Dippel:
Mairhofer:
Dippel:
Nachdem ich Sie als Philosophen kennengelernt habe, der dem Denken über die Natur auf der Spur war und deshalb Physik studiert hat, frage ich mich, was treiben Sie heute in einem Physiklabor? Wir machen hier in unserem Keller in Wien Interferenzexperimente mit Materiewellen – nicht ohne Philosophie: Wir beweisen, dass unsere Welt nicht gut so beschrieben werden kann, dass die kleinsten Bestandteile der Natur aus undurchdringlichen und unteilbaren Kügelchen aufgebaut seien, deren Eigenschaften bereits vor jeder Wechselwirkung feststehen. In unseren Versuchen zeigen die kleinsten Einheiten der Materie ein Wellenverhalten – sie sind nicht scharf lokalisiert, können einander überlagern und miteinander oder auch mit sich selbst interferieren. Wir sprechen deshalb von Materiewellen. Was bezeichnet der Ausdruck Materiewellen? Materiewellen wurden das erste Mal 1924 von dem französischen Physiker de Broglie postuliert, und bald wurde nachgewiesen, dass sich unter bestimmten Umständen die Bewegungen von Elektronen, Neutronen und auch kleinen Heliumclustern nicht gut mit der Vorstellung von massiven, undurchdringlichen Teilchen vereinbaren lassen. Dies schien den Physikerinnen und Physikern für diese Mikroobjekte durchaus akzeptabel, doch unangenehmerweise macht die Theorie keine Vorhersage darüber, wo dieses seltsame Wellenverhalten endet und unsere klassische Welt beginnt. Ende der 1990er-Jahre wurde erstmals die Interferenz von C60 nachgewiesen, großen Molekülen, die etwa die siebenhundertfache Masse eines Neutrons haben. In unserem Apparat bringen wir inzwischen sehr komplexe und große Moleküle zur Interferenz, zum Beispiel Vitamine, Polypeptide und in naher Zukunft hoffentlich auch Viroide, die zur Selbstreplikation fähig sind. Dabei kann der Vorgang der Interferenz nicht direkt beobachtet werden. Wir erschließen ihn aus dem Muster, das die Moleküle hinter dem Interferometer bilden, aus der Spur, die sie in unseren Detektoren hinterlassen und die sich für uns in ein wissenschaftliches Bild verwandelt. Wenn ich Sie recht verstehe, geht es dabei um die Änderung eines ganzen Weltbildes: Lange Zeit bestand die physikalische Naturauffassung darin, die kleinsten Bausteine unseres Kosmos müssten unzertrennliche,
Muster und Spuren
67
nteilbare Einheiten, sein. A-tome, Un-Teilbare, wurden sie von den Grieu chen daher genannt, denn das altgriechische Verb temnein heißt so viel wie „schneiden“ oder „teilen“. So schreibt etwa Demokrit im 5. Jahrhundert vor unserer Zeitrechnung: „Scheinbar ist die Farbe, scheinbar Süßigkeit, scheinbar Bitterkeit: wirklich nur Atome und Leeres.“ 1 Die früh-neuzeitlichen Physiker und Mathematiker, wie etwa Newton oder Leibniz formulierten auf diesen Vorstellungen fußende mathematische Naturgesetze.
Auf der Basis dieser Gesetze wurden Experimente betrieben, die durch einen stetigen Prozess des Falsifizierens und Verifizierens dazu geführt haben, dass atomistische Ausgangsannahmen falsche Vorurteile wurden, die mit den Erkenntnissen über das Innere von Atomen nicht recht zu verbinden sind. Subatomar werden in der Physik Objekte beobachtet, die in Wechselwirkung mit anderen Objekten als Teilchen aufscheinen. Zwar werden sie im Moment der Messung zu Teilchen, auf dem Weg zwischen der Quelle und dem Messpunkt jedoch ergeben die Berechnungen, dass sie sich wie Wellen verhalten. Nur so lassen sich die Interferenzbilder erklären. Ihre Aufenthaltswahrscheinlichkeit breitet sich zwischen Quelle und Detektor wie die Amplitude einer Welle aus. Deshalb wird in der Physik auch oft von Ladungswolken gesprochen.
Die Forschenden kamen zu dem Schluss, diese Objekte Elementarteilchen zu nennen, da sie erst im Moment der Wechselwirkung lokalisiert werden können, dann aber Teilchencharakter besitzen. Zunächst wurde das Elektron detektiert. Dann stellte sich heraus, dass das Licht, also Photonen, obwohl es sich in den Experimenten als Welle beobachten lässt, gequantelt, also als Welle-Teilchen durch den Kosmos fliegt. Heute berechnen Kollisionsexperimente die Wahrscheinlichkeit mit ein, dass Protonen, sogar wenn sie direkt aufeinandertreffen, nicht notwendig zerfallen müssen. Sie können einander durchdringen.
Mairhofer:
Hierin liegt eine spannende Frage: Warum verhalten sich diese Teilchen – Quarks, Atome, Moleküle – wie delokalisierte Wellen? Das sollte nach unserer Vorstellung von materiellen Körpern nicht möglich sein. Eine Bedingung dafür ist, dass sie gut von ihrer Umwelt isoliert sind, deshalb arbeiten wir im Ultrahochvakuum. Unsere Vakuumkammern sind in etwa so leer wie der Raum um den Mond. Wir verdampfen die Moleküle, zum Beispiel in einem Ofen, so dass sie sich isoliert voneinander bewegen. Es
1 Demokrit: Fragment 125 (gemäß Galenos von Pergamon); übersetzt von Hermann Diels. In: Die Fragmente der Vorsokratiker, griechisch und deutsch, herausgegeben von Walther Kranz, Bd. 2, Berlin (3. Aufl.) 1912, S. 85.
68
Interview
gibt auch andere Möglichkeiten, die Teilchen in die Gasphase zu bringen, die alle Fachbegriffe tragen, zum Beispiel Elektrosprayionisation oder laserinduzierte akustische Desorption. Wenn die entstandene Molekülwolke in eine Richtung fliegt, bildet sie einen Molekülstrahl. Der Physiker John Fenn hat sehr poetisch beschrieben, wie aus Lecks, die ja das größte Problem bei der Vakuumtechnologie sind, Molekülstrahlmethoden entwickelt wurden: „Born in leaks, the original sin of vacuum technology, molecular beams are collimated wisps of molecules traversing the chambered void that is their theater […]. On stage for only milliseconds between their entrances and exits, they have captivated an ever growing audience by the variety and range of their repertoire.“ 2 Dippel:
Mairhofer:
Heißt „original sin“ nicht Erbsünde? Das finde ich zwar jetzt etwas übertrieben, aber „eingekammerte Leere“ als Theater klingt wirklich schön. Und was passiert konkret? Voneinander isoliert, delokalisieren die Wellenfunktionen, mit denen in der Quantenmechanik die Bewegung des Massenmittelpunkts dieser Moleküle beschrieben wird. Seine Bahn ist nicht mehr eindeutig bestimmt und das Molekül verhält sich eher wie eine Wasserwelle – so kommt es etwa zu Beugungserscheinungen, wenn diese Materiewelle auf ein Hindernis trifft. Das nutzen wir aus und stellen ein Gitter in den Weg des Molekülstrahls. Dahinter messen wir, wo wie viele Moleküle auftreffen. Zum Beispiel, indem wir sie auf einer Glasplatte auffangen, auf der sie haften bleiben. Wir regen sie dann mit einem Laser zur Fluoreszenz an, das heißt, sie absorbieren das Laserlicht und beginnen dadurch selbst zu leuchten, aber mit einer etwas anderen Wellenlänge. Dieses Licht sammeln wir in einem Mikroskop. So wird jedes einzelne, auf der Platte lokalisierte Molekül sichtbar, aber nur gemeinsam ergeben sie die typischen, hellen und dunklen Streifen des Interferenzmusters. ◊ Abb. 1 Dieses Muster von Spuren, die auf der Glasplatte sichtbar werden, lässt sich in Bereiche unterteilen, in denen viele Moleküle aufgetroffen sind und in Bereiche mit geringer Intensität. Der Abstand der Maxima hängt von der Geschwindigkeit der Moleküle ab, und da langsamere Moleküle auf ihrem Weg durch das Interferometer weiter fallen, weiten sich die Streifen nach unten auf. Diese Modulation der Dichte der Moleküle kann in unserem Fall nicht dadurch erklärt werden, dass sie jeweils wie Billardbälle auf wohldefinierten Bahnen durch einen der Spalte des Beugungsgitters geflogen
2 John Fenn: Foreword. In: Giacinto Scoles (Hg.): Atomic and Molecular Beam Methods, Vol 1, New York 1988 und 1992.
Muster und Spuren
69
1: Fluoreszierende Moleküle sammeln sich auf einer Quartzplatte und mit der Zeit entsteht ein Interferenzmuster.
sind, sondern sie lässt sich erst berechnen, wenn man das Verhalten jedes einzelnen Moleküls als Beugung einer ausgedehnten Welle an mehreren Gitterspalten beschreibt, hinter denen die an jedem Spalt entstehenden Wellen dann mit sich selbst interferieren. Aus dem Muster, das die vielen lokalisierten Teilchen bilden, lässt sich daher auf ein Wellenverhalten schließen. Direkt beobachtbar sind diese Materiewellen aber nicht – wenn wir versuchen ihnen zuzusehen auf ihrem Weg durch das Interferometer, dann sehen wir Teilchen und es ergibt sich am Schluss kein Interferenzbild mehr. Dippel:
Wie viel Wahrheit liegt in einer mathematisch, medial und materiell derart vermittelten Beobachtung von Natur?
Mairhofer:
Mathematische Formulierung und theoretische Konzeption spielen in jedem Experiment der modernen Physik eine wichtige Rolle. In unserem Fall etwa lassen sich die Ergebnisse nicht mit der klassischen Physik erklären, wohl aber stimmen sie gut mit Vorhersagen auf der Basis quantenmechanischer Berechnungen überein. Als einzige Grundlage würde ich diese Ebene der Abstraktion und Modellierung aber nicht verstehen. Ingenieurswissen und handwerkliche Praxis sind nicht weniger entscheidend. Die Wahrheit eines physikalischen Modells ist die Praxis, die ihm korrespondiert. Wenn das Modell die Ergebnisse unserer Experimente hinreichend beschreiben kann, dann ist es für unsere Zwecke wahr. Das Grundlegende
70
Interview
an einem physikalischen Experiment scheint mir daher die Umsetzung eines theoretischen Modells in einen Apparat und Messvorgang zu sein. Dippel:
Mir schließt sich daran eine praktische Frage an, da ich in meiner Feldforschung beobachte, dass es bei Ihnen oft darum geht, welche Anwendungen sich aus der Grundlagenforschung ergeben können: Welche anwendungs orientierte Technologien können aus Ihren Erkenntnissen entwickelt werden?
Mairhofer:
Quantencomputer und abhörsichere Kommunikation, Trägheitssensoren und sehr sensible Geräte zur Gravitationsmessung, mit denen zum Beispiel gegnerische U-Boote aufgespürt und Erdöllager entdeckt werden können. Unsere Experimente sind allerdings im Gegensatz dazu friedlicher, sie erlauben die sehr genaue Bestimmung elektrischer, magnetischer und optischer Eigenschaften der Moleküle – die Position des Interferenzmusters reagiert sehr sensibel auf äußere Kräfte, welche auf die Moleküle wirken. Wir messen also Eigenschaften, die dem Molekül als Teilchen zugeschrieben werden und die sich etwa aus der Verteilung der Elektronen zwischen den Atomkernen des Moleküls ergeben, indem wir das Wellenverhalten dieser Moleküle untersuchen. An anderen Orten wird der Teilchenaspekt atomarer Strukturen bei der Vermessung der Teilchenaspekte am Large Hadron Collider (LHC) am CERN untersucht. Darüber wissen Sie sicher mehr als ich – denn schließlich arbeiten Sie ja dort und erforschen die Physikerinnen und Physiker, wie sie Teilchen erforschen. Das ist eigentlich seltsam, da Sie doch Kulturwissenschaftlerin sind, um genau zu sein: Kulturanthropologin.
Dippel:
Was das CERN für die Kulturwissenschaften so interessant macht, wurde erst jüngst von Zeeya Merali in der Zeitschrift Nature unter dem Titel „The Large Human Collider“ beschrieben, obwohl man in Anbetracht der hohen Dichte an Kollaboration beim CERN auch von einem „Human Bubble Chamber“ sprechen könnte. Das CERN ist ein Ort der Heterotopie im Sinne Foucaults, hier vereinen sich soziale und kulturelle Räume, die eigentlich nicht miteinander verträglich sind und doch nebeneinander existieren.3 Es ist zunächst ein Projektionsort für den faustischen Traum der modernen Physik, zu erkennen, was die Welt im Innersten zusammenhält. Des Weiteren spiegeln sich in ihm breit gesellschaftlich verankerte, anthropozentrische und technikfeindliche Ängste vor der Zerstörungsmacht der Naturwissenschaften. Es grenzt schließlich schon fast an Größenwahn
3 Michel Foucault: Von anderen Räumen. In: Ders.: Dits et Ecrits. Schriften IV, Frankfurt a. M. 2004, S. 931–942.
Muster und Spuren
2: Histogramm einer invarianten 4 Leptonen Massenverteilung. Derselbe Prozess kann für das singuläre Ereignis mittels Feynman-Diagrammen veranschaulicht werden, wie in Abb. 3 zu sehen.
71
3: Feynman-Baumdiagramm für die gg-initiierte Produktion von 4 Leptonen.
daran zu glauben, dass eine Handvoll Menschen mit einem Experiment wie dem LHC schwarze Löcher produzieren könnte, die das Universum verschlängen. Es ist vor allem aber ein hoch ausdifferenzierter Arbeitsplatz für tausende Menschen. Mit Bourdieu gedacht, herrscht in der Hochenergiephysiksiedlung unweit des Genfer Sees eine ungeheure Dichte an kulturellem, symbolischem, sozialem und ökonomischem Kapital, so dass es sich für eine kulturwissenschaftliche Forscherin geradezu aufdrängt, den Habitus und die Praxen der dort forschenden Menschen zu untersuchen. Hinzu kommt die mediale Vernetzung der Kollaboration und die dabei zu beobachtende Synthese von Kognitionsprozessen in Arbeitskollektiven. Mairhofer:
Dippel:
Was ergibt Ihre Forschung an den Praxen der Teilchenphysik über deren Bildproduktion? Auf der Basis von Kollisionsexperimenten, wie sie am Large Hadron Collider am CERN durchgeführt werden, entsteht Wissen über das Innere der Atome. Mit Werkzeugen, die als Kriegstechnologien entwickelt wurden, wie etwa die Monte-Carlo-Simulationen für die Wasserstoffbombe in Los Alamos,4 wird Grundlagenforschung betrieben. Das Denken über Kollisionen hat an den Experimenten des LHC des CERN also reine Erkenntnis über die Beschaffenheit der Teilchen zum Ziel. Etwaige Anwendungen werden als Spin-Off-Effekte bezeichnet, die auftreten, aber nicht im
4 Richard Rhodes: Dark Sun. The Making of the Hydrogen Bomb, New York 1995, S. 304.
72
Interview
4: Atlas Event Display eines H-ZZ-4l-Kandidaten.
Zentrum der Untersuchung stehen. Bellizistische Ursprünge ihrer Organisationsform, also vieler ihrer Werkzeuge und Gedankenbilder, spielen im Alltag keine Rolle. Die experimentelle Hochenergiephysik ist auf den Augenblick hin ausgerichtet. Dabei steht der Detektor im Zentrum, seine elektronischen Signale werden im Blick auf den Impuls, die Richtung, und die Interaktionsregion hin analysiert, um den Prozess am Interaktionspunkt zu bestimmen. Dabei zählt die statistische Dichte der Ereignisse.
Dieser Arbeitsvorgang wird als Ereignisrekonstruktion bezeichnet. Es werden über einen bestimmten Zeitraum hinweg Daten von Kollisionen genommen und über den Verlauf wird ein Histogramm angefertigt. Ein Histogramm ist die diagrammatische Darstellung eines Ereignisprozesses in der Physik. In einem Koordinatensystem werden hier die zeitlichen und räumlichen Entwicklungen eines Vorgangs aufgezeichnet. Bei vielen aufeinanderfolgenden Einzelereignissen erscheint so allmählich ein Muster. ◊ Abb. 2+3
Muster und Spuren
73
5: 3D-Rekonstruktion eines ZZ-Kandidaten. Mairhofer:
Dippel:
Eigentlich werden die grundlegenden Entitäten der Teilchenphysik ja durch Wellenfunktionen beschrieben, genauso wie die Entitäten unserer Interferenzexperimente. Wie kommt man dann zum Bild einer Kollision und was kollidiert dort eigentlich? In nahezu Lichtgeschwindigkeit werden Pakete positiv geladener Hadronen, die aus Wasserstoffatomen stammen, zur gezielten Kollision gebracht. Solche Protonenpakete bestehen aus zwei Up- und einem Downquark, die von einem Gluonensee und Quark-Antiquark-Paaren umgeben sind. Es treffen also Energien aufeinander, die in zweiter und dritter Generation in jeweils andere Energieformen zerfallen. Diese Prozesse hinterlassen Spuren in verschiedenen Detektorlagen und werden in den jeweiligen Zerfalls kanälen aufgezeichnet. Das Ereignisbild entsteht aus einem mannigfaltigen Zusammenspiel von Menschen, Maschinen und Modellen. Visualisierungen, die von diesen Ereignissen angefertigt werden, sind Prothesen und dienen nicht der wissenschaftlichen Erkenntnis, sondern der Kontrolle des Experiments oder der Visualisierung für die Öffentlichkeit. ◊ Abb. 4+5 Am LHC werden Spurenverläufe eines Ereignisses sichtbar, nie das Objekt der Suche selbst. Und das, was sichtbar gemacht ist, lässt sich bei den Protonenkollisionen erst auf der Basis der Simulation überhaupt erkennbar machen. Ein nichtrekonstruiertes Ereignis besteht aus etwa 40.000 Detektoreinschlägen, den sogenannten Hits. Erst das rekonstruierte Ereignis filtert die Spuren zu Tage, die mittels theoretischer Annahmen über den Zerfallskanal eines Teilchens vorher getroffen wurden. Von den 40.000
74
Interview
punktförmigen Ereignis-Hits müssen also für die Detektion einer Spur 400 Punkte übrigbleiben. Der Untergrund, gleich ‚störendem Rauschen‘ beim Radioempfang, also überflüssiger Information, ist bei so einem Ereignis daher enorm. Mairhofer:
Dippel:
Mairhofer:
Dippel:
Diese Messungen sind überhaupt nur deshalb möglich, weil der störende Untergrund eben kein zufälliges Rauschen ist, sondern aus bereits bekannten Ereignissen besteht. Diese Ereignisse werden von sehr komplexen Simulationen vorherberechnet und dann vom Ergebnis der Messung abgezogen. Dadurch lässt sich erst das Signal als solches identifizieren, es ergibt sich aus der Differenz zwischen Simulation und Messresultat. Die Simulation tritt hier somit im Prozess der Erkenntnis als Drittes zu Theorie und Methode hinzu. Muss neben der Umsetzung des Modells in die Praxis auch der Apparat, der diese Umsetzung leistet, wieder simuliert und so zurück in ein theoretisches Modell übersetzt werden? Genau. Im Grunde genommen ist der Detektor in der Logik eines Zähler experiments aufgebaut, das eine signifikante Anzahl von Ereignissen benötigt. Es steht aber auch in der Tradition der Blasenkammerexperimente, in denen Teilchenbahnen sichtbar gemacht werden. Neben der Geschwindigkeit werden dabei Zerfall und Masse analysiert. Da es sich aber bei dem Experiment um Beobachtungen von quantenmechanischen Prozessen handelt, kann man nur mittels Wahrscheinlichkeiten den Verlauf eines Ereignisses prognostizieren. Und die punktartigen Einschläge, die dort gemessen werden, sind Resultate von Protonen, die als Wellenfunktionen aufeinander treffen und „Teilchen“ genannt werden. Sie sind beides, Welle und Teilchen in einem. Die Teilchenphysik erweitert also die Sprache um Dinge, die zunächst Gedanken waren und nun keine Gedanken mehr, sondern bewiesene Objekte sind, aber eigentlich nur mittels mathematischer Gedanken präzise gefasst werden können. Man kann um sie wissen, auch wenn es schwer fällt, an sie zu glauben oder gar darüber zu sprechen.
Angesichts der Nachträglichkeit von Spuren: Spielt das Phänomen Zeit in Ihrem Labor eine besondere Rolle? Und dann: Was machen Sie mit den Daten, die Sie im Labor nehmen?
Mairhofer:
Die Moleküle fliegen innerhalb von einer Millisekunde durch unser Interferometer, die Turbomolekularpumpen drehen sich achthundertmal pro Sekunde, ein typischer Interferenzscan dauert zweieinhalb Minuten, die Mittagspause eine Stunde, bis die Vakuumkammer mit dem Interferometer
Muster und Spuren
75
6: Interferenzmuster der bisher größten Moleküle, für die Quanteninterferenz demonstriert wurde.
leergepumpt ist und den Arbeitsdruck erreicht, vergehen Tage, bisweilen Wochen. Wir belüften sie nicht sehr oft, das heißt, wir lassen sie leergepumpt, wenn das möglich ist. Unsere Daten formen wir zu Interferenzbildern. Wie bereits gesagt, ist es eine sehr anschauliche Methode, die Moleküle hinter dem Beugungsgitter auf einer durchsichtigen Quartzplatte zu sammeln. Es ist auch möglich, mit einer Blende über den Molekülstrahl zu scannen und dahinter in einem Quadrupol- oder einem Time-of-Flight-Massenspektrometer zu zählen, wie viele Moleküle bei welcher Blendenposition aufkommen. Auch dann erhalten wir die typische, periodische Intensitätsverteilung.
Dieses Bild ◊ Abb. 6 zeigt ein solches Interferenzmuster.5 Das Bild wurde erzeugt, indem eine Maske quer über den Molekülstrahl geschoben wurde. Die x-Achse gibt die Position der Maske an, die y-Achse die Zahl der Moleküle, die am Detektor auftreffen. Die Punkte sind Messdaten, die Kurve ein Sinus-Fit. Die normierte Differenz zwischen den Minima und Maxima der Zählrate ergibt den Interferenzkontrast. In jedem Fall ergibt sich das Interferenzbild, der Nachweis des Wellenverhaltens der Moleküle, immer nur durch die Messung des Orts vieler, abertausender Moleküle. Aus dem Auftreffen eines einzelnen Moleküls auf dem Detektor kann überhaupt nichts darüber ausgesagt werden, ob es sich wie ein Teilchen oder eine Welle verhalten hat. Es ist das Muster, die Beziehung zwischen den A bbildungen der einzelnen Moleküle, aus der wir auf ihr Verhalten im Interferometer rückschließen. 5 Sandra Eibenberger et al.: Matter – wave interference of particles selected from a molecular library with masses exceeding 10 000 amu. In: Phys. Chem. Chem. Phys., 2013, Heft 15, S. 14696–14700.
76
Interview
Was ist denn Ihrer Meinung nach aus philosophischer Sicht und aus physikalischer Sicht so schwer daran, Welle und Teilchen in eins zu denken, oder besser gesagt, wie wird der Welle-Teilchen-Dualismus denn überhaupt erst zu so einem wundersamen Faszinosum?
Dippel:
Mairhofer:
Dippel:
Mairhofer:
Dippel:
Das ist schon ein auffälliger Unterschied zwischen meiner Arbeit und der Ihrer Forschungssubjekte am CERN: Wir sprechen von Wellen und am CERN spricht man von Teilchen. Dabei werden in unseren Detektoren so wie am CERN einzelne Teilchen detektiert und umgekehrt scheint mir, dass in der Theorie auch die Teilchenphysikerinnen und Teilchenphysiker mit Wellenfunktionen arbeiten, wenn sie beschreiben, was vor der Detektion passiert, richtig? Naja, das ganze Standardmodell ist eine Feldtheorie, die Teilchen impliziert, die man messen kann. Sie sind Quanten des Feldes, also Ausprägungen, aber es ist weder das eine noch das andere. Auch wenn am LHC allgemein mit Wellenfunktionen gerechnet wird, herrscht in der Forschungspraxis das Teilchenbild vor. Die Streutheorie selbst, also die Theorie, die dazu dient, von Teilchen auf etwas zu schließen, beschreibt diese Teilchen schon als Wellen, aber bei der Vermessung der Einschläge und der Simulation und Detektion von Teilchen reichen Spin, Impuls, Energie und Masse. Sie müssen sich das so vorstellen: Wenn man eine ebene Welle auf etwas schießt, dann werden Teile an der Oberfläche des Targets rundherum reflektiert und sie wird auch weiter in die Richtung gehen, sie wird also zur Kugelwelle. Die Hits, Einschläge, sind Ausprägungen an meinem Messpunkt. Und doch herrscht das Teilchenbild vor. Sie meinen also, in der Teilchenphysik wird genauso wie bei uns das Konzept der Materiewellen angewandt, und es sind die Bilder, die sie sich von ihren Experimenten machen, die das Teilchenmodell dann wieder einführen, ja sogar durchsetzen? Allerdings sind diese Bilder untrennbar mit der experimentellen Praxis verbunden, die sie erzeugt: Die Daten der Teilchenphysik bestehen ja aus Bahnen, die früher in einer Blasenkammer sichtbar wurden und heute im Grunde von ungeheuer komplexen Digitalkameras aufgezeichnet werden. Diese Bahnen lassen sich aber schlecht einer delokalisierten Welle zuordnen. Deshalb setzt sich der Teilchenbegriff am LHC notwendig durch. Daher nennen sich manche dort auch im Scherz „Particle Hunters“ und nicht etwa „Wave Riders“. Es kommt also auf die Art des Experiments an, ob man Teilchen als Teilchen oder als Welle beschreibt. Die fundamentalen Bedingungen der Natur offenbaren die Grenzen unseres Anschauungsver-
Muster und Spuren
77
mögens. Je genauer die Forschenden hinsehen, desto rätselhafter wird ihnen die eigene Erkenntnis. Doch nur durch solche Anschauung entstehen neue Wörter und Bilder, verschiebt sich unser Horizont der Wahrnehmung. So hat auch die Physik Teil an dem von Ingeborg Bachmann so bezeichneten, „nie ganz zu verwirklichenden Ausdruckstraum“, indem sie an die Grenzen unserer Sprache und damit unseres Seins heranführt.6
Im Grunde staunt und stammelt die Physik im Angesicht des Kosmos weiterhin. In ihr wird die Arbitrarität von Zeichen, wie sie durch das Denken ermöglicht wird, besonders offenkundig. Oder wie eine der Teilchenphysikerinnen am CERN einmal gesagt hat: „Der Natur is’ es wurscht, ob des a Welle oder a Teilchen is.“ Es gibt in der Natur keine Welle und kein Teilchen, das sind einfach nur mathematische Modelle, erfunden von uns Menschen, die wir dem Ganzen zugrunde legen, um diese Prozesse durch Beschreibung ihres Verhaltens zu verstehen.
6 Ingeborg Bachmann: Frankfurter Vorlesungen. In: Christine Koschel et al. (Hg.): Werke, Bd. 4: Essays, Reden, Vermischte Schriften, München 1978, S. 269.
Barbara Orland
Vom liquiden zum globularen Körper. Gestaltsehen in den Lebenswissenschaften des frühen 19. Jahrhunderts 1. Daguerreotypie als Ergänzung zur Mikroskopie
Alfred Donné (1801–1878), Arzt und Mikroskopie-Lehrer am Pariser Hôtel Dieu, hatte das Glück, an jener legendären Sitzung im Sommer 1839 teilnehmen zu können, in der Louis Daguerre (1787–1851) seine Erfindung der Daguerreotypie der Académie des Sciences offiziell vorstellte. Donné erkannte sofort deren Potenzial als Dokumentationstechnik für mikroskopische Aufnahmen, und innerhalb weniger Wochen wandelte er sich vom wissenschaftlichen Korrespondenten, der in Journalen über das Ereignis berichtete, zum Erforscher der Daguerreotypie.1 Umgehend konnte er mit einer richtungweisenden Weiterentwicklung des Verfahrens aufwarten. Für ihn als Mikroskopiker war ein Schwachpunkt der Daguerreotypie, dass sie nur Unikate lieferte. Weil je Aufnahme nur ein einziges Bild herstellbar war, hatte Donné die neue Technik kurzerhand mit dem alten Verfahren der Gravur auf Silberplatten verknüpft. Das heißt, das Bild der Daguerreotypie-Platte wurde mit dem üblichen Kupferstich-Druckverfahren auf Papier übertragen und vervielfältigt. Noch im gleichen Jahr war er in der Lage, den Wissenschaftlern der Académie des Sciences 20 Papierabzüge einer Daguerreotypie mit verschiedenen Motiven (darunter die mikroskopische Vergrößerung eines Fliegenauges) vorzulegen. Überzeugt davon, dass damit „die Reihe an Experimenten, die wir angestellt haben […] bei Weitem noch nicht ausgeschöpft ist“,2 konzentrierte er sich nun auf die kniffelige Verbindung von Mikroskop und Daguerreotypie. Sein Ziel war, die vergänglichen Spuren des lebendigen Materials, welche der Arzt unter dem Mikroskop entdeckte, einer größeren Öffentlichkeit präsentieren zu können. Schon am 27. Februar 1840 konnten Donné und sein Schüler und Kollege Léon Foucault (1819–1868) erste Ergebnisse ihrer Arbeit präsentieren.3 Sie hatten das Okular eines Sonnenmikroskops durch eine beschichtete, lichtempfindliche Platte ersetzt. Das ermöglichte ihnen, Aufnahmen von der Mikrostruktur von Knochen und Zähnen an die Wand zu werfen. Fünf Jahre später, im Jahre 1845, legten die beiden Pioniere zahlreiche histologische Daguerreotypien in einem Atlas der Öffentlichkeit vor.4 1 Vgl. Steffen Siegel (Hg.): Neues Licht. Daguerre, Talbot und die Veröffentlichung der Fotografie im Jahr 1839, München 2014, S. 381ff. 2 Siegel (s. Anm. 1), S. 383–384. 3 Monique Sicard: La Fabrique du Regard. Images de Science et Apparails de Vision (XVe–XXe siècle), Paris 1998, S. 108. 4 Alfred Donné, J.-B. Léon Foucault: Anatomie microscopique et physiologique des fluides de l’économie. Atlas exécuté d’après nature, Paris 1845. Der Atlas begleitete die ein Jahr zuvor erschienene Veröffentlichung des „Cours de microscopie“, ein Handbuch der Mikroskopie, welches für Studenten der Medizin gedacht war. Alfred Donné: Cours de microscopie complémentaire des études médicales. Anatomie microscopique et physiologie des fluides de l’économie, Paris 1844. Ich werde im Folgenden aus der deutschen Übersetzung zitieren: Alfred Donné: Die Microscopie als Hilfswissenschaft der Medicin: microscopische Anatomie und Physiologie der thierischen Flüssigkeiten, Erlangen 1846.
Vom liquiden zum globularen Körper
79
Konkret handelte es sich um Kupferstiche von 20 Platten (Format 45 × 32,5 cm), die jeweils vier Daguerreotypien (Vergrößerung 200–400) präsentierten. Die Abbildungen zeigten in Körperflüssigkeiten schwimmende Partikel, u. a. in Blut, Eiter, Milch und Schleim. ◊ Abb. 1 2. Flüssigkeiten unter dem Mikroskop
Das Besondere an diesen ersten mikro fotografischen Bildern ist nicht nur, dass sie die flüchtigen Spuren bislang unsichtbarer Welten auf Dauer stellten. Als „naturgetreue“ Abbildungen verobjektivierten sie ein ganz spezifisches Erscheinungsbild des Lebendigen. Wie zuvor ausgeführt, lieferten Donnés erste Daguerreotypien Bilder der mikroskopischen Struktur von Flüssigkeiten. Sehr bewusst rückte Donné hierbei Körperchen in den Fokus, die als eigenständige Entitäten im Raum zu schweben schienen. Bei Flüssigkeiten kann nämlich
1: Blutkörperchen vom Menschen, Kamel und Frosch, Kupferstiche nach Daguerreotypien.
„die microscopische Untersuchung nur dazu dienen, die darin schwimmenden festen Theilchen zu erkennen, wie die Zellen im Blute, oder die Spermatozoen in der Samenflüssigkeit, und nur selten gibt sie uns Aufschluß über die Zusammensetzung der Flüssigkeit selbst; es ist sogar nöthig, daß die darin schwimmenden soliden Theilchen einige Beständigkeit und Regelmäßigkeit der Formen besitzen, denn ist dies nicht der Fall, so riskirt man, sie mit ganz indifferenten fremdartigen Partikelchen zu verwechseln“.5
Flüssige Materien unter dem Mikroskop zu studieren, war an sich nicht schwierig. Ein Tropfen zwischen zwei Glasplättchen gebracht, erzeugt einen Film, der sich gut betrachten lässt. Organische Substanzen wie Blut, Lymphe oder Milch haben jedoch 5 Donné: Die Microscopie (s. Anm. 4), S. 10.
80
Barbara Orland
die Eigenschaft, sofort zu gerinnen, wenn sie dem Körper entnommen werden und an die Luft kommen. Umgehend verändert sich ihre Konsistenz und folglich das mikroskopische Bild. Als ephemere und flüchtige Substanzen können Körpersäfte im Unterschied zu Gefäß- und Gewebepräparaten nicht konserviert werden.6 Konsistenzveränderungen „im absterbenden Blute“, so der Berliner Professor der Medizin Carl Heinrich Schultz (1798–1871) in seiner Studie über die Blutzirkulation, sind daher „der Quell der meisten Widersprüche und Irrthümer in Betreff des Blutlebens“.7 Jenseits physiologisch bedingter Veränderungen stellte sich dem Betrachter noch ein epistemologisches Problem. Unter dem Mikroskop werden grundsätzlich nur feste Strukturen und individualisierbare Partikel sichtbar. Dünnflüssige Sekrete bleiben farblos und mehr oder weniger transparent. Alle soliden, opaken Entitäten, die sich darin zum Teil ungewöhnlich (z. B. zitterig) bewegen, ziehen hingegen die Aufmerksamkeit auf sich. Man sieht also nicht Flüssigkeiten, sondern Dinge in Flüssigkeiten. Die Mikroskopie ist tatsächlich eine Beschreibungstechnik für feste Gewebe und Strukturen, eine objektfixierte Technik. Undifferenziert liquide Stoffe ohne bestimmbare Grenzen widersetzen sich diesem Hilfsmittel der Wissenschaft. Diese epistemologische Bedingung der Mikroskopie hatte einen nicht unwesentlichen Einfluss auf die Entwicklung der Anatomie und Physiologie. Solange Anatomen sich darauf beschränkt hatten, den Leichnam mit bloßem Auge zu sehen, ihn zu ertasten, zu erspüren und seine Ausdünstungen zu riechen, praktizierte man eine topografische Erkenntnisweise, die problemlos das seit der Antike vermittelte humoralphysiologische Wissen bestätigte. Niemand erwartete, Fließbewegungen zu sehen, da alles Feuchte mit dem Eintritt des Todes stockt und vertrocknet. Organgewebe, welches sich bei der Sektion noch weich und feucht anfühlte, erschien besonders blutgetränkt zu sein. So bezeichnete der Anatom Thomas Bartholin (1616–1680) das Fleisch der Eingeweide als „eine Zugiessung des Bluts“, während das Muskelfleisch trocken und daher „faserig“ sei.8 In dem Maße jedoch, wie das Mikroskop die Deskriptionsarbeit der Anatomen ergänzte und die kleinsten, nicht mehr mit bloßem Auge sichtbaren Strukturen ins Zentrum des Interesses rückte, verschob sich das Verhältnis von humoralphysiologischen 6 Zur Präparatetechnik, vgl. Hans-Jörg Rheinberger: Schnittstellen. Instrumente und Objekte im experimentellen Kontext der Wissenschaften vom Leben. In: Helmar Schramm et al. (Hg.): Instrumente in Kunst und Wissenschaft. Zur Architektonik kultureller Grenzen im 17. Jahrhundert, Berlin 2006, S. 1–20. 7 Carl Heinrich Schultz: Das System der Circulation in seiner Entwicklung durch die Thierreihe und im Menschen, und mit Rücksicht auf die physiologischen Gesetze seiner krankhaften Abweichungen, Stuttgart/Tübingen 1836, S. 7. 8 Thomas Bartholin: Neu-verbesserte künstliche Zerlegung des menschlichen Leibes … denen Johannis Walaei 2 Send-Schreiben … beygefüget sind, Nürnberg 1677, S. 7.
Vom liquiden zum globularen Körper
81
zu strukturanalytischen Aussagen. Die Zusammensetzung der Körperteile gewann an Bedeutung. Für Donné bildete das Mikroskop nicht einfach ab. Es war ein Zergliederungsinstrument, vergleichbar mit der chemischen Analyse oder dem Sezierbesteck des Anatomen. Der Hauptzweck bestünde darin, „die physischen Charaktere der Körper und ihre Zusammensetzung kennen zu lernen“, sowie „die elementaren Theile voneinander zu unterscheiden, die den gewöhnlichen Sinnen wegen ihrer Zartheit entgehen, ihre Wesenheit, Structur, und die Erscheinungen zu erkennen, die sie hervorbringen“.9 3. Hydraulische Prozesse
Das Mikroskop hat aber keineswegs sofort den Weg zur modernen Gewebe- und Zelltheorie bereitet. Als Antonie van Leeuwenhoek (1632–1723) in den 1670er-Jahren als einer der ersten Blut, Samenflüssigkeit, Milch und Tränen untersuchte, bestand die Sensation weniger darin, dass er deren Zusammensetzung aufklärte, sondern dass er bislang unbekannte Entitäten entdeckte. Zwar konnte man die dunklen Punkte auch als Poren im Gewebe ansehen, doch meist wurden sie entweder als Kleinstlebewesen („Animalcula“) oder als „lebendige Atome“ beschrieben.10 Letztere erschienen entweder als kugelförmige Körper oder Bläschen, oft Globuli genannt. Oder aber die Körper hatten eine linienartige Form, wurden deshalb als Fasern oder Sehnen identifiziert. Das Medium, in dem sich die verschiedenen Entitäten bewegten – z. B. Serum oder Blutwasser –, trat hinter diese Entdeckung zurück. Die Flüssigkeit selbst erschien nur noch als Trägersubstanz. Statt für humores begannen Anatomen nun, sich intensiv für die Gefäße zu interessieren, in denen sich Flüssigkeiten bewegen. Noch die filigransten Teile des Gefäßsystems wurden gesucht, weil zeitgleich die Entdeckung des Blutkreislaufes durch William Harvey (1628) die Anatomie vor neue Aufgaben gestellt hatte. Wenn seine Behauptung stimmte, dass das Blut nicht irgendwo in der Körperperipherie verebbt, sondern immer wieder an seinen Ausgangspunkt zurückkehrt, dann stellte sich die Frage, wie die Wege des zirkulierenden Blutes verlaufen. Marcello Malpighi (1628–1694) und andere Mikroanatomen nach ihm zeichneten das Bild eines vaskulären Körpers, bestehend aus Rohren und Kanälen bis hin zu feinsten Kapillargefäßen, die das arterielle mit dem venösen Blutsystem verbanden.11 Organe erschienen als Sammelbehälter, Siebe, Filter oder Sekretionsmechanismen. 9 Donné: Die Microscopie (s. Anm. 4), S. 9. 10 Vgl. zur Geschichte des Mikroskops allgemein: Dieter Gerlach: Geschichte der Mikroskopie, Frankfurt a. M. 2009; zu Leeuwenhoek und den Anfängen der Mikroskopie im 17. Jahrhundert siehe Catherine Wilson: The invisible world. Early modern philosophy and the invention of the microscope, Princeton 1995. 11 Vgl. Domenico Bertoloni Meli: Marcello Malpighi. Anatomist and physician, Florenz 1997.
82
Barbara Orland
Sie waren eingebettet in ein Fließsystem, das einerseits durch den Druck, die Elastizität und Geschwindigkeit von Flüssigkeiten bestimmt wurde, andererseits eine ganze Reihe von Ventilen und Klappen (Drüsen) besaß, welche die Richtung der Flüssigkeiten dirigierte.12 Die Zielvorgaben der anatomisch-physiologischen Forschung bestanden seit Ende des 17. Jahrhunderts und bis in die Anfänge des 19. Jahrhunderts aus drei Kernfragen, die alle um das Problem kreisten, die Physiologie der Blut- und Säftezirkulation zu begreifen. Mit Hilfe des Mikroskops galt es erstens, an Körperteilen lebender Küken, Mäuse, Frösche, Salamander usw. die Blutbewegung in den Arterien und Venen zu „sehen“, Gefäßverbindungen zu entdecken und Stauungen, Stockungen oder gar Verstopfungen zu beobachten. Zweitens wollte man (mit Hilfe von Ligaturen und Gefäßinjektionen am lebenden Tier) die Fließrichtungen und genauen Wege der Zirkulation bestimmen. Und drittens schließlich verstand man die Gewebebildung als eine Metamorphose von Substanzen im Prozess der Zirkulation. Wie wurde beispielsweise in den Nieren der Urin aus dem Blut abgesondert oder in der weiblichen Brust die Milch gebildet? Gerade für das Verständnis solcher Transformationen von Körpermaterie erschien es unverzichtbar, die Mechanik der unsichtbaren Mikrozirkulation zu studieren. Da das Mikroskop zu einem Zeitpunkt in die anatomische Forschung eingeführt wurde, als die Naturphilosophie eine Vorliebe für korpuskularphilosophische Erklärungsweisen zeigte und den antiken Atomismus wieder entdeckte, fiel die Behauptung, man habe im fließenden Blut lebendiger Tiere kleinste Kügelchen schwimmen sehen, auf fruchtbaren Boden.13 Die Hypothese, Globuli seien die kleinsten Korpuskel des Lebendigen, schien plausibel. Es ist hier nicht der Raum, die daraus resultierenden Kontroversen um die Mikrozirkulation in den Geweben zu verfolgen. Keineswegs war es einfach, mit Hilfe des Mikroskops die Erkenntnisse der Zirkulationsphysiologie mit korpuskularphilosophischen Theorien in Übereinstimmung zu bringen. Für unseren Zusammenhang ist entscheidend, dass es der deskriptiven Anatomie noch in den 1820/30er-Jahren nicht nur um die genaue Aufklärung der Gewebestruktur (Histologie) ging, als vielmehr um das Verständnis der Vorgänge der Gewebebildung
12 Vgl. Barbara Orland: The fluid mechanics of nutrition. Herman Boerhaave’s synthesis of seventeenth century circulation physiology. In: Dies., Emma Spary (Hg.): Assimilating knowledge. Food and Nutrition in early modern physiologies, Special issue of Studies in history and philosophy of biology and biomedical science, Jg. 43, 2012, Heft 2, S. 357–369. 13 Zum Globulismus vgl. John V. Pickstone: Globules and Coagula: Concepts of Tissue Formation in the Early Nineteenth Century. In: Journal of the History of Medicine, Jg. 28, 1973, Heft 4, S. 336–356; Jutta Schickore: Error as Historiographical Challenge: The Infamous Globule Hypothesis, In: Dies., Giora Hon, Friedrich Steinle (Hg.): Going Amiss in Experimental Research, Boston 2009, S. 27–45.
Vom liquiden zum globularen Körper
83
im Prozess der Blutzirkulation.14 Die Eigenschaften von Substanzen und die Bedingungen ihrer Transformation standen im Fokus, die Klassifizierung von Gewebetypen war dagegen nachrangig. Die präzise Abgrenzung und Klassifizierung von organischen Elementen habe sich ihm erst im Laufe der jahrelangen Arbeit mit dem Mikroskop aufgedrängt, reflektierte der Wiener Anatom Joseph Berres (1796–1844). Nachdem er mit der mikroskopischen Darstellung des Gefäßnetzes und der peripheren Kapillaren begonnen und anschließend die menschlichen Gewebe als Bezirke studiert habe, in denen „jene geheimnisvollen Werkstätten enthalten sind, in welchen die Funktionen des Lebensprozesses: Aneignung, Absonderung und Ausscheidung, vor sich gehen“,15 sah er sich wegen der „Feinheit und Zartheit des Untersuchungsmaterials“ gezwungen, „um lästige Wiederholungen und ermüdende Schilderungen der mannigfaltigen peripherischen Gefäßverhältnisse zu vermeiden“, eine Einteilung „in Klassen und Ordnungen“ vorzunehmen.16 4. Metabolische Materie
Kommen wir vor diesem Hintergrund zu Alfred Donné und der Frage zurück, was er sich von der medizinischen Mikrofotografie erhoffte. Zum Zeitpunkt, als die Daguerreotypie auftauchte, waren – wie gesagt – die Begriffe und Konzepte, mit denen die Mikrowelt beschrieben wurde, noch wenig eindeutig. Obwohl das Mikroskop bereits seit zwei Jahrhunderten benutzt wurde, war die Histologie ein vergleichsweise neues Fachgebiet. Die Theorie der Globuli existierte in vielen Varianten; eine Unzahl von Objekten mit kleinsten Abweichungen wurde beobachtet. Einige Mikroskopiker beschrieben sie als feste Körperchen mit einer perfekten Kugelform, andere sahen elliptische Bläschen, wieder andere beschrieben sie als Perlenketten und behaupteten, die Fasern seien aus Globuli aufgebaut. Wie Jutta Schickore gezeigt hat, waren solch divergierende Beobachtungen keineswegs nur das Ergebnis des technischen Standes der Mikroskope.17 Daher kann die Globuli-Hypothese auch nicht einfach als Vorepisode in der Geschichte der Zelltheorie abgetan werden. Die Sachlage ist komplizierter, weil sich die Mikroskopiker nicht nur um das Erscheinungsbild der Gewebestruktur stritten, sondern ihre Beobachtungen auch physiologisch ausdeuteten, das heißt ihnen eine Bedeutung im Lebensprozess eines Organismus geben mussten.
14 Vgl. Ann Mylott: The Roots of Cell Theory in Sap, Spores, and Schleiden, Diss. Phil. Univ. of Indiana 2002. 15 Joseph Berres: Anatomie der mikroskopischen Gebilde des menschlichen Körpers, Wien 1837, S. 6. 16 Berres (s. Anm. 15), S. 36. 17 Schickore (s. Anm. 13).
84
Barbara Orland
Donné machte bereits in seiner Dissertation Recherches physiologiques et chimicomicroscopiques sur les globules du sang, du pus, du mucus et sur ces humeurs de l’oeil aus dem Jahre 1831 deutlich, dass die unter dem Mikroskop sichtbar werdenden Körperchen verschiedener Natur sind und sehr häufig als eine Materie im Übergangsstadium angesehen werden müssen, deren Erscheinungsbild sich ändert, je nach dem Moment im Lebensprozess, in dem man sie antrifft.18 Methodisch orientierte er sich an der Anatomie élémentaire et globulaire von Francois Vincent Raspail (1794–1878), von dem er behauptete, er habe das chemische Laboratorium auf den Objektträger des Mikroskops übertragen.19 Raspail und andere Physiologen und Chemiker beschäftigten sich mit Verdauung und Ernährung als Formen der Gewebebildung.20 Im Unterschied zur rein chemischen Forschung, nach der davon ausgegangen wurde, dass sich die soliden Gewebestrukturen durch Fermentation oder Kristallisation der flüssigen Teile bilden – Prozesse, die sie im Labor nachahmten –, sahen Raspail und nach ihm Donné die im Blut beobachtbaren Kerne als globules albumineux an, und nicht als globules organisés. Es handele sich nicht um die Grundelemente alles Lebendigen; die Kügelchen stammten vielmehr aus dem Material, welches der menschliche Organismus im Prozess der Verdauung erzeuge.21 Nahrung, so die Idee, wird im Verdauungsprozess zu kleinen Kügelchen geformt, die zunächst das frische Blut ausmachen und als koaguliertes Blut schließlich wieder zu Fleisch werden. Die Nahrungskügelchen seien beträchtlich kleiner als Blutkörperchen, weil sie durch die Wände der Blutadern hindurchtreten müssten. Blutglobuli formten Fasern, Fasern bildeten Membrane und Sehnen, die wiederum das Basismaterial größerer Körperteile (Knochensystem, Gehirn, Muskeln etc.) bilden. Vom physiologischen Standpunkt aus betrachtet, waren Globuli demnach eine metabolische Materie. Ihre Existenz ließ sich nur aus der Physiologie der Verdauung und Ernährung erklären. Die Qualität der Nahrung beeinflusste den Zustand des Blutes, denn im Lebensprozess wird die Körpersubstanz ständig neu angeordnet.22 Donné und seine Zeitgenossen suchten unter dem Mikroskop nach Spuren für die dem Lebensprozess geschuldeten Entwicklungen und Erneuerungen in der 18 Alfred Donné: Recherches physiologiques et chimico-microscopiques sur les globules du sang, du pus, du mucus et sur ces humeurs de l’oeil, thèse de médecine de Paris n° 8, Paris 1831. 19 Raspail gilt als Begründer der Histochemie. Jahre bevor die Zelltheorie durch Schleiden ausformuliert und durch Virchow innerhalb der Medizin populär gemacht worden war, sprach er vom zellulären Laboratorium („La cellule laboratoire“). Vgl. Georg Dhom: Geschichte der Histopathologie, Berlin/ Heidelberg 2001, S. 14. 20 Pickstone (s. Anm. 13). 21 Donné: Recherches (s. Anm. 18), S. 10. 22 Donné, Foucault (s. Anm. 4), S. 76.
Vom liquiden zum globularen Körper
85
Gewebestruktur. Dies wird besonders deutlich an den globules du lait, die Donné einige Jahre später in seiner gesundheitspolitisch motivierten Beschäftigung mit der Mutter- und Ammenmilch behandelte.23 ◊ Abb. 2 Keine Körperflüssigkeit habe sich der chemisch-physiologischen Analyse bislang mehr verweigert als die Milch. Es gebe keine Substanz, so das einhellige Urteil in der Milchforschung, deren Eigenschaften so schnell und gravierend wechselten wie die der Milch. Ärgerlich sei dies, weil man seit Langem nach Vergleichskriterien für die Gütebewertung der Ammenmilch suche. Donné meinte nun, sie in den stark veränderlichen Milchkügelchen gefunden zu haben. Von dem Moment an, in dem er begann, das Differente statt das Gemeinsame in Milchproben zu erforschen, meinte er die „delicateren Veränderungen“, die diese Substanz auszeichnen, zu erkennen.24 Mit dieser Perspektivverschiebung stell- 2: Frauenmilch von „durchschnittlicher Qualität“, Kupferstich nach Daguerreotypie. te sich ein neues Problem ein, welches die Daguerreotypie zu lösen versprach. Um aus der Fülle der Globuli-Vergleiche zu aussagekräftigen Ergebnissen zu kommen, galt es, Ähnlichkeiten bzw. Unterschiede zwischen ihnen auszumachen und Form, Größe, Gestalt, Farbe etc. zur Mustererkennung heranzuziehen. Handzeichnungen erschienen viel zu grobschlächtig, um die vielen Variationen der sensiblen Substanz wiederzugeben. Geordnete „Normalverhältnisse“ ließen sich mit dem Mikroskop alleine studieren. Doch die vielen Abweichungen, die der Vergleich der ohnehin wechselhaften und leicht zersetzlichen Milch zum Vorschein brachte, benötigte eine andere mediale Repräsentation. Donné hoffte, durch die Verbindung von Fotografie und Mikroskopie eine Medientechnik gefunden zu haben, die es erlaubte, den Krankheitszustand der Säfte als pathologische Formabweichungen auf globularer Ebene vergleichbar zu machen. Diese Hoffnung erfüllte 23 Alfred Donné: Du lait, et en particulier de celui des nourrices, considérée sous le rapport de ses bonnes et de ses mauvaises qualités nutritives et de ses altérations, Paris 1837; Mehr dazu bei: Ann F. La Berge: Mothers and Infants; Nurses and Nursing: Alfred Donné and the Medicalization of Child Care in Nineteenth-Century France. In: Journal for the History of Medicine, Jg. 46, 1991, Heft 1, S. 20–43. 24 Donné: Die Microscopie (s. Anm. 4), S. 313.
86
Barbara Orland
sich nicht. Obwohl Donné seine 1842 erstmals auf den Markt gebrachten Conseils aux mères sur la manière d’élever les enfans nouveau-nés mit ausführlichen Details aus seinen mikroskopischen Milchanalysen spickte und diese Schrift in kürzester Zeit in drei Auflagen und vier Überarbeitungen (bis 1905) erschien, so enthielt sie doch mit Ausnahme der amerikanischen Übersetzung aus dem Jahr 1859 keine Milch-Daguerreotypien.25 Man kann nur spekulieren, dass die Bilder im Druck entweder zu teuer waren oder dem Autor für ein breites Publikum nicht geeignet erschienen. Wie dem auch sei, als diagnostisches Instrument zur globularen Mustererkennung blieben die Donné’schen Daguerreotypien einzigartig. Und auch die mikroskopische Spurensuche verlegte sich von der Globuli-Debatte auf die Zelltheorie, von der Suche nach Kleinstkörperchen auf das Studium der Zelle als Elementarorganismus.
25 Sein erstes Buch zum Thema „Du lait et en particulier de celui des nourrices“ von 1837 enthielt eine Tafel mit Stichen, die nicht von Daguerreotypien, sondern direkt von mikroskopischen Proben nachgezeichnet waren.
Marietta Kesting
Operative Porträts und die Spuren von Körpern. Über die Konstruktion pikturaler Evidenz Dieser Beitrag widmet sich einer kurzen Geschichte der visuellen Spurensicherung über die Erfindung von Ausweisen mit (Porträt-)Passfotografien und Fingerabdrücken zur heutigen Entwicklung der DNA-Spurensicherung. Zentral ist die Transformation der breiten Dokumentation des menschlichen Körpers und seiner Visualisierung. Seit wann und auf welche Art und Weise werden Individuen mit Hilfe eines AusweisDokuments mit Namen, Geburtsort und Nationalität verbunden, die sie über die Passfotografie und den Fingerabdruck als Index oder in Zukunft möglicherweise durch eine DNA-Probe an einen einzigen Körper bindet und diesen möglichst eindeutig erkennbar und erfassbar macht? „Der Paß ist der edelste Teil von einem Menschen. […] Ein Mensch kann überall zustandkommen [sic], auf die leichtsinnigste Art ohne gescheiten Grund, aber ein Paß niemals“, so Bertolt Brecht.1 Oder um die Perspektive zu wechseln und es mit einem Buchtitel der Diaspora Studies knapp zusammenzufassen: „God needs no passport.“ 2 Menschen dagegen müssen sich wiedererkennen lassen und wieder erkannt werden – so ging es schon Odysseus, als er nach Griechenland zurückkehrte –, denn sonst sind sie nicht willkommen. Im Pass sind heutzutage Fingerabdruck und Passfoto vereint. Der Fingerabdruck ist ein Kontaktbild, eine körperliche Spur, die durch die direkte Berührung des Fingers mit einer Oberfläche herrührt. Mit der Kunsthistorikerin Bettina Uppenkamp verdeutlicht sich hier: „[…] die Leichtigkeit mit der im Abdruck der menschlichen Hand die Geste in einer Figur, Berührung in Ähnlichkeit mündet, oder, zeichentheoretisch ausgedrückt, ein Index zum Ikon wird.“ 3 Bekanntermaßen gehören Handabdrücke in prähistorischen Höhlen zu den ältesten überlieferten Bildzeichen. Der Fingerabdruck ist individuell verschieden und eignet sich daher zur eindeutigen Identifizierung, die aber nicht auf den ‚ersten Blick‘, sondern nur durch Kooperation oder Festnahme der jeweiligen Person erfolgen kann. Bürgerausweise
Die Geschichte der Ausweispflicht für große Teile der Bevölkerung beginnt mit der französischen Revolution 1789, als alle männlichen Bewohner Frankreichs zu Bürgern erklärt wurden.4 Als sich ein baldiger Kriegszustand abzeichnete, wurde die Passpflicht 1 Bertolt Brecht: Flüchtlingsgespräche, Frankfurt a. M. 1961, S. 7. 2 Peggy Levitt: God needs no Passport, New York 2007. 3 Bettina Uppenkamp: Der Fingerabdruck als Indiz. Macht, Ohnmacht und künstlerische Markierung. In: Bildwelten des Wissens, 2010, Bd. 8,1, S. 7. 4 Die erste Deklaration galt nur für „mündige Bürger“, zu denen Frauen nicht gezählt wurden. Die französische Frauenrechtlerin Olympe de Gouges legte der Nationalversammlung 1791 ihren Entwurf der „Erklärung der Rechte der Frau und Bürgerin“ vor. Olympe de Gouges: Schriften, Frankfurt a. M. 1989.
88
Marietta Kesting
eingeführt, um die Grenzübertritte zu kontrollieren sowie die eigene Bevölkerung am Ausreisen zu hindern, die Wehrpflichtigen zu erfassen und sie von ‚Ausländern‘ zu unterscheiden. Die Einführung der allgemeinen Ausweispflicht ist ein Aspekt der von Michel Foucault untersuchten Disziplinierung der Bevölkerung in der Moderne, die das Leben der Menschen bis ins Detail mit Gesetzen und Vorschriften bestimmt.5 In Frankreich entstand somit der erste moderne Verwaltungsstaat, dessen Beispiel viele andere europäische Länder folgten, die darüber hinaus auch in ihren Kolonien PassSysteme einführten. Wieder erkannt werden
Mit der Erfindung unterschiedlicher fotografischer Verfahren in der ersten Hälfte des 19. Jahrhunderts änderte sich die Situation grundlegend. Der Medientheoretiker und Wahrnehmungspsychologe Rudolf Arnheim statuierte: „Die physischen Objekte bilden sich selbst mittels der optischen und chemischen Funktionsweise des Lichts ab.“ 6 Zum ersten Mal schien es möglich, das menschliche Gesicht als indexikalische Spur, ohne störende Einwirkungen, festzuhalten. In Frankreich ließ sich 1854 der Fotograf und Erfinder André Adolphe-Eugène Disdéri ein Verfahren für Visitenkarten mit kleinen Porträtfotografien, genannt Carte des Visites, patentieren.7 Sofort erkannte man auch die erkennungsdienstlichen Vorzüge der Fotografie. 1870 wurden in Paris hunderte von Beteiligten der Pariser Kommune von der Polizei identifiziert und anschließend erschossen.8 Damit zeigte sich, dass die Speicherung und Wiedererkennung von Gesichtern der Bevölkerung durch Fotografien, gleich von Beginn an die Individuen polizeilich erfassbar machte, in dieser historischen Situation jedoch mit tödlichen Folgen. Personalausweis mit Passfotografie
Mit einer neuen „Verordnung, betreffend anderweite Regelung der Passpflicht“ vom 16. Dezember 1914 wurde das Passgesetz in Preußen neu formuliert und erstmalig ein Passfoto rechtlich vorgeschrieben. Die ausstellende Behörde verlangte jeweils zwei Passfotos, das eine wurde in der Personenkartei des Amtes aufgehoben, während das 5 Michel Foucault: Geschichte der Gouvernementalität, Bd. 1: Sicherheit, Territorium, Bevölkerung, hrsg. von Michel Sennelart, Frankfurt a. M. 2004. 6 Rudolf Arnheim: Die Seele in der Silberschicht. Medientheoretische Texte. Photographie – Film – Rundfunk (1974), Frankfurt a. M. 2004, S. 24. 7 Jochen Voigt: Faszination Sammeln. Cartes de Visite. Eine Kulturgeschichte der photographischen Visitenkarte, Chemnitz 2006. 8 Gisèle Freund: Photographie und Gesellschaft, Reinbek 1979, S. 119.
Operative Porträts und die Spuren von Körpern
89
a ndere in den Pass einzubringen war. Das dort eingeklebte und abgestempelte Foto wurde mit der schriftlichen Anweisung versehen, dass „der Passinhaber tatsächlich die durch die Photographie dargestellte Person ist und die darunter befindliche Unterschrift eigenhändig vollzogen hat“.9 Hier lässt sich ein symbiotisches Verhältnis von Bild und Text feststellen, welche nur in Verbindung miteinander Evidenz herstellen können und damit zu einer lesbaren Spur eines bestimmten Körpers werden. ◊ Abb. 1 Das erkennungsdienstliche Foto und das Passfoto sind genealogisch verwandt.10 Die formale Strenge und standardisierte Aufnahme vor einem neutralen, hellen 1: Personal-Ausweis 1932. Hintergrund evozieren für die ästhetische Wahrnehmung automatisch alle auf Passfotos abgebildeten Menschen als gesuchte Tatverdächtige eines Verbrechens. Fast immer dis-identifiziert sich das Subjekt daher vom eigenen Passfoto, häufig wird es im privaten Kreis gezeigt mit den Worten: „Schau’ mal, aber so sehe ich eigentlich nicht aus.“ Hinzu kommt der Sachverhalt, dass sich Personen, die auf Passfotos abgebildet sind, immer über den gerade geschehenen Akt des Fotografierens bewusst waren und dadurch in ihrem Gesichtsausdruck die Beobachtung des Aktes des Beobachtet-Werdens liegt. Arnheim beschrieb diese Art des Zurückschauens: „So ist der Mensch, wenn er den Blicken anderer ausgesetzt wird: er braucht eine persona und fragt sich, wie er auf andere wirkt; es droht ihm Gefahr, oder es winkt ihm ein großes Vermögen – allein aufgrund der Tatsache, daß er angeschaut wird.“ 11
9 Vgl. Andreas Reisen: Der Passexpedient. Geschichte der Reisepässe, Baden-Baden 2012, S. 97, Abb. 69 (s. Abb. 1 hier). 10 Vgl. Susanne Regener: Bildtechnik und Blicktechnik. In: Dies.: Fotografische Erfassung: zur Geschichte medialer Konstruktionen des Kriminellen, München 1999, S. 161–167. 11 Rudolf Arnheim (s. Anm. 6), S. 27. Vgl. hierzu auch Roland Barthes: Die helle Kammer. Bemerkungen zur Photographie, Frankfurt a. M. 1989, S. 18–19, sowie Allan Sekula: The Body and the Archive. In: October, 39, Winter 1986, S. 3–64.
90
Marietta Kesting
Staatsbürger, Ausländer und Geschlechterrollen wieder erkennen
Das Passfoto zusammen mit den Daten des Ausweises stellt eine spezielle operative Bildlichkeit her, die Staatsbürger und Staatsbürgerinnen konstruiert, und ein Gegenüber miteinschließt, dem der Ausweis vorgezeigt wird. Wie der Bildtheoretiker W. J. T. Mitchell feststellt, lässt sich diese Ansprache durch ein Bild, welches „den Betrachter umfasst als Ziel des bildlichen Blicks“ 12 mit Louis Althussers Konzept der Interpellation zusammendenken. In Althussers bekanntem Beispiel ruft ein Polizist: „He, Sie da“ auf der Straße, worauf hin sich das angerufene Individuum umwendet und durch diese Wendung zum Subjekt wird, „[w]eil es damit anerkennt, dass der Anruf ‚genau‘ ihm galt“.13 Der nächste logische Schritt wäre in dieser Szene, dass der Polizist befiehlt: „Weisen Sie sich aus.“ Mithilfe des Ausweises entstehen sowohl (nationale) Staatssubjekte als auch ‚Ausländer‘, und der Mensch auf der Straße muss in den Augen der Macht ‚einswerden‘ mit seinem Ausweis und Passfoto. Althussers Konzept der Interpellation hat auch in Judith Butlers Theorien des Performativen von Geschlechterrollen Resonanz gefunden. Butler thematisiert unter anderem den Akt der Taufe und der Namensgebung durch die ein menschliches Wesen als geschlechtliches Subjekt konstituiert und festgeschrieben wird („Es ist ein Mädchen!“).14 Butler kritisiert jedoch, dass Althussers Interpellation die Figur einer souveränen göttlichen Stimme annimmt, deren Wirksamkeit sich auf den Augenblick ihrer Äußerung reduziert und die keine Möglichkeiten des Widerstands und der Reartikulation offen lässt.15 Tatsächlich existierte aber auch im Ausweiswesen ein Sonderfall einer Reartikulation einer Subjektposition. Dies ist besonders hervorzuheben, da der Ausweis generell ein normatives Instrument ist, welches keine Unklarheiten zulässt und welches somit die Kategorien der Staatsangehörigkeit, des Alters und des Geschlechts eindeutig belegt. Der Sonderfall eines Ausweises bei dem hinsichtlich des Geschlechts eine Performanz des jeweiligen anderen Geschlechts ermöglicht und erleichtert wird, ist der in der Weimarer Republik – besonders durch die Arbeiten des Sexualwissenschaftlers Magnus Hirschfeld – propagierte „Transvestitenschein“.16 Damit konnten Subjekte 12 W. J. T. Mitchell: Metabilder. In: Ders.: Bildtheorie, Frankfurt a. M. 2008, S. 172–233, Zitat S. 224. 13 Louis Althusser: Ideologie und ideologische Staatsapparate (Anmerkungen für eine Untersuchung). In: Ders. (Hg.): Ideologie und ideologische Staatsapparate. Aufsätze zur marxistischen Theorie, Hamburg/ Berlin 1977, S. 108–153, Zitat S. 142f. 14 Vgl. Judith Butler: Körper von Gewicht, Berlin 1995, S. 318ff. 15 Butler (s. Anm. 14), S. 173 ff. 16 Einzusehen im Hans-Magnus Hirschfeld Archiv. Vgl. Magnus Hirschfeld: Transvestiten, Berlin 1910, S. 192–198, und Rainer Herrn: Die falsche Hofdame vor Gericht: Transvestitismus in Psychiatrie und Sexualwissenschaft oder die Regulierung der öffentlichen Kleiderordnung. In: Medizinhistorisches Journal, Jg. 49, 2014, Heft 3, S. 199–236.
Operative Porträts und die Spuren von Körpern
91
die normative Interpellation umgehen; diese von Polizei und Psychiatrie ermöglichte Praxis existierte jedoch nur temporär. Wenige Jahre später wurde durch die Nationalsozialisten 1939 die allgemeine Ausweispflicht eingeführt, damit entstand – wie bereits ausführlich erforscht wurde – ein direkter Zusammenhang zwischen der Erfassung der Bevölkerung, zu ihrer Aufteilung in verschiedene Gruppen, allen voran „Arier“ und „Juden“, mit statistisch erfassten Merkmalen und der Deportierung und Ermordung der als „lebensunwert“ erfassten Gruppen.17 DNA-Snapshots & Stranger Vision – aus körperlichen Spuren Bildlichkeiten herstellen
In Europa werden seit 2007 biometrische Passfotos zusammen mit weiteren Daten und dem digitalen Fingerabdruck auf dem Chip des Personalausweises und Reise passes gespeichert.18 In den USA werden bei der Einreise Ausländer erneut fotografiert sowie Abdrücke sämtlicher Finger gespeichert. Daraus lässt sich erkennen, dass sich die Dokumentation eines bestimmten Körpers nicht mehr vornehmlich auf Passfotos stützt, die ihre Evidenzfunktion mehr und mehr verloren haben und denen daher nur noch im Zusammenhang mit anderen Daten Glauben geschenkt wird. Die ‚Wahrheit‘ über eine Person wird zunehmend nicht mehr durch eine Abgleichung mit den eingetragenen Daten wie Körpergröße, Alter und Augenfarbe und mit dem Passfoto ersichtlich, sondern nun im Inneren des Körpers und durch andere Formen der Analyse körperlicher Spuren – unter anderem in der DNA – gesucht. Diese Art von körperlichen Spuren sind jedoch für das menschliche Auge nicht sichtbar und müssen kompliziert extrahiert, sequenziert und ausgerechnet werden. Auch das Zeitalter der DNA-Spurensicherung führt daher nicht zur völligen Abschaffung von Identifizierungsbildern – im Gegenteil treten uns Passfoto-ähnliche Porträts weiterhin überall dort entgegen, wo eine unbekannte Person gesucht wird. Menschliche Wahrnehmung funktioniert nicht ohne eine Visualisierung, und das Gesicht stellt trotz aller Schwierigkeiten weiterhin den auf den ersten Blick individuell erkennbarsten Teil des Menschen dar. Allein wird hier wieder eine Verbindung zwischen körperlichen Spuren und Bildlichkeit hergestellt, die sogar Anklänge des frühesten Umgangs mit Fotografien beinhaltet. Der Schriftsteller Hubert Fichte, der 17 Für den Zusammenhang zwischen Identifikation und Völkermord insbesondere Götz Aly, Karl-Heinz Roth: Die restlose Erfassung. Volkszählen, Identifizieren, Aussondern im Nationalsozialismus, Berlin (1984) 2000. 18 Siehe Informationen des Bundesinnenministeriums zu dem elektronischen Reisepass: http://www.bmi. bund.de/DE/Themen/Moderne-Verwaltung/Ausweise-Paesse/Reisepass/reisepass.html (Stand: 08/2015).
92
Marietta Kesting
2: Heather Dewey-Hagborg: Stranger Vision.
sich genau mit dem Medium auseinandersetzte, schrieb über den einst magisch anmutenden Gebrauch von Porträtfotografien: „Das Foto wird betrachtet als Partikel des Originals, es gibt einem – wie Fingernägel und Haarbüschel – Macht über andere. Unsere Großeltern trugen die Daguerrotypien ihrer Lieben an Haarketten und das Foto des Verlobten zusammen mit einer Haarlocke am Hals.“ 19
Bemerkenswerterweise lässt sich heutzutage aus einer Haarsträhne zwar keine genaue Visualisierung – gleich einer Fotografie – der dazugehörigen Person herstellen, aber es lässt sich aus dieser körperlichen Spur doch eine übereinstimmende Bildlichkeit genau dieses Körpers konstruieren. Auf diese Art und Weise könnte eine unbekannte Person gesucht werden, deren finale Überprüfung über den Vergleich der DNA erfolgen müsste. Die amerikanische Künstlerin Heather Dewey-Hagborg thematisierte diesen Sachverhalt in ihrem Projekt Stranger Vision, in dem sie DNA-Spuren auf den Bürgersteigen von New York City sammelte, beispielsweise die Speichelreste von einem weg 19 Hubert Fichte: Schwarz/Weiß doppelt belichtet. Kleine Chronologie zum Werk des afroamerikanischen Fotografen van der Zee. In: Frankfurter Rundschau, 12.1.1980.
Operative Porträts und die Spuren von Körpern
93
3: Heather Dewey-Hagborg: Stranger Vision.
geworfenen Kaugummi, einer Zigarettenkippe oder eine Haarsträhne. Sie extrahierte dann unter wissenschaftlicher Anleitung in dem Bio-Hacker-Lab Genspace Sequenzen des darin vorhandenen genetischen Codes.20 Danach benutzte sie unterschiedliche Primer, um eine Polymerase-Kettenreaktion zu erzeugen, um dann an verschiedenen Stellen der DNA-Sequenz nach spezifischen Markern für persönliche Eigenschaften wie Augenfarbe, Sommersprossen, Geschlecht, ethnische Herkunft, Haarfarbe und einigen anderen Eigenschaften zu suchen.21 Ihre Ergebnisse speiste sie in ein Modellierungsprogramm, das aus diesen Daten skulpturale Porträtbüsten errechnete, die sie dann mit einem 3D-Drucker ausdruckte. Die so erstellten Porträts haben jedoch keine ganz genaue Übereinstimmung, sondern vermitteln vielmehr eine Familienähnlichkeit. Als Gegenprobe hatte die Künstlerin aus ihren eigenen DNA-Spuren auf dieselbe Art ein 3D-Porträt erstellt, welches sie mit seiner großen Ähnlichkeit überrascht hatte.22 Dewey-Hagborgs Arbeit erhielt viel Aufmerksamkeit in der medialen Öffentlichkeit und startete eine Diskussion über genetische Spurensicherung, Überwachung, den 20 Vgl. die NGO Genspace: http://genspace.org (Stand: 08/2015); und http://thenewinquiry.com/sci-ficrime-drama-with-a-strong-black-lead/ (Stand: 08/2015). 21 Die einzelnen Arbeitsschritte dokumentierte Dewey-Hagborg auf ihrem Blog: https://deweyhagborg. wordpress.com/2013/06/30/technical-details/ (Stand: 08/2015). 22 Natalie Angley: Artist creates faces from DNA left behind in public. In: CNN, http://edition.cnn. com/2013/09/04/tech/innovation/dna-face-sculptures/ (Stand: 08/2015).
94
Marietta Kesting
4: Poster Parabon Nanolabs.
Schutz persönlicher Daten, Sichtbarkeit im öffentlichen Raum und damit verbundene ethische Aspekte.23 Genau diese Fragen wollte die Künstlerin anstoßen, die auch in früheren Arbeiten schon vielfach neue Technologien und naturwissenschaftliche Forschungen kommentierte. ◊ Abb. 2+3 Sicherlich sind die DNA-Porträts nicht mit Passfotos im formalen und technischen Sinne zu vergleichen, dennoch haben sie eine ähnliche Funktion: aus den hinterlassenen Spuren möglichst genau einen Körper – beziehungswiese ein dazugehöriges Gesicht – zu rekonstruieren und dieses zu visualisieren. Auch die Metaphern, die verwendet werden, um diese neuartige Technik zu beschreiben, kommen aus der Fotografie. Die amerikanische Firma Parabon Nanolabs hat sich dieses Verfahren bereits als DNA-Snapshot patentieren lassen, obwohl das Verfahren keineswegs dem schnellen fotografischen ‚Schnappschuss‘ ähnlich ist, sondern auf aufwendige Art die DNA-Spur auswerten, analysieren und in eine Bildlichkeit rückübersetzen muss.24 ◊ Abb. 4 „DNA-Phenotyping is the prediction of physical appearance from DNA. It can be used to generate leads in cases where there are no suspects or database hits […]. Using in-depth data mining and advanced machine learning, and with support from the US Department of Defense, we have built the SnapshotTM Forensic DNA Phenotyping System, which accurately predicts genetic ancestry, eye color, hair color, skin color, freckling, and face shape in individuals from any ethnic background.“ 25 23 Siehe auch Megan Gambino: Creepy or Cool? Portraits Derived from Hair and Gum Found in Publich Places. 3.5.2013, http://www.smithsonianmag.com/ist/?next=/science-nature/creepy-or-cool-portraitsderived-from-the-dna-in-hair-and-gum-found-in-public-places-50266864/ (Stand: 08/2015). 24 Parabon Nanolabs, https://snapshot.parabon-nanolabs.com (Stand: 08/2015). 25 Parabon Nanolabs (s. Anm. 24).
Operative Porträts und die Spuren von Körpern
95
Parabon Nanolabs bietet diese Form des DNA-Snapshot schon kommerziell an und wird nicht zufälligerweise auch vom US-Verteidigungsministerium unterstützt. V/Erkennung
Weiterhin beherrscht eine Suche nach möglichst genauer Wiedererkennbarkeit die Anfertigung von Passfotos für Ausweise. Heutzutage vereinigt der Personalausweis ebenso wie der EU-Reisepass sowohl ein biometrisches Passfoto als auch die Speicherung digitaler Fingerabdrücke. Der Pass soll nach Vorstellung der EU-Regierungen „einerseits einer Vereinheitlichung dienen, andererseits durch die Speicherung biometrischer Daten den Missbrauch eindämmen, da eine engere Verknüpfung zwischen Ausweisinhaber und dem Ausweisdokument hergestellt wird“.26 Erkennungsdienstliche Porträts aus DNA-Spuren sind zwar erst in der Entwicklungsphase, können aber in Zukunft zur Anwendung kommen. Zurzeit werden sie bereits in der kriminalistischen Spurensuche eingesetzt.27 Sie können jedoch nicht auf eine Bildlichkeit verzichten, da Menschen DNA-Sequenzen nicht direkt sinnlich wahrnehmen können. Im Gegensatz zu der Möglichkeit der Änderung des Personenstandes und des Vornamens im Personalausweis für Trans*Personen seit der Einführung des Transsexuellengesetzes 198128 lässt die DNA-Analyse die Bestimmung des Geschlechts nicht offen, sondern schreibt das jeweilige biologische Geschlecht ‚objektiv‘ fest.29 Kritiker_ innen des DNA-Snapshot-Verfahrens fürchten überdies, dass diese Methode Praktiken des Racial Profiling erneut verstärken könnte. Im Rahmen von Racial Profiling kontrolliert die Polizei gezielt bei nicht-weißen Menschen häufiger die Personalien. Der Bildtheoretiker Nicholas Mirzoeff benennt dies als Einführung einer rassifizierten Differenz zwischen Bürger_innen und denjenigen denen die Bürgerschaft abgesprochen wird. Dadurch wird eine „nomadische Grenze“ hergestellt, die jederzeit errichtet werden kann, wenn ein „Bürger“ eine verdächtige Person anschaut, die z. B. ein undokumentierter Migrant sein könnte.30 Diese nomadische Grenze funktioniert über auf Sichtbarkeit basierenden Unterscheidungen und scheint so auf eine essenzialisierende Materialität des Körpers zu beharren.
26 http://www.ausweis-app.com/elektronischer-aufenthaltstitel/ (Stand: 08/2015). 27 Andrew Pollack: Building a Face, and a Case, on DNA. In: The New York Times, 23.3.2015. 28 Vgl. Antidiskriminierungsstelle des Bundes zum Thema Trans*: http://www.antidiskriminierungsstelle. de/DE/ThemenUndForschung/Geschlecht/Themenjahr_2015/Trans/trans_node.html (Stand: 08/2015). 29 Für eine kritische Diskussion der Geschichte des ‚Objektivitätsbegriffs‘ vgl. Peter Galison, Lorraine Daston: Objektivität, Berlin 2007. 30 Nicholas Mirzoeff: The Right to Look, Durham 2011, S. 282.
96
Marietta Kesting
Die Genderforscherin Verena Namberger argumentiert auf ähnliche Weise überzeugend, dass neomaterialistische Körperkonzeptionen weder bestehende Strukturen rassistischer Ausgrenzung aufheben, noch diese lediglich fortschreiben: „In der Welt der cyborgs, (genetischen) Codes und Virtualität verändern sich auch Artikulationen von Rassismus. Entlang der Idee des Körpers als assemblage lässt sich analysieren, wie sich unterschiedliche ‚Rasse’-Ideen – biologistisch und kulturalistisch, analog und digital – nicht etwa ablösen, sondern vielmehr ‚intra’-agieren […].“ 31
Selbstverständlich sind auch DNA-Proben nicht fälschungssicher, sie können verunreinigt sein oder vertauscht werden, wie schon in dem 1997 veröffentlichten ScienceFiction-Film Gattaca durchgespielt wurde.32 Dort nimmt die Hauptperson Vincent, der mit als von der Gesellschaft für minderwertig erachteten Genen und körperlichen Merkmalen zur Welt gekommen ist, die Identität des durch einen Unfall im Rollstuhl sitzenden Jerome an, der zuvor Weltklasseathlet war. Nur so kann Vincent, der von seinen Eltern auf ‚natürliche Art‘ gezeugt wurde und als ‚invalide‘ gilt, sich den Traum erfüllen, in der elitären Weltraumforschung zu arbeiten. Vincent erhält von Jerome Urin- und Blutproben, Hautzellen und einen gefälschten Fingerabdruck. Der Film setzt hiermit Möglichkeiten in Szene, aus der fast perfekten Kontrolle der Subjekte auszubrechen und eine neue Identität anzunehmen. „Self-identity is a bad visual system“, schrieb die Wissenschaftsforscherin Donna Harraway schon 1988 und kritisierte damit sowohl die Grenzen einer limitierenden Selbst-Positionierung im Wissenschaftsbetrieb, als auch die oft unreflektierten Machtverhältnisse der optischen Apparaturen.33 Wahrnehmungsprozesse und Auswertungen körperlicher Spuren, durch die wir uns selbst und andere zu erkennen meinen, sind untrennbar mit Fragen der Differenzproduktion verknüpft, und fotoähnliche Bilder und Visualisierungen haben darin immer eine Komplizenschaft mit der Wissensproduktion über die Körper der Anderen. Sie sind folglich elementar an Grenzziehungsprozessen beteiligt, und das auch in unserer heutigen Zeit, in der die Fotografie nicht mehr als privilegierter Garant für Objektivität und Evidenz verstanden wird. Es ist jedoch unmöglich, Subjekte visuell festzusetzen. Signifikanterweise entstanden histo 31 Verena Namberger: „Rassismustheorien und die Materialität des Körpers“. In: Tobias Goll et al. (Hg.): Critical Matter. Diskussionen eines neuen Materialismus, Münster 2013, S. 145. 32 Andrew Nicoll (Regie): Gattaca, US. 1997, http://www.imdb.com/title/tt0119177 (Stand: 08/2015). 33 Donna Harraway: Situated Knowledges. The Science Question in Feminism and the Privilege of Partial Perspective. In: Feminist Studies, Jg. 14, 1988, Heft 3, S. 585.
Operative Porträts und die Spuren von Körpern
97
risch mit den modernen Staatssubjekten gleichzeitig Subkulturen und nicht-normative Subjektivierungsweisen in den Großstädten der Weimarer Republik.34 Daher werden Subjekte immer auch Möglichkeiten einer Re-Artikulation einer mit Macht gesättigten Bildlichkeit finden, um diese zu kritisieren und politisch zu unterlaufen.
34 Einige dieser Subkulturen wie z. B. „Affektive Männlichkeiten“, „Künstlertum und Wahn“, sowie „Drogen und Rausch“ (1870–1930) erforschte das DFG-Projekt „Kulturen des Wahnsinns“, http://www. kulturen-des-wahnsinns.de/ (Stand: 08/2015).
Sophia Kunze
Komplexitätsreduktion oder Essenzialisierung? ‚Spurenlesen‘ in Kunst- und Medizingeschichte Die humanistische Erforschung des Körpers sowie seine Darstellung im Bild formen seit jeher eine entscheidende Schnittstelle zwischen Medizin und Kunst. Daraus resultierend hat die Betrachtung bestimmter Bildzeugnisse unter medizinhistorischen Gesichtspunkten eine lange Tradition.1 Die umfassende Analyse zeigt, dass wir diese kategorisieren können nach solchen, die 1. im weitesten Sinne einen Kranken oder eine ärztliche Behandlung zeigen in der Art eines Genres; 2. innerhalb ihrer Narration das Thema Krankheit berühren, beispielsweise christliche Darstellungen von Pestheiligen; 3. zu den sogenannten ‚Kuriositätendarstellungen‘ gezählt werden; 4. im Rahmen anatomischer oder medizinscher Illustrationen zu konkreten Veranschaulichungszwecken dienen oder 5. von ‚Kranken‘ gemalt werden, wobei der Fokus in diesem Bereich auf dem gestalterischen Ausdruck innerer Zustände liegt.2 Anzumerken ist, dass auch darüber hinaus jede Darstellung, die einen Menschen und damit einen Körper zeigt, Gegenstand einer medizinhistorischen Analyse sein kann. Im Bereich der anatomischen Wissenschaft findet sich eine traditionelle Verknüpfung zur bildenden Kunst. Dies ist dem Umstand geschuldet, dass die anatomische Zeichnung schon in ihrer Genese einen interdisziplinären Austausch erfordert: Es braucht einen Gelehrten, der um den Körperaufbau und die dar zustellenden physiologischen Prozesse weiß und zusätzlich einen technisch und kompositorisch versierten Künstler, der den Gegenstand in ein verständliches, überzeugendes – evidentes – Bild übersetzt. Die jeweiligen Bildstrategien variieren je nach Zeit und Kontext: So lässt sich zu Beginn der anatomischen Forschung die direkte Übernahme christlicher Ikonografie und Komposition beobachten. Je weiter die medizinische Forschung voranschreitet, umso mehr etabliert sich eine stärkere Fokussierung auf das Objekt als wissenschaftliche Darstellung.3 Das anatomische Studium bildet seit der Neuzeit zudem die Arbeitsgrundlage des Künstlers. Bereits Leon Battista Alberti beschreibt in seinem 1435/36 erschienenen Traktat De Pictura die Kenntnis der anatomischen Struktur des menschlichen Körpers, Knochen, Musku latur und Bewegung als Grundlage eines gelungenen Bildes.4 Ihm geht es allerdings nicht darum, eine möglichst wirklichkeitsnahe Abbildung zu schaffen, sondern aus 1 Vgl. Boris Röhrl: History and bibliography of artistic anatomy. Didactics for depicting the human figure, Hildesheim 2000; Karl Eduard Rothschuh: Konzepte der Medizin in Vergangenheit und Gegenwart, Stuttgart 1978. 2 Zu 5. vgl. Gottfried Böhm: Die Kraft der Bilder. Die Kunst von „Geisteskranken“ und der Bilddiskurs. In: Ders. (Hg.): Wie Bilder Sinn erzeugen. Die Macht des Zeigens, Berlin 2007, S. 229–242. 3 Vgl. Jonathan Sawday: The Body Emblazoned. Dissection and the Human Body in Renaissance Culture, London/New York 1995. 4 Leon Battista Alberti: Das Standbild. Die Malkunst. Grundlagen der Malerei, hrsg. v. Oskar Bätschmann, Darmstadt 2000, S. 256–257.
Komplexitätsreduktion oder Essenzialisierung?
99
den wohlgeformten Elementen der Natur ein Idealbild zu kreieren. Ein weiterer Bereich, in dem die Betrach tung von Bildwerken aus medizinischer Per spektive verbreitet ist, ist der Bereich der soge nannten Kuriositätendarstellung, also Körper mit Abweichungen von normativen Konzep tionen eines gesunden Körpers. José de Riberas Bärtige Frau von 1631, ◊ Abb. 1 fast ausschließlich von Medizinhistorikern analysiert, wird vom Schweizer Kinderarzt Ottmar Tönz wie folgt beschrieben: „Eine völlig virilisierte Frau mit Vollbart und Stirnglatze scheint hier ihr Kind zu stillen. Ist das denn möglich? Es muss doch angenommen werden, dass bei einer so schweren Virilisierung die Gonadotropine völlig supprimiert sind, so dass Empfängnis und Schwangerschaft schlichtweg undenkbar erscheinen.“ 5 Bei der Betrachtung der ohnehin rar gesä 1: José de Ribera: Die bärtige Frau (La mujer barbuda) ten kunsthistorischen Literatur zum Thema oder Magdalena Ventura, 1631, Öl auf Leinwand, 196 × 127 cm, Museo del Prado, Madrid. wird schnell deutlich, dass die medizinische Argumentation durchaus nicht dem Fach der Medizingeschichte vorbehalten ist. So schreibt die Kunsthistorikerin Elizabeth du Gué Trapier: „Ribera [was commissioned] to paint a subject which helped to earn for him the reputation of a painter of abnormality and ugliness.“ 6 Im Katalog neapolitanischer Künstler wird die Dargestellte als „klinischer Fall“ deklariert, „però la maestria dell’artista ha potuto trasformare questo ‚caso clinico‘, anormale e quasi ripugnante, in una superba opera d’arte“.7 Auch die explizite medizinische Analyse findet man in der Kunstgeschichte, so spricht Nadeije Laneyrie-Dagen im Sammelband L’invention 5 Ottmar Tönz: Curiosa zum Thema Brusternährung. Von stillenden Vätern, bärtigen Frauen und saugenden Greisen. In: Schweizerische Ärztezeitung, Jg. 81, 2000, Heft 20, S. 1058–1063; ähnlich bei Juan Falen Boggie: En torno a la mujer barbuda de José de Ribera. In: Revista Peruana de Pediatría, Lima 2007. 6 Elizabeth du Gué Trapier: Ribera, New York 1952, S. 71. 7 Silvia Cassani (Hg.): Civiltà del Seicento a Napoli, Ausst.kat., Museo di Campodimonte, Neapel 1984, S. 410.
100
Sophia Kunze
du corps über „des femmes souffrant d’une hypersécrétion des glandes surrénales ou de l’hypophyse“.8 Ähnlich wie auch bei den bärtigen Frauen verhält es sich bei Untersuchungen zu Darstellungen von Kleinwüchsigkeit, den sogenannten ‚Zwergen‘, von denen besonders das spanische Siglo de Oro eine Vielzahl zu verzeichnen weiß. In Hinblick auf diesen Bildgegenstand gibt es zahlreiche Untersuchungen zur sozialen Stellung und kulturellen Bedeutung.9 Dem gegenüber stehen eine Vielzahl von medizinisch (historischen) Untersuchungen, wie zum Beispiel die Henry Meiges Ende des 19. Jahrhunderts. Meige versuchte, Klein wüchsigkeit in Kunstwerken anhand medizinischer Gliederungen einzuteilen, je nachdem, 2: Pieter Brueghel d. Ä. (Werkstatt): Der Gähner, 1567, ob diese ‚Zwerge‘ „achondroplastischen oder Öl auf Leinwand, 96 × 128 cm, Sammlung Universität rachitischen Ursprungs waren oder mikroze Stockholm. phalischen, hydrozephalischen, infantilen, adi pösen Habitus zeigten“.10 Die Klassifikation von Krankheit ausgehend vom Kunstwerk und deren Folgen zeigen sich beispielsweise im „Brueghel-Syndrom“ (auch Meige-Syndrom), eine 1910 von Meige klassifizierte Nervenkrankheit, die er auf Basis seiner Ausführungen zu einem Pieter Brueghel d. Ä. zugeschriebenen Gemälde – Der Gähner – begründete.11 ◊ Abb. 2 Wissenschaftshistorisch ist Meige insofern interessant, als dass es sich bei ihm um einen Schüler und späteren Mitarbeiter Jean-Martin Charcots handelt.12
8 Nadeije Laneyrie-Dagen: L’invention du corps. La représentation de l’homme du Moyen-Age à la fin du XIXe siècle, Paris 1997, S. 174f. 9 Lothar Sickel: Zwerg. In: Uwe Fleckner, Martin Warnke (Hg.): Handbuch der politischen Ikonographie, München 2011, S. 567–574. 10 Henry Meige: Les nains et les bossus dans l’art, Paris 1896. 11 Henry Meige: Les convulsions de la face, une forme clinique de convulsion faciale, bilatérale et médiane. In: Revue Neurologique, 1910, 20, S. 437–443; Vgl. Peter Berlit (Hg.): Klinische Neurologie, Berlin (3. Auflage) 2012, S. 999–1000. Zu Brueghel siehe Larry Silver: Pieter Bruegel, Paris 2011, S. 384. 12 Jean-Martin Charcot: Iconographie photographique de la Salpêtrière, Paris 1878; Vgl. Georges DidiHuberman: Invention de l’hystérie. Charcot et l’Iconographie photographique de la Salpêtrière, sur l’École de la Salpêtrière, Paris 1982.
Komplexitätsreduktion oder Essenzialisierung?
101
Charcot und seine Schüler bzw. Mitarbeiter Paul Richer, Ludwig Choulant und Henry Meige gelten als Begründer der modernen medizinhistorischen Forschung, die sich Mitte des 19. Jahrhunderts von Frankreich ausgehend etablierte.13 Allen gemeinsam ist einerseits ihre professionelle medizinische Ausbildung und andererseits ihr Interesse an der bildlichen Darstellung von Krankheit. Der wichtigste Vertreter dieser Forschungsbemühungen für den deutschen Raum ist Eugen Holländer mit seiner Anfang des 20. Jahrhunderts erschienenen Monografie zur Medizin in der Klassischen Malerei (1905), Karikatur und Satire in der Medizin (1905) und Plastik und Medizin (1912). In der Kunstgeschichte kaum rezipiert, ist Holländer in medizinischen Fachkreisen in den letzten Jahren wieder ins Interesse der Forschung gerückt, allerdings vornehmlich für seine eigentlichen großen Errungenschaften: Holländer war und ist als Pionier der ästhetischen Chirurgie dafür bekannt, dass er 1906 die erste „autologe Transplantation von Fett zur ästhetischen und rekonstruktiven Weichteilkorrektur“ durchführte.14 Zudem nahm er im Jahre 1901 „verführrt [sic] von weiblicher Überredungskunst“ die wohl erste chirurgische Gesichtsstraffung vor. In seiner Einleitung zu Plastik und Medizin von 1912 beschreibt Eugen Holländer „die medizinische Kunsthistorie, ihre Bedeutung, Aufgabe und Entwicklung“: „Eine Vorbedingung aber für diese ‚plastische Pathologie‘ ist die Kenntnis der allgemeinen Körperdarstellung in ihrer durch Mode, Künstlerstil und Technik ewig abwechselnden Ausdrucksweise. Die Skulptur des ‚Hermaphroditismus‘, der ‚Schwangerschaft‘, des ‚ersten Menschenpaares‘ und der ‚Blindheit‘ landen eine eingehende Betrachtung. Eine Exkursion zu den Töpferwaren der Altperuaner zeigt uns die Krankheitsbildner par excellence aus vorkolumbischer Zeit. An der Fülle dieser eigenartigen Krankheitsdarstellungen studieren wir nicht nur die Spezialdiagnostik mit Rücksicht auf den eventuellen amerikanischen Ursprung der Syphilis, sondern wir lernen an diesen vollkommen anonymen Kunstwerken auch die Schwierigkeit und die Grenzen der Krankheitsbestimmung aus der reinen Form überhaupt kennen.“ 15
13 Vgl. Ludwig Choulant: Geschichte und Bibliographie der anatomischen Abbildung nach ihrer Beziehung auf anatomische Wissenschaft und bildende Kunst, Leipzig 1852; Jean-Martin Charcot, Paul Richer: Les demoniaques dans l’art, Paris 1887; Paul Richer, L’Art et la Medicine, Paris 1900. 14 Andreas Gohritz: Eugen Holländer (1867–1932). Ein weitgehend unbekannter Pionier der ästhetischen Chirurgie und autologen Fettinjektion und medizinischen Kunstgeschichte in Deutschland, creative common 2011 (http://www.egms.de/static/de/meetings/dgch2011/11dgch647.shtml (Stand: 06/2016). 15 Eugen Holländer: Plastik und Medizin, Stuttgart 1912, S. 2.
102
Sophia Kunze
Holländer verweist damit selbst auf einige Bedingungen seines methodischen Vorgehens, denn es bedarf der „Kenntnis der allgemeinen Körperdarstellungen in ihrer ewig abwechselnden Ausdrucksweise“, d. h., der kunsthistorische Connaisseur, der das Dargestellte im Kontext der Entstehungszeit und des individuellen Künstlerstils begreift, ist ebenso notwendig, wie die fachkundig abwägende, erfahrungsbasierte Diagnose des Mediziners. Wir finden an dieser Stelle eine Bestätigung der These Ginzburgs, nach der Kunstgeschichte und Naturwissenschaft um 1900 den gleichen Prinzipien des „Fährtenlesens“ – der Auswertung von Spuren oder Indizien –, nur eben innerhalb differierender Wissensmodelle, folgten.16 Zusätzlich sagt Holländer deutlich, was nicht von seinen Studien zu erwarten ist, nämlich „nüchterne, praktisch verwertbare Erkenntnisse [zu] extrahieren [oder] bei der Betrachtung der Rembrandt’schen Anatomie eine Erweiterung [der] Kenntnisse in der Armmuskulatur, und aus der gelegentlichen Krankheitsporträtierung eine Bereicherung [der] medizinischen Diagnostik“.17 Damit macht Holländer auf ein Problem aufmerksam, das Ludwig Choulant bereits 1852 in seiner Geschichte und Bibliographie der anatomischen Abbildung folgendermaßen formulierte: „Es ist aber über die hier behandelten Gegenstände in den allgemein-literarischen oder kunstgeschichtlichen Werken wenig gute Auskunft zu finden, weil die hier besprochenen Erzeugnisse dem Literator oder Kunstkenner allzu fern liegen; in anatomischen und medicinischen Werken findet man aber oft eben so wenig, weil diesen der historisch-literarische und artistische Standpunct fremd ist.“ 18 Die Frage ist nun, wie wissenschaftlich mit diesem Zusammenspiel aus Medizin und Kunstgeschichte umzugehen ist. Grundlegend gilt es an dieser Stelle den Status des Bildes zu befragen. Neben der einleitend erläuterten Aufteilung in Kategorien der Kunstgeschichte bleibt im zweiten Schritt die Frage, welcher Anspruch an Objektivität an eine Darstellung gerichtet werden kann, die als künstlerische Produktion entsteht. Bildwissenschaftlich wird nicht nur Kunst, sondern auch jede naturwissenschaftliche Abbildung als Ergebnis einer langen Reihe von Transferprozessen, Bedeutungsaufladungen, Sehgewohnheiten und Kanonisierungen beschrieben – nicht als objektive Repräsentation des ‚Natürlichen‘, sondern eher als Repräsentation einer Konvention. Damit kommen wir zur Erläuterung dieser Frage auf Ginzburgs These des Spurenlesens als wissenschaftliche Methodologie zurück. Ginzburg beschreibt Giulio Man-
16 Vgl. Carlo Ginzburg: Morelli, Freud, and Sherlock Holmes. Clues and Scientific Method. In: Umberto Eco, Thomas Sebeok (Hg.): The Sign of Three. Dupin, Holmes, Peirce, Indiana S. 81–118. 17 Choulant (s. Anm. 13), S. 5. 18 Choulant (s. Anm. 13), S. 5.
Komplexitätsreduktion oder Essenzialisierung?
103
cini als Begründer der sogenannten Kennerschaft in der Kunstgeschichte.19 Giovanni Morellis späteren kunsthistorischen Analysen vorausgehend, begründet Mancini eine Methode, die es ermöglichen soll, anhand der Details eines Gemäldes Zuschreibungen vornehmen zu können. Mancini begründet dies damit, dass bei der Kopie eines Bildes besonders die unwichtigen, nebensächlichen Details, die gerade nicht Kern der Bilderzählung sind, Hinweise auf die Provenienz des Werkes geben können – besonders an diesen Stellen würde eine Kopie niemals dem Original gleichen. Interessanterweise, und das betont auch Ginzburg, handelt es sich bei Mancini zugleich um einen bedeutenden Arzt seiner Zeit, dem eine genialische Gabe der Diagnostik eigen war. Wie auch später Morelli geht also Mancini davon aus, dass lesbare ‚Zeichen‘ im Gemälde unfreiwillig entstehen. Ginzburg zieht an dieser Stelle die Parallele zur Krankheit, deren Symptome auch nicht zielgerichtet auftreten würden und damit die wertvolleren Spuren in Hinblick auf ihre Aussagekraft seien.20 Der Begriff des Symptoms ist hier insofern relevant, als dass er auf die Zeichenhaftigkeit verweist, also, im Gegensatz zum empirischen Befund, des Erkennens und der Ausdeutung bedarf. An dieser Stelle wird ein Problem deutlich: Das Symptom einer Krankheit verweist indexikalisch auf den kranken Körper und wird symbolisch gedeutet; das Symptom in einem Ölgemälde verweist indexikalisch auf den Malprozess und wird auch symbolisch gedeutet. Wenn nun ein Arzt ein Gemälde nach medizinischen Indizien untersucht, stellt sich die Frage: Hatte der Produzent im selben Wissen um die Krankheit und ihre Symptome diese versucht mimetisch nachzuempfinden oder hatte der Produzent im Unwissen um die Krankheit dennoch den Körper und seine Spuren der Krankheit mimetisch wiedergegeben? Die eine oder andere Annahme müsste Grundlage sein, um ein Gemälde medizinisch auswerten zu können. Gerade Mancini betont allerdings die Singularität und Individualität des Kunstwerkes. So führt er in seinen Considerazioni sulla pittura aus, dass das Wesen der Malerei gerade aus ihrer Differenz zum Abgebildeten erwächst: „Le specie della pittura nate dalla differenza delle cose imitate“ 21 –, wie auch Alberti bereits die beste Naturdarstellung in einer Kombination aus Idealelementen sah. Die gelungene und damit evidente Abbildung ist also eben gerade keine mimetische Annäherung an die Natur. Die bärtigen Frauen und ‚Zwerge‘ werden in der aktuellen Forschung regelmäßig mit medizinischen Wissenskategorien des 20. und 21. Jahrhunderts beschrieben, es wird also ein Epistem der Moderne auf ein Objekt der Frühen Neuzeit angewandt. 19 Ginzburg (s. Anm. 16), S. 25. 20 Ginzburg (s. Anm. 16), S. 24. 21 Giulio Mancini: Considerazioni sulla pittura, hrsg. v. Adriana Marucchi und kommentiert v. Luigi Salerno, Rom 1956; Alberti (s. Anm. 4), S. 256–257.
104
Sophia Kunze
Im Gegensatz zu Holländer und seinen französischen Vorgängern, die noch bewusst auf die Notwendigkeit der kulturgeschichtlichen Einbettung eines Objektes verwiesen haben, wird hier, durch die Rezeption medizinischer Paradigmen in der Kunstgeschichte, ein Gemälde besprochen wie eine Abbildung in einem medizinischen Handbuch, und von Medizinhistorikern gar wie ein Patient, an dem man eine Anamnese vornimmt. Es ist heute davon auszugehen, dass jede interdisziplinäre Kollaboration, besonders wenn sie zwischen Geistes- und Naturwissenschaften entsteht, ein grundlegendes Maß an Komplexitätsreduktion voraussetzt. Die jeweiligen Wissensfelder, theoretischen Kompetenzen und internalisierten Paradigmen der Disziplinen können kaum im Rahmen einer interdisziplinären Zusammenarbeit vermittelt werden. Vermittlung und damit einhergehende Komplexitätsreduktion sind notwendig, um die Essenzen des generierten Wissens über die Fachgrenzen hinaus zu tragen. Fachinterne Diskurse werden zugunsten der Reduktion ausgeblendet und fachinterne Denkstile, über Jahre erlernt, lassen sich kaum übertragen. Diesen notwendigen Prinzipen steht, wie die Ausführungen gezeigt haben, die Gefahr der Essenzialisierung gegenüber.22 In Bezug auf die historischen Geisteswissenschaften spricht Maren Lorenz im Hinblick auf diese Gefahr von einer „Anthropologisierung der Geschichte“: „Obwohl gerade Historiker um die Vergänglichkeit von Wahrheiten wissen und diese erforschen, erstaunt, wie selbstverständlich gegenwärtiges naturwissenschaftliches Wissen zur ‚ultima ratio‘ erhoben und in Argumentationsketten eingebaut wird, ohne diese Perspektive zu historisieren.“ 23 Klaus Walter hingegen, Endokrinologe mit Interesse an weiblichen Heiligen mit Vollbart, vertritt die Einschätzung: „Solche Erkrankungen gibt es heute und hat es natürlich auch am Ende des Mittelalters gegeben.“ 24 Entscheidend ist hier der Begriff der Überprüfbarkeit in Hinblick auf den Objektivitätsanspruch, der den Naturwissenschaften eingeräumt wird. Dagegen steht die mittlerweile verbreitete Einsicht in die Konstruiertheit von Krankheit und ihre historische Wandlungsfähigkeit.25 Sicherlich lässt sich auch die Kleinwüchsigkeit in einer Darstellung von Velázquez mit Meiges Kategorisierung beschreiben, nur gab es diese Krankheitsbegriffe zur Entstehungszeit 22 Wenn bei bärtigen Frauen mit einem ‚falschen Hormonhaushalt‘ argumentiert wird, wird beispielsweise ausgeblendet, dass innerhalb der medizinischen Forschung selbst gestritten wird, auf Basis welcher Hormonwerte und statistischer Auswertung die Grenze zwischen gesund und krank gezogen wird. 2 3 Maren Lorenz: Wozu Anthropologisierung der Geschichte? Einige Anmerkungen zur kontraproduktiven Polarisierung der Erkenntnisinteressen in den Geisteswissenschaften. In: Historische Anthropologie Jg. 11, 2003, Heft 3, S. 415–434, hier S. 416. 24 Klaus Walter: Gedanken über die Entstehung der Legende der Heiligen Kümmernis aus medizinischer Sicht. In: Sigrid Glockzin-Bever, Martin Kraatz (Hg.): Am Kreuz – eine Frau. Anfänge – Abhängigkeiten – Aktualisierungen, Münster 2003, S. 98–121. 25 Lorenz (s. Anm. 23), S. 416.
Komplexitätsreduktion oder Essenzialisierung?
105
der Werke nicht, genauso wenig die heute daraus abgeleitete Einordnung in Norm und Abweichung. Entsprechend spielen diese Kategorien in der zeitgenössischen Rezeption keine Rolle. Die Zuschreibung geht axiomatisch von der Sinnhaftigkeit der normativen Kategorien aus. Es handelt sich nicht mehr um ein Porträt mit all seinen Leistungen der Übersetzung, bildstrategischen Inszenierung und Historizität, sondern um die Darstellung einer Krankheit. Diese wird in der Folge als historische Kategorie angenommen, der Körper ist medizinisch zu erfassen und kann vermeintlich zumindest auf einer biologisch-wissenschaftlichen Ebene auch rückwirkend erklärt werden. Die Deutung dieser Bilder auf medizinisch-biologischer Erkenntnisbasis birgt die Gefahr der Essenzialisierung. Damit werden Konzepte von Krankheit oder Gesundheit und die daraus abgeleitete Norm zur anthropologischen Konstante erhoben.
Bildnachweis
Titelbild: Teilchenspuren in Blasenkammer, 1976, Bubble Chamber Film (B&W), © Fermi National Accelerator Laboratory. Editorial: Alois Alzheimer (1906): Präparate Auguste D., Zentrum für Neuropathologie und Prionen forschung, Klinik für Psychiatrie und Psychotherapie, LMU München. Foto Bettina Bock von Wülfingen. Friedrich: 1: Lars Leksell: Stereotaxis and Radiosurgery. An Operative System, first edition, 1971. Courtesy of Charles C Thomas Publisher Ltd., Springfield, Illinois. Nyakatura: 1A–B: Mit freundlicher Genehmigung von Thomas Martens. 1C: Mit freundlicher Genehmi gung von Tanja Kirsten. 1D–H, 2A, 2C–H, 3A–E: John Nyakatura. 2B: Mit freundlicher Genehmigung von Stefan Curth. Amelung, Stach: 1: © 2010, Rights Managed by Nature Publishing Group. Reprinted, with permission, from: Thomas Söderqvist: Selling Point. David Goodsell. In: Nature Medicine, Vol. 16, 2010, S. 943. 2A: © 2007 Elsevier Inc. Reprinted, with permission, from: B. Ganser-Pornillos, A. Cheng, M. Yeager: Structure of Full-Length HIV-1 CA. In: Cell, Volume 131, Issue 1, S. 71. 2B: © 2009 Elsevier Inc. Reprinted, with permission, from: I. Byeon, X. Meng, J. Jung, G. Zhao, R. Yang, J. Ahn, J. Shi, J. Concel, C. Aiken, P. Zhang, A. Gronenborn: Structural Convergence between Cry-EM and NMR Reveals Intersubunit Interactions Critical for HIV-1 Capsid Function. In: Cell, Volume 139, Issue 4, S. 781. 2C: http://www.rcsb. org/pdb/explore/explore.do?structureId=3H47 (Stand: 09/2016). 3A–B: http://pdb101.rcsb.org/learn/ resource/the-structural-biology-of-hiv-flash (Stand: 09/2016). 3C: http://www.cell.com/cell/abstract/ S0092-8674(09)00580-7?_return (Stand: 09/2016). Weiss, Jirikowski, Reichelt: 1: Foto: Stefanie Reichelt. 2: Dieter G. Weiss, Willi Maile, Robert A. Wick: Video Microscopy. Chapter 8. In: Alan J. Lacey (Hg.): Light Microscopy in Biology. A practical Approach. Oxford 1989, S. 221–278. 3: modifiziert nach http://zeiss-campus.magnet.fsu.edu/articles/basics/ imageformation.html (Stand: 04/2016). 4: modifiziert nach http://microscopyu.com/microscopy-basics/ conjugate-planes-in-optical-microscopy (Stand: 04/2016). 5: Willi Maile und Dieter G. Weiss. 6–7: Modifiziert nach Dieter G. Weiss: Videomicroscopic measurements in living cells: dynamic determination of multiple end points for in vitro toxicology. In: Molec. Toxicol. 1, 1987, S. 465–488. 8: Dieter G. Weiss. De Chadarevian: 1: J. H. Tjio, A. Levan: The Chromosome Number of Man. In: Hereditas, Jg. 42, 1956, Abb. 1a. Mit freundlicher Genehmigung von Hereditas. 2: J. Lejeune et al.: A Proposed Standard System of Nomenclature of Human Mitotic Chromosomes. In: Lancet, Jg. 275, 1960, S. 1064, Tabelle II. © Elsevier. 3: Mit freundlicher Genehmigung von Bror Strandberg und MRC Laboratory of Molecular Biology, Cambridge. 4: Mit freundlicher Genehmigung des MRC Laboratory of Molecular Biology, Cambridge. 5: J. R. I. Piper: Cytoscan. In: MRC News, Heft 56, September 1992, S. 27, Abb. 3. Mit freundlicher Genehmigung des Medical Research Council (UK) 6a–b: R. Pepinsky: X-RAC and S-FAC: Analogue Computers for X-Ray Analysis. In: Ray Pepinsky (Hg.): Computing Methods and the Phase Problem in X-Ray Crystal Analysis. Report of a Conference Held at The Pennsylvania State College, April 6–8, 1950, State College Pennsylvania, 1952, S. 183, Abb. 7 und S. 234, Abb. 72. © State College Pennsylvania. 7a–b: E. Francoeur: History of Visualization of Biological Macromolecules. On-line Museum. Early Interactive Molecular Graphics at MIT, Abb. 1 und 2, http://www.umass.edu/molvis/francoeur/levinthal/lev-index. html (Stand: 10/2016). Mit freundlicher Genehmigung von Martin Zwick. Bock von Wülfingen: 1–2: Oscar Hertwig: Beiträge zur Kenntniss der Bildung, Befruchtung und Theilung des thierischen Eies. In: Morphologisches Jahrbuch, 1876 (1875), Heft I, Anhang, Tafel 11; Bild 7, Tafel 12, Bilder 16, 18; Tafel 13, Bilder 21, 22 und 26. Dippel, Mairhofer: 1: Thomas Juffmann u. a.: Real-time single-molecule imaging of quantum interference. In: Nature Nanotechnology, 2012, Heft 7, S. 297–300. 2: Gregorio Bernardi, Matthew Herdon: Standard model Higgs boson searches through the 125 GeV boson discovery. In: Rev. Mod. Phys. 86, 2014, Nr. 2, 479, arXiv:1210.0021 [hep-ex], S. 19. 3: https://atlas.web.cern.ch/Atlas/GROUPS/PHYSICS/CONFNOTES/
Bildnachweis
107
ATLAS-CONF-2015-031/fig_03a.pdf (Stand: 06/2015). 4: https://atlas.web.cern.ch/Atlas/GROUPS/ PHYSICS/PAPERS/HIGG-2013-12/fig_06a.pdf (Stand: 06/2015). 5: https://cds.cern.ch/record/1459462/ files/eemm_run195099_evt137440354_ispy_3d-annotated-2.png?subformat=icon-640 (Stand: 06/2015). 6: Sandra Eibenberger u. a.: Matter-wave interference of particles selected from a molecular library with masses exceeding 10 000 amu. In: Phys. Chem. Chem. Phys., 2013, Heft 15, S. 14699. Orland: 1: Alfred Donné, J.-B. Léon Foucault: Cours de Microscopie, 1844, Tafel 2, Abb. 5–8. Wellcome Images. 2: Alfred Donné: Mothers and Infants, Nurses and Nursing, Boston 1859, Plate 1. Kesting: 1: Andreas Reisen: Der Passexpedient. Geschichte der Reisepässe, Baden-Baden 2012, S. 97, Abb. 65. 2–3: https://deweyhagborg.wordpress.com/2013/06/30/technical-details/ (Stand: 08/2015). 4: Parabon Nanolabs, https://snapshot.parabon-nanolabs.com (Stand: 08/2015). Kunze: 1: Civiltà del Seicento a Napoli, Silvia Cassani (Hg.), Museo di Campodimonte, 24.10.1984– 14.4.1985, Neapel 1984, S. 410. 2: Larry Silver, Pieter Bruegel, Paris 2011, S. 384, Nr. 312. Bildtableau I: 1: Michael F. Schönitzer / CC BY-S. 4.0 / https://commons.wikimedia.org/wiki/ File:Nebelkammer-LMU-2.jpg?uselang=de (Stand: 08/2016). 2: Pcharito / CC BY-S. 3.0 / https://commons. wikimedia.org/wiki/File:Test8.png (Stand: 08/2016). 3: © Greg Dahlmann. 4: The Kheel Center for LaborManagement Documentation and Archives, Cornell University. 5: © King’s College London. 6: Foto: Michael Hart. 7: Étienne-Jules Marey: Le vol des oiseaux, Paris 1890, S. 140, Abb. 72. 8: Courtesy NASA. 9: Courtesy NASA, ESA, M. J. Jee and H. Ford (Johns Hopkins University). 10: Allan McLane Hamilton, Lawrence Godkin: A System of Legal Medicine, Bd. 1, New York 1894, S. 145. 11: Søren Furbo, University of Copenhagen, Faculty of Science, Department of Plant and Environmental Sciences, Research Center of Advanced Analytical Chemistry (RAACE), [email protected]. 12: © Foto: Erhard Metz, © Frankfurter Kunstverein, Courtesy Galleria Continua and Galerie Rolando Anselmi. 13: Aquegg~commonswiki / Public Domain / https://commons.wikimedia.org/wiki/File:Spectrogram-19thC.png (Stand: 08/2016). 14: Oszalał / CC BY-S. 3.0 / https://commons.wikimedia.org/wiki/File:Firmas_de_Rembrandt.jpg (Stand: 08/2016). 15: Foto: Frank Pichler. 16: © 2006 IEEE. Reprinted, with permission, from Jackson, D. E., Ratnieks, F. L.W.: Communication in ants, in: Current Biology, Volume 16, Issue 15, S. 572, Abb. 2. 17: Courtesy Genome Research Limited. 18: Bild: Gabriela Barreto Lemos, Victoria Borish. Design: Patricia Enigl. © Austrian Academy of Sciences. 19: Foto: Howard Lynk, www.victorianmicroscopeslides.com. 20: © Ipsotek. 21: © Uncharted Software Inc. 2016. GeoTime® is a registered trademark of Uncharted Software Inc. Bildtableau II: 1: Courtesy MIT Museum. 2: LABEC, INFN’s Laboratory for Cultural Heritage and Environment, Florence. 3: Arthur Conan Doyle: The Adventure of the Naval Treaty. In: The Strand Magazine, Jg. VI, 1983, S. 393. 4: VladiMens / Public Domain / https://upload.wikimedia.org/wikipedia/ commons/a/ae/Piltdown_gang_%28dark%29.jpg?uselang=de (Stand: 08/2016). 5: © Paul Tafforeau, http://paleo.esrf.eu. 6: Institut für Rechtsmedizin der Universität Bern. 7: Foto: Filippo Armellin. Courtesy: the artist, Giò Marconi, Milan. 8: University of Glasgow Archive Services, University collection, GB 248 GUA FM/2A/25/249. 9: © Landesamt für Denkmalpflege und Archäologie – Landesmuseum für Vorgeschichte/MotionWorks GmbH/Investitions- und Marketinggesellschaft Sachsen-Anhalt mbH. 10: JdSteakley / Public Domain / https://commons.wikimedia.org/wiki/File:St_Helena_finding_the_true_ cross.jpg (Stand: 08/2016). 11: © Domarchiv Aachen. Foto: Pit Siebigs. 12: Staatliche Antikensammlungen und Glyptothek München, fotografiert von Renate Kühling. 13: © Archives de la Préfecture de Police. Tous droits réservés. 14: Georges Cuvier: Essay on the Theory of the Earth, Edinburgh 1827. 15: Wellcome Library, London / CC BY 4.0. 16: © George O. Poinar, Jr. 17: Foto: Maja Benz. 18: Horst Cramer, Manfred Koob (Hg.): Cluny. Architektur als Vision, Heidelberg 1993, S. 62. 19: ICONEM/DGAM. 20: © Archives de la Préfecture de Police. Tous droits réservés. 21: Museum Folkwang Essen – ARTOTHEK. 22: © Foto: Hwa Ja Götz – Museum für Naturkunde. 23: © Institut catholique de Paris, Bibliothèque de Fels. 24: Buffalo Police Department, Annual Report 1973, 1974, S. 39. 25: Courtesy of the State Museum of Pennsylvania, Pennsylvania Historical and Museum Commission.
1
2
4
5
3
6
7 8
10
11
9
12
13
1: Vergraben einer Zeitkapsel, MIT, 1957. 2: Set-Up der Analyse von Antonello da Messinas „Ritratto Trivulzio“ (hier als Kopie) mithilfe von PIXE (partikel-induzierte Röntgenemission), Florenz 2007. 3: Sidney E. Paget: Holmes was working hard over a chemical investigation. 4: John Cooke: Untersuchung des (gefälschten) Piltdown-Schädels in der Geological Society of London, Ölmalerei, 1915. 5: Mikrotomografische Daten von fossilen Überresten des Homo Sapiens, ESRF (European Synchrotron Radiation Facility), Grenoble 2011. 6: Computergestützte Rekonstruktion einer Biss-Spur, 2003. 7: Simon Fujiwara: Phallusies (An Arabian Mystery), 08.04.–21.05.2011, Ausstellungsansicht, Giò Marconi, Milan. 8: Zur Identifikation überlagerte Fotografien von Mrs. Ruxton und Schädel Nr. 2, 1935. 9: Rekonstruktion des Kopfes Martin Luthers auf Basis der Hallenser Totenmaske, überlieferten Lutherbildnissen und gerichtsmedizinischer Forschung, 3D-Animationskurzfilm, Videostill (Detail), 2016. 10: Auffindung des Kreuzes durch Helena, MS CLXV, Biblioteca Capitolare di Vercelli, um 825. 11: Armreliquiar mit Knochen Karls des Großen. 12: Hand des Mörders
14
15
16
17
18
20
23
21
24
19
22
25
Jean-Baptiste Troppmann, Wachsmoulage, 1870. 13: Farbspuren am Mund eines Caligula-Fragments, Ny Carlsberg Glyptotek. 14: Frontispiz der engl. Ausgabe von Georges Cuviers „Théorie de la terre“, 1827, Detail. 15: George Baxter (Druck): Dinosaurierskulpturen vor dem Crystal Palace, London 1864, Farbdruck, 10,9 × 16 cm. 16: Toxorhynchites in Bernstein aus der Sammlung George Poinars. 17: „Im Fadenkreuz – 40 Jahre Tatort“ – Ausstellung im Filmmuseum Düsseldorf, Koffer der Spurensicherung der Kripo Düsseldorf. 18: Gérard Régnier: ehemalige Umrisse der Abtei Cluny, sichtbargemacht durch weiße Tücher, 1986. 19: Triumphbogen von Palmyra, Schema der Simulation der Explosionsdynamik. 20: Alphonse Bertillon: Affaire de Colombes, perspektometrische Einrahmung, 1909. 21: Giorgio Sommer: Pompei, Impronte, Fotografie, Albumindruck, um 1875. 22: Abgussherstellung für ein Gebissteil von T. rex Tristan. 23: Turiner Grabtuch (Detail der Hände mit vermeintlichem Blutfleck). 24: Detective Division. Evidence collection unit, 1974. 25: Linneaus Duncan sculpting figurines for the Schultz Site Diorama, 1931.
Autorinnen und Autoren
Kathrin Mira Amelung, M. A. AG Morphologie und Formengeschichte, DFG-Exzellenzcluster Bild Wissen Gestaltung, Humboldt-Universität zu Berlin PD Dr. Bettina Bock von Wülfingen DFG-Exzellenzcluster Bild Wissen Gestaltung und Institut für Kulturwissenschaft, Humboldt-Universität zu Berlin Prof. Dr. Soraya de Chadarevian UCLA Department of History and Institute for Society and Genetics, University of California, Los Angeles Dr. Anne Dippel Lehrstuhl für Volkskunde, Philosophische Fakultät, Universität Jena und AG Experimentalsysteme, DFG-Exzellenzcluster Bild Wissen Gestaltung, Humboldt-Universität zu Berlin Dr. des. Kathrin Friedrich DFG-Exzellenzcluster Bild Wissen Gestaltung, Humboldt-Universität zu Berlin Dr. Günther Jirikowski DFG-Exzellenzcluster Bild Wissen Gestaltung, Humboldt-Universität zu Berlin und Zentrum für Logik, Wissenschaftstheorie und Wissenschaftsgeschichte ZLWWG, Universität Rostock Prof. Dr. Marietta Kesting cx centrum für interdisziplinäre studien, Akademie der bildenden Künste München Sophia Kunze, M. A. DFG-Exzellenzcluster Bild Wissen Gestaltung, Humboldt-Universität zu Berlin Dr. Lukas Mairhofer Institut für Quantenoptik, Quantennanophysik und Quanteninformation, Universität Wien Prof. Dr. John A. Nyakatura AG Morphologie und Formengeschichte, DFG-Exzellenzcluster Bild Wissen Gestaltung und Institut für Biologie, Humboldt-Universität zu Berlin PD Dr. Barbara Orland Pharmazie-Historisches Museum, Universität Basel Dr. Stefanie Reichelt Light Microscopy Core, Cancer Research UK Cambridge Institute, Li Ka Shing Centre, Cambridge, UK PD Dr. Thomas Stach AG Elektronenmikroskopie, Institut für Biologie, Humboldt-Universität zu Berlin Prof. Dieter G. Weiss Zentrum für Logik, Wissenschaftstheorie und Wissenschaftsgeschichte ZLWWG, Universität Rostock
Die Publikation wird ermöglicht durch den Exzellenzcluster Bild Wissen Gestaltung. Ein Interdisziplinäres Labor der Humboldt-Universität zu Berlin (EXC 1027/1) und die finanzielle Unterstützung durch die Deutsche Forschungsgemeinschaft im Rahmen der Exzellenzinitiative.
Redaktion Das Technische Bild Humboldt-Universität zu Berlin, Unter den Linden 6, 10099 Berlin [email protected] Tableaus Annekathrin Heichler, Simon Lindner und Anna Nostheide Lektorat Rainer Hörmann Layout und Umschlag Andreas Eberlein, Berlin Satz Annekathrin Heichler, Anna Nostheide, Henrik Utermöhle und aroma, Berlin Druck und Bindung: DZA Druckerei zu Altenburg GmbH, Altenburg ISBN 978-3-11-047650-7 e-ISBN (PDF) 978-3-11-047838-9 e-ISBN (EPUB) 978-3-11-047661-3 © 2017 Walter De Gruyter GmbH Berlin/Boston www.degruyter.com Das Werk einschließlich aller Abbildungen ist urheberrechtlich geschützt. Jede Verwertung außerhalb der Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Bearbeitung in elektronischen Systemen.