Datenbilder: Zur digitalen Bildpraxis in den Naturwissenschaften [1. Aufl.] 9783839410417

Digitale Bilder erschüttern Gewissheiten über »das Bild«. Ihre Referenzlosigkeit, Flüchtigkeit und Prozesshaftigkeit wer

197 63 4MB

German Pages 224 Year 2015

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
Inhalt
Dank
Einleitung: Datenbilder und Bildpraxen
I. Fallstudien
I.1 Orbits. Visuelle Modellierungen der Marsoberlläche am Deutschen Zentrum für Luft- und Raumfahrt
I.2 Runs. Computersimulationen des Unsichtbaren am Max-Planck-Institut für Astrophysik
I.3 Formen, Funktionen und Praxen von Wissenschaftsbildern. Ein systematischer Blick auf die Reportagen
II. Interpretationen
II.1 BilderWissen. Bild- und wissenschaftstheoretische Überlegungen
II.2 Implizite Bild- und Medientheorien. Reflexionen beim Verfertigen naturwissenschaftlicher Visualisierungen
II.3 Referenzverluste - Referenzgewinne
II.4 Epistemologie des Schattens
Literatur
Abbildungsverzeichnis
Recommend Papers

Datenbilder: Zur digitalen Bildpraxis in den Naturwissenschaften [1. Aufl.]
 9783839410417

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Ralf Adelmann, Jan Frercks, Martina Heßler, Jochen Hennig Datenbilder

2009-05-14 13-38-06 --- Projekt: transcript.titeleien / Dokument: FAX ID 02e9210201626062|(S.

1

) T00_01 schmutztitel - 1041.p 210201626070

Ralf Adelmann (Dr.) ist Mitarbeiter am Institut für Medienwissenschaften der Universität Paderborn. Jan Frercks (Dr.) forscht an der Hochschule für Gestaltung, Offenbach am Main, zu Bildern in der Wissenschaft. Martina Heßler (Prof. Dr.) lehrt Kultur- und Technikgeschichte an der Hochschule für Gestaltung, Offenbach am Main. Jochen Hennig (Dr. des.) ist Kurator für Wissenschaftsausstellungen an der Humboldt-Universität zu Berlin.

2009-05-14 13-38-06 --- Projekt: transcript.titeleien / Dokument: FAX ID 02e9210201626062|(S.

2

) T00_02 seite 2 - 1041.p 210201626094

Ralf Adelmann, Jan Frercks, Martina Hessler, Jochen Hennig

Datenbilder Zur digitalen Bildpraxis in den Naturwissenschaften

2009-05-14 13-38-06 --- Projekt: transcript.titeleien / Dokument: FAX ID 02e9210201626062|(S.

3

) T00_03 titel - 1041.p 210201626102

Wir danken dem Bundesministerium für Bildung und Forschung für finanzielle Unterstützung.

Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.

© 2009 transcript Verlag, Bielefeld Die Verwertung der Texte und Bilder ist ohne Zustimmung des Verlages urheberrechtswidrig und strafbar. Das gilt auch für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und für die Verarbeitung mit elektronischen Systemen. Umschlaggestaltung: Kordula Röckenhaus, Bielefeld Umschlagabbildung: © ESA, DLR, FU Berlin (G. Neukum) Lektorat: Ralf Adelmann, Jan Frercks, Martina Heßler, Jochen Hennig Satz: Steffen Reiter Druck: Majuskel Medienproduktion GmbH, Wetzlar ISBN 978-3-8376-1041-3 Gedruckt auf alterungsbeständigem Papier mit chlorfrei gebleichtem Zellstoff. Besuchen Sie uns im Internet: http://www.transcript-verlag.de Bitte fordern Sie unser Gesamtverzeichnis und andere Broschüren an unter: [email protected]

2009-05-14 13-38-06 --- Projekt: transcript.titeleien / Dokument: FAX ID 02e9210201626062|(S.

4

) T00_04 impressum - 1041.p 210201626110

Inhalt Dank Einleitung: Datenbilder und Bildpraxen.

7 10

I. Fallstudien I.1 Orbits.  9LVXHOOH0RGHOOLHUXQJHQGHU0DUVREHUÀlFKHDP'HXWVFKHQ  =HQWUXPIU/XIWXQG5DXPIDKUW (R ALF A DELMANN)

23

, 5XQV.  &RPSXWHUVLPXODWLRQHQGHV8QVLFKWEDUHQDP  0D[3ODQFN,QVWLWXWIU$VWURSK\VLN (JAN FRERCKS)

65

, )RUPHQ)XQNWLRQHQXQG3UD[HQYRQ:LVVHQVFKDIWVELOGHUQ.  (LQV\VWHPDWLVFKHU%OLFNDXIGLH5HSRUWDJHQ (JAN FRERCKS)

122

II. Interpretationen ,,%LOGHU:LVVHQ.  %LOGXQGZLVVHQVFKDIWVWKHRUHWLVFKHhEHUOHJXQJHQ (M ARTINA HESSLER)

133

,,,PSOL]LWH%LOGXQG0HGLHQWKHRULHQ.  5HÀH[LRQHQEHLP9HUIHUWLJHQQDWXUZLVVHQVFKDIWOLFKHU Visualisierungen (R ALF A DELMANN)

162

,,5HIHUHQ]YHUOXVWH±5HIHUHQ]JHZLQQH (JAN FRERCKS)

179

,,(SLVWHPRORJLHGHV6FKDWWHQV (JOCHEN HENNIG)

195

/LWHUDWXU

208

$EELOGXQJVYHU]HLFKQLV







217

Dank Dieses Buch entstand im Rahmen des vom Bundesministerium für Bildung und Forschung geförderten Projekts »Visualisierungen in der Wissenskommunikation. Analysen zur Frage einer ›digitalen Zäsur‹ und ihrer Konsequenzen für den Forschungsprozess und die Kommunikation in der Öffentlichkeit«. Ziel des Projekts war es, die Bedeutung und Funktionen von Visualisierungen in der Forschungspraxis, der innerwissenschaftlichen Kommunikation sowie der Kommunikation mit der Öffentlichkeit zu untersuchen. Ausgangspunkt der Überlegungen war der mittlerweile unbestrittene Befund, dass Naturwissenschaften keine ausschließlich logisch-diskursiven Disziplinen sind, sondern dass sich ihre Forschung wesentlich in Bildern vollzieht. Zentrales Anliegen war es, Bilder als Instrumente der Erkenntnis, als Wissensproduzenten und als Wissensspeicher ernst zu nehmen. Das Projekt widmete sich daher sowohl der /RJLN GHU %LOGHU DOVR LKUHU VSH]L¿VFKHQ :HLVH 6LQQ ]X HU]HXJHQ DOV auch der Untersuchung der wissenschaftlichen Praxis der Bildherstellung XQG YHUZHQGXQJ (LQ EHVRQGHUHU 6FKZHUSXQNW ODJ GDEHL DXI GLJLWDOHQ Bildern, die derzeit sowohl innerhalb der Naturwissenschaften als auch in der kulturwissenschaftlichen Bild- und Wissenschaftsforschung eine zentrale Herausforderung darstellen. Entsprechend stehen im Folgenden »Datenbilder« im Mittelpunkt. Im Rahmen des Projekts wurden zwei Fallstudien bearbeitet: die Astronomie, deren Untersuchungsgegenstände VLFKKlX¿JZHLWDX‰HUKDOEXQVHUHU6LFKWZHLWHEH¿QGHQRGHUGLHSHUVHXQsichtbar sind, und die Nanotechnologie, in der die Untersuchungsgegenstände im Labor geformt und zur bildgebenden Untersuchung präpariert werden und die ebenso unsichtbar sind wie viele Forschungsobjekte der Astronomie (zur Nanotechnologie vgl. Hennig 2009). Dieses Buch handelt von den Bildpraxen der Astronomie. Ohne die Möglichkeit, in den besuchten Forschungsinstituten die alltäglichen Bildpraxen zu beobachten und Interviews zu führen, wäre dieses Buch nicht P|JOLFK8QVHUEHVRQGHUHU'DQNJLOWGHVKDOEGHP+56&7HDPDP'HXW-

8 | D ATENBILDER schen Zentrum für Luft- und Raumfahrt in Berlin-Adlershof und dem Max-Planck-Institut für Astrophysik in Garching bei München. Alle Forscherinnen und Forscher haben unsere Präsenz an ihren Arbeitsplätzen mit ebenso großer Geduld ertragen wie unser stetes Nachfragen während GHV6FKUHLEHQVGLHVHV%XFKHV$X‰HUGHPEHGDQNHQZLUXQVIUGLHJUR‰zügigen Genehmigungen, veröffentlichtes und unveröffentlichtes Bildmaterial in diesem Buch verwenden zu dürfen. 'DV)RUVFKXQJVSURMHNWZDU7HLOHLQHULP+HUEVWYRP%XQGHVPLQLsterium für Bildung und Forschung gestarteten Förderinitiative »Wissen für Entscheidungsprozesse – Forschung zum Verhältnis von Wissenschaft, Politik und Gesellschaft«. Dieser Forschungsverband bestand aus zwölf Projekten. Dementsprechend möchten wir den Forscherinnen und Forschern der anderen Projekte in diesem Verbund danken, die vor allem DXIGHQMlKUOLFKHQ&OXVWHUWUHIIHQPLW.ULWLNXQG$QUHJXQJHQXQVHUH$Ubeit produktiv kommentierten. Darüber hinaus möchten wir Dr. Gabriele *UDPHOVEHUJHUGDQNHQGHUHQ)RUVFKXQJHQ]XU&RPSXWHUVLPXODWLRQVWHWV inspirierend für unsere eigenen Arbeiten wirkten. Dr. Peter Krause und 'U7RUJHU0OOHUGLHGDV3URMHNWVHLWHQVGHU%HUOLQ%UDQGHQEXUJLVFKHQ Akademie der Wissenschaften betreuten, halfen uns nicht nur in organisatorischen Dingen, sondern kommentierten und kritisierten unsere vorOlX¿JHQ(UJHEQLVVHLQHQJDJLHUWHUXQGKLOIUHLFKHU:HLVHOLHIHUWHQPDQnigfache Hinweise auf Literatur, Kongresse und ähnliche ForschungskonWH[WH9RUDOOHPKDEHQZLUXQVEHLGHU6WHXHUXQJVJUXSSHGHV)RUVFKXQJVverbundes zu bedanken für die Förderung des Projekts sowie stete Kritik und aufmerksame Begleitung unseres Projekts. In besonderer Weise gilt XQVHU'DQN3URI'U6\ELOOH.UlPHU3URI'U5HQDWH0D\QW]3URI'U )ULHGKHOP1HLGKDUWXQG3URI'U8OULFK:HQJHQURWK6LHEUDFKWHQXQserer Arbeit ein Interesse und eine Aufmerksamkeit entgegen, die weit EHUGDVEOLFKH0D‰GHU$XIJDEHQHLQHU6WHXHUXQJVJUXSSHKLQDXVJLQJ Wir verdanken ihnen wichtige Anregungen, Richtungsentscheidungen, konstruktive Kritik und Motivation. Dafür sei herzlich gedankt. Dr. MoQLND:lFKWHUXQWHUVWW]WHXQVHU3URMHNWMHGHU]HLWYRQ6HLWHQGHV3URMHNWträgers. Ein Buch entsteht des Weiteren nicht ohne kritische Korrekturleser. 'LH.RPPHQWDUHYRQ5ROI)1RKU0DUWLQ3DQXVFK&KULVWLDQ5HL‰)DON 5LH‰ XQG &KULVWLDQ 6LFKDX ]X HLQ]HOQHQ .DSLWHOQ GLHVHV %XFKHV ZDUHQ äußerst hilfreich. Zudem möchten wir Dieter Mersch danken, der nicht nur einzelne Kapitel dieses Buches las, sondern mit seiner Involvierung in unser Forschungsprojekt zahlreiche und wichtige Anstöße gab. Ein Buch entsteht allerdings auch nicht ohne studentische Hilfskräfte, GLHGDV%XFKJHZLVVHUPD‰HQªLQ)RUP©EULQJHQ+LHUP|FKWHQZLU6R-

D ANK | 9

SKLH(KUPDQQWUDXW 8QLYHUVLWlW3RWVGDP XQG6WHIIHQ5HLWHU +RFKVFKXOH für Gestaltung Offenbach) danken.

R ALF A DELMANN, JAN FRERCKS, MARTINA HESSLER UND JOCHEN HENNIG

Datenbilder und Bildpraxen

Erster Blick auf bunte Bilder Das Cover dieses Buches zeigt eine Marslandschaft. Zu sehen ist ein Canyon, Ophir Chasma, ein nördliches Nachbartal zum größten Grabensystem auf dem Mars, dem Vallis Marineris. Das Bild wurde aus den Daten der Marskamera HRSC auf dem Orbiter Mars Express gerechnet. Es handelt sich um einen Ausschnitt aus einer 3D-Visualisierung. Durch die bräunlich-rötliche Farbe, die scheinbaren Verkarstungen am Boden, die schluchtartigen Verwerfungen im Bildvordergrund und die Erhebung im Bildhintergrund, vor allem aber durch die perspektivische Ansicht wird GLH 0DUVREHUÀlFKH ]X HLQHU /DQGVFKDIW ZLH VLH XQVHUHQ 6HKJHZRKQheiten entspricht. Allerdings nimmt die Marskamera – wie Erdsatelliten – die MarsoberÀlFKHYRQREHQDXIVRGDVVVLFKSHUVHNHLQH3HUVSHNWLYHZLHVLHKLHU]X sehen ist, ergibt. Das Ziel der Aufnahme ist eine Erfassung des Raums LQ HLQHP KRPRJHQHQ 0D‰VWDE ZLH EHL HLQHU /DQGNDUWH GLH NHLQH %HREDFKWHUSRVLWLRQ LPSOL]LHUW ,P *HJHQVDW] GD]X YHU]HUUW GLH /DQGschaftsdarstellung, wie sie auf dem Cover zu sehen ist, die Maßstäbe. Die Strukturen im Bildvordergrund werden größer abgebildet als das ansteigende Gelände im Bildhintergrund. Je nach gewähltem BeobachtungsSXQNWKDWHLQH/DQGVFKDIWLPPHUYHUGHFNWH5lXPHZlKUHQGGLH.DUWH einen totalen Blick auf den Raum konstruiert. Die bräunlich-rötlichen Töne des Bildes beruhen auf Falschfarben, die eine Annäherung an die Farben des Mars, aber auch an die Farben anderer Marsbilder darstellen. Die Schatten an den Hängen schließlich resultieren aus dem Einrechnen einer künstlichen Beleuchtung. Das Coverbild illustriert das Anliegen dieses Buches. Wir sehen eine /DQGVFKDIWGLHDXV'DWHQJHVWDOWHWZXUGHREJOHLFKZHGHUGLH'DWHQQRFK

D ATENBILDER

UND

B ILDPRA XEN | 11

GLH.DPHUDDXIQDKPHGLHVXQPLWWHOEDUQDKHOHJHQ(VLVWPLWKLQGLH(QWVFKHLGXQJ GHU %LOGSURGX]HQWHQ XQV GLH 0DUVREHUÀlFKH DOV HLQH /DQGschaft zu zeigen, wie sie unseren Erwartungen entspricht. /DQGVFKDIWHQVLQGLPPHUPLWHLQHUbVWKHWLVLHUXQJYHUEXQGHQQLFKW zuletzt aufgrund ihrer kulturgeschichtlichen Verbreitung als Genre der Malerei. Gleichzeitig sind sie ein subjektiver Blick auf das Gelände. /DQGVFKDIWHQVLQGKLVWRULVFKXQPLWWHOEDUPLWGHP$XIVWLHJGHV%UJHUtums und seiner Ideale von Freiheit und Individualität verbunden. Eine weitere westliche Traditionslinie ergibt sich aus ihrer Funktion fürs MiOLWlU'LHª6FK|QKHLW©GHU/DQGVFKDIWEHJUQGHWVLFKDXFKLQGHUPLOLWlrischen Nutzung eines Terrains als Deckung, Hinterhalt, VerteidigungsliQLHQXVZ YJO/DFRVWHII 3HUVSHNWLYDQVLFKWHQHU]HXJHQ]XGHP Faszination: »[…] erst in farbigen Luftaufnahmen aus der Schrägsicht erreicht die Landschaftsästhetik ihre beeindruckendsten Harmonien und ihre grandiosesten Verfremdungseffekte. Die Landschaft, wie sie sich aus der Schrägsicht aus mehreren hundert Metern Höhe darbietet, ist nur noch Ordnung und Schönheit« (Lacoste 1990: 87).

'DV %LOG GHU 0DUVREHUÀlFKH VFKOLH‰W RIIHQVLFKWOLFK DQ 7UDGLWLRQHQ XQG .RQYHQWLRQHQ GHU /DQGVFKDIWVGDUVWHOOXQJ DQ $XV GHU 3HUVSHNWLYH GHU Wissenschaftsforschung ist das auf dem Cover gezeigte Bild allerdings noch in anderer Hinsicht interessant. Denn der gewählte Ausschnitt auf dem Cover suggeriert den Übergang des vordergründigen Flachlandes in ein Gebirge am Horizont vor dem Schwarz des Universums. Betrachtet man allerdings das vollständige Bild, aus dem der Ausschnitt entnomPHQLVW $EE VRVLHKWPDQGDV6FKZDU]DXFKDP(QGHGHV7DOV±XQG GLHV ZLUNW HKHU ZLH HLQH XQQDWUOLFKH .DQWH XQG ZHQLJHU ZLH GDV WLHIH Schwarz des Alls. Die Erklärung für das Schwarz ist tatsächlich nicht allein die ästhetische Entscheidung der Bildproduzenten, uns den Horizont als schwarzes Universum zu zeigen. Vielmehr enden hier schlichtZHJGLH'DWHQVRGDVVNHLQH,QIRUPDWLRQHQH[LVWLHUHQZLHVLFKGLH/DQGVFKDIWIRUWVFKUHLEW,QHLQHU3XEOLNDWLRQIUGLHgIIHQWOLFKNHLWZLUGGLHVHV Schwarz der Datenlosigkeit elegant in die Suggestion des dunklen Universums überführt. $Q GLHVHU YLVXHOOHQ .RQVWUXNWLRQ GHU /DQGVFKDIW LQNOXVLYH GHV VFKZDU]HQª+RUL]RQWV©ODVVHQVLFKGLH.HUQIUDJHQXQGGDV=LHOXQVHUHV %XFKHVHQWZLFNHOQ.XU]XQGYHUHLQIDFKWJHVDJWVLQGGLH]HQWUDOHQ)UDgen: Was sehen wir eigentlich auf den naturwissenschaftlichen Bildern, GLHXQVYRQ:LVVHQVFKDIW3ROLWLNXQG0HGLHQSUlVHQWLHUWZHUGHQ",QZHOchem Zusammenhang stehen Bilder und die ihnen zu Grunde liegenden

12 | D ATENBILDER

Abb. 1: Orbit 0334 3D-Perspektivbild; © ESA, DLR, FU Berlin (G. Neukum) 'DWHQ":HOFKHlVWKHWLVFKHQ(QWVFKHLGXQJHQZHUGHQEHLGHU3URGXNWLRQ GHU%LOGHUJHWURIIHQ"(LQ.HUQDQOLHJHQGDVLQHQJHP=XVDPPHQKDQJPLW den genannten Fragen steht, ist es, die Herstellungsprozesse solcher Bilder LP'HWDLOQDFK]XYROO]LHKHQ:LHZHUGHQVLHSURGX]LHUWXQGSUR]HVVLHUW" Welche Erkenntnisse gewinnen Wissenschaftler aus der Visualisierung YRQ 'DWHQ" 6LQG %LOGHU HLJHQVWlQGLJH (OHPHQWH LP (UNHQQWQLVSUR]HVV oder wie stellt sich ihr Verhältnis zu anderen, beispielsweise rechnenden 9HUIDKUHQGDU"

Der Blick der Wissenschaftsforschung auf die Bildpraxen der Naturwissenschaftler Die Wissenschaftsforschung weist seit Jahren auf den konstruierten Charakter von Bildern hin und diskutiert, was diese Bilder eigentlich zeigen, LQZLHZHLWVLHVWlUNHUDXIDQGHUH%LOGHUYHUZHLVHQDOVDXI3KlQRPHQHLQ der Realität, oder anders gesagt, inwieweit sie vielmehr Artefakt als Fakt sind. Sie unterstreicht, dass Bilder ihre hochkomplexen technischen, sozialen und auch kulturellen Herstellungsbedingungen nicht mitzeigen, MHGRFKGDV(UJHEQLVNRPSOL]LHUWHU3UR]HVVHXQG%HGLQJXQJHQVLQG:DV ZLULQGHUgIIHQWOLFKNHLWRGHUDXFKLQ)DFK]HLWVFKULIWHQVHKHQLVWGDV(Ugebnis mannigfacher Be- und Überarbeitungen. Es muss am Ende dem HQWVSUHFKHQZDV%UXQR/DWRXUimmutable mobiles nannte. »In sum, you have to invent objects which have the properties of being mobile, but al-

D ATENBILDER

UND

B ILDPRA XEN | 13

so immutable, presentable, readable and combinable with one another« /DWRXU 2GHUZLH0LFKDHO+DJQHUIRUPXOLHUWH »Experimentelle Befunde […] und Objekte […] dürfen auf ihrem Weg zu öffentlich präsentablen Ergebnissen und Erkenntnissen nicht verschwinden, auch wenn die Dinge selbst nicht anwesend sind. Die Neurophysiologie bringt auf den Kongress nicht die feuernden Nervenzellen, sondern Diagramme und Tabellen, auf denen die Aktivität jener Zellen verzeichnet ist« (Hagner 1997: 340).

:LVVHQVFKDIWOHUEULQJHQDXI.RQJUHVVHXQGLQ7HDPPHHWLQJVYRUDOOHP YLHOH%LOGHUPLWRGHUVLHSUlVHQWLHUHQVLHLQGHUgIIHQWOLFKNHLW'LHVH%LOder, die zu einem bestimmten Zeitpunkt zu immutable mobiles werden, sind »Umwandlungen von spärlichen oder disparaten Zeichen in ein über]HXJHQGHVXQGZLVVHQVFKDIWVIlKLJHV%LOG© +DJQHUI  Genau auf diese Umwandlungsprozesse richtet sich das Interesse dieses Buches. Um diese Endprodukte in ihrer epistemischen Funktion und ihrem epistemischen Gehalt zu verstehen, ist es nicht ausreichend, nur die fertigen Endprodukte zu betrachten oder zu beschreiben; Es reicht JHQDXVR ZHQLJ DXV VLH LQ GLH MHZHLOLJH ]HLWJHQ|VVLVFKH YLVXHOOH .XOWXU einzuordnen oder sie einer Formanalyse zu unterziehen, auch wenn dies JOHLFKIDOOVZLFKWLJH3HUVSHNWLYHQHLQHUELOGRULHQWLHUWHQ:LVVHQVFKDIWVIRUVFKXQJVHLQPVVHQ.HUQJHGDQNHGHU$XVIKUXQJHQLQGLHVHP%XFKLVW vielmehr – auf einen Satz gebracht –, dass der Herstellungsprozess Teil GHV3URGXNWVLVWRKQHGHVVHQ%HWUDFKWXQJGLH%LOGHUQLFKW]XYHUVWHKHQ VLQG,QGLHVHP%XFKVROOGHUNRPSOL]LHUWH3UR]HVVGHU%LOGSURGXNWLRQPLW der genauen Beobachtung und der dichten Beschreibung der Bildpraxen in der Marsforschung und der theoretischen Astrophysik anschaulich und nachvollziehbar werden. Somit soll ein Beitrag zur Entzauberung spektakulärer Wissenschaftsbilder, wie sie gerade die Astronomie massenweise hervorbringt, geleistet werden. Die Rede von »den Bildern im Forschungsprozess« bedarf allerdings der Differenzierung. Es ist unabdingbar, in dreifacher Hinsicht Unterscheidungen zu treffen. Zum ersten ist die Vielfalt der visuellen DarstelOXQJVIRUPDWH HUKHEOLFK )U 3KRWRJUDSKLHQ $QLPDWLRQHQ &RPSXWHUbilder, Zeichnungen, Diagramme, Tabellen usw. stellt sich die Frage, ob es sich überhaupt jeweils um Bilder handelt, in jedem Fall unterscheidet VLFK GLH /RJLN GLHVHU )RUPDWH KLQVLFKWOLFK GHU :LVVHQVSURGXNWLRQ YJO 0HUVFK+H‰OHU  Zum zweiten sind die Funktionen dieser Bilder oder Visualisierungen LP )RUVFKXQJVSUR]HVV YLHOIlOWLJ 6LH GLIIHULHUHQ MH QDFK 3KDVH GHV )RUschungsprozesses und entsprechend der Forschungsfrage. Mal sind sie

14 | D ATENBILDER KHXULVWLVFKHV,QVWUXPHQWGHU6XFKHQDFK3KlQRPHQHQRGHUJDUQDFK)UDgestellungen, mal sind sie Werkzeug, mal bündeln sie Ergebnisse »auf einen Blick«, mal sind sie Teil eines visuellen Denkprozesses. Und zum dritten gilt es, die Bildpraxen verschiedener Disziplinen und Forschungsfelder, zu unterscheiden. In der Medizin spielen Bilder für Diagnose und Forschung eine kaum bestrittene Rolle, in der Hirnforschung erfahren sie einen Hype, geraten jedoch hinsichtlich ihres (UNHQQWQLVSRWHQWLDOVLPPHUZLHGHULQGLH.ULWLN,QGHUELOGHUORVHQ0Dthematik wird der Chaostheorie zugesprochen, Bilder in die Mathematik zurückgebracht zu haben. Die Astronomie galt dagegen immer als eine »Bildwissenschaft«. Sie würde, wie Hentschel und Wittmann betonten, ohne nonverbale Repräsentationen nicht existieren (Hentschel/Wittmann  

Der Blick auf die Astronomie Die Astronomie ist von jeher eine beobachtende Wissenschaft. Bilder spielen in ihr daher eine bedeutende Rolle, angefangen von den ZeichQXQJHQGLHZlKUHQGHLQHU%HREDFKWXQJSHU$XJHRGHUVHLWGHP-DKUKXQGHUW PLW GHP 7HOHVNRS JHPDFKW ZXUGHQ EHU GLH 3KRWRJUDSKLH GLH LQGHU$VWURQRPLHVHLWGHP-DKUKXQGHUWHLQJHVHW]WZXUGHELVKLQ]X den heutigen »Datenbildern«, die aus Daten hergestellt werden, die von KRFKDXÀ|VHQGHQ .DPHUDV ]XU (UGH JHIXQNW ZHUGHQ RGHU GHQ 6LPXODtionsbildern, die aufgrund theoretischer Annahmen und hochkomplexer Berechnungen entstehen. Die Astronomie erfährt ein öffentliches Interesse, wie es nur wenigen Naturwissenschaften zuteil wird. Sie ist eine Wissenschaft, in der Bilder sowohl die Rätselhaftigkeit und Mystizität ihrer Untersuchungsobjekte unterstreichen als auch ihr abstraktes Theoriegebäude stützen oder illustrieren sollen. Astronomen präsentieren Bilder von Sternen, Gala[LHQ.RPHWHQXQGDQGHUHQNRVPLVFKHQ3KlQRPHQHQDOV:HUN]HXJHGHU (UNHQQWQLV DOV %HOHJ RGHU DXFK ± EHVRQGHUV LQ GHU gIIHQWOLFKNHLW ± DOV Faszinationsobjekt. Die Astronomie wurde hier als Fallstudie ausgewählt, weil sie als eine Bilderwissenschaft gilt und damit die Rolle von Bildern im Forschungsprozess als konstitutiv zu erwarten ist, was die detaillierte Beschreibung ihres Herstellungsprozesses und der Bildpraxen zu einem wichtigen Unterfangen der Wissenschaftsforschung macht. Sie wurde aber auch deshalb gewählt, weil Teile der Astronomie, nämlich die theoretische Astrophysik, Bildern eine besondere Bedeutung im Forschungsprozess abspricht. »Eigentlich gibt es hier nicht viel zu sehen«, war dann auch GHUHUVWH+LQZHLVEHLGHU.RQWDNWDXIQDKPHPLWGHP0D[3ODQFN,QVWLWXW

D ATENBILDER

UND

B ILDPRA XEN | 15

für Astrophysik in Garching. Die Entscheidung für die Beobachtung der Marsforschung, einer stark bildbasierten Forschung, und der angeblich nicht visuellen theoretischen Astrophysik, die nicht beobachtet, sondern rechnet, war daher eine bewusste, die es ermöglicht, die unterschiedliche Bedeutung von Bildern im Forschungsprozess innerhalb einer Disziplin zu untersuchen. =XGHP JLEW HV LQ GHU :LVVHQVFKDIWVIRUVFKXQJ HLQH VWDUNH 3ULRULWlW GLH%LOGSURGXNWLRQHQGHU/DERUZLVVHQVFKDIWHQ]XXQWHUVXFKHQKLHUYRU DOOHPGLHGHU%LRORJLHGHU3K\VLNGHU0HGL]LQXQGGHU+LUQIRUVFKXQJ PLWLKUHQGHU]HLWKlX¿JGLVNXWLHUWHQVSHNWDNXOlUHQ%LOGHUQ Die Astronomie, vor allem die zeitgenössische, geriet dagegen kaum LQGHQ%OLFN$XIIlOOLJHUZHLVHZDUHQHV.XQVWKLVWRULNHUGLHVLHSURPLQHQWXQWHUVXFKWHQ=XHUZlKQHQLVWKLHUYRUDOOHPGHU%HLWUDJYRQ/\QFK XQG(GJHUWRQ  GLHQDFKGHQlVWKHWLVFKHQ,PSOLNDWLRQHQGHUDVWURphysikalischen Bildproduktionen fragten, sowie das kürzlich erschienene %XFK YRQ (ONLQV   LQ GHP HV LKP YRU DOOHP XP GLH *UHQ]HQ GHU 5HSUlVHQWDWLRQJHKWXQGLQGHPHUGHU$VWURQRPLHHLQHVYRQVHFKV.DSLteln widmet. Das Ziel unseres Buches ist jedoch weder ein kunsthistorisches noch ein philosophisches. Vielmehr geht es um dreierlei: erstens die dichte BeVFKUHLEXQJGHUGLJLWDOHQ%LOGSUD[HQ]ZHLWHQVXPGLHWKHRUHWLVFKH5HÀH[LRQGLHVHU%LOGSUD[HQXQGGDPLWGULWWHQVXPHLQH9HUELQGXQJYRQ3HUspektiven der Wissenschaftsforschung mit denen der Bildwissenschaft.

Der Blick auf Datenbilder Die Bildpraxen der Wissenschaften wandelten sich, nicht nur in der Astronomie, mit der Digitalisierung erheblich. Mit ihr haben sich sowohl die LQVWUXPHQWHOOHQ 3URGXNWLRQVEHGLQJXQJHQ GHU %LOGHU GXUFK GLH GLJLWDOH %LOGJHQHULHUXQJXQGYHUDUEHLWXQJ DOVDXFKKlX¿JGLH9RUDXVVHW]XQJHQ der Erkenntnisgewinnung (z.B. durch die Nutzung von Bildsoftware, mit deren Hilfe unterschiedliche Darstellungsweisen reversibel aufgerufen ZHUGHQN|QQHQ YHUlQGHUW ,Q GHU $VWURQRPLH ¿QGHW VLFK NDXP QRFK HLQH %HREDFKWXQJ RKQH den Einsatz digitaler Instrumente, und auch unter Amateurastronomen ist deren Nutzung weit verbreitet. In der astrophysikalischen Community selbst gilt die CCD-Technologie (charge-coupled devices DOVUHYROXWLRnärer Bruch, der die Forschung radikal verändert hat. »Astronomy would never be the same. The CCD was beginning to revolutionize astronomiFDOLQVWUXPHQWDWLRQPXFKDVSKRWRJUDSK\GLGQHDUO\\HDUVHDUOLHU© -DQHVLFN  (LQ(IIHNWGHU&&'VZDUGDVVDXIJUXQGLKUHUKRKHQ/LFKWHPS¿QG-

16 | D ATENBILDER OLFKNHLW LKUHU $XÀ|VXQJ XQG NU]HUHU %HOLFKWXQJV]HLWHQ VLFK GLH 3URduktion von Daten in der Astronomie erheblich steigerte. Um dies nur an einem Beispiel zu veranschaulichen: Eine neue amerikanische Mars6RQGHGLHHUVWLP1RYHPEHUPLWGHUZLVVHQVFKDIWOLFKHQ(UNXQGXQJ begann, hatte schon nach drei Monaten mehr Daten zur Erde übertragen DOVMHGHDQGHUH5DXPVRQGH6LHZUGHQ&'520VIOOHQ9RQGHU QHXHQ6RQGHZHUGHQELV]XP(QGHGHUHUVWHQ3KDVHLP-DKULQVJHVDPWPHKUDOV7HUDELWVDQ'DWHQHUZDUWHWGDVHQWVSULFKWPHKUDOV &'520VLQQHUKDOEYRQ]ZHL-DKUHQ$OOHUGLQJVOLHIHUQGLH.DPHUDGHWHNWRUHQ]XQHKPHQGIHKOHUKDIWH3L[HO 'LH(LQIKUXQJGHU&&'VLQGHQHU-DKUHQVWHOOWHGLHDVWURSK\sikalische Forschung damit vor ungekannte Herausforderungen, nämlich die Auswertung der neu entstehenden Datenfülle. Es kam zu einer fundamentalen Diskrepanz zwischen der Datenmenge einerseits und ihrer Interpretation andererseits. Genau hier setzt die zunehmende Bedeutung von Visualisierungen an. In der Regel wird irgendwann aus den Daten immer ein Bild gewonnen, XPVLFKWEDUHRGHUQLFKWVLFKWEDUH3KlQRPHQHDQVFKDXOLFK]XPDFKHQ]X erforschen, zu illustrieren oder zu zeigen. Stellt die Astronomie ohnehin eine Wissenschaft dar, in der visuelle Erkenntnisprozesse einen hohen Stellenwert haben, so hat sich die Bedeutung von Visualisierungen im .RQWH[WGHU'LJLWDOLVLHUXQJQRFKHUKHEOLFKJHVWHLJHUW'LJLWDOH5RKGDWHQ ZHUGHQ]XHLQHU KlX¿JYLVXHOOHUVWHOOWHQXQGSUlVHQWLHUWHQ (UNHQQWQLV Der visuelle Erkenntnisprozess ist dabei ein Zusammenspiel von Bildverarbeitungsprogrammen, die beispielsweise noise KHUDXV¿OWHUQ XQG menschlicher Bearbeitung, von Entscheidungen und Interpretationen der Messdaten, bis schließlich solch kohärente Bilder entstehen, wie wir sie in Zeitschriften, in Zeitungen oder auf dem Cover dieses Buches sehen. 'LHVHU 3UR]HVV LVW DOOHUGLQJV QLFKW QXU YRQ PDQQLJIDFKHQ (QWVFKHLdungen bestimmt, sondern auch von vielerlei Unsicherheiten und Instabilitäten gekennzeichnet. Astrophysiker selbst betonen, dass digitale Bilder Artefakte sind und nicht die ›Realität‹: »Technically, the digital image itself is an artifact, literally, a thing that is contrived, devised, fashioned, or made by a human. Remember this whenever you interpret CCD images: The image is not reality. It is an artifact. And it is full of artifacts. 'R QRW PLVWDNH DQ DUWLIDFW IRU UHDOLW\© %HUU\%XUQHOO    Dies meint nicht, dass die Bilder reine Fiktion wären, aber sie sind eben alles DQGHUHDOV $E ELOGHUDXVGHP.RVPRV'LHJHQDXH)XQNWLRQGHU9LVXalisierungen im Erkenntnisprozess sowie ihren epistemischen Status zu 1 | )$=(LQ5HNRUGDQ'DWHQYRP3ODQHWHQ0DUV0LWWZRFK)HEUXDU 1U61

D ATENBILDER

UND

B ILDPRA XEN | 17

bestimmen, war Ziel der Beobachtungen, die wir am Deutschen Zentrum IU/XIWXQG5DXPIDKUWLQ%HUOLQ$GOHUVKRIXQGDP0D[3ODQFN,QVWLWXW für Astrophysik in Garching bei München vorgenommen haben. Dabei machte die Beobachtung der Bildpraxen in der Marsforschung und der theoretischen Astrophysik das stete Wechselspiel und das selbstverständliche und pragmatische Agieren mit Daten und Bildern überdeutlich. Auffällig war vor allem, dass im Forschungsprozess die Unterscheidung zwischen Daten und Bildern oft nicht gemacht wird. Daher HQWVFKLHGHQ ZLU 5DOI $GHOPDQQ XQG -DQ )UHUFNV  XQV GHQ %HJULII GHU Datenbilder einzuführen. Denn in den kosmologischen Simulationen XQGLQGHU3URGXNWLRQGHU0DUVELOGHUZHUGHQLP)RUVFKXQJVSUR]HVVGLH Objekte sowohl als Daten als auch als Bilder bezeichnet, benutzt, adressiert, bearbeitet usw. Die Vorteile beider medialer Zustände werden ganz pragmatisch verwendet, um die jeweiligen Nachteile einer der beiden Medialitäten auszugleichen. Beispielsweise lassen sich aus den fast unendlichen Datenkolonnen einer Simulation der Verteilung der Dunklen 0DWHULHLP8QLYHUVXPGLH)HKOHULP3URJUDPPFRGHQLFKWKHUDXVOHVHQ,Q der Visualisierung der Simulationsdaten sieht der Astrophysiker manche 3UREOHPVWHOOHQ DEHU VRIRUW 2GHU 'HU 9HUJOHLFK YRQ XQWHUVFKLHGOLFKHQ 9HUPHVVXQJHQGHU0DUVREHUÀlFKHHUJLEWDOVODQJH/LVWHYRQ'LIIHUHQ]ZHUWHQQXUEHGLQJWHLQHQ(LQGUXFNYRQGHU.RUUHNWKHLWGHUHLJHQHQ%Hrechnungen. Auf einem Differenzbild, das die Abweichung als Falschfarben kodiert, werden Gebiete mit großen Messunterschieden aber auf einen Blick sichtbar. Was hier zunächst wie eine zweckmäßige Visualisierung von Daten klingen mag, ist allerdings nur die eine Seite. Denn mit dem Begriff der Datenbilder möchten wir vor allem darauf hinweisen, dass diese Visualisierungen wiederum die Grundlage einer Veränderung und Anpassung der Datenbestände sind. Das heißt, die Daten werden visualisiert, um sie visuell zu kontrollieren und zu interpretieren, worauf wiederum die Daten aufgrund dieser visuellen Erkenntnisse verändert werden. $P (QGH GHU .HWWH NDQQ GDQQ ZLHGHU HLQ %LOG ZLH EHLVSLHOVZHLVH GDVIDUELJH3HUVSHNWLYELOGGHV%XFKFRYHUVVWHKHQGDV]ZDULQGHU'DUVWHOOXQJVNRQYHQWLRQGHU/DQGVFKDIWPLWIDOVFKHQ6FKDWWHQXQG)DUEHHLQH DQ LUGLVFKH 6HKJHZRKQKHLWHQ RULHQWLHUWH 3HUVSHNWLYVLFKW NRQVWUXLHUW das aber gleichzeitig auf Messungen, algorithmischer Datenverarbeitung und einem möglichst exakten Geländemodell dieses Ausschnitts der 0DUVREHUÀlFKHEDVLHUW'LHVHYRQXQVLQGHQ)DOOVWXGLHQYRUJHIXQGHQH Unentscheidbarkeit zwischen Daten und Bild führt zum Begriff des Datenbildes, um diese hybride Medialität der Forschungsgegenstände in den YRQXQVEHVFKULHEHQHQ3UD[HQGHU$VWURQRPLHSUlVHQW]XKDOWHQ

18 | D ATENBILDER

Der Blick auf die Bildpraxen der Astrophysiker: Beobachtung, dichte Beschreibung und theoretische Reflexionen Wir konzentrierten uns auf die Forschungen an zwei Instituten. Das erste ZDU HLQ 7HDP LQQHUKDOE GHV 'HXWVFKHQ =HQWUXPV IU /XIW XQG 5DXPfahrt '/5  'DV 7HDP LQ %HUOLQ$GOHUVKRI NRQVWLWXLHUW VLFK DXV VHLQHU %HVFKlIWLJXQJ PLW GHU EHUHLWV HUZlKQWHQ .DPHUD GLH GHU]HLW QRFK GHQ Mars umkreist. Genauer gesagt, sind es die fast täglich empfangenen Daten GLHVHU .DPHUD GLH GLH WlJOLFKH $UEHLW SUlJHQ 'LHVH 'DWHQ ZHUGHQ LQ HLQHU DUEHLWVWHLOLJHQ 3UR]HVVNHWWH ]XQlFKVW YRQ 3KRWRJUDPPHWHUQ LQ ein Geländemodell transformiert, um dann von Geologen für geologische Forschungen genutzt zu werden. Visualisierungen dieser Daten sind dort DOOJHJHQZlUWLJ XQG HQJ PLW GHUHQ 3UR]HVVLHUXQJ YHUNQSIW 'LH ± YHUPHLQWOLFKH ± 9HUWUDXWKHLW GHV ª1DFKEDUSODQHWHQ© XQG GLH bKQOLFKNHLW PLWGHU(UGHHUP|JOLFKWHQHVXQV]XGHPNXOWXUHOOH(LQÀVVHZLH6HKJHwohnheiten und Bildtraditionen zu erforschen. .RPSOHPHQWlUZlKOWHQZLUGDV0D[3ODQFN,QVWLWXWIU$VWURSK\VLN in Garching bei München aus, da dieses Institut in Deutschland führend in theoretischer Astrophysik ist, insbesondere im Bereich der Computersimulationen. Im Mittelpunkt unserer Beobachtungen stand eine große Simulation, deren Gegenstand, die Dunkle Materie, an sich unsichtbar LVW :HQLJHU VWUDII RUJDQLVLHUW DOV GDV 7HDP DP '/5 ]HLJWHQ VLFK KLHU vor allem die Vielfalt von Simulationen sowie der ganz unterschiedliche *HEUDXFK YRQ %LOGHUQ *DQ] DQGHUV DOV DP '/5 JLEW HV YRQ GHQ PHLsten der simulierten Objekte keine Beobachtungsbilder, und wenn doch, so erfordert der wechselseitige Vergleich enormen computertechnischen Aufwand. :HQQHVXPGLH(UIRUVFKXQJDOOWlJOLFKHU3UR]HVVHLQGHU:LVVHQVFKDIW geht, sind Studien vor Ort unabdingbar. Ethnographische Methoden sind für die Wissenschaftsforschung etabliert, in Bezug auf die Bildpraxen der Wissenschaften stellen sie allerdings noch immer eine Ausnahme dar. Unsere methodologischen Überlegungen orientierten sich zunächst an der zentralen Frage der allgemeinen Ethnographie, nämlich nach dem 8PJDQJPLW1lKHXQG'LVWDQ]'HU*HIDKUHLQH.XOWXUQLFKW]XYHUVWHhen, weil man außen vor bleibt, wird dabei die Gefahr des going native gegenübergestellt. Ethnographen müssen sich für die eine oder die andere 0HWKRGHHQWVFKHLGHQ&ROOLQV  KDWLP%OLFNDXIGLH:LVVHQVFKDIW die beiden Extreme, eine unbeteiligte, gar unbemerkte Beobachtung auf der einen Seite und ein möglichst weitgehendes Mitmachen auf der anderen, diskutiert. Für unsere Studie war allerdings weder die eine noch die andere Me-

D ATENBILDER

UND

B ILDPRA XEN | 19

thodik geeignet. Mit einer reinen Beobachtung des Alltags lassen sich mögOLFKHUZHLVHDOOWlJOLFKVLFKWEDUH3UR]HVVHEHREDFKWHQQLFKWDEHU3UR]HVVH GLHDQVLFKQLFKWVLFKWEDUVLQG9RUDOOHP3UR]HVVHGLHLQXQGDQ&RPSXWHUQ VWDWW¿QGHQHUZHLVHQVLFKDOVXQJHHLJQHWHV2EMHNWHLQHUHWKQRJUDSKLVFKHQ 6WXGLH YJO*UDPHOVEHUJHU 'DGLH%LOGSUD[HQGHU$VWURQRPLHIDVW DXVVFKOLH‰OLFK GLJLWDOH 3UD[HQ VLQG VFKLHG IU XQVHU $QOLHJHQ HLQH UHLQH Beobachtung aus. 8PJHNHKUWN|QQHQZLURIIHQVLFKWOLFKQLFKW7HLOGHU.XOWXUHQZHUGHQ Dies ist auch nicht unser Ziel, erlaubt doch der Zugang von außen einen anderen Blick. Denn auch wenn Naturwissenschaftler ihre BildproduktiRQHQUHÀHNWLHUHQ YJOGD]X.DS,, VRLQWHUHVVLHUWGLH%LOGXQG:LVVHQschaftsforschung doch anderes. So wertvoll etwa die »Werkstattberichte« LQ+HLQW]+XEHU  VLQGVR]HLJHQGRFKGLH.ULWLNHQVHLWHQVGHU%LOG und Wissenschaftstheoretiker im gleichen Buch die Diskrepanz einer Selbstanalyse und eines Blicks von außen. Aufgrund dieser Überlegungen haben wir uns für folgendes Vorgehen HQWVFKLHGHQ:LU 5DOI$GHOPDQQXQG-DQ)UHUFNV KDEHQJHPHLQVDPEHLGH Institute für jeweils eine Woche besucht. Im Zentrum standen fokussierte Interviews. Noch bevor wir diese begannen, hörten wir wortwörtlich oder ähnlich einen Satz, der von mehreren Gesprächspartnern an beiden Forschungsinstituten geäußert wurde: »Eigentlich gibt es hier nichts zu sehen.« Die Tatsache, dass die Forscherinnen und Forscher ihre Wissenschaft als QLFKW VHKHQVZHUW HLQVFKlW]WHQ RGHU XQV JHJHQEHU VR GDUVWHOOWHQ  LVW DQ sich schon eine Beobachtung, die einer Untersuchung wert wäre. Vielleicht meinten die Wissenschaftlerinnen und Wissenschaftler mit dem Nichts-zuSehen aber auch nur, dass der Anteil von Bildlichem oder Visuellem für uns, als an Bildern Interessierten, zu gering sein könnte. Dass dies nicht der Fall ist, sondern Bilder in beiden Instituten allgegenwärtig sind, bemerkten wir schnell. Dass wir aber auch an den nicht-visuHOOHQ3UD[HQLQWHUHVVLHUWZDUHQZHLOVLFKQXUVRGLH)XQNWLRQYRQ%LOGHUQ innerhalb der Forschungspraxis erschließen lässt, war unseren Gesprächspartnern nicht von vornherein klar. Dafür, dass unser Beharren darauf, LKUHQELOGOLFKHQXQGQLFKWELOGOLFKHQ$OOWDJ±YRQHLQHP)RUVFKHUDP'/5 als »Fließbandarbeit« bezeichnet – im Detail kennen zu lernen, trotzdem HUIROJUHLFKZDUVLQG]ZHLPHWKRGLVFKH3UlPLVVHQPD‰JHEOLFK Erstens hatten wir uns intensiv, vor allem mit aktuellen FachpublikaWLRQHQGHU,QVWLWXWHYRUEHUHLWHW8PGHQWHFKQLVFKHQ3UR]HVVGHU%LOGJHnese zu verstehen, war es unerlässlich, sich zu einem gewissen Grad in die technischen Details einzuarbeiten. Sobald die Forscherinnen und Forscher bemerkten, dass es uns auch um technische Details ging und wir dazu auch gezielt Fragen stellten, funktionierten die Interviews. 'LH ]ZHLWH 3UlPLVVH ZDU GLH ,QWHUYLHZV LPPHU GLUHNW DP $UEHLWV-

20 | D ATENBILDER platz zu führen. Nur dadurch konnten wir unser jeweiliges Gegenüber dazu bewegen, uns das auf dem Bildschirm zu zeigen, womit sie oder er es normalerweise den Tag über zu tun hat. Diese Mikroprozesse am Computermonitor, die den Forschern so selbstverständlich sind, dass es ihnen NDXPZHUWVFKLHQVLHXQV]X]HLJHQVLQGGHU.HUQGHVVHQZDV%LOGSUDxen an den beiden Instituten für uns so interessant macht. In Ergänzung zu den Interviews nahmen wir als unbeteiligte BeobachWHUDQ9RUWUlJHQ%HVSUHFKXQJHQ.DIIHHSDXVHQXQG7HDPPHHWLQJVWHLO

Der Blick auf dieses Buch Dieses Buch vereint zwei unterschiedliche Vorgehensweisen. Im ersten 7HLO .DSLWHOI.XQGI. ¿QGHQVLFKGLH%HVFKUHLEXQJHQGHU)DOOVWXGLHQ Sie sind bewusst in Reportageform geschrieben und verzichten auf bildXQGZLVVHQVFKDIWVWKHRUHWLVFKHQ%DOODVWXPGHQ/HVHULQQHQXQG/HVHUQ GHQ3UR]HVVGHU%LOGKHUVWHOOXQJP|JOLFKVWDQVFKDXOLFKQDFKYROO]LHKHQ]X lassen. Mit der beschreibenden und teils bewusst subjektiven Darstellung KRIIHQZLUHLQHQ(LQEOLFNLQGLHKRFKNRPSOH[HQ3UR]HVVHGHUQDWXUZLVsenschaftlichen Bildpraxis zu geben. Ein kurzer analytischer Rückblick auf die Reportagen resümiert die Beobachtungen des ersten Teils und bilGHWGDPLWHLQH%UFNH]XP]ZHLWHQ7HLO .DSLWHOI  Im zweiten Teil folgen bild- und wissenschaftstheoretische Aufsätze, GLH.HUQIUDJHQGHU:LVVHQVFKDIWVIRUVFKXQJDXIQHKPHQ0DUWLQD+H‰OHU IUDJW ZDV %LOGWKHRULHQ DQ )UDJHVWHOOXQJHQ 3HUVSHNWLYHQ XQG %HJULIIlichkeiten für die Wissenschaftsforschung bieten und was sie zum Verständnis, zur Beschreibung und zur Analyse von Wissenschaftsbildern EHLWUDJHQN|QQHQ .DSLWHO,, 5DOI$GHOPDQQVWHOOWGLH)UDJHLQZLHZHLW Naturwissenschaftler selbst, ohne dies explizit zu formulieren, über eine Bild- und Medientheorie verfügen bzw. inwieweit sie ihren Bildgebrauch UHÀHNWLHUHQ .DSLWHO,, -DQ)UHUFNVZLGPHWVLFKGHU5HIHUHQ]YRQ:LVVHQVFKDIWVELOGHUQXQGHQWZLUIWXQWHUVFKLHGOLFKH.DWHJRULHQYRQ5HIHUHQ] IUGLH)RUVFKXQJVSUD[LV .DSLWHO,, -RFKHQ+HQQLJDQDO\VLHUWUlXPliche Darstellungen im Bild und insbesondere die epistemische Funktion YRQ6FKDWWHQ .DSLWHO,,  ,Q GHQ .DSLWHOQ GHV ]ZHLWHQ 7HLOV ZLUG GDEHL LPPHU ZLHGHU %H]XJ genommen auf die Beobachtungen, die im ersten Teil beschrieben sind. :LUKRIIHQGDVVGDV:HFKVHOVSLHOYRQGLFKWHU%HVFKUHLEXQJXQG5HÀH[LRQ GHQ /HVHULQQHQ XQG /HVHUQ QHXH (LQEOLFNH LQ GLH %LOGSUD[HQ GHU Naturwissenschaften gibt.

RALF ADELMANN, JAN FRERCKS, MARTINA HEssLER UND JOCHEN HENNIG

I. Fallstudien

I.1 Orbits

Visuelle Modellierungen der Marsoberfläche am Deutschen Zentrum für Luft- und Raumfahrt

Der Mars in Berlin-Adlershof Steigt man am S-Bahnhof »Berlin-Adlershof« aus, ist sicherlich nicht der erste Gedanke, dass an diesem Standort des Deutschen Zentrums für Luft- und Raumfahrt (DLR) unser Sonnensystem erforscht wird. Im November 2007, dem Zeitraum unseres einwöchigen Aufenthalts, wird der S-Bahnhof gerade umgebaut. Die provisorischen Currywurstbuden, die direkt an das S-Bahn-Gelände angrenzend auf einem Stück industriellen Brachlands stehen, entsprechen keineswegs den üblichen Bildern eines Standorts der Hightech-Industrie und avancierter Wissenschaft. Erst als wir nach einigen hundert Metern dieses für Berlin immer noch so typische Brachland hinter uns lassen, tauchen rechts und links einer vierspurigen Straße die erwarteten postmodernen Bautenensembles aus Universitäts-, Industrie- und Wissenschaftsarchitektur auf, die für die an diesem Ort angestrebte Verbindung von Akademie, Wirtschaft und Medien stehen. Gleichzeitig verkörpert dieser Architekturmixtur die Idee internationaler Vernetzungsräume. Mitten in diesen architektonischen Stilmonaden, ZLHVLHDQYLHOHQ2UWHQUXQGXPGHQ*OREXV]XVHKHQVLQGEH¿QGHWVLFK ein Standort des Deutschen Zentrums für Luft- und Raumfahrt (DLR). Von dieser Stelle aus wird unter anderem nach den Eigenschaften eines bestimmten Orts in unserem Sonnensystem gefahndet: dem Mars. Zu diesem Zweck wurde 2003 an Bord der Sonde Mars Express eine Kamera auf die Reise in eine Marsumlaufbahn geschickt, von der sich das EntwickOHUXQG)RUVFKHUWHDPDP'/5%LOGHUYRQGHU2EHUÀlFKHGHV3ODQHWHQ

24 | D ATENBILDER versprochen hatte, die alle bisher erstellten Bilder vom Mars übertreffen sollten. Diese Kamera, die »High-Resolution Stereo Camera« (HRSC), ist QLFKW GLH HUVWH GLH DXV HLQHU 8PODXIEDKQ XP GHQ 3ODQHWHQ %LOGHU YRP Mars aufnimmt und zur Erde sendet. Vorausgegangen war die jahrhundertelange, teleskopische Beobachtung des Mars als unmittelbarem Nachbarplaneten der Erde im Sonnensystem. 1965 begann dann mit Mariner 4 die Bildproduktion vom Mars mit auf Raumsonden installierten Kameras (Abb. 2). Bei den ersten Mariner-Missionen wurden VideokaPHUDVYHUZHQGHWGHUHQ$XÀ|VXQJQRFKVHKUJHULQJZDU /LQLHQPLW MH3L[HOQ 'LH9LGHRNDPHUDVZDUHQDQGLH7HFKQLNYRQ)HUQVHKNDmeras angelehnt. Nach ihrer Digitalisierung wurden die wenigen Bilder auf einem Magnetband für die tagelang dauernde Übertragung zur Erde gespeichert. Danach stieg die numerische und qualitative Ausbeute der 0DUVELOGHUSUR0LVVLRQVHKUVWDUNDQ'HU9RUEHLÀXJYRQMariner 4 am 0DUVHUEUDFKWHGHQ(UWUDJYRQJUREDXÀ|VHQGHQ%LOGHUQEHLMariner 9 im Jahr 1971 waren es schon über 7.000 Aufnahmen, die wesentliche 6WUXNWXUHQGHU0DUVREHUÀlFKHIHVWKLHOWHQ1DFKGHQMariner-Missionen von 1964 bis 1972 folgten die beiden Viking-Missionen von 1976 bis 1980. Neben einem so genannten »Orbiter« führten Viking 1 und Viking 2 erstPDOVª/DQGHU©PLWGLHDXIGHU0DUVREHUÀlFKHDXIVHW]WHQ%HLGH6RQGHQ der Viking-Missionen übermittelten mehr als 60.000 Bilder vom Mars zur Erde. Die erste digitale Kamera befand sich schließlich an Bord von Mars Global Surveyor. Die Mission dauerte von 1996 bis 2006 und zeichnete über 200.000 Bilder mit der »Mars Orbiter Camera« auf. Mars Global Surveyor transportierte auch das »Mars Orbiter Laser Altimeter« (MOLA). Mithilfe von MOLA, das die Laufzeit eines Laserstrahls vom OrbiWHUDXIGLH0DUVREHUÀlFKHXQG]XUFNPLVVWHQWVWDQGGLHELVKHXWHH[akteste topographische Karte des Mars (Abb. 3). Neben der HRSC auf Mars Express werden aktuell (seit 2006) Bilder der drei Kameras auf dem NASA-Orbiter Mars Reconnaissance zur Erde gesendet. Der Standort des Marskamerateams in Berlin-Adlershof scheint beliebig, denn die Konstruktion, die Reise und der Betrieb der Marskamera könnten von hier oder von jedem anderen Ort der Erde organisiert werden, Doch ergeben sich bei näherer Betrachtung eine Reihe von interessanten KLVWRULVFKHQ7UDGLWLRQVOLQLHQ6RIJWVLFKGDV0DUVNDPHUD3URMHNW+5SC des DLR in eine Reihe technologischer und medialer Geschichten in Berlin-Adlershof: Eine der Geschichten spielt im Jahre 1909 und erzählt von der Etablierung von Johannisthal-Adlershof als einem der ersten GHXWVFKHQ 0RWRUÀXJSOlW]H DXI GHP ]DKOUHLFKH )OXJSLRQLHUH LKUH 9HUsuche unternahmen. Der Flugplatz in der Nähe Berlins entwickelte sich

O RBITS | 25

$EE(UVWHV0DULQHU9LGHRELOGGHU0DUVREHUÀlFKHGLH$XÀ|VXQJ EHWUlJWXQJHIlKU.LORPHWHU‹1$6$ zu einem zivilen und militärisch bedeutsamen Experimentierfeld. Eine ZHLWHUH7UDGLWLRQVOLQLHLVWGLH*UQGXQJGHU'HXWVFKHQ9HUVXFKVDQVWDOW für Luftfahrt 1912 in Adlershof. Sie gilt als die Vorläuferinstitution der '/5 LQ GHUHQ 2UJDQLVDWLRQ GDV +56&7HDP KHXWH DUEHLWHW 8QG QLFKW zuletzt war Adlershof seit 1952 ein Standort des DDR-Fernsehens, der 'HXWVFKH)HUQVHKIXQN ')) ,Q$QEHWUDFKWGLHVHU7UDGLWLRQVOLQLHQGHV Fliegens und der Bildproduktion erscheint es nicht ganz zufällig, dass von %HUOLQ$GOHUVKRI DXV GLH 3ODQHWHQIRUVFKXQJ GHV '/5 XQG LQVEHVRQGHUH die Marskamera geleitet wird. Die Gebäude der DLR sind von außen eher unspektakulär und wurden ]XP7HLOQRFK]X''5=HLWHQJHEDXW$EHUPLWGHP$XVVWHOOHQXQVHUHU %HVXFKHUDXVZHLVHDQGHU3I|UWQHUORJHWDXFKHQZLUMHGHQ7DJLQHLQH%LOGwelt ein, die uns den Mars gleichzeitig als ein unirdisches Faszinosum und als einen vertrauten Ort präsentiert. Sobald wir die Räume des DLR betreten, begeben wir uns visuell auf eine Forschungsreise über die MarsoberÀlFKHhEHUDOOLQGHQ)OXUHQXQGLP)R\HUKlQJHQJUR‰IRUPDWLJH]ZHL und dreidimensionale Bilder des Mars. Sofort wird für uns ersichtlich, GDVVGLH(UIRUVFKXQJYRQ3ODQHWHQHLQHª%LOGZLVVHQVFKDIW©LVW'LH%LOGHU

26 | D ATENBILDER

$EE02/$.DUWHGHV0DUV‹1$6$ haben dabei durch ihre schiere Größe, ihre besondere Farbigkeit und ihUH5HIHUHQ]DXIHLQHQYRQ0HQVFKHQI‰HQXQEHUKUWHQ3ODQWHWHQLPPHU schon den Anspruch, mehr als nur das auf ihnen Dargestellte zu repräsentieren. Sie zeigen nicht nur einen objektivierten Blick auf eine Landschaft DXVGHU9RJHOSHUVSHNWLYHVRQGHUQUXIHQDOOH*HVFKLFKWHQXQG3KDQWDVLHQ EHU GHQ 0DUV DXI GLH VHLW -DKUKXQGHUWHQ 7HLO VHLQHU (QWGHFNXQJVJHschichte sind. Die topographischen Bilder und Modelle im Eingangsbereich sowie im Vorraum der Rotunde (dem zentralen Veranstaltungs- und Vortragsraum) sind gleichzeitig Objekte der Wissenschaft und der Faszination. Sie faszinieren aufgrund ihrer Farben, ihrer Details und nicht zuletzt durch ihre Anschließbarkeit an unsere irdischen Wahrnehmung von Landschaft und Landkarte. Diese Bilder möchten etwas zeigen, und VLHVLQGIUXQVHUH$XJHJHPDFKW'LH(UNHQQWQLVVHEHUGHQ3URGXNWLRQVSUR]HVVGLHVHUXQGDQGHUHU0DUVELOGHUGLHZLULQGHQIROJHQGHQ7DJHQ gewinnen, werden begleitet von diesen ersten visuellen Eindrücken. Der =XVDPPHQKDQJ YRQ :LVVHQVFKDIW XQG )DV]LQDWLRQ VSLHOW DOV 7KHPD LQ den ›Fachgesprächen‹ mit den unmittelbar Beteiligten zwar eine untergeordnete Rolle, ist aber in den persönlichen Bemerkungen einiger unserer Gesprächspartner durchaus präsent. In den vorausgegangenen Monaten lasen wir uns in die Literatur zur Marskamera und zum Orbiter Mars Express ein, wir fuhren zur WanderDXVVWHOOXQJ GHU '/5 PLW GHP 7LWHO ª8QVHU 1DFKEDU 0DUV© QDFK 0QVWHU XP GLH GRUW SUlVHQWLHUWHQ $QDJO\SKHQ YRQ GHU 0DUVREHUÀlFKH ]X betrachten. Zusätzlich sahen wir uns Marsbilder in der Fachliteratur und im Internet an und arbeiteten uns in die Erkundungsgeschichte des Mars ein. Nun treffen wir als kulturwissenschaftliche Bildexperten, als Me-

O RBITS | 27

GLHQZLVVHQVFKDIWOHUDOV3K\VLNHUXQGDOV:LVVHQVFKDIWVKLVWRULNHUDXIGLH alltäglichen Bildproduktionen und Bildpraxen einer Naturwissenschaft, deren Forschungsobjekt nur durch Fernbeobachtung erreichbar ist. Insbesondere interessiert uns die Beobachtung des alltäglichen Umgangs mit den Bildern der HRSC an den Arbeitsplätzen der Wissenschaftler und 7HFKQLNHU'LHVH$UEHLWVSOlW]HVLQGGRPLQLHUWGXUFK&RPSXWHUE]ZGHren Bildschirme, die als Schnittstelle zwischen Wissenschaftlern und DaWHQIXQJLHUHQXQGDQGHQHQGLH7UDQVIRUPDWLRQVSUR]HVVHGHU'DWHQXQG Bilder vollzogen werden. Wir zeichnen die wichtigsten Arbeitsabläufe nach, indem wir dabei ihre Bedeutung für die Bildproduktion herausstellen. Nicht jedes Detail GHU3UR]HVVLHUXQJGHU%LOGGDWHQZLUGGHVKDOEHUZlKQWRGHUPXVVELVLQV Letzte verstanden werden. Auf bestimmte Fragestellungen wird im zweiWHQ 7HLO GHV %XFKHV QRFK HLQPDO LQWHQVLY HLQJHJDQJHQ ZHUGHQ VR GDVV dort Gelegenheit besteht, tiefer in die Bildwelten des Mars einzudringen und theoretische Konzepte der beteiligten Wissenschaften zu verstehen. 8QVHUH6FKLOGHUXQJHQGHU]XP7HLOVWXQGHQODQJHQ*HVSUlFKHPLWGHQ Mitarbeitern sowie unsere Beobachtungen der Bildpraxen an den Computerbildschirmen sind bewusst deskriptiv und technisch gehalten. Damit P|FKWHQZLUXQVHUH(LQGUFNHXQG(UIDKUXQJHQYRU2UWPLWGHQ3UR]HVsen und Akteuren so wiedergeben, dass sie für die Leserinnen und Leser nachvollziehbar sind. Unser Ziel ist die Darstellung der Bildpraxen, ohne sie zugleich zu interpretieren oder zu kritisieren. Vorab folgt eine kurze Einführung in die Mars Express-Mission der European Space Agency (ESA) und die Marskamera (HRSC) der DLR.

Mission 6HOEVWIUQXUJHOHJHQWOLFKH/HVHUYRQ:LVVHQVFKDIWVEHLODJHQLQ7DJHV]HLtungen oder für sporadische Surfer astronomischer Websites ist die Mars Express-Mission der europäischen Weltraumorganisation ESA kein völlig XQEHNDQQWHV7HUUDLQMars Express steht für die erste erfolgreiche Mission der Europäer zum Mars. Zuvor hat sich die ESA an der russischen Marsmission Mars 96 beteiligt, die aber durch einen technischen Defekt beim Start nicht über die Erdumlaufbahn hinausgekommen ist. Die Mars 960LVVLRQLVWIUGDVDNWXHOOH3URMHNWMars Express deshalb von Bedeutung, weil beispielsweise die HRSC schon auf dieser Mission mit an Bord ZDU'DV+56&7HDPDP'/5EHVWHKWDOVRVFKRQOlQJHUDOVMars Express und hat bereits eine gescheiterte Mission durchlitten. Hieran zeigt sich sehr eindrücklich die lange Entwicklungszeit und die vielen Unwägbarkeiten innerhalb eines komplexen Experiments, dessen Verwirklichung von vielen technischen und politischen Faktoren abhängig ist. Ohne Mars

28 | D ATENBILDER Express wäre die Karriere der HRSC schon kurz nach ihrem Start mit den Raketenteilen von Mars 96 in der Erdatmosphäre verglüht. Die Bilder der Marskamera HRSC sind Lieblingsobjekte der BildUHGDNWHXUH YRQ 7DJHV XQG :RFKHQ]HLWXQJHQ VRZLH YRQ $PDWHXUDVWURnomen. Viele Veröffentlichungen zeigen die Aufnahmen aus der Marskamera und diskutieren sie. Nicht ganz unwichtig erscheint dabei, was KLHU¾IRWRJUD¿HUW½ZLUG'HU0DUVLVWQLFKWLUJHQGHLQ3ODQHWXQVHUHV6RQnensystems. Er scheint uns nicht nur räumlich nahe zu sein, sondern auch emotional. In unserem kulturellen Gedächtnis ist er durch zahlreiche Geschichten fest verankert. Und nicht zuletzt ist der Mars mit vergangenen und heutigen Visionen des Raumfahrtzeitalters verbunden. Bei unseren Begegnungen und Interviews mit den Mitarbeitern der DLR in Berlin$GOHUVKRILVWGLHVHEHVRQGHUH5ROOHGHV3ODQHWHQ0DUVVHLQH¾$XUD½LPmer wieder feststellbar. Der Mars ist nicht einfach nur ein großer planetarischer Gesteinsbrocken, sondern er stellt vielmehr ein Gefäß für HoffQXQJHQ(QWGHFNXQJVOXVWXQG7UlXPHGDU(LQPDODXIGHU0DUVREHUÀlFKH zu stehen, die Gesteine mit den Händen zu berühren oder den Marshori]RQWPLWHLJHQHQ$XJHQ]X¿[LHUHQLVWIUYLHOHXQVHUHU*HVSUlFKVSDUWQHU am DLR ein Wunschtraum. :LFKWLJQHEHQVHLQHU%HGHXWXQJDOVHLQ3ODQHWGHUPLWWHOV5DXPIDKUW von der Erde aus erreichbar ist, ist seine Reputation als erdähnlichster 3ODQHWLP6RQQHQV\VWHP1 Aufgrund einer vergleichbaren Rotationsdauer, den im Unterschied zur Venus relativ ›gemäßigten‹ atmosphärischen Bedingungen und der JHRORJLVFKHQ3KlQRPHQHLVWHUVFKRQLPPHUHLQ.DQGLGDWIUHLQHYHUJOHLFKHQGDUEHLWHQGH3ODQHWHQIRUVFKXQJJHZHVHQ+LQ]XNRPPHQGLHVHLW langem bestehenden Vermutungen über früheres Leben auf dem Mars, GLHELV]XPKHXWLJHQ7DJGXUFKGLH:DVVHUXQG(LVKLQZHLVHGHU,QVWUXmente vieler Marsmissionen der letzten Jahre weiter genährt werden. Der Mars ist vielleicht, so die Hoffnungen und Visionen, der erste Ort außerKDOEGHU%LRVSKlUHXQVHUHV3ODQHWHQDQGHP/HEHQHQWVWDQGHQLVWRGHU einmal existiert hat.

1 | »Erdähnlichkeit« ist kein wissenschaftliches Kriterium, trotzdem HQWVFKHLGHWHVEHUGLHZLVVHQVFKDIWOLFKH$XIPHUNVDPNHLWGLHHLQ3ODQHWHUhält. Bis Mitte des 19. Jahrhunderts galt die Venus als erdähnlich und stand deshalb im Mittelpunkt vieler Vergleiche mit der Erde. Danach löste sie der 0DUV LQ GHU |IIHQWOLFKHQ XQG ZLVVHQVFKDIWOLFKHQ 3RSXODULWlW DE 'LH 9HQXV ZLUGDEHUELVKHXWHDOVHUGlKQOLFKHU3ODQHWEHREDFKWHW±QLFKW]XOHW]WGXUFK die Mars Express-Schwestersonde der ESA: Venus Express.

O RBITS | 29

Es ist also nicht weiter verwunderlich, dass die ESA nach US-amerikanischen und sowjetischen bzw. russischen Marsmissionen 2003 die relative Nähe des Mars zur Erde nutzte, um eine eigene Marsmission zu starten. Mars ExpressZXUGHDP-XQLYRQHLQHUUXVVLVFKHQ7Ulgerrakete vom Weltraumbahnhof Baikonur aus auf die Reise zum Mars gebracht. Neben der Marskamera (HRSC) sind noch weitere Instrumente auf dem Orbiter installiert, die alle zur topographischen und geologischen (UNXQGXQJGHU0DUVREHUÀlFKHGLHQHQ%HWUHXWZLUGGLHMars ExpressMission vom European Space Operations Center (ESOC) in Darmstadt. Mars ExpressHUUHLFKWHVHLQH8PODXIEDKQXPGHQ3ODQHWHQLP-DQXDU 2004. Die Umlaufbahn ist elliptisch und wird in ungefähr sieben Stunden von Mars Express einmal komplett durchlaufen. Wenn wir im Einklang mit allen Beteiligten vor Ort den Begriff »Orbit« verwenden, so meinen wir jeweils einen vollständigen Umlauf von Mars Express um den Mars. Der jeweils gewählte Orbit ist dem Instrumentenmix auf der Sonde und den daraus entstehenden sehr unterschiedlichen optimalen Bedingungen des Instrumentenbetriebs geschuldet. Mit seiner elliptischen Umlaufbahn erreicht Mars ExpressLP3HUL]HQWUXP JU|‰WH$QQlKHUXQJDQGHQ3ODQHWHQ HLQHhEHUÀXJK|KHYRQXQJHIlKU.LORPHWHUQ]XU0DUVREHUÀlFKH'LHJU|‰WH(QWIHUQXQJ]XP3ODQHWHQEHWUlJWXQJHIlKU.LORmeter (Apozentrum). Da die Marskamera HRSC Helligkeiten aufnimmt, LVW HV IU VLH QHEHQ GHU (QWIHUQXQJ ]XU 2EHUÀlFKH ]XVlW]OLFK HQWVFKHLGHQGGDVVVLHQXUDXIGHU7DJVHLWHGHV0DUVHLQJHVHW]WZLUG2UELWVEHU der Nachtseite werden von anderen Instrumenten auf Mars Express wie dem Radarexperiment MARSIS genutzt.2 $XVGHUHQRUPHQ+|KHQGLIIHUHQ]EHUGHU0DUVREHUÀlFKHGXUFKGLH elliptische Umlaufbahn ergeben sich eine Reihe von Einschränkungen für den Betrieb der Marskamera. Denn je weiter sie von ihrem Untersuchungsobjekt entfernt ist, um so gröber sind die Bilder von der MarsoberÀlFKHDXIJHO|VWGHQQGLH.DPHUDYHUIJWEHUNHLQHUOHL=RRPIXQNWLRQ Diese Charakteristik der Mission wird in unseren Gesprächen mit den 0LWDUEHLWHUQLPPHUZLHGHUHUZlKQWVLHVRUJWLQGHUDOOWlJOLFKHQ3UD[LV GHU0LVVLRQVSODQXQJIUVSH]L¿VFKH%HGLQJXQJHQXQG3UREOHPH9RONHU 0HUWHQVGHULQGLH3ODQXQJGHU$XIQDKPH]HLWHQXQGLQGLH3URJUDPPLHrung der Kamera involviert ist, beschreibt die besonderen Anforderungen. 'LH.DPHUDZLUGQXUZHQLJH0LQXWHQLP3HUL]HQWUXPGHU8PODXIEDKQ eingeschaltet. Das automatische Ein- und Ausschalten wird für jeden Or2 | Weitere Informationen zu Mars ExpressXQGGHU+56&¿QGHQVLFK

in Jaumann et al. 2007. Die folgenden Angaben basieren auf diesem Aufsatz. Aufgrund der besseren Lesbarkeit wird auf Ausführlichkeit an dieser Stelle verzichtet.

30 | D ATENBILDER bit neu programmiert und über die ESA (bzw. Mission Control der ESOC) werden die Befehlssätze an die Sonde Mars ExpressJHVFKLFNW'LH3ODnung der Orbitaufnahmen, das Einschalten der Kamera und das Setzen GHU .DPHUDSDUDPHWHU HUIROJW GXUFK ]ZHL 3ODQHWHQIRUVFKHU DP '/5 ,Q GHU5HJHOVLQGGLH3ODQHUXQWHUGHQHUVWHQ%HWUDFKWHUQGHU%LOGHUGDVLH wissen möchten, ob ihre Einstellungen für diesen Orbit brauchbare Bilder hervorgebracht haben. Mars Express schickt also nicht laufend Live-Bilder an die Bodenstationen auf der Erde, sondern steuert die Marskamera bei jedem Orbit neu und schickt dann komprimierte Dateien der Aufnahmen zu bestimmten Downloadzeiten Richtung Erde ab. Die Verfügbarkeit der Kamera, der Datenspeicher und der Zeiten des Datendownloads werden von den principal investigators (Forschungsleitern) wöchentlich auf der Basis von Vorabsprachen geklärt. Die principal investigators betreuen jeweils ein Instrument auf der Sonde Mars Express und aufgrund der endlichen Ressourcen gibt es immer wieder Entscheidungsbedarf, welches Instrument wie lange genutzt werden darf. Mehrere Gesprächspartner bestätigen uns, dass um diese Ressourcen auch einmal etwas härter zwischen den principal investigators gerungen wird. Da es letztlich keine Schlichtungsinstanz außerhalb dieser wöchentlichen Konferenz gibt, müssen die principal investigators immer zu einer Entscheidung kommen. Für alle Beteiligten in den Gesprächen ist selbstverständlich: Die JDQ]H2UJDQLVDWLRQ3URGXNWLRQXQG9LVXDOLVLHUXQJGHU'DWHQHUIROJWDXI Grundlage der seit Missionsbeginn durchnummerierten Orbits von Mars Express. Die Datenbilder der Marskamera sind in der Datenbank des DLR unter dieser Systematik nach Orbitnummer und Zeitpunkt der Aufnahmen erfasst. Die Chronologie der Orbits und das mit der Kamera erfasste 6WFNGHU0DUVREHUÀlFKHVLQGGLH¾QDWUOLFKHQ½7DNWJHEHUGHUJHVDPWHQ YRQXQVEHREDFKWHWHQ3UR]HVVHDP'/52UELWIU2UELWNRPPHQGLH'Dten am DLR an und werden dort Orbit für Orbit weiterverarbeitet.

Kamera Die HRSC (+LJK5HVROXWLRQ6WHUHR&DPHUD) (Abb. 4) auf dem Mars Express2UELWHUZXUGHDP,QVWLWXWIU3ODQHWHQIRUVFKXQJGHV'/5HQWZLckelt. Ein Duplikat der HRSC wird in einem staubfreien Raum am DLR LQ%HUOLQ$GOHUVKRIDXIEHZDKUW)DOOV3UREOHPHPLWGHU.DPHUDDXIMars Express auftreten sollten, könnte man anhand des Duplikats ohne zeitaufwendige Kommunikation mit dem Orbiter nach einer Lösung suchen. Wir erhalten die Gelegenheit, das Duplikat zu sehen. Die Vorstellung, dass ihr ›Zwilling‹ gerade um den Mars kreist, trägt dazu bei, dass wir uns der Kamera mit Respekt nähern. Sie wiegt ungefähr 20 Kilogramm und er-

O RBITS | 31

scheint nicht besonders groß. Die technischen Details sind im kompakten Aufbau der Kamera versteckt. Aber das Duplikat ist nicht weltraumfest verpackt. Durch die offene Struktur ohne Gehäuse und Isolierung können wir mithilfe von Volker Mertens die Hauptbestandteile der Kamera LGHQWL¿]LHUHQ

$EE+56& +LJK5HVROXWLRQ6WHUHR&DPHUD ‹'/5 ,KU]HQWUDOHV(OHPHQWLVWGHUOLFKWHPS¿QGOLFKH6HQVRU'LH+56&LVWHLQH digitale Kamera, die wie viele Kameras im Konsumbereich mit elektronischen Sensoren (&KDUJHG&RXSOHG'HYLFHV, CCDs) arbeitet. Die Idee, GLH+56&DOV.DPHUDIUGLH(UIDVVXQJGHU0DUVREHUÀlFKH]XEHQXW]HQ existiert seit 1988 (vgl. Scholten et al. 2004: 468). Im Unterschied zu einer handelsüblichen Digitalkamera besitzt die HRSC nicht einen Flächensensor, sondern einen Zeilensensor. Ein Zeilensensor hat nur eine Zeile LP)DOOGHU+56&PLW3L[HOQ XQGGDV%LOGHQWVWHKWGDGXUFKGDVV sich entweder das Aufnahmeobjekt oder die Kamera bewegt. Deshalb bezeichnet man diese Art der Sensoren auch als SXVKEURRPLQVWUXPHQW, da VLHGLH0DUVREHUÀlFKHVRDXI]HLFKQHQDOVZUGHPDQPLWHLQHP%HVHQ darüber kehren. In seiner Breite ist das digitale Bild, das ein Orbit der HRSC hervorEULQJWDXIGLH%UHLWHGHU3L[HO]HLOHLQGHU.DPHUDEHVFKUlQNW HQWVSULFKW XQJHIlKU.LORPHWHUQDXIGHU0DUVREHUÀlFKHEHLGHUJU|‰WHQ$QQlKHrung der Sonde). Außerdem sind die Bilder von unterschiedlicher Länge. Durch die elliptische Umlaufbahn, durch die zeitlich begrenzten AufnahPHP|JOLFKNHLWHQLP3HUL]HQWUXPXQGGXUFKGLH'DWHQVSHLFKHUP|JOLFK-

32 | D ATENBILDER keiten an Bord von Mars Express ist die räumliche Länge der Aufnahmen begrenzt. Die Bildstreifen decken in der Regel mehrere hundert KilomeWHUDXIGHU0DUVREHUÀlFKHDE Die zeitliche Länge der Aufnahme bestimmt demnach bei einem Zeilensensor auch die räumliche Länge des Bildausschnitts in einem Orbit. Je nachdem, wie nah Mars ExpressDP3ODQHWHQYRUEHLÀLHJWLVWHLQ3L[HO kleiner oder größer. Deshalb wird in der Regel pro siebenstündigem OrELW QXU HLQ PD[LPDOIQI]HKQPLQWLJHV =HLWIHQVWHU LP3HUL]HQWUXP]XU $XIQDKPH JHQXW]W ,Q GLHVHP =HLWIHQVWHU LVW HLQH $XÀ|VXQJ GHU %LOGHU GHU0DUVREHUÀlFKHYRQXQWHU0HWHUQP|JOLFK$XIGHP0DUVERGHQ KDWGHPQDFKHLQ3L[HOGHV=HLOHQVHQVRUVGHU+56&HLQH.DQWHQOlQJHYRQ XQJHIlKU0HWHUQ'DMHGHP3L[HOH[DNWHLQ+HOOLJNHLWVZHUW]XJHRUGnet wird, können auf den Bildern nur Objekte und Strukturen, die über 0HWHUJUR‰VLQGVLFKWEDUZHUGHQ'LH7DNWUDWHGHU%LOG]HLOHQEHWUlJW zweieinhalb Millisekunden und die Kamera ist in dem möglichen Zeitfenster während eines Orbits im Durchschnitt 6 Minuten eingeschaltet. Die Bildzeile misst, wie schon erwähnt, Helligkeit. In jedem Orbit GHU6RQGHEHUHLQHYRQGHU6RQQHEHVFKLHQHQH0DUVREHUÀlFKHN|QQWH ein Bild gemacht werden. Aber die technischen Voraussetzungen sind etwas komplizierter. Zum einen gibt es nur begrenzten Speicher und Energie auf dem Orbiter, zum anderen ist die Übertragung zur Erde von verschiedenen Ressourcen wie beispielsweise Entfernung des Mars zur (UGH3RVLWLRQGHV2UELWHUV]XU(UGHXQGYHUIJEDUHU(PSIDQJVVWDWLRQHQ abhängig. Dazu kommt die Konkurrenz um Downloadzeit mit den anderen Instrumenten an Bord von Mars Express. Das Besondere an der HRSC ist, dass sie nicht nur über eine Bildzeile verfügt, sondern über neun. Demnach nimmt die HRSC pro Orbit nicht QXUHLQ%LOGDXIVRQGHUQMHQDFKYRUKHULJHU3URJUDPPLHUXQJWKHRUHWLVFK bis zu neun Bilder desselben Landschaftsausschnitts auf dem Mars. Aufgrund von Speicher- und Downloadkapazitäten werden aber in der Regel ZHQLJHU.DQlOHSUR2UELWHLQJHVFKDOWHWRGHUGLH$XÀ|VXQJGHUHLQ]HOQHQ Kanalbilder reduziert. Jeder der neun Zeilensensoren steht in einem bestimmten Winkel zur 0DUVREHUÀlFKH'HU]HQWUDOH1DGLUNDQDOQLPPWGLH0DUVODQGVFKDIWVHQNUHFKWQDFKXQWHQDXIGDVKHL‰WHUUHJLVWULHUWGDVYRQGHU0DUVREHUÀlFKH UHÀHNWLHUWH 6RQQHQOLFKW LQ GLUHNWHU $XIVLFKW E]Z LP  *UDG :LQNHO Von den acht weiteren Kanälen blicken jeweils vier nach vorne und vier nach hinten. Der vorderste und der hinterste Kanal, also die im Verhältnis ]XU0DUVREHUÀlFKHVFKUlJVWHQ.DQlOHVLQGGLH6WHUHRNDQlOH6LHVLQGIU die spätere Berechnung der dreidimensionalen Bilder und für die ErstelOXQJGHUGLJLWDOHQ*HOlQGHPRGHOOHYRQGHU0DUVREHUÀlFKHZLFKWLJ'LH jeweils drei weiteren nach vorne und nach hinten ausgerichteten Kanäle

O RBITS | 33

setzen sich aus vier Farbkanälen (nahes Infrarot, Rot, Grün und Blau) und ]ZHLZHLWHUHQ.DQlOHQIUGLH*HOlQGHYHUPHVVXQJ 3KRWRPHWULH ]XVDPmen (Abb. 5). Bei einem Orbit wird meist nur der Nadirkanal in voller $XÀ|VXQJJHQXW]W%HLGHQDQGHUHQ.DQlOHQZHUGHQ3L[HO]XVDPPHQJHVFKDOWHWXPGLH$XÀ|VXQJXQGGDPLWDXFKGLH'DWHQPHQJHGHUHLQ]HOQHQ Aufnahmen zu begrenzen.

$EE'LHQHXQ.DQlOHGHU+56&XQGLKUH$XVULFKWXQJLQ%H]XJ]XU 0DUVREHUÀlFKH6WHUHRQDKHV,QIUDURW3KRWRJUDPPHWULH*UQ 1DGLU%ODX3KRWRJUDPPHWULH5RW6WHUHR YRQOLQNVQDFKUHFKWV  ‹'/5 Die Bedeutung dieser unterschiedlichen Kanaltypen wird in der folgenden Schilderung der Bildpraxen näher erklärt werden. Weiter ist eine 6XSHU 5HVROXWLRQ &DPHUD 65&  DXI GHU +56&3ODWWIRUP PRQWLHUW ,Q Abbildung 4 ist das Objektiv der SRC unter dem schwarzen EDIÀH (einer Art Umlenkblech) für die Scansensoren am vorderen Ende der HRSC HUNHQQEDU'LH65&LVWPLWHLQHP&&'PLWPDO3L[HOQDXVJHstattet. In unseren Gesprächen wird die SRC kaum erwähnt. Auf unsere Nachfrage wird sehr schnell klar, dass sie sich aufgrund einer Reihe von WHFKQLVFKHQ 3UREOHPHQ XQG 6FKlGHQ DQ GHU .DPHUD ZHLWHVWJHKHQG DOV

34 | D ATENBILDER Fehlschlag erwiesen hat. Bei der SRC gibt es beispielsweise Fokusprobleme, so dass sich mit ihr keine wirklich scharfen Aufnahmen der MarsREHUÀlFKHKHUVWHOOHQODVVHQ'DVZlUHDEHULKUH$XIJDEHJHZHVHQ±YRQ NOHLQHQ $XVVFKQLWWHQ GHU 0DUVREHUÀlFKH KRFKDXÀ|VHQGH ELV ]X ]ZHL Meter) Bilder zu produzieren. Mit den Bildern aus der SRC arbeiten momentan nur Forscherinnen XQG )RUVFKHU GLH DQ GHQ 0DUVPRQGHQ 3KRERV XQG 'HLPRV LQWHUHVVLHUW sind. (Daraus erfolgte auch die ironische Umbenennung in »Satellite 5HVHDUFK &DPHUD©  'LH 3UREOHPH PLW GHU 65& UHVXOWLHUHQ QDFK EHUHLQVWLPPHQGHQ 0HLQXQJHQ GHV +56&7HDPV DXV GHQ =ZlQJHQ GHU ]X geringen Budgetierung bei ihrer Entwicklung und der für die Mission notwendigen Gewichtsreduktion.3

Datenbilder 4 aus dem Orbit Um die Bildpraxen verstehen zu können, ist eine grundlegende personelle Unterscheidung in der Bilderproduktion und -nutzung am DLR ZLFKWLJ 3KRWRJUDPPHWHU XQG 3ODQHWHQIRUVFKHU 8QG LP /DXIH XQVHUHV $XIHQWKDOWHVHUIDKUHQZLULPPHUZLHGHUGDVVGLHVH7UHQQXQJQLFKWQXU auf Arbeitsabläufe bezogen ist. Sie resultiert vielmehr aus einem grundlegenden Unterschied im Erkenntnisinteresse beider Gruppen im HRSC7HDP'LH3KRWRJUDPPHWHUHUVWHOOHQDXVGHQ+56&'DWHQELOGHUQIXQNWLRQLHUHQGHE]ZUHDOLVWLVFKH'*HOlQGHPRGHOOHGHU0DUVREHUÀlFKH'LH 3ODQHWHQIRUVFKHU 3ODQHWHQJHRORJHQXD VSUHQDXIGHU*UXQGODJHGLHVHU GLJLWDOHQ*HOlQGHPRGHOOHLQWHUHVVDQWH3KlQRPHQHGHU7RSRJUDSKLHGHU Geologie oder der Atmosphäre des Mars auf, analysieren diese und transformieren sie in allgemeine Aussagen. So unterschiedlich die Erkenntnisinteressen der beiden Gruppen sind, so wichtig ist ihr Zusammenhalt und ihre Verbindung, die über die gemeinsame Wissensquelle, die Kamera, hergestellt wird. Die HRSC ist das Zentrum, an dem sich beide Gruppen orientieren. Die Daten der HRSC werden auf dem Orbiter komprimiert und über einen so genannten GXPS SODQ an die Empfangsstationen auf der Erde geschickt. Mars Express bewegt sich auf einer asymmetrischen Umlaufbahn um den Mars, der Mars hat mit seiner Umlaufbahn um die Sonne HLQHYDULDEOH3RVLWLRQ]XU(UGHXQGGLH(PSIDQJVVWDWLRQHQDXIGHU(UGH drehen sich mit ihr. Die Empfangsantennen sind deshalb rund um den 3 | Weitere Informationen zur HRSC und SRC in Neukum/Jaumann

2004 und Jaumann et al. 2007. 4 | Siehe weitere Ausführungen zum Begriff »Datenbilder« in der Einleitung des Buches.

O RBITS | 35

Globus verteilt und von unterschiedlicher Empfangsleistung. Diese unWHUVFKLHGOLFKHQ3DUDPHWHUEHVWLPPHQQLFKWQXUGHQ'RZQORDGVRQGHUQ± ZLHVFKRQHUZlKQW±DXIJUXQGGHUEHJUHQ]WHQ6SHLFKHUNDSD]LWlWDXIMars Express, ob überhaupt Aufnahmen gemacht werden. Für die Datenverarbeitung innerhalb der Mission sind verschiedene /HYHOVIHVWJHOHJWGLHLP)ROJHQGHQJHVFKLOGHUWZHUGHQXQGGLH7UDQVIRUmationsprozesse, die Bildern unterliegen, anschaulich machen. Die ankommenden Daten (Level 0) werden zur ESA geschickt und dort dekomprimiert und mit einem KHDGHUYHUVHKHQ,QGLHVHP3Ul¿[GHU Bildzeilen steht unter anderem der Aufnahmezeitpunkt der Daten. Damit erreichen die Daten Level 1 und auf diesem Stand werden sie an die DLR JHVHQGHW'RUWEHUZDFKW7KRPDV5RDWVFKGHQ'DWHQHLQJDQJGHU+56& und die Datenübergabe von der ESA-ESOC in Darmstadt. 'LHVH/HYHO'DWHQNDQQ7KRPDV5RDWVFKDXIVHLQHP&RPSXWHUELOGschirm als Bild zeigen. Die Bilder haben aufgrund der Breite des Zeilensensors der Kamera die Form gleichbreiter Streifen. Durch die sich stänGLJYHUlQGHUWHhEHUÀXJK|KHJHEHQVLHDEHUGLH0DUVREHUÀlFKHYHU]HUUW ZLHGHU(VVLQG*UDXVWXIHQELOGHUGLH2EHUÀlFKHQVWUXNWXUHQVLQGDOV+HOligkeitsunterschiede zu erkennen (Abb. 7). Als Beispiel haben wir den Orbit 0334 von Mars Express gewählt, der einen Ausschnitt des Ophir Chasma abdeckt. Das Ophir Chasma ist ein nördliches Nachbartal zum großen Grabensystem auf dem Mars, dem Vallis Marineris. In Abbildung 6 wird der Orbitstreifen auf dem Marsglobus verortet. An dieser Darstellung wird auch die ungefähre Größe der einzelnen Orbitstreifen zur *HVDPWÀlFKHGHV0DUVHUNHQQEDU$EELOGXQJ]HLJWGLH/HYHO'DWHQ des Nadirkanals der HRSC, der VHQNUHFKW DXI GLH 0DUVREHUÀlFKH ›blickt‹. 7KRPDV5RDWVFKHU|IIQHWXQVHU Gespräch mit einem Satz, der uns wie ein Mantra während unseres Aufenthaltes am DLR begleiten sollte: »Eigentlich gibt es nichts zu sehen.« 5 Nach diesen einleitenden Worten unterhielten wir uns ungefähr eineinhalb Stunden intensiv $EE2UELW%LOGVWUHLIHQ darüber, was es ›nicht zu sehen DXIGHU0DUVREHUÀlFKH‹(6$ gibt‹. In dieser Zeit zeigte er uns '/5)8%HUOLQ *1HXNXP  schließlich doch einige Bilder. 5 | Die wörtlichen Zitate sind immer sinngemäß gemeint, da während GHU*HVSUlFKHQXU1RWL]HQJHPDFKWZXUGHQXQGNHLQH7RQDXIQDKPHQ

36 | D ATENBILDER 7KRPDV5RDWVFKLVWIUGLHWHFKQLVFKH%HDUEHLWXQJGHU'DWHQ]XVWlQGLJ die von der ESA direkt nach Berlin gesendet werden. Da diese Bearbeitung weitestgehend automatisiert ist, müsste er die Bilder gar nicht auf seinen Monitor aufrufen. Ihn interessieren nicht die wissenschaftlich relevanten Objekte, er muss keine inhaltlichen Aussagen über die Datenbilder treffen. Für ihn zählt nur: Ist auf den Bilder etwas zu sehen? Arbeitet die Kamera normal? Sind die Datenbilder »ästhetisch wertvoll«? Neben der ästhetischen Eingangskontrolle über die Qualität der Datenbilder gilt es, die Funktionsfähigkeit der Kamera zu überwachen.

$EE2UELW1DGLU/HYHO YRQOLQNVQDFKUHFKWV ‹(6$ '/5)8%HUOLQ *1HXNXP  7KRPDV5RDWVFKV$XVVDJHHUSUIHREGLH'DWHQªlVWKHWLVFKZHUWYROO© sind, unterstreicht den komplizierten Zusammenhang von Daten und Bil-

O RBITS | 37

dern bzw. ihre Ununterscheidbarkeit. Er bezeichnet damit die visuelle .RQWUROOHGHU7DXJOLFKNHLWGHU%LOGHUIUGLHZHLWHUH9HUDUEHLWXQJDEHU selbstverständlich unterzieht er die Bilder keiner Schönheitskontrolle. Die Kriterien für die eingegangenen Bilder sind sehr einfach: Sind Kontrast und Helligkeit gelungen? Sieht der Betrachter auf den Bilder etwas oder ist durch Staubstürme auf den Mars oder durch Fehlsteuerung der Kameraparameter ein unbrauchbares Bild entstanden? Ist die Bildschärfe auf allen Kanälen der Kamera gleich? Eine Anekdote erzählt, beim Empfang des allerersten Bildes im Januar 2004 seien die Bildschirme in Berlin-Adlershof weiß geblieben. NachGHP VLFK GDV +56&7HDP YRQ GLHVHP YLVXHOOHQ 6FKRFNHUOHEQLV HUKROW hatte, stellte sich heraus, dass keineswegs die Kamera defekt war. Bei der Berechnung der Belichtungszeit hatte sich ein Fehler eingeschlichen, und die Bilder waren mehrfach überbelichtet. Dies konnte schnell behoben ZHUGHQXQGGLH0DUVREHUÀlFKHZDUQXQ]XVHKHQ Diese Level 1-Daten der in diesem Orbit benutzten Kanäle von HRSC liegen in 8 Bit (256 Zustände = Helligkeits- oder Graustufen) vor und werden durch die automatische radiometrische Kalibrierung in 16 Bit (65.536 Zustände) umgewandelt. Diese Umwandlung von 8 Bit zu 16 Bit ist erstens notwendig, da nach der radiometrischen Kalibrierung die Bandbreite der Daten größer als 8 Bit ist und, zweitens, um für die Darstellung der Höhen XQG7LHIHQGHU0DUVREHUÀlFKHDXVUHLFKHQGH:HUWHXQGGDPLW*UDXVWXIHQ zur Verfügung zu haben (- 32.000 Meter bis + 32.000 Meter). Die große Bandbreite bei der Höhendarstellung ist erforderlich, da der höchste Berg auf dem Mars, Olympus Mons, 26.400 Meter hoch ist. Diese Information macht deutlich, welche erheblichen Unterschiede, bei aller Vergleichbarkeit der geologischen Vorgänge zwischen Mars und Erde, hinsichtlich der 'LPHQVLRQHQGHUWRSRJUDSKLVFKHQ3KlQRPHQHEHVWHKHQ 'LH7KHPDWLVLHUXQJGHU%DQGEUHLWHIUGLH+|KHQGDUVWHOOXQJEULQJW noch einmal die Umwandlung von Helligkeitswerten in Höhenwerte in den Fokus, die im Zentrum der Datenverarbeitung steht. Die HRSC nimmt Helligkeitswerte auf. Aus diesen Helligkeitswerten werden topographische Modelle errechnet, die exakte Höhenwerte angeben müssen. Um dieses Ziel zu erreichen, sind im Folgenden noch eine Reihe automaWLVLHUWHUXQG¾PDQXHOOHU½3UR]HVVVFKULWWHHUIRUGHUOLFKGLHYRQGHQ3KRWRgrammetern vollzogen werden. Bei der radiometrischen Kalibrierung werden die Daten mit den so genannten Housekeeping-Daten der Kamera (Zeitanbindung, OrbitinIRUPDWLRQHQ3RVLWLRQVGDWHQ%UHQQZHLWHXVZ ]XVDPPHQJHIKUW8QWHU DQGHUHP HUIROJW HLQH .RUUHNWXU GHU 'DWHQ QDFK GHQ (PS¿QGOLFKNHLWHQ der einzelnen Sensoren, die man vorher auf der Erde bestimmt hat. Die zu erwartende Helligkeit zur Zeit der Aufnahme der Datenbilder wird

38 | D ATENBILDER PLWGHU3URJUDPPLHUXQJGHU.DPHUDIUHLQHQ2UELWSURJQRVWL]LHUW$Eweichungen von diesen Vorannahmen müssen daher im Nachhinein ausgeglichen werden. Hinzu kommt eine Anpassung an einen festgelegten Standard des Kontrasts. Das daraus entstehende Datenbild bezieht sich DEHUZHLWHUKLQQLFKWPD‰VWDEVJHWUHXDXIGLH0DUVREHUÀlFKH%HLGHUZHLWHUHQ9HUDUEHLWXQJGHU'DWHQDXI/HYHOZHUGHQGLHXQEUDXFKEDUHQ3L[HO per Konvention schwarz gefärbt (im Datensatz wird der Wert auf Null gesetzt).6 In Abbildung 8 sind insbesondere die Helligkeits- und Kontrastangleichungen zu sehen. (LQH HUVWH JHRPHWULVFKH .RUUHNWXU GHU $XIQDKPHQ ¿QGHW LP hEHUgang von Level 2 zu Level 3 statt. Diese Korrekturen sind notwendig, um das Bild zu entzerren. Dieser Vorgang wird als Kartenprojektion, PDS projection, bezeichnet. Aufgrund der unterschiedlichen Höhe des Orbiters Mars Express EHLP hEHUÀXJ VLQG GLH %LOGGDWHQ JHRPHWULVFK QLFKW gleichmäßig, deshalb entsteht bei der Korrektur die typische trapezförmige Kaugummiform des Orbitstreifens. Da der Abstand der Kamera VLFKZHJHQGHU(OOLSWL]LWlWGHV2UELWVVWHWLJYHUlQGHUWHQWVSULFKWHLQ3L[HO in der Kamera nicht einer bestimmten Fläche auf dem Mars: Am Anfang und am Ende der Aufnahmephase des Orbits ist die Kamera weiter weg und daher die gescannte Breite größer. Außerdem werden in diesem Schritt geometrische Fehler in der Kamera (die man vorher auf der Erde bestimmt hat) herausgerechnet. In Abbildung 9 ist die Kaugummiform deutlich zu erkennen. Hieran OlVVW VLFK VHKU JXW VHKHQ GDVV EHLP 3UR]HVVLHUHQ GHU XQWHUVFKLHGOLFKHQ /HYHOGDWHQGLHVHLPPHUZLHGHUVLJQL¿NDQWYHUlQGHUWZHUGHQ$OVREHUVWHV =LHOJLOWGDEHLHLQHP|JOLFKVWH[DNWH$QQlKHUXQJDQGLH7RSRJUDSKLHGHU 0DUVREHUÀlFKH]XHUUHLFKHQ(VJHKWGHPQDFKQLFKWXPGLH3URGXNWLRQ von besseren Visualisierungen, sondern um das bestmöglichste Modell des Geländes auf dem Mars. Die geometrische Kalibrierung ist demnach HLQHQWVFKHLGHQGHU6FKULWWLQGHU3UR]HVVLHUXQJGHU'DWHQELOGHU'XUFKVLH JHVFKLHKWGLH8PUHFKQXQJYRQ3L[HOQGHU$XIQDKPHLQ4XDGUDWHDXIGHU 0DUVREHUÀlFKH PLWKLOIH GHU SURJQRVWL]LHUWHQ XQG UHNRQVWUXLHUWHQ )OXJdaten des Orbiters. Diese Flugdaten können später durch die Datenbilder genauer bestimmt werden, was wiederum eine höhere Genauigkeit der Datenbilder erst ermöglicht. 'LH3UR]HVVLHUXQJELV/HYHOYHUOlXIW±ZLHEHUHLWVHUZlKQW±JU|‰tenteils automatisch mit Hilfe von Skripten (selbstgeschriebenen CompuWHUSURJUDPPHQGHU3KRWRJUDPPHWHU XQGRKQHJUR‰HPDQXHOOH(LQJULIIH

6 | %HL GHU 3UR]HVVLHUXQJ DXI /HYHO  ZHUGHQ GLH XQEUDXFKEDUHQ 3L[HO ZHL‰JHIlUEW 7KRPDV5RDWVFKªDXVlVWKHWLVFKHQ*UQGHQ© 

O RBITS | 39

Mit Level 3 erreichen die Datenbilder die Verarbeitungsebene, auf der die 3ODQHWHQIRUVFKHUGDVHUVWH0DODXIGLH'DWHQELOGHUVFKDXHQ 'LH 3URGXNWLRQ YRQ /HYHO 'DWHQELOGHUQ EHJDQQ VSlWHU XQG LVW QRFK nicht für alle Orbits abgeschlossen. Um auf Level 4 zu gelangen, werden EHVWLPPWH 3UR]HVVH GHU $XIEHUHLWXQJ GHU 'DWHQ RSWLPLHUW $XI GLHVHQ 7HLOGHU3UR]HVVNHWWHZHUGHQZLULP)ROJHQGHQQRFKQlKHUHLQJHKHQ'LH Level 4-Datenbilder unterschieden sich von den Level 3-Datenbildern GXUFK GLH K|KHUH $XÀ|VXQJ GHU 0DUVREHUÀlFKH ,Q $EELOGXQJ  OlVVW sich deshalb auf der visuellen Ebene kein großer Unterschied zur Abbildung 9 feststellen. /HYHO/HYHOXQG/HYHO'DWHQEH¿QGHQVLFKDXIHLQHU|IIHQWlich zugänglichen Datenbank mit einer Sperrfrist von sechs Monaten, um GHP+56&7HDPHLQHQ9RUVSUXQJEHLGHU$XVZHUWXQJGHU'DWHQELOGHU zu sichern. Die Daten in den Datenbanken werden nach Aussagen mehrerer Gesprächspartner am DLR von der VFLHQWL¿F FRPPXQLW\ außerhalb des HRSC-Forscherteams wenig nachgefragt. Die US-amerikanische Marsforschung ignoriert scheinbar weitgehend die europäischen Bemühungen. Generell hat man aber von Seiten der DLR ein großes Interesse am gemeinsamen Austausch und an vielen Zugriffen auf die Datenbank. Alle Datenbilder, auch die »schlechten«, werden archiviert. 7KRPDV5RDWVFKYHUZHLVWDXFKDXIGLH]HLWJOHLFKVWDWW¿QGHQGH:DQderausstellung mit Anaglyphen des Mars, die gerade durch die USA tourt und die wir zuvor in Münster gesehen haben. Über die an ein allgemeines 3XEOLNXPJHULFKWHWH$XVVWHOOXQJHUKRIIWPDQVLFKHLQHJU|‰HUH%HNDQQWheit der HRSC-Ergebnisse bei Marsforschern in den USA. Zur weiteren ZLVVHQVFKDIWVLQWHUQHQ 3RSXODULVLHUXQJ GHU 'DWHQELOGHU XQG LKUHU $QHUkennung bzw. Verwendung als Forschungsobjekte werden unter anderem Seminare für Studierende angeboten. In diesen Seminaren sollen die Studierenden grundlegende Kenntnisse über die Nutzung der Datenbilder erhalten und über verfügbare Software zur weiteren Bearbeitung informiert werden. Die Datenbilder sind also einerseits über die Website der DLR und der ESA sehr leicht zugänglich. Andererseits sind sie in einem im Computeralltag ungewöhnlichen Dateiformat abgespeichert. Damit ist ihre Nutzung an ein bestimmtes Kontextwissen gebunden, das selbst für Fachwissenschaftler nicht einfach zu reproduzieren ist.

Geländeerkundungen 1 1DFKGLHVHUHUVWHQ3UR]HVVLHUXQJGHU'DWHQIROJHQZLUZHLWHUGHP3IDG GHU 7UDQVIRUPDWLRQ GHU 'DWHQELOGHU XQG WUHIIHQ DXI GLH 3KRWRJUDPPH-

40 | D ATENBILDER WHULP+56&7HDP'LH3KRWRJUDPPHWHUVWHKHQDQHLQHUHQWVFKHLGHQGHQ Schnittstelle im Verarbeitungsprozess der Datenbilder. Unsere nächsten Gesprächspartner, Frank Scholten und Klaus Gwinner, teilen sich ein Büro. Während zu Beginn des Gesprächs noch beide anwesend sind, wird Klaus Gwinner im Laufe des dreistündigen Austauschs immer wieder von Kolleginnen und Kollegen angefragt und weggerufen. In den Aussagen der Mitarbeiter am DLR wird unabhängig voneinander auf die inforPHOOH$WPRVSKlUHLP+56&7HDPDOVJUR‰HV3OXVEHLGHU3UREOHPO|VXQJ DXIDOOHQ(EHQHQYHUZLHVHQ$XFK7KRPDV5RDWVFKIDVVWGLHVHVZLFKWLJH Kommunikationsinstrument und die damit verbundene räumliche Situation in einem Satz zusammen: »Wir sitzen ja alle auf einem Flur.« In diesem informellen Austausch verschwindet scheinbar auch die ansonsten KHUYRUJHKREHQH *UHQ]H ]ZLVFKHQ 3KRWRJUDPPHWULH XQG ¾7HFKQLN½ DXI GHUHLQHQ6HLWHXQGGHU3ODQHWRORJLHXQG¾:LVVHQVFKDIW½DXIGHUDQGHUHQ 6HLWH,QGHQ$XJHQYRQ)UDQN6FKROWHQLVWGDV=LHOGHU$UEHLWGHU3KRtogrammeter einfach: Sie möchten die Form des Geländes auf dem Mars HUIDVVHQ'LH'LHQVWOHLVWXQJGLHGHPQDFKGLH3KRWRJUDPPHWHUDQELHWHQ OlVVWVLFKZLHIROJWXPVFKUHLEHQHLQGLJLWDOHV0RGHOOYRQGHU2EHUÀlFKH des Mars plus »bildhafte Information«. Mit »bildhafter Information« ist GLH9LVXDOLVLHUXQJGHU2EHUÀlFKHGHV3ODQHWHQJHPHLQW'LH(UVWHOOXQJ HLQHV0RGHOOVGHU2EHUÀlFKHDQVLFKPXVVQLFKWLQHLQHU9LVXDOLVLHUXQJ enden. =HQWUDOHV =LHO GHU 3KRWRJUDPPHWHU LVW DOVR GLH (UVWHOOXQJ HLQHV GLJLWDOHQGUHLGLPHQVLRQDOHQ0RGHOOVGHU0DUVREHUÀlFKH,P,GHDOIDOOHUUHLFKWGLHVHV2EHUÀlFKHQPRGHOOHLQH$XÀ|VXQJ grid spacing) zwischen 50 und 150 Metern, in dem die Höheninformation als Helligkeitswert HLQHV 3L[HOV FRGLHUW LVW %HL GHU 6WDQGDUGSUR]HVVLHUXQJ GHU 'DWHQELOGHU erreichen die Level 3-Datensätzen der digitalen Geländemodelle eine $XÀ|VXQJYRQ0HWHUQ YJO+HLSNHHWDO 'LH$XÀ|VXQJ YRQ0HWHUQZLUGHUVWLQHLQLJHQ/HYHO3URGXNWHQHUUHLFKWGHUHQ3URGXNWLRQLP+56&7HDPVSlWHUEHJRQQHQKDWXQGGLHVHLWYHU|IIHQWlicht werden. Der Weg zu diesem Ziel ist allerdings ein Zusammenspiel komplexer Berechnungen. Lakonisch beschreibt Frank Scholten seinen Arbeitstag folgendermaßen: »Zwei Stunden Mars, zwei Stunden Venus ...«. Damit macht er deutlich, dass das Marsprojekt für ihn nur eine von vielen alltäglichen Aufgaben ist. Die formalen Arbeitsprozesse, mit denen diese verschiedenen Aufgaben zu bewältigen sind, ähneln sich aber so stark, dass für die Bestimmung der Geländeform auf Erde, Mars oder Venus dieselEHQ6NULSWHXQG3URJUDPPHDOV$XVJDQJVSXQNWHHLQHU$XWRPDWLVLHUXQJ der Verarbeitungsschritte verwendet werden können. Ein Hauptteil seiner Arbeit ist dementsprechend die Softwareentwicklung und die Rationa-

O RBITS | 41

lisierung der Datenverarbeitung. Automatisierung und Beschleunigung GHU 'DWHQYHUDUEHLWXQJ EHVFKUHLEHQ GDV $XIJDEHQIHOG HLQHV 3KRWRJUDPmeters. Die riesigen Datenmengen, die jeder Orbit mit seinen Aufnahmen aus bis zu neun Kanälen erzeugt, müssen in eine bestimmte Form gebracht werden, so dass die Wissenschaftler sie weiterverarbeiten können. $OOHDP,QVWLWXW3KRWRJUDPPHWHUXQG3ODQHWRORJHQDUEHLWHQLQ GHU gleichen Software-Umgebung. Die verwendeten und meist selbst entwiFNHOWHQ3URJUDPPHVLQGQLFKWSHUVRQHQEH]RJHQVRQGHUQREMHNWEH]RJHQ Am DLR wird dafür die NASA-Umgebung VICAR (9LGHR,PDJH&RPPXQLFDWLRQDQG5HWULHYDO) genutzt. VICAR wurde ungefähr 1966 am Jet 3URSXOVLRQ /DERUDWRU\ -3/  XQWHU DQGHUHP YRQ )UHGHULF & %LOLQJVOH\ HQWZLFNHOWGHU]XPHUVWHQ0DOGHQ%HJULIIª3L[HO©YHUZHQGHWKDEHQ soll. Diese Softwareumgebung wird in vielen Kameraexperimenten der NASA verwendet und hat so trotz ihres Alters den Weg in das HRSCExperiment gefunden. Eine der ersten Aussagen von Frank Scholten beleuchtet den Doppelstatus der Datenbilder: »Wir arbeiten mit Bildern«. Damit meint er aber NHLQHVIDOOVHLQHLQKDOWOLFKH%LOGEHWUDFKWXQJZLHVLHVSlWHUYRQGHQ3ODnetenforschern vorgenommen wird. Die Aussage bezieht sich eher auf die Art der Optimierung der Daten: Sie geschieht pixel-orientiert und nicht struktur-orientiert, also nicht visuell. Es wird nicht nach ähnlichen geoloJLVFKHQ6WUXNWXUHQ±ZLH.UDWHUQ6FKOXFKWHQRGHUlKQOLFKHP±JHVXFKW XPGLH%LOGHUJHQDXDXIGHU0DUVREHUÀlFKH]XYHURUWHQ9LHOPHKUIXQNWLRQLHUWGLH6XFKHQDFK%LOGlKQOLFKNHLWHQDXIGHU3L[HOHEHQH3L[HOIHOGHU werden in ihrer Helligkeitsverteilung rechnerisch miteinander verglichen XQGEHLDXVUHLFKHQGHUhEHUHLQVWLPPXQJDOV]XHLQDQGHUJHK|ULJGH¿QLHUW Dieses Verfahren nennt man REMHFWSRLQWGHWHUPLQDWLRQ. 'HU 3UR]HVV DXV +HOOLJNHLWVELOGHUQ HLQ +|KHQSUR¿O ]X JHZLQQHQ funktioniert in zwei Schritten. Ausgangspunkt sind die Aufnahmen von zwei (oder mehreren) der schräg blickenden sogenannten Stereokanäle. 'XUFKLKUHQVFKUlJHQ¾%OLFN½DXIGLH0DUVREHUÀlFKHVLQG(UKHEXQJHQDXI den Bildern der unterschiedlichen Kanäle etwas gegeneinander verschoben. Im ersten Schritt geht es darum, dieselben Geländepunkte auf beiden %LOGHUQPLWHLQDQGHU]XLGHQWL¿]LHUHQ'LHVJHVFKLHKWDXWRPDWLVFKLQGHP HLQ3URJUDPPlKQOLFKH+HOOLJNHLWVVWUXNWXUHQYRQ3L[HOIHOGHUQVXFKWXQG bei ausreichender Ähnlichkeit entscheidet, dass es sich um denselben GeOlQGHSXQNWDXIGHU0DUVREHUÀlFKHKDQGHOW Die Ähnlichkeit bezieht sich nicht etwa auf Objekte wie Krater, RinQHQRl7URW]GHPLVWGLHVHVSRLQWPDWFKLQJ in stark strukturiertem GelänGHHLQIDFKHUXQGHVODVVHQVLFKPHKU3XQNWHLGHQWL¿]LHUHQDOVLQHEHQHP Gelände. Zerklüftetes Gelände bedeutet gleichzeitig viele HelligkeitsdifIHUHQ]HQEHLVSLHOVZHLVHGXUFK6FKDWWHQZXUI'LH3KRWRJUDPPHWHUODVVHQ

42 | D ATENBILDER VLFKGLHJHIXQGHQHQEHUHLQVWLPPHQGHQ3XQNWHDOVURWH3XQNWHEHUGHP 2UELWDQ]HLJHQXP]XEHXUWHLOHQREHVEHUDOODXVUHLFKHQGYLHOH3XQNWH gibt, um das Gelände zu modellieren. ,P]ZHLWHQ6FKULWWZLUGGDQQ±ZLHGHUXPDXWRPDWLVFK±GLH9HUVFKLHEXQJ GHU HLQ]HOQHQ 3XQNWH LP HUVWHQ JHJHQEHU GHP ]ZHLWHQ %LOG EHrechnet. Aus dieser Verschiebung und der Kenntnis der Flughöhe sowie der beiden Sichtwinkel lässt sich dann berechnen, wie hoch der GeländeSXQNWEHUHLQHUDOV1RUPDOQXOOGH¿QLHUWHQ)OlFKHLVW'LHVZLUGIUDOOH 3XQNWH JHPDFKW =ZLVFKHQ GHQ 3XQNWHQ XQG GRUW ZR HV NHLQH 3XQNWH gibt, werden die Höhenwerte interpoliert. (LQ+HOOLJNHLWVYHUKlOWQLVZLUGLQGLHVHP3UR]HVVLQHLQ+|KHQSUR¿O umgerechnet. Die Höheninformation werden über einen indirekten Weg gewonnen, während beispielsweise bei der immer wieder genannten Referenz MOLA vergleichsweise direkte Höhenmessungen über die LaserODXI]HLWHQYRP2UELWHU]XU0DUVREHUÀlFKHYRUJHQRPPHQZHUGHQ Neben der REMHFWSRLQWGHWHUPLQDWLRQ gibt es ein weiteres Verfahren, dass zur genaueren Bestimmung von Höhenwerten im GLJLWDOWHUUDLQPRdelKHUDQJH]RJHQZHUGHQNDQQ(VKHL‰W3KRWRNORQRPHWULHRGHU VKDSH IURPVKDGLQJ (SFS) und ist in der wissenschaftlichen Bildanalyse weit verbreitet (vgl. Heipke 2005: 383). In den Worten der Fachwissenschaftler kann dieses Verfahren wie folgt charakterisiert werden: »Kernstück der Methode ist die Annahme, dass die Grauwerte im Bild als Funktion GHU1HLJXQJGHU*HOlQGHREHUÀlFKHUHODWLY]XU%HOHXFKWXQJVULFKWXQJEHschrieben werden können« (Heipke 2005: 383). Die Notwendigkeit einer solchen an der Bildinformation orientierten Herangehensweise ist insbesondere dann notwendig, wenn beispielsweise zwei nebeneinander liegende Orbits zu so genannten Mosaiken zusammengefügt werden sollen. Abbildung 11 zeigt ein solches Mosaik, für das eine in der Kartenprojektion übliche VKDGHG UHOLHI-Darstellung gewählt wurde. 6KDGHGUHOLHI bezeichnet die künstliche Beleuchtung der MarsoEHUÀlFKHDXV1RUGZHVWHQXPGLHWRSRJUDSKLVFKHQ6WUXNWXUHQKHUDXV]Xstellen. Dort, wo die Orbitbilder sich überlappen, sucht die Software nach Orientierungspunkten, um eine realistische Vorstellung von dem Gelände in der Überlappungszone zu gewinnen. Ebenso spielt diese Methode eine Rolle, wenn aus den fünf panchromatischen Kanälen eines Orbits (also nicht den Farbkanälen), die Geländestruktur generiert werden soll. Hier ergibt sich die Differenz schon allein aus den unterschiedlichen Scanwinkeln der Bildzeilen der Kamera (nach vorne, senkrecht und nach hinten). Dieser Arbeitsschritt des Vergleichs von Helligkeitsstrukturen in den Datenfeldern der verschiedenen Kanäle wird PXOWLLPDJH PDWFKLQJ genannt. Das PXOWLLPDJHPDWFKLQJLVWEHLGHU0HQJHGHU3L[HOVHKUDXIZHQdig und ein rechenintensiver Vorgang. Mit diesem Schritt werden aber

O RBITS | 43

HRSC shaded-relief mosaic of the central part of Valles Marineris, based on a digital-elevation model with 100-m grid.

$EE%HLVSLHOIUHLQVKDGHGUHOLHI0RVDLNDXV-DXPDQQHWDO 944. mögliche Fehlerquellen bei der Orientierung der Geländeausschnitte miQLPLHUW'HVKDOEÀLH‰HQDXFKLQQHUHXQGlX‰HUH)DNWRUHQLQGLH%HUHFKQXQJ GHU '70V HLQ ,QQHUH )DNWRUHQ VLQG EHLVSLHOVZHLVH JHRPHWULVFKH Eigenschaften der Kamera. Äußere Faktoren sind in der Regel die Orbitrekonstruktionen und die Ausrichtung von Mars Express]XU0DUVREHUÀlche. Gut dreieinhalb Jahre seit Beginn der Verarbeitung der Bilder sind diese Arbeitsschritte optimiert. Mit der steten Verbesserung der Verfahren und weiteren komplexen Berechnungen wird die Qualität der Endprodukte während des HRSC-Experiments immer weiter verbessert. Deshalb werden ab 2007 erstmalig Geländemodelle auf Level 4 der Datenprozessierung erstellt. Mit diesen Level 4-data products treten die HRSC-Datenbilder in Konkurrenz zu anderen Geländevermessungen des Mars. In

44 | D ATENBILDER Abbildung 12 werden die qualitativen Verbesserungen der Datenbilder am Beispiel einer Visualisierungsform, dem VKDGHG UHOLHI, sichtbar gemacht. Der Nadirkanal der HRSC (oben links), die Visualisierung des MOLA-Modells (oben rechts), das Level 3-Geländemodell (unten links) und das Level 4-Geländemodell (unten rechts) aus HRSC-Daten werden in einem Aufsatz in der Fachzeitschrift 3ODQHWDU\DQG6SDFH6FLHQFH nebeneinander gestellt. Entscheidend ist die Verbesserung der Geländeerfassung durch die prozessierten Level 4-Daten der HRSC im Vergleich zum Referenz- und Konkurrenzexperiment MOLA (siehe die beiden rechten Visualisierungen in Abb. 12). In unserem Gespräch mit Frank Scholten wird deutlich, dass die Datenbilder aus der HRSC nicht für sich alleine stehen. Gerade der Abgleich PLWGHQ'DWHQYRQ02/$GHU9HUPHVVXQJGHU0DUVREHUÀlFKHYRQGHU US-amerikanischen Sonde Mars Global Surveyor (1996-2006) mittels /DVHULVWHLQHQWVFKHLGHQGHU3UR]HVVVFKULWWLQGHUZLVVHQVFKDIWVLQWHUQHQ Überprüfung der Daten. Sind die Datenpunkte nicht mit dem MOLA-Geländemodell in Einklang zu bringen, gilt immer der Datensatz der HRSC DOV IDOVFK IU GDV +56&7HDP  (LQ 'DWHQELOG PLW +|KHQDQJDEHQ GHV Mars existiert also schon immer als Vorbild und die Verbesserung dieses Geländemodells wird erzielt, indem die Zwischenräume der VermesVXQJVOLQLHQ HLQHV SXQNWI|UPLJHQ /DVHUV PLW GHQ hEHUÀXJÀlFKHQ HLQHU %LOG]HLOH PLW EHU IQIWDXVHQG 3L[HOQ ¾DXIJHIOOW½ ZHUGHQ 'HU *HQDXigkeit eines Lasers steht demnach der ›Vollständigkeit‹ der HRSC-Daten gegenüber. 'LH8QWHUVFKLHGOLFKNHLWGHU0HVVPHWKRGHQLVWQDFK$XVVDJHGHV3URjektleiters Ralf Jaumann gewollt und gewünscht. Durch die HRSC-Daten wird die MOLA-Karte verfeinert und ihre ›Lücken‹ werden geschlossen. Bewusst wird in der Missionsplanung von Marserkundungen darauf geachtet, dass schon vollzogene Experimente nicht noch einmal wiederholt werden. Statt dessen geht es nach Ralf Jaumann um ein dichteres Netz der Marsbeobachtung, das die Momentaufnahmen von einzelnen Sonden zusammenbindet. Die Standardkarte des Mars, die in fast jedem der von uns besuchten Büros hängt, beruht auf den MOLA-Daten (Abb. 3). Sie ist die visuelle ReIHUHQ]]XU%HUHFKQXQJGHU0DUVREHUÀlFKHGXUFKGDV+56&([SHULPHQW Die HRSC-Daten fügen hier ›nur‹ die dritte Dimension (aus einer Messlinie wird eine gemessene Fläche auf dem Mars) und eine größere GeQDXLJNHLWLQGHU$XÀ|VXQJGHU*HOlQGHPRGHOOHKLQ]X'D]XNRPPWHLQ Geschwindigkeitsvorteil durch die entwickelte Verarbeitungssoftware, was bei einer sich rasant entwickelnden Marsforschung nicht vergessen werden darf: Die Berechnung eines Kartenmodells des Mars aus den MOLA-Daten dauerte mehrere Jahre, während brauchbare digitale Ge-

O RBITS | 45

$EE9HUJOHLFKYRQYLHUVKDGHGUHOLHIVHLQHV$XVVFKQLWWVGHU 0DUVREHUÀlFKH]XU9HUGHXWOLFKXQJGHV4XDOLWlWVJHZLQQVGXUFK +56&'DWHQLQHLQHU)DFK]HLWVFKULIW1DGLUNDQDOGHU+56& REHQ OLQNV 9LVXDOLVLHUXQJGHV02/$0RGHOOV REHQUHFKWV GDV/HYHO *HOlQGHPRGHOO XQWHQOLQNV XQGGDV/HYHO*HOlQGHPRGHOODXV +56&'DWHQ XQWHQUHFKWV  -DXPDQQHWDO 

46 | D ATENBILDER ländemodelle mit der HRSC, in wenigen Stunden vorliegen. Frank Scholten erklärt diesen Zeitvorsprung aus den Erfahrungen mit der HRSC in der Erdbeobachtung und ihrem Einsatz als Marskamera in vorgelagerten Experimenten. Hier konnten die Verarbeitungsprozesse schon optimiert werden, bevor die Kamera überhaupt auf dem Weg zum Mars war. So verweist Frank Scholten während unseres Gespräches ausdrücklich auf die Erfahrungen mit einem Schwestermodell der HRSC, das in der Erdbeobachtung eingesetzt wird. Im Unterschied zur Fernerkundung anderer 3ODQHWHQLVWGHU9RUWHLOGHU(UGEHREDFKWXQJGDVVPLW%RGHQPHVVXQJHQ die digitalen Geländemodelle ergänzt und korrigiert werden können. DieVHU9HUJOHLFKPLW'DWHQGLHDXIGHU0DUVREHUÀlFKHJHZRQQHQZHUGHQ ist natürlich bisher nicht möglich und wird auch in naher Zukunft weiter unmöglich sein. Außer dem Nadirkanal schauen alle anderen Kanäle der .DPHUDVFKUlJDXIGLH0DUVREHUÀlFKH Die Datenbilder sind als Grauwertkarten oder als Schattenkarten auf den Computermonitoren aufrufbar. Welche Darstellung der jeweilige 3KRWRJUDPPHWHUZlKOWLVWª*HVFKPDFNVVDFKH©)UXQVHUH/DLHQDXJHQ ist die Darstellungsform mittels Grauwerten erheblich schwieriger zu entziffern, da die Umsetzung von Grauwerten in Höheninformationen in unserer Wahrnehmung von Bildern kaum vorkommt und in der alltäglichen Bilderwelt nicht verlangt wird. Sie ist logisch einfacher, aber gleichzeitig abstrakter als das ›realistische‹ VKDGHG UHOLHI 'LH 3ODQHWHQIRUVFKHU EHnutzen jedoch diese Graustufenbilder, während für die Öffentlichkeit vor allem Farbbilder hergestellt werden. Dagegen schließt das Schattenmodell direkt an uns bekannte Darstellungsformen an. Die Sonne scheint bzw. die Lichtquelle strahlt immer aus Nordnordwesten auf die Landschaft und die Schatten fallen immer nach Südsüdosten, so dass trotz senkrechter Blickachse die Senken und Erhebungen allein durch den Schattenwurf unterscheidbar und plastisch werden. 'LHHUVWHQ(QGSURGXNWHIUGLH3ODQHWHQIRUVFKHUGLH/HYHO'DWHQVlW]HXQGVHLWGLH/HYHO'DWHQVlW]HZHUGHQYRQGHQ3KRWRJUDPmetern als data productsEH]HLFKQHW,QGHQYLHOHQ7UDQVIRUPDWLRQVSURzessen der photogrammetrischen Verarbeitung werden die ursprünglichen Datensätze immer wieder verändert und angepasst. So werden mit GHQYHUVFKLHGHQHQDXWRPDWLVFKHQXQGPDQXHOOHQ3UR]HVVHQLP9HUJOHLFK zu den Level 1-Datensätzen neue Datensätze hervorgebracht. Die neuen Datensätze können digitale Geländemodelle sein oder Orthobilder. Die digitalen Geländemodelle sind, vereinfacht ausgedrückt, Datenbilder, die HLQHP|JOLFKVWH[DNWH'DUVWHOOXQJGHUGUHLGLPHQVLRQDOHQ2EHUÀlFKHGHV Mars anstreben. Die Orthobilder sind dagegen Bilder, wie man sie aus HLQHU LGHDOHQ XQG JHRPHWULVFK YHU]HUUXQJVIUHLHQ 3HUVSHNWLYH VHQNUHFKW

O RBITS | 47

EHUGHU0DUVREHUÀlFKHHUKDOWHQZUGH'HPQDFKLVWHLQ2UWKRELOGHLQ durch geometrische Bildtransformation korrigiertes Bild. Es entspricht HLQHU RUWKRJRQDOHQ 3URMHNWLRQ GHV *HOlQGHV DXI HLQH NDUWRJUDSKLVFKH %H]XJVÀlFKH9HU]HUUXQJHQGXUFKGHQ2UELWXQGGLH.DPHUDZHUGHQLQ Orthobildern ebenso entfernt wie Verzerrungen aufgrund des Geländes RGHUGHU3ODQHWHQNUPPXQJ$EHU±DQGHUVDOVGLH'70V±]HLJHQGLH Orthobilder die tatsächliche Beleuchtung während der Aufnahme. Im Herstellungsprozess der data products werden zuerst die Geländemodelle gerechnet und dann die Orthobilder. Diese Reihenfolge beruht DXI =ZlQJHQ GHU 3UR]HVVLHUXQJ GD GLH (QW]HUUXQJ GHU 'DWHQELOGHU ]X einem Orthobild erst durch ein valides Geländemodell möglich ist. Erst ZHQQGHU3KRWRJUDPPHWHUZHL‰ZLHGDV*HOlQGHEHUKDXSWEHVFKDIIHQ ist, weiß er auch, wie es von oben aussieht. Ein ›perfektes‹ Geländemodell führt auch zu einem ›perfekten‹ Orthobild. Für die angestrebte Kartenprojektion werden alle Kanäle auf diesen senkrechten Blick von oben ausgerichtet. Dazu werden die Bilder entzerrt und mit den MOLA-Daten DEJHJOLFKHQ'LH/DVHUPHVVXQJHQGHU0DUVREHUÀlFKHYRQ02/$JLOWDOV die a priori topographische Vergleichsebene (Scholten et al. 2005: 1146). Im Laufe des Gespräches, in dem Frank Scholten uns sehr ausführlich seine Arbeitschritte und die Rechenvorgänge schildert oder am Computermonitor zeigt, stellen wir die Frage nach dem ›Realismus‹ der Level 3-Datenbilder. Für Frank Scholten ist völlig unstrittig, dass die DatenELOGHU GHU .DPHUD JHUDGH QDFK LKUHU 3UR]HVVLHUXQJ GLH 5HDOLWlW GHU 0DUVREHUÀlFKHLQGHQ$XÀ|VXQJVJUHQ]HQDEELOGHQ(LQ]LJGLH(LQÀVVH GHU$WPRVSKlUHN|QQHQGLH%LOGHUEHHLQÀXVVHQGDHVQRFKNHLQHZLUNOLFK gut funktionierende Software gebe, welche atmosphärische Störungen aus dem Modell rechnen könnte. Zur Farbgebung bei den Farbbildern befragt, die aus den Level 3-Daten erstellt werden, meint Frank Scholten, dass die RGB-Kanäle der HRSC ohnehin nicht dem Wahrnehmungsbereich des menschlichen Farbsehens entsprächen. Alle Farbkanäle wiesen eine leichte Rotverschiebung auf. 'LH)DUENDQlOHVHLHQEHLGHU3ODQXQJGHV([SHULPHQWVQDFKUHLQZLVVHQVFKDIWOLFKHQ .ULWHULHQ ZLH ]% LKUHU 7DXJOLFKNHLW IU 6SHNWUDODQDO\VHQ ausgesucht worden. Leitend war die Idee, die Spektralkontraste zu maximieren. Dadurch sind die RGB-Kanäle völlig anders als bei der Erdbeobachtung gewählt (Jaumann et al. 2007: 944). Ebenso wenig verschweigt Frank Scholten in unserem Gespräch die Schwierigkeiten bei der Erstellung der data products. Wenn beispielsweiVH NHLQHUOHL +|KHQGLIIHUHQ] LQ HLQHP 7HLOJHELHW HLQHV 'DWHQVDW]HV DXIWULWWLVWGLHVHUVFKZHUDOVGUHLGLPHQVLRQDOHV7HUUDLQ]XPRGHOOLHUHQ'HQQ entweder ist dieses Gebiet auf dem Mars total glatt (bezogen auf die zu HUUHLFKHQGH$XÀ|VXQJYRQFD0HWHU RGHUGHU'DWHQVDW]LVWDQ

48 | D ATENBILDER dieser Stelle unbrauchbar. Manchmal treten bei den Datenbildern nach GHUDXWRPDWLVLHUWHQ3UR]HVVLHUXQJ¾UDXH½2EHUÀlFKHQDXI2EGLHVGDQQ ,QWHUSRODWLRQVIHKOHUGHU6RIWZDUHRGHUZLUNOLFKH2EHUÀlFKHQVWUXNWXUHQ des Mars sind, bleibt in letzter Konsequenz unentscheidbar. »Es kommt immer darauf an, wie man es verkauft«, bemerkt dazu Frank Scholten ODNRQLVFK'LHVH*UHQ]IlOOHZHUGHQDXIJUXQGGHU(UIDKUXQJHQLQGHU3URzessierung der Datenbilder entschieden. ,QWHUHVVDQWHUZHLVHVSUHFKHQGLH3KRWRJUDPPHWHUHUVWYRQHLQHUª9Lsualisierung«, wenn aus diesen data products auf Level 3 ›Bilder‹ gewonnen werden, ohne dass die data products weiter verändert werden (vgl. Scholten et al. 2004: 469). Damit meinen sie beispielsweise die aus den /HYHO'DWHQHUVWHOOWHQ$QDJO\SKHQRGHUhEHUÀXJDQLPDWLRQHQ'LHVHU Bereich der »Visualisierung« ist für Frank Scholten eher uninteressant. Zu diesem Zeitpunkt der Weiterverarbeitung der Datenbilder ist seine Arbeit eigentlich schon getan. All diese »Visualisierungen« basieren immer wieder auf den gleichen Level 3- oder Level 4-Datensätzen, die durch die ª9LVXDOLVLHUXQJHQ© QLFKW WUDQVIRUPLHUW ZHUGHQ 'LH 9HUlQGHUXQJ ¿QGHW nur auf der Ebene der Verbildlichung der Datensätze statt und lässt diese selbst unberührt. 'LHUHODWLYVWULNWH7UHQQXQJ]ZLVFKHQ3KRWRJUDPPHWHUQXQG3ODQHtenforschern wird durch die Aussage von Frank Scholten bestätigt: »Ich möchte messen und nicht qualitativ aussagen«. Die Datenprozessierung ist eine quantitative Analyse und Synthese. Sie wird nicht durch mögOLFKHTXDOLWDWLYH$XVVDJHQEHUGLH'DWHQELOGHUEHHLQÀXVVW2EGLH3KRtogrammeter einen Krater, eine Schlucht, einen Berg oder einen Wasserlauf mit ihren Daten modellieren, ist für sie letztlich völlig unerheblich. Frank Scholten umschreibt den Unterschied zwischen beiden Gruppen LP+56&7HDPVLQQJHPl‰PLWIROJHQGHQ:RUWHQ'LH3KRWRJUDPPHWHU VLQGLPPHUDQGHU*HVDPWREHUÀlFKHGHV0DUVLQWHUHVVLHUWGLH3ODQHWHQforscher eher an den Details (Krater mit schwarzen Dünen, Bergzüge, 5LQQVDOH XQG HKHPDOLJH :DVVHUOlXIH  $EHU GDVV GLH 3KRWRJUDPPHWULH NHLQH:LVVHQVFKDIWVHLVRQGHUQQXUHLQ:HUN]HXJRGHUHLQH7HFKQLNZLH PDQFKH3ODQHWRORJHQEHKDXSWHQZLUGYRQ)UDQN6FKROWHQXQGZHLWHUHQ 3KRWRJUDPPHWHUQKHIWLJEHVWULWWHQ'LHXQWHUVFKLHGOLFKH6LFKWZHLVHDXI GLH3KRWRJUDPPHWULHYRQ6HLWHQGHU3KRWRJUDPPHWHUVHOEVWXQGYRQ6HLWHQ GHU 3ODQHWRORJHQ ZLUG VFKHLQEDU LP DOOWlJOLFKHQ =XVDPPHQDUEHLWHQ nicht weiter diskutiert. Jede Seite scheint dazu eine jeweils gegensätzliche Auffassung zu vertreten, was aber die gemeinsamen Bildpraxen im Rahmen des HRSC-Experiments nicht weiter berührt. Die Unterschiede im Erkenntnisinteresse von Datenaufbereitung LQ GHU 3KRWRJUDPPHWULH XQG GHU %LOGLQWHUSUHWDWLRQ LQ GHQ *HRZLVVHQVFKDIWHQE]ZGHU3ODQHWHQIRUVFKXQJZLUGYRQEHLGHQ6HLWHQJHQDXVRJH-

O RBITS | 49

sehen und ist für den Erkenntnisprozess scheinbar unschädlich. Bei den *HVSUlFKHQPLWGHQ3ODQHWHQIRUVFKHUQZLUGVFKQHOONODUGDVVVLHQLFKWVR UHFKWZLVVHQZDVGLH3KRWRJUDPPHWHUJHQDXPLWGHQ'DWHQGHU+56& PDFKHQ'LH3ODQHWHQIRUVFKHUDP'/5JUHLIHQLPPHUZLHGHUEHLLKUHQ »Visualisierungen« von geologischen oder topographischen MarsphänoPHQHQDXIGLH([SHUWLVHXQG+LOIHGHU3KRWRJUDPPHWHUEHLGHUZHLWHUHQ Verbildlichung der data products zurück.

Geländeerkundungen 2 =ZHLZHLWHUH0LWDUEHLWHUGLH9HUPHVVXQJVLQJHQLHXUH)UDQN3UHXVNHUXQG Stephan Elgner, die wir an ihrem Arbeitsplatz aufsuchen, beschreiben die QlFKVWHQ 7UDQVIRUPDWLRQVSUR]HVVH ]XU (UVWHOOXQJ GHU GLJLWDOHQ *HOlQdemodelle (GLJLWDO WHUUDLQ PRGHOV '70  )UDQN 3UHXVNHU XQG 6WHSKDQ Elgner rechnen alle bisher auf Level-3 gebrachten Orbits noch einmal PLWHLQHUJU|‰HUHQ*HQDXLJNHLWXPGLH$XÀ|VXQJGHUGLJLWDOHQ*HOlQGHPRGHOOH]XYHUEHVVHUQ0LWGHQQHXHQ%HUHFKQXQJHQZLUGHLQH$XÀ|sung von bis zu 50 Metern erreicht, anstatt wie bisher von etwa 200 Metern. Diese Datenbilder werden dann folgerichtig als Level 4-Datensätze EH]HLFKQHW 'LH 0HWHU$XÀ|VXQJ GHU 'DWHQELOGHU ZLUG IU HLQHQ Quicklook als ausreichend erachtet. Diese Datenbilder sind sehr schnell, innerhalb weniger Stunden nach Eintreffen der Daten von der Mars Express IHUWLJJHVWHOOW 'LH 0HWHU$XÀ|VXQJ ZDU PLW GHQ YRUKDQGHQHQ Software-Werkzeugen am Anfang der Mission gar nicht erreichbar, aber mit der steten Weiterentwicklung der Algorithmen und der SoftwareentZLFNOXQJLVWVLHQXQPDFKEDUXQGIUGLH3ODQHWHQIRUVFKHUGHV0DUVHLQ wichtiger Fortschritt. Auch für diesen Arbeitsschritt wird die ›ultimative‹ Referenz der 02/$'DWHQQRFKHLQPDOEHVWlWLJWhEHUDXWRPDWLVLHUWH3UR]HVVHVRJHnannte Skripte, wird das schon beschriebene PDWFKLQJ erneut vorgenommen. Dabei wird nach der Übereinstimmung von Orientierungspunkten im Gelände gesucht. Die Übereinstimmung von Orientierungspunkten aus den Kanälen der HRSC und den MOLA-Daten gilt hier wieder als Beweis, GDVVHLQ3XQNWZLUNOLFKªGD©LVWXQGQLFKWQXUHLQ$UWHIDNWGHV6FDQYRUgangs eines der HRSC-Kanäle darstellt oder auf einem Fehler in der Software beruht. Dieses PDWFKLQJ geschieht nach zwei von Frank Scholten entwickelten Modellen. Diese Modelle sind geheim und so erfahren wir nicht, wie sie funktionieren. Die Optimierung des PDWFKLQJ3UR]HVVHVLVW so wichtig, weil er über die Qualität der Daten und die Schnelligkeit von Ergebnisses entscheidet. Insofern bedeutet er einen wirklichen Wettbewerbsvorteil für die Forscherinnen und Forscher am DLR. Lokalisiertes Wissen über die Verarbeitung der Rohdaten stellt nicht

50 | D ATENBILDER die Ausnahme bei einer auf Instrumenten gestützten Forschung dar. Auch bei anderen Instrumenten auf Raumsonden gibt es dieses Vorsprungswissen der unmittelbar Beteiligten, so dass der internationale Austausch über Instrumentendetails, Verarbeitungsskripte oder Datenmodelle nicht immer reibungsfrei vonstatten geht. Sobald die Orientierungspunkte (also bestimmte Orte auf dem Mars LP8QWHUVFKLHG]XGHQ]XYRUEHVWLPPWHQ3XQNWHQLQ'DWHQIHOGHUQ DXV den Daten der verschiedenen Kanäle der HRSC erkannt sind, werden sie DQGLH02/$'DWHQDQJHSDVVW)UDQN3UHXVNHUPHLQWGD]Xª02/$LVW unsere Wahrheitskontrolle.« Diese Aussage bezieht sich ganz praktisch auf seine tägliche Arbeit. Denn er visualisiert die Differenzen zwischen beiden Datensätzen (HRSC und MOLA) auf den Computermonitoren. DaPLWZLUGDXIHLQHQ%OLFNHUNHQQEDUZRGLH3UREOHP]RQHQGHU'DWHQELOGHU liegen. Die Differenzbilder werden entweder in Farbe oder als Graustufen dargestellt; dies richtet sich je nach persönlichen Vorlieben. Das Bild auf dem Computerbildschirm selbst ist als Differenzbild zu lesen. Große Abweichungen zwischen den Datensätzen sind nur durch die Visualisierung der Daten leicht zu erfassen. Anhand von Abbildung 13 lässt sich dieses Verfahren erklären. Das linke Bild ist ein VKDGHGUHOLHI, das aus einem Level 4-data product mit 0HWHU$XÀ|VXQJHQWVWDQGHQLVW'DQHEHQLVW]XP9HUJOHLFKHLQZHLteres VKDGHG UHOLHI auf der Basis von MOLA. Schon im direkten visuHOOHQ 9HUJOHLFK HUNHQQW GHU %HWUDFKWHU HLQHUVHLWV GLH K|KHUH $XÀ|VXQJ des HRSC-Bildes im Vergleich zum MOLA-Bild. Andererseits lassen VLFKNOHLQHUH8QWHUVFKLHGHLQGHU7RSRJUDSKLHIHVWVWHOOHQ Das dritte Bild ist das erste Differenzbild, das mittels Falschfarben die Höhenunterschiede zwischen den beiden digitalen Geländemodellen aus HRSC- und MOLA-Daten darstellt. Die Farbskala hat eine Bandbreite von -400 bis +400 Metern. Dies deutet auf durchaus relevante HöhenunWHUVFKLHGH]ZLVFKHQEHLGHQ'DWHQELOGHUQE]Z'70VKLQ'DV'LIIHUHQ]ELOGZHLVWLQVEHVRQGHUHLQGHPVWDUNVWUXNWXULHUWHQ%HUHLFKGHU7lOHULQ der oberen Bildhälfte eine Reihe von markanten Abweichungen aus. Das letzte Differenzbild zeigt die Spuren der MOLA-Messungen DXI GHU 0DUVREHUÀlFKH 'HU /DVHU GHV 02/$,QVWUXPHQWV PLVVW ]ZDU sehr genau, aber nur auf der vom dünnen Laserstrahl bestrichenen Linie. Zwischen den Laserlinien wird das Geländemodell interpoliert. In diesen Lücken sind die Abweichungen zwischen HRSC und MOLA am stärksten ausgeprägt. Im letzten Bild fallen diese Interpolationen des MOLAGeländemodells weg. Die Färbung der Linien (Laserabtastungen) im türkisen Bereich zeigen eine hohe Übereinstimmung zwischen MOLAund HRSC-Modell entlang dieser Linien. Dies ist natürlich nicht weiter YHUZXQGHUOLFK GD EHL GHU 3UR]HVVLHUXQJ GHU +56&'DWHQ GLH 02/$

O RBITS | 51

Shaded relief and difference maps of Ophir Labes and Ophir Planum, Valles Marineris. North is downward. From left to right: a) HRSC 50m DTM, image 2039_0000 b) MOLA 463m DTM c) Height differences between the DTMs d) Height differences between the DTMs, excluding data gaps filled by interpolation.

$EE9HUJOHLFKYRQ+56&XQG02/$*HOlQGHPRGHOOPLW 'LIIHUHQ]ELOGHUQGHU+|KHQXQWHUVFKLHGH]ZLVFKHQEHLGHQ0RGHOOHQ *ZLQQHUHWDO  0HVVXQJDOV5HIHUHQ]JU|‰HGLHQW'LH'LIIHUHQ]ELOGHUVLQGLQGHU3UR]HVsierung der Daten eine wichtige Größe, da dort eventuell problematische Stellen sofort hervorstechen. Gleichzeitig bestätigt die größere Genauigkeit des digitalen Geländemodells der HRSC in den Gebieten jenseits der MOLA-Messlinien, dass die HRSC in diesen Bereichen neue Informationen über die Marstopographie generiert. Die Angleichung der problematischen Stellen in den HRSC-Datenbildern geschieht mit einer Mittelwertbildung und wird wieder visuell am Monitor kontrolliert. Bilder und Daten werden also synchron bearbeitet. ,Q GLHVHU *HVDPWVFKDX HLQHV 2UELWV ZLUG IU )UDQN 3UHXVNHU DXFK VHKU schnell evident, wenn Staub und Dunst in der Marsatmosphäre die Ursachen größerer Abweichungen sind. Dazu muss man wissen, dass Staubstürme auf dem Mars keine Seltenheit sind und über Wochen und Monate

52 | D ATENBILDER anhalten können. Dann kann es sein, dass viele Orbits aus diesem Zeitraum für die Forschung unbrauchbar sind. $OOHGLHVHEHREDFKWHWHQXQGLP*HVSUlFKKLQWHUIUDJWHQ3UR]HVVHELOGHQLQGHQ:RUWHQYRQ)UDQN3UHXVNHUHLQHJHZLVVHª$XVZHUWXQJVSKLORsophie« ab. Dazu gehört, dass ständig an der Verbesserung der Auswertungsalgorithmen gearbeitet wird. Die Analyse der Datenbilder erfolgt GHPQDFKZHLWHVWJHKHQGYROODXWRPDWLVFK7URW]GHPEUDXFKWHVGLH$XJHQ der beiden Vermessungsingenieure zur visuellen Kontrolle der ErgebQLVVH %HL 3UREOHPHQ ZHUGHQ PDQXHOO $QSDVVXQJHQ DQ GHQ 'DWHQ EHU die Bilder auf den Monitoren vorgenommen. Auf diese Weise wird jeder Orbit visuell kontrolliert und mit den zwischenzeitlich verbesserten AlJRULWKPHQQRFKHLQPDOQHXJHUHFKQHW'DGXUFKHUUHLFKWGDV+56&7HDP aus denselben Datensätzen eines längst vergangenen Orbits die im IdealIDOOXPGHQ)DNWRUYLHUYHUEHVVHUWH$XÀ|VXQJGHU0DUVREHUÀlFKHLQGHQ digitalen Geländemodellen. Die visuelle Kontrolle der neu gerechneten Orbitdaten ist nach AussaJHYRQ)UDQN3UHXVNHUªVHKUDQVWUHQJHQGIUGLH$XJHQ©'LH0DUVREHUÀlFKHELHWHWZHJHQIHKOHQGHU9HJHWDWLRQ:DVVHURGHU.XOWXUÀlFKHQZHQLJ $EZHFKVOXQJ )UDQN 3UHXVNHU KDW VFKRQ HLQLJH (UIDKUXQJHQ PLW 'DWHQ DXVGHU+56&YRQ)OJHQHLQHU6FKZHVWHUNDPHUDEHUGLH(UGREHUÀlFKH Deren Datenbilder sind »schöner und visuell anspruchsvoller«. Insgesamt FKDUDNWHULVLHUWHUVHLQH7lWLJNHLWDOVª)OLH‰EDQGDUEHLW©LQGHUMHGHU2Ubit in der zeitlichen Reihenfolge seiner Aufnahme abgearbeitet wird und data products auf Level 4 hergestellt werden. Gleichzeitig wird von ihm hervorgehoben, dass in Deutschland ansonsten niemand einen solchen Aufgabenbereich hat und die nächsten sowie weltweit wahrscheinlich einzigen Kollegen bei der NASA sitzen. 1DFK)UDQN3UHXVNHUNRPPWLQGHU3UR]HVVNHWWHGHU'DWHQELOGHU6WHphan Elgner, mit dem er sich ein Büro teilt und dem er seine ›fertigen‹ Datenbilder weiterreicht. Er beschreibt seine Aufgabe im Unterschied zu GHUYRQ)UDQN3UHXVNHUZLHIROJWª0HKUVHKHQXQGZHQLJHU3UR]HVVHRUGnen.« Die Arbeit mit und an den Bildern kennzeichnet seine Aufgabe der ZHLWHUHQ(UVWHOOXQJYRQ'70V Die Basis seiner Arbeit sind sechs Varianten, mit denen er ein vaOLGHV '70 Digital Terrain Model) produziert. Diese sechs Varianten ZHUGHQ ZLHGHUXP GXUFK DXWRPDWLVLHUWH 3UR]HVVH HUVWHOOW GLH XQWHU DQderem von Klaus Gwinner entwickelt wurden. Die sechs Varianten sind bedingt durch die möglichen Kombinationen der verschiedenen Kanäle von HRSC bei einem Orbit. Bei diesen sechs Varianten gibt es jeweils YLHUYHUVFKLHGHQH$XÀ|VXQJVHEHQHQ±YRQJUREHU$XÀ|VXQJELV]XUEHVWP|JOLFKHQ$XÀ|VXQJ Die Aufgabe von Stephan Elgner besteht darin, von diesen insgesamt

O RBITS | 53

24 Varianten eine auszusuchen. Diese Entscheidung fällt zuerst anhand GHV9HUVXFKVGLHK|FKVWP|JOLFKH$XÀ|VXQJ]XHU]LHOHQ(LQH5ROOHVSLHOW aber auch die Erfahrung mit den Ausgangsdateien. Letztlich entscheidet der visuelle Abgleich mehrerer Varianten, welche genommen wird. Nicht immer wird das am höchsten aufgelöste Datenbild genommen, denn es liefert nicht immer das ›beste‹ Ergebnis. Die Ursache hierfür liegt in der sehr unterschiedlichen Qualität der Ausgangsdaten. Danach wird statt der Höhendarstellung in Graustufen immer ein VKDGHG UHOLHI erstellt. Dann erfolgt die Auswahl des Bildausschnittes. Diese Auswahl geschieht ebenso rein visuell am Computerbildschirm. Entscheidend ist hierbei neben der Bildqualität auch die Wichtigkeit der 2EMHNWHIUGLH3ODQHWHQIRUVFKXQJ'LHVHQ9RUJDQJHUNOlUWXQV6WHSKDQ Elgner an einem Orbit, den er auf seinem Monitor aufruft. Er schneidet fast zwei Drittel dieses Orbits ab, weil die Daten in dem abgeschnittenen 7HLOLQNRQVLVWHQWVLQGXQGDX‰HUGHPNHLQHLQWHUHVVDQWHQ6WUXNWXUHQ]HLgen. Wäre in diesem Orbit allerdings ein wichtiges Missionsziel wie der 2O\PSXV0RQVDXIJHQRPPHQZRUGHQZUGHPDQYHUVXFKHQGLHVHQ7HLO des Datenbildes zu retten. Ein weiteres Auswahlkriterium kommt hinzu. Die möglichen Objekte IUGLH3ODQHWHQIRUVFKHUPVVHQ¾YROOVWlQGLJ½VHLQ+DOEH.UDWHUPDFKHQ DOV 8QWHUVXFKXQJVREMHNWH IU GLH 3ODQHWHQIRUVFKXQJ NHLQHQ 6LQQ $P Ende wird das VKDGHGUHOLHI aus den HRSC-Daten mit dem VKDGHGUHOLHI aus den MOLA-Daten visuell abgeglichen (vgl. Abb. 13). Der Abgleich RIIHQEDUWQRFKHLQPDOHYHQWXHOOH3UREOHPVWHOOHQ'DQQZHUGHQGLH2UELWbildstreifen zurecht geschnitten. Unbrauchbare Bildteile werden entfernt. Nach einem nochmaligen Rechenvorgang entstehen als Endprodukte diJLWDOH*HOlQGHPRGHOOH '70V XQG2UWKRELOGHUXQGQLFKWGLHVKDGHGUHOLHIV aus dem Zwischenschritt der Datenbilderverarbeitung. Stephan Elgner unterstreicht, dass insbesondere bei der BildherstelOXQJIU3XEOLNDWLRQHQGDUDXIJHDFKWHWZHUGHQPXVVGDVVNHLQH$UWHIDNWH auf den Datenbilder zu sehen sind. Dies wäre für die wissenschaftsinterne .RPPXQLNDWLRQYHUZLUUHQGGDMHGHV$UWHIDNWDOVUHDOLVWLVFKHV2EHUÀlchenphänomen gedeutet werden könnte. Während der Bearbeitung eines Datenbildes entdecken wir eine gerade Kante, die quer durch das gesamte %LOGOlXIW(LQHVROFKH$EEUXFKVWHOOHDXIGHU0DUVREHUÀlFKHLVWQLFKWYRUstellbar und irritiert den Betrachter. Exemplarisch demonstriert Stephan Elgner an seinem Monitor die Bearbeitung eines Orbits. Eine Folge von Eindrücken, die uns erahnen OlVVWZLHYLHOYLVXHOOH$UEHLWLQGHU(UVWHOOXQJGHU'70VVWHFNW6WHSKDQ Elgner arbeitet ständig an Bildern und mit Bildern, um seine data products mit anderen abzugleichen und zu verbessern. Das Ziel dieser Anstrengung ist es, am Ende der Mission ein Gelän-

54 | D ATENBILDER GHPRGHOOGHUJHVDPWHQ0DUVREHUÀlFKHLQHLQHU$XÀ|VXQJYRQELV]X Metern zu erhalten. Dann könnte man relativ detaillierte Marskarten erstellen oder einen Landeplatz einer möglichen Landefähre vorher dreidimensional visualisieren, um eventuelle geologische und topographische Hindernisse zu erfassen. Solche Datenbilder könnten auch AusgangsSXQNWIUGLH9LVLRQYLHOHU3ODQHWHQIRUVFKHUVHLQHLQPDOLQGHUYLUWXHOOHQ digitalen Realität auf dem Mars stehen zu können.

Falsche Farben und der Mars in 3D Von der Ankunft der Daten am DLR und beim Erstellen der data products GXUFK GLH 3KRWRJUDPPHWHU ZHUGHQ GLH 'DWHQELOGHU VWlQGLJ WUDQVformiert, Informationen hinzugefügt und weggenommen. In diesem 3UR]HVVHQWVWHKHQGLHdata products auf Level 1 bis 4. Ab jetzt wird an diesen Datenprodukten nichts mehr verändert. Sie werden entweder für GLH gIIHQWOLFKNHLWVDUEHLW ¾YLVXDOLVLHUW½ RGHU YRQ GHQ 3ODQHWHQIRUVFKHUQ und Geowissenschaftlern zur Grundlage für die eigene Forschungsarbeit genommen. Diesen Verzweigungen des Wegs der Datenbilder wird nun nachgegangen. $QHLQHP(QGHMHQHU3UR]HVVNHWWHVLW]W0DULWD:lKOLVFK6LHEHVFKlIWLJW VLFK PLW GHP %HUHLFK GHU YRQ GHQ 3KRWRJUDPPHWHUQ DOV ª9LVXDOLsierung« bezeichnet wird und der mit den zuvor erstellten data products arbeitet, ohne die Datensätze weiter zu verändern. Einerseits hilft sie den 3ODQHWHQIRUVFKHUQ PLW LKUHQ 9LVXDOLVLHUXQJVZQVFKHQ DQGHUHUVHLWV LVW sie für die Bildproduktion in der Öffentlichkeitsarbeit zuständig. Das GeVSUlFK¿QGHWLQLKUHP%URDEHUDXFKDXIGHP)OXUXQGLQHLQHP7HUPLQDOUDXPVWDWW$XIGHP)OXUXQGLP7HUPLQDOUDXPEHWUDFKWHQZLUJHPHLQsam verschiedene Ausdrucke, die Marita Wählisch und ihre Mitarbeiter erstellt haben. Marita Wählisch zieht aus einem Stapel von Marsbildern wie aus einer Kunstmappe immer wieder neue Ansichten des Mars hervor und erklärt uns den Zweck und die Mittel der Darstellung. Im Flur hängt eine große Anaglyphe von Olympus Mons, dem höchsten Berg auf dem Mars. Und um die Anaglyphen geht es auch zuerst in unserem Gespräch. Anaglyphen sind in Komplementärfarben eingefärbte Stereobilder, die der Betrachter mit einer entsprechend farbigen Brille als dreidimensionales Bild wahrnimmt. Als Beispiel für eine Anaglyphe haben wir wieder den Orbit 0334 gewählt (Abb. 14). 'LH'70VPLWHLQHU0HWHU$XÀ|VXQJVLQGGLH*UXQGODJHIUGLH 3HUVSHNWLYELOGHU'D]XEHQ|WLJW0DULWD:lKOLVFKIUGLH$QDJO\SKHQKHUstellung einen Stereo- und den Nadirkanal der HRSC. Die Bildausrichtung liegt dann zuerst einmal in Flugrichtung des Orbiters. Diese Anaglyphen werden nur auf Bestellung produziert. Das heißt, sie werden nicht auto-

O RBITS | 55

$EE$QDJO\SKH2UELW‹(6$'/5)8%HUOLQ *1HXNXP  PDWLVFK YRQ GHU JHVDPWHQ 0DUVREHUÀlFKH JHPDFKW 'LH %LOGHU ZHUGHQ hauptsächlich für die Öffentlichkeitsarbeit genutzt. So wurden beispielsweise für die Wanderausstellung »Unser Nachbar Mars« Anaglyphen in großen Formaten produziert. 'DV.ULWHULXPGHU0RWLYZDKOULFKWHWVLFKQDFKGHQ9RUJDEHQGHU3ODnetenforscher. Nur geologisch interessante Strukturen, die entsprechend dramatische Höhenunterschiede aufweisen, werden für die Anaglyphen DXVJHVXFKW6REULFKWGLH0DUVREHUÀlFKHLQGHU2SKLU6FKOXFKWGLHZLU auf dem Orbit 0334 sehen, 5000 Meter ein. Der Effekt der Dreidimensionalität, der sich mit den entsprechenden 3D-Brillen für den Betrachter einstellt, wird noch durch eine zwei- bis dreifache Überhöhung in den Anaglyphen verstärkt. Auf dem Flur machen wir mit diesen Brillen einen Selbstversuch; der räumliche Effekt durch diese Überhöhung ist spektakulär. Ähnliches haben wir zuvor auch schon bei der besagten Wanderausstellung erlebt. Die Schluchten erscheinen abgründiger und die Berge gewaltiger als auf der Erde. Die Überhöhung ist dabei in Bezug auf die Wahrnehmung noch nicht einmal übertrieben, denn hinsichtlich der tatsächlichen Höhenunterschiede lassen sich die höchsten irdischen Gebirge nicht mit dem riesigen Olympus Mons vergleichen, und die tiefsten Schluchten auf den KontiQHQWHQGHU(UGHVLQGZHVHQWOLFKÀDFKHUDOVGLH0DUVVFKOXFKWHQLP9DOOLV Marineris. Da wir schon von Frank Scholten erfahren haben, dass die Farbaufnahmen aus den vier Farbkanälen der HRSC nicht mit der menschlichen Wahrnehmung kompatibel ist, wissen wir, dass die typisch rötlichen )DUEELOGHUYRQGHU2EHUÀlFKHGHV0DUVDXI)DOVFKIDUEHQEHUXKHQ'HPgegenüber ist uns bei der Recherche zuvor aufgefallen, dass alle Bilder in

56 | D ATENBILDER den Veröffentlichungen scheinbar ein einheitliches Farbspektrum benutzen. Dafür gibt es eine einfache und dennoch verblüffende Erklärung: Zu Beginn der Mission hat der principal investigator, Gerhard Neukum, festgelegt, welche Falschfarbendarstellung gewählt wird. Diese Festlegung ist letztlich eine Konvention. Die Einheitlichkeit der Farbgebung sorgt für einen hohen Wiedererkennungswert der Bilder aus der HRSC. »Weil es sowieso Falschfarben sind, haben wir uns etwas halbwegs Realistisches ausgesucht«, beschreibt Marita Wählisch die Farbwahl und fügt hinzu: ª(VJLEWNHLQHUHDOHQ%LOGHUYRQGHU0DUVREHUÀlFKH©$OOH0DUVNDPHUDV nehmen nur Graustufenbilder und einige nur durch bestimmte Filter auf. Die Kameras auf Orbitern ›sehen‹ durch die Atmosphäre, die Kameras auf Landern ›sehen‹ den Boden direkt, aber mittels Licht, das durch die Atmosphäre gegangen ist. Die Farben, welche den Bildern erst ihren realistischen Anschein geben, sind alle künstlich abgemischt. Später nennt uns Ralf Jaumann noch einen weiteren Grund für die Farbwahl, indem er das rötliche Spektrum der Farbbilder als »NASA-Rot« bezeichnet. Die US-amerikanische Weltraumbehörde hat sich mit den ersten Bildern von Marssonden für ein bestimmtes Farbspektrum entschieden, das die bekannten Rottöne bei Bildern vom Mars hervorbringt. Die Farbeichung ¿QGHWEHUGLHDXIGHP0DUVJHODQGHWHQ5RYHUXQGLKUH.DPHUDVVWDWW 3ULQ]LSLHOO LVW GLH $WPRVSKlUH GHV 0DUV GHU JU|‰WH 6W|UIDNWRU EHL GHU Festlegung von realistischen Farben der topographische und geologischen Gegebenheiten. Gleichzeitig sind die Farbkanäle der HRSC wichtige Erkenntnismittel, wenn man, wie bei der Forschungsarbeit von Mariam Sowe, etwas über die geologische Zusammensetzung von Ablagerungen erfahren möchte. Das Farbbild des Ophir Chasma in der Abbildung 15 basiert auf einem Komposit von Nadirkanal und den Farbkanälen. Dagegen wurde die 3DVisualisierung in Abbildung 16 als perspektivische Ansicht mithilfe der Stereokanäle der HRSC berechnet. Auch ihren visuellen Output beurteilt Marita Wählisch nach nach Erfahrungswerten und ästhetischen Maßstäben. Von den Anaglyphen werden mehrere Vorschauen gerechnet. Allein pro Vorschau dauert der Rechenvorgang ca. eine Stunde und dann wird aus diesen Vorschauen GLH¾SDVVHQGVWH½XQG¾VFK|QVWH½9HUVLRQEHU1DFKWLQK|FKVWHU$XÀ|VXQJ gerechnet. $OOH$QLPDWLRQV¿OPH±YRUDOOHPGLHhEHUÀJHEHUGLH0DUVREHUÀlFKH±ZHUGHQQLFKWDP'/5VRQGHUQDP+DVVR3ODWWQHU,QVWLWXWHUVWHOOW (LQhEHUÀXJZLUGGHQ]DKOUHLFKHQ%HVXFKHUJUXSSHQLP9RUWUDJVVDDOGHU DLR gern vorgeführt. Der Filmvorführer kann live eine Route durch das JU|‰WH *UDEHQV\VWHP GHV 0DUV 9DOOLV 0DULQHULV  ÀLHJHQ 0LWWHOV $QD-

O RBITS | 57

$EE2UELW)DUEELOG‹(6$'/5)8%HUOLQ *1HXNXP 

$EE2UELW'3HUVSHNWLYELOG‹(6$'/5)8%HUOLQ *1HXNXP  JO\SKHQGDUVWHOOXQJNDQQGDV3XEOLNXPGLHVHQ)OXJDXIHLQHU.LQROHLQZDQGXQGPLW3RODULVDWLRQVEULOOHQDOV'3URMHNWLRQYHUIROJHQ Die Faszination dieser Art der Darstellung geht unseres Erachtens aber nur wenig über die zweidimensionalen Fluganimationen über MarsREHUÀlFKHQKLQDXV'XUFKGLH/LYH6WHXHUXQJGHU)OXJURXWHHQWVWHKHQ immer wieder uninteressante Flugpassagen und die wechselnde Flughöhe

58 | D ATENBILDER verursacht eher Verwirrung, als dass sie Einsichten in die Marstopographie erlaubt. Hinzu kommt, dass an den Rändern der Simulation ein Sturz LQVFKZDU]H7LHIHQHUIROJWGHUGLH,OOXVLRQHLQHV)OXJHVEHU GHQ0DUV HPS¿QGOLFKVW|UW'DV6FKZDU]HQWVWHKWZLHDXFKLQ$EELOGXQJGXUFK fehlende Daten über das anschließende Gelände. Über eine AutomatisieUXQJ XQG 3URIHVVLRQDOLVLHUXQJ GLHVHU 3UlVHQWDWLRQ ZLUG LQ GHU 7HDPVLWzung noch ausführlich diskutiert. 'LH(UVWHOOXQJYRQ3HUVSHNWLYELOGHUQXQG$QDJO\SKHQJHVFKLHKWELV DXIZHQLJH$XVQDKPHQIUGLHUHJHOPl‰LJHQ3UHVVHPLWWHLOXQJHQ0DULWD :lKOLVFK LVW EHU]HXJW GDVV GLH 3UHVVHPLWWHLOXQJHQ QXU PLW VHQVDWLonellen Bildern und nicht mit sensationellen Erkenntnissen ›funktionieUHQ½'LH3HUVSHNWLYELOGXQG$QDJO\SKHQHUVWHOOXQJLVWUHODWLYHLQIDFK]X erlernen und wird bei der Anforderung größerer Mengen an Bildmaterial auch einmal von studentischen Hilfskräften durchgeführt. In Zukunft plant man am Institut, zusätzlich materielle 3D-Modelle der MarsoberÀlFKH]XHUVWHOOHQ

Meet the Team (LQPDOGLH:RFKHNRPPWGDVJHVDPWH+56&7HDPDP'/5LQ%HUOLQ Adlershof zusammen, um zurückliegende und bevorstehende Ereignisse, 3URMHNWHXQG3UREOHPH]XEHVSUHFKHQ'DV7HDPPHHWLQJ¿QGHWLQHLQHP Konferenzraum statt, der auch als Arbeitsraum dient. An den Wänden stehen Arbeitstische mit Rechnern und in der Mitte des Raums steht ein RYDOHU .RQIHUHQ]WLVFK DQ GHP DOOH 0LWDUEHLWHU DXV GHP +56&7HDP 3ODW]QHKPHQ.HLQHUGHU%HWHLOLJWHQKDWHLQHQ/DSWRSGDEHLXQGZlKUHQGGHVJHVDPWHQ7UHIIHQVZHUGHQNHLQH%LOGHUJH]HLJW'LH7HLOQHKPHU machen sich ab und zu Notizen. 'DV 7UHIIHQ WHLOW VLFK WKHPDWLVFK LQ ª.DPHUD© XQG ª6FLHQFH© XQG ZLHGHUYHUOlXIWGXUFKGDV+56&7HDPJHQDXMHQH*UHQ]HGLHZLUVFKRQ zuvor in jedem Gespräch von unserem Gegenüber thematisiert fanden. Die wiederkehrende Standardfrage von Ralf Jaumann zu Beginn kennen ZLUDXFKVFKRQDXVXQVHUHP*HVSUlFKPLW7KRPDV5RDWVFKª:RLVWGHU Orbit?« Im Anschluss an diese Frage wird kurz über die Qualität der Aufnahmen, die Wetterbedingungen auf dem Mars oder den Datendownload JHVSURFKHQ'DQQJHKWHVXPHLQHVSH]LHOOH3UHVVHPLWWHLOXQJ]XPEHYRUstehenden fünftausendsten Orbit von Mars Express. Es stellt sich heraus, dass man zwar zu wissen glaubt, dass die ESA etwas plant, aber es noch NHLQH$EVWLPPXQJ]ZLVFKHQ'/5XQG(6$VWDWWJHIXQGHQKDW'LH3UHVVHPLWWHLOXQJHQGHU(6$VLQGDEJHNRSSHOWYRQGHQHQGHV+56&7HDPV $X‰HUGHPVWHKWGLH(QWVFKHLGXQJGHVª6FLHQFH7HDP©]XU'LVNXVVLRQGDVVGLH/HYHO'DWHQ GLH'70VPLW0HWHU$XÀ|VXQJ DXIGHU

O RBITS | 59

Website bzw. der zugrunde liegenden Datenbank freigegeben werden sollen. Daran schließt sich eine lange und kontroverse Diskussion über die Benutzungsfreundlichkeit der Datenbank an. In diesem Zusammenhang ZHUGHQGLHXQWHUVFKLHGOLFKVWHQ)UDJHQGLVNXWLHUW:HUGHQ3URMHNWLRQVSDrameter mit den Datenbildern geliefert und wo tauchen sie auf? Werden fehlende Orbits erklärt? Gründe können Staub oder andere Atmosphärestörungen sein. Welches Vorwissen kann bei den Benutzern vorausgesetzt ZHUGHQ" :LH VWHOOHQ DQGHUH 3URMHNWH %HLVSLHO 02/$  LKUH 'DWHQ ]XU Verfügung? Diese Diskussion haben wir schon in den Einzelgesprächen anklingen hören, wenn sich Gesprächspartner immer wieder über die schlechte Nutzung der HRSC-Daten gewundert haben. Kurz wird dann noch über aktuelle Helligkeitsunterschiede zwischen den Kanälen diskutiert und ob sie auf die Einstrahlung des Sonnenlichts WHPSRUlUHV3UREOHP RGHUDXIHLQH)HKOIXQNWLRQGHU.DPHUD]XUFNJHhen. Mit dem Satz von Ralf Jaumann »Jetzt kommen wir zu Science« wird ]XP ]ZHLWHQ 7HLO GHV 7HDPPHHWLQJV EHUJHOHLWHW $OV HUVWHV ZLUG EHU GLH3ODQXQJHLQHVspecial issue zur HRSC in einer Fachzeitschrift diskuWLHUW'HU7KHPHQIRNXVZlUHODXWURXWLQLHUWHU$QVDJHYRQ5DOI-DXPDQQ ª.DPHUD3KRWRJUDPPHWULH(LV:DVVHU©(UHULQQHUWGDUDQGDVVGDV HRSC-Experiment nur während der Missionsphase populärer werden kann, danach kann man es in der Öffentlichkeit nicht mehr als aktuelle Wissenschaft verkaufen. Deshalb muss im Zentrum stehen: »Was kann die Kamera!« und »Wirklich mal zeigen, was die Kamera kann.« Dabei hat Ralf Jaumann durchaus eine mögliche Verlängerung des HRSC-Einsatzes und der Mars Express-Mission im Blick. :HLWHUHV7KHPDLVWHLQDXWRPDWLVFKHU')LOPIUGLH5RWXQGH LQGHU wir die manuell vorgeführte 3D-Simulation gesehen haben). Die endgülWLJH)OXJURXWHEHUGLH0DUVREHUÀlFKHPXVVIHVWJHOHJWZHUGHQ'DQDFK wird der Wunsch der DLR vorgetragen, interaktive 3D-Bilder auf der :HEVLWH]XYHU|IIHQWOLFKHQ=LHOGHU'/5VHLHVP|JOLFKVWYLHOH7UHIIHU PLWGHU:HEVLWH]XHU]LHOHQ)UDQN6FKROWHQZHLVWDXI3UREOHPHKLQGLH HVPLWIUKHUHQ9HU|IIHQWOLFKXQJHQYRQ'%LOGHUQJDE$QKDQGGHU3Xblikation von Bildmaterial zum so genannten Marsgesicht gab es eine Flut von E-Mails von Verschwörungstheoretikern, die sich über die wissenschaftliche Entzauberung eines ihrer Lieblingsobjekte beschwerten. Das »Marsgesicht« ist von Viking 1 in der Region Cydonia im Juli 1976 aufgenommen worden. Seither umkreisen diese Geländeformation eine Reihe wilder Spekulationen. 2006 hat ein Datenbild der HRSC das »Marsgesicht« als einen erodierenden Inselberg visualisiert, der auf diesem 30 Jahre später veröffentlichten Bild überhaupt nicht mehr wie ein Gesicht

60 | D ATENBILDER DXVVLHKW'LHVH3UHVVHPHOGXQJKDW]XKHIWLJHQ5HDNWLRQHQGHUMHQLJHQJHführt, die dem »Marsgesicht« größere Bedeutung zumessen.

Investigatoren der Datenbilder 1DFKGHU3UR]HVVLHUXQJGHU'DWHQELOGHUGXUFKGLH3KRWRJUDPPHWHUXQG der Herstellung von data productsIROJWGHUHQ$XVZHUWXQJGXUFKGLH3ODQHWHQIRUVFKXQJXQG*HRZLVVHQVFKDIWHQ'LH7UHQQXQJGHUXQWHUVFKLHGOLFKHQ7lWLJNHLWVEHUHLFKHHUNOlUWVLFKDXVGHPVFKRQNRQVWDWLHUWHQXQWHUVFKLHGOLFKHQ(UNHQQWQLVLQWHUHVVHGHUEHLGHQ*UXSSHQLP+56&7HDPLQ Berlin-Adlershof. Beide beziehen sich auf dieselben Datensätze der ein]HOQHQ0DUVRUELWVQXUGLHMHZHLOLJHQ3HUVSHNWLYHQDXIGLHVH2UELWVXQG die damit verbundenen Bildpraxen sind unterschiedlich. $P '/5 VLQG ]XP =HLWSXQNW XQVHUHV $XIHQWKDOWHV YLHU 3ODQHWHQIRUVFKHULQQHQ XQG IRUVFKHU EHVFKlIWLJW 'DV &R,QYHVWLJDWRUHQ7HDP des HRSC-Experiments besteht aber aus vielen über Europa verstreuten Wissenschaftlern. Der principal investigator ist Gerhard Neukum am ,QVWLWXWIU*HRORJLVFKH:LVVHQVFKDIWHQ )DFKULFKWXQJ3ODQHWRORJLHXQG )HUQHUNXQGXQJ GHU)UHLHQ8QLYHUVLWlW%HUOLQ%HLP%OLFNDXIGLH3UHVVHmitteilungen des Instituts werden die Schwerpunkte der dortigen MarsIRUVFKXQJGHXWOLFK7HNWRQLN7DOV\VWHPH9XONDQH.UDWHU(LV*OHWVFKHU XQGlROLVFKH3KlQRPHQH Als ein entscheidender Standortvorteil wird die Verfügbarkeit der Datenbilder am DLR hervorgehoben. Zwar sind die Daten weltweit über GLH'DWHQEDQNHQDEUXIEDUDEHUGLH1lKH]XP¾3URGXNWLRQVRUW½XQGQLFKW zuletzt die Arbeit in derselben Softwareumgebung erleichtert den Umgang mit den Datenbildern. Deutlich wird der Vorteil der Nähe, wenn darüber berichtet wird, dass für Studierende und Doktoranden außerhalb der DLR besondere Workshops angeboten werden mussten, damit sie mit der Softwareumgebung VICAR und dem Handling der Datenbilder zurechtkommen. Die hauptsächliche Datenauswertung erfolgt im Co-InvestigatorenWHDP'DPLWZLUGLQGLUHNWHLQ3UREOHPEHVFKULHEHQGDVXQVVFKRQHLQmal zu Beginn unseres Aufenthaltes begegnet ist: Die Datenbilder werden noch nicht in dem Maße von der wissenschaftlichen Community genutzt, ZLHHVIUDOOH3URMHNWEHWHLOLJWHQZQVFKHQVZHUWZlUH'LHVEHVWlWLJWVSlWHUGHU3URMHNWOHLWHUXQG&R,QYHVWLJDWRU5DOI-DXPDQQLP*HVSUlFKPLW uns. Die Dominanz der US-amerikanischen Forschung und ihre Ignoranz gegenüber Missionen außerhalb des NASA-Kontextes erzeugen eine Art SULYLOHJLHUWH,VRODWLRQGHU86DPHULNDQLVFKHQ3ODQHWHQIRUVFKXQJ 8QVHUHHUVWH*HVSUlFKVSDUWQHULQLVW'DQLHOD7LUVFKHLQH'RNWRUDQGLQ von Ralf Jaumann. Ihr Forschungsgegenstand sind dunkle Dünen (dark

O RBITS | 61

dunes GLHVLFKYLHOIDFKLQ.UDWHUQDXIGHP0DUV¿QGHQ'LH3ODQHWRORJLQ beschäftigt dabei die Frage, wie diese Dünen entstehen und aus welchen Materialien sie bestehen. 'DQLHOD7LUVFKEHVFKUHLEWXQVDXVIKUOLFKLKU9RUJHKHQ=XHUVWZHUden von ihr alle relevanten Krater visuell auf einer Marskarte lokalisiert. 'D]X GLHQW ]XP %HLVSLHO GDV 6RIWZDUH7RRO ª+56& 9LHZ© GDV DXFK über eine Website benutzt werden kann (http://hrscview.fu-berlin.de). 'LH SRWHQWLHOOHQ .UDWHU IU LKU 3URMHNW VDPPHOW VLH LQ HLQHU HLJHQV YRQ LKUHQWZRUIHQHQ7DEHOOH'DQQZLUGGLHVHJOREDOH6XFKHDXI.UDWHUPLW dunklen Dünen eingeschränkt, die mit der HRSC schon erfasst sind. DaQLHOD7LUVFKEHVWlWLJWXQVGDVVHLJHQH:QVFKHIUGLH2UELWDEGHFNXQJ JHlX‰HUWZHUGHQN|QQHQGLHGDQQEHLGHU3ODQXQJ]XNQIWLJHU2UELWVEHrücksichtigt werden. Aber aufgrund der Restriktionen bei der Orbitgestaltung von Mars ExpressXQGGHU6SH]L¿NGHUMHZHLOLJHQ)RUVFKXQJVJHELHWH können solche Anfragen selten befriedigt werden. Zwar gibt es eine für sie relevante Datenbank der Community der 0DUVIRUVFKHU PDUVGXQHVRUJ DEHU'DQLHOD7LUVFKKDWVLFKLKUHHLJHQH Datenbank angelegt, in die sie ihre individuellen Eintragungen (Bilder, %HVFKUHLEXQJHQ0HVVXQJHQ HLQJHSÀHJWKDW Von den relevanten Kratern werden dann Datenbildmosaike erstellt. Mehrere Ausschnitte aus verschiedenen Orbits werden zu Mosaiken zusammengefügt, um den Krater und dessen Umgebung möglichst umfasVHQGGDU]XVWHOOHQ,QGLHVHP$UEHLWVVFKULWWJUHLIW'DQLHOD7LUVFKLPPHU ZLHGHUDXIGLH3KRWRJUDPPHWHUYRU2UW]XUFNRGHUOlVVWGLHVH0RVDLNH NRPSOHWW YRQ GHQ 3KRWRJUDPPHWHUQ HUVWHOOHQ 'DQDFK ZHUGHQ DXV GLHVHQ 0RVDLNHQ XQG GHQ 02/$'DWHQ 3UR¿OH GHU .UDWHU HUVWHOOW GLH IU eine geologische Untersuchung wichtig sind. Anhand der digitalen GeOlQGHPRGHOOHDXVGHQ+56&'DWHQNDQQ'DQLHOD7LUVFKDXVGHQ'DWHQbildern der Krater geometrische Messungen extrahieren. Hierbei hat sie IHVWJHVWHOOW GDVV HLQ =XVDPPHQKDQJ ]ZLVFKHQ 'XUFKPHVVHU XQG 7LHIH der Krater und dem Auftreten von dunklen Dünen besteht. Sie kann die Krater am Computerbildschirm sehen und weil es Datenbilder sind, sie gleichzeitig vermessen, was bei ›reinen‹ Bildern nicht möglich wäre. Außer den MOLA-Daten werden jetzt weitere Daten aus anderen Marsmissionen und anderen Instrumenten in die Auswertung und die Bestimmung der Zusammensetzung der dunklen Dünen hinzugezogen. Beispielsweise werden die spektralanalytischen Daten des OMEGA-Experiments auf Mars Express XQG 7HPSHUDWXUNDUWHQ YRQ 7+(0,6 XQG 7(6 (Instrumente der Mars Odyssee-Mission) in die Visualisierungen und damit in die Forschungsarbeit eingebunden. Die Daten aus diesen Instrumenten sind ebenfalls im Internet veröffentlicht und über ein bestimmtes Interface verfügbar. Anhand eines Beitrag für eine poster session auf ei-

62 | D ATENBILDER ner Konferenz wird die Verwendung der unterschiedlichen Datenbilder deutlich (Abb. 17): Die Datenbilder werden nebeneinander gestellt und LPGULWWHQ%LOGEHUODJHUQVLFKGLH'DWHQELOGHUYRQ7(6XQG+56&(Ugänzend werden in den Konferenzpapieren perspektivische und farbige Darstellungen von dunklen Dünen als H\HFDWFKHU benutzt (Abb. 18).

$EE$XVVFKQLWWDXVHLQHP%HLWUDJIUHLQH3RVWHU6HVVLRQ %HL GHQ YRQ LKU YHUZHQGHWHQ 7+(0,6 XQG 7(6'DWHQ ZHL‰ 'DQLHOD 7LUVFKDOOHUGLQJVQLFKWV1lKHUHVEHUGLH$UWXQG:HLVHGHU7HPSHUDWXUmessung und wie die Daten aufbereitet wurden. Ihre Nutzung geschieht PLWGHU$QQDKPHGDVVGLH'DWHQLQQHUKDOEEHVWLPPWHUJOREDOHU3DUDPHter des Experiments konsistent sind. Bei den HRSC-Datenbildern hat sie GXUFKLKUHQ6WDQGRUWYRUWHLOHLQHQWLHIHUHQ(LQEOLFNLQGLH3URGXNWLRQGHU 'DWHQELOGHUXQGNDQQVLHVHOEVWEHHLQÀXVVHQ Die ebenfalls verwendeten OMEGA-Daten liegen beispielsweise in relativ roher Form (Level 2) vor. Das heißt, sie müssen noch geometrisch ausgerichtet werden. Diese Ausrichtung ist, wie unsere Darlegung der 3UR]HVVLHUXQJ GHU +56&'DWHQ JH]HLJW KDW QLFKW HLQIDFK ]X EHZHUNstelligen. Nur der informelle Austausch von Software mit einem französischen Kollegen, der Mitglied des 20(*$7HDPVLVWHUP|JOLFKWGLH Integration der OMEGA-Daten in das Forschungsprojekt von Daniela 7LUVFK Erneut bestätigt das Gespräch PLW 'DQLHOD 7LUVFK HLQ ZLHGHUNHKUHQGHV 3KlQRPHQ 'LH 'DWHQ GHU Barchan dune field of dark material Experimente müssen zwar veröfin an impact crater of Argyre Planitia fentlicht werden, aber die Daten (HRSC image, ESA/DLR/FUB). DOOHLQHQW]HQEHLVSH]L¿VFKHQ)RUschungsfragen relativ wenig. Die $EE$XVVFKQLWWDXV7LUVFKHW Kenntnisse des Instruments und DO   die Aufbereitung der Daten schaffen einen ›Standortvorteil‹ für die

O RBITS | 63

Wissenschaftler, die direkt an einem Experiment beteiligt sind. Bei jedem Experiment der Marsmissionen gibt es unausgesprochene Wissensbestände und Softwaretools, die die Daten für die wissenschaftliche Verwertung HUVW ¾XUEDU½ PDFKHQ 'DQLHOD 7LUVFK VFKUHLEW GLHVH (QWZLFNOXQJ GHU ]Xnehmenden Spezialisierung der Beobachtungsinstrumente und der wissenschaftlichen Fragestellungen der Marsprojekte zu. Ihre Kollegin Mariam Sowe ist unsere nächste Gesprächspartnerin. Ihr Forschungsinteresse richtet sich auf die so genannten FKDRWLFWHUUDLQV auf dem Mars und die dortigen Ablagerungen. Für die Lokalisierung und Analyse ihrer Forschungsgegenstände benutzt sie vergleichbare VerfahUHQZLH'DQLHOD7LUVFK$XVGHQGLJLWDOHQ*HOlQGHPRGHOOHQGHUFKDRWLF terrainsLQKRKHU$XÀ|VXQJGLHVLHPLWKLOIHGHV3KRWRJUDPPHWHUV.ODXV Gwinner produziert hat, werden die Ablagerungen (Neigung und Umriss) EHUHFKQHW$X‰HUGHPYHUVXFKWVLHDXVGHQ'70VJHRORJLVFKH3UR¿OH]X erstellen. Bei der Bestimmung der Zusammensetzung der Ablagerungen JUHLIWVLHHEHQIDOOVDXIGLH'DWHQDXVGHQ,QVWUXPHQWHQ7(6XQG7+(0,6 zurück. $OOH3DSHUVGLHYRQGHQ'RNWRUDQGHQSURGX]LHUWZHUGHQJHKHQDQ GDV &R,QYHVWLJDWRUWHDP GHV +56&([SHULPHQWV -lKUOLFK ¿QGHW GLH wichtige internationale /XQDU DQG 3ODQHWDU\ 6FLHQFH &RQIHUHQFH statt, von der extended abstracts veröffentlicht werden, die zwar nicht einem 5HYLHZ9HUIDKUHQ XQWHUOLHJHQ DEHU ]LWLHUEDU VLQG 3DUDOOHO GD]X JLEW HV die internationale Fachzeitschrift /XQDUDQG3ODQHWDU\6FLHQFH als eine ZLFKWLJH3XEOLNDWLRQVSODWWIRUP%HLGHYRQXQVEHIUDJWHQ'RNWRUDQGLQQHQ VHKHQVLFKDOV7HLOHLQHUJUR‰HQZLVVHQVFKDIWOLFKHQ0DUV&RPPXQLW\GLH sich auf den internationalen Konferenzen immer wieder trifft und austauscht. Am Ende unseres Aufenthalts sprechen wir mit Ralf Jaumann, der soZRKO([SHULPHQWPDQDJHUXQG&R,QYHVWLJDWRULP+56&7HDPDOVDXFK 3URIHVVRUDP,QVWLWXWIU*HRORJLVFKH:LVVHQVFKDIWHQGHU)UHLHQ8QLYHUsität Berlin ist. Das Gespräch mit Ralf Jaumann bestätigt eine Reihe von Erkenntnissen, die wir unmittelbar aus unseren Aufenthalt am DLR ziehen konnten. Ähnlich wie seine Doktorandinnen sieht er die Mars-ComPXQLW\ XQGQLFKWJHQHUHOOHUGLH$VWURQRPLHRGHU3ODQHWHQIRUVFKXQJ DOV eine existierende, lose Kopplung unterschiedlicher Forschungsinteressen und als Adressat für die Ergebnisse des HRSC-Experiments. Als Manager des HRSC-Experiments liegt ihm insbesondere der public RXWUHDFK am Herzen. In diese Richtung gehen auch die Bemühungen der ESA beispielsweise mit dem 3ODQHWDU\6FLHQFH$UFKLYH, das die Datenprodukte unterschiedlicher Instrumente und Missionen über eine Website verfügbar machen soll. Um die Bedeutung des HRSC-Experiments in der Community evident zu machen, ist es nach Ralf Jaumann entscheidend,

64 | D ATENBILDER die Datenbilder auf Level 4-Qualität zu bringen. Erst mit der entspreFKHQGHQ $XÀ|VXQJ XQG GHU JOREDOHQ $EGHFNXQJ GHU 0DUVREHUÀlFKH wird die Besonderheit der HRSC-data products im Unterschied zu der Datenbilderproduktion der NASA-Missionen deutlich. Die dreidimensionalen Animationen zeigen nach Ansicht von Ralf Jaumann, »was das Experiment leisten kann«. Als zukünftiges Visualisierungswerkzeug sieht er eine Umsetzung der Science-Fiction-Vision DXVGHP6WDU7UHN8QLYHUVXP:LHDXIGHPª+RORGHFN©P|FKWHHULQ' Umgebungen forschen, so »als würde man auf dem Mars stehen«. Die Visualisierungen der Datenbilder sind für Ralf Jaumann ein zentrales Erkenntnisinstrument. Mit »wir sind visuelle Wesen« formuliert er einen Grundsatz für die Relevanz der Bilder in der Erkenntnisgewinnung. 'LH3ODQHWHQIRUVFKXQJLVWDXIGLH%LOGHUXQWHUDQGHUHPGHVKDOEDQJHZLHsen, weil sie eine Gesamtschau, die Einbeziehung von Kontexten ermöglichen.

R ALF A DELMANN

I. 2 Runs

Computersimulationen des Unsichtbaren am Max-Planck-Institut für Astrophysik

Das dreifach dunkle Bild Ein Bild (Abb. 19) war der Anlass dafür, eine Studie am Max-PlanckInstitut für Astrophysik in Garching bei München durchzuführen. Das Bild schaffte es auf das Cover von Nature,1 es diente als Hintergrund für das Poster eines Symposiums der International Astronomical Union und als Animation wird es immer wieder in Fach- und Populärvorträgen verwendet.2 Zwei Besonderheiten machen dieses Bild für uns interessant. Erstens beruht es nicht auf Beobachtungsdaten, sondern auf den Resultaten einer Computersimulation. Es beansprucht zwar, etwas zu zeigen, das in der Natur tatsächlich existiert, aber dieses Etwas schreibt sich nicht  wie vermittelt auch immer  in das Bild ein. Vielmehr beruht dieses Bild auf allgemeinen Naturgesetzen, speziellen Annahmen über das zu simulierende Objekt und computertechnischen Anpassungen. Es ist also kein Lichtbild, nicht einmal ein Strahlungsbild im weiteren Sinne. Seine Grundlage, die Simulationsdaten, sind erst einmal überhaupt nicht bildhaft. Uns interes1 | Bd. 435, Heft 7042 (2005). Der zugehörige Artikel, die Hauptpublikation zur Millennium-Simulation, ist Springel et al. 2005. 2 | U.a. in dem Eröffnungsvortrag Simon Whites auf dem erwähnten Symposium und in dem öffentlichen Vortrag mit dem Titel »From the Big Bang to the Milky Way« von Joe Silk am Tycho-Brahe-Planetarium in Kopenhagen am 10.06.08.

66 | D ATENBILDER

Abb. 19: Typische Visualisierung aus der Millennium-Simulation, Erläuterung im Text (© Volker Springel, Max-Planck-Institut für Astrophysik, Garching). siert, ob dies zu einer besonderen Bildpraxis führt, wie und wofür also aus den Simulationsdaten Datenbilder gemacht werden. Die zweite Besonderheit besteht darin, dass das auf dem Bild gezeigte Objekt selbst unsichtbar ist. Das Bild zeigt nämlich die Verteilung der Dunklen Materie im Universum. Die Dunkle Materie ist nicht einfach in einem alltäglichen Sinne dunkel, das heißt zu schwach leuchtend oder zu weit entfernt, um mit Teleskopen gesehen zu werden. Die Dunkle Materie ist an sich unsichtbar, weil sie überhaupt keine Strahlung aussendet (oder technischer ausgedrückt: nicht elektromagnetisch wechselwirkt). Für die Astrophysik ist sie aber ungeheuer wichtig, weil sie den Hauptteil der Materie im Universum ausmacht. Noch dazu ist sie als Wissenschaftsobjekt ziemlich jung. Damit stellt sich die Frage, wie die Dunkle Materie ohne lange Bild- und Vorstellungstradition veranschaulicht wird. Zwei gute Gründe, nach Garching zu fahren, um die Entstehung des Bildes, die zugrunde liegende Simulation und die Bildpraxis in der theoretischen Astrophysik zu beobachten, zu beschreiben und zu erklären. Das »Forschungszentrum Garching« ist eine Ansammlung verschiedenster Forschungseinrichtungen, einschließlich der mathematischen und naturwissenschaftlichen Fakultäten der Münchener Universität, etwas

R UNS | 67

außerhalb von Garching.3 Das Max-Planck-Institut für Astrophysik  zur Unterscheidung vom Max-Planck-Institut für Extraterrestrische Physik 03( KDOERI¿]LHOODOVª03$©EH]HLFKQHWEH¿QGHWVLFKJDQ]DP(QGH des »Kosmos Garching«. Auf unser Bild treffen wir aber schon lange, bevor wir das Institutsgebäude überhaupt sehen. Im U-Bahnhof »Garching« führt eine lange Rolltreppe hinunter zu den Gleisen. Entlang dieser Rolltreppe ist die Ausstellung »Bilder aus den Wissenschaften 2007« der Max-Planck-Gesellschaft aufgebaut. Auf 27 großen Tafeln sieht man Farbdrucke aus der Forschung der verschiedenen Max-Planck-Institute. Die Bilder zeigen nicht Wissenschaftler oder Geräte bei der Arbeit, sondern es handelt sich um Bilder aus der Arbeit. Es sind Bilder, die in dieser oder ähnlicher Form in der Forschungspraxis selbst eine Rolle spielen. Als wir, die Rolltreppe hinunterfahrend, ziemlich weit unten das Dunkle-Materie-Bild (Abb. 19) sehen, erkennen wir es sofort. 4 Wir wissen, was es zeigt und wie es dies zeigt. Für die übrigen 26 Bilder gilt dies nicht. Bei diesen können wir nur schauen, vermuten, raten oder sie einfach bewundern. Die meisten Bilder sind bunt, perfekt gestaltet und damit angenehm anzusehen. Aber wir sind bei kaum einem in der Lage zu sagen, was es darstellt. Oft ist es den Bildern nicht einmal anzusehen, ob sie auf Beobachtungen oder auf Simulationen beruhen und ob sie etwas sehr Großes oder sehr Kleines zeigen. Auch die Disziplin, aus der die Bilder stammen, ist bei vielen nicht zu erschließen. Erklärungen zu den Bildern gibt es in der Ausstellung selbst keine. Man muss sich schon ins das Garchinger Rathaus begeben, um sich die zugehörige Broschüre zu EHVRUJHQGLHGLH$XÀ|VXQJGLHVHUª%LOGHUUlWVHO©EHUHLWKlOW Die U-Bahnstation »Garching-Forschungszentrum« hat man mit Namen und Zitaten berühmter Wissenschaftler ausgestaltet und die Inhalte ihrer Forschung durch Formeln und Diagramme zumindest angedeutet. In der Station »Garching« hingegen wird das reine Bild gezeigt. Die einzige Texttafel ganz am Anfang der Ausstellung verklärt die völlige Dekontextualisierung und behauptet ein Umschlagen in abstrakte Kunst: »Die Wissenschaft überschreitet immer wieder neue Grenzen, um bisher Unbekanntes zu erforschen und Ungesehenes sichtbar zu machen. Neben der rein wissenschaftlichen Dokumentation der Forschungsobjekte entstehen dabei oft auch Bilder mit überraschend ästhetischen Formen und Struk-

3 | Vgl. Heßler 2007a. 4 | Das dort gezeigte Bild enthält allerdings nicht den Maßstab mit der Bezeichnung „62.5 Mpc/h“. Zur Erläuterung der Einheit, siehe Anmerkung 11.

68 | D ATENBILDER turen: abstrakte Kunstwerke aus einer dem menschlichen Auge verborgenen Welt.«5

Das Bild als isoliertes Bild ist also auch in einem dritten, jetzt metaphorischen Sinn, dunkel:6 Es zeigt nicht die Bedingungen seiner Herstellung. Es erklärt sich nicht als Bild. Dies, nämlich das Bild in seiner Genese und in seiner Funktion zu verstehen, soll dieser Text ermöglichen. Das ist allerdings  um es von vornherein zu sagen  nicht ganz einfach. Ein Bild aus der aktuellen astrophysikalischen Forschung nicht zu verstehen, mag ärgerlich sein. Ein solches Bild hingegen verstehen zu wollen, ist zumindest mühevoll. Denn ohne ein gewisses Verständnis von Computersimulationen und ohne ein klein wenig Astrophysik ist dies weder möglich noch sinnvoll. Wir werden also versuchen, alle drei Formen von Dunkelheit zu beleuchten. Man wird dann nicht nur etwas über Bildherstellung, sondern auch über Computersimulationen und über Dunkle Materie erfahren. Es geht darum, diejenige Form der Wissenschaft besser zu verstehen, aus der das Bild für die Ausstellung herausgerissen wurde.

Simulationen und Visualisierungen am MPA Sowohl Simon White, Direktor am MPA, als auch Volker Springel, Leiter der Galaxy Formation Group, der uns während unseres Aufenthalt betreut, hatten uns gewarnt: Das MPA sei ein theoretisches Institut, an dem nicht beobachtet würde, folglich gebe es für uns, die wir hauptsächlich an Visuellem interessiert seien, nicht viel zu sehen. Der erste Eindruck im Institut ist ein anderer: In allen Büros hängen JUR‰IRUPDWLJH$XVGUXFNHGHUHLJHQHQ9LVXDOLVLHUXQJHQPDQ¿QGHW%LOGHU aus Star Wars, jemand hat eine Galaxie auf dem selbstgestrickten Pullover, das Dunkle-Materie-Bild dient als Bildschirmhintergrund, bei einer internen Besprechung liegt der Tisch voller Farbausdrucke, Konferenzplakate sind mit Visualisierungen hinterlegt und jedes Monthly Research Highlight auf der MPA-Website muss mit einem Bild versehen sein. Und dennoch: Halb aus ernsthafter Gastgebersorge, halb mit dem Habitus eines reinen Denkers kokettierend, drückt Volker Springel seinen Zweifel aus, ob wir überhaupt eine Woche lang genug zu sehen haben werden. Nach einer Woche haben wir den Eindruck, zwar sehr viele Per5 | +LHU ]LWLHUW QDFK KWWSZZZELOGHUPSJGH >@ 'RUW ¿QGHQ sich auch einige der Bilder mit Erklärungen. 6 | Streng genommen ist schon der Begriff »Dunkle Materie« metaphorisch, weil sich »dunkel« auf das Maß der Helligkeit bezieht, das auf nichtsichtbare Objekte anzuwenden sinnlos ist.

R UNS | 69

sonen, Simulationen und Visualisierungen kennen gelernt zu haben, bei weitem aber nicht alle. Als theoretisches Institut beherbergt das MPA einerseits klassische theoretische Astrophysik und Kosmologie, die auf der Basis weniger *UXQGJOHLFKXQJHQ VSH]L¿VFKH 3UREOHPH DQDO\WLVFK ]X O|VHQ YHUVXFKHQ Die uns interessierende, ebenfalls als »theoretisch« bezeichnete Methode ist die numerische Simulation von Problemen, die analytisch nicht berechnet werden können. Für die moderne Kosmologie und Astrophysik insgesamt sind Computersimulationen zu einer unverzichtbaren Methode geworden, am MPA ist es inzwischen die dominierende Methode. Ein astrophysikalisches Problem zu simulieren, erfordert gleich mehrere Kompetenzen, nämlich erstens die Beherrschung allgemeiner astrophysikalischer Kenntnisse, zweitens die Fähigkeit, ein spezielles Problem physikalisch sinnvoll zu modellieren, drittens sehr gute Programmierfähigkeiten und viertens Erfahrungen in der Visualisierung der Ergebnisse. )U GLHVH YHUVFKLHGHQHQ )lKLJNHLWHQ JLEW HV NHLQH PHWKRGHQVSH]L¿VFKH Arbeitsteilung. Einhellig ist man der Überzeugung, nur Astrophysiker könnten die Simulationscodes richtig programmieren, so dass die computertechnische Seite der Simulation nicht ausgelagert werden könne. Physiker könnten das Programmieren lernen, nicht aber Programmierer, physikalisch zu denken. Dass ein- und dieselbe Person alles macht, wird gleichzeitig als unabdingbar und als problematisch gesehen. In der Regel beansprucht die Arbeit am Simulationscode den größten Teil der täglichen Arbeitszeit. Entsprechend sind die Astrophysiker nicht zuletzt Produzenten von Software, die auch für ganz andere Zwecke als das jeweils gerade interessierende Problem eingesetzt werden kann. Anerkennung als Astrophysiker ¿QGHQ VLH DEHU QXU EHU DVWURSK\VLNDOLVFKH (UJHEQLVVH $QGHUV JHVDJW sind die tatsächlichen Resultate der Arbeit – Daten, Programme und Visualisierungen – zwar sämtlich für die inhaltliche Forschung unabdingbar, gelten selbst aber nicht als Forschungsergebnisse. Dies erfordert eine Gratwanderung, um einerseits die bestmöglichen Simulationen laufen zu lassen, ohne andererseits zum Programmierer zu »degenerieren«. Etwas anders ist die Situation in Bezug auf die Ausgliederung der Visualisierung. Die Ansichten dazu sind hier uneinheitlich, ebenso wie die Bedeutung, die der Visualisierung für die eigentliche Forschung zugemessen wird. Die meisten derjenigen, die Visualisierung für hilfreich oder sogar unerlässlich für die Forschung halten (für Public Outreach halten alle sie für unerlässlich), machen auch die Visualisierung selber. Manche delegieren diese hingegen an den Visualisierungsexperten Ralph Bruckschen. Dieser hat seine Fähigkeiten in der amerikanischen Filmindustrie erworben und wurde vom Rechenzentrum der Max-Planck-Gesellschaft

70 | D ATENBILDER speziell für Visualisierungen eingestellt. Obwohl dessen Büro keine 100 Meter vom MPA entfernt ist, ist nicht allen Astrophysikern bekannt, dass es einen Spezialisten für Visualisierungen gibt. Die enge Verknüpfung sehr spezieller Physik mit sehr speziellen Codes führt dazu, dass die Simulationen am MPA typischerweise Ein-PersonenProjekte sind. Diese können mit ganz unterschiedlichen Objekten und Fragestellungen zu tun haben. Wir haben u.a. Simulationen zu Dunkler Materie, zur Dynamik von Supernovae, zu Protuberanzen auf der Sonne und zur Kollision von Galaxien gesehen. Was die Forschungen verbindet, ist die Methode, das heißt die Simulation. Zum Teil werden für ganz verschiedene Objekte dieselben Codes benutzt und lediglich angepasst, zum Teil werden aber auch ganz neue Codes geschrieben. Diese Form der theoretischen Astrophysik erlaubt ein hohes Maß an individueller Kreativität. Dies gilt auch für die Visualisierungen: In welchem Maß, wofür und auf welche Weise Visualisierungen im Zuge der Forschungen gemacht werden, hängt weitgehend von den einzelnen Wissenschaftlern ab. Entsprechend dieser Organisation gibt es auch für unsere Darstellung keine sich schon aus dem Arbeitsablauf selbst anbietende Logik. Hier gibt es weder eine abgegrenzte, überschaubare Gruppe, noch eine klar erkennbare Prozesskette. Die Funktion von Visualisierungen in der Forschungspraxis kann sich hier nur aus dem Vergleich mehrerer Simulationen ergeben. Es gibt also weder eine vertikale Arbeitsteilung noch objektbezogene Teams, sondern eine Parallelität strukturell ähnlicher Einzelprojekte. In gewisser Weise passt diese Form zu der Architektur des MPA. Die Grundstruktur des 1979 bezogenen Gebäudes ist in etwa die einer SpiUDOJDOD[LH,QGHU0LWWHEH¿QGHWVLFKGDVVFKZDU]H/RFKHLQLP6WLOHGHU 70er Jahre möblierter Innenhof, der  jedenfalls im Januar  nicht benutzt ZLUG'UXPKHUXPEH¿QGHWVLFKHLQ5LQJDXIGUHL6WRFNZHUNHQYRQGHP nach außen hin vier Spiralarme abgehen, in denen die meisten der Büros untergebracht sind. Im bulge GHU *DOD[LH QlPOLFK JDQ] REHQ EH¿QGHW VLFK GHU 6HPLQDUUDXP LQ GHP GLH LQVWLWXWVEHUJUHLIHQGHQ 9RUWUlJH VWDWW¿QGHQ 'HU fensterlose, spitz auf den Platz des Vortragenden zulaufende Raum hat durchaus etwas von einem Elfenbeinturm. Über eine enge Treppe pilgern jeden Montag um 15:30 Uhr alle Mitarbeiterinnen und Mitarbeiter zu den Höhen aktueller Forschungen. Diese Strenge herrscht keineswegs in allen Teilen des Instituts. In einem der inneren Ringe ist die Bibliothek untergebracht, die direkt an einen offenen Bereich anschließt, in dem sich mehrere Tische und eine 7DIHOEH¿QGHQ'D]XJHK|UWHLQHHEHQVRRIIHQH7HHNFKHLQGHUPDQVLFK für ein paar Cent Kaffee oder Tee machen kann.

R UNS | 71

Das Konzept, dass man sich dort trifft und unterhält, scheint erfolgreich. Von hier aus kann man die Rundgänge auf allen Ebenen sehen, und entsprechend ergeben sich spontane Kontakte. Und ebenso funktioniert das halbobligatorische Kaffeetrinken um 10:30 im unteren Teil der RingeEHQHGDVLQRI¿]LHOODOVVSlWHVWP|JOLFKHU$UEHLWVEHJLQQJLOW Ansonsten ist  zumindest für uns  keine Aufteilung des Gebäudes zu erkennen. Ungeachtet der formalen, für alle Max-Planck-Institute geltenden Struktur mit drei Abteilungen (hier: Kosmologie, Hochenergie-Astrophysik und Stellare Astrophysik), die jeweils in thematisch de¿QLHUWH$UEHLWVJUXSSHQDXIJHWHLOWVLQGHUVFKOLH‰WVLFKXQVEHLP(QWODQJgehen der Flure die inhaltliche oder methodische Zusammengehörigkeit jedenfalls nicht. Volker Springel, der Autor der Millennium-Simulation und Produzent unseres Eingangsbilds, hat es übernommen, nicht nur über seine eigene Arbeit Auskunft zu geben, sondern auch die Kontakte zu anderen Astrophysikern herzustellen, mit denen wir in den nächsten Tagen sprechen werden. Die Auswahl für uns potentiell interessanter Gesprächspartner HUIROJW DQIDQJV JDQ] HLQGHXWLJ QDFK GHP .ULWHULXP ª%LOGDI¿QLWlW© $OOH PLW GHQHQ ZLU JHVSURFKHQ KDEHQ ¿QGHQ QLFKW QXU 9LVXDOLVLHUXQJHQ für Simulationen wichtig, sie haben auch ein Händchen für die verschiedensten Formen der Visualisierung. Mit deutlichem Stolz werden uns die aktuellsten und besten Produkte vorgeführt. Auch wenn uns diese Visualisierungen natürlich interessieren, dauert es manchmal einen Moment, bis wir unseren Gesprächspartnern klar machen können, dass wir uns ebenso für die Genese der Bilder, also erstens für die jeweils zu Grunde liegende Simulation und zweitens für die Herstellung der Visualisierung interessieren. In der Regel springt das Gespräch dann zu den Objekten, also den Sternen, Galaxien und Clustern, die man auf den Bildern ja so schön sehen kann. Dass es so schwierig ist, das Dazwischen zwischen den Bildern und den Objekten zu zeigen, liegt daran, dass dies nicht sehr anschaulich ist. Die meiste Zeit des Tages sieht man auf den Computerbildschirmen Programmzeilen der Simulationscodes, keine Bilder. Auch wenn man immer bemüht ist, uns möglichst viel Visuelles zu zeigen und die Bedeutung von Visualisierungen zu betonen, so hat dies oft den Charakter des »auch« oder »trotzdem«. Marcus Brüggen, ehemals am MPA und während unseres Aufenthalts als Gastwissenschaftler in Garching, bringt es folgendermaßen auf den Punkt: Visualisierungen sind für die Astrophysik das »Wichtigste«, aber gleichzeitig das »Unwissenschaftlichste«. Bilder sind am MPA allgegenwärtig, aber es wird nicht laufend an oder mit Bildern gearbeitet. Man hat die Bilder im Kopf, aber nicht immer zur Hand. Mehrmals musste ein Wissenschaftler längere Zeit auf seinem

72 | D ATENBILDER Computer suchen, um uns ein bestimmtes Bild zu zeigen. Und wenn er es JHIXQGHQKDWWHKDQGHOWHHVVLFKKlX¿JQLFKWXPHLQHXQPLWWHOEDUH9LVXDlisierung von Daten, sondern um einen Bestandteil von anderen Medien, etwa Veröffentlichungen oder Vortragspräsentationen. Und dennoch: Wenn man die Funktion von Visualisierungen in und für Simulationen in der Astrophysik verstehen will, muss man es vermeiden, sich die Rosinen besonders viseophiler Forscher, spektakulär anzusehender Objekte oder gelungener Visualisierungen herauszupicken. Vor allem darf man sich nicht innerhalb einer Simulation auf Momente von Visualisierung beschränken. Nur im Gesamtzusammenhang einer Simulation kann man erstens verstehen, an welchen Stellen zu welchem Zweck auf welche Weise visualisiert wird. Und nur so kann man, zweitens, die Bilder selbst verstehen, einschließlich dessen, was auf den Bildern nicht zu sehen ist. Dass wir gegenüber unseren Gesprächspartnern auf unserem Interesse auch an den nicht-bildlichen Teilen der Arbeit insistieren müssen, ohne die eigentliche Arbeit am Code im Einzelfall nachvollziehen zu können, bleibt ein Grundproblem unseres Ansatzes  und damit auch dieser Darstellung. Erschwert wird dies dadurch, dass wir nicht auf alle Forschungsgegenstände vorbereitet sind, da sich die Kontakte erst während der Woche unseres Besuchs ergeben. Vormittags über Turbulenzen in der Grenzschicht der Sonne und nachmittags über die Gasausbreitung in einer Typ 1a-Supernova ernsthaft zu sprechen, erfordert von uns, gelinde gesagt, etwas Improvisation. Dennoch – oder gerade deswegen – ergeben sich in jedem der Gespräche ganz neue Aspekte. Verschiedene Auffassungen und Ansätze werden deutlich, aber auch Gemeinsamkeiten, also das, was man den Stil von astrophysikalischen Simulationen nennen kann. Um diesen Stil zu verdeutlichen, soll jetzt die Millennium-Simulation (aus der das obige Bild stammt) detailliert erläutert werden. Die Millennium-Simulation eignet sich dafür in besonderer Weise, weil an ihr fast alles (jedenfalls im Prinzip) öffentlich ist. Dies betrifft den Code selbst, nämlich das von Volker Springel geschriebene Programm GADGET und dessen Nachfolger GADGET-2, das ständig erweitert wird und das inzwischen auch für viele andere Simulationen verwendet wird. Um dieses Programm verstehbar zu machen, hat der Autor dazu umfangreiche Artikel publiziert, die die Grundgedanken und den Aufbau des Codes erklären (Springel et al. 2001; Springel 2005).7 Diese Texte erlaubten es uns, das Programm soweit zu verstehen, dass wir gezielt weiterfragen konnten. 7 | Dass diese Texte nicht ausreichen, um sofort mit dem Programm zu arbeiten, wird nicht weiter verwundern. Ein erst seit kurzem am MPA tätiger Doktorand mit sehr guten Computerkenntnissen berichtet uns, dass er etwa

R UNS | 73

Öffentlich sind aber auch die Resultate des Millennium-runs. Damit sind zunächst die Daten aus der Simulation gemeint, die weltweit von Astrophysikern genutzt werden, um daraus Erkenntnisse über Strukturentstehung im Universum zu gewinnen. Nicht ohne Stolz berichtet Volker Springel, dass in Kürze das 100. Paper, das auf den Millennium-Daten beruht, publiziert werde.8 Entsprechend seien seine Papers zu dieser Simulation und zu GADGET seine meistzitierten Papers – eine Tatsache, die er gleichzeitig auch bedauert und sich stattdessen für eines seiner inhaltlichen Papers eine derartige Verbreitung wünscht. Schließlich sind auch die meisten der Visualisierungen öffentlich zugänglich, und zwar nicht nur die unbewegten Bilder, sondern auch die Filme (Zoom-ins XQGGLHYLUWXHOOHQ'XUFKÀJH9 Ganz anders als die Daten, Programme und Bilder hat Volker Springel die Herstellung der Bilder nicht öffentlich dokumentiert. Die Kriterien der Visualisierung sind nicht etwa geheim, er hat uns die Prozedur bereitwillig erklärt. Offen bleibt dennoch, warum dieser Teil des Prozesses nicht ebenso öffentlich nachvollziehbar gemacht wurde wie die übrigen.

Die Millennium-Simulation Das Objekt Das Grundschema astrophysikalischer Simulationen ist immer ähnlich. Ausgangspunkt ist ein Objekt, dessen Verhalten sich weder analytisch noch empirisch ausreichend erforschen lässt. Das Objekt der MillenniumSimulation ist das größte Objekt, das im Rahmen des kosmologischen Standardmodells Sinn macht.10 Simuliert wird die Entwicklung von eine Woche gebraucht habe, um mit einer vereinfachten Version einfachste Simulationen laufen zu lassen. Dann habe er noch einmal zwei Monate gebraucht, um das Programm soweit zu beherrschen, dass er anfangen konnte, für seine eigene Fragestellung (die Messung von Gammastrahlung aus der Dunklen Materie der Milchstraße) die benötigten Features zu programmieren. 8 | Zum Zeitpunkt der Drucklegung dieses Buches sind es schon 187 Papers, was verdeutlicht, dass noch lange nach dem run einer Simulation mit und an den Daten gearbeitet wird, http://www.mpa-garching.mpg.de/millennium/ [23.02.09]. 9 | Siehe http://www.mpa-garching.mpg.de/galform/virgo/millennium/ [23.02.09]. 10 | Eine knappe, systematische Einführung in die moderne Kosmologie etwa auf dem Niveau von Bachelorstudenten der Physik ist Liddle 2007. Bör-

74 | D ATENBILDER Strukturen in einem Raumwürfel mit einer Kantenlänge von 500 Mpc/h.11 Auf größeren Skalen gibt es keine Strukturen mehr, das Universum ist homogen. Simuliert wird also kein bestimmtes Gebiet, sondern einfach ein ausreichend großes Raumgebiet. Wie aber entstehen darin die heute beobachtbaren Strukturen? Das älteste beobachtete Objekt des Universums ist nach heutigem Stand der Forschung die kosmische Hintergrundstrahlung (Cosmic Microwave Background, CMB). Sie resultiert aus der Entkopplung von Strahlung und Materie etwa 380.000 Jahre nach dem Urknall.12 Vorher war das Universum so heiß, dass es nicht zur Bildung von Atomen kommen konnte, weil jedes eingefangene Elektron durch die allgegenwärtige energiereiche Strahlung sofort wieder vom Atomkern getrennt wurde (Plasner 2004 ist etwas populärer und berücksichtigt stärker Beobachtungsdaten, ist jedoch weniger anschaulich in den theoretischen Kapiteln. Ein umfassendes und fundiertes Kapitel zur Kosmologie enthält Raith 2002. 11 | Parsec (pc) ist die in der Astrophysik und der Kosmologie gängige Längeneinheit. 1 pc entspricht derjenigen Entfernung, aus der man den Durchmesser der Erdumlaufbahn um die Sonne unter einem Winkel von einer Bogensekunde sehen würde. Damit ist 1 pc = 3,26 Lichtjahre. Entsprechend gilt: 1 kpc = 1000 pc; 1 Mpc = 1000000 pc und 1Gpc = 1000000000 pc. Zur Orientierung: Der nächste Stern ist etwa 1 pc entfernt, der Durchmesser der Milchstraße beträgt 10 kpc, der durchschnittliche Abstand zwischen Galaxien ist etwa 1 Mpc und der Radius des beobachtbaren Teils des Universums ist etwa 14 Gpc. Das „h“ bezeichnet den Hubblefaktor. Die Hubblekonstante H (die genau genommen keine Konstante ist, sondern sich im Laufe der Zeit ändert) ist die momentane Expansionsrate des Universums. Sie beträgt nach heutigem Wissen 71,9 km·s-1/Mpc. Dies bedeutet anschaulich, dass sich ein Objekt in 1 Mpc Entfernung mit 71,9 Kilometern pro Sekunde von uns wegbewegt. Da Entfernungsmessungen sehr viel unsicherer sind als Geschwindigkeitsmessungen, ist auch die Hubblekonstante nicht sehr genau bekannt. Um diesem Umstand Rechnung zu tragen, berechnet man den dimensionslosen Hubblefaktor h = H/(100 km·s-1/Mpc) und teilt alle Längenangaben durch diesen. Dies hat den Vorteil, dass sich bei Korrekturen an der Hubblekonstante die Längenskalen nicht ändern. 500 Mpc/h sind also nach heutiger Kenntnis der Hubblekonstante (h = 0,719) 695 Mpc. 12 | Alle der folgenden Zahlenangaben sind als ungefähre Werte zu beWUDFKWHQGDHVNHLQHHLQKHLWOLFKHQRI¿]LHOOHQ:HUWHJLEW(VKlQJWYRQGHP Vertrauen in bestimmte Messverfahren ab, welchen Wert man favorisiert und für seine eigene Simulation verwendet. Alle hier verwendeten Werte nach http://lambda.gsfc.nasa.gov/product/map/current/parameters_summary.cfm [18.06.08].

R UNS | 75

ma). Als durch die Expansion des Universums die Strahlung an Energie verloren hatte, trennten sich Atome und Strahlung und blieben jeweils für sich stabil. Die durchschnittliche Temperatur des Universums zu dieser Zeit von etwa 3000 Kelvin hat sich durch die 1090-fache Ausdehnung des Raumes bis heute auf 2,725 Kelvin abgekühlt.13 Dieser Temperatur entspricht jedenfalls das Strahlungsspektrum der Mikrowellen, die man aus allen Richtungen des Weltalls mit fast gleicher Intensität empfängt. Die Homogenität der Mikrowellenstrahlung gilt als eines der wichtigsten Argumente für die Urknalltheorie. Für die aktuelle Forschung ist allerdings wichtiger, dass der CMB eben nur fast homogen ist. Auf Skalen, die man insbesondere aus den Messungen der Wilkinson Microwave Anisotropy Probe :0$3  VHKU JHQDX NHQQW ¿QGHW PDQ NOHLQH Ungleichheiten von etwa 10 -5 (also etwa 0,001%). Diese Inhomogenitäten sind die Keime für die heute im Universum beobachtete sehr inhomogene Verteilung von Materie. Materie verdichtet sich zu kugelförmigen Halos. In diesen verdichten sich Wasserstoff- und Heliumatome zu Sternen, die sich im Zentrum der Halos sammeln und unterschiedlich geformte Galaxien bilden. Die Halos selber mitsamt der Galaxien aus Sternen und Gas sammeln sich zu Galaxienhaufen, die durch Filamente aus Halos verbunden sind und so eine netzartige Struktur, das cosmic web, bilden. Zwischen diesen Materieanhäufungen gibt es riesige, fast leere Gebiete, die sogenannten voids. Eine der zentralen Fragen der Millennium-Simulation ist, wie und wann diese verschiedenen Strukturen entstanden sind. Um die Strukturentstehung aus den kleinen Inhomogenitäten zur Zeit der Entkopplung bis heute zu simulieren, spielt die gewöhnliche, sichtbare Materie allerdings kaum eine Rolle. Dies liegt daran, dass gewöhnliche Materie (auch »baryonische Materie« genannt: vor allem Gas, zu etwa 10% Sterne, sowie die kaum ins Gewicht fallenden Planeten, Kometen etc.) nur etwa 4,4% des Materiegehalts des Universums ausmachen. Viel wichtiger ist mit etwa 21,4% Massenanteil die Dunkle Materie.14 Wie bereits erwähnt, geht man davon aus, dass die Dunkle Materie nicht der elektromagnetischen Wechselwirkung unterliegt, wohl aber der Gravitation. Worum es sich bei der Dunklen Materie handelt, ist unklar. 13 | Kelvin bezeichnet die absolute Temperatur. Temperaturdifferenzen entsprechen der Celsiusskala, jedoch ist der Nullpunkt der Kelvinskala nicht der Schmelzpunkt des Eises, sondern der absolute Nullpunkt: 0 Kelvin = -273,15 °Celsius. 14 | Hinzu kommt noch, mit etwa 74,2%, die Dunkle Energie, die allerdings, da sie nicht der Gravitation unterliegt, für die Strukturentstehung unmittelbar keine Rolle spielt und in der Millennium-Simulation nicht berücksichtigt ist.

76 | D ATENBILDER Man vermutet ein bislang unbekanntes Elementarteilchen, das man bisher allerdings weder in astronomischen Observatorien noch in den Teilchenbeschleunigern der Hochenergiephysik hat »sehen« können. Die Millennium-Simulation berücksichtigt nur die Dunkle Materie. Für die gewöhnliche Materie geht man in der Simulation davon aus, dass sie der Dunklen Materie folgt, da sie ja gravitativ an diese gebunden ist. Die Simulation des Verhaltens der baryonischen Materie (und damit der sichtbaren Objekte) ist wegen der elektromagnetischen Wechselwirkung sehr viel komplizierter als die der Dunklen Materie. Bislang gibt es keine Simulation, die beispielsweise die Form und Struktur unserer eigenen Galaxie, der Milchstraße, einigermaßen realistisch reproduziert.15 Das physikalische Modell Für das Objekt der Simulation, also die Dunkle Materie in einem Raumgebiet, wird nun ein physikalisches Modell erstellt. Die Grundidee der Dynamik ist, dass dorthin, wo schon mehr Dunkle Materie ist als woanders, noch mehr Dunkle Materie hingezogen wird, so dass sich Inhomogenitäten verstärken und zu immer weiter gehenden Verklumpungen führen. Ein Effekt, der dieser Entwicklung allerdings bremsend entgegenwirkt, ist die Expansion des Universums, die darin besteht, dass sich auf großen Skalen alle Materie voneinander entfernt. Simulationen funktionieren aufgrund der begrenzten Rechenzeit immer mit vergleichsweise wenigen Elementen. Dazu muss das Objekt diskretisiert, also (gedanklich) in Elemente zerlegt werden. Diese Elemente sind (wie unten noch genauer beschrieben wird) entweder Zellen oder Teilchen. Die Millennium-Simulation basiert auf Teilchen. Ein solches Teilchen wird folgendermaßen konstruiert: Zunächst wird ein kubisches Raster mit jeweils 2160 Zellen Kantenlänge, insgesamt also etwa 10 Mrd. Zellen, gebildet. Jede Zelle ist etwa 250 kpc/h lang, breit und hoch. Jeder Zelle wird nun die Gesamtmasse an Dunkler Materie in ihrem Volumen zugeordnet. Dies sind 860 Mio. Sonnenmassen pro Zelle. Diese Masse wird aber nicht als homogen in der Zelle verteilt gedacht, sondern als im Mittelpunkt konzentriert. Die Zellen spielen im Weiteren keine Rolle mehr. Die so konzentrierte Masse ist dann »ein Teilchen«, ein Objekt, das streng genommen nur in der Simulation, also weder in der Natur noch in der physikalischen Theorie existiert. Jedes dieser Teilchen bekommt HLQH ,GHQWL¿NDWLRQVQXPPHU GLH HV ZlKUHQG GHU JDQ]HQ 6LPXODWLRQ EHhält. Einzige weitere Informationen zu diesen Teilchen sind sein Ort (in 15 | Wobei auch die Beobachtungen der Milchstraße (noch) viele Forschungsfragen unbeantwortet lassen.

R UNS | 77

drei Koordinaten) und seine Geschwindigkeit (in drei weiteren Koordinaten). Neben der räumlichen Diskretisierung gibt es noch die zeitliche. Die Entwicklung des Systems erfolgt in der Simulation nicht kontinuierlich, sondern in Sprüngen. Im Prinzip ist die Physik der Simulation sehr einfach. Volker Springel versichert uns, dass der Prozess, streng nach der eigentlich für die Kosmologie zuständigen Allgemeinen Relativitätstheorie berechnet, genauso verlaufen würde, doch das Modell selbst beruht auf nichts Weiterem als Newton’scher Mechanik. Für jedes Teilchen wird im Prinzip die Kraft berechnet, die – von allen anderen Teilchen ausgehend – auf dieses wirkt. Für einen Zeitsprung wirkt sich dies in Form der Änderung der Geschwindigkeit aus.16 Und da das Teilchen ja selbst eine Geschwindigkeit hat, muss es zudem um eine entsprechende Strecke verschoben werden. Nach und nach wird dort, wo mehr Materie ist, noch mehr Materie hingezogen, so dass sich schließlich sehr viele Teilchen auf sehr kleinem 5DXPEH¿QGHQ+LHUGUIHQQXQGLH7HLOFKHQNHLQHVZHJVZLH3K\VLNHUHV am liebsten haben, als punktförmig angesehen werden. Stattdessen wird eine nicht gerade willkürliche, aber auch in keiner Weise physikalisch begründbare Glättungskurve eingeführt, damit Teilchen, die in sehr kleinem $EVWDQG GKLQZHQLJHUDOVNSF(QWIHUQXQJ DQHLQDQGHUYRUEHLÀLHJHQ sich nicht gegenseitig ablenken. Aus diesem Grund heißt dieser Simulationsansatz Smoothed Particle Hydrodynamics (SPH). +LQ]X NRPPW QRFK GHU (LQÀXVV GHU ([SDQVLRQ 'LH MillenniumSimulation rechnet mit mitbewegten Koordinaten, das heißt, sie tut so, als sei das simulierte Volumen immer gleich groß, und berücksichtigt die Expansion in Form einer entfernungsabhängigen Abschwächung der Gravitation. Das heißt, alle Längenangaben, insbesondere die Länge des simulierten Volumens von 500Mpc/h, beziehen sich auf das Jetzt, nicht auf den Zustand zu Beginn der Simulation. Der Code Dieses physikalische Modell muss nun in ein Computerprogramm übersetzt werden, wobei das entscheidende Kriterium für die Qualität des Programms die benötigte Rechenzeit ist. Zum Beispiel wäre es eine grobe Verschwendung von Rechenzeit, für jedes Teilchen die Kraftwirkung auf jedes andere Teilchen zu berechnen, denn die benötigte Zeit würde quadratisch mit der Anzahl der Teilchen wachsen. Daher werden für jedes 16 | Genau genommen handelt es sich um eine Änderung des Impulses, doch da die Masse jedes Teilchens sich nicht ändert, macht dies hier keinen Unterschied.

78 | D ATENBILDER Teilchen die anderen Teilchen zusammengefasst, weiter entfernte in grö‰HUHQ(LQKHLWHQXQGQlKHUHLQIHLQHUHU$XÀ|VXQJ Trotz derartiger Optimierungen ist der Rechenaufwand so hoch, dass die Berechnungen auf mehrere Prozessoren verteilt werden müssen. Dies erfordert es, physikalisch interagierende Gebiete nicht entlang der Schnittstellen zwischen den Prozessoren zu zerteilen. Als wegweisend erwies sich hier die Benennung der Teilchen nach ihrer Position auf einer sogenannten Peano-Hilbert-Kurve. Dies ist eine fraktale Kurve,17 die gleichzeitig die Teilchen in eine Reihenfolge bringt, dabei aber den Würfel nicht zeilenweise abfährt, sondern so beschaffen ist, dass Teilchen mit nahe beieinander liegender Identitätsnummer auch räumlich innerhalb des Würfels beieinander liegen. Dies stellt eine typische Lösung eines Hybridproblems dar, wie es sich nur aus der Überlagerung von physikalischem Modell und computertechnischen Bedingungen ergibt. Oder anders gesagt: Dies ist ein Beispiel dafür, dass die Simulation von einer Person konzipiert werden muss, die beides, die astrophysikalische Situation und die Möglichkeiten der Computer, gleichzeitig im Kopf hat. Die Anfangs- und Randbedingungen Damit ist das grundlegende Modell für die Weiterentwicklung eines Zustands gegeben. Was man für den eigentlichen run der Simulation noch braucht, sind die Anfangs- und Randbedingungen. Das Modell der Millennium-Simulation hat sogenannte periodische Randbedingungen. Das bedeutet, dass man dieselbe Materieverteilung außerhalb des Würfels in jede Richtung wiederholt. Auch dies ist eine Eigentümlichkeit der Simulation im Gegensatz zur Natur und zur Theorie. Selbstverständlich muss man auch außerhalb des Würfels Materie annehmen, denn sonst würde sich die gesamte Materie über kurz oder lang in der Mitte des Würfels ansammeln. Dies wäre natürlich wenig realistisch, soll doch der (gedachte!) Würfel gerade einen beliebigen Ausschnitt des Universums repräsentieren. Mit periodischen Randbedingungen passiert dies nicht, aber dafür hat man ein Universum, das sich alle 500 Mpc/h exakt wiederholt. Die Periodizität wird in einigen Visualisierungen gleichzeitig benutzt und verschleiert, wie später dargestellt werden wird. Die Ausgangssituation der Simulation ist zunächst einmal das Gitter 17 | Auch hier ein Hinweis für Puristen: »fraktale Kurve« ist eigentlich ein Widerspruch in sich, da es sich erst im Grenzfall unendlicher Iteration um das Fraktal handelt – und dies hat dann gerade nicht mehr die 1-dimensionale Geometrie einer Kurve; das räumliche Peano-Hilbert-Fraktal hat vielmehr die Dimension 3.

R UNS | 79

von Teilchen aus Dunkler Materie. Dieses wird nun gestört, indem die Teilchen leicht verschoben werden. Sowohl die Periodizität als auch die Amplitude der Störungen beruhen auf den WMAP-Daten zum CMB. Die Periodizität (die hier nichts mit der Wiederholung der Würfel zu tun hat) resultiert aus der Frühphase des Universums und lässt sich aus den Messdaten durch eine Fouriertransformation gewinnen.18 Entsprechend dieser Vorgaben werden die Teilchen nun zufällig verschoben. Es ist hier wichtig festzuhalten, dass nicht etwa die Daten von WMAP zum CMB verwendet werden. Die Anfangssituation der Simulation ist nur statistisch mit der Anfangssituation im Universum vergleichbar, nicht aber im Detail. Welches Teilchen im Einzelnen verschoben wird, wo also später einmal Galaxienhaufen und wo voids entstehen, hat nichts GDPLW]XWXQZRLQGHPWDWVlFKOLFKHQ8QLYHUVXPVROFKH]X¿QGHQVLQG Für dieses Vorgehen gibt es zwei Gründe. Zum einen kennt man die tatsächliche Verteilung der (Dunklen) Materie nicht. Die uns heute erreiFKHQGH +LQWHUJUXQGVWUDKOXQJ UHSUlVHQWLHUW GLH 2EHUÀlFKH HLQHU .XJHO deren Radius genau der Laufzeit des Lichtes von damals bis heute entspricht.19 Es handelt sich dabei also um eine zweidimensionale Struktur, nicht um eine dreidimensionale, und sie ist schon von daher keine ausreichende Datengrundlage. Der andere Grund ist, dass es in der Simulation um Strukturbildungsprozesse im Universum geht. Die Besonderheit dieser Simulation liegt gerade darin, dass das simulierte Gebiet so groß ist, dass das Universum auf noch größeren Skalen schon homogen ist. Dass das Universum auf großen Skalen homogen ist, ist das sogenannte kosmologische Prinzip, auf dem die gesamte moderne Kosmologie beruht. Wo der simulierte Ausschnitt im Universum liegt, ob er überhaupt in dem von uns beobachtbaren Teil des Universums liegt, darf demnach keine Rolle spielen. So wäre etwa die )UDJHZRLQGHP:UIHOZLUXQVEH¿QGHQVFKOLFKWVLQQORV

18 | Eine Fouriertransformation ist eine mathematische Operation, bei der eine räumliche Verteilung als Überlagerung periodischer Funktionen mit verschiedenen Frequenzen dargestellt wird. Die jeweiligen Amplituden der einzelnen Funktionen können selbst wieder räumlich dargestellt werden. Man nennt dies das Spektrum einer Verteilung. 19 | Diese Entfernung ist nicht die Zeitdifferenz mal der Lichtgeschwindigkeit, weil dies die Expansion nicht berücksichtigen würde. Durch die Expansion entfernen sich die Erde (oder besser: der Ort, an dem einmal die Erde sein wird) und der momentane Ort eines Photons voneinander, so dass es entsprechend länger dauert, bis das Photon die Erde eingeholt hat.

80 | D ATENBILDER Die Tests Das Programm wird anschließend anhand kleinerer Gebiete oder gröberer $XÀ|VXQJHQ LQ YHUJOHLFKVZHLVH VFKQHOO P|JOLFKHQruns getestet. In der Regel zeigen sich dabei Programmierfehler, die anschließend repariert werden. Für dieses debugging sind Visualisierungen ein unersetzbares Hilfsmittel, da schon diese kleinen Simulationen Datenmengen produzieren, die auf der Ebene der Zahlen selbst nicht mehr überschaubar sind. Visualisierungen spielen bei Simulationen also erst relativ spät eine Rolle. Datenbilder gibt es erst, wenn es Daten gibt, und die Daten sind eben die Produkte von runs XQGVHLHQHVYRUOlX¿JHruns), die erst durchgeführt werden können, wenn die wesentliche Modellier- und Programmierarbeit schon gemacht ist. Volker Springel erzählt uns von einer dünnen, weißen Linie, die sich anfangs quer durchs Bild zog. Diesen Fehler hätte man den Daten selbst nicht ansehen können. Genau genommen kann man den Daten selbst überhaupt nichts ansehen, weil es schlicht zu viele sind. Erkennen kann man die Fehler also nur, indem man durch Hilfsprogramme die Daten statistisch oder stichpunktartig analysiert. Oder eben, indem man in Visualisierungen direkt etwas sieht. Man kann sich jedoch mit keinem der EHLGHQ 9HUIDKUHQ VLFKHU VHLQ DOOH )HKOHU ]X ¿QGHQ GHQQ EHL 6XFKSURgrammen muss man die Art des Fehlers schon voraussetzen und bei ViVXDOLVLHUXQJHQEHJUHQ]WVFKRQGLH%LOGVFKLUPDXÀ|VXQJGLHXPHLQ9LHOIDFKHVJU|EHULVWDOVGLH$XÀ|VXQJGHU'DWHQVHOEVWGLH6LFKWEDUNHLWYRQ Artefakten.

Der Run Nach solchen Tests und Korrekturen erfolgte dann im Sommer 2004 der eigentliche Millennium-run. Die entsprechende Presseerklärung betont weniger die astrophysikalischen Ergebnisse als vielmehr die technischen Bedingungen der Simulation selbst: Mit dieser Aufgabe waren die 512 Prozessoren des »Supercomputers« des Rechenzentrums der Max-PlanckGesellschaft in Garching, eines IBM p690-Parallelrechners, einen Monat lang beschäftigt.20 Gerechnet wurden je nach Teilchen bis zu 11.000 Zeitschritte, von denen 64 aufbewahrt wurden. Als Bezeichnung der Zeitpunkte der Simulation dient hier wie in der Astrophysik und Astronomie allgemein üblich die Rotverschiebung z. Diese gibt an, um wie viel sich seit dem entsprechenden Zeitpunkt das Universum (und mit diesem die Lichtwellen) aus20 | Presseinformation der Max-Planck-Gesellschaft vom 01.06.2005.

R UNS | 81

gedehnt haben. Zum Beispiel bedeutet z = 2, dass sich die Wellenlänge des Lichts verdoppelt hat, also z.B. aus blauem Licht rotes geworden ist. Der Skalenfaktor des Universums a ist ein Maßstab für die Ausdehnung und hängt mit z zusammen: z + 1 = 1/a. Die Simulation beginnt nicht mit dem Zeitpunkt der Entkopplung (bei etwa z = 1090), sondern bei z = 127. Der Grund dafür ist, dass anfangs die Inhomogenitäten in der Dunklen Materie kleiner sind als die Ungenauigkeiten der Berechnung selber. Bemerkenswerterweise endet die Simulation bei z = 0, also heute, obwohl nichts an dem Modell und dem Programm dagegen spräche, auch die zukünftige Entwicklung zu simulieren. Das unmittelbare Ergebnis der Simulation sind also 64 Datensätze, von denen jeder die Orts- und Geschwindigkeitskoordinaten sowie die Nummern aller 10 Mrd. Teilchen für einen bestimmten Zeitpunkt enthält. Es ist wohl die doppelte Größe der Millennium-Simulation, die ihre Attraktivität ausmacht – und die als Grund für die Benennung »Millennium« angeführt wird (Springel et al. 2005: 629-630). Nicht jede Simulation führt schließlich zu einem langen Artikel in Nature, eigens angekündigt durch eine Presseerklärung. Mit der doppelten Größe ist einerseits die Größe des simulierten Objektes und andererseits die Größe der Simulation selbst gemeint. Fast eine Milliarde Sonnen zu einem einzigen Teilchen zusammenzufassen, mag etwas grob erscheinen, aber tatsächlich ist  bezogen auf das simulierte Volumen – die Millennium-Simulation diejenige PLWGHUIHLQVWHQ$XÀ|VXQJ Größe – in beiderlei Sinne – scheint eine Qualität an sich darzustellen. In Frankreich hat man inzwischen eine Dunkle-Materie-Simulation, die Horizon-Simulation, durchgeführt, die einen noch größeren Raumbereich (von der Größe des beobachtbaren Teils des Universums) umfasst. Der technische Fortschritt impliziert immer seine eigene Unzulänglichkeit. Volker Springel weist darauf hin, dass zwar die Teilchenzahl höher, durch das größere Volumen aber die Teilchendichte geringer sei als bei der Millennium-Simulation. Für Forscher, die z.B. an Galaxienentstehung interessiert sind, sind ohnehin die räumlich kleineren, aber ebenso großen Rechenaufwand erfordernden Simulationen von Dunkler Materie und Gas viel interessanter. Dennoch hat das Virgo-Konsortium, in dessen Rahmen die Millennium-Simulation entstand, inzwischen mit den Overwhelmingly Large Simulations (OWLS) reagiert.21 21 | In dieser Bezeichnung steckt offensichtlich auch ein kleiner Sei-

tenhieb auf die beobachtenden Kollegen des European Southern Observatory (ESO). Dessen ursprünglich als Nachfolger für das Very Large Telescope (VLT) geplantes Overwhelmingly Large Telescope (OWL) wird aus Kosten-

82 | D ATENBILDER Die Daten selbst stellen noch kein neues astrophysikalisches Wissen dar. Um die Daten aus dem Millennium-run für die Astrophysik zu nutzen, muss man gezielt Fragen an die Daten stellen. Man hat es mit Datenobjekten zu tun, die ungeheuer komplex sind und die es mit verschiedenen Methoden zu untersuchen und zu nutzen gilt.22 Nutzung der Daten: post-processing und Visualisierungen Mit den so gewonnenen Daten passiert nun zweierlei. Einerseits werden sie im sogenannten post-processing inhaltlich, meist statistisch analysiert. Das post-processing ist jedoch mehr als eine bloße Auswertung, wie man sie etwa mit Messdaten ausführt. Dort wird die in den Daten implizierte Aussage extrahiert, womit dann die Daten selbst auch schon ihre Produktivität erschöpft haben und ganz hinter die Aussage zurücktreten. Beim post-processing einer großen Simulation hingegen sind die Möglichkeiten, aus ihnen Erkenntnisse zu gewinnen, so vielfältig, dass man den Datenbestand eher als ein hochgradig komplexes Objekt ansehen kann, an das man Fragen stellen kann – Fragen, die sich oft bei der eigentlichen Simulation noch gar nicht gestellt hatten. Andererseits werden die Daten visualisiert. Ganz wie beim post-processing legen die Daten selbst nicht fest, wie dies geschieht. Es kommt immer darauf an, was man in dem Datensatz sichtbar machen will. Eine dieser Visualisierungen von Daten aus der Millennium-Simulation soll nun etwas genauer analysiert werden. Von ihrer Funktion her sind diese Datenbilder Illustrationen der Ergebnisdaten des runs. Zeitlich betrachtet entstehen sie nach dem run, aber vor der (immer noch andauernden) Auswertung der Daten. Sie verbinden somit die Simulation mit der anschließenden astrophysikalischen Forschung, sind aber selbst nicht unmittelbar für die Forschung relevant. Ihre Funktion besteht vor allem darin, die Leistungsfähigkeit der Simulation zu veranschaulichen und für die Daten zu werben. Später werden Datenbilder vorgestellt, die enger in den Forschungsprozess eingebunden sind.

gründen nicht gebaut, weswegen man sich nun mit dem European Extremely Large Telescope (E-ELT) zufrieden geben muss. 22 | Dass nicht die Daten selbst das Ergebnis sind, sondern die sich in Publikationen manifestierenden Auswertungen, wird auch an folgendem deutlich: Der Akt, der durch die mit Sperrfrist versehene Pressemitteilung zum Ereignis wird, ist nicht der Abschluss des runs am 14.06.04, sondern die Veröffentlichung in Nature am 02.06.05, also fast ein Jahr später.

R UNS | 83

Das Projektionsbild aus der Millennium-Simulation In Volker Springels Büro treffen wir wieder auf das uns vertraute Bild, nun aber nicht als einzelnes Bild, sondern als eine Montage aus fünf ineinander geschachtelten Bildern in unterschiedlichem Maßstab (Abb. 20). Es ist diese Montage, die als erstes Bild in dem Nature-Artikel das »Bild« der Millennium-Simulation prägte.

The dark matter density field on various scales. Each individual image shows the projected dark matter density field in a slab of thickness 15 h-1 Mpc (sliced from the periodic simulation volume at an angle chosen to avoid replicating structures in the lower two images), colour-coded by density and local dark matter velocity dispersion. The zoom sequence displays consecutive enlargements by factors of four, centred on one of the many galaxy cluster haloes present in the simulation.

Abb. 20: Visualisierung aus der Millennium-Simulation mit Originalbildlegende, aus Springel et al. 2005.

84 | D ATENBILDER Wir sehen auf den Bildern eine netzartige Struktur. Auch wenn wir wissen, dass Dunkle Materie gezeigt wird, scheinen bestimmte Bereiche in den Filamenten und besonders an einigen Knotenpunkten zu leuchten. Der violette Farbeindruck hat etwas Geheimnisvolles. Der schwarze Hintergrund vermittelt zudem den Eindruck von Tiefe: Man blickt zwischen den Strukturen hindurch in die Tiefe des Raumes. Sind diese Eindrücke gewollt? Sind sie überhaupt bei verschiedenen Personen gleich? Was davon ist im Bild selbst begründet, was in unseren Sehgewohnheiten? Ist dies eine ganz naive Betrachtung, die sich sofort YHUÀFKWLJWZHQQZLUHUVWHQVZLVVHQwas die Bilder darstellen und zweitens, wie sie es darstellen? Eine erste Klärung ergibt schon die Bildlegende. Sie gibt an, dass es sich um eine Projektion einer 15 Mpc/h dicken Scheibe aus dem simulierten Volumen handelt. Zur Erinnerung: Der Datenbestand als Resultat des Millennium-runs besteht aus 64 snapshots, wobei für jeden snapshot die Position und die Geschwindigkeit aller 10 Mrd. Teilchen gespeichert sind. Wie kommt man von diesen Daten zu einem Bild, wie wir es in Abb. 20 betrachten können? Es handelt sich bei dem Bild um eine Projektion. Projektion ist hier im mathematischen, nicht im optischen Sinn gemeint und hat nichts mit Zentralperspektive, Schattenwürfen usw. zu tun. Mathematisch ist eine solche Projektion – zumindest, wenn sie parallel zu einer der Koordinatenachsen erfolgt – äußerst einfach. )UDOOH7HLOFKHQGLHVLFKLQGHU6FKHLEHEH¿QGHQOlVVWPDQGLHHQWsprechende Koordinate einfach weg. Damit wird aus einer dreidimensionalen Verteilung eine zweidimensionale. Oder anschaulich gesprochen: Nicht erst das BildLVWÀDFKVFKRQGHUGDUJHVWHOOWDatensatzLVWÀDFK'LHV bedeutet, jede Form des Tiefeneindrucks ist ein Effekt des Bildes selbst, nicht der Daten. Es ist eine der Herausforderungen digitaler Visualisierung, dreidimensionale Objekte auf dem zweidimensionalen Bildschirm dreidimensional erscheinen zu lassen. Es gibt dafür unterschiedliche Ansätze, von denen einige später dargestellt werden. Dies spielt hier aber gerade keine Rolle, weil schon die Daten selbst zweidimensional sind. Verfahren des volume rendering, zum Beispiel durch künstlich eingerechnete BeleuchWXQJRGHUPHKURGHUZHQLJHUWUDQVSDUHQWH*UHQ]ÀlFKHQ¿QGHQVLFKEHzeichnender Weise nur für die an Metallstangen erinnernden Rahmen und Verbindungen der Bilder. Kaum verständlich ist aus der Legende, wie die Helligkeit und die Farben zustande kommen. Volker Springel erklärt uns die Helligkeitscodierung so: Die Helligkeit gibt die Materiedichte an. Dafür wird ein Ausschnitt aus dem Projektionsdatensatz in Zellen (Pixel) zerteilt, für je-

R UNS | 85

GH=HOOHJH]lKOWZLHYLHOH7HLOFKHQ'XQNOHU0DWHULHVLFKGDULQEH¿QGHQ und dann der Anzahl ein Helligkeitswert zugeordnet. Er zeigt uns das Bild ohne Farbcodierung (Abb. 21):

Abb. 21: Wie Abb. 19, jedoch ohne Farbcodierung der Geschwindigkeitsdispersion; unveröffentlicht (© Volker Springel, Max-Planck-Institut für Astrophysik, Garching). Man beurteile selbst, ob das Schwarz-Weiß-Bild einen Tiefeneindruck hat. Und ob intendiert oder nicht: In jedem Fall gilt es schon bei einem so einfachen Schritt, Dichte in Helligkeit zu übersetzen, Entscheidungen zu fällen, die das Bild prägen. Dass zum Beispiel mehr Teilchen heller dargestellt werden, ist keinesfalls selbstverständlich. In einer anderen Publikation, in der ein bestimmtes Phänomen ergänzend zur graphischen 'DUVWHOOXQJELOGOLFKYHUGHXWOLFKWZLUG¿QGHQVLFKGLH7HLOFKHQGXUFKDXV – tonersparend – schwarz auf weiß (vgl. Abb. 27). Dass die Darstellung heller Objekte vor dunklem Hintergrund an den Nachthimmel und an Stern- und Galaxiephotographien angelehnt ist, ist offensichtlich. Schon eine solche Darstellung der Dichteverteilung allein zeigt die charakteristischen Strukturen, wie man sie in Abb. 20 sieht. Dass man hier einen Zusammenhang in Form des cosmic webs sieht, hängt nicht nur von den Daten, sondern auch von den gewählten Parametern der Visualisierung ab: Nähme man eine dünnere Scheibe aus dem Datenraum oder eine andere Umrechnung von Dichte in Helligkeit, so könnte man durch-

86 | D ATENBILDER aus unzusammenhängende Objekte erhalten. Das Objekt »cosmic web« ist ganz wesentlich ein visuell generiertes Objekt. Eigentlich zeigt Abb. 21 schon den Kern der Millennium-Simulation, nämlich die räumliche Verteilung der Dunklen Materie. Nur wird man kaum ein Schwarz-Weiß-Bild in Nature veröffentlichen, wenngleich selbst in der Astrophysik Verlage immer noch Gebühren für Abb. 22: Farbskala für die Darstellung der Geschwindigkeitsdis- Farbdrucke verlangen, so dass einige Astrophysiker die elektronische persion; unveröffentlicht (© Volker Springel, Max-Planck-Institut Version mit Farbbildern versehen, die gedruckte Version hingegen mit für Astrophysik, Garching). Schwarz-Weiß-Bildern. Volker Springel sagt uns, dass die Bilder durch die Farbe »kontrastreicher« und »schöner« wirken sollen. Um aus den Schwarz-Weiß-Bildern )DUEELOGHU ]X PDFKHQ GH¿QLHUW HU HLQH (LJHQVFKDIW GLH HWZDV NRPSOLzierter ist als die Dichte. Es handelt sich um die Geschwindigkeitsdispersion. Farbcodiert wird nicht, wie schnell sich die Teilchen im Bereich eines Pixels bewegen, sondern wie unterschiedlich schnell. Dieser Wert ist zum Beispiel höher, wenn sich Teilchen aufeinander zu bewegen, als wenn sie sich parallel zueinander bewegen.

Abb. 23: Entwürfe für eine andere Farbgestaltung für die Projektionsbilder aus der Millennium-Simulation; unveröffentlicht (© Volker Springel, Max-Planck-Institut für Astrophysik, Garching).

R UNS | 87

Natürlich ist auch »Aufeinanderzubewegen« für das Grundthema der Simulation – Strukturentstehung – relevant, wie aber genau, bleibt zunächst unklar, zumal nirgends publiziert ist, wie diese berechnet wird. Volker Springel erläutert uns, dass die Geschwindigkeitsdispersion eine für das Verständnis der Prozesse wichtige und ohnehin zu berechnende Größe ist. Aber abzulesen, wie dies hinsichtlich der Dichte bedingt möglich ist, ist sie dem Bild nicht. Bei einzelnen Pixeln ist die Farbe kaum zu erkennen, zumal sie ja durch die Hell-Dunkel-Skala überformt ist. Er zeigt uns daher die von ihm speziell für die Millennium-Simulation erstellte Farbcodierung (vgl. Abb. 22.) In senkrechter Richtung ist der Hell-Dunkel-Übergang gezeigt und in waagerechter Richtung ein Farbkontinuum von geringer Geschwindigkeitsdispersion links zu hoher rechts. Volker Springel betont, dass es ihm auf gute Unterscheidbarkeit ankomme, ohne dass den Farben eine bestimmte Bedeutung zukäme. Lediglich grün habe er für seine Farbpalette vermieden.23 Seiner Aussage nach sei das charakteristische Violett der Projektionsbilder nicht intendiert gewesen, sondern habe sich einfach aus den Daten ergeben. Dabei experimentierte er mit verschiedenen Farbskalen, wie die Bilder in Abb. 23 zeigen. Dieses sind Entwürfe für das Titelblatt für das erwähnte Nature-Heft. Für farbig aufmachende Zeitschriften ist der Wechsel des dominierenden Farbtons wichtig, weswegen Volker Springel die Visualisierung der Materiedichte zunächst in anderen Farbtönen versucht hatte. Auch wenn das Titelbild letztlich in der violetten Farbcodierung erschien, so bieten diese Studien doch einen markanten Vergleich zu der üblich gewordenen Farbcodierung. Die Visualisierungen erinnern uns eher an gefärbte histologische Schnitte, während uns die violette Variante zum Weltraum zu passen scheint. Oder haben wir uns einfach schon zu sehr an das violette Design gewöhnt? Zwei ganz verschiedene physikalische Eigenschaften werden also überlagert und durch die Kombination einer Farbcodierung mit einer Hell-Dunkel-Skala visualisiert. Die Logik der Konstruktion ist vollkommen klar und operiert ohne jeden Trick der Darstellung. Dennoch ist die Trennung der beiden Eigenschaften auf dem Bild nicht mehr möglich, weil die Trennung in »Farbe« und »Helligkeit« auf der Bildebene nicht mehr gelingt. Durch die Überlagerung der Farbwerte (der Geschwindigkeitsdispersion) mit den Graustufen (der Dichte) treten bestimmte Strukturen und Objekte leuchtender hervor. Insgesamt wird der Eindruck von Bildtiefe verstärkt. Da, wie erwähnt, weder in den Daten, noch in der 23 | Man könnte vermuten, grün passe grundsätzlich mehr zur Erde als zum Kosmos, doch andere Simulationen werden durchaus unter Verwendung von grün visualisiert.

88 | D ATENBILDER Visualisierungssoftware Dreidimensionalität steckt, ist unser Eindruck innerhalb der einzelnen Bilder, von »leuchtenden« Strukturen, die dem Betrachter irgendwie »näher« seien, und von dunklen Bereichen, wo man in die »Tiefe des Raumes« sähe, also allein ein Effekt der Helligkeits- und Farbcodierung in Kombination mit den Sehgewohnheiten von Himmelsbildern. Anders ist dies mit dem Tiefeneindruck zwischen den Bildern. Die Folge der fünf Bilder in Abb. 20 zeigt jeweils einen Ausschnitt aus dem vorangegangenen Bild in 4-facher Vergrößerung. Schon durch die nicht rechtwinklige (wie es den Daten entspräche), sondern trapezförmige Begrenzung der einzelnen Bilder wird ein Blick von schräg oben suggeriert. Dieser Eindruck wird noch verstärkt durch das als rechtwinklig wahrgenommene Gerüst zwischen den Bildern. Jedes Bild tritt dabei nach oben und nach vorne aus dem Vorgängerbild, dem Betrachter entgegen. Der Effekt entspricht damit dem Heran-Zoomen durch ein Teleobjektiv, bei dem das Objekt nicht einfach vergrößert, sondern herangeholt wird. Auch diese Darstellungsweise ist keineswegs selbstverständlich. Denkbar wäre auch eine Visualisierung in Form eines immer tieferen Eindringens in den Kosmos, um den Objekten näher zu kommen, ein in %H]XJDXIGLHEHREDFKWHQGH$VWURQRPLHKlX¿JYHUZHQGHWHU7RSRV Bei all dem ist daran zu erinnern, dass entsprechend der Logik der Millennium-Simulation die gezeigten Objekte gar nicht »weit weg« oder »nah dran« sind. Dies hat nichts damit zu tun, dass es sich um eine Simulation handelt, denn es wäre möglich, bestimmte Raumgebiete zu simulieren. Es liegt vielmehr an der Prämisse der Simulation, gerade kein bestimmtes Gebiet zu simulieren. Der doppelte Tiefeneindruck, dass man auf den Bildern etwas Entferntes und dazu noch in die Tiefe zu sehen scheint, ist also, streng genommen, gar nicht im Sinne der MillenniumSimulation. Was aber ist auf den Projektionsbildern überhaupt zu sehen? Die Bildlegende macht dies – zumindest für ein Objekt – ganz klar: Die Folge der Ausschnittsvergrößerungen fokussiert auf einen galaxy cluster halo. Diese Auswahl ist offenbar visuell motiviert: das Ding, auf das die Bildfolge zoomt, ist das hellste, mithin aktivste und spannendste innerhalb des unteren, noch weitgehend strukturlosen Bildes. Astrophysik, so wird hier schon deutlich, ist objektzentriert. Insgesamt erscheint das Universum keineswegs als unendliche, leere Weite, sondern geradezu als voll. Bei der Wahl einer anderen Schichtdicke und einer anderen Helligkeitsskala sähe dies – wie erwähnt – ganz anders aus. Die zweite Stelle, an der sich die Kombination von objektbezogenem Realismus und kosmologisch begründeter Arbitrarität zeigt, sind die beiden unteren Bilder. Eigentlich ist der simulierte Raumwürfel nur 500 Mpc/h

R UNS | 89

lang, die Bilder zeigen aber weit größere Gebiete. Nun wird, wie bereits geschildert, für die Simulation der Würfel in alle Richtungen wiederholt. Man könnte dies also auch mit dem Projektionsbild tun, dann würden sich die Strukturen jeweils mehrfach exakt wiederholen. Bilder können nur bedingt ihre eigene Entstehung zeigen. In welchem Maße sie dies tun, hängt von der Konstruktion jedes einzelnen Bildes ab. Hier jedenfalls soll den Bildern die Periodizität der Simulation nicht anzusehen sein. Aus diesem Grund wird die Projektionsebene schräg in den Würfel gelegt, so dass aus den Wiederholungen rechts und links jeweils andere Schichten gezeigt werden. Was hier als ein ausgebreitetes Bild zu sehen ist, kann man also auch als eine nebeneinander gestellte Darstellung von im Simulationsraum hintereinander liegenden Schichten ansehen. Die Hauptabsicht der schrägen Projektion, so bestätigt uns Volker Springel, ist aber eine andere. Durch die Nichterkennbarkeit der Grenzen des Simulationsgebietes soll die Irritation vermieden werden, die darin bestünde, dass man hier überhaupt auf Simulationsdaten sähe. Am Himmel gibt es keine periodische Wiederholung. Sähe man eine Wiederholung auf den Bildern, wäre man also sofort daran erinnert, dass dies kein realistisches Abbild sein kann. Die auf diese Weise erzeugte Einmaligkeit jeden Teilgebietes dient dazu, auf die Raumgebiete selber zu sehen. Indem die Irritation einer Wiederholung vermieden wird, soll man Strukturen im Weltall sehen, nicht Daten einer Simulation. Auffallend dabei ist, dass diese – immerhin mit einigem zusätzlichen Rechenaufwand verbundene – Verschleierung im Bild in der Legende zum Bild gleich wieder aufgehoben wird. Denn dort wird genau diese Strategie offen benannt.

Exkurs: Die Verselbständigung eines Bildes Die Millennium-Simulation ist in verschiedenen Zeitschriften publiziert worden, die verschiedene Publika ansprechen. Auffallend ist, dass in allen Zeitschriften immer die gleichen Bilder verwendet werden, wohingegen sich die Beschriftungen der Bilder und die Bildunterschriften stark unterscheiden. Nature gilt unter den Astrophysikern trotz seiner bunten Aufmachung als vollwertige Fachzeitschrift. Das Dunkle-Materie-Bild, einschließlich der Bildunterschrift, ist schon besprochen worden 24. Parallel dazu erschien eine Pressemitteilung, ein kurzer Artikel im Physik Journal (Bar24 | Ein zweiter Artikel in Nature (Springel et al. 2006) zeigt eine Serie von Zeitschnitten in der Form wie Abb. 19.

90 | D ATENBILDER telmann 2005)25 und ein ausführlicherer in Sterne und Weltraum (Springel 2006). In diesen dreien ist ein etwas anders verschachteltes Bild zu sehen (Abb. 24).

Abb. 24: Geschachteltes Projektionsbild, das fast identisch in einer Pressemitteilung und in zwei verschiedenen Zeitschriften abgedruckt ist (© Volker Springel, Max-Planck-Institut für Astrophysik, Garching).

25 | Springel selbst hatte kurz vor dem Millennium-run einen ausführlichen Überblicksartikel über kosmologische Simulationen in derselben Zeitschrift publiziert (Springel 2003).

R UNS | 91

[Pressemitteilung:] »Die Verteilung der Dunklen Materie im Universum auf unterschiedlichen Skalen. Das Bild im Hintergrund zeigt einen Schnitt durch die MillenniumSimulation auf einer Gesamtbreite von mehr als neun Milliarden Lichtjahren. Auf solch riesigen Skalen erscheint das Universum fast homogen, doch die überlagerte Serie von Vergrößerungen zeigt ein komplexes ›kosmisches Netz‹ aus Dunkler Materie auf Skalen bis zu etwa 300 Millionen Lichtjahren. Diese Großraumstruktur besteht aus Filamenten, die große Leerräume umspannen und sich in massereichen Halos aus Materie treffen. Die größten dieser Halos sind mächtige Galaxienhaufen, die über eintausend Galaxien enthalten, welche von der Simulation als Halosubstruktur aufgelöst werden. Filme und Bilder zur Pressemitteilung http://www.mpa-garching.mpg.de/galform/presse/.«

[Sterne und Weltraum:] »Ein schrittweiser Zoom in die kosmische Großraumstruktur der MillenniumSimulation. Jedes der einzelnen Bilder vergrößert den markierten Bildausschnitt um einen Faktor 4, bis schließlich einer der vielen großen Galaxienhaufen in der Simulation mit den eingebetteten Galaxien zu sehen ist. Die Farbe der Bilder zeigt dabei die lokale ›Temperatur‹ der Teilchen der dunklen Materie an. Die Skalen beziehen sich auf eine Hubble-Konstante mit dem Wert H0 = 73 km s-1/Mpc.«

[Physik Journal:] »Von massearmen Galaxien bis hin zu den größten Superhaufen reicht das Spektrum an Strukturen, deren Entstehung nun simuliert wurde. (Quelle: MPA Garching).«

Das Bild selbst ist in allen drei Publikationen gleich, nicht jedoch die Beschriftung. Aufschlussreich ist die Art, wie die Längen angegeben sind. Im Physik Journal, dessen Leserschaft Physiker aller Fachrichtungen sind, bei denen offensichtlich Grundkenntnisse in Kosmologie vorausgesetzt werden, sind die Längen in der auch fachintern benutzten Einheit »Mpc/h« angegeben (zur Erläuterung: siehe Anm. 11). Für Sterne und Weltraum hingegen sind die Längen in »Megaparsec« umgerechnet worden, und diese Beschriftung wurde auch im Bild selbst entsprechend geändert. Diese Zeitschrift richtet sich vor allem an Amateur-Astronomen. Bei diesen setzt man offenbar die Kenntnis der für die Astronomie gängigen Einheit »Megaparsec« voraus, nicht aber die kosmologische Theorie der Expansion, aufgrund derer die Angabe in Mpc/h üblich ist.

92 | D ATENBILDER Noch populärer ist die Presseerklärung. Hier werden die Längen in »Lichtjahren« angegeben. Auch wenn dies eine in der Astrophysik ganz ungebräuchliche Einheit ist, so ist sie viel leichter zu erklären als »Parsec«. Deutlich spärlicher als in den Fachpublikationen sind in allen diesen Medien die Angaben zur Bildherstellung. In der Presseerklärung ist lediglich von einem »Schnitt durch die Millennium-Simulation« die Rede, in Sterne und Weltraum wird mitgeteilt, dass die »Farbe der Bilder« die »›lokale Temperatur‹« (als Übersetzung von »Geschwindigkeits-Dispersion«) zeige, und im Physik Journal ¿QGHQ VLFK LQ GHU %LOGXQWHUVFKULIW überhaupt keine Angaben zur Bildherstellung. Bei allen dreien bezieht sich der Hauptteil der Bildunterschrift auf die auf den Bildern sichtbaren Objekte, vor allem Galaxiencluster. Bemerkenswert ist dabei der nahtlose Übergang von den Daten zu den Objekten im Universum. Wenn die Presseerklärung von einem »Schnitt durch die Millennium-Simulation auf einer Gesamtbreite von mehr als neun Milliarden Lichtjahren« spricht, so bezieht sich der erste Teil des Satzes auf die Simulationsdaten, der zweite aber schon auf das gezeigte Objekt, denn die Simulation selbst ist ja nicht neun Milliarden Lichtjahre groß. Das Datenbild als Vermittler zwischen der Simulation und dem Universum wird nicht erwähnt. Während die Daten etwas fundamental anderes sind als das Universum, ermöglicht das Bild scheinbar, in den Daten das Universum zu sehen, und zwar gerade dadurch, dass das Bild als eigenständiges Objekt hinter seiner Funktion zurücktritt. Dabei bemühen sich die Bildunterschriften um einen glatten Übergang von dem, was man sieht, zu dem, was man sehen soll, nämlich den Objekten im Universum. Wenn wir verschiedenen Personen diese Bilder ohne Erläuterung und ohne Bildunterschrift gezeigt haben, und sie gefragt haben, was sie auf ihnen sehen, so war immer von »netzartigen Strukturen« und »leuchtenden Dingen« die Rede. Die Bildunterschrift macht daraus das »richtige« Objekt, indem sie den visuellen Eindruck in »kosmisches Netz aus Dunkler Materie«, »Galaxien« und »Galaxienhaufen« übersetzt. Die Projektionsbilder aus der Millennium-Simulation wie in Abb. 19, Abb. 20 und Abb. 24 stehen für sich, sprechen aber nicht für sich. Sie sind weder selbstverständlich, noch unverständlich. Man kann sie nicht ohne Erklärung verstehen, weder die ihnen zugrunde liegende Simulation, noch die Visualisierungen selbst. Umgekehrt vermitteln sie auch nicht das Gefühl, nichts zu verstehen, wie es zahlreiche der Diagramme (siehe gleich) tun. Das Bild als Bild funktioniert genau durch diese Vagheit, was das Dargestellte und das Verfahren der Darstellung angeht. Genau deshalb lässt sich dieses Bild – ohne Änderungen an ihm selbst – für ganz

R UNS | 93

unterschiedlich vorgebildete Betrachter als Illustration des Millenniumruns verwenden. Der Forschung dienen diese Bilder jedenfalls nicht unmittelbar. Sie werden zum Beispiel nicht systematisch nach interessanten Objekten oder Strukturen durchsucht. Es wurden nicht einmal von jedem Raumgebiet und aus jeder Richtung derartige Bilder erstellt. Es ist in den auf den verschiedenen Darstellungsvarianten immer derselbe Galaxien-Cluster zu sehen. Die eigentliche auf der Millennium-Simulation beruhende Forschung arbeitet weitgehend mit Daten, nicht mit Bildern. Sie wird auch in anderen Zeitschriften, wie den Monthly Notices of the Royal Astronomical Society, dem Astrophysical Journal oder Astronomy and Astrophysics publiziert. 'RUW ¿QGHW VLFK GDV 3URMHNWLRQVELOG MHGRFK QLFKW 8QG GHQQRFK ZHUGHQ auch die vielfältigen Resultate des post-processing wiederum visualisiert, wenngleich in entsprechend uneinheitlicherer Form als das kanonische Projektionsbild.

Post-processing: Diagramme Beim post-processing werden an die Datensätze gezielt Fragen gestellt. Es NDQQGDUXPJHKHQ2EMHNWHPLWGH¿QLHUWHQ(LJHQVFKDIWHQ]XVXFKHQRGHU bestimmte Strukturen oder zeitliche Entwicklungen zu erkennen. Wegen der großen Menge der Daten basieren solche Analysen selbst wieder auf Computerprogrammen, die zum Teil als Teile von GADGET bereitstehen, zum Teil aber auch speziell geschrieben werden müssen. Zwei Beispiele sollen dies verdeutlichen. Eine typische Aufgabe ist GDV $XI¿QGHQ YHUGLFKWHWHU 'XQNOHU 0DWHULH 'D]X ZHUGHQ ± IU MHGHQ snapshot einzeln – diejenigen Teilchen, deren Abstand unter einer bestimmten Grenze liegt, zu Einheiten zusammengefasst und katalogisiert. Ab 20 Teilchen werden diese als Objekte behandelt. Ob es sich dabei tatsächlich um physikalisch durch Gravitation zusammenhängende, also durch die Expansion des Universums nicht mehr auseinander zu ziehende Objekte (die Astrophysiker sprechen von »virialisierten« Objekten) hanGHOWOlVVWVLFKDQKDQGGHU,GHQWL¿NDWLRQVQXPPHUQGHU7HLOFKHQEHUYHUschiedene Zeitschnitte hinweg verfolgen. Diese Nummern ermöglichen es auch festzustellen, welche Objekte sich im Laufe der Zeit zu größeren Objekten verbinden. Daraus resultiert ein Katalog von 20 Millionen Galaxien, die individuell bis zu ihrem Ursprung zurückverfolgt werden können.26 26 | Genauer gesagt, sind dies nicht die Galaxien selber, sondern deren Halos aus Dunkler Materie. Halos sind weitgehend kugelförmige Verdich-

94 | D ATENBILDER

Differential halo number density as a function of mass and epoch. The function n(M, z) gives the comoving number density of halos less massive than M. We plot it as the halo multiplicity function M2ȡ -1 dn/dM, where ȡ is the mean density of the universe. Groups of particles were found using a friends-of-friends algorithm with linking length equal to 0.2 of the mean particle separation. The fraction of mass bound to halos of more than 20 particles (vertical dotted line) grows from 6.42x10 -4 at z = 10.07 to 0.496 at z = 0. Solid lines are predictions from an analytic fitting function proposed in previous work, while the dashed lines give the Press-Schechter model at z = 10.07 and z = 0.

$EE9HUWHLOXQJGHU+lX¿JNHLWYRQ+DORVDXV'XQNOHU0DWHULHLQ$Ehängigkeit von deren Größe, mit der Originalbildlegende, aus Springel et al. 2005.

Die Möglichkeit der Erstellung derartiger merger trees wird als ein Hauptgewinn der Millennium-Simulation betont. Dafür sind ganz neue Codes erforderlich, die mit dem Code für die eigentliche Simulation nichts zu tun haben. Die Erstellung der merger trees muss vollkommen tungen von Dunkler Materie in unterschiedlicher Größe, in denen sich die gewöhnliche Materie zu Galaxien und Galaxienhaufen verdichtet.

R UNS | 95

automatisiert sein, da man es ja immer mit allen 10 Mrd. Teilchen zu tun hat. Dementsprechend erfolgt die Auswertung vor allem statistisch. Die so gewonnen Resultate werden dann visualisiert, allerdings ganz anders als in Abb. 19. Abb. 25 gibt eine solche Visualisierung wieder. Es geht um die Häu¿JNHLWYHUVFKLHGHQJUR‰HU2EMHNWH]XYHUVFKLHGHQHQ=HLWHQ$XIGHU[ Achse ist (logarithmisch) die Masse der Objekte, ausgedrückt in Sonnenmassen (der üblichen Masseneinheit in der Astrophysik) aufgetragen. Die \$FKVHEH]HLFKQHW HEHQIDOOVORJDULWKPLVFK GLHMHZHLOLJH+lX¿JNHLWIU jede Größe.27

Bias as a function of halo formation time. We divide haloes with particle number in the range [100, 200] into ten equalsized subsamples as a function of their formation time. For each subsample we compute a mean formation redshift and a bias factor. The figure plots these two quantities against each other. Vertical and horizontaldotted lines show the mean formation redshift and the mean bias for the sample as a whole.

Abb. 26: Verteilung von kleinen Halos aus unterschiedlichen Epochen, Erläuterung im Text, aus Gao et al. (2005). 27 | 6WUHQJJHQRPPHQLVWGLHGLIIHUHQWLHOOH+lX¿JNHLWDXIJHWUDJHQ'LHV

ist erforderlich, da die Masse kontinuierlich aufgetragen ist. Die Gesamtmasse der verdichteten Objekte ergibt sich dann durch die Integration der diffeUHQWLHOOHQ+lX¿JNHLWDOVRDOV)OlFKHXQWHUGHU.XUYH

96 | D ATENBILDER Man sieht, dass zum Beispiel für z = 10,07 (also während der Anfangsphase der Simulation) noch nicht sehr viele Objekte existieren. Das schwerste Objekt hat 5·1011 Sonnenmassen, was etwa 500 Teilchen entspricht. Im Laufe der Zeit (also mit abnehmendem z) nehmen sowohl die jeweilige +lX¿JNHLWDOVDXFKGLHPD[LPDOH*U|‰H]XELVEHLz = 0 (also heute) Objekte mit bis zu 1016 Sonnenmassen (10 Mio. Teilchen) entstanden sind. Das wichtigste Ergebnis dieser Auswertung besteht darin, dass schon früher als in dem gängigen Modell (das durch blaue Kurven dargestellt ist) größere Objekte in höherer Zahl vorkommen. Dies ist von daher wichtig, als so das kosmologische Modell einschließlich der verwendeten PaUDPHWHUQLFKWLQ.RQÀLNW]XGHQ%HREDFKWXQJHQJHUlW,QVEHVRQGHUHGLH Beobachtung von Quasaren deutet auf eine sehr frühe Entstehung großer Verdichtungen hin, was die früheren Modelle nicht vorhersagten. Das zweite Beispiel haben wir ausgewählt, weil hier das Ergebnis sowohl als Graph als auch als Bild visualisiert wurde. Die Dunkle Materie formiert sich – wie gerade gesehen – im Laufe der Zeit zu Halos unterschiedlicher Größe. Die Frage ist nun, wie sich diese Halos selbst wieder gruppieren, bevor sie zu größeren Halos verschmelzen. Eigentlich, so sagt die Theorie, sollten Halos derselben Größe sich gleich stark gruppieren, unabhängig davon, wann sie entstanden sind. Ältere Simulationen haben diese Theorie bestätigt. Aus der Millennium-Simulation geht nun hervor, dass dies für kleiQH+DORVGLHHUVWGXUFKGLHKRKH$XÀ|VXQJGLHVHU6LPXODWLRQªVLFKWEDU© werden, nicht gilt. In Worten lautet das Ergebnis: Halos, die früher entstanden sind, sind – bei gleicher Größe – heute stärker gruppiert als später entstandene. Dieses Ergebnis ist in Abb. 26 dargestellt. Die x-Achse bezeichnet die Rotverschiebung, letztlich also die Zeit. Dagegen ist b aufgetragen, das ein Maß für die »Gruppiertheit« darstellt. Für die Auswertung wurden alle Halos, die zwischen 100 und 200 Teilchen enthalten, berücksichtigt. Der Anstieg der Kurve zeigt, dass ältere Halos stärker gruppiert sind als jüngere. In Abb. 27 ist jeweils eine Projektion einer 30 Mpc/h dicken Schicht IUGLHJHVDPWH6WLUQÀlFKHYRQ0SFKPDO0SFKJH]HLJW%Hrücksichtigt sind links die 10% jüngsten Halos, in der Mitte die 10% ältesten Halos und rechts eine zufällige Mischung.28 Die stärkere Verdichtung zu Filamenten ist hier unmittelbar zu sehen. Der Text selbst spricht von einer »visual impression« (Gao et al. 2005). Aber Abb. 26, so wird gesagt, zeige das Phänomen »in more detail«. »Detail« bezieht sich also auf den 28 | Für die Altersbestimmung benötigt man den Katalog der merger trees: Das »Alter« ist die Zeit, die vergangen ist, seitdem das Objekt mehr als 20 Teilchen hat.

R UNS | 97

Images comparing the distribution of “young” haloes, “old” haloes and dark matter. The region plotted is a 30h-1Mpc slice through the Millennium Simulation. All haloes plotted contain between 100 and 200 particles. The row shows the 10% youngest (left) and 10% oldest (middle) of these haloes, together with an equal number of randomly selected dark matter particles (right).

Abb. 27: Visualisierungen der Verteilung von kleinen Halos aus unterschiedlichen Epochen (Ausschnitt), mit Originalbildlegende; weitere Erläuterungen im Text, aus Gao et al. (2005). Grad des Verständnisses grundlegender Prozesse und nicht etwa auf eine bestimmte Struktur in der Halo-Verteilung selbst. Simulationen und deren Visualisierungen, so wird deutlich, zeigen Himmelsobjekte exemplaULVFKQLFKWVSH]L¿VFK:LUZHUGHQGDUDXI]XUFNNRPPHQ Vergleicht man den Gebrauch von Bildern und von Diagrammen, so darf nicht der Eindruck entstehen, sie seien für alle Bereiche gleich wichtig. In den Fachpublikationen überwiegen ganz eindeutig die Diagramme. In Farbe oder schwarz-weiß werden statistische Auswertungen veranschaulicht, Zeitreihen geplottet, Ergebnisse mit früheren Simulationen, Beobachtungsdaten oder theoretischen Modellen verglichen, usw.

Vergleich mit Beobachtungen 1: Karten Eine dritte Form der Visualisierung sind Karten. In dem ausgewählten %HLVSLHO¿QGHWVLFKDXFKHUVWPDOVHLQ9HUJOHLFKPLW%HREDFKWXQJVGDWHQ und zwar auf visueller Ebene. Die blauen und violetten Sektoren in Abb. 28 resultieren aus Beobachtungen. Dargestellt sind die Ergebnisse der drei größten Kartierungen von Galaxien. Alle Kartierungen beziehen sich nicht auf den ganzen Himmel, sondern nur auf einen bestimmten Längenbereich, der außen in Stunden angegeben ist. Es wurde auch nur jeweils ein bestimmter Breitenbereich durchmustert. Für jede beobachtete Galaxie wurde deren Richtung und Rotverschiebung gemessen. Aus der Rotverschiebung ergibt sich mittels der Lichtgeschwindigkeit die Entfernung von der Erde, insgesamt also die

98 | D ATENBILDER

The galaxy distribution obtained from spectroscopic redshift surveys and from mock catalogues constructed from cosmological simulations. The small slice at the top shows the CfA2 “Great Wall”, with the Coma cluster at the centre. Drawn to the same scale is a small section of the SDSS, in which an even larger “Sloan Great Wall” has been identified. This is one of the largest observed structures in the Universe, containing over 10,000 galaxies and stretching over more than 1.37 billion light years. The wedge on the left shows one-half of the 2dFGRS, which determined distances to more than 220,000 galaxies in the southern sky out to a depth of 2 billion light years. The SDSS has a similar depth but a larger solid angle and currently includes over 650,000 observed redshifts in the northern sky. At the bottom and on the right, mock galaxy surveys constructed using semianalytic techniques to simulate the formation and evolution of galaxies within the evolving dark matter distribution of the “Millennium” simulation are shown, selected with matching survey geometries and magnitude limits.

Abb. 28: Vergleich der Daten aus der Millennium-Simulation mit Beobachtungsdaten, mit Originalbildlegende, aus Springel et al 2006.

R UNS | 99

Position im Raum. In Abb. 28 sind die Positionen in eine Breitenebene projiziert. Der Abstand vom Zentrum markiert die Entfernung von der Erde, die gleichzeitig (wegen der Konstanz der Lichtgeschwindigkeit) auch den Zeitpunkt in der Vergangenheit angibt, zu dem das Licht ausgesandt wurde. Als Maß für die Entfernung ist wahlweise die Zeit, die Rotverschiebung z oder die Fluchtgeschwindigkeit cz angegeben. Der kleinere Sektor in Abb. 28 beruht auf den Messungen des Harvard-Smithsonian Centre for Astrophysics (CfA2). Deutlich zu sehen ist eine lange Struktur, der Great Wall. Der größere der oberen Sektoren zeigt Daten des internationalen Sloan Digital Sky Survey (SDSS), der am Apache Point Observatory durchgeführt wird. In dieser weiter in den Raum (und die Vergangenheit) reichenden Kartierung erkennt man eine noch größere Struktur, den Sloan Great Wall, das größte bekannte ª2EMHNW©LP8QLYHUVXPEHUKDXSW,QGHPOLQNHQ6HNWRU¿QGHQVLFKGLH entsprechenden Daten des britisch-australischen 2 degree Field Gallaxy Redshift Survey (2dFGRS). Wie diese Messungen funktionieren, inwieweit die Erkennung von Galaxien automatisiert ist, welchen Anteil der Galaxien man überhaupt »sehen« kann usw., ist der Graphik nicht anzusehen. Für die beobachtende Astronomie gibt es natürlich vergleichsweise komplexe, wenngleich in der Sache ganz andersartige Verfahren, um zu einer Visualisierung wie dieser zu kommen. Die Theoretiker wissen dies, sie wissen aber auch, dass sie gar nicht erst zu versuchen brauchen, die technischen Bedingungen der Entstehung der Galaxienkarten zu verstehen. Hier gibt es methodisch und damit sozial eine Trennung; eine Verbindung besteht nur auf der Ebene der Daten und der Visualisierungen in Bezug auf bestimmte Objekte. Die Karten selbst kann man für den Vergleich einfach als Bilddateien von den Websites der entsprechenden Projekte herunterladen. Sektorenkarten wie diese werden nun als Standard genommen, um die Simulationsdaten mit den Beobachtungsdaten zu vergleichen. Die Daten aus der Millennium-Simulation und die Beobachtungsdaten sind jeweils gegenüber dargestellt. Das heißt, die Vergleichbarkeit selbst, die sich aus der auf den ersten Blick erkennbaren Ähnlichkeit der roten und der blauvioletten Sektoren ergibt, resultiert ausschließlich auf der Anpassung der Theorie an die Beobachtung. Oder genauer: der Anpassung der Visualisierung der Simulationsdaten an die visualisierten Beobachtungsdaten. Für diesen Vergleich werden die Simulationsdaten extrem zurechtgestutzt. Ein vergleichsweise kleines Raumgebiet wird ausgewählt, die Daten in eine Ebene projiziert, die Geschwindigkeit der Objekte außer Acht gelassen und in größerer Entfernung die Objekte deutlich ausgedünnt. Das Resultat sind Karten, deren Objekte sich im Prinzip ähneln, was als Argument für die Richtigkeit der Simulation betrachtet wird.

100 | D ATENBILDER Dies ist eine ganze andere Bildpraxis als die zur Illustration von Simulationsdaten. Hier geht es nicht um Schönheit oder Anschaulichkeit, sondern um unmittelbare Vergleichbarkeit, die selbst wieder in den Dienst der Legitimierung der Simulation gestellt wird. Wie bei den Illustrationen gehen mit der Visualisierung die meisten Informationen des Datensatzes verloren; der Zweck und die Umsetzung dieser extrem reduzierten Datenbilder sind jedoch ganz verschiedene. In beiden Fällen geht es um Ähnlichkeit, aber bei den Projektionsbildern ist es eine Ähnlichkeit mit Vorstellungen von Objekten im Universum (oder gängigen Bildern von diesen), während es bei den Karten um Ähnlichkeit mit anderen Datenbildern geht. Nun kann man offensichtlich aus jedem Datensatz mit mehreren Millionen Galaxien immer Karten erzeugen, die im Prinzip so aussehen wie diese. Doch eine prinzipielle Ähnlichkeit reicht nicht. Um über die prinzipielle Ähnlichkeit hinaus auch eine VSH]L¿VFKH Ähnlichkeit zu bekommen, wurde in die Darstellungen der Simulationsdaten ein Element – man muss es so sagen – eingebaut. Ganz ähnliche Objekte wie den Great Wall und den Sloan Great Wall sieht man nun auch auf den auf der Simulation beruhenden unteren Sektoren. Wie ist das möglich, wenn doch schon vom Ansatz der Millennium-Simulation her gar keine bestimmten Objekte, ja QLFKWHLQPDOHLQHEHVWLPPWH5DXPUHJLRQVLPXOLHUWZLUG":DUXP¿QGHQ sich hier, an etwa derselben Stelle, ähnlich aussehende Objekte? Ist dies Zufall, und wenn ja, was hätte dieser Zufall für eine Aussagekraft? Volker Springel gibt uns darauf eine überraschend einfache Antwort. In der Tat wurde speziell für diese Visualisierung ein Raumausschnitt noch einmal, und zwar mehrfach simuliert, bis sich solche Objekte zeigten. Genau diese runs wurden dann für den Kartenvergleich ausgewählt. Einerseits mag man hier die Grenze der legitimen Bildanpassung schon als überschritten ansehen. Auch wenn das Objekt nicht gerade direkt in die Karte gezeichnet wurde, so nimmt doch die Auswahl aus einer Vielzahl von Möglichkeiten nach dem Kriterium der Ähnlichkeit dem Vergleich seine epistemische Kraft. Das Bild selbst hat diese nur deshalb behalten, weil man ihm dieses Auswahlkriterium nicht mehr ansieht. Und in der Bildunterschrift wird dies mit »selected with matching survey geometries« nur sehr vage angedeutet. Andererseits kann man einwenden, gerade weil Simulationen keine bestimmten Gebiete oder Objekte simulieren, ist es legitim, sie mehrfach laufen zu lassen und alle Ergebnisse als gleichermaßen gültig anzusehen. Wenn sich dann ein ähnliches Objekt wie in der Beobachtung zeigt, ist dies immerhin ein Hinweis darauf, dass solche Objekte (in der Simulation) entstehen können. Ungeachtet dieser bildethischen (oder simulationsethischen) Frage

R UNS | 101

zeigt dieses Beispiel die starke Orientierung der simulierenden Astrophysik an den Ergebnissen der beobachtenden Astrophysik als Korrektiv für die Simulationen.

Der Weltraum auf dem Bildschirm: Simulationen und Visualisierungen in 2D, 3D und 4D Die Projektionsbilder aus der Millennium-Simulation sind im Wesentlichen Visualisierungen zur Illustration. Sie dienen nicht unmittelbar der )RUVFKXQJ=XGHPVLQGVLH ELVDXIGLH'XUFKÀJH QXU]ZHLGLPHQVLRQDO All dies gilt für die beiden folgenden Simulationen nicht, bei denen die Visualisierungen ganz eng mit dem Verständnis der untersuchten Prozesse zusammenhängen. $XFK YRQ GHU 3K\VLN KHU XQWHUVFKHLGHQ VLH VLFK VLJQL¿NDQW YRQ GHU Millennium-Simulation. Diese hatte nur mit Dunkler Materie zu tun, die nur durch Gravitation wechselwirkt. Sobald aber gewöhnliche, baryonische Materie simuliert wird, muss man Stöße zwischen Teilchen, mithin Druck und Temperatur, berücksichtigen. Dass die simulierten Objekte einzelne Sterne sind, also sehr viel kleiner als ein einziges von Volker Springels »Teilchen«, ist demgegenüber ein geringer Unterschied, da die Simulationsmethoden für kleine und für große Objekte sich im Prinzip nicht unterscheiden. Supernovae Friedrich Röpke ist Leiter der DFG-Nachwuchsgruppe Comprehensive Modeling of Type Ia Supernova Explosions. Eine Supernova ist die Explosion eines Sterns durch eine thermonukleare Reaktion. Dabei verschmelzen die Atomkerne der Bestandteile und bilden verschiedene schwerere Elemente. Bei dem Prozess werden innerhalb kurzer Zeit ungeheure Mengen an Strahlung freigesetzt. Dies macht Supernovae vor allem für die beobachtende Astronomie so interessant. Obwohl das Objekt, ein einzelner Stern, sehr klein ist, ist das Ereignis so hell, dass man es noch aus sehr großer Entfernung beobachten kann. Je weiter entfernt, umso früher hat eine Supernova stattgefunden und umso tiefer kann man in die Vergangenheit des Universums sehen. Von besonderer Bedeutung sind Supernovae vom Typ 1a, da sie immer fast gleich hell sind, so dass man aus dem Vergleich ihrer Helligkeit mit ihrer Rotverschiebung auf ihre Entfernung schließen kann. Es waren die Beobachtungen solcher Typ-1a-Supernovae, die dazu geführt haben, dass man seit einigen Jahren der Meinung ist, dass sich momentan die Expansion des Universums nicht abbremst, sondern beschleunigt.

102 | D ATENBILDER Um die Lichtkurve und ihre Spektralzerlegung interpretieren zu können, ist ein Verständnis der chemischen und physikalischen Prozesse notwendig. Während das Leuchten einer Supernova mehrere Wochen dauert, geschieht die eigentliche Explosion innerhalb von etwa 1 bis 2 Sekunden. Zu dieser Zeit ist der Stern noch so dicht, dass keine Strahlung nach außen dringen kann. Das heißt, genau die entscheidende Phase einer Supernova ist nicht beobachtbar. Das simulierte Objekt ist im kosmischen Maßstab sehr klein, aber die Simulation selbst nicht. Verwendet wird ein Gitterkubus, der in jede Richtung 1024-fach unterteilt ist, also etwa 1 Mrd. Zellen enthält. Anders als in der Millennium-Simulation bleiben hier nicht die Teilchen bestehen und bewegen sich in dem Volumen. Vielmehr werden die Zellen beibehalten und jeweils berechnet, wie viel Materie jede Zelle zu welcher Seite betritt oder verlässt. Das für die Simulation verwendete Programm gehört damit zu den grid codes. Allerdings wird der Maßstab der Größe des Objekts angepasst. Anfangs hat der Würfel eine Kantenlänge von 2000 Kilometern, später entsprechend mehr. Kompliziert wird die Simulation dadurch, dass sich die Materie durch die Kernreaktionen verändert, also nicht nur Physik (Hydrodynamik), sondern auch Kernchemie in das Modell mit eingehen muss.29 Die Simulation beruht also, mehr als die vorangehenden, auf speziellen theoretischen Vorannahmen und Modellen. Zudem unterscheiden sich die Supernovae untereinander, so dass Friedrich Röpke die Simulation mehrfach mit verVFKLHGHQHQ3DUDPHWHUQGXUFKIKUWXPKHUDXV]X¿QGHQZHOFKHU3DUDPHter für die beobachteten Varianten maßgeblich ist. Für die Visualisierung stellt sich – wie bei jeder Simulation – die Frage, was eigentlich das Objekt ist. Die Materie? Die Zellen? Die Bewegung? Dies ist durch die Daten selbst nicht vorgegeben. Zudem ist bei dem Prozess die Dreidimensionalität entscheidend, doch wie kann man diese darstellen? Friedrich Röpke konstruiert zunächst eine Fläche im Raum. Die Fläche ist die »thermonukleare Flamme«, also die Orte, an denen gerade die thermonukleare Reaktionen passieren. Diese Fläche wird durch Instabilitäten und Turbulenzen stark verformt und bekommt dadurch eine komplizierte Morphologie. Dann wird jedem Raumpunkt ein Zahlenwert zugeordnet, der den Abstand zur Flamme angibt. Die Fläche besteht also 29 | Bei den von Friedrich Röpke untersuchten Supernovae fusioniert in einem weißen Zwerg 12C und 16O zu 56Ni. Trotz der ganz andersartigen Verbrennung beruhen Friedrich Röpkes Simulationsmodelle auf solchen, die in der Automobilindustrie zur Simulation von Verbrennungen im Motor erstellt wurden.

R UNS | 103

aus den Raumpunkten mit dem Abstand Null. Diese level set method wird auch in der Medizin für die Veranschaulichung von dreidimensionalen Objekten angewandt. Die Visualisierung selbst geschieht dadurch, dass die Fläche als Au‰HQÀlFKHHLQHVDXIGLHVH:HLVHWKHRUHWLVFKHU]HXJWHQ'LQJVJH]HLJWZLUG Künstliche Beleuchtung und Schatten (volume rendering) lassen dieses Ding als ein räumliches Objekt erscheinen. In Abb. 29 ist das durch die )ODPPHQÀlFKH GH¿QLHUWH 'LQJ EODVVEODX GDUJHVWHOOW *HOERUDQJH LVW hingegen die Materiedichte des explodierenden Sterns gezeigt. Um die LPPHULP,QQHUHQGHV*DVHVEH¿QGOLFKH)ODPPHQÀlFKHVHKHQ]XN|Qnen, ist ein 90°-Sektor aus dem Stern herausgeschnitten worden. Auch wenn sowohl das Bild selbst als auch die Fläche der thermonuklearen Flamme zweidimensional sind, so ist dennoch auf den ersten Blick zu erkennen, dass die zugrunde liegende Simulation dreidimensioQDOLVW0DQVLHKWGDVª'LQJ©GUHLGLPHQVLRQDOXQGDXFKGLH)ODPPHQÀlche verformt sich im Raum. Angesichts des hohen Aufwands für die Erstellung einer solchen Visualisierung sind wir zunächst erstaunt, dass Friedrich Röpke betont, Visualisierungen seien kein Mittel zur Entdeckung. Auch der Vergleich mit den Beobachtungen erfolge ausschließlich über Daten, die man aus dem post-processing der Ergebnisdaten erhalte, nicht in Form von Bildern. Auch hier hat die Bildpraxis mit der Anbindung an die Beobachtung zu tun. Für eine Supernova, die wegen ihrer Kleinheit immer nur als Punkt gesehen werden kann, spielen Bilder (hier im Sinne von räumlichen Helligkeitsdifferenzen) keine Rolle. Wichtig und gut beobachtbar ist hingegen der zeitliche Verlauf der Lichtkurve nach der Explosion, welche zudem spektral zerlegt werden kann. Entsprechend berechnet man aus den Simulationsdaten, wie hell die verschiedenen chemischen Elemente strahlen würden und kombiniert diese Daten zu einem »synthetischen Spektrum«, das dann mit dem beobachteten Spektrum verglichen werden kann. Wenn beide übereinstimmen, spricht einiges dafür, dass die Simulation der Verbrennung richtig war – und dann kann man sich die Visualisierung ansehen, um den Prozess zu verstehen. Visualisierungen, so drückt es Friedrich Röpke aus, dienen dem »Erklären«, aber die Daten enthalten die »Erkenntnisse«. Sonnenprotuberanzen Friedrich Kupka forscht in der Gruppe Stellar Structure and Evolution. Auch er steckt sehr viel Arbeit in die Visualisierung seiner Simulation, aber auch er betont, dass die harten Ergebnisse aus dem post-processing gewonnen werden – und diese Ergebnisse werden dann in üblichen plots

104 | D ATENBILDER

Snapshots from a full-star SN Ia simulation starting from a multi-spot ignition scenario. The logarithm of the density is volume rendered indicating the extend of the WD star and the isosurface corresponds to the thermonuclear flame. The last snapshot corresponds to the end of the simulation and is not on scale with the earlier snapshots.

Abb. 29: Visualisierung der thermonuklearen Flamme aus der Simulation einer Typ-1a-Supernova; aus Röpke (2006). Die Bilder zeigen den Zustand am Anfang der Explosion sowie 0,3 Sekunden, 0,6 Sekunden und 10 Sekunden danach. (© Friedrich Röpke, Max-Planck-Institut für Astrophysik, Garching). visualisiert. Und doch haben Visualisierungen für Friedrich Kupka noch eine andere Funktion neben der Visualisierung von Daten und dem nachträglichen Verstehen von Phänomenen. Bildliche Darstellungen dienen DOV +HXULVWLN ]XP $XI¿QGHQ QHXHU 3KlQRPHQH 'DIU PXVV PDQ DOOHUdings, das zeigen seine Visualisierungen deutlich, gleichzeitig die Physik,

R UNS | 105

den Simulationsansatz und das Visualisierungsverfahren verstehen. Dies gilt insbesondere für zweidimensionale Simulationen. Dass – wie bei Friedrich Röpke – zwar die Visualisierung, nicht aber die Simulation zweidimensional ist, ist nicht selbstverständlich. Man kann durchaus physikalische Prozesse durch geeignete Randbedingungen zweidimensionalisieren, und zwar schon in der Simulation, nicht erst in GHU9LVXDOLVLHUXQJ'LHVZLUGKlX¿JDXV*UQGHQGHU(LQIDFKKHLWXQGGHU EHVVHUHQ$XÀ|VXQJJHWDQ(VLVWGDQQLP(LQ]HOIDOO]XGLVNXWLHUHQZDV dies über in der Natur so nicht beschränkte Phänomene aussagt. Abb. 30 zeigt einen snapshot aus einem Film zur Dynamik der Grenzschicht der Sonne. Das Bild wirkt zweidimensional, aber wir können dem Bild nicht ansehen, ob die zu Grunde liegende Simulation zwei- oder dreidimensional ist. Dies geht nicht nur uns so: Mehrfach fragen Kollegen

Specific entropy (red = high) in the high-resolution domain. Note the sharp and smooth boundary of the nascent plume (left of the middle); the instabilities and entrainment of surface material (low entropy) in the more developed plume (farther left); and the head instabilities of the plume quite to the left. Compare with the smooth structures in the entropy plot in Stein & Nordlund. (2000), fig. 11 there. In vorticity indications of turbulence are, however, seen there, l.c., fig. 13.

Abb. 30: Snapshot aus einer Simulation der Dynamik in der Grenzschicht der Sonne, aus Muthsam et al. (2008).

106 | D ATENBILDER bei Vorträgen und informellen Diskussionen, ob eine Simulation, deren Visualisierung sie gerade gezeigt bekommen, »2D or 3D« sei. Die Dimension des Modells der Simulation ist unbedingt von der Dimension der Visualisierung zu unterscheiden. Der Begriff »Dimension der Visualisierung« kann sich auf zweierlei beziehen. Physisch sind die meisten Visualisierungen zweidimensional, weil schlicht der Bildschirm, GLH/HLQZDQGRGHUGDV3DSLHU]ZHLGLPHQVLRQDO ÀDFK VLQG'LHVJLOWDEHU nicht unbedingt für das, was man auf dem Bild sieht. Eine dreidimensionale Simulation kann dreidimensional oder zweidimensional visualisiert werden, also so, dass man ihr die 3-Dimensionalität der Simulation ansieht oder eben nicht. Bei Friedrich Kupkas zweidimensional wirkendem Bild ist tatsächlich auch die Simulation schon zweidimensional. Man kann sich dies so vorstellen, als würde man die Gasbewegungen zwischen zwei parallelen, senkrecht ins Innere der Sonne reichenden Glasplatten beobachten. Die Beschränkung auf zwei Dimensionen hat technische Gründe: Ein 2DModell ist einfacher zu programmieren und die Berechnungen brauchen ZHQLJHU5HFKHQ]HLWXQGN|QQHQGDKHUPLWK|KHUHU$XÀ|VXQJJHUHFKQHW werden. Dafür handelt man sich allerdings Effekte ein, die es in der wirklichen 3D-Welt nicht gibt. Wir sind etwas skeptisch, doch Friedrich Kupka sagt uns, er könne eindeutig solche »2D-Artefakte« von echten Effekten unterscheiden. Ein Beispiel: Man sieht einen vertikalen Schnitt durch die Grenzschicht der Sonne, etwa 2600 Kilometer breit und 2000 Kilometer tief. Farbcodiert ist die Entropie, die dort höher (rot) ist, wo das Gas heiß ist. Der eigentliche Effekt sind die herabsinkenden, sich dabei biegenden und am Rande verwirbelnden plumes (Fahnen, Schwaden) aus kälterem Gas, wie man sie neu entstehend etwas links der Bildmitte sowie als ältere Exemplare in der linken Bildhälfte sieht. Friedrich Kupka unterscheidet den sich verbreiternden Kopf von dem nach oben weisenden Stamm. Außerdem zeigt er uns Bereiche rotierenden Gases geringer Dichte, die sich von dem Stamm ablösen. Diese vortex patches :LUEHOÀHFNHQ HQWODQJGHV6WDPPVHLQHV plumes sind allerdings ein typisches 2D-Artefakt. Während wir, als wir es gezeigt bekommen, die plumes und die vortex patches sehen, sind wir nicht in der Lage, reale Phänomene von 2D-Artefakten anhand des Bildes zu unterscheiden. Friedrich Kupka sagt uns, dass niemand dies ohne Hintergrundwissen könne. Gerade die vortex patches seien aber schon aus der Meteorologie und der Ozeanographie bekannt und ihre Physik gut verstanden. In früheren, gröberen Simulationen habe man zudem festgestellt, dass sie in 2D auftauchen, nicht aber in 3D. Friedrich Kupka warnt daher davor, solche Bilder ohne Erklärung Laien zu zeigen. Aber auch nicht alle Astrophysiker verfügen über die notwendigen

R UNS | 107

Vorerfahrungen. So diskutiert der Artikel zu dieser Simulation (Muthsam et al. 2008) alle dieser »entities«, die Effekte ebenso wie die Artefakte. Der Gegenstand des Artikels sind also streng genommen die Vorgänge in der 2D-Simulation, nicht die Vorgänge in der Sonne. Interessant sind besonders solche in 2D sichtbaren Effekte, von denen man ahnt, dass sie auch in 3D vorkommen. Die 2D-Simulation ist dann ein proof of concept, mit dem man eine aufwendige 3D-Simulation legitimiert. Zunächst geht es also darum, die aus dem run resultierenden Daten zu verstehen, bevor man sie mit der Sonne vergleicht, oder besser gesagt: mit den Daten aus den Beobachtungen der Sonne. Selbstverständlich weisen die Autoren darauf hin, dass die vortex patches in 3D-Simulationen – und damit in der Sonne – nicht vorkommen. Doch genau dies zeigt, dass es offenbar auch für Sonnenexperten den Bildern selbst nicht anzusehen ist, ZDVDXIGHP%LOGGHU6SH]L¿NGHU6LPXODWLRQJHVFKXOGHWLVWXQGZDVDXI die tatsächlichen Vorgänge in der Grenzschicht der Sonne verweist. Nur die gleichzeitige Kenntnis der Sonne, der Simulation und des Visualisierungsverfahrens erlaubt es, aus dem Bild Schlüsse zu ziehen. Durchflüge für die Öffentlichkeit Genau diese Entschlüsselungsleistung ist für die Öffentlichkeit nicht möglich. Entsprechend wird versucht, diese Übersetzungsprozesse (zwischen Simulation und Universum) in die Bilder und Visualisierungen selbst zu verlagern. Man soll den Bildern die Dreidimensionalität unmittelbar ansehen, man soll den Eindruck haben, von einem Punkt aus in eine bestimmte Richtung zu sehen, und zeitliche Veränderungen werden nicht als Graphen »Größe y gegen die Zeit« visualisiert (und damit entzeitlicht), sondern als Filme in der Zeit erfahrbar gemacht. All dies gilt für die bisherigen Bildformen nicht. Das Dunkle-Materie%LOGLVWHLQHÀDFKH3URMHNWLRQDOVRHLQHVEHLGHPPDQQLFKWYRQHLQHP bestimmten Punkt aus auf das Objekt sieht, sondern aus einer bestimmten Richtung. Dies gilt auch für das Bild der Sonnenprotuberanzen. Wenn aus diesen Filme montiert werden, so zeigen sie also die zeitliche Entwicklung des Objekts selbst und nicht die Bewegung des Beobachters. Anders LVW GLHV EHL YLUWXHOOHQ 'XUFKÀJHQ +LHU HQWVWHKW GHU GUHLGLPHQVLRQDOH Eindruck dadurch, dass man erstens von einem bestimmten Punkt aus in den Raum sieht, zweitens, dass man in eine bestimmte Richtung sieht und drittens, dass sich Standpunkt und Blickrichtung zeitlich ändern. Auch HLQHQVROFKHQª'XUFKÀXJ©JLEWHVYRQGHUMillennium-Simulation (http://

108 | D ATENBILDER www.mpa-garching.mpg.de/gadget/ und http://www.mpa-garching.mpg. de/galform/virgo/millennium/).30 Man umkreist einen spektakulären Galaxiencluster und nähert sich diesem, den Blick immer auf den Cluster gerichtet, um sich im zweiten Teil des Films auf einer Spiralbahn wieder von ihm zu entfernen und ihn am Schluss als leuchtenden Knoten im cosmic web zu sehen. Solche zentralperspektivischen Bilder sind komplizierter zu generieren, weil sie alles berücksichtigen müssen, was auf der vom Auge ausgehenden Halbgerade passiert. Die entsprechenden Verfahren heißen ray tracing. Je nachdem, was man sehen soll, muss die Abschwächung des Lichts mit der Entfernung und die Abschattung durch andere Objekte berücksichtigt werden. Die speziellen Verfahren für das ray tracing hängen stark davon ab, in welcher Form die Materie in der Simulation modelliert ist. Klaus Dolag hat speziell für Smoothed Particle Hydrodynamics-Simulationen (also solche mit Teilchen statt mit Zellen) eine ray-tracingVisualisierungssoftware entwickelt (Dolag et al. 2008). Mit Hilfe dieser 6RIWZDUH KDW HU HLQH 9LVXDOLVLHUXQJ HUVWHOOW EHL GHU HLQ 'XUFKÀXJ PLW der zeitlichen Entwicklung des Objekts selbst kombiniert wurde. Man hat also einen 3D-Eindruck des Objekts mit der zusätzlichen Dimension der Zeit, weswegen er dies eine »4D-Visualisierung« nennt (http://www.mpagarching.mpg.de/~kdolag/). Diese sehr aufwändige Visualisierung wurde für das Planetarium in Turin erstellt. Für die Forschung sind derartige Visualisierungen nicht üblich. Allerdings betont nicht nur Klaus Dolag, dass Visualisierungen in verschieden aufwändigen Formaten für den Erkenntnisprozess, vor allem aber für die interne Kommunikation wichtig sind.

Integration durch Intuition: Bilder als boundary objects Vorträge Bilder, so sagen uns alle Gesprächspartner einhellig, sind vor allem für Vorträge unentbehrlich. Erstens machen sie Vorträge unterhaltsamer und

30 | 'HPJHJHQEHUVLQGLQWHUDNWLYH'XUFKÀJHEHLGHQHQGHU%HWUDFKter per Maus durch das Volumen manövriert, sehr viel schwieriger und vor allem rechenaufwändiger, weil hier die jeweilige Zentralprojektion in Echtzeit berechnet werden muss. Eine solche wurde im Rechenzentrum für die Millennium-Simulation erstellt, spielt aber für den Public Outreach keine Rolle.

R UNS | 109

zweitens ermöglichen sie es, viel Information zu verdichten und – wenn auch eher intuitiv – in kurzer Zeit zu vermitteln. Wie dies funktioniert, bekommen wir gleich am ersten Tag zu sehen. Volker Springel hält einen Vortrag in dem für alle Mitarbeiterinnen und 0LWDUEHLWHU YHUSÀLFKWHQGHQ ,QVWLWXWVNROORTLXP 'DV 7KHPD LVW GLH YRQ dem Vortragenden neuentwickelte moving-mesh-Methode. Bislang gibt es zwei grundlegend verschiedene Ansätze für Simulationen. Entweder man konstruiert Teilchen, die sich im Raum bewegen (die für die Millennium-Simulation verwendete Methode, SPH) oder man EHUHFKQHWGLH0DWHULHÀVVHLQHLQHP JHGDFKWHQ *LWWHUQHW] grid-codes). Normalerweise wählt man bei seiner ersten großen Simulation den für die Fragestellung geeigneteren Ansatz aus. Bei den folgenden Simulationen ist es dann eher umgekehrt, das heißt, die beherrschte Methode bestimmt die Wahl des simulierten Objekts. Die meisten Astrophysiker legen sich also auf einen Ansatz fest, auch wenn es einige Hybridansätze gibt, die bestimmte Elemente aus beiden kombinieren. Volker Springel beherrscht nicht nur beide, sondern stellt in dem Vortrag einen ganz neuen Ansatz vor, der eine echte Synthese beider darstellt: Er lässt die Zellen sich selbst bewegen. Bei der Bewegung der dreieckigen Zellen verformen sie sich, und wenn sie ein bestimmtes Winkelverhältnis unterschreiten, verschmelzen sie mit der Nachbarzelle. Wenn sie hingegen zu groß werden, teilen sie sich. Damit ist es möglich, auch kleinskalige Verwirbelungen zu simulieren.31 In dem etwa einstündigen Vortrag werden ausführlich Vor- und Nachteile der bisherigen Ansätze diskutiert und die Möglichkeiten des neuen Ansatzes begründet. Die Worte sind nüchtern gewählt und mit so zurückhaltender Gestik und Lautstärke vorgetragen, dass es nicht nur für uns einer erheblichen Konzentrationsleistung bedarf, dem Vortrag durchgängig zuzuhören. Ganz anders die Bilder. An den entscheidenden Stellen zeigt Volker Springel Filme von Mustersimulationen mit dem neuen Ansatz und sorgt damit für Momente hoher Aufmerksamkeit. In deutlichen, hellen Farben sieht man, wie sich die Zellen bewegen, verformen, verbinden oder teilen. Die Filme sind von solcher Klarheit, dass man sofort sieht, wie die Methode funktioniert. (Oder jedenfalls denkt man dies und vergisst die kurz zuvor ja nur angedeuteten mathematischen Schwierigkeiten, die Dreiecke tatsächlich überall richtig zu berechnen.) Es handelt sich hier um vergleichsweise triviale Probleme (etwa zwei 31 | Dieses Verfahren geht auf die Triangulation Frankreichs während der Französischen Revolution zurück und verwendet die später nach dem Mathematiker Georgii Voronoi (1868–1908) benannten Voronoi-Zellen.

110 | D ATENBILDER sich durchmischende Flüssigkeiten in 2D), die mit Astrophysik noch gar nichts zu tun haben. Die Faszination, die im Publikum zu spüren ist, rührt vielmehr von der gekonnten Visualisierung selbst her. Mit großem Gespür für Rhythmus lässt der Vortragende die Zellen sich nicht zu langsam und nicht zu schnell bewegen, und die Filme selbst, so kurz sie als in den Vortrag zu integrierende Echtzeitelemente sein müssen, wirken nicht abgebrochen. Und sie funktionieren auf Anhieb. Noch lange nach dem Vortrag sind uns diese Bilder deutlicher »vor Augen« als die Vielzahl der Formeln und Diagramme »drumherum«. Dass eine Visualisierung keineswegs immer hilfreich für einen Vortrag ist, sehen wir zwei Tage später in einem anderen Vortrag. Zugegeben, dieser Vortragende hat es schwerer, weil er zu der Minderheit der noch analytisch rechnenden Theoretiker gehört. Aber auch von einem solchen erwartet man am MPA Simulationen einschließlich Visualisierungen. Doch dies hat der Vortragende bis zu seinem Vortrag noch nicht geschafft. Es geht um Dunkle Energie, und die von ihm diskutierten Modelle sind so grundlegend anders als das der Millennium-Simulation zu Grunde liegende Standardmodell, dass man gerne sehen würde, wie ein Universum mit seinen Parametern aussähe. Doch was er zeigen kann, sind lediglich Formeln. Seine Visualisierung besteht darin, dass er als Hintergrundbild für die PowerPoint-Präsentation ein Bild einer Schultafel verwendet. Der auf Knopfdruck erscheinende Text sieht aus wie mit weißer Kreide von Hand geschrieben. Offensichtlich ist dies eine ironisch-melancholische Reminiszenz an die Ikone der theoretischen Physik, die dicht mit Formeln beschriebene Tafel – aber gegenüber dem Vortrag bleibt dieser Kommentar äußerlich. Team-meeting Doch gerade die Eigenständigkeit von Bildern gegenüber dem Text kann auch positiv genutzt werden. Dies erleben wir auf dem wöchentlichen, einstündigen Team-Meeting. Da es sich um das gemeinsame Meeting ]ZHLHU*UXSSHQKDQGHOWZHL‰KlX¿JGHU/HLWHUGHUHLQHQ*UXSSHQLFKWLP Detail, um was es in den vielfältigen, meist Promotionsprojekten, genau geht. Hier spielen Bilder eine integrative Rolle, indem sie gerade dadurch, dass sie nicht selbsterklärend sind, einen ersten Zugang ermöglichen, bei dem niemand alles, aber alle etwas verstehen. Konkret funktioniert die Diskussion so: Ein Doktorand zeigt allen Anwesenden meist farbige Ausdrucke von Visualisierungen, entweder Graphen oder Bilder. Dies sind Zwischenergebnisse, bei denen dem Bearbeiter irgendetwas unklar und diskussionswürdig erscheint. Das Bild

R UNS | 111

wird dann nach und nach erklärt, das heißt, der Ersteller sagt, was zu sehen ist, welches der Maßstab ist, was die Farben zu bedeuten haben, ob es sich (bei Simulationen) um eine 2D- oder eine 3D-Simulation handelt usw. 'LHVH(UNOlUXQJHQHUIROJHQKlX¿JDXI1DFKIUDJH'LHVJHVFKLHKWVHKU offen. Da die Gruppe derjenigen, die zunächst einmal nichts verstehen, in der Regel alle außer dem Ersteller und dessen Betreuer umfasst, äußern sich auch andere Doktoranden, dass sie noch überhaupt nicht verstehen, was auf dem Bild dargestellt ist. Die Gruppenleiter können dies fördern, z.B. durch einen Scherz. »Looks like lensing« äußert etwa einer der Leiter zu einem präsentierten Bild, auf dem runde, durch gegenüberliegende, sichelförmige Schalen eingefasste Objekte zu sehen sind. Dieser kleine Satz hat mindestens drei Funktionen. Erstens hat er ein integrierendes Moment, da es sich um einen typischen Insiderwitz handelt. Es werden wohl nur Astrophysiker verstehen, dass mit »lensing« der Gravitationslinseneffekt gemeint ist, bei dem das Licht durch Materie so abgelenkt wird, dass man ein dahinterliegendes Objekt zwei- oder mehrfach, und zwar sichelförmig um ein Zentrum angeordnet sieht – eine für die Existenz der Dunklen Materie ganz wichtige Beobachtung. Jeder in der Gruppe weiß dies. Zweitens ist wohl jedem, auf jeden Fall aber dem Sprecher, klar, dass auf dem Bild nicht der Gravitationslinseneffekt zu sehen ist. Durch diese offensichtliche Falschbenennung kann der Sprecher seine eigene Unkenntnis dessen, was auf den Bildern eigentlich zu sehen ist, zum Ausdruck bringen, ohne diese Unkenntnis direkt zuzugeben. Drittens öffnet diese für alle offensichtliche Rhetorik einen Fragehorizont, der buchstäblich bei Null, nämlich bei einer (absichtlich) absurd falschen Interpretation beginnt. Es kann dann keine zu einfachen Fragen mehr geben. Im Laufe der Diskussion differenziert sich die anfängliche Gleichheit des Verständnisses aber sehr schnell aus. In der gesprochenen Diskussion, so haben wir den Eindruck (und so ergeht es uns selber), werden nach und nach die meisten Teilnehmerinnen und Teilnehmer abgehängt. Nur noch Personen, die der Diskussion folgen können, fragen jetzt noch. In beiden beschriebenen Fällen, formellen Vorträgen und informellen Meetings, fungieren Bilder als boundary objects, die die Kommunikation zwischen Personen mit unterschiedlichem Vorwissen ermöglichen.32

32 | Das Konzept der boundary objects geht auf Star/Griesemer 1989

zurück.

112 | D ATENBILDER

Realität der Daten – Realität in den Daten Das Problem der Kommunikation stellt sich auch im größeren Zusammenhang. Die communities und sub-communities innerhalb der AstroSK\VLNVLQGREMHNWEH]RJHQQLFKWPHWKRGHQEH]RJHQGH¿QLHUW(VJLEWGLH Galaxienforscher, die Sternforscher, die Kosmologen usw. Andererseits stehen sich innerhalb jeder community die beiden grundlegend verschiedenen methodischen Ansätze – Beobachtung und Theorie – gegenüber. Beide werden als unabdingbar für ein besseres Verständnis der Vorgänge angesehen. Man braucht, da sind sich alle einig, vor allem Massen von neuen Daten, und zwar sowohl Beobachtungsdaten als auch Simulationsdaten. Beides erwartet man von den nächsten Jahren, durch neue Missionen einerseits und durch schnellere Computer andererseits. Zurzeit jedoch, so jedenfalls unser Eindruck, klafft zwischen beiden Methoden noch eine Lücke. Wiederum ist ein Scherz aufschlussreich, geäußert in einem weiteren Vortrag. Es geht um ein simuliertes Objekt, bei dem die Wahl der richtigen Parameter umstritten ist. Dies ist aber zugleich ein besonders schwer zu beobachtendes Objekt. »Zum Glück«, sagt der Vortragende, »dann können wir bestimmt noch 30 Jahre lang die Parameter nehmen, die wir wollen.« Wie also kann man Simulationen ohne empirische Kontrollen testen? Und wie erfolgt der Vergleich, wenn es denn Beobachtungsdaten gibt? Für beides spielen Bilder eine zentrale Rolle. Testen von Simulationscodes Eine Möglichkeit der Kontrolle besteht darin, die Simulationsverfahren selbst zum Gegenstand der Forschung zu machen. Nicht nur deshalb, weil die theoretischen Astrophysiker die meiste Zeit auf das Entwickeln dieser Codes verwenden, sind ihre Codes als Resultate der Forschung anzusehen, nur eben als computertechnische, nicht als astrophysikalische.33 Sie sind mehr als bloße Hilfsmittel zum Verständnis bestimmter Phänomene, QlPOLFK ÀH[LEOH DXVEDXIlKLJH %DXVlW]H IU GLH 6LPXODWLRQ JDQ] YHUschiedener Probleme. Neu entwickelte Codes werden daher zunächst auf einen weitgehend feststehenden Satz relativ einfacher Probleme angewandt. Es handelt sich dabei um Probleme, die entweder gerade noch analytisch berechenbar

33 | Deshalb lassen diese sich nur in Ausnahmefällen als Ergebnisse in astrophysikalischen Fachzeitschriften publizieren – sofern der Autor überhaupt beabsichtigt, seinen Code öffentlich zu machen.

R UNS | 113

Time evolution of the interaction of a strong shock wave with a dense cloud of gas. The cloud of radius r = 3.5 has an initial relative overdensity of 5, and is embedded at pressure equilibrium in ambient gas of unit density and unit pressure. From the left, a shock wave with Mach number M = 10.0 approaches and strikes the cloud. The gas has Ȗ = 5/3, giving the shock an incident velocity of v = 9.586 and a compression factor of 3.884 with respect to the background gas. Each panel shows the gas density in a region of size 62.5 × 25.0, with the time indicated in the top-right corner. The computation assumed periodic boundaries at the top and bottom.

Abb. 31: Visualisierungen des Tests von GADGET-2 anhand des Modellproblems einer auf eine Gaswolke auftreffenden Schockwelle, mit Originallegende; aus Springel 2005.

114 | D ATENBILDER sind oder die nur noch numerisch gelöst werden können, aber vergleichsweise einfache Randbedingungen haben. Ein Beispiel ist eine Flüssigkeit in einem Gefäß mit einer schwereren Flüssigkeit darüber. Die schwerere Flüssigkeit sinkt, die leichtere Flüssigkeit verdrängend, nach unten, aber sie kann dies natürlich nicht überall gleichzeitig tun. So entstehen sehr komplexe Strömungen und teilweise Vermischungen, bis sich schließlich die schwerere Flüssigkeit vollständig XQWHQEH¿QGHW Diesen vergleichsweise einfachen Vorgang muss jeder Simulationscode beherrschen. Ein anderes typisches Problem ist in Abb. 31 dargestellt. Es handelt sich um eine Schockwelle, die von links auf eine kugelförmige Gaswolke trifft.

0

128

256

Santa Barbara cluster simulation: projected dark matter density in logarithmic units at z = 0, 1283 particles projected on a 10242 mesh, no smoothing. The dynamic range of the density variation in this figure is roughly 5 orders of magnitude. The lower force resolution used here for the FLASH simulation is apparent in the figure.

Abb. 32: Vergleich von Simulationscodes anhand der Visualisierung von Probesimulationen einer typischen astrophysikalischen Situation aus Heitmann et al. 2005.

R UNS | 115

Deutlich festzustellen ist vor allem, was alles nicht zu sehen ist. Man sieht etwa der Visualisierung nicht an, ob es sich um eine 2D-Simulation oder um eine 3D-Simulation handelt. Die einzelnen Parameter, von denen die Morphologie der Verwirbelungen nach dem Auftreffen entscheidend abhängt, werden nur in der Bildlegende angegeben. Auch die Farbgebung deutet nicht darauf hin, dass das Programm einmal für eine astrophysikalische Fragestellung benutzt werden soll. Es gibt regelrechte Forschungsprogramme, in denen verschiedene Simulationscodes systematisch anhand kanonischer Probleme getestet werden. In Heitmann et al. (2005) etwa wird GADGET-2 neben fünf anderen Programmen auf diese Probleme angewandt. Wohlgemerkt hat dies noch gar nichts mit Astrophysik zu tun, sondern nur mit allgemeiner Hydrodynamik. Mit den Programmen lässt man danach typische, aber nicht sehr große astrophysikalische Simulationen laufen. Teilweise geschieht dabei die Kontrolle visuell durch Projektionsbilder wie in Abb. 32. Dass die Bilder sich so sehr ähneln, liegt erstens daran, dass alle Programme mit denselben Ausgangsdaten und Parametern gestartet wurden, zweitens, dass die Visualisierung selbst einheitlich erfolgte, und drittens, dass die Programme eben alle gute Ergebnisse bringen. Dies jedenfalls ist es, was man durch solche Tests bestätigt sehen möchte. Denn der systematische Vergleich verschiedener Programme untereinander stellt – zumindest für analytisch nicht lösbare Probleme – die einzige Möglichkeit dar zu testen, ob ein Code »richtige« Ergebnisse liefert. »Richtig« heißt letztlich, dass der Code plausible Szenarien produziert. In der Tat traut man den Simulationen hier einiges zu. Insbesondere die großräumigen Simulationen wie der Millennium-run liefern den Hintergrund für weitere Forschungen. Die zweite Realität Klaus Dolag interessiert sich für die Interaktionen zwischen Galaxien: Kollisionen, Durchdringungen und ähnliche Ereignisse. Diese Ereignisse sucht er nicht am Himmel (wobei selbstverständlich auch die »beobachtenden« Astrophysiker nicht zum Himmel schauen, sondern auf Computerbildschirme), sondern in den Datensätzen der Millennium-Simulation. Was Volker Springel selbst nicht getan hat, tut Klaus Dolag: Er durchsucht die vorhandenen Simulationen systematisch nach ihn interessierenden Objekten und Ereignissen. Es gibt Datenbanken, in denen Visuali-

116 | D ATENBILDER sierungen aus unterschiedlichen Simulationen zusammengefasst sind und die eine solche rein visuelle Suche ermöglichen.34 Diese Suche geschieht visuell, das heißt durch Ansicht der verfügbaren Visualisierungen. Klaus Dolag führt uns einen Ausschnitt aus einer größeren Simulation vor, bei dem eine Galaxie sich so um andere Galaxien bewegt, dass sie durch einen swing-by-Effekt – ähnlich wie Raumsonden durch Planeten – beschleunigt wird. Dies, so sagt er uns, würde man in den Daten mit noch soviel post-processingQLHPDOV¿QGHQ Einerseits ist die Suche unbestimmt. Was genau Interessantes passiert, weiß auch er nicht im Voraus. Andererseits ist der Blick durch das Vorwissen über die simulierten Objekte geprägt. Nur mit dem Vorwissen zu Galaxien kann man besondere Objekte oder Phänomene in den Daten ¿QGHQ ª,QGHQ'DWHQ¿QGHQ©6SlWHVWHQVKLHUEHNRPPHQGLH'DWHQVHOEVWHLne zweite Realität. Sie sind nicht nur als Daten real, sondern sie bilden selbst ein Paralleluniversum, eine unbekannte Welt, in der es Entdeckungen zu machen gibt. Selbstverständlich ist allen klar, dass diese Phänomene und Objekte selbst nicht existieren, und dass jedes einzelne von ihnen in seiQHU 6SH]L¿WlW QLFKW ]XOHW]W YRQ GHQ ]XIlOOLJHQ $QIDQJVZHUWHQ GHV runs abhängt. Dennoch werden sie als typisch betrachtet und benutzt. Dass man die großen Simulationen (aus Gründen verfügbarer Rechnerzeit) jeweils nur einmal laufen lässt, mag diesen Status als Paralleluniversum noch stützen. Um ein Objekt genauer zu untersuchen, benutzt Dolag die Millennium-Simulation als Hintergrund. In seiner eigenen Simulation wurde die Millennium-Simulation ab dem Auftreten des Ereignisses mit denselben Daten noch einmal gerechnet, jedoch in der zeitlichen und räumlichen 8PJHEXQJGHV(UHLJQLVVHVPLWVHKUYLHOK|KHUHU$XÀ|VXQJLQZHLWHUHU (QWIHUQXQJGDYRQMHGRFKPLWVHKUYLHOJHULQJHUHU$XÀ|VXQJ'DV5HVXOWDW sind snapshots eines kleinen Raum-Zeit-Gebietes, die – anders als für die Millennium-Simulation – auch zu einem Film montiert wurden. Parallel werden die Ergebnisdaten dieser Simulation durch post-processing analysiert, um insbesondere quantitative Ergebnisse zu bekommen. Dieses Vorgehen hat uns überrascht. Wir hätten vermutet, dass man solche Kollisionen von Galaxien von vornherein modellieren würde. Man könnte doch – so dachten wir – sich die Suche ersparen und die Galaxien einfach so konstruieren, wie man es für richtig hält, ohne auf den Zufall eines solchen Ereignisses innerhalb einer bestehenden Simulation angewiesen zu sein. Zudem könnte man dann systematisch Parameter (z.B. die 34 | Wichtig ist das German Astrophysical Virtual Observatory (GAVO), das derlei Daten zur Verfügung stellt.

R UNS | 117

Größe, die Geschwindigkeit, die Aufprallparallaxe usw.) variieren und sehen, was passiert. Dies, so betont Klaus Dolag, geht nicht. Damit die Kollision realistisch verläuft, muss man immer die großräumige Umgebung – wenn auch LQJUREHU$XÀ|VXQJ±PLWVLPXOLHUHQ'LHVH8PJHEXQJNDQQPDQQLFKW einfach modellieren. Auch Marcus Brüggen benutzt die Millennium-Simulation als Fundus für seine eigene Simulation von Galaxienclustern. Dazu sucht er sich einen typischen Cluster heraus, und simuliert diesen, ähnlich wie Klaus 'RODJQRFKHLQPDOLQK|KHUHU$XÀ|VXQJ:LHVHKUGLH'DWHQDXVGHUMillennium-Simulation zu quasi-natürlichen Objekten geworden sind, zeigt ein Detail: In der Publikation zu Marcus Brüggens Simulation bedanken sich die Autoren bei Volker Springel nicht etwa für den Zugang zu den Daten, sondern für »a set of GADGET simulated clusters« (Heinz et al. 2006). Galaxiencluster aus dem Paralleluniversum werden zu Dingen, die man verschenken kann. Selbstverständlich wird nicht behauptet, genau diese Bewegungen der Galaxien oder diese Cluster gäbe es im wirklichen Universum. Es geht um Phänomene, also um Typen von Ereignissen und Objekten. Der Abgleich mit der wirklichen Welt ist letztlich maßgeblich dafür, ob einem einer Simulation entnommenen Phänomen Realitätsstatus zugewiesen wird. Und diese Einschätzung geschieht wiederum maßgeblich über Bilder.

Vergleich mit Beobachtungen 2: Virtuelle Teleskope, künstliche Daten, synthetische Beobachtungen Eines der Hauptprobleme der Astrophysik besteht darin, die Anschlussfähigkeit der Simulation in Richtung der analytisch rechnenden Astrophysik auf der einen Seite und der beobachtenden Astronomie auf der anderen Seite zu gewährleisten. Gerade für die Verbindung zur Beobachtung spielen Visualisierungen eine entscheidende Rolle. Wenn Simulationen und Beobachtungen nicht übereinstimmen, hat immer die Beobachtung recht. So jedenfalls hören wir dies mehrfach in Garching. Die Astrophysik ist »beobachtungsgetrieben«, wie Marcus Brüggen es ausdrückt. So schwierig und unvollkommen die Beobachtungen auch sein mögen, sie dienen als unverrückbarer Maßstab für die Beurteilung von Simulationen. Wenn die Simulationsergebnisse mit tatsächlichen Beobachtungen nicht übereinstimmen, würden die Theoretiker keinen Moment zögern, ihr Modell als unrealistisch anzusehen und entsprechend zu verändern. Wie aber kann man überhaupt Simulationen mit Beobachtungen vergleichen? Der Kontakt zu tatsächlich schon gemachten, aber auch zu po-

118 | D ATENBILDER tentiell machbaren Beobachtungen geschieht weitgehend über Bilder. Ein Simulations-Phänomen ist dann realistisch, wenn dessen Bild mit dem Bild eines tatsächlichen Phänomens übereinstimmt. Selbstverständlich ist den Theoretikern klar, dass auch die Beobachtungsbilder Datenbilder sind, also Visualisierungen von Messdaten. Dabei spielt es gar keine Rolle, ob die realen Objekte selbst sichtbar (im Sinne von: elektromagnetische Strahlung in dem für das menschliche AuJHHPS¿QGOLFKHQ6SHNWUDOEHUHLFKDXVVHQGHQG VLQGRGHUQLFKW0DQVLHKW diesen Bildern zum Teil die technischen Bedingungen ihrer Entstehung noch an. Zwei Beispiele sollen dies verdeutlichen.

XMM-Newton EPIC 0.3–10 keV en-

Simulated photon image in the 0.7-2 keV

ergy band count image of A3921.

energy band of a simulated galaxy

Raw,

cluster using XMAS-2. The image is

nonbackground

images. [gekürzt]

subtracted

binned to 3.2 arcsec. It includes background, vignetting effects, out-of-time events and the telescope optical paths. Simulation for the PN instrument on board of the XMM-Newton satellite [gekürzt]

Abb. 33: Vergleich eines Beobachtungsbilds (links) aus Belsole et al. 2005: 631 mit einem simulierten Bild (rechts) aus Dolag et al. 2008. In Abb. 33 ist links ein Beobachtungsbild der European Photon Imaging Camera (EPIC) auf dem XMM-Newton-Satellit der ESA zu sehen. Die Kamera nimmt Bilder von Röntgenstrahlen auf, die von dem sehr heißen intergalaktischen Gas ausgesandt werden. Zu sehen ist ein Galaxiencluster als dunkler Fleck sowie einige einzelne Galaxien als kleinere dunkle Punkte. Das Bild rechts in Abb. 33 stammt aus einer Simulation. Auf der Basis der Simulationsdaten zu einem Galaxiencluster wurde dafür zunächst

R UNS | 119

berechnet, welche Strahlung in welcher Intensität dieser Cluster aussenden würde. Danach wurde berechnet, wie diese Strahlung von derselben Kamera wie im XMM-Newton-Satellit registriert würde. Die Bildunterschrift listet auf, welche Anpassungen an die (potentielle) Beobachtung gemacht wurden: Der Hintergrund des Clusters und der Randlichtabfall wurden ebenso berücksichtigt wie die optischen Abbildungseigenschaften der Kamera. Auffällig ist, dass die Anpassung ganz asymmetrisch erfolgt. Die Simulationsbilder werden den Beobachtungsbildern angepasst, nicht umgekehrt. Ein besonders markantes Beispiel sind die schwarzen Linien. Die sensitive Fläche der hier simulierten Kamera ist aus einzelnen CCD-Chips zusammengesetzt. Selbst die Lücken zwischen diesen Chips sind in dem Simulationsbild berücksichtigt. Es werden also nicht etwa in dem Beobachtungsbild die Linien (etwa durch Interpolation) entfernt, vielmehr werden in den Simulationsbildern schwarze Striche künstlich einfügt, um die Bilder ähnlich zu machen. Für die Theoretiker sind nicht die Messungen, die Messwerte oder gar die vermessenen Gegenstände, sondern die Bilder das Gegebene, im Wortsinn also die Daten. Und in der Tat werden die auf diese Weise angepassten Simulationsbilder als »künstliche Daten« bezeichnet. Die Erzeugung dieser künstlichen Daten ist selbst wiederum automatisiert, so dass man mittels vorgefertigter Routinen, die als »virtuelle Teleskope« bezeichnet werden, in den Simulationsdaten »virtuelle Beobachtungen« oder »synthetische Beobachtungen« vornehmen kann. In dem zweiten Beispiel wurde die Bildanpassung so weit getrieben, dass wir nicht mehr entscheiden können, welches Bild auf einer Beobachtung beruht und welches auf einer Simulation. Das Beobachtungsbild zeigt einen Galaxien-Cluster, den PerseusHaufen, wie er mit dem Röntgenteleskop Chandra aufgenommen wurde. Das Simulationsbild ist diesem in seiner Erscheinung vollkommen angepasst.35 35 | Ein Detail hätten wir jedoch weder in einer Visualisierung einer Simulation noch in einem Beobachtungsbild erwartet. In dem rechten Bild zieht sich von oben in der Mitte ein schmaler, genau parallel begrenzter Steifen bis etwa zur Bildmitte nach unten, in dem alle Farben etwas dunkler als in der Umgebung sind. Wir fragen uns, wo ein solcher Effekt herkommt. Marcus Brüggen sagt uns, dass es sich lediglich um einen Fehler in der Visualisierung handelt, da er die Übergänge zwischen den CCD-Elementen nicht sorgfältig genug modelliert hätte. Wie schon bei Friedrich Kupka kann man also auch hier bestimmte Elemente außer Acht lassen, wenn man um ihre Entstehung weiß.

120 | D ATENBILDER

Abb. 34: Röntgenbilder vom Perseus-Haufen (links) http://chandra.harvard.edu/photo/2003/perseus/; [17.06.08] und von einem vergleichbaren Galaxiecluster aus einer Simulation (rechts) (© Marcus Brüggen, Jacobs University Bremen). Das Bild soll den Galaxiencluster aus der Simulation so zeigen, wie man ihn mit Chandra sehen würde. Marcus Brüggen sagt uns, er zeige diese beiden Bilder in Vorträgen gerne direkt nebeneinander. Aber wozu? Die formale Ähnlichkeit besagt doch nicht viel, weil man das Bild des simulierten Clusters ja gerade so produziert hat, dass es dem Beobachtungsbild ähnlich sieht. Aber auch ein Vergleich der gezeigten Objekte im Detail ist wenig aufschlussreich, da es verschiedene Cluster zeigt. Dass es sich dabei um einen realen und einen simulierten Cluster handelt, ist dabei noch nicht einmal wichtig. Selbst wenn beide Bilder realistische Abbildungen wären, könnten sie nicht gleich sein, weil die Cluster selbst nicht gleich sind. Was also kann man überhaupt vergleichen? Was heißt es, dass beide Bilder »ähnlich« sind? Die einzig sinnvolle Vergleichsebene erscheint die der Strukturen zu sein. Der simulierte Cluster sieht strukturell ähnlich aus wie der reale. Es bleibt dann immer noch die Frage, wozu derartige künstliche Daten produziert werden. Wir erfahren, dass es weniger darum geht, auf diesen Bildern selbst etwas zu entdecken oder zu verstehen. Es geht also in den Clusterbildern gar nicht um die Cluster. Es geht um die den Bildern zu Grunde liegende Simulation. Die Ähnlichkeit ist schlicht ein Argument dafür, dass die Simulation richtig, die in die Simulation eingebauten Prozesse also konsistent mit den Daten sind. Aus dem Vergleich von Clustern (genauer: von Bildern von Daten von simulierten und beobachteten Clustern) lernt man viel, was dann wiedeUXP LQ GLH 6LPXODWLRQ HLQÀLH‰HQ NDQQ 'DV =LHO LVW KLHU QLFKW DXI GHQ 6LPXODWLRQVELOGHUQHWZDV1HXHV]X¿QGHQVRQGHUQJUXQGOHJHQGH3K\VLN zu verstehen, um bessere Modelle entwickeln zu können. Der über die

R UNS | 121

Bilder vermittelte Vergleich mit den realen Objekten dient hier also nicht der Erforschung des Kosmos, sondern der Erforschung von Computerprogrammen. Solche direkten Abgleiche, so Marcus Brüggen, sind allerdings nicht allgemein üblich, werden aber immer wichtiger. Die theoretische Astrophysik hinkt hier den immer besseren Beobachtungen hinterher. Das Schlusswort zum Bildgebrauch in der Astrophysik überlassen wir einem der Garchinger Astrophysiker selbst, denn gleich eine ganz neue community von Beobachtern von Simulations-Visualisierungen vorherzusehen, wäre uns vermutlich als allzu kühne Übertreibung unseres Interesses am Bild ausgelegt worden. Als letzten Satz eines Review-Artikels über den Nutzen von Simulationen für die Astrophysik schreibt Klaus Dolag angesichts der rasanten Computerentwicklung: »This will increase the need of involving complex analysis pipelines for ›observing‹ simulations, and might lead to a new branch of virtual observers in the astrophysics community, similar to the already, new formed branch of computational astrophysicists« (Dolag et al. 2008; Hervorhebungen im Original).

JAN FRERCKS

I. 3 Formen, Funktionen und Praxen von Wissenschaftsbildern

Ein systematischer Blick auf die Reportagen Rekapituliert man die Bildpraxen, die in den Reportagen im Sinne einer dichten Beschreibung dargestellt wurden, so lassen sich die Ergebnisse unserer Beobachtungen und Interviews in systematischer Weise anhand von drei Kategorien beschreiben: Zum ersten sind die unterschiedlichen Formen zu systematisieren, was anhand des Verhältnisses von Daten und Bildern geschieht. Zum zweiten werden die verschiedenen Funktionen, die Bilder im Forschungsprozess haben, dargestellt. Zum dritten werden Praxen visuellen Denkens und Forschens und des ästhetischen Handelns der Wissenschaftler aufgelistet.

Formen I: Daten oder Bilder? Datenbilder Die Anordnung der verschiedenen Formen von Datenbildern geschieht hier nach dem Grad der Verknüpfung von Daten und Bildern. Zwischen diesen Formen gibt es keine prinzipiellen Trennungen, sondern kontinuLHUOLFKHhEHUJlQJH'LHIROJHQGH6\VWHPDWLNLVWDOVRQLFKWDOV.ODVVL¿NDtion im strengen Sinne zu verstehen. Echtzeit-Datenbilder 1) Die erste Form besteht darin, dass Daten unmittelbar am Bildschirm dargestellt werden. Dies geschieht dann, wenn die Daten inhärent schon eine zweidimensionale Anordnung haben und eine einzelne Größe betreffen. Die Umrechnung von Daten in Bilder geschieht dabei teilweise

F ORMEN , F UNK TIONEN

UND

P R A XEN | 123

in Echtzeit, das heißt, die Daten werden jedes Mal, wenn jemand das Datenbild aufruft, erst in die Bildform umgerechnet. Die Darstellung ist in der Regel einfarbig, kann aber auch farbcodiert sein. Beispiele sind die Orbits, Abb. 7 bis 10. Veränderung der Daten am Bild 2) Eine Variante dieser Form besteht darin, dass über die Veränderungen des Bildes die Daten selbst verändert werden können, wie bei den Differenzbildern der Digital Terrain ModelsGHU0DUVREHUÀlFKH$EE Berechnungen neuer Daten für das Bild  +lX¿JZLUGDEHUDXVGHQ'DWHQHUVWHLQHEHVWLPPWHSK\VLNDOLVFKH*U|ße berechnet, die dann als Bild dargestellt wird. Ungeachtet dessen, ob diese Größe für das inhaltliche Verständnis der visualisierten Phänomene relevant ist, ist sie für die Visualisierung unabdingbar. Ein Beispiel ist GLHDXVGHU*DVYHUWHLOXQJGHU6RQQHEHUHFKQHWH(QWURSLH$EE'DV Gas selbst lässt sich nicht direkt visualisieren, und auch nicht die Zu- und $EÀVVHYRQ0DWHULHLQGLHE]ZDXVGHQ=HOOHQDXIGHQHQGLH6LPXODWLRQ beruht. Sehr gut visualisieren lässt sich hingegen die daraus berechnete Entropie, so dass jedem Raumpunkt genau ein Zahlenwert zugeordnet werden kann, der dann farbcodiert dargestellt wird. Ein anderes Beispiel sind die Höhendifferenzen zwischen verschiedenen Höhenmodellen des 0DUV$EE'LHVHZHUGHQQXUEHUHFKQHWXPVLH±HEHQIDOOVIDUEFRGLHUW ± GLUHNW VHKHQ ]X N|QQHQ ZlKUHQG HLQ YLVXHOOHU 9HUJOHLFK GHU HLQ]HOQ visualisierten Höhenmodelle keinen unmittelbaren Vergleich erlauben würde. Es werden für diese Form unterschiedliche Farbskalen verwendet oder auch neu erstellt. Projektionen 4) Sofern die Daten sich auf dreidimensionale Objekte oder Räume beziehen, werden die Daten erst in eine Fläche projiziert, um sie dann zweidimensional darstellen zu können, wie bei den Bildvergleichen der kosmoORJLVFKHQ6LPXODWLRQHQ$EE 5) Eine Erweiterung dessen besteht darin, dass zwei verschiedene Größen auf diese Weise dargestellt werden. Dafür ist die Überlagerung zweier Codierungen erforderlich. In der Millennium-Projektion etwa ist die Dichteverteilung helligkeitscodiert und die Geschwindigkeitsdispersion farbcodiert, Abb. 19.

124 | D ATENBILDER Überlagerungen 6) Wenn mehrere Größen in einem Bild visualisiert werden, kann es sich dabei auch um Größen aus verschiedenen Messinstrumenten handeln. Zum Beispiel ist in Abb. 17 rechts eine Wärmestrahlungsmessung (in Farbe) einem shaded relief (siehe 7) eines Kraters überlagert. Dreidimensionale Bilder  %HLDOOHQELVKHULJHQ)RUPHQZLUNWGDV%LOGÀlFKLJZHLOGLHYLVXDOLVLHUten Datensätze entweder von vornherein zweidimensional sind oder für die Visualisierung in eine Ebene projiziert werden. Demgegenüber kann die Darstellung auch so erfolgen, dass man dem Bild ansieht, dass etwas Dreidimensionales visualisiert wurde. Dieser dreidimensionale Seheindruck wird hergestellt, indem eine künstliche Beleuchtung mit den entsprechenden Schattenwürfen in die Bilder eingerechnet wird, etwa in den shaded reliefsGHU0DUVREHUÀlFKH$EE'LHVHUGXUFKray tracing erzeugte Raumeindruck kann auch für solche »Objekte« erzeugt werden, die speziell für die Visualisierung konstruiert werden, etwa die durch die level-set method HU]HXJWH 9HUEUHQQXQJVÀlFKH HLQHU 6XSHUQRYD([SORVLRQ LQ $EE Perspektivbilder 8) Zusätzlich kann eine Perspektive eingerechnet werden. Der Betrachter sieht dann das Bild nicht nur aus einer bestimmten Richtung (wie in Abb. 11 von oben), sondern von einem bestimmten Punkt aus. Dies erfordert eine Verzerrung, damit nähere Bereiche größer dargestellt werden als entferntere. Der Seheindruck wird so »realistischer«, wie in den Schrägansichten der shaded reliefs, Abb. 16. Farbbilder 9) Diese Schrägansichten (und auch die Aufsichten) können statt mit künstlicher Beleuchtung auch mit gemessenen Helligkeiten überlagert werden. Durch die vier Farbkanäle ist dies bei den HRSC-Bildern auch in Farbe möglich. Einerseits müssen diese vier Farbdatensätze (da es sich ja selbst jeweils um Helligkeitsdaten hinter einem Filter handelt) kalibriert und gemischt werden, so dass in Bezug auf den der späteren Farbeindruck ein erheblicher Anpassungsspielraum besteht, Abb. 15, Abb. 16 und Abb. 18. Andererseits ist die Farbcodierung nicht von vornherein künstlich wie bei den Farbbildern von Simulationsdaten. Zum Teil ermöglich daher erst das

F ORMEN , F UNK TIONEN

UND

P R A XEN | 125

Farbbild, Objekte zu erkennen, wie etwa die »dunklen« Dünen vor dem »braunroten« Marssand, Abb. 18. Bewegte Bilder  'HU'(LQGUXFNNDQQDXFKGDGXUFKHUUHLFKWZHUGHQGDVVHLQH&RPputeranimation erstellt wird, so dass der Betrachter den Eindruck hat, VLFKYLUWXHOOGXUFKHLQHQ5DXP]XEHZHJHQZLHEHLGHQ0DUVEHUÀJHQ RGHUGHP'XUFKÀXJGXUFKGDVMillennium-Universum (http://www.mpagarching.mpg.de/gadget/ oder http://www.mpa-garching.mpg.de/galform/ virgo/millennium/). Dafür muss eine Zentralperspektive, eine Blickrichtung und eine Bewegungsbahn eingerechnet werden. Das durch- oder EHUÀRJHQH2EMHNWLVWGDEHL]HLWOLFKNRQVWDQW 11) Vom Bildeindruck her ähnlich, nicht aber vom Computeraufwand sind (FKW]HLWGXUFKÀJHRGHUEHUÀJHEHLGHQHQGHU)OXJQDFK:XQVFKJHsteuert wird und die entsprechenden Ansichten jeweils in Echtzeit vom Computer berechnet und visualisiert werden, wie dies für die Öffentlichkeit am DLR ermöglicht wird. 12) Während bei 10 und 11 das Objekt zeitlich konstant ist, der virtuelle Beobachter sich aber bewegt, kann es auch umgekehrt sein: Eine zeitliche Entwicklung eines Objekts wird aus konstanter Perspektive als Film gezeigt. Dies ist insbesondere für Simulationen üblich, da Simulationen in der Regel die zeitliche Entwicklung eines Objekts oder Phänomens simulieren, zum Beispiel Protuberanzen in der Grenzschicht der Sonne (http:// www.mpa-garching.mpg.de/mpa/research/current_research/hl2008-1/ hl2008-1-de.html).   'LH %HZHJXQJ HLQHV YLUWXHOOHQ %HREDFKWHUV XQG GLH ]HLWOLFKH (QWwicklung des betrachteten Objekts selbst lassen sich kombinieren. In dem Film für das Turiner Planetarium bewegt man sich (in Zeitraffer) durch das sich vom Urknall bis heute entwickelnde Universum und sieht dabei verschiedene Strukturen aus verschiedenen Perspektiven und aus unterschiedlicher Distanz. Eine solche Kombination wird von den Erstellern »4D-Visualisierung« genannt, http://www.mpa-garching.mpg. de/~kdolag/.   )U DOOH ELVKHULJHQ )RUPHQ OlVVW VLFK GHU '(LQGUXFN GXUFK HLQH Stereosicht verstärken (Anaglyphen). Das doppelte Bild wird durch eine Farb- oder Polarisationsbrille betrachtet und erscheint räumlich, Abb. 14. Bezogen auf das Verhältnis von Bildern und Daten ist zu betonen, dass

126 | D ATENBILDER bei 1 und 2 beide so eng verknüpft sind, dass man nicht sinnvoll zwischen dem Bild und den Daten unterscheiden kann. Der Zusammenhang ist hier interaktiv%HLELVJHKWGLH,QWHUDNWLRQQXULQHLQH5LFKWXQJ der Zusammenhang ist interpretativ bis illustrativ: Den Bildern lassen sich zum Teil noch Daten entnehmen, etwa, indem man mit der Maus auf bestimmte Punkte klickt, oder indem man Schnitte durch das Bild legt, entlang der das Programm zum Beispiel einen Vertikalschnitt oder die 0LQLPDXQG0D[LPDEHUHFKQHW'LH%HZHJWELOGHUELVVLQGKLQJHgen illustrativ bis illusionistisch. Für ein Verständnis der Prozesse sind sie teilweise hilfreich, ein unmittelbarer Rückbezug auf die Daten ist aber nicht mehr möglich. Die Forscher des DLR nennen solche Bildformen »Visualisierungen«, wohingegen sie für die Bildschirm-Darstellungen der data products, solange Bild und Daten verbunden sind, bezeichnenderweise keinen eigenen Begriff haben. Selbstverständlich sind alle Formate insofern Datenbilder, als die Bildinformationen selbst als elektronische Daten gespeichert sind (oder gespeichert werden können). Wenn hier von der Verbindung zwischen Daten und Bildern die Rede ist, so sind immer die Simulations- oder Messdaten sowie die daraus entwickelten data products gemeint, nicht die Daten der Bildschirmanzeige (also etwa die Zahlenwerte einer Bitmap).

Formen II: Karten, Diagramme, Hybride und Bilder Die Rede von Datenbildern ist, wie immer, wenn wir von Bildern in der Wissenschaft sprechen, zu differenzieren (vgl. Einleitung und Kapitel II.1). In der Astronomie spielen neben Photographien und bildlichen Darstellungen (im klassischen Sinne) vor allem Karten und Diagramme eine Rolle. KartenVLQGÀlFKLJXQGOFNHQORVHQWKDOWHQDEHUV\PEROLVFKH metrische oder sprachliche Zusätze (Icons, Bezeichnungen, Gitternetzlinien, Maßstäbe usw.). Diagramme hingegen sind nicht notwendigerweise lückenlos und sie sind vor allem nicht unbedingt räumlich. Während bei Bildern und Karten die beiden Raumdimensionen zwei Raumdimensionen des Objekts darstellen, gilt dies für Diagramme nicht. So kann die eine 5DXPULFKWXQJ]XP%HLVSLHOGLH=HLWEHGHXWHQXQGGLHDQGHUHHLQH+lX¿JNHLWZLHLQGHU+lX¿JNHLWVYHUWHLOXQJYRQ*DOD[LHQFOXVWHUQ$EE Eine Mischform zwischen Bildern und Karten sind schematische Punktverteilungen. Hier symbolisieren die einzelnen Punkte bestimmte Objekte, die als Ganze betrachtet aber auch als Bilder funktionieren. Dies gilt etwa für die Karten von Galaxienverteilungen, Abb. 27, im Gegensatz zu dem entsprechenden Diagramm, Abb. 26. Ebenfalls gibt es Hybridformen von Bildern und Diagrammen, wenn

F ORMEN , F UNK TIONEN

UND

P R A XEN | 127

etwa in eine Bildform Symbole oder Bezeichnungen eingefügt sind. Dies ist in der geologischen Auswertung der HRSC-Datenbilder üblich, um auf bestimmte Stellen, Phänomene oder Objekte auf dem Bild hinzuweisen, wie in Abb. 16 links, wo Pfeile auf Asymmetrien eines Kraters zeigen und ein Nord-Pfeil die Orientierung angibt.

Funktionen von Bildern im Forschungsprozess und in der Kommunikation Ein systematischer Blick auf die Funktionen, die Bilder im Forschungsund Kommunikationsprozess einnehmen, zeigt eine erstaunliche Vielfalt. 1) Sie dienen der Fehlererkennung. Aufgrund der Datenmengen sind einige Typen von Fehlern nur visuell festzustellen. Eine weiße Linie in einem Bild der Millennium-Simulation deutet ebenso wie eine scharfe Kante auf einem Marsbild darauf hin, dass mit den Daten etwas nicht stimmt, wobei dann auf andere Weise zu ermitteln ist, wie solche Artefakte zustande gekommen sind. In gewisser Weise den umgekehrten Fall stellen 2D$UWHIDNWHGDU$EE%HLGLHVHQZHL‰PDQXQDEKlQJLJYRP%LOGGDVV bestimmte sichtbare Objekte Artefakte des Simulationsansatzes sind, wobei man diese den Bildern selbst gar nicht ansehen kann. Was im Bild bruchlos erscheint, muss bei der Interpretation sorgfältig getrennt werden (also nicht im engeren Sinne eine Funktion des Bildes). 2) Bilder sind zudem Hilfsmittel für das Testen und Vergleichen von Simulationscodes. Der Vergleich verschiedener Codes (oder der Einstellungen innerhalb eines Codes) geschieht zumindest teilweise visuell anhand von Darstellungen der Ergebnisdaten von Probe-runs für StandardphänoPHQH$EE   $XFK ZHQQ PDQ GDYRQ DXVJHKW GDVV DOOH &RGHV IXQNWLRQLHUHQ GLHnen Visualisierungen als Kontrolle automatisierter Prozesse. Dies ist vor allem dann erforderlich, wenn es um unterschiedliche Objekte geht, die mit den Codes bearbeitet werden. Bei der Berechnung von DTMs aus den HRSC-Datenbildern ist es erforderlich, dass das Gelände ausreichend strukturiert ist, damit der Computer genügend Übereinstimmungen beim point matching¿QGHW$QVRQVWHQN|QQHQ$UWHIDNWHHQWVWHKHQEHL GHQHQGLH0DUVREHUÀlFKHHQWZHGHUVSLHJHOJODWWRGHUZLH:DVVHUZHOOHQ aussieht. Um dies zu vermeiden (oder zumindest zu erkennen), holen die Photogrammeter zwischen dem point matching und der DTM-Erstellung

128 | D ATENBILDER GLH3XQNWHDQGLH2EHUÀlFKHGHU6LFKWEDUNHLWLQGHPVLHVLHDOVIDUELJH Punkte über der Geländekarte visualisieren und beurteilen. 4) Bilder haben zudem eine heuristische Funktion, indem sie zum Auf¿QGHQLQWHUHVVDQWHU2EMHNWH]XP%HLVSLHONROOLGLHUHQGHU*DOD[LHQRGHU dunkler Dünen benutzt werden. Diese Art von Objekten lässt sich nicht gezielt in den Datensätzen suchen, wenngleich nachGHP$XI¿QGHQGLH entsprechenden Datenbereiche wieder mittels post-processing ausgewertet werden. Eine Variante dieser Funktion ist die Festlegung von Ausschnitten für Detailsimulationen. Es wird visuell eingeschätzt, ob ein bestimmter Teil eines (Simulations-) Universums als Hintergrund für spezielle Simulationen geeignet ist. Dieser Bereich muss dafür hinreichend typisch sein, also weder zu leer, noch zu voll und ohne stark asymmetrische Verteilungen. Dies stellt man anhand von Bildern fest. 5) Unabdingbar für die theoretische Astrophysik sind Bilder zum Vergleich der Ergebnisdaten von Simulationen mit Beobachtungsdaten. Die Visualisierung der Simulation wird dafür den auf Beobachtungen beruhenden Datenbildern formalästhetisch soweit angepasst, dass man beurteilen kann, ob die Objekte physikalisch dieselbe Phänomenologie aufweisen, was dann als Bestätigung (oder Korrektiv) für den SimulatiRQVDQVDW]JHQRPPHQZLUG$EEXQG$EE 6) Visualisierungen ermöglichen ein »intuitives« Verständnis, man kann mit ihnen eine Situation »auf einen Blick« erfassen. Eine Visualisierung ist »wie eine Beobachtung« von ansonsten nicht sichtbaren Daten. Man bekommt eine »Intuition, was da läuft«, man »versteht, was passiert«. Visualisierungen sind das »Wichtigste«, aber gleichzeitig das »Unwissenschaftlichste«. Diese Zitate von Akteuren zeigen die Wichtigkeit von %LOGHUQDOOHUGLQJVVLQGGLHVHKHXULVWLVFKHQ)XQNWLRQHQLQLKUHU6SH]L¿N für die Akteuren ebenso schwer auszudrücken wie für die Wissenschaftsforschung. 7) Für die innerwissenschaftliche Kommunikation sind Bilder unerlässlich. Zunächst dienen sie in Vorträgen der Unterhaltung. Sie erzeugen Aufmerksamkeit und gelten als leichter zu konsumieren als Formeln, Diagramme oder das gesprochene Wort. Dies gilt insbesondere für Filme. 8) Eine weitere Funktion bei Vorträgen ist die Komprimierung von darzustellender Information. Sie sollen, um Zeit zu sparen, ein nicht allen =XK|UHUQ RGHU=XVFKDXHUQ JHOlX¿JHV*UXQGYHUVWlQGQLVVFKQHOOYHUPLW-

F ORMEN , F UNK TIONEN

UND

P R A XEN | 129

teln. Diese beiden Funktionen (7 und 8) wurden von unseren Gesprächspartnern vor allem herausgestellt. 9) Bilder sind ein wichtiges Element der Popularisierung, wobei dies von der Erzeugung von Faszination und der Begeisterung für die abgebildeten Objekte und ihre Erforschung bis zur Vermittlung neuer (oder nicht mehr so neuer) Erkenntnisse reicht. Zum Teil werden dafür (wie bei den Millennium-Bildern) dieselben Bilder benutzt, die auch innerhalb der Community kursieren, zum Teil aber auch ganz andere (etwa die extern SURGX]LHUWHQ0DUVEHUÀJHLQ'  10) Von der Popularisierung zu unterscheiden sind die Public Relations, auch wenn beide von den Akteuren oft gemeinsam als Public Outreach bezeichnet werden. Unter die Public Relations fällt die Garnierung fast aller Außendarstellungen der Institute, aber auch der Rechenzentren, mit Bildern, vor allem als »weiche« Legitimation der Forschung und der Nutzung von Ressourcen. 11) Bilder dienen aber auch fachintern der Werbung für Daten. Sofern die Daten öffentlich zugänglich sind und die Ersteller der Daten ein Interesse daran haben, dass Dritte mit diesen arbeiten, muss für die Daten geworben werden. Dies geschieht vor allem über Bilder, die einerseits als Beleg für den Wert und das Potenzial der Daten dienen, andererseits aber überhaupt auf deren Existenz aufmerksam machen. Für die Millennium-Simulation funktioniert offenbar die Außendarstellung im immer gleichen Design, während man am DLR versucht, für die technisch schwer zugänglichen HRSC-Daten mit einer populären Ausstellung zu werben. 12) Eine sehr wichtige Funktion von Bildern, sowohl institutsintern, als auch darüber hinaus, ist die von boundary objects zwischen unterschiedlich vorgebildeten Personen, um Differenzen im Vorwissen zu überbrücken. Vor allem bei dem interdisziplinären Teammeeting am MPA dienen sie als Grundlage und Ausgangspunkt der Diskussion, indem alle den Eindruck haben, wenigstens etwas]XYHUVWHKHQ±RGHU]XPLQGHVW]Xerkennen. Dies ist bei Formeln oder Diagrammen viel schwieriger. Dass bei dem Teammeeting am DLR gar keine Bilder gezeigt werden, bestätigt dies: Hier ist die Gruppe und die Form der Bilder so homogen, dass ohnehin jeder die Bilder (geistig) vor Augen hat.

130 | D ATENBILDER

3. Bildpraxen oder ästhetisches Handeln: Produktion, Rezeption und Kommunikation Fasst man die von uns beobachteten Bildpraxen auf einer abstrakteren Ebene zusammen, so zeigen sich die Charakteristika des visuellen Forschens. Dieses ästhetische Handeln stellt einen Kern astronomischer )RUVFKXQJHQ GDU :HVHQWOLFK LVW GDEHL GDVV GLH 3UR]HVVH ±3URGXNWLRQ 5H]HSWLRQ XQG .RPPXQLNDWLRQ ± GLH KLHU DQDO\WLVFK JHWUHQQW VLQG LQ der Praxis stets interaktive, wechselseitige Prozesse sind. Dem Kolorieren oder Abschneiden geht ein Betrachten und Interpretieren voraus, wie ihm sogleich wieder ein Betrachten und Interpretieren folgt. Analytisch lassen sich die vielfältigen Bildpraxen jedoch in die Kategorien Produktion, Rezeption und Kommunikation unterscheiden. 1) Die Produktion von Bildern beginnt mit dem Produzieren von Daten in Form des Aufnehmens, Belichtens, Messens und Simulierens. Die Arbeit am Bild im engeren Sinne umfasst das Kolorieren, Korrigieren, Abschneiden, Auswählen, Löschen, Anpassen, Zusammenstückeln, Delegieren, Emulieren, Beschriften, Überlagern, Berechnen und Ausdrucken. 2) Die Rezeption von Bildern umfasst das Betrachten, Bestaunen, Interpretieren, Beurteilen, Kommentieren, Vergleichen, Missverstehen und Vermessen.  'LHKommunikation von Bildern umfasst das Archivieren, Präsentieren, mit Sprache und Text in Verbindung setzen, Publizieren, Zitieren und Inauftraggeben.

JAN FRERCKS

II. Interpretationen

II.1 BilderWissen

Bild- und wissenschaftstheoretische Überlegungen »Ich habe schon immer gezeichnet. Es ist für mich eine Art zu denken und eine Art, Auge und Gedanken zusammenzuhalten, eine andere Sprache.«1

Zeichnen als eine Form des Denkens war (oder ist) für strenge Logiker nicht vorstellbar. Denken wäre demnach an Sprache gebunden, an Eindeutigkeit, an Schlüsse, an Kausalität und Linearität, an eine binäre Logik, die im Zeichnerischen wie überhaupt im Visuellen nur bedingt eine (QWVSUHFKXQJ¿QGHW'DV9HUKlOWQLVYRQ=HLFKQHQXQG'HQNHQVRZLHJHnerell das visuelle Denken erfährt jedoch im Kontext der Auseinandersetzung mit Bildern in jüngster Zeit erhebliche Aufmerksamkeit. Die Kunstgeschichte, die Philosophie sowie eine sich formierende Bildwissenschaft fragen gleichermaßen nach dem Bild als Erkenntnisform und gestehen dem Bildlichen, weit über die Kunst hinaus, das Potential der Erkenntnisgewinnung zu. Bild und Logik gelten mittlerweile nicht mehr als unverHLQEDUH*HJHQVlW]HVRQGHUQYHUVXFKWZLUGYLHOPHKUGLHVSH]L¿VFKH/Rgik des Bildes zu erkunden, zu erfassen und zu verstehen. Während also lange beklagt wurde, dass in einer abendländischen Tradition Bildern als Medien der Erkenntnis neben Sprache und Zahl kaum Geltung zugesprochen wurde, sondern sie immer als das ›Andere‹, das A-Logische galten, so werden diese Dichotomien heute nachhaltig hinterfragt. Entsprechend ¿QGHQ VLFK LQ *HLVWHV .XOWXU XQG .XQVWZLVVHQVFKDIWHQ PDQQLJIDFKH hEHUOHJXQJHQGLHVSH]L¿VFKH/RJLNGHV%LOGHVLQ:RUWH]XIDVVHQLKU 1 | Richard Serra, FAZ, Freitag, 3. Mai 2008, S. 40. Gespräch mit dem Künstler Richard Serra, Die Stahlplatte blieb einfach stehen.

134 | D ATENBILDER einen adäquaten Platz in der Theorie zu geben und sie als Praxis der Erkenntnisgewinnung zu nobilitieren. Naturwissenschaftler hingegen arbeiten – meist ohne sich der Debatte über eine Logik der Bilder bewusst zu sein – ganz selbstverständlich mit Bildern. Visualisierungen, Denken in Bildern, Zeichnen als Kommunikation, als Denkprozess sind hier alltägliche Praktiken der Erkenntnisproduktion und deren Kommunikation.2 Die Selbstverständlichkeit dieses Bilderdenkens zeigt sich vielleicht gerade in den Selbsteinschätzungen vieler Naturwissenschaftler, die die Bedeutung der Bilder im Forschungsprozess unaufgeregt herunterspielen. So betonten beispielsweise die von Ralf Adelmann und Jan Frercks beobachteten Marsforscher, die täglich mit Bildern agieren: »Eigentlich gibt es nichts zu sehen.« Noch vehementer wurde am Max-Planck-Institut für Astrophysik betont, es handele sich um ein theoretisches Institut, an dem nicht beobachtet werde und an dem Bilder folglich nicht zentral seien, während die Wissenschaftler im Forschungsprozess doch stets mit Datenbildern operieren, Daten sichtbar machen, unterschiedliche Bilder miteinander vergleichen, Bilder als heuULVWLVFKHV,QVWUXPHQWQXW]HQRGHULKU$XJHDOV3U¿QVWDQ]IUGLH4XDOLtät der Daten einsetzen. Naturwissenschaftliche Bildproduktionen lassen uns also kaum umhin, das Erkenntnispotential von Bildern anzuerkennen. Wissenschaftsbilder stellen dabei zweifellos eine eigene »Gattung« von Bildern dar. *RWWIULHG%|KPWKHPDWLVLHUWHGLHªVSH]L¿VFKHQ/HLVWXQJHQXQG'H¿]LWH© wissenschaftlicher Bilder im Unterschied zu Kunstbildern (Boehm 2001: 52). Dazu gehört z.B. ihr deiktischer Charakter, ihre Fähigkeit, »Verborgenes sichtbar zu machen, den Umkreis der positiven Erkenntnis zu erweitern«. Sie sind »vollzugsorientiert«, und damit »Aspekte eines Denkens mit dem Auge«. Er bezeichnete sie – von der Kunst her denkend – als »schwache Bilder«, insofern »sie ihren Zweck notwendigerweise außer sich selbst haben. Sie sind Instrumente«. Sie zielen auf Eindeutigkeit, und sie sind Bilder zum Verbrauch (Boehm 2001: 53). Wissenschaftsbilder sind mithin Zweckbilder, Werkzeuge der Erkenntnis und ihrer Vermittlung; sie beanspruchen, und dies ist zentral für sie, gültige Aussagen über die Wirklichkeit zu machen. Der Befund, dass sich naturwissenschaftliche Forschung und Wissensvermittlung wesentlich mit und in Bildern vollzieht, unterstreicht die Notwendigkeit, sich über die jeweilige historische Funktion und die grundsätzliche theoretische Struktur von Bilderwissen klar zu werden. 'LH 6WUXNWXU GLH /RJLN GHV %LOGHUZLVVHQV LKUH VSH]L¿VFKH :HLVH (U2 | Zur These einer »impliziten Bildtheorie« in den Naturwissenschaften vgl. Kapitel II.2. in diesem Buch.

B ILDERW ISSEN | 135

kenntnis zu produzieren und zu kommunizieren, ist eine der zentralen Bedingungen naturwissenschaftlicher Wissensproduktion. Vom Wissenschaftsbild her denkend, rücken daher grundsätzliche Fragen in den Blick wie »Wie erzeugen Bilder Wissen?«, »Wie konstituieren sie Wissen?«, »Welches Wissen erzeugen sie, welches nicht?«, »Wo sind ihre spezi¿VFKHQ3RWHQWLDOHXQGLKUH*UHQ]HQ"© Um diese Fragen zu beantworten, ist ein Verständnis des Bildlichen und seiner Sinnerzeugung zentral (1. Logik des Bildes). Eng damit verEXQGHQLVWHLQ9HUVWlQGQLVGHUVSH]L¿VFKbildlichen Weise der Wissenserzeugung (2. Ästhetik), des Status des Bildes hinsichtlich des Verhältnisses von Bild und Wirklichkeit (3. Referenz) sowie der Bedingungen seiner Rezeption (4 Rezeption). %LOGWKHRULHQYHUVFKLHGHQVWHU3URYHQLHQ]ELHWHQIUGLH5HÀH[LRQGLHser Fragen vielfach Anknüpfungspunkte, insofern das Bildliche als Weise der Welterzeugung, als Symbol- oder Zeichensystem in der Philosophie bereits früher prominent behandelt wurde. Denn ungeachtet aller Kritik DQ GHU /RJR]HQWULN ZHVWOLFKHU JHLVWHVJHVFKLFKWOLFKHU 'LVNXUVH ¿QGHW sich auch eine Tradition der Beschäftigung mit nicht-diskursiven Symbolformen, beispielsweise bei Charles S. Peirce, Ernst Cassirer, Susanne K. Langer und Nelson Goodman. In jüngster Zeit wurde die Logik der %LOGHULKUH:HLVHGHU6LQQHU]HXJXQJJDQ]QHXUHÀHNWLHUW'HV:HLWHUHQ diskutieren Bildtheorien ausgesprochen kontrovers den Zeichencharakter von Bildern sowie die Vorstellung des Bildes als Abbild, seinen Bezug zur Wirklichkeit, der gerade im Kontext digitaler Bilder radikal in Frage gestellt wurde und der für den Status des Wissenschaftsbildes zentral ist. Hinzu kommt in der bildtheoretischen Debatte die ontologische Frage »Was ist ein Bild?«3 Bildtheorien behandeln all diese Fragen nicht nur abstrakt, sondern KlX¿JZHUGHQ%HLVSLHOHDXVGHU.XQVWDEHUDXFKDXVGHU3RSXOlUNXOWXU]LWLHUWXQGhEHUOHJXQJHQGDUDQH[HPSOL¿]LHUW8QGJHUDGH:LVVHQVFKDIWVbilder wurden in der letzten Dekade zu einem zentralen Forschungsthema sowohl in der Wissenschaftsgeschichte als auch im Kontext einer Bildwissenschaft oder innerhalb der Kunstgeschichte. Eine enge Verknüpfung von Wissenschaftstheorie und Bildtheorie ¿QGHWVLFKMHGRFKELVODQJNDXPQLFKW]XOHW]WZHLOGLH:LVVHQVFKDIWVIRUschung selbst lange keinen Ertrag aus der Beschäftigung mit dem Bildbegriff und den Eigenheiten des Bildes zu erkennen vermochte. Zum einen wurde dem Bildbegriff eine Nähe zum Abbild-Konzept, zum klassischen Konzept der Repräsentation unterstellt, die die Verwendung des Bildbe3 | Hier kann nur exemplarisch auf einige Titel verwiesen werden. Vgl. Boehm 1994; Böhme 1999; Mitchell 1990.

136 | D ATENBILDER griffs verdächtig machte bzw. an überwundene Denktraditionen anzuknüpfen schien. Mit Blick auf die »Krise der Repräsentation« tendiert die Wissenschaftsforschung eher dazu, nicht von »dem Bild« zu sprechen. Michael Hagner verwies auf den Verzicht des Begriffs der Repräsentation und interpretierte dies als Anspielung »auf die Krise der traditionellen Vorstellung einer konventionalistischen oder ontologischen Korrespondenz zwischen Wörtern, Zeichen oder Bildern und einem unabhängigen Gegenstand« (Hagner 1997: 341). Nachdem die klassische Vorstellung einer zweistelligen Repräsentation spätestens im 20. Jahrhundert in die Krise geraten war – vor allem durch die pragmatischen, strukturalen und funktionalen Zeichentheorien (Peirce, Saussure, Eco) sowie durch Symboltheorien (Cassirer, Langer, Goodman) –, traten an die Stelle des Konzepts eines abbildenden Verweises und des Bezugs auf die Wirklichkeit verschiedene Neufassungen der Formen des Bezugs. Vor allem ist hier die Figur des Verweises auf andere Verweise zu nennen. Demnach wird Repräsentation nicht mehr im Sinne von »Abbildungen« oder Wirklichkeitsbezügen gedacht, sondern an deren Stelle treten Konstruktions- und Inszenierungsprozesse. Dies korrespondiert der zunehmenden Fokussierung der Wissenschaftsgeschichte auf wissenschaftliche Praktiken, auf den Prozess der Erkenntnisproduktion im Labor, der als sozialer und materieller Prozess analysiert wurde und damit den Blick verschob. Entsprechend stellte Hans-Jörg Rheinberger die Frage, ob man »im Zusammenhang mit der experimentellen Gewinnung von Erkenntnissen daher nicht ganz auf den Begriff der Repräsentation verzichten sollte. Man schleppt mit ihm beständig eine umfangreiche Metaphysik der Präsenz und der Repräsentanz hinter sich her« (Rheinberger 2001: 57). Der Begriff der Sichtbarmachung dagegen könne aus »aus dem Dilemma der Repräsentanz« herausführen. »Sichtbarmachen kann, muß aber nicht mit Abbilden zu tun haben, braucht Abbildung nicht notwendigerweise als referentiellen Bezugspunkt.« (Rheinberger 2001: 57) Gleichermaßen betonen Bettina Heintz und Jörg Huber, dass »eine Rhetorik der Abbildung« »auf falsche Wege« führe.(Heintz/Huber 2001a: 12) Das wissenschaftliche Bild sei kein Portrait, sondern »ein Modell, das durch das Objekt, das es ›zu zeigen‹ verspricht, nicht eindeutig determiniert ist.«4 Zum anderen sind Bilder, so der zweite Einwand, der die Beschäftigung PLW%LOGHUQXQGLKUHUVSH]L¿VFKHQ6WUXNWXUGHU:LVVHQVHU]HXJXQJZHQLJ vielversprechend zu machen schien, im Prozess der Sichtbarmachung nur 4 | Ebd. Auch das Porträt ist jedoch nicht eindeutig determiniert, son-

dern, wie Gombrich betonte, stark konventionalisiert. Gernot Böhme unterstrich zudem am Beispiel der Mona Lisa, dass auch ein Porträt nicht als Zeichen fungieren muß. Vgl. Böhme 1999, Kapitel II.

B ILDERW ISSEN | 137

eine)RUPPDQQLJIDFKHU9LVXDOLVLHUXQJHQ]XGHPKlX¿JQLFKWHLQPDOGLH wichtigste. Die Rede vom Bild in der Wissenschaft ist demnach nicht nur prekär, weil, wie Hans-Jörg Rheinberger immer wieder insistierte, die Vielfalt der Visualisierungen mannigfach ist und von der Einfärbung der Probe, über Modelle, Diagramme bis hin zu Bildern reicht, sondern vor DOOHP DXFK ZHLO 6LFKWEDUPDFKXQJHQ LP )RUVFKXQJVSUR]HVV KlX¿J SUR]HVVKDIWÀFKWLJYRQNHLQHU6WDELOLWlWVLQGVRGDVVPLWGHP%LOGWDWVlFKlich nur ein Teil der naturwissenschaftlichen Visualisierungsstrategien in den Blick gerät. Zudem sind Bilder immer auf andere Darstellungsweisen EH]RJHQVLHVLQGQXULP.RQWH[WHLQHV*HÀHFKWVYHUVFKLHGHQHU)RUPDWH zu verstehen, so dass die Fokussierung auf das Bild allein in den Verdacht gerät, diesem in mehrfacher Hinsicht einen Status zu gewähren, den es in den Forschungsprozessen nicht innehat. Die neuere Wissenschaftsforschung konzentrierte sich daher, sofern sie Visualisierungen bzw. Sichtbarmachungen als Teil des Erkenntnisprozesses untersucht, weniger auf bildtheoretische Fragen nach der Bildlichkeit, nach der genuin bildlichen Sinnerzeugung als vielmehr – entsprechend der Hinwendung der Wissenschaftsforschung zur Praxis – auf die experimentellen und instrumentellen Bedingungen, Sichtbarmachungsstrategien sowie die Interferenzen zu anderen »Repräsentationsformen«. So betonten Michael Lynch und Steve Woolgar die Abhängigkeit der »Repräsentationen« von lokalen und kontextuellen Produktionsbedingungen, von den experimentellen Zusammenhängen, die das »Objekt« überhaupt erst hervorbringen. Damit geriet die Bedeutung der Herstellungsverfahren und das Prozeßhafte der Entstehung von verbindlichen und legitimierten Darstellungen in den Blick, kurz: ihr Konstruktionscharakter. So wichtig und notwendig – und das machen die im ersten Teil des Buches beschriebenen Fallstudien mehr als deutlich – die genaue Analyse des Herstellungsprozesses und der Rolle von Visualisierungen hierbei ist, so unabdingbar das Verständnis der mannigfachen Transformationen, der Entscheidungen, der sozialen Bedingungen, der permanenten Suche und auch der Sackgassen ist, so wenig NDQQJOHLFK]HLWLJDXIGLH5HÀH[LRQGHV%LOGOLFKHQXQGGHUGDUDXVUHVXOtierenden Bedingungen der Erkenntnisproduktion verzichtet werden. Das Potential einer Verbindung von Bildtheorie und Wissenschaftsforschung soll im Folgenden ausgelotet werden. Dabei wird immer auch Bezug auf die Reportagen des ersten Teils dieses Buches genommen.

1. Logik der Bilder Schrift und Sprache galten in der europäischen geistesgeschichtlichen Tradition als unabdingbarer Zugang zur Wirklichkeit, als Erkenntnisinstrumente. Darüber hinausgehend, beschrieben Philosophen wie Ernst

138 | D ATENBILDER Cassirer, Susanne K. Langer oder Nelson Goodman andere Weisen der »Welterzeugung«; sie analysierten Symbolsysteme wie die Kunst oder Musik, die je unterschiedlich bezeichnen, gewichten, unterscheiden und gliedern (vgl. Plümacher 1998: 49). Die Unmöglichkeit einer Weltsicht, die nicht in irgendeiner Form auf einem Beschreibungssystem und einer Interpretation beruht, stand jedoch außer Frage. Charles Sander Peirce hatte in den 1860er Jahren die grundsätzliche Zeichenvermitteltheit allen Denkens dargelegt, blieb dabei jedoch nicht auf die Schrift beschränkt. hEOLFKHUZHLVHZLUGGDEHLYRQMHVSH]L¿VFKHQ(LJHQVFKDIWHQGHU6\PEROsysteme ausgegangen, die für je unterschiedliche Bereiche passend seien. Martina Plümacher sprach von »epistemischen Welten«, die durch die Darstellungsmodi der Symbolsysteme begrenzt sind (Plümacher 1998: 49). Musik, die Klangwelten erzeugt, ist kein geeignetes Instrument zur .ODVVL¿]LHUXQJ YRQ *HJHQVWlQGHQ (LJHQVFKDIWHQ XQG 9HURUWXQJHQ Bilder wiederum leisten bestimmte, nicht durch Sprache ersetzbare Beschreibungen (Plümacher 1998: 50). Dass Schrift und Bild nicht vollständig ineinander überführbar sind, dass sich ein Bild nicht vollständig beschreiben lässt oder eine Erzählung nicht verbildlichen, sondern dass bei der Konfrontation oder Nutzung unterschiedlicher Formate je eigenes entsteht, damit beschäftigte sich schon lange die Tradition der Ekphrasis. So sehr aber beispielsweise die Erarbeitung einer eigenen präsentativen Symbolik durch Susanne K. Langer hervorzuheben ist, so sehr beschränkt sie diese doch noch auf die Kunst, die sich vom Diskurs unterscheide. Eine Logik der Bilder muss aus wissenschaftstheoretischer Sicht aber danach fragen, wie Bilder im System Wissenschaft neben Zahl und Sprache Sinn erzeugen. Entscheidend ist dabei die Frage, wie Bilder Sinn erzeugen, wie innerhalb der »epistemischen Welt« Wissenschaft mit ihnen Erkenntnis produziert wird. Zu erwähnen sind hier zum einen die Arbeiten Gottfried Boehms, der die eigenständige Logik bildlicher Sinnerzeugung herausgearbeitet und mit dem Begriff der »ikonischen Differenz« benannt hat. Darunter ist vor allem eine Logik des Kontrastes zu verstehen, die eine andere ist als die textuelle Logik der Unterscheidung. »Das Ikonische beruht auf einer vom Sehen realisierten ›Differenz‹. Sie begründet die Möglichkeit, das eine im Licht des anderen und wenige Striche als eine Figur zu sehen«, so Boehm (Boehm 2007: 37). Wesentlich ist demnach die Idee der Differenz. Der Kontrast wird zum bedeutungsstiftenden Akt: »Die ikonische Differenz vergegenwärtigt eine visuelle Kontrastregel, in der zugleich ein Zusammensehen angelegt ist« (Boehm 2007: 49). Boehm bezeichnet »die das Bild konstituierende Differenz als Akt des Zeigens […], in dem das Faktische in Wirkung, das materielle Substrat in Sinn umspringt« (Boehm 2007: 16).

B ILDERW ISSEN | 139

Seit längerem beschäftigt sich Dieter Mersch mit der Frage einer spe]L¿VFK PHGLDOHQ /RJLN GHV %LOGHV XQG IDVVW GLHVH PLW GHP %HJULII GHU »Ordnung des Zeigens« zusammen. Charakteristisch für diese sei die UnP|JOLFKNHLWGHU1HJDWLRQDOVRGHUDI¿UPDWLYH&KDUDNWHUGHV%LOGOLFKHQ der mit der Struktur des Zeigens einhergeht; weiter die Unmöglichkeit der Hypothetizität, mithin das Fehlen der Möglichkeit, im Bild Vorläu¿JNHLW RGHU (YHQWXDOLWlW ]X WKHPDWLVLHUHQ 'HQQ %LOGHU VHOEVW HUODXEHQ aufgrund ihrer Struktur keine Einschränkung oder Abwägungen, während sprachlich der Konjunktiv den hypothetischen Status des Wissens anzeigen kann. Kein Bild argumentiert konjunktivisch, sondern aufgrund der Ordnung des Zeigens immer faktisch. Weiter gehöre zur Logik des Bildes ihre Spatialität, die räumliche Anordnung, die Zweidimensionalität der Bilder. »Das bedeutet auch, dass visuelle Darstellungen […] den Zugriff auf Anordnungen, Muster oder Relationen (eröffnen), sie ermöglichen die Herstellung von Verbindungen und Zusammenhängen und damit auch der Entdeckung von Neuem ›auf einen Blick‹, während diskursive Argumentationen syntaktisch-logischen Folgen, d.h. einer Ordnung des Nacheinander, mithin stets der Zeit gehorchen.« (Heßler/Mersch 2009: 26; vgl. außerdem dazu ausführlich Mersch 2006). Für die Epistemik des Wissenschaftsbildes sind damit zahlreiche Konsequenzen verbunden, die nicht nur die Logik des Visuellen oder im engeren Sinne bildlich erzeugter Erkenntnis verstehen helfen, sondern die insbesondere darauf verweisen, dass Geltungsfragen berührt sind. Gerade dass es nicht möglich ist, im Zeigen Wissen als hypothetisch zu kennzeichnen oder Nichtwissen zu thematisieren, verweist auf die eigene Logik der Bilder, die – wie umgekehrt auch die Sprache – ihre Grenzen impliziert. Gerade die Möglichkeit der Verneinung, der Unterscheidung VRZLHGHU$EZlJXQJRGHU9RUOlX¿JNHLWJLOWDOVNRQVWLWXWLYIU5HÀH[LRQ und wissenschaftliches Denken und gerade diese Grenzen der bildlichen Logik machten Bilder im System Wissenschaft so angreifbar, wurde ihnen doch die Faszination, die Täuschung, Schein und Trug vorgeworfen. 6WDWWGHVVHQJLOWHVGLHVSH]L¿VFKH:HLVHGHU6LQQKHUVWHOOXQJ]XUHÀHNWLHren und in ihren Potentialen und Grenzen zu verstehen. War im Vorhergehenden abstrakt vom Bildlichen und seiner Logik die Rede, so ließ dies allerdings die Frage, was überhaupt ein Bild ist, welche Darstellungsmodi unter diese Logik der Bilder zu fassen sind, außen vor. William J. T. Mitchell hatte die breite Vielfalt der Bilder betont, die es kaum möglich mache, all diese verschiedenen Phänomene unter einen Begriff zu bringen oder gar ein einheitliches Verständnis von Bildern zu entwickeln. Sprachbilder, Denkbilder, »materielle Bilder«, »immaterielle Bilder« werfen die Frage nach der Abgrenzung des Bildbegriffs so-

140 | D ATENBILDER wie nach einer Gemeinsamkeit auf. Mitchell schlug – in Anlehnung an Wittgenstein – vor, besser von einer »Familienähnlichkeit« der Bilder zu sprechen als nach einer universellen Bestimmung des Bildes zu suchen. Vielmehr gehe es darum, das Augenmerk auf jene Stellen zu richten, an denen sich Bilder auf der Basis institutioneller Diskursabgrenzungen voneinander differenziert haben (Mitchell 1990: 9). Eignet sich dieser Vorschlag gut, um Wissenschaftsbilder von anderen Bildern wie beispielsweise Kunst oder Alltagsphotographie zu unterschieden, insofern gerade Wissenschaftsbilder einem institutionellen Abgrenzungsdiskurs unterliegen, der die Kriterien ihrer Wissenschaftlichkeit festlegt, so sind auch innerhalb der Wissenschaftsbilder weitere Differenzierungen vorzunehmen, wenn von einer Logik der Bilder gehandelt wird. Denn Schema, Diagramm, Karte, Photographie oder Computerbilder sind XQWHUVFKLHGOLFKH 'DUVWHOOXQJVIRUPDWH GLH KlX¿J JOHLFK]HLWLJ (OHPHQWH des Schriftlichen und des Bildlichen aufweisen, wie beispielsweise das Diagramm, das als Hybrid zwischen Bild und Text bezeichnet wurde (Bogen/Thürlemann 2003; Günzel 2009, Krämer 2009). Es gilt also, die mannigfachen visuellen Darstellungsweisen wie Graphen, Photographien, Diagramme, Zeichnungen, Handskizzen oder auch Computergraphik im Hinblick auf ihre Bildlichkeit näher zu betrachten. Ist einerseits zu fragen, was an den Übergängen, den Transformationen von einer Darstellungsform in die andere geschieht, wie hier Wissen verändert, verschoben, neu formatiert wird (vgl. ausführlich Hessler/Mersch 2009), so stellt sich andererseits die Frage, was das genuin Bildliche ist und wann von einem Bild die Rede sein kann. Nelson Goodman hatte in seiner Unterscheidung diagrammatischer und pikturaler Schemata implizit eine Bestimmung des Bildlichen und der konstitutiven Bedingungen seiner Sinnerzeugung gegeben, indem er davon sprach, die Bilder im pikturalen Schema seien »relativ voll« (Goodman 1997: 213). »Jede Verdickung oder Verdünnung der Linie, ihre Farbe, ihr Kontrast mit dem Hintergrund, ihre Größe, sogar die Eigenschaft des Papiers – nichts von all dem wird ausgeschlossen, nichts kann ignoriert werden« (Goodman 1997: 212f). Denn während im Nichtpikturalen die Bedeutung jenseits der Farbe, der Linienführung liegt, völlig unabhängig von diesen ist, so ist es im pikturalen Schema genau umgekehrt, d.h. Bilder produzieren Sinn mittels Farben und Kontrasten, Formen, Linien und Figuren. Mithin produzieren sie mit ästhetischen Mitteln Sinn. Damit erweist sich das Ästhetische konstitutiv für visuelle Darstellungen und Visualisierungsprozesse. Merleau-Ponty hatte bereits betont, dass die Form eine Bedeutung hat, und hiermit kommt man GHUVSH]L¿VFKELOGOLFKHQ/RJLNDXIGLH6SXU2EGLH%OlWWHUHLQHV%DXPHV einzeln dargestellt sind oder als Schema (vgl. Wiesing 2000: 70), macht einen Unterschied für die Bedeutung dieser Darstellung. Für Merleau-

B ILDERW ISSEN | 141

Ponty bedeutet Wahrnehmung stets eine Wahrnehmung »von etwas als etwas«, das heißt eine Wahrnehmung im Stil (vgl. Wiesing 2000: 72). Stil, so fasst Lambert Wiesing dies zusammen, ist eine Konstruktionsweise (Wiesing 2000: 75) - eine Weise, Wissen zu erzeugen, müsste man im Kontext der Wissenschaftsbilder hinzufügen.

2. Ästhetisches Handeln als Weise der Wissensproduk tion Naturwissenschaften, vor allem beobachtende Naturwissenschaften, sind in hohem Maße auf sinnliche Wahrnehmung angewiesen. Dies brachte historisch gesehen stets Kontroll- und Disziplinierungsstrategien des Beobachtens mit sich (vgl. Daston/Galison 1992:67-106; Daston/Galison 2002: 29-99; Kutschmann 1986: 106-123). Wurden diese Beobachtungen VHLWGHU)UKHQ1HX]HLWKlX¿JPLWGHPPHQVFKOLFKHQ$XJHXQWHUVWW]W durch Instrumente, vorgenommenen und anschließend in Bildern dargestellt, so verschob sich seit dem 19. Jahrhundert und vor allem erneut mit dem Einzug des Computers in die tägliche Bildpraxis die Bildproduktion hin zu Bildern, die (Mess)Daten auch unsichtbarer Phänomene visualisieren und die der Beobachtung nicht nachgeordnet sind (vgl. Heßler 2006). Die bildliche Darstellung des Wahrgenommenen bzw. insbesondere die Visualisierung von Daten sind daher zentral für wissenschaftliche Erkenntnisprozesse. Der im ersten Teil dieses Buches beschriebene Bildgebrauch in der Marsforschung und astrophysikalischen Simulationen verdeutlicht die komplexen Herstellungsprozesse, die es manchmal unmöglich machen, zu bestimmen, ob gerade Daten oder Bilder von den beteiligten Wissenschaftler prozessiert werden. Diese temporäre Ununterscheidbarkeit führte konsequenterweise zur Bezeichnung »Datenbilder«. Gerade die Sichtbarmachung unsichtbarer Phänomene wirft die Frage nach dem Aussehen, der Form und der Gestalt dieser Phänomene auf und damit auch nach der Gestaltung der Bilder. Zur Verwendung des Begriffs Ästhetik Im Kontext der Forschungen zu Wissenschaftsbildern geriet entsprechend GDVbVWKHWLVFKHLPPHUZLHGHULQGHQ%OLFN'DEHL¿QGHWVLFKDOOHUGLQJV eine auffällige semantische Vielfalt des Begriffs. Häufig wurde »das Ästhetische« in Kunst- und Kulturwissenschaften im Zusammenhang der zu hinterfragenden Grenze zwischen Kunst und Wissenschaft thematisiert und verweist dann auf die Prozesse der Erkenntnisgewinnung bzw. der Kunstproduktion, die ähnlichen Verfahren folgen würden (Kemp 2003). In diesem Sinne rückte auch Judith Wechsler den Begriff des

142 | D ATENBILDER Ästhetischen in die Nähe der Intuition; sie verbindet Ästhetik mit einer Weise des Denkens, die künstlerischem und wissenschaftlichem Arbeiten eigen sei: »…aesthetics is presented in this collection as a mode of cogniWLRQZKLFKIRFXVHVRQIRUPVDQGPHWDSKRUVXVHGLQVFLHQWL¿FFRQFHSWXalizing and modeling.« (Wechsler 1988: 6) Ästhetik bezeichnet hier eine anschauliche Denkform, die betont, kreatives Denken geschehe in Analogien, Übertragungen, Metaphern. Ästhetik steht damit im Kontrast zu formal-logischen Denken für ein anschauliches, intuitives Denken. Erscheint dieser Ästhetik-Begriff zu weit, um die 6SH]L¿]LWlW von Bilderwissen fassen zu können, so verwenden die Wissenschaftler selbst wiederum den Begriff Ästhetik /ästhetisch in einer sehr engen, an der Bildpraxis orientierten Weise. Wenn, wie Ralf Adelmann berichtet, ein Physiker, der den Dateneingang der HRSC überwacht, prüft, ob die Bilder »ästhetisch wertvoll« sind, so beschreibt er damit eine bestimmte Form visueller Klarheit und Eindeutigkeit, die zum Prüfstein für die Brauchbarkeit der Bilder wird. »Ästhetisch wertvoll« meint hier nicht im unmittelbaren Sinne – oder zumindest nicht in erster Linie – »schön«, bezeichnet jedoch so etwas wie »gute Sichtbarkeit«, die Frage, ob Helligkeit und Kontrast »gut gelungen« sind. Die Rede vom »ästhetisch Wertvollen« verweist mithin auf eine Orientierung an Deutlichkeit, Klarheit und guter Erkennbarkeit. Undeutliches, Verschwommenes, Vages, Unerkennbares stellen aus Sicht der Wissenschaftler ein Problem dar und sind nicht »ästhetisch wertvoll«. Der alltägliche Sprachgebrauch von Wissenschaftlern bringt das Ästhetische hier in enge Verbindung zum wissenschaftlich Nützlichen, zum Brauchbaren. Eine andere Konnotation des Begriffs Ästhetik, wie sie bei WissenVFKDIWOHUQ]X¿QGHQLVWEHVFKULHEHQ/\QFK(GJHUWRQEHUHLWVLQHLner Studie zur Bildproduktion in der Astrophysik. Hier stellten Wissenschaftler selbst eine unmittelbare Verbindung zwischen Wissenschaft und Kunst in der Person eines kunstinteressierten Wissenschaftlers her (vgl. Lynch/Edgerton 1988). Die Gleichsetzung von Ästhetik mit Kunst und damit verbunden die Frage nach dem Zusammenhang bzw. den Grenzen YRQ.XQVWXQG:LVVHQVFKDIW¿QGHWVLFKKlX¿JXQGVWHOOWDXFKZHQQVLH einen wichtigen Aspekt des Ästhetik-Begriffes benennen mag, eine Engführung dar, die es nicht vermag, den Kern bildlicher Wissenserzeugung zu treffen. Vielmehr etablierte sich in diesem Kontext ein traditioneller bVWKHWLN%HJULIIGHUVLFKDPª6FK|QHQ©RULHQWLHUHXQGKlX¿JPLWHLQHU Heroisierung wissenschaftlicher Arbeit einhergeht (vgl. z.B Ernst P. Fischer 1997). Naturwissenschaftler selbst stilisierten ihre Wahrnehmung der Natur als eine ästhetische und verwiesen auf die Schönheit der Natur– mithin am bekanntesten ist Ernst Haeckels Buch »Kunstformen der Natur«. Noch fragwürdiger hinsichtlich einer Logik der Bilder ist es je-

B ILDERW ISSEN | 143

doch, wenn Naturwissenschaftler im Hinblick auf ihre Bildproduktionen die ästhetische Dimension ihrer Arbeit betonten, indem sie Schönheit mit Wahrheit gleichsetzten. Bekannt sind die verzückten Ausrufe von Nobelpreisträgern wie James Watson und Francis Crick oder Gerd Binnig und Heinrich Rohrer über die unglaubliche Schönheit ihrer Forschungsobjekte bis dahin, dass die DNA, so die immer wieder kolportierte Anekdote, zu schön sei, um falsch zu sein. Einheitlichkeit, Symmetrie, Konsistenz, Gleichgewicht und Ordnung sind die Begriffe, die mit Ästhetik assoziLHUWZHUGHQXQGGDEHLVWHWVGDV6FK|QHXQGGDPLWLQHLQHUVSH]L¿VFKHQ Tradition als das Wahre bezeichnen (Köllmann 2006: 83). Wird hier einerseits in Wissenschaftlerkreisen ein traditioneller Begriff von Ästhetik reproduziert, so wurden andererseits bis vor nicht allzu langer Zeit gemeinhin »ästhetische Phänomene als kulturelle Peripherie einer im Kern autonomen Wissensproduktion« verstanden (Geimer 2002: 8). Traditionelle und alltagsweltliche Vorstellungen gingen davon aus, dass wissenVFKDIWOLFKH %LOGHU IUHL YRQ lVWKHWLVFKHQ (LQÀVVHQ XQG (QWVFKHLGXQJHQ seien. So gesehen wären Wissenschaft und Ästhetik polare Begriffe. Dies ist jedoch eine Verkürzung, die die Bedeutung visuellen Denkens, der visuellen Wahrnehmung und ästhetischer Entscheidungen im Forschungsprozess unterschätzt. Vielmehr sind wissenschaftliches und ästhetisches Handeln nicht zu unterscheiden. Bilder sind per se das Ergebnis vielfältiger ästhetischer Eingriffe. Ästhetisches Handeln ist Teil der wissenschaftlichen Praxis. So bemerkte auch Gabriele Werner, dass sich, das »Ästhetische […] nicht mehr auf einen Begriff des Schönen reduzieren (lasse), sondern […] weit mehr mit einer sinnlichen Erkenntnis zu tun« habe (Werner 2001: 369). Ähnlich kritisierte Wolfgang Krohn die »ästhetische Selbstvergessenheit der Wissenschaft«. Sie sei aber in einem »exponierten Sinn ein ästhetisches Unternehmen« (Krohn 2006: 15). Ästhetische Gestaltung stehe nicht in Konkurrenz zur Wahrheitsorientierung der Wissenschaft, sondern sei ein Element des Wahrheitsanspruches, so Krohn nachdrücklich. Die Geltung des Wissens entstehe, nicht obwohl, sondern weil Wissen gestaltet sei (Krohn 2006: V). Zielt Krohn hier auf Gestaltung in einem sehr weiten Sinne, geht es im Folgenden um visuelles Wissen, um Bilderwissen, um zentrale Merkmale der Logik der Bilder, und zwar darum (a) den Begriff der ästhetischen Praxis als Kernbegriff einer bildlichen Logik zu entwickeln einerseits und (b) die Bedeutung von Bildtraditionen, Stilen und Darstellungskonventionen für diese zu UHÀHNWLHUHQDQGHUHUVHLWV=XPGULWWHQZLUGF GHU)UDJHQDFK)DUEHXQG Erkenntnis ein eigener Abschnitt gewidmet, da die erkenntnisstiftende Funktion von Farbe, deren Verwendung selbstverständlich Teil der ästhetischen Praxis, aber auch Teil von Darstellungskonventionen ist, bislang in der Forschung unterschätzt wurde.

144 | D ATENBILDER a) Ästhetische Praxis in den Naturwissenschaften Wie auch immer Wissenschaftler selbst den Begriff der Ästhetik verZHQGHQ RE VLH LKQ UHÀHNWLHUHQ RGHU LP 6LQQH YRQ )DV]LQDWLRQ YHUZHQden, zeichnet sich unabhängig davon, so die These, die wissenschaftliche Praxis der Bildproduktion unabdingbar durch eine ästhetische bzw. aisthetische Praxis aus. Bildproduktion meint per se ästhetische Entscheidungen, ästhetisches Handeln. 'DV 6SH]L¿VFKH GLHVHU ELOGOLFKHQ RGHU YLVXHOOHQ (UNHQQWQLVSURGXNtion liegt dabei zum ersten LQ GHU 9HUZHQGXQJ GHV $XJHV DOV 3U¿Qstanz. Das Auge kontrolliert beispielsweise, wie das Ralf Adelmann für die Marsforschung beschrieben hat, die eingehenden Daten, daraufhin ob sie »ästhetisch wertvoll« sind, also ob sie für den Forschungsprozess brauchbar sind. Auch in späteren Stadien des Forschungsprozesses, beispielsweise bei der Erstellung der digitalen Geländemodelle, spielt die visuelle Kontrolle eine zentrale Rolle. »Inkonsistente Daten und solche, in denen keine interessanten visuellen Strukturen vorhanden sind«, werden beispielsweise »abgeschnitten«. Ähnliches beschreibt Jan Frercks für die Forschungen am MPA. Der prüfende Blick des Auges sieht Fehler in den Daten wie beispielsweise die dünnen weißen Linien, die sich in einer Simulation durch das Bild ziehen und auf einen Fehler verweisen, den man LQGHQ'DWHQVHOEVWRGHULQ=DKOHQQLH]X¿QGHQLQGHU/DJHZlUHZlKrend die Visualisierung dies dem prüfenden Auge präsentiert und offen legt. D.h. der Blick entscheidet: Entscheidungen werden mit dem Auge getroffen. Auch wenn viele Prozesse automatisiert sind, bedarf es immer wieder des kontrollierenden Auges. Zum zweitenXQGGLHVKlQJWHQJPLWGHP$XJHDOV3U¿QVWDQ]]Xsammen, stellt der visuelle Vergleich von Bildern und im Bild ein zentrales Element der Erkenntnisgewinnung dar, wie die Fallstudien deutlich machten. Die Marsforscher suchen nach gleichen Verteilungen, gleicher +HOOLJNHLW 6WUXNWXUHQ 7RSRJUD¿HQ +HOOLJNHLWVJUDGH ZHUGHQ PLW GHP Auge verglichen, sei es innerhalb eines Bildes, sei es bei zusammengefügten Bildern (»multi-image matching«) oder beim Bildervergleich. Charakteristisch für visuelle Erkenntnisprozesse sind dabei räumliches Denken, das Erkennen von visuellen Analogien, von Gestalt und Form. Vor allem Mustererkennung spielt eine überragende Rolle. Zum dritten konstituiert das ästhetische Handeln im Sinne der Verwendung von Farbe, Form, Linienführung, Schattierung zur Produktion von Bedeutung die Bildproduktion der Wissenschaftler. Daten werden, so machen beide Fallstudien deutlich, in die Sichtbarkeit transformiert, indem beispielsweise, wie Ralf Adelmann beschreibt, gemessene Helligkeitsdaten als Höhenwerte visualisiert werden, um auf diese Weise die

B ILDERW ISSEN | 145

Höhenunterschiede sichtbar und auf einen Blick erkennbar zu machen. Die Forscher des MPA wiederum überführen bei der Erstellung ihrer Simulation Dichte in Helligkeit: Je mehr Teilchen, desto heller, so die Entscheidung. Die Wissenschaftler entscheiden jeweils, welche Daten sie wie visualisieren, welche Farben sie zuweisen, wie die Kontraste, die Formen gestaltet werden. Die Sichtbarmachung ist also ein steter Interpretationsprozess der Daten; nur ein Bruchteil der Daten wird, wie vor allem bei der Beschreibung Jan Frercks deutlich wird, in einer bestimmten Form, einer bestimmten Farbe etc. in die Sichtbarkeit überführt, andere nicht. In diesem Sinne ist ästhetisches Handeln konstitutiv für die Produktion und Kommunikation von Wissen. Wie Texte mittels rhetorischer Verfahren, Duktus und Grammatik erzeugt werden, so gibt es kein Bild ohne ästhetische Verfahrensweisen. Wandte sich der linguistic turn der Rolle der Sprache, den diskursiven Herstellungsprozessen von Sinn zu, so sind Bilder hinsichtlich der ästhetischen Verfahren ihrer Herstellung zu beWUDFKWHQ6RZLUGXPDQ*RRGPDQV'H¿QLWLRQGHVSLNWRUDOHQ6FKHPDV anzuknüpfen, Erkenntnis mittels Farben, Formen, Linien, Kontrasten, Schattierungen, Herstellung von Schärfe oder Unschärfe, Ausrichtung im Raum, etc. hergestellt. Sie sind – anders als im nichtpiktoralen Schema – jeweils von Bedeutung. Sie zu verändern, heißt, eine andere Bedeutung zu erzeugen. Visuelle Erkenntnis meint damit einerseits den prüfenden Blick, das denkende, das vergleichende und bewertende Auge, andererseits das ästhetische Handeln, indem mittels Linien, Formen, Farben etc. Wissen hergestellt wird. Ästhetisches Handeln meint, dass die wissenschaftliche Praxis von der Suche nach Mustern, nach Strukturen, Stimmigkeiten bzw. des Herausfallenden geleitet ist und dass das, was gezeigt werden soll, hervorgehoben wird, indem es schärfer gemacht, eingefärbt, begradigt, betont wird. Zentral für digitale Wissensproduktion ist gerade die enge Verschränkung dieser beiden Prozesse. Das Auge kontrolliert visuelle Strukturen, vergleicht Helligkeiten, Formen etc. und gleichzeitig werden sie bearbeitet, um gewisse Phänomene deutlicher zu machen, sie zu zeigen, um das Ergebnis dieser ästhetischen Entscheidungen gleich wieder zu kontrollieren, sie erneut zu verändern usw. Die Produktion wissenschaftlicher Erkenntnis mittels Bildern basiert also auf ästhetischen Wahlentscheidungen. Zugleich sind diese Verfahren Überzeugungs- und Argumentationsstrategien. Latour betonte bereits 1990: »[…] one more inscription, one more trick to enhance contrast, one simple device to decrease background, or one coloring procedure might be enough, all thing being equal, to swing the balance of power and turn an incredible

146 | D ATENBILDER statement into a credible one that would then be passed along whithout further modification. The importance of this cascade of inscription may be ignored when studying events in daily life, but it cannot be overestimated when analysing science and technology« (Latour 1990: 42).

Lynch/Edgerton sprachen in diesem Zusammenhang von »the work of composing visible coherences, discriminating differences, consolidating entities, and establishing evident relations.« (Lynch/Edgerton 1988: 212) Die ästhetischen Entscheidungen folgen Bilddarstellungen und Sehkonventionen sowie offensichtlich gewissen Leitvorstellungen, was ein »gutes Bild« darstellt. Dies wurde bereits in Ralf Adelmanns Beschreibungen und der oben erwähnten Einschätzung, ob Bilder »ästhetisch wertvoll« sind, deutlich. Dazu gehört: »[…] das Verlangen nach Klarheit statt nach Wahrheit. Das kontrastreiche Bild, das uns die Vieldeutigkeit vergessen macht, gilt […] nur zu oft als das bessere Bild. Man will scharfe Spuren und keine undeutlichen Übergänge. (Vgl. zitiert nach Gombrich 1994: 18) […] Man fragt sich viel zu selten, ob gerade solche Bilder nicht mehr Information unterdrücken als jene, die gerade darum schwer zu deuten sind, weil die Wirklichkeit selbst eben vieldeutig ist.« (vgl. zitiert nach Gombrich 1994: 19)

Zudem existiert in verschiedenen Forschungsfeldern eine »visuelle Fachsprache«, visuelle Codes (Grab 2001: 117), die es in der fachinternen Kommunikation ermöglichen, vom Dargestellten zu abstrahieren, es als Zeichen zu lesen. So berichtet ein Wissenschaftler: »In Abb. Ia sind verschiedene der üblichen Darstellungen eines Wassermoleküls H2O und in Abb. Ic ein winziger Teil eines Wassertropfens abgebildet. Natürlich glaubt kein Chemiker, dass das Wassermolekül bzw. Eis so aussieht, denn die Messungen zeigen: Es gibt keine wirkliche Begrenzung der Moleküle nach außen, wiederum keine voneinander separierten Atome in den Molekülen; es gibt keine Eigenfarbe, und die Teilchen sind in ständiger Bewegung – Schwingungen, Rotation und Translation.« (Nesper 2001: 174)

Der Betrachter muss diese jeweilige »Sprache« kennen; welches Wissen und welches Verständnis hier transportiert werden, hängt damit wesentlich von den Kenntnissen und Betrachtungsweisen ab, vom Wissen darüber, dass die Abbildung ein stilisiertes Zeichen darstellt. Mithin sind Wissenschaftsbilder ausgesprochen voraussetzungsreich, ohne dass das

B ILDERW ISSEN | 147

Bild Möglichkeiten bietet, dies zu thematisieren. Die Lesbarkeit beruht auf der Etablierung einer gemeinsamen Praxis.5 b) Bildtraditionen, Sehkonventionen und Stile als Konstituens der bildlichen Erkenntnis Nimmt man die Frage nach den ästhetischen Entscheidungen der Wissenschaftler noch einmal auf, so ist neben den visuellen Codes, die sich innerhalb einer wissenschaftlichen community entwickeln, die Bedeutung von Bildtraditionen, Seh- und Darstellungskonventionen und Stilen in den Blick zu nehmen. Martin Kemp kritisierte als einer der ersten die Auffassung, wissenschaftliche Bilder befänden sich jenseits eines Stils, wie er für künstlerische Bilder konstatiert wird. Kemp konstatierte, wir seien allenfalls bereit, »dem visuellen Erbe der Wissenschaft früherer Zeiten einen Stil zu attestieren – den Abbildungen in alten Büchern über Naturgeschichte« (Kemp 2003: 15). Während in der Tat der historische Abstand die auf religiöse und moralische Traditionen zurückgreifenden Symbole und Metaphern in den Bildern unübersehbar als eine Verschönerung, Dekorierung oder Kontextualisierung wissenschaftlicher Phänomene vor Augen führt, scheinen eine Tabelle, ein Graph oder visuelle Darstellungen, wie sie beispielsweise mit dem Elektronenmikroskop hergestellt werden, nüchterne naturwissenschaftliche Darstellungen zu präsentieren. Kemp betonte demgegenüber, dass Stil im Sinne ästhetischen Designs eine Kategorie des wissenschaftlichen Denkens sei. Die These, dass »Stile« für naturwissenschaftliches Arbeiten relevant seien, mag nun eigentlich Wissenschaftshistoriker, die mit der Idee eines Denkstils seit Ludwik Flecks Studie von 1935 und vor allem aufgrund wissenschaftstheoretischer Arbeiten aus den letzten Jahren vertraut sind, auf den ersten Blick nicht überraschen. Wissenschaftstheoretische Arbeiten verwandten den Begriff des Stils jedoch bislang vielmehr im Sinne von »Experimentalstilen«, der Art und Weise der Praxis, des Arbeitens im naturwissenschaftlichen Labor, nicht jedoch im Hinblick auf Bilder. In der Kunstgeschichte dagegen dominierte ein Stilbegriff, der rein auf das Formale EH]RJHQZDUXQGLP6LQQHHLQHU.ODVVL¿]LHUXQJGLH$UWXQG:HLVHGHU Darstellungen ordnete, als Instrument oder »diagnostic tool« fungierte, das wenig mit Bedeutungen und Sinn befasst war (Winter 1998: 63). Stil in diesem Sinne verweist, wie Martina Plümacher in anderem ZusamPHQKDQJVFKULHEªDXIGLH)RUPXQG4XDOLWlWGHU(UVFKHLQXQJ©'DPLW »wird etwas in den Blick genommen, was Langer mit Schiller ‚Schein‘ 5 | Vgl. Abschnitt 4 dieses Kapitels

148 | D ATENBILDER nannte […]: der durch die visuelle Gestalt hervorgerufene Eindruck und damit verbundene Assoziations- und Interpretationsprozesse.« (Plümacher 1998: 56) Führt die Betonung dessen bereits über eine reine Formanalyse hinaus, so betonte beispielsweise Merleau-Ponty – einen »naiven Formalismus« zurückweisend – die Sinnfunktion der Form (MerleauPonty 1993). Tatsächlich ist Stil im Sinne einer universalen Kategorie des Wie der Darstellung und ihrer Bedeutung für epistemische Aussagen entscheidend für die Frage der Logik der Bilder, denn gerade auf diese Weise wird mit ästhetischen Mitteln Sinn produziert. Im Kontext wissenschaftshistorischer und -theoretischer Untersuchungen kann der Begriff des Stils daher keineswegs im Sinne einer reinen Formanalyse gefasst werden. Vielmehr gilt es, die Relevanz des Stils der Bilder im Sinne einer universalen Kategorie des Wie der Darstellung, des Darstellungsmodus und seiner Bedeutung für epistemische Aussagen in den Blick zu nehmen. Die entscheidende Frage ist die nach der %H]LHKXQJ HLQHV VSH]L¿VFKHQ Darstellungsmodus zum Bilderwissen. Stil wirkt, »indem er die abgebildete Sache strukturell transformiert, wie ein Filter, durch den man etwas in einer bestimmten Weise sieht« (Wiesing 2000: 56). Während erkenntnistheoretische Fragen dieser Art für narrative Strukturen bereits themaWLVLHUW XQG EHLVSLHOVZHLVH GLH .RQ¿JXUDWLRQVIXQNWLRQ YRQ 7H[WHQ GXUFK Tropen betont sowie die Bedeutung von Metaphern untersucht wurden (vgl. Maasen/Weingart 2000) oder von Hayden White für die Geschichtswissenschaften die Erzählformen, die die Geschichtsschreibung und das von ihr erzeugte Wissen formen (White 1986), ist dies im Hinblick auf die Ästhetik, den Stil der Bilder bislang kaum der Fall. Gleichwohl erzeugt der »Stil« Sinn, indem jeweils an Seh- und Bildtraditionen angeschlossen und Konventionen verwendet werden. Ralf Adelmann beschreibt, wie sich die Photogrammeter in der Aufbereitung der HRSC-Daten an den Konventionen der Geowissenschaftler orientieren oder wie sie beispielsweise mit ihren Schattenmodellen an uns bekannte Darstellungsformen anschließen, indem die Lichtquelle aus Nordwesten auf die Landschaft scheint, so dass die Schatten immer nach Südsüdosten fallen. Jan Frercks zeigt, wie die Simulationsdaten mittels volume-rendering und raytracing als »Objekte« sichtbar werden und wie sie einem zentralperspektivischen Blick angepasst werden, damit sie unseren Sehgewohnheiten entsprechen und verstanden werden können. Cornelius Borck hatte ähnliches am Beispiel des EKGs geschildert: ª'H¿QLWLRQ5HVWULNWLRQHQ.RQYHQWLRQHQVWHFNWHQGHQ0|JOLFKNHLWVUDKPHQIUGLH(LQVFKUHLEXQJXQG,GHQWL¿NDWLRQYRQ%HGHXWXQJDE© %RUFN 1997: 69). Geoffrey Bowker wiederum nannte ein sinnfälliges Beispiel, das die Bedeutung von Sehgewohnheiten und Bildtraditionen verdeut-

B ILDERW ISSEN | 149

licht. Er zeigte auf, dass sich die Firma Schlumberger in den 1930er Jahren bei der Zeichnung elektrischer Diagramme im Kontext der Erdöl-Bohrlochmessung eines »dekorativen Aspekts« bediente: Um an die für die Betrachter (Geologen) gewohnten Diagramme anzuschließen, versuchten sie, die Kurven nicht allzu oft abzuwandeln, trotz der Verbesserungen in GHU :LVVHQVGDUVWHOOXQJ GLH VROFKH 0RGL¿NDWLRQHQ LKUHU 0HLQXQJ QDFK gebracht hätten. Bowker kommt zur Einschätzung, dass man schließlich sogar eine »unbelastete Kurve zusätzlich« verwandte, um »an der unzulänglichen (meine Hervorhebung) Kurve nichts zu verändern«. (Bowker 2000: 843) Wesentlich ist, dass eine bestimmte Darstellungsform aus »Kontinuitätsgründen« beibehalten wurde, obgleich, so legt es die Beschreibung nahe, sie »unzulänglich« war. Um Wissen zu kommunizieren, so muss daher geschlussfolgert werden, erscheint das Anknüpfen an Sehtradition, an Konventionen, Gewohnheiten und Erwartungen der Betrachter oft wichtiger als eine eindeutige Darstellung. Gleiches beobachtete Jan Frercks hinsichtlich der Millenium-Simulation, indem er feststellt, das in den Bildern ein Effekt der Dreidimensionalität hergestellt wird, der in den Daten selbst nicht enthalten ist, der aber an unsere Sehgewohnheiten anschließt. Für eine Logik der Bilder ist dies insofern bedeutend als es die ganz grundsätzliche, und in der Wissenschaftsforschung vielfach behandelte Frage nach der Entstehung des Neuen, der Innovation berührt. Diese Beispiele werfen die Frage auf, inwieweit die Darstellung des Neuen mangels erst noch auszubildender Begriffe traditioneller Kategorien bedarf. Bezogen auf die Bilder meint dies, dass die Darstellung des Neuen im Bild sich immer auch herkömmlicher Bilder bedienen, an Sehgewohnheiten, Sehtraditionen und Konventionen anschließen muss, um überhaupt verständlich zu sein (vgl. auch Borck 1997: 70). Und gerade wenn es sich um Wissen handelt, das der sinnlichen Erfahrung nicht zugänglich ist, müssen sich die visuellen »Repräsentationen existierender und akzeptierter Wissensbestände bedienen, um überhaupt ein Sinnverstehen für den Betrachter zu ermöglichen« (Kemp 2003: 183) So beobachtete Soraya de Chadarevian, dass die »graphische Sprache«, wie sie im 19. Jahrhundert in der Physiologie eingeführt wurde, sich als eine konventionelle Sprache entpuppte, die entscheidend von der schriftlichen Kommunikationsform bestimmt war (de Chadarevian 1993). David Gugerli zeigte auf, wie für die präzedenzlosen Bilder der virtuellen Endoskopie ein »Referenzrahmen« JHVFKDIIHQZXUGHLQGHPPDQKLVWRULVFKH4XHOOHQQlPOLFK9HUVDW]VWFNH aus der Welt der elektronischen Unterhaltungsindustrie, Computerspiele und Science Fiction mobilisierte, um »einen gemeinsamen verfügbaren Erfahrungsraum« zu generieren (Gugerli 1999: 263). Wissenschaftsbilder unterliegen somit einem langsamen Transformationsprozess, in dem im-

150 | D ATENBILDER mer Elemente des bereits validierten Wissens enthalten sind, um das Neue darstellen zu können und Sinn zu generieren. c) Farbe und Erkenntnis Während die Bedeutung von Bildtraditionen und Sehkonventionen in jüngster Zeit Thema der Bildforschung war, bleibt es auffällig merkwürdig, dass Farbe als sinnproduzierendes Werkzeug bis in allerjüngste Zeit unbeachtet blieb, obgleich sie vor allem heute in den Wissenschaften ein zentrales Instrument zur Generierung von Erkenntnissen wie auch zu ihrer Vermittlung in der Öffentlichkeit darstellt. Die Wissenschaftsforschung hat Farbe bislang kaum als erkenntnisstiftendes Element untersucht, und auch die Rolle von Farbe in der Wissenskommunikation in der Öffentlichkeit geriet nur spärlich in den Blick.6 Vielleicht ist diese Vernachlässigung aber auch nicht so merkwürdig, wurde der Farbe doch immer wieder unterstellt, sie habe an sich keinen Sinn, und tatsächlich scheint auch rot oder grün zuerst einmal keine Bedeutung aufzuweisen. bKQOLFKHhEHUOHJXQJHQ¿QGHQVLFKEHL/DQJHUV%HVFKUHLEXQJHQGHUSUlsentativen Symbolik im Unterschied zur diskursiven Symbolik: Ersterer fehle ein Vokabular mit festgelegten Bedeutungen und eine Syntax; Langer betont, dass ein einzelner Strich oder eine Linie, im Unterschied zum Wort, keinen Sinn hat (Langer 1984: 101). Gleiches gilt für die Farbe, der Bedeutung nur zugeschrieben werden kann, deren Aussage auf Konventionen beruht und einem kulturellen Kontext geschuldet ist, die zu entziffern eines Wissens über Konventionen bedarf. Zudem zeichnen sich Bilder prinzipiell durch eine nur begrenzte sprachliche Beschreibbarkeit aus. Kann man beispielsweise den Verlauf einer Linie nie exakt beschreiben, so trifft dies erst recht auf Farben zu. Goodman machte dies anschaulich, als er davon sprach, dass es unmöglich sei, bei einem Händler telefonisch einen bestimmten Farbton für eine Tapete zu bestellen und diesen zu beschreiben. Man würde schwerlich das bekommen, was man vor Augen habe. Stattdessen muss man, um den exakten Farbton zu treffen, auf eine nummerierte Farbskala zurückgreifen (Goodman 1995: 63). Die Missachtung der Farbe ist allerdings nicht allein auf wissenschaftshistorisches oder geistesgeschichtliches Desinteresse oder die Unterstellung ihrer Bedeutungslosigkeit zurückzuführen (vgl. Batchelor 2002), sondern sie resultierte auch aus philosophischen und künstlerischen Traditionen, die die Form gegenüber der Farbe privilegierten. Diese 6 | Zu erwähnen ist allerdings das Themenheft der Zeitschrift Bildwelten des Wissens 2006 zu »Farbstrategien«, das aber nicht nur auf Wissenschaft fokussiert.

B ILDERW ISSEN | 151

haben die Farbe historisch betrachtet tendenziell abgewertet. Mit der Gegenüberstellung von disegno e colore wurde seit der Frühen Neuzeit eine Hierarchie von Form und Farbe eingezogen. Gilt das disegno dabei als der schöpferische Entwurf, als Inventio, die vom Geist hervorgebracht werde, adressiere die Zeichnung also den Intellekt und garantiere die Lesbarkeit und verbürge als Träger der künstlerischen Idee die geistige Dimension des Bildes, so adressiert das colore den Gesichtssinn und wurde auf Seiten des sinnlichen Scheins verortet und nicht dem diskursiven Vermögen, sondern der visuellen Wahrnehmung zugeordnet und damit gewissermaßen vom Diskus ausgesperrt. Und auch wenn in der Geschichte der Philosophie Farbe – vor allem die ontologische Frage nach dem Status der Farbe oder nach der Farbwahrnehmung – untersucht wurde (vgl. Steinbrenner/Glasauer 2007), so implizierte dies jedoch immer auch eine Abwertung der Farbe als erkenntnis- oder sinnerzeugendes Werkzeug. Kant betrachtete beispielsweise das Bild von der Form her, während er die Farbe als »Beiwerk« abwertete. Entscheidend seien Linien und Gestalt; Farbe als gestalterisches Mittel spiele dagegen eine untergeordnete Rolle. Ausnahmen bilden im 20. Jahrhundert Otto Neurath oder Ludwig Wittgenstein, die sich mit Farbe bzw. Farblogik beschäftigten. Otto Neurath war sich der Bedeutung der Farbe in der Wissensvermittlung sehr bewusst. Er entwickelte klare Regeln für ihre Verwendung. So nutzte er z.B. starke Kontrastfarben, um Differenzen deutlich zu machen. Er betonte mittels Farbe Unterschiede, hob etwas hervor oder wollte eine Klarheit der Aussage erreichen. Zudem nutzte er Farbe semantisch. »Wo es möglich ist, wird an die überkommene Farbsymbolik angeknüpft, etwa Grün für die Landschaft verwendet, Weiß für die Wasserkräfte (weiße Kohle), wie dies ja in der Kartographie oft erprobt wurde.« (Neurath 1926, zitiert nach Hartmann/Bauer 2002: 57) Grau dagegen verkörperte für ihn das Unbestimmte. Neuraths Bildsprache bediente sich damit einer Farbsemantik, die sich an Alltagsvorstellungen orientierte. Schließlich wollte er vor allem Kindern, Ungebildeten und Analphabeten die Möglichkeit des Wissens- und Informationserwerbs bieten, wobei er betonte, dass gerade die Farbigkeit der Bildtafeln sie anspreche und fasziniere. Der Einsatz von Farbe changierte zwischen den Polen der Sinnerzeugung und der Erzeugung von Aufmerksamkeit und Faszination und sollte beiden Funktionen gleichermaßen gerecht werden.7 Orientierte sich Neurath in seiner Farbsemantik an Alltagsvorstel7 | Hier ist allerdgings Edward R. Tufte zu nennen, der sich explizit der Bedeutung der Farbe für Informations- und Wissensvermittlung widmete und dabei Beispiele aus verschiedenen Jahrhunderten analysierte, um die Rele-

152 | D ATENBILDER OXQJHQ XQG QXW]WH HU )DUEH JOHLFK]HLWLJ DOV ¾H\HFDWFKHU½ VR ¿QGHW VLFK beides auch in den heutigen Wissenschaftsbildern wieder. In den Naturwissenschaften, gerade in der Astrophysik, spielen Falschfarben eine große Rolle, zumal die gemessenen Phänomene der direkten Beobachtung zumeist unzugänglich bleiben. Dabei entscheiden sich Wissenschaftler einerseits für Farben, die unseren Alltagswahrnehmungen entsprechen (man denke an den schwarzen Nachthimmel), andererseits ordnen sie Phänomenen Farben zu, ohne dass die Kriterien für diese Farbwahl immer begründet werden oder begründbar wären, so beispielsweise das Violett der Millenium-Simulationen. Gleichwohl werden solche Farbzuweisungen schließlich zu Codes, zu Konventionen. So wird beispielsweise die Rottönung des Mars von den Marsforschern als ›NASA-Rot‹ bezeichnet. Diese Konvention, Marsbilder tendenziell rötlich zu zeigen, ist inzwischen nicht mehr zu hintergehen. Die Funktion der Farbe als Mittel der Sinnproduktion in den Wissenschaften lässt sich heuristisch in drei Aspekte gliedern. Farbe generiert Erkenntnis, indem sie erstens kontrastiert, differenziert, ordnet, betont, markiert oder hierarchisiert. Gerade in Jan Frercks Beschreibungen der Simulation zeigt sich, wie Farbe zur Differenzierung benutzt wird, wie sie eingesetzt wird, um ›gute Unterscheidbarkeit‹ zu gewährleisten, wobei hier der Farbe keine Bedeutung zugewiesen wird. Zweitens fungiert Farbe als Erkenntniswerkzeug, indem sie als Code genutzt wird, beispielsweise, wenn in der Chemie die Farbe Weiß Wasserstoff symbolisiert. Drittens, indem sich die Bildproduzenten bestimmter Farbsemantiken bedienen, Anschlüsse an ein Alltagsverständnis oder auch an die Populärkultur, an kulturelle Zuschreibungen von Farbbedeutungen herstellen. Farbe löst zudem auch affektive Reaktionen aus; sie ist gleichzeitig beliebtes Mittel zur Faszinationsproduktion. Die Millenium-Simulation wurde nicht nur farbig gezeigt, der Prozess der Farbwahl war, wie Jan Frercks beschreibt, auch ein sehr bewusster. Und schließlich werden bei der Erstellung der $QDJO\SKHQGHU0DUVREHUÀlFKHGLH0DUVIRUVFKHUDP'/5HUVWHOOHQZLH Ralf Adelmann beobachtete, die »›passendste‹ und die ›schönste‹ ausgesucht«.

YDQ]GHU)DUEHIUHLQHHI¿]LHQWH,QIRUPDWLRQVYHUPLWWOXQJ]XXQWHUVWUHLFKHQ (Tufte 1990, vor allem S. 81-95).

B ILDERW ISSEN | 153

3. Die schwierige Frage der Referenz: Wissenschaftsbilder als Zeichen und Bildobjek t Jenseits der Frage nach der Logik des Bildes und der ästhetischen Sinnproduktion, also der Frage nach den Verfahrensweisen der bildlichen Sinnerzeugung sowie nach strukturellen Aspekten der Bildlogik, erweist sich die Frage nach dem (epistemischen) Status von (Wissenschafts)Bildern als eine Kernfrage von Bildtheorie und Wissenschaftsforschung. Einen zentralen Aspekt bildtheoretischer und auch medientheoretischer Debatten stellt dabei immer wieder das Verhältnis von Bild und Wirklichkeit dar, das sich bereits in der oben erwähnten Diskussion um den Begriff der Repräsentation spiegelte. Die Frage, worauf Bilder verweisen, ob sie auf etwas ›Reales‹ verweisen, wie sich ihr Bezug zur Wirklichkeit darstellt, was sie also zeigen, führt nicht nur zur Diskussion des traditionellen platonischen Abbildkonzepts, sondern sie berührt vor allem eine der Kernfragen der Wissenschaftsforschung, für die sich diese Frage in besonderer Weise stellt. Denn es gehört essentiell zum eigenen Anspruch von Wissenschaftsbildern, Aussagen über die Wirklichkeit zu machen. Gerade hier machte der klassische Repräsentationsbegriff die Wissenschaftsforschung skeptisch, der suggerieren könnte, Wissenschaftsbilder bilden eine Wirklichkeit wissenschaftlicher Phänomene ab, während sie doch, so die neuere Forschung, hoch konstruiert, in komplexen »Transformationsketten«, Überschreibungs- und Umschreibungsprozessen, im GeÀHFKWVR]LDOHU%H]LHKXQJHQXQGLQVWUXPHQWHOOHU(LQVFKUHLEXQJHQWVWHKHQ Von heute aus betrachtet, nach dem Durchgang durch konstruktivistische Theorien, nicht zuletzt nach der Debatte um das Bild-Wirklichkeitsverhältnis im Kontext digitaler Bilder seit den 1980er Jahren, scheint es fast verwunderlich, dass das Thema der Ähnlichkeit und des Abbildes überhaupt noch so stark in die bildtheoretische und wissenschaftshistorische Diskussion hineinragen konnte. Zweifellos verweist dies auf die Mächtigkeit des Abbildparadigmas. Mitchell sprach von der »Tyrannei des Abbildes«, das durch die Zentralperspektive, die dem natürlichen Sehen entspreche, genährt werde (Mitchell 1990: 48). Gegen einen Bildbegriff, der von der Ähnlichkeit zwischen Abbild und Abgebildeten ausging, hatten ja allerdings in den 1960er Jahren unter anderen bereits Ernst Gombrich, Umberto Eco und Nelson Goodman argumentiert. Gombrich hatte, so fasste dies Goodman zusammen, »erdrückende Belege zusammengetragen, um zu zeigen, wie sehr die Art und Weise, in der wir sehen und abbilden, von Erfahrung, Praxis, Interessen und Einstellungen abhängt und sich mit ihnen verändert.« (Goodman 1995: 21) Das, was wir sehen,

154 | D ATENBILDER entspricht dementsprechend weniger dem Abgebildeten als vielmehr unseren Wahrnehmungskonventionen. Darüber hinaus verschob Goodman das vormals im Sinne einer Ähnlichkeit gedachte Verhältnis von Bild und Gegenstand noch weiter, inGHP HU GLH bKQOLFKNHLWVEH]LHKXQJ JDQ] DXÀ|VWH XQG NRQVWDWLHUWH GDVV die Feststellung von Ähnlichkeit auf Konventionen der Bezugnahme beruht. »Tatsache ist, dass ein Bild, um einen Gegenstand repräsentieren zu können, ein Symbol für ihn sein, für ihn stehen, auf ihn Bezug nehmen muss; und dass kein Grad von Ähnlichkeit hinreicht, um die erforderliche Beziehung der Bezugnahme herzustellen. Ähnlichkeit ist für die Bezugnahme auch nicht notwendig, fast alles kann für fast alles andere stehen. Ein Bild, das einen Gegenstand repräsentiert […] nimmt auf ihn Bezug und genauer noch: denotiert ihn. Denotation ist der Kern der Repräsentation und unabhängig von Ähnlichkeit« (Goodman 1995: 17). Die Referenzfunktion von Bildern wird hier von der Vorstellung der Ähnlichkeit und des Abbildes gekoppelt. Referenz beruht, so der bildtheoretische Diskurs, damit nicht auf Ähnlichkeit mit dem Abgebildeten. Der Bezug beruht vielmehr auf Konventionalisierung. Gombrich und Goodman, aber auch Eco, waren damit wegweisend für den langen Abschied vom Abbildparadigma, indem sie die Idee einer Ähnlichkeit zwischen Bild und Wirklichkeit verneinten und stattdessen auf die Bedeutung der Konvention verwiesen. Konventionen prägen demnach das, was wir auf Bildern sehen, stärker als das, worauf sie verweisen. Im Verständnis des Systems Wissenschaft mit seinem Anspruch, Aussagen über die Wirklichkeit zu machen, stellte dies eine Herausforderung dar. Entsprechend hatten konstruktivistische Wissenschaftstheorien argumentiert, dass sich Bilder vor allem auf andere Bilder beziehen. Der KlX¿J]LWLHUWH6DW]/DWRXUVª(LQ%LOGVWHKWQLFKWIUVLFKDOOHLQ©IDVVWGLese Kritik am Abbildparadigma prägnant zusammen. In den vielfältigen Transformationsprozessen wissenschaftlicher Erkenntnis beziehen sich die Bilder demnach »horizontal« aufeinander oder auf andere Formen der Darstellung. Sie sind »transversale Referenten« (Latour). Rheinberger schrieb dazu: »…Wissenschaft arbeitet ›parallel‹ zur Realität in intermediären Formen von Modellen und Repräsentationen verschiedener Art, die sich gegenseitig bedingen und vorantreiben. Das Modell von Präsenz und Repräsentation verliert an Bedeutung zugunsten der Transformation und Verkettung« (zitiert nach Heintz/Huber 2001a: 33). Blicken wir auf die im ersten Teil des Buches beschriebene Wissenschaftspraxis der Astrophysiker, so bestätigt sich diese Beobachtung beispielsweise an der Arbeit der Marsforscher. Ralf Adelmann betonte die Bedeutung einer visuellen Referenz wie sie die MOLA-Karte darstellt, wenn er schreibt: »Ein Datenbild mit Höhenangaben des Mars existiert also schon immer als Vorbild

B ILDERW ISSEN | 155

und die Verbesserung wird erzielt, indem die Orientierungppunkte […] PLWGHQhEHUÀXJÀlFKHQYHUJOLFKHQZHUGHQ©(UVSULFKWYRPªDSULRULGHU Mola-Daten«, die als visualisierte Daten zur visuellen Referenz werden. »MOLA ist unsere Wahrheitskontrolle«, so die Forscher am DLR. Die Bilder der HRSC-Kamera werden also verglichen mit der MOLA-Karte. Der Vergleich von Bildern, der Vergleich der Sichtbarmachungen ist somit zentraler Bestandteil des Forschungsprozesses. Die Bilder erhalten als visualisierte Daten eine Eigenständigkeit im Forschungsprozess, insbesondere dort, wo das untersuchte Objekt, wie beispielsweise der Mars, nicht unmittelbar zugänglich ist, sondern Daten zu (Daten)Bildern werden, die dann die »Arbeitsbank« darstellen und den Forschungsprozess EHVWLPPHQ.ODULVWGDEHLGDVVHVªNHLQHUHDOHQ%LOGHUGHU0DUVREHUÀlche gibt«; es handelt sich um Datenvisualisierungen, die in einem komplexen Prozess entstehen und die dann zum Werkzeug der Marsforscher werden. Gleichwohl handelt es sich um Visualisierung gemessener Daten. Die Bilder, mit denen die Marsforscher im Forschungsprozess parallel zur Realität arbeiten, haben einen indexikalischen Grund. So dient der visuelle Vergleich mit der MOLA-Karte als Test, ob das, was man sieht, wirklich »da« ist oder lediglich ein instrumentell erzeugtes Artefakt darstellt. D.h. Wissenschafter nehmen eine Setzung vor, entscheiden sich für eine visuelle Referenz, eine Visualierung von Daten, die als »gesichert« gilt und die die Brücke zur »Realität« bildet und daher als kritische Referenz (vgl. Kapitel II. 3 in diesem Buch) fungiert. Noch deutlicher wird dies am Beispiel der Millenium-Simulation. Einerseits werden die Daten zur »zweiten Realität«, zu quasi-natürlichen Objekten. Doch, wie Jan Frercks schildert, werden die Simulationsdaten immer mit Beobachtungsdaten verglichen. Auch hier lässt sich einerseits die Entstehung eines visuellen 3DUDOOHOGLVNXUVHVEHREDFKWHQ$EHUDXFKKLHU¿QGHWDQGHUHUVHLWVGHU9HUsuch der Rückbindung der Simulation an »indexikalische Daten« statt, indem der Prüfstein für die Simulation immer gemessene Beobachtungsdaten sind. Die theoretischen Modelle werden an die Beobachtung angepasst, so drückt es Jan Frercks aus: »Wenn Simulation und Beobachtung nicht übereinstimmen, hat immer die Beobachtung recht«. Der Bildvergleich der Simulation mit der Beobachtung, so könnte man auch sagen, erhält, so jedenfalls die Absicht der Wissenschaftler, einen realen Grund, eine indexikalische Versicherung. Zweifellos sind auch diese indexikalischen Wissenschaftsbilder, seien es Wissenschaftsphotographien, Diagramme, Computerbilder etc., keine mimetischen Abbildungen einer Wirklichkeit, sondern vielmehr hochkonstruierte, vielfach um- und überschriebene Produkte eines komplexen Erkenntnisprozesses; dies machen die Beschreibungen im ersten Teil des Buches allzu deutlich. Ein erheblicher Anteil heutiger Wissenschaftsbilder

156 | D ATENBILDER basiert auf Messdaten, die nichtsichtbaren Phänomenen abgerungen werden, was die Idee einer visuellen Ähnlichkeit per se konterkariert. Die Daten stammen aus Bereichen, die den menschlichen Sinnen nicht zugänglich sind. Kurz gesagt: die Objekte der Naturwissenschaften wurden zunehmend unanschaulich, unsichtbar und werden dennoch – oder gerade deshalb – »ins Bild gesetzt«. Objekte, Phänomene ohne Form und Gestalt erhalten ein Aussehen. In Naturwissenschaften geht es also offensichtlich nicht darum, dass Bilder, wie eine platonische Denkweise Glauben machen könnte, (visuelle) Ähnlichkeiten mit dem Abgebildeten haben. Prämisse des im System Wissenschaft legitimen Wissenschaftsbildes bleibt jedoch gleichwohl sein grundsätzlicher indexikalischer Zeichencharakter. Es beansprucht, Sinn und Erkenntnis zu erzeugen, auf etwas in der Wirklichkeit Vorhandenes zu verweisen, von dem es behauptet, es »adäquat« darzustellen. Innerhalb des Systems Wissenschaft gehört dies zu den grundlegenden Bedingungen eines Wissenschaftsbildes. Der Zeichencharakter ist Wissenschaftsbildern somit eine condition sine qua non. Semiotische Theorien sind daher für die Wissenschaftsforschung hilfreich. Nun beansprucht die Semiotik, eine universelle Theorie zum Verständnis des Bildes zu liefern, zumal sie für alle Zeichen Geltung beansprucht. Sie geht davon aus, dass Bilder notwendigerweise Zeichen sind. Zwar ist es fragwürdig, alle Bilder zu Zeichen zu erklären, insofern hier gerade das genuin Bildliche vernachlässigt wird. Gleichwohl bietet dies für Wissenschaftsbilder mit ihrem Geltungsanspruch ein brauchbares InVWUXPHQWDULXPLKUHU$QDO\VHLQGHPHVGLH%HJULIÀLFKNHLWOLHIHUWVLH]X beschreiben und zu verstehen. Gerade der Begriff des Indexikalischen fasst den Anspruch von Wissenschaftsbildern. Sie behaupten, auf eine »Spur«, auf ein real existierendes Phänomen zu verweisen, das beobachtet, gemessen wurde. Auf gemessenen Daten beruhende Visualisierungen sind der Prüfstein für Simulationsdaten oder sie dienen, wie in der Marsforschung, als gesicherte Referenz. Aufgabe der Wissenschaftsforschung ist es nicht nur, diese Funktionsweisen und Legitimationsweisen der Forscher aufzuzeigen, sondern auch den Status dieses Indexikalischen im Einzelfall zu prüfen. Denn das entscheidendes Problem, worauf sich wissenschaftliche Bilder wie beziehen, womit sie korrespondieren, welchen Stellenwert dieses Indexikalische in den mannigfachen Transformationsprozessen jeweils hat, ist der Kernpunkt ihres epistemischen Status und das Kriterium für die Erfüllung ihres eigenen Anspruchs. Gerade »(d)er Anspruch wissenschaftlicher Bilder […] ›etwas mit der Wirklichkeit‹ zu tun zu haben, berührt bezüglich des Bildstatus […] das zentrale Problem«, so auch Heintz und Huber (Heintz/Huber 2001a: 32). Sind semiotische Theorien für die Analyse von Wissenschaftsbildern

B ILDERW ISSEN | 157

also als analytische Werkzeuge hilfreich, so wurde berechtigterweise Kritik an semiotischen Totalitätsansprüchen in der Bildtheorie geübt, und zwar vor allem aus der Perspektive phänomenologischer Theorien. Sie sind im Gegensatz zu semiotischen Theorien, die Bilder als Zeichen auffassen und sie von ihrem Zeichencharakter her betrachten, mit dem Bildlichen des Bildes beschäftigt. Während semiotische Theorien immer relational denken, d.h. die Referentialität von Bildern, ihre Beziehung zu einem Gegenstand zentral ist, so argumentieren phänomenologische Theorien aisthetisch, indem sie dem Bild eine eigene Realität zugestehen. Wie Lambert Wiesing betont, besteht der phänomenologische Ansatz darin, »dass hier eine Philosophie entwickelt wird, die sich einem ausschließlich in Bildern beobachtbaren Phänomen zuwendet: auf einem Bild sind Dinge sichtbar, die nur sichtbar sind« (Wiesing 2000: Klappentext). Phänomenologische Theorien werden Bildern als Bildern somit in LKUHU 6SH]L¿N HKHU JHUHFKW DOV =HLFKHQWKHRULHQ GLH %LOGHU EOR‰ DOV HLQ Zeichenformat neben anderen fassen. Denn phänomenologische Theorien betonen gerade den Eigenwert des Bildes. Bilder zeigen etwas, was nur auf dem Bild zu sehen ist, was ohne das Bild nicht zu sehen wäre (Wiesing 2000: 10). Der Darstellung im Bild wird ein eigener ontologischer Status zugebilligt, eine eigene Seinsform. Das, was im Bild zu sehen ist, ist ein Objekt der Wahrnehmung, ein imaginäres Ding, reine Sichtbarkeit (Wiesing 2005: 33). Edmund Husserl interpretierte die Darstellung im Bild nicht als eine Form von Sinn und Inhalt, sondern als eine Art Objekt. Er sprach hier vom »Bildobjekt« als dezidiert antisemiotischem Gegenbegriff (Wiesing 2005: 30). Das imaginäre Bildobjekt ist nur im Bild sichtbar. Lambert Wiesing verwendet hierfür, im Anschluss an Husserl, den %HJULIIGHUªDUWL¿]LHOOHQ3UlVHQ]©GHULP%LOGVLFKWEDUHQ2EMHNWHDOVGHP VSH]L¿VFKHQ0HUNPDOMHGHQ%LOGHV1XUHLQVROFKHU%LOGEHJULIIN|QQHGDV Bild mit seiner »unersetzbaren Leistung« erfassen, so Wiesing (Wiesing 2005: 7). Phänomenologische Theorien insistieren mithin auf den »Eigenwert« des Bildes, der es unmöglich mache, Bilder auf einen Zeichencharakter zu reduzieren. Sie stellen eine eigene »Seinsweise«, eine eigene Wirklichkeit dar. Wenden sich phänomenologische Bildtheorien somit gegen die Vorherrschaft eines interpretierenden, verstandesgemäßen, das Bild auf seinen Sinngehalt reduzierenden Zugangs zu Bildern, so ist aus Sicht der Analyse von Wissenschaftsbildern darauf zu insistieren, dass Wissenschaftsbilder gewissermaßen eine besondere Bildgattung darstellen, insoIHUQVLHVLFKJHUDGHGDGXUFKGH¿QLHUHQGDVVVLHGHQ$QVSUXFKHUKHEHQ Sinn zu produzieren, verstandesgemäß interpretierbar zu sein und rationale Aussagen über die Wirklichkeit zu machen. Wissenschaftsbilder sind Zeichen und Bilder: bildhafte Zeichen. Man wird ihnen nur gerecht, wenn

158 | D ATENBILDER man fragt, wie ihre Bedeutung, ihre Aussage zustande kommt, und zugleich fragt, wie sie dies als Bilder tun. Letzteres stellt allerdings wiederum die Leerstelle semiotischer Theorien dar. Es ist jedoch unabdingbar, die ästhetischen Verfahrensweisen der bildlichen Erkenntnisproduktion sowie die Struktur der bildlichen Logik zu untersuchen, um dem genuin Bildlichen der Wissensproduktion auf die Spur zu kommen. Im Hinblick auf Wissenschaftsbilder sind also semiotische und phänomenologische Theorien keineswegs sich ausschließende Entwürfe, so die These. Auch wenn es auf den ersten Blick scheint, dass phänomenologische Theorien im Kontext von Wissenschaftsbildern kaum hilfreich sein könnten, da es nicht deren eigenem Anspruch gemäß ist, vom Bildobjekt zu sprechen oder Bildern eine eigene Seinsweise zuzubilligen, da sie schließlich Werkzeuge sind, und, wie Boehm betonte, ihren Zweck außerhalb ihrer selbst haben. Gleichwohl, in der Debatte um die Verwendung des Repräsentationsbegriffs, aber auch in der Diskussion um BildWUDGLWLRQHQ XQG NRQYHQWLRQHQ NODQJ EHUHLWV DQ GDVV VLFK %LOGHU KlX¿J auf andere Bilder beziehen, mehr als auf eine Referenz in der Wirklichkeit, dass Konventionen, Stile und Sehgewohnheiten die Darstellung des indexikalischen Grundes mitprägen und überformen. Gerade um Unsichtbares darstellen zu können, muss an vertraute Formen angeknüpft werden, während das Indexikalische des Wissenschaftsbildes, das, was erklärt, kommuniziert, gezeigt werde soll, im Grunde nicht sichtbar ist, sondern mittels Konvention in eine Sichtbarkeit überführt wird. Inwieweit dies als Codierung, als Konvention erkannt wird, als eine Darstellungsform, die zeitgenössischen Sehweisen und Darstellungstraditionen entspricht, hängt vom Wissen des Betrachters ab, und damit davon, ob das auf dem Bild Gezeigte den Status eines Zeichen oder eines Bildobjekts einnimmt. Chemiker betrachten beispielsweise, wie oben erwähnt, die Begrenzung des Wassermoleküls, das eigentlich keine hat, als einen Code, eine konventionalisierte Darstellungsform, wohlwissend, dass es keine Begrenzung gibt. Physiker sehen die runden Kugeln, die Atome darstellen als eine Darstellungskonvention, denn Atome sind ein theoretisches Konstrukt, die per se keine Form haben. Sie sehen diese Bilder als Zeichen; Laien sehen jedoch runde Kugeln und begrenzte Moleküle, ohne dies unbedingt als Symbol, als konventionalisiertes Konzept zu begreifen. Wissenschaftsbilder entfalten auf diese Weise unter Umständen ein eigenes Sein, insofern sie als wahrgenommenes Objekt eine eigene Wirklichkeit entfalten, die es nur auf dem Bild gibt, insofern sie als Atome wahrgenommen werden und real scheinen. Sie sind dann ein Bildobjekt. Phänomenologische Denk- und Sprechweisen sind daher auch für Wissenschaftsbilder hilfreich. Sie können, so die These, als kritisches Instrument dienen, um den Status der Bilder im Erkenntnis- und Ver-

B ILDERW ISSEN | 159

mittlungsprozess zu beschreiben: Werden sie als Zeichen gelesen und in ihrer Symbolhaftigkeit verstanden, oder entfalten sie ein eigenes »Leben« jenseits des Zeichencharakters? Den Extremfall stellt der Betrachter mit wenig Vorwissen dar, für den Wissenschaftsbilder in ihrer im Bild nicht erkennbaren Konstruiertheit, in ihrer Konventionalität, zu einem nicht verstandenen Faszinosum werden können, zu einem Bildobjekt, das eine Existenz annehmen kann, jenseits seiner Codiertheit, seines Zeichencharakters, indem der Betrachter beispielsweise glaubt, er sehe ein Atom – das es gar nicht gibt. Aber auch für Wissenschaftler selbst, die Bilder als Zeichen produzieren, werden Bilder zu einer eigenen Realität, zu einer Parallelwelt, zu einem Bildobjekt. Phänomenologische Theorien liefern daher ein kritisches Werkzeug, um den Status von Bildern zwischen Zeichen und Bildobjekt fassen zu können. Auch hier ist im Detail zu schauen, einzuschätzen, denn weder sieht ein laienhafter Betrachter, der populäre :LVVHQVFKDIWVPDJD]LQH OLHVW ]ZDQJVOlX¿J HLQ %LOGREMHNW QRFK VHKHQ Naturwissenschaftler in den Wissenschaftsbilder nur die Codes, nur das Zeichenhafte. Die Rolle des Betrachters, die Frage, ob er Bilder ›liest‹ oder ›betrachtet‹, ist für die Analyse von Wissenschaftsbildern, für das Verstehen ihres Status und ihrer Wirkung, für ihr Funktionieren, also unabdingbar.

4. Sinnproduk tion durch den Betrachter Mitchell bezeichnete Bilder als eine Sorte Zeichen, die sich trügerisch im Gewand von Natürlichkeit und Transparenz präsentieren, hinter denen sich aber ein opaker, verzerrender, willkürlicher Mechanismus der ReSUlVHQWDWLRQHLQ3UR]HVVLGHRORJLVFKHU0\VWL¿NDWLRQYHUEHUJH 0LWFKHOO 1990: 18). Gerade Wissenschaftsbilder, vor allem im Bereich der ÖffentOLFKNHLW SUlVHQWLHUHQ VLFK WDWVlFKOLFK KlX¿J WUJHULVFK LP *HZDQG YRQ Sehkonventionen, Darstellungstraditionen, teils auch im »Gewand von Natürlichkeit«, während sie hoch konstruierte, künstliche Gebilde sind. %LOGHUVLQGDXIJUXQGHUOHUQWHU.RQYHQWLRQHQXQGHLQHVVSH]L¿VFKHQ:LVsens und nicht aufgrund einer sichtbaren Ähnlichkeit Bilder desjenigen, von dem sie Bilder sein wollen. Nach Gombrich und Eco erkennen wir auf Bildern etwas, wenn die Darstellungskonvention mit der Wahrnehmungskonvention übereinstimmt. Dies scheint ein wesentlicher Punkt für das Verständnis von Wissenschaftsbildern zu sein. Kristallisieren sich innerhalb einer wissenschaftlichen community Darstellungscodes heraus, so müssen umgekehrt die Betrachter über die entsprechenden Erkennungscodes verfügen, um die Bilder »lesen« zu können. Gernot Böhme warf allerdings kritisch gegenüber Gombrich und Eco die Frage auf, was passiere, wenn

160 | D ATENBILDER Darstellungscode und Wahrnehmungscode (man könnte auch sagen Produktionscode und Rezeptionscode) nicht übereinstimmen, z.B. durch historische Distanz. Trotzdem sieht der Betrachter etwas auf dem Bild, allerdings anderes als der »Experte«. Für ihn gewinnt das Bild – im phänomenologischen Sinne – ein eigenes Sein, es wird zum Bildobjekt. »Das Auseinanderlaufen von Wahrnehmungskonvention und Darstellungskonventionen impliziert eine relative Selbständigkeit der Darstellungskonvention und damit die Möglichkeit, dass Bilder existieren, die nichts abbilden«, so Gernot Böhme (Böhme 1999: 34). Böhme rekurriert auf den unterschiedlichen Blick eines kunstverständigen Betrachters, der einen Rembrandt betrachtet, und eines nicht Kunstverständigen, der zwar vieles nicht sieht, was der Kunstsachverständige entziffern kann (beispielsweise die Vanitassymbole), der jedoch gleichwohl vieles und anderes als der Kunstsachverständige sieht. Wissenschaftsbilder müssen entsprechend darauf hin untersucht werden, wie mit dieser Kluft zwischen Darstellungscode und Wahrnehmungscode umgegangen wird, inwieweit die Bilder überhaupt auf ein Sinnverstehen, auf ein Erklären naturwissenschaftlicher Phänomene zielen oder doch eher auf die Faszination durch ein Bildobjekt, das betrachtet, jedoch nicht verstanden wird. Viele Wissenschaftsbilder bleiben für die Betrachter schlicht unverständlich. Man könnte argumentieren, dass es um die »Stilllegung des analytischen Blicks« (Boehm 1999: 50) geht. Damit hängt der epistemische Status der Wissenschaftsbilder vom Wissen der jeweiligen Rezeption und Rezipienten und deren Kontext ab; davon, was sie über den Herstellungsprozess der Bilder und über die verwendeten visuellen Codes wissen. Hier lässt sich zum anderen an semiotische Theorien anschließen, die die Bedeutung von erlernten »Erkennungscodes« und Wahrnehmungskonventionen betonen. In diesem Sinne könnte man von unterschiedlichen »Kulturen der Bildbetrachtung« spreFKHQ 0LW GLHVHU %HJULIÀLFKNHLW LVW HLQH 8QWHUVFKHLGXQJ ]ZLVFKHQ YHUschiedenen Rezipientengruppen (im engeren fachlichen, im weiteren innerwissenschaftlichen Kontext sowie in verschiedenen Öffentlichkeiten) möglich. Zum anderen bieten hier aber auch, wie ausgeführt, phänomenologische Bildtheorien Anknüpfungspunkte für die Wissenschaftsforschung, insofern sie von »Bildobjekten« sprechen. Sie weisen darauf hin, dass das Sichtbare im Bild für Rezipienten einen eigenständigen Status aufweisen kann, während sein Referenzcharakter, der das Wissenschaftsbild nach seinem eigenen Verständnis doch auszeichnet, zurücktritt. Der %HJULIIGHU¾DUWL¿]LHOOHQ3UlVHQ]½YHUZHLVWDXIGLHVH(LJHQVWlQGLJNHLWHU unterstreicht, dass das, was Betrachter auf Bildern sehen, für diese eine selbständige Existenz besitzt, obgleich sie als Wissenschaftsbilder ›ge-

B ILDERW ISSEN | 161

lesen‹ werden müssen, die etwas visualisieren, was es in der gezeigten Form nicht gibt und was nur mit entsprechendem Vorwissen über den Herstellungsprozess und darüber, worauf es verweist, verstanden werden kann. ›Bildobjekt‹ meint also gerade nicht die Bildreferenz, sondern die Eigenständigkeit der zu sehenden Figuren oder Strukturen. Rezipienten betrachten solche Bildobjekte unter Umständen als autonome Objekte, ohne sie als Zeichen für etwas oder als hergestellt und konstruiert wahrzunehmen. In dieser Differenz und ihren Effekten liegt eine hohe Brisanz für eine notwendige Bildkritik.

MARTINA HEssLER

II. 2 Implizite Bild- und Medientheorien

Reflexionen beim Verfertigen naturwissenschaftlicher Visualisierungen »Nonart images are partly the products of certain theories about images and about the world« (Elkins 1999: 35).

In ihrer Studie zur Ästhetik in der Astronomie kommen der Soziologe Michael Lynch und der Kunsthistoriker Samuel Y. Edgerton zu einem interessanten Schluss: Aus ihren intensiven Gesprächen und Beobachtungen entwickeln sie die These, dass sich ein ›Wissen‹ über Bildlichkeit und Repräsentation hinter der naturwissenschaftlichen Praxis verbirgt: »[…] a ›craft‹ of visual representation is hidden within the ordinary details of VFLHQWL¿F SUDFWLFH© /\QFK(GJHUWRQ    /\QFK XQG (GJHUWRQ werden in ihrer Feldstudie ständig mit ästhetischen Vorstellungen von Astronomen in Bezug auf den Visualisierungsprozess konfrontiert. Von dieser Offenheit der Astronomen gegenüber ästhetischen Fragestellungen VLQGVLHEHUUDVFKW /\QFK(GJHUWRQI  Unsere Beobachtungen und Gespräche bei den Planetenforschern in Berlin-Adlershof und den Kosmologen in Garching bestätigten diese Erfahrungen nur zum Teil. Unser Interesse galt allerdings über die Ästhetik der verwendeten Bilder hinaus vor allem den Bildpraxen der Astronomie sowie dem generellen alltäglichen Umgang mit Daten und Visualisierungen. Dabei ergibt sich am Ende unserer Studie als ein nicht vorhergesehenes Ergebnis, dass die beteiligten Wissenschaftler über bild- und medientheoretische Implikationen ihrer jeweiligen Bildpraxen intensiv nachdenken. Im Unterschied zu zuvor gestellten Fragen beispielsweise nach den äsWKHWLVFKHQ(LQÀVVHQGHU0DOHUHLDXIGLH:LVVHQVFKDIW (GJHUWRQ/\QFK

I MPLIZITE B ILD -

UND

M EDIENTHEORIEN | 163

  QDFK GHU ª6FK|QKHLW© YRQ QDWXUZLVVHQVFKDIWOLFKHQ 7KHRUHPHQ .XKQ RGHUQDFKGHUª$QVFKDXOLFKNHLW©YRQ9LVXDOLVLHUXQJHQ .HPS JHKWHVEHLGHU%HWUDFKWXQJGHU%LOGSUD[HQXPLPSOL]LWHXQG explizite Entscheidungen über visuelle und mediale Elemente des Forschungsprozesses. Mit Entscheidungen sind diejenigen Aktionen auf der Mikroebene alltäglicher wissenschaftlicher Praxis gemeint, die im Forschungsprozess und damit in der laufenden Bildpraxis sowohl bewusst als auch fast unbemerkt und nebenbei getroffen werden. Diese ›schleichende‹ Prozessualität schließt nicht aus, dass die Entscheidungen und ihre Ergebnisse innerhalb einer Forschergruppe oder der VFLHQWL¿FFRPPXQLW\ kontrovers diskutiert werden oder dass diese Entscheidungen Produkte von verinnerlichten, historischen Konventionalisierungen sind. Mit der Frage nach impliziten Bild- und Medientheorien werden demnach sowohl bewusste als auch unbewusste Entscheidungsprozesse thematisiert. Das Implizite betont insbesondere das Fehlen von Bild- und Medientheorien in der Astronomie, die ihre Spuren in der alltäglichen Bildpraxis der Forschung hinterlassen würden. Unter diesen Gesichtpunkten offenbaren sich drei heuristisch zu trennende Ebenen des Impliziten: Die Ebene des Unbewussten, die Ebene des Bewussten, aber nicht Expliziten und die Ebene des Expliziten, aber nicht als Bild- oder Medientheorie markierten. Nimmt man diese Ebenen des Impliziten in den Fokus, ergibt sich IDVW]ZDQJVOlX¿JGDV3UREOHPHLQHU9HUPLWWOXQJ]ZLVFKHQGHQEHREDFKteten Bildpraxen auf der Mikroebene einer Naturwissenschaft und der Makroebene der Wissenschaftsforschung, die allgemeine Aussagen über den naturwissenschaftlichen Forschungsprozess anstrebt. Das MikroMakro-Problem besitzt dabei mindestens zwei Dimensionen: Einerseits ist zu klären, inwieweit sich die impliziten Praxen der Naturwissenschaft in die explizite Theoriebildung in den Bild- und Medienwissenschaften überführen lässt. Andererseits erscheint es dringend geboten, die Verallgemeinerbarkeit von Fallstudien zu problematisieren. Dieses Mikro0DNUR3UREOHPOlVVWVLFKQDWUOLFKQLFKWYROOVWlQGLJDXÀ|VHQWURW]GHP ELHWHQVLFKHLQH5HLKHYRQ9HUPLWWOXQJVHEHQHQDQ YJO+HQQLJ  Diese hier getroffene partikulare Diagnose und ihre qualitativen Aussagen schließt erstens an eine Reihe allgemeiner Ansätze an, die eine steigende Bedeutung der Bildproduktion in den Naturwissenschaften IHVWVWHOOW VLHKH .DSLWHO ,, LQ GLHVHP %XFK  (QWJHJHQ GHU .XKQVFKHQ Aussage »Die wissenschaftlichen Abbildungen dagegen [im Vergleich zum Bild in der Malerei, R.A.] sind bestenfalls Nebenprodukte der wisVHQVFKDIWOLFKHQ7lWLJNHLW© .XKQ VLQGGLH%LOGSUD[HQLQGHU Astronomie längst untrennbares Element des Erkenntnisprozesses. Diese Transformation der naturwissenschaftlichen Praxis und damit der Er-

164 | D ATENBILDER kenntnisgewinnung ist ohne eine Reihe von Veränderungen im ForVFKXQJVSUR]HVVXQGHLQHULQWHQVLYHQ5HÀH[LRQEHUGLH3URGXNWLYLWlWGHU Bildproduktion nicht vorstellbar. Zweitens lassen sich zu weiteren aktuellen Untersuchungen der Bildpraxen der Mikroebene in anderen naturwissenschaftlichen Disziplinen 9HUJOHLFKH ]LHKHQ YJO +HQQLJ   9RQ GHQ MHZHLOV VSH]L¿VFKHQ (Ugebnissen für die Einzelwissenschaften abgesehen, entstehen in ihrer Synthese übergreifende Erkenntnisse, an denen sich gemeinsame Trends ablesen lassen. Insgesamt zeigen die einzelnen Bildpraxen ein Muster von LPSOL]LWHQXQGH[SOL]LWHQ ELOGWKHRUHWLVFKHQhEHUOHJXQJHQGLHLPKLVWRrischen Kontext der Digitalisierung einen Schub erfahren haben. Mit der Digitalisierung sind drittens die medialen Bedingungen konkreter Visualisierungen in den Einzelwissenschaften angesprochen, die auf allgemeine Bedingungen naturwissenschaftlicher Visualisierungen aufmerksam machen. Im Laufe der Gespräche mit den Planetenforschern und Kosmologen stellte sich beispielsweise heraus, dass es außer in der Medizin kaum spezialisierte kommerzielle Software für die Produktion YRQ9LVXDOLVLHUXQJHQJLEW'DGXUFKNRPPWHV]ZDQJVOlX¿J]XHLQHU5HÀH[LRQGHU%LOGKHUVWHOOXQJGDGHUHQ3UR]HVVHQLFKWKLQWHUGHUJUDSKLVFKHQ Nutzerschnittstelle einer Software verborgen sind. Die VisualisierungsSUR]HVVHODXIHQQLFKWDXIHLQHU3KRWRVKRS2EHUÀlFKHPLWDXWRPDWLVLHUWHQ Funktionen ab, sondern müssen erarbeitet, programmiert sowie von den ›Marsforschern‹ und Astrophysikern selbst durchdacht bzw. ausgedacht werden. 9RU GLHVHP VNL]]LHUWHQ +LQWHUJUXQG HUODXEW DXFK GLH .RQ]HQWUDWLRQ auf zwei Projekte aus Astrophysik und Marsforschung eine Erweiterung der Perspektive der Wissenschaftsforschung, indem eine implizite Bildund Medientheorie in den Naturwissenschaften ernst genommen wird. Unsere Erkenntnisse auf der Mikroebene weisen eine erhebliche Relevanz für das gesamte bild- und medientheoretische Selbstverständnis in naturwissenschaftlichen Bildpraxen auf. Aus der Beobachtung der Bildpraxen ergeben sich folgende Thesen als Ausgangspunkte allgemeinerer hEHUOHJXQJHQ]XLPSOL]LWHQ%LOGXQG0HGLHQWKHRULHQ ‡ Die Bildpraxen in den Naturwissenschaften sind geprägt von einer LQWHQVLYHQ5HÀH[LRQPHGLDOHU(OHPHQWHXQGYLVXHOOHU9HUIDKUHQ ‡ Während der alltäglichen Bildproduktion in der naturwissenschaftlichen Praxis ist eine mitlaufende Theoretisierung und Kritik zu beobachten. 1 | ,FKP|FKWH]ZLVFKHQ7KHRUHWLVLHUXQJXQG7KHRULHXQWHUVFKHLGHQ,Q GHQ %LOGSUD[HQ VLQG (OHPHQWH GHU 7KHRUHWLVLHUXQJ ]X ¿QGHQ GLH QLFKW DOV

I MPLIZITE B ILD -

UND

M EDIENTHEORIEN | 165

‡ Die Bildpraxen in den Naturwissenschaften sind keineswegs ›trivial‹ oder ›naiv‹. ‡ Implizit werden mit den wissenschaftlichen Aktivitäten auf der Mikroebene ständig medien- und bildtheoretische ›Entscheidungen‹ getroffen. Dadurch entwickeln die Naturwissenschaften eine Bild- und Medientheorie ›by doing‹. Teile dieser Bild- und Medientheorie sind folglich nicht explizit und müssen aus der wissenschaftlichen Praxis rekonstruiert werden. ‡ In der Untersuchung konkreter medialer und visueller Praxen der aktuellen naturwissenschaftlichen Wissensproduktion liegt ein wichtiger Beitrag für die Wissenschaftsforschung. Die impliziten Bild- und Medientheorien bleiben fragmentarisch. Die folgenden Beispiele rekonstruieren diese Theoretisierungen als Fragmente und nicht als eine ausformulierte Bild- oder Medientheorie. Bildtheorien entstehen in der Regel mit Abstand zur bildgebenden Praxis. Beispielsweise beschäftigt sich die Kunstgeschichte in den letzten Jahren zunehmend mit wissenschaftlichen Bildern. Die umstrittene Erweiterung ihres Bildbegriffs erfolgt erst auf die technischen Bilder wie )RWRJUD¿HRGHU)LOP'LHVH9LVXDOLVLHUXQJVPHGLHQZHUGHQGDQQLQDOOHQ .RQWH[WHQXQWHUVXFKW,QIROJHGHVVHQNRPPHQGLHLQ QDWXU ZLVVHQVFKDIWOLFKHQ.RQWH[WHQWVWDQGHQHQ%LOGHUKLQ]X VLHKH]%%RHKPRGHU (ONLQV   'DPLW ZDQGHOQ VLFK DXFK GLH 3HUVSHNWLYHQ XQG =XVWlQGLJNHLWHQHLQHUVROFKHQ%LOGUHÀH[LRQ6LQG]XYRUGLH(LJHQVFKDIWHQXQG Funktionen des Bildes als Ausdrucks- und Wahrnehmungsprodukt ein zentrales Anliegen der Bildtheorie, so muss es mit der Einbeziehung von wissenschaftlichen Bildern zur Betrachtung der epistemologischen Effektivität von wissenschaftlichen Visualisierungen in Wissenschaft und Gesellschaft kommen. :lKUHQGGLH%LOGUHÀH[LRQDQGLH1DWXUZLVVHQVFKDIWYRQDX‰HQDQJHOHJWZHUGHQNDQQZLUGGLH%LOGUHÀH[LRQLQGHQQDWXUZLVVHQVFKDIWOLFKHQ Praxen bisher kaum thematisiert. Natürlich erscheint auch die hier vertreWHQH$QQDKPHHVJlEHHLQH%LOGUHÀH[LRQGLHGHQ%LOGSUD[HQLQKlUHQWLVW ZLHGHUXPDOV 5H .RQVWUXNWLRQYRQ$X‰HQ'LHVH3UREOHPDWLNLVW7HLO der Beschreibung und Einordnung der impliziten Bildtheorien der Naturwissenschaften. Gegen dieses konstruktivistische Argument spricht, dass in den untersuchten Feldern der Astronomie sehr wohl über den Gebrauch und die Konstruktion von Visualisierungen gesprochen und geschrieben NRKlUHQWHXQG¿[LHUWH7KHRULHQQLHGHUJHOHJWZHUGHQN|QQHQ$XIGLH)UDJmentierung und Prozessualität der Theoretisierung werde ich noch näher eingehen.

166 | D ATENBILDER ZLUG8QWHUZHLWHUHU(LQEH]LHKXQJGHUGDPLWYHUEXQGHQHQ+DQGOXQJHQ Wahrnehmungen und Bildmanipulationen erscheint es gerechtfertigt, von HLQHU5HÀH[LRQ]XVSUHFKHQ,P)HOGGHU3RSXOlUNXOWXUYHUIROJWGHU0Hdienwissenschaftler John T. Caldwell einen ähnlichen Ansatz, wenn er anhand der von ihm beobachteten Praxen in der Film- und FernsehproGXNWLRQLQ+ROO\ZRRGYRQHLQHUªLQGXVWULDOUHÀH[LYLW\©VSULFKWGLHXQWHU anderem auf Mikrostrategien einzelner Akteure und auf Makrostrategien GHU,QGXVWULHEDVLHUHQ &DOGZHOO $XVGLHVHUSURGXFWLRQFXOWXUH entstehen emergente Effekte wie wir sie auch bei den Bildpraxen in den Astronomie gefunden haben. Diese Effekte sind zwar keiner zentralen Bild- und Medientheorie unterworfen, aber sie sind auf andauernde bildXQGPHGLHQUHÀH[LYH$XVHLQDQGHUVHW]XQJHQLQGHQ%LOGSUD[HQDQJHZLHsen, um einen bestimmten visuellen Output zu produzieren.

Natural – Representative – Enhanced Das erste Beispiel stammt nicht aus unseren Fallstudien. Aber vielleicht ist es sinnvoll, über eine Bildpraxis einzusteigen, die die Auseinandersetzung mit dem Bild und seinen medialen Verfahren selbst in die Kommunikation mit der Öffentlichkeit einspeist. $XIGHU:HEVLWHGHV+XEEOH7HOHVNRSV http://hubblesite.org JLEW es die Rubrik %HKLQGWKH3LFWXUHV+LHUZLUGEHUHLWVLP7LWHOGLHUHÀH[LYH Ebene zum Ausdruck gebracht, mit dem Versprechen, hinter die Kulissen GHU%LOGSURGXNWLRQVFKDXHQ]XN|QQHQ'LHVHURIIHQH8PJDQJPLWGHP NRQVWUXNWLYHQ &KDUDNWHU GHU 'DWHQELOGHU GHV +XEEOH7HOHVNRSV EH]HXJW GLHLQGHU$VWURQRPLHYRUKDQGHQH5HÀH[LRQEHUbVWKHWLN)RUP(QWVWHhung und Referenz der Bilder.2 In einem Unterpunkt zu %HKLQGWKH3LFWXUHV wird die Farbgebung der +XEEOH%LOGHUDXVIKUOLFKHUOlXWHUW,Q7KH0HDQLQJRI&RORULQ+XEEOH ,PDJHV wird einem unterstellten Naturalismus der Bilder eindeutig eine Absage erteilt. Stattdessen werden die Bildoperationen der Sichtbarmachung und Transformation aus der Bildpraxis dargelegt. Die Visualisierungen werden als Datenbilder und nicht als Abbilder präsentiert: »The colors in Hubble images, which are assigned for various reasons, aren't always what we'd see if we were able to visit the imaged objects in a space-

2 | bKQOLFKH $XVVDJHQ ¿QGHQ VLFK DXFK LQ HLQHU (SLVRGH GHV YRQ GHU

1$6$XQG(6$SURGX]LHUWHQ9LGHR3RGFDVW]XP+XEEOH7HOHVNRS: +XEEOHFDVW0DNLQJWKHXQLYHUVHFRPHWROLIHEHKLQGWKH+XEEOHLPDJHVvom 

I MPLIZITE B ILD -

UND

M EDIENTHEORIEN | 167

craft. We often use color as a tool, whether it is to enhance an object's detail or to visualize what ordinarily could never be seen by the human eye.«3

)DUEHZLUGDOV:HUN]HXJ WRRO EHQXW]WXQGGDPLWLVWLQGLHVHP.RQWH[W LKUHUHÀH[LYHXQGEHZXVVWH9HUZHQGXQJJHPHLQW'DVVFKOLH‰WQLFKWDXV dass sich nicht doch unbewusste Prozesse in die Farbgebung einschleusen N|QQHQZHOFKHEHLVSLHOVZHLVHGLH)DUENRQYHQWLRQHQYRQ6WHUQHQ*DOD[LHQ RGHU 3ODQHWHQ EHWUHIIHQ 'LHVH (LQÀVVH VLQG ZDKUVFKHLQOLFK XQG werden durch ästhetische Entscheidungen ergänzt. Beides – bewusste und unbewusste Prozesse der Farbgebung – bilden Fragmente einer impliziten %LOGWKHRULHGHU+XEEOH$VWURQRPHQ

$EE8QWHUVFKHLGXQJGHV)DUEHLQVDW]HVDXI+XEEOHVLWH Auf +XEEOHVLWH werden drei Arten des Einsatzes von Farbe unterschieden $EE  'HU(LQVDW]YRQªQDWXUDOFRORU©DOVHLQH6LPXODWLRQYRQªQDWUOLFKHU :DKUQHKPXQJ©GHUDVWURQRPLVFKHQ3KlQRPHQH'LH%LOGSUD[LVEDVLHUW hier auf wahrnehmungstheoretischen Annahmen: Was würden unsere 3 | KWWSKXEEOHVLWHRUJJDOOHU\EHKLQGBWKHBSLFWXUHVPHDQLQJBRIBFRORULQGH[SKS

168 | D ATENBILDER Augen sehen, wenn sie bestimmte Objekt mit einem Raumschiff besuFKHQN|QQWHQ"ª7KHFRORUVLQWKLVLPDJHRIDJDOD[\ZHUHFKRVHQWRVLmulate the colors that our eyes might see if we were able to visit it in a VSDFHFUDIW©  0LW ªUHSUHVHQWDWLYH FRORU© ZLUG GHU 0RGXV GHU )DUEJHEXQJ EHschrieben, in dem es um wissenschaftliche Markierungen in einem Bild geht. In diese ästhetische Kategorie fallen alle Versuche, Unsichtbares sichtbar zu machen. Das Ziel ist hierbei die Darstellung von wissenschaftlich interessanten, aber für das menschliche Auge unsichtbaren Phänomenen im Universum: »Representative color helps scientists visualize what would otherwise be invisible, such as the appearance of an object LQLQIUDUHGOLJKW©  8QWHU GHU %LOGNDWHJRULH ªHQKDQFHG FRORU© YHUVWHKW GLH ª+XEEOHVLWH©DOOH9HUVXFKHGHUDVWURQRPLVFKHQ%LOGSUD[LVGXUFK)DUEJHEXQJEHstimmte Details und Strukturen von Objekten sichtbar zu machen. »Enhancing the visible colors in an image often brings out an object's subtle VWUXFWXUDOGHWDLO© Mit diesen drei ästhetischen Kategorien mit Bezug zur Farbgebung SUlVHQWLHUW+XEEOHVLWHGDV(UJHEQLVHLQHU5HÀH[LRQGHUHLJHQHQ%LOGSUDxis, die mehrere Ebenen problematisiert. Dies wird insbesondere auf der Webseite deutlich, die Bilder ein und desselben astronomischen Objektes ]HLJW GLH MHZHLOV PLW HLQHP XQWHUVFKLHGOLFKHQ )DUE¿OWHU DXIJHQRPPHQ ZXUGHQ $EE 

$EE(UOlXWHUXQJGHU:LUNXQJYRQ/LFKW¿OWHUQDXI+XEEOHVLWH Von einem astronomischen Objekt werden auf diese Weise sieben sehr unterschiedliche Datenbilder gewonnen. Die Funktion der Filter wird im Be-

I MPLIZITE B ILD -

UND

M EDIENTHEORIEN | 169

$EE(UNOlUXQJGHU)DUEJHEXQJGHV0DUVDXI+XEEOHVLWH

170 | D ATENBILDER gleittext ebenso erläutert wie die Lücken in der Aufnahme bestimmter :HOOHQOlQJHQ GXUFK +XEEOH 'LH $XIQDKPHQ YRQ VLFKWEDUHQ XOWUDYLRletten und infraroten Lichtwellen unterscheiden sich so stark, dass das aufgenommene Objekt nicht durch Bildähnlichkeiten als ein und dasselbe LGHQWL¿]LHUWZHUGHQN|QQWH'LH,GHQWL¿]LHUXQJHUIROJWVWDWWGHVVHQEHU GHQ8PZHJGHU+LPPHOVNRRUGLQDWHQDOVRHLQHUH[DNWHQ*HJHQVWDQGEHstimmung, die in anderen Naturwissenschaften meist nicht zur Verfügung steht. Mit den Visualisierungen aus unterschiedlichen WellenlänJHQEHUHLFKHQZHUGHQVSH]L¿VFKH'DWHQELOGHUGHU$VWURQRPLHSURGX]LHUW die jeweils unterschiedliche Aussagen über ein Objekt im Universum zulassen. Auf +XEEOHVLWH werden damit implizit mediale und visuelle Verfahren SUREOHPDWLVLHUW XQG UHÀHNWLHUW GLH GDV 2EMHNW DVWURQRPLVFKHU (UNHQQWQLVVXFKHNRQVWLWXLHUHQ,QGHU1XW]XQJHLQHUHLJHQVWlQGLJHQ%HJULIÀLFKkeit – QDWXUDO, UHSUHVHQWLYH und HQKDQFHG – sowie ihrer Differenzierung und schlüssigen Erläuterung wird zumindest ein fragmentarischer bildtheoretischer Ansatz entwickelt, der sich allein aus den Bildpraxen der +XEEOH$VWURQRPHQHUJHEHQKDWXQGGHUVLFKXQDEKlQJLJYRQNXOWXUZLVsenschaftlichen Bildtheorien erweist. Mit diesem bildtheoretischen Ansatz sind weitergehende medientheRUHWLVFKHXQGHSLVWHPRORJLVFKHhEHUOHJXQJHQYHUEXQGHQ=XDOOHUHUVWLQ der einfachen und naheliegenden Art der Thematisierung der Sichtbarmachung des Unsichtbaren. Mit der Aufnahme verschiedener und außerhalb des sichtbaren Lichts liegenden Wellenlängen werden unsichtbare Elemente eines astronomischen Objekts für die Wissenschaft erst erkennbar und erfassbar. Damit stellt sich die Frage nach der Konstruktion des Forschungsobjektes, das aus seiner Unsichtbarkeit ins Licht der NaturwissenVFKDIWJHEUDFKWZLUG=ZHLIHOORVVW|‰WGLH5HÀH[LRQKLHUDQHLQH*UHQ]H in dem die Existenz dieser Objekte oder deren unsichtbarer Elemente in der Astronomie nicht problematisiert wird. Während die Produktion der %LOGHU|IIHQWOLFKNHLWVZLUNVDPSUlVHQWLHUWZLUGVFKZHLJWVLFK+XEEOHVLWH über die Verarbeitung der Daten, die diesen Bilder zugrunde liegen, weitestgehend aus. Was passiert EHKLQGWKHGDWD" Wie wir am Beispiel der Millennium-Simulation sehen werden, kann ihr Bezug zur Realität auf strukturelle Ähnlichkeit mit beobachtbaren 3KlQRPHQHQUHGX]LHUWVHLQ YJODXFK.DSLWHO,LQGLHVHP%XFK ,QVRfern muss die Frage nach der Existenz der Forschungsobjekte nicht unbeGLQJWY|OOLJDXVJHVFKORVVHQVHLQ Im Weiteren wird auf +XEEOHVLWH der Unterschied zwischen Bildern für die Wissenschaft und Bildern für die Öffentlichkeit thematisiert: Während im astronomischen Kontext eine Infrarotaufnahme als Graustufenbild bestimmte Aussagen über die Zusammensetzung und Struktur

I MPLIZITE B ILD -

UND

M EDIENTHEORIEN | 171

eines Objektes erlaubt, wird dasselbe Objekt für die Öffentlichkeit in Farbe aus verschiedenen Aufnahmen unterschiedlicher Wellenlänge zusammengefügt. Diese beiden Bildkulturen, die innerwissenschaftliche und GLH|IIHQWOLFKNHLWVZLUNVDPH¿QGHQVLFKDXFKLQGHUYRQXQVEHREDFKWHWHQ Marsforschung und Astrophysik wieder. Mit der Feststellung der unterschiedlichen Bildproduktionen für Wissenschaft und Öffentlichkeit lässt es +XEEOHVLWH aber nicht bewenden. EiQHNOHLQHLQWHUDNWLYH:HEVLWH +XEEOH V&RORU7RROER[ HUP|JOLFKWGHP Nutzer das Spiel mit den Farben, indem in einem Bild die DarstellungsfarEHQ±5RW*UQ%ODX 5*% ±MHZHLOVKLQ]XJHIJWRGHUZHJJHQRPPHQ ZHUGHQN|QQHQ$XIHOHPHQWDUH:HLVHZLUGGDPLWGLH0|JOLFKNHLWHU|IInet, den Zusammenhang zwischen bildlichen Operationen und Produktion eines Wissensobjektes spielerisch zu erfahren. Eines der Beispiele, an denen +XEEOHVLWH die Bildproduktion themaWLVLHUWLVWGHU0DUV $EE =ZDULVWGHU0DUVYRQGHU(UGHDXVEHREDFKWEDUDEHUQLHDXVGHUPLWGHQ0DUVVRQGHQP|JOLFKHQ1lKH'DVDXI GHU :HEVLWH HUP|JOLFKWH 6SLHO PLW GHQ )DUEHQ OHJW GDV ¾*HPDFKW6HLQ½ GHU )DUEJHEXQJ RIIHQ OlVVW DEHU )UDJHQ QDFK GHU *OHLFKI|UPLJNHLW GHU Farbgebung, nach der Datengrundlage und nach den vielen weiteren Zwischenschritten zum Bild offen.

Marsflächen 0LWGHP%HJULIIGHUª'DWHQELOGHU© YJOGD]XGLH(LQOHLWXQJGLHVHV%XFKHV  deuten wir nicht nur die schwierige Bestimmung eines medialen Zustands 'DWHQXQGRGHU%LOG DQVRQGHUQDXFKGHQUHÀHNWLHUWHQ8PJDQJPLWGHP Bildbegriff in der Astronomie. In der Reportage über die Erstellung der 'DWHQELOGHUYRQGHU0DUVREHUÀlFKHZLUGGLHVHVWlQGLJH5HÀH[LRQEHU die Bildlichkeit immer wieder hervorgehoben. Bereits die ›bloße‹ BeWUDFKWXQJGHU%LOGHUGHU+56&JHVFKLHKWPLWLPSOL]LWHQ9RUDQQDKPHQ In den Augen der beteiligten Wissenschaftler zeichnen ein gelungenes %LOG GHU 0DUVREHUÀlFKH HLQH JXWH +HOOLJNHLWVYHUWHLOXQJ ZHQLJ DWPRVSKlULVFKH6W|UXQJHQXQGLQWHUHVVDQWHJHRORJLVFKHE]ZWRSRJUDSKLVFKH 6WUXNWXUHQDXV'DIUGLH+|KHQHUPLWWOXQJGLH+HOOLJNHLWVYHUWHLOXQJGHU Bilder bedeutend ist, wird diese immer überprüft. Sie sollte idealerweise QRUPDOYHUWHLOWVHLQXQGVRHLQHQP|JOLFKVWJHQDXHQ9HUJOHLFKHUEULQJHQ Damit wird beispielsweise an der Belichtungszeit bei der Aufnahme justiert. Lichtverhältnisse werden nicht nur bei der Auswertung der Datenbilder, sondern auch bei der Erstellung von VKDGHGUHOLHIV diskutiert oder ]XPLQGHVWWKHPDWLVLHUW VLHKH.DSLWHO,,LQGLHVHP%DQG  Aber sind die an den Missionszielen orientierten Vorannahmen wirkOLFKVFKRQHLQHELOGWKHRUHWLVFKH5HÀH[LRQ"*LEWHVHLQH¾=ZHFNlVWKHWLN½"

172 | D ATENBILDER :LHWLHIJUHLIHQGZHUGHQGLHHLJHQHQ%LOGSUD[HQUHÀHNWLHUW"0LWGHP¾,Ppliziten‹, das hier ›explizit‹ gemacht werden soll, muss vorsichtig umgeJDQJHQZHUGHQ.HLQHVIDOOVVROOHQKLHULPPHU5HÀH[LRQHQLQGHQ%LOGSUD[HQXQWHUVWHOOWZHUGHQ6HOWHQJUHLIHQGLHVH5HÀH[LRQHQGLH)XQGDPHQWH der eigenen Wissenschaft an. Ihre epistemologische und bildtheoretische (IIHNWLYLWlWVW|‰WDQKDUWH*UHQ]HQGLHIUGLHYRQDX‰HQEHREDFKWHQGH Wissenschaftsforschung oder Bildtheorie nicht bestehen. Beispielsweise kann das Implizite nicht Grundlagen wie die Verdatung von WissenVFKDIWRGHUGLHJHQHUHOOH.RQVWUXLHUWKHLWLKUHU2EMHNWHUHÀHNWLHUHQ$EHU die Bildpraxen der Naturwissenschaften müssen ständig Antworten auf diese Grundlagen in der Mikroebene mitproduzieren. In diesen Antworten werden diese Grenzen nicht infrage gestellt, aber sie werden stetig bearbeitet. Am Deutschen Zentrum für Luft- und Raumfahrt in Berlin-Adlerhof spielen die Datenbilder – wie die Reportage gezeigt hat – eine zentrale Rolle. Ebenso bleibt festzuhalten, dass die wissenschaftliche Datenbildproduktion Voraussetzung für die Visualisierungen für die Öffentlichkeit ist. Die intern so genannten GDWDSURGXFWV sind in gleicher Weise in der Öffentlichkeitsarbeit wie in der Planetenforschung die Referenzebene der präsentierten Visualisierungen. Im innerwissenschaftlichen Prozess sind die Verfahrensweisen bei GHU+HUVWHOOXQJGHUGLJLWDOHQ*HOlQGHPRGHOOHEHLVSLHOKDIWIUGLH*OHLFK]HLWLJNHLWYRQ'DWHQXQG%LOGHUQ'LH+HOOLJNHLWVZHUWHDXVGHQ]XU(UGH JHVHQGHWHQ%LOGGDWHLHQZHUGHQLQJU|‰WHQWHLOVDXWRPDWLVLHUWHQ6RIWZDUHSUR]HVVHQLQ+|KHQLQIRUPDWLRQHQXPJHZDQGHOW$XVHLQHU$XIQDKPHGHU +56&DOVRHLQHU0HVVXQJGHU/LFKWUHÀH[LRQZLUGDP(QGHHLQGUHLGLPHQVLRQDOHVWRSRJUDSKLVFKHV'DWHQPRGHOOGHU0DUVREHUÀlFKHGDVZLHderum visualisiert und als Bild kommuniziert wird. Aber nicht alle Prozesse der Datenaufbereitung waren und sind automatisiert. Zwischen den einzelnen Verarbeitungsschritten von den Rohdaten bis zu den GDWDSURGXFWV am Ende der Prozesskette kommt es innerhalb der beteiligten Wissenschaften, Photogrammetrie und PlaneWHQIRUVFKXQJ ]ZDQJVOlX¿J ]X HLQHU LQWHQVLYHQ 5HÀH[LRQ EHU GLH .Dmera und ihre Eigenschaften, über Optimierungen der Software, über die lVWKHWLVFKHQ 4XDOLWlWHQ GHU 'DWHQELOGHU EHU 9HUJOHLFKVP|JOLFKNHLWHQ mit anderen Datenbildern usw. »The overall process involves automatic procedures in combination ZLWKLQGLYLGXDOTXDOLW\FKHFNVEDVHGRQDVHWRIVSHFL¿FTXDOLW\PHDVXUHV and visual inspection© *ZLQQHU HW DO   Die visuelle Prüfung der Datenbilder lässt sich durchgängig vom Eingang der Bilddaten bis zum ªGDWDSURGXFW©YHUIROJHQ,PPHUZLHGHUNRPPWHV]XUYLVXHOOHQ.RQWUROle, auf deren Basis Entscheidungen getroffen werden. Die Kriterien für

I MPLIZITE B ILD -

UND

M EDIENTHEORIEN | 173

diese Entscheidungen werden nirgendwo schriftlich festgehalten, weshalb ihre Rekonstruktion aus den Aussagen der Photogrammeter und den beobachteten Bildpraxen erfolgen muss. Die visuelle Prüfung am CompuWHUELOGVFKLUPLVWHLQ+LQZHLVDXIHLQHGDKLQWHUVWHKHQGH%LOGUHÀH[LRQGLH viele der oben angeführten Faktoren berücksichtigen muss. 0LW GHU +HUVWHOOXQJ HLQHU GUHLGLPHQVLRQDOHQ %LOGNDUWH GHV 0DUV schafft die Photogrammetrie Datenprodukte für die Planetenforschung. 'LH3ODQHWHQIRUVFKXQJLVWGDQQDQVSH]L¿VFKHQ3KlQRPHQHQZLH:DVVHUläufe, vulkanische Aktivität und ähnlichem interessiert. In dem Prozess der Erstellung von Datenbildern wird beispielsweise ständig die Frage nach der Indexikalität der Datenbilder gestellt: ZeiJHQVLH6WUXNWXUHQGHU0DUVREHUÀlFKHDWPRVSKlULVFKH6W|UXQJHQ RGHU 'DWHQIHKOHU" ,Q GLHVH (QWVFKHLGXQJHQ EHU GLH LQGH[LNDOLVFKH 4XDOLWlW ÀLH‰HQ PHGLDOH XQG ELOGWKHRUHWLVFKH hEHUOHJXQJHQ (UIDKUXQJVZHUWH und Vergleiche mit Datenprodukten aus anderen Marsmissionen ein VLHKH KLHU]X .DSLWHO ,, LQ GLHVHP %DQG  :HOFKHQ 0DUV EUDXFKW HLQH bestimmte Fragestellung – den Mars der Mineralien, der Temperaturen RGHU GHU WRSRJUDSKLVFKHQ 3KlQRPHQH" -H QDFK )RUVFKXQJVIUDJH YHUlQdert sich die Datenbasis, werden Ergebnisse aus mehreren Instrumenten zusammengefasst und werden die Visualisierungen angepasst. In der Differenzierung der Forschungsfragen wird das Objekt Mars in ebenso viele Gegenstände wie Visualisierungen aufgefächert. Die grundlegende Frage nach der Existenz des Mars wird damit zwar nicht kategorisch gestellt, DEHULQGHQ%LOGSUD[HQZLUG]XPLQGHVWGHUHLQH0DUVLQYLHOHDXIJHO|VW Damit wird der epistemologische Status der Objekte thematisiert. In die Auswahl an Beobachtungs- und Wiedergabemedien sowie in die Art der Visualisierung der Phänomene müssen medien- und bildtheoretische TheRUHWLVLHUXQJHQHLQÀLH‰HQ 'LHZLFKWLJVWH9HUJOHLFKVHEHQHXQG5HIHUHQ]GHU+56&'DWHQELOGHU ist die MOLA-Karte des Mars, die auf Abstandsmessungen per Laser und QLFKWDXI2EHUÀlFKHQVFDQVHLQHU.DPHUDEHUXKW'HU$QJOHLFKXQJVSURzess vollzieht einen ›Medienbruch‹ von einer Kamera zu einem Laser. :lKUHQG GHU /DVHU DOV 3XQNW EHU GLH 0DUVREHUÀlFKH ¾ZDQGHUW½ XQG HLQH 'DWHQOLQLH HU]HXJW VFDQW GLH HLQ]HLOLJH +56& HLQH )OlFKH 'LHVHU ›Medienbruch‹ muss ständig mitgedacht und seine Auswirkung auf die Datenbilder beachtet werden. Konkret bedeutet dies in der Bildpraxis, ZHQQ]ZLVFKHQGHQGLJLWDOHQ*HOlQGHPRGHOOHQ]%+|KHQXQWHUVFKLHGH auftauchen, müssen diese auf Basis des Wissens, um die medialen Eigenschaften beider Systeme angeglichen werden. ,Q%H]XJDXIGLH.DPHUDHQWVWHKHQZHLWHUHLPSOL]LWH%LOGUHÀH[LRQHQ Beispielsweise decken die unterschiedlichen Scankanäle auch unterschiedliche Wellenlängen des Lichts ab, die nicht exakt denen des natür-

174 | D ATENBILDER OLFKHQ /LFKWHV HQWVSUHFKHQ 'DV HLQIDOOHQGH /LFKW ZLUG GXUFK )DUE¿OWHU geleitet, bevor es auf die Scanzeilen trifft. Die einzelne Scanzeile misst GDQQGLH+HOOLJNHLWVXQWHUVFKLHGHHLQHUEHVWLPPWHQ:HOOHQOlQJH'HVKDOE ZHUGHQLQGHQ9LVXDOLVLHUXQJHQQLFKWGLHHLQ]HOQHQ *UDXVWXIHQ .DQlOH bestimmten Farben zugeordnet, sondern die Farbwahl jeweils an eine vorKHUYHUDEUHGHWH)DUEVNDODDQJHOHKQWbKQOLFKZLHEHLGHQ+XEEOH%LOGHUQ werden die Farben gerade im Austausch zwischen Photogrammetern und Planetenforschern diskutiert und letztlich den Erfordernissen der PlaneWHQIRUVFKHUDQJHSDVVW,P8QWHUVFKLHG]X+XEEOHVLQG)DUEELOGHUQLFKWDOlein für die Öffentlichkeit gedacht, sondern in der Planetenforschung eine Notwendigkeit, da Farben beispielsweise die Bestimmung von Gesteinen oder Ablagerungen vereinfachen. Dieses Verfahren wird SKRWRJHRORJLF DQDO\VLVJHQDQQW YJO-DXPDQQHWDO $EELOGXQJ]HLJWHLQH

Perspective false-color view of Candor Mensa, a large interior-layered deposit in the Valles Marineris. The flank surfaces show spectral signatures in OMEGA data that are characteristic for sulfates, as shown by Gendrin et al. (2005). HRSC data also show a large spectral diversity in this area, and the combination of HRSC's color information with the high-resolution stereo capabilities provides exellent data for photogeologic studies. The image has a width of about 75km, and the layered deposit rises to a height of up to 4km above its surroundings (HRSC orbit 360; nadir channel merged with red, green, and blue color channels).

$EE)DOVFKIDUEHQGDUVWHOOXQJDXV-DXPDQQHWDO  

I MPLIZITE B ILD -

UND

M EDIENTHEORIEN | 175

Falschfarbendarstellung aus einem Fachartikel, die – laut Bildunterschrift ±H[]HOOHQWH'DWHQ ªH[FHOOHQWGDWD© IUSKRWRJHRORJLFVWXGLHV zur Verfügung stellt. Neben der visuellen Kontrolle der Photogrammeter existiert am anderen Ende der Prozesskette bei den Planetenforschern zusätzlich die visuelle Suche in den Datenbilder. Beispielsweise wird das gesamte Datenbildmaterial von Kratern auf dem Mars nach schwarzen Dünen abgesucht, wenn diese Gegenstand der eigenen Forschung sind. Auf der Bildebene werden demnach Ähnlichkeiten hergestellt, die erst einmal auf der Objektebene JDUQLFKWJHJHEHQVHLQPVVHQ(LQHGXQNOH'QHN|QQWHDXVJDQ]DQderen Ablagerungen bestehen als eine andere. Die visuelle Erscheinung GH¿QLHUW GDV )RUVFKXQJVREMHNW 6LH JHVWDOWHW GDV )RUVFKXQJVREMHNW ]XP Beispiel durch das Kriterium der vollständigen visuellen Erfassung. Wäre GHU0DUVNUDWHU QXU ]XU +lOIWH DXI GHP 2UELWVWUHLIHQ GHU +56& HUIDVVW dann kommt er als Forschungsobjekt nicht infrage. Zur visuellen BestimPXQJWUDJHQ9RUDQQDKPHQ]XP9HUKlOWQLVYRQ+LQWHUJUXQGXQG2EMHNW bei. Anhand visueller Grenzziehungen muss der Gegenstand präpariert werden. 5HLFKHQ GLHVH +LQZHLVH DXV XP YRQ HLQHU ELOG XQG PHGLHQWKHRUHWLVFKHQ5HÀH[LRQLQGHQ%LOGSUD[HQGHV+56&7HDPV]XVSUHFKHQ"'LH 5H.RQVWUXNWLRQ IlOOW LP 8QWHUVFKLHG ]XP +XEEOH%HLVSLHO XQJOHLFK schwerer. Trotzdem lassen sich mit den ›Medienbrüchen‹, der FarbentVWHKXQJGHQhEHUOHJXQJHQ]XU,QGH[LNDOLWlWGHUYLVXHOOHQ.RQWUROOHXQG 6XFKHZLHGHU)UDJPHQWHELOGXQGPHGLHQWKHRUHWLVFKHUhEHUOHJXQJHQHUkennen. Von einer Bildtheorie ›by-doing‹ kann man keine kohärente Theorie- und Begriffsbildung erwarten, obwohl gerade die Datenbilder des Mars zeigen, welche immense epistemologische Bedeutung den Bild- und Medienelementen im Forschungsprozess zukommt.

Kosmologische Nachbilder Im Gegensatz zu den Marsbildern basieren die Visualisierungen der Millennium-Simulation am Max-Planck-Institut für Astrophysik in Garching erstens nicht auf Beobachtungsdaten und zweitens visualisieren sie Unsichtbares. Sie zeigen die Struktur der dunklen Materie im Universum. Deren Strukturen lassen sich weder analytisch noch empirisch ausreichend erforschen. Im Unterschied zu den Datenbildern des Mars am DLR werden die Visualisierungen hier erst nach der Fertigstellung der GDWDSURGXFWV angefertigt; in diesem Sinne sind sie Nachbilder. Wegen der nachträglichen Aufbereitung der Daten für Visualisierungen bleiben bildund medientheoretische Fragestellungen während der Programmierung und Ausführung der Simulation noch außen vor.

176 | D ATENBILDER Sehr viel produktiver im Sinne einer epistemologischen Wirksamkeit sind die Visualisierungen dann in der ersten Vermittlung von Forschungsergebnissen innerhalb der kosmologischen und wissenschaftlichen Community. Das Bild aus der Millennium-Simulation hätte es sonst nicht auf den Titel von 1DWXUHJHVFKDIIW:LHVLHKWHVQXQPLWGHQ%LOGSUD[HQDXV" /DVVHQVLFKKLHUELOGWKHRUHWLVFKH5HÀH[LRQHQQDFKZHLVHQ" hEHUGLH)DUEZDKOEHLGHU0LOOHQQLXP6LPXODWLRQJLEWGLH5HSRUWDJHVFKRQDXVUHLFKHQG+LQZHLVH6RZXUGHGHXWOLFKGDVVHLQHEHVWLPPWH Farbverteilung nach Maßgabe ästhetischer Konventionen der Astronomie und der Faszination gewählt wird. Ebenso wird in diesem Zusammenhang darauf hingewiesen, dass die :DKOGHU+HOOLJNHLWVYHUWHLOXQJGHU9LVXDOLVLHUXQJHQGHU,GHHHLQHVFRVPLFZHE geschuldet ist. Aber an diesem Punkt verlässt die Bildpraxis den mimetischen Gedanken. Stattdessen wird die Visualisierung nicht als Abbild gesehen, sondern als Struktur gelesen, die Ereignisse anbietet, die im 8QLYHUVXPYRUNRPPHQN|QQHQ ]%GLH.ROOLVLRQYRQ*DOD[LHQ  Dieses Strukturlesen setzt sich fort in der Debugging-Funktion der 'DWHQELOGHU 8QZDKUVFKHLQOLFKH 6WUXNWXUHQ ZHUGHQ DOV ª$UWHIDNWH© JHGHXWHW:HQQHVVLHLQGHP YLUWXHOOHQ $OOQLFKWJHEHQNDQQPXVVHVVLFK um Fehler im Programmcode handeln. Insofern man Bilder nicht mehr als Bilder von Entitäten versteht, sondern als Bilder von Strukturen, erwerben sich die Astrophysiker die Freiheit, nach analogen Mustern zu schauen. Während die Marsbilder in gewisser Weise auf einem grundlegenden $EELOGFKDUDNWHUEHVWHKHQLQGHPVLHOHW]WOLFKGLH0DUVREHUÀlFKHPLPHWLVFKWRSRJUDSKLVFKQDFKEDXHQP|FKWHQVLQGGLH%LOGHUGHU0LOOHQQLXP Simulation Ausdruck einer Ähnlichkeitsbeziehung auf der Ebene von Strukturen der Verteilung dunkler Materie im Universum. Dieses – dem Alltäglichen widerständige – Bildverständnis erlaubt, dass die Visualisierungen aus der Simulation mit astronomischen Beobachtungsdaten bzw. GHUHQ9LVXDOLVLHUXQJHQYHUJOLFKHQZHUGHQ $EE  In diesem Vergleich werden Strukturähnlichkeiten gesucht, deren ¾PDWHULHOOH½%DVLV±6LPXODWLRQXQG%HREDFKWXQJ±Y|OOLJLQNRPSDWLEOH Datenfelder sind. Da die Astronomie ›beobachtungsgetrieben‹ ist und Erkenntnisse aus den Simulationen durch Beobachtungsdaten empirisch bestätigt werden müssen, führt dies immer wieder dazu, dass die Bilder aus Simulationen den Bildern aus Beobachtungsdaten angeglichen werden. In dieser Praxis des visuellen Vergleichs von Simulation und Beobachtung existiert dann allerdings eine mimetische Annäherung an die Visualisierungen aus den Beobachtungsdaten. Der Strukturvergleich erfolgt aufgrund der Unvereinbarkeit der je-

I MPLIZITE B ILD -

UND

M EDIENTHEORIEN | 177

weils zugrunde liegenden Datensätze rein auf der visuellen Ebene durch +HUVWHOOXQJYRQbKQOLFKNHLWVEH]LHKXQJHQ In der Reportage wird auf diese mimetischen Angleichungen noch in ZHLWHUHQ%HLVSLHOHQHLQJHJDQJHQ'LH$EELOGXQJHQ $EEXQG ]HLgen diese Angleichung der Simulationsdaten an die Beobachtungsdaten. In dem YLUWXDOWHOHVFRSH genannten Visualisierungsverfahren werden Beobachtungsdaten mit ähnlichen simulierten Daten verglichen. Für die Astrophysiker bedeutet die visuelle Analogie nicht, dass die Simulation die Wirklichkeit rekonstruiert oder ersetzt hat, sondern dass die Simulation auf stimmigen theoretischen Vorannahmen, einem funktionierenden Simulationscode und auf einem passenden Strukturmodell des Kosmos basiert. Ganz im Gegensatz zu kulturkritischen Simulationstheorien, die in visuell perfekten Simulationen immer die Gefahr eines Verschwindens der Realität sehen, werden in den YLUWXDOWHOHVFRSH-Bildern TheoriemoGHOOHYHUL¿]LHUWGHUHQ5HDOLWlWVEH]XJNHLQHLQGHXWLJHUVHLQNDQQXQGZLOO 'LHLPSOL]LWH%LOGWKHRULH¿QGHWLKUHQ$XVGUXFN]XPHLQHQLQHLQHU+LHrarchisierung der Datenbilder in Bezug auf ihren ProduktionszusammenKDQJ 6LPXODWLRQRGHU%HREDFKWXQJ XQG]XPDQGHUHQLQGHU5HÀH[LRQ der notwendigen ästhetischen Elemente eines Beobachtungsbildes. Daran schließt sich unmittelbar eine Theoretisierung des Beobachtungsmediums an, das virtualisiert werden soll. )U GLH $VWURSK\VLN VLQG 9LVXDOLVLHUXQJHQ GDV ª:LFKWLJVWH© DEHU JOHLFK]HLWLJGDVª8QZLVVHQVFKDIWOLFKVWH©ZLHHVHLQHUGHU:LVVHQVFKDIWler am Max-Planck-Institut in Garching ausdrückte. Die Visualisierungen dienen nicht nur der Kommunikation mit der Öffentlichkeit, sondern OLHIHUQEHLGHU0LOOHQQLXP6LPXODWLRQ+LQZHLVHDXI)HKOHULP6LPXODWLonscode und fungieren im innerwissenschaftlichen Austausch als schnell ]XHUIDVVHQGHV)RUVFKXQJVHUJHEQLV,KUHª8QZLVVHQVFKDIWOLFKNHLW©OLHJW hauptsächlich darin, dass sie weder den empirischen noch den analyWLVFKHQ=XJDQJLQGHU$VWURQRPLHHUVHW]HQN|QQHQ In diesem Verfahren der mimetischen Annäherung kommt – neben einem transformierten Mimesisbegriffes – somit ein reales epistemologisches Kräfteverhältnis innerhalb der Astronomie zum Ausdruck. Auf diesem Kräfteverhältnis gründen dann auch alle Visualisierungsverfahren und -elemente wie beispielsweise das Einfügen von Eigenschaften der Beobachtungsinstrumente in die Simulationsbilder. Die SimulationsELOGHU VLQG YRU GLHVHP +LQWHUJUXQG 1DFKELOGHU LQVWUXPHQWHQJHVWW]WHU Beobachtungsrealitäten. 'DV9HUJOHLFKVVHKHQ¿QGHWVLFKDXFKLQGHUYLVXHOOHQ3UIXQJGHU*WH YRQ6LPXODWLRQVFRGHVZLHGHU+LHUVFKHLQWHLQJHQHUHOO]XP$OOWDJVVHKHQ anderes Wahrnehmungsdispositiv zu bestehen. Insofern liegt in diesen

178 | D ATENBILDER Praxen eine implizite Bild- und Medientheorie begründet, die weit davon entfernt ist, Simulationen als Substitution von Realität zu verstehen. Aus der Anpassung der Visualisierungen der Simulation an die Beobachtungsbilder ergeben sich für die Wissenschaftsforschung interessante Fragen nach dem jeweiligen Status der Bilder, nach ihren Qualitäten als epistemische Objekte und nach den Verknüpfungen von Bildern oder %LOGSURGXNWLRQHQ'LHVH)UDJHQN|QQWHQDXVHLQHUPHGLHQXQGELOGZLVsenschaftlichen Perspektive aufgegriffen und damit in die Wissenschaftsforschung integriert werden. Gerade von Seiten der Kulturwissenschaften gibt es aktuell ein lebKDIWHV,QWHUHVVHDQGHQ%LOGSURGXNWLRQHQGHU1DWXUZLVVHQVFKDIWHQ VLHKH .DSLWHO ,, LQ GLHVHP %DQG  ,Q GHU 0HGLHQZLVVHQVFKDIW ZLUG JHQHUHOO die naturwissenschaftliche Bildproduktion in den Massenmedien und in der Kommunikation der Naturwissenschaften mit der Öffentlichkeit untersucht. Selten werden dabei die aktuellen Bildpraxen innerhalb laufender Forschungsprozesse der Naturwissenschaften in die Analyse einbezogen. In der Bildwissenschaft dominiert die Analyse von historischen Wissenschaftsprozessen und deren Bildproduktion. Mit der Untersuchung aktueller Bildpraxen in den Naturwissenschaften entstehen Einblicke, GXUFK GLH QLFKW GRNXPHQWLHUWH %LOG XQG 0HGLHQUHÀH[LRQHQ ]XPLQGHVW IUDJPHQWDULVFKHUIDVVWZHUGHQN|QQHQ Aus der Perspektive der impliziten Bild- und Medientheorien in den Naturwissenschaften werden neue epistemologische Effekte erkennbar. Diese sind beispielsweise die mitlaufende Theoretisierung in der Bildproduktion, das ›by doing‹ sich entwickelnde Verständnis, was ein Bild ist und welches Referentialitätsverhältnis vorliegt, die Funktionalisierung GHU%LOGHURGHUGLH5HÀH[LRQGHU0HGLDOLWlW'LHVH3UR]HVVHVLQGHVZHUW weiter und genauer beobachtet zu werden.

R ALF A DELMANN

II. 3 Referenzverluste – Referenzgewinne

Die Referenz von Wissenschaftsbildern Wie ist es möglich, dass auf Wissenschaftsbildern etwas zu sehen ist, das man ohne diese Bilder nicht sehen kann? Wie kann man aus solchen Bildern etwas über die Außenwelt erfahren? Wie tragen Bilder zu neuem Wissen bei oder wie stellen sie gar selbst neues Wissen dar? Kurz: Was ist die Referenz von Wissenschaftsbildern? Man kann sich dem Problem der Referenz von Wissenschaftsbildern aus zwei entgegengesetzten Richtungen nähern. Die erste Richtung fragt nach der Entstehung der Bilder, die zweite nach der Wahrnehmung. Beide, so meine These, sind für ein Verständnis der epistemischen Bedeutung von Bildern in der Wissenschaft wichtig. Für die erste Richtung sind Bruno Latours Konzepte der Inskription und der Referenzketten (Latour 1993, 1996, 1997 und 1999) wegweisend.1 Die Beziehung zwischen den Dingen und ihren Repräsentationen in vielfältigen Formen wissenschaftlichen Wissens ist demnach weder ontologisch – als adaequatio rei et intellectus – begründet, noch ist sie wegen des »großen Abgrunds zwischen den Ideen und den Dingen« (Latour 1997: 241) von vornherein unmöglich.2 Vielmehr sind beide 1 | ,Q GHQ 3XEOLNDWLRQHQ ¿QGHW PDQ ZHFKVHOQG GLH %HJULIIH ª7UDQVIRUmationskette« und »Übersetzungskette«. Inzwischen verwendet Latour auch den treffenden Ausdruck »Referenzkette«, etwa in der Rede »Selbstporträt als Philosoph« bei der Entgegennahme des Siegfried Unseld Preises 2008 am 28.09.08 in Frankfurt/Main. 2 | Original: »le grand abîme des idées aux choses« (Latour 1993: 201). Weitere Bezeichnungen: »die große Distanz« (Latour 1997: 225) = »la grande distance« (Latour 1993: 182); »den unermeßlichen Abgrund« (Latour 1997:

180 | D ATENBILDER Enden durch eine Kette kleinschrittiger Übersetzungen zwischen hybriden Repräsentationstechniken verbunden. Jedes Glied der Referenzkette ist dabei gleichzeitig Zeichen und Ding. Es ist Zeichen für das nächste, dinghaftere Glied in Richtung »Natur« und es ist zugleich Ding für das nächste, zeichenhaftere Glied in Richtung »Wissen«. Jeder Schritt muss nachvollziehbar und reversibel sein, dann ist die »Leitfähigkeit des Wahren« (Latour 1996: 239) gegeben, dann funktioniert Referenz. Diese Übersetzungen bezeichnet Latour als Inskriptionen. Dieser Begriff umfasst nicht nur die Tätigkeit der Wissenschaftler bei der Herstellung der hybriden Medien – das Schreiben im weitesten Sinne –, sondern auch das, was über die Tätigkeit hinausgeht: Inskription meint auch, dass etwas sich einschreibt, bezeichnet also die anders als über den Prozess der Inskription gar nicht fassbaren »unvorwegnehmbaren Überschüsse« (Rheinberger 1993: 183), das Extra also, in dem sich das Nicht-Gemachte zeigt. Hans-Jörg Rheinberger geht gegenüber Latour noch einen Schritt weiter. Für ihn sind Dinge immer schon Teil der Forschung, nicht der Außenwelt. Dementsprechend gibt es, auch wenn eine Referenzkette funktioniert, keine Repräsentation zwischen Zeichen und Ding: »Repräsentationen beziehen sich auf nichts, was der Tätigkeit des Repräsentierens nicht inhärent wäre« (Rheinberger 1993: 162). Zwar spricht auch Rheinberger von Repräsentationen, diese haben aber »keine externen Referenten« (ebd.: 182). Es ist kein Zufall, dass sich eine solche These innerhalb einer WisVHQVFKDIWVWKHRULH¿QGHWGLHZLHNDXPHLQHDQGHUHDXIGHUJHQDXHQ%Hobachtung der wissenschaftlichen Praxis beruht. Aus Sicht der wissenschaftlichen Praxis ist es schlicht irrelevant, ob es eine laborunabhängige Natur gibt oder nicht, weil ein externer Referent im Forschungsprozess nichts nützt. Wer mit einer Repräsentationstechnik arbeitet, kann nicht die Tauglichkeit der Repräsentation anhand eines Referenten überprüfen. Konkret: Wer ein elektronenmikroskopisches Bild einer Zelle produziert hat, kann dieses nicht dadurch überprüfen, dass sie oder er – an dem Elektronenmikroskop vorbei – auf das Objekt selber schaut. Wäre dies möglich, bräuchte man das Elektronenmikroskop nicht. Das, womit man es in der Wissenschaft zu tun hat, das also, was Rheinberger in Anlehnung an Bachelard das »Wissenschaftswirkliche« (Rheinberger 2006: 38) nennt, 237) = »l’immense abîme« (Latour 1993: 197), »den geheiligten limes« (Latour 1997: 249) = »le limes sacré« (Latour 1993: 210) und »den klaffenden Abgrund« (Latour 1997: 257) = »l’abîme béant« (Latour 1993: 219). Die Metapher geht auf Lessing zurück, der von einem »garstigen, breiten Graben« gesprochen hatte, siehe (Lessing 1965: 36).

R EFERENZ VERLUSTE – R EFERENZGEWINNE | 181

zeigt sich immer nur in der Repräsentation. Ein Vergleich mit dem Repräsentierten selbst ist nicht möglich. Möglich ist höchstens ein Vergleich mit anderen Repräsentationen. Mit der fundamentalen Kritik an einem dualistischen Repräsentationsmodell ist nun die Frage nach dem Bezug des Bildes zu dem, was das Bild zeigt, im doppelten Sinne gegenstandslos. Rheinberger schlägt daher vor, von Sichtbarmachung oder Visualisierung zu sprechen: »Mit Visualisierung in der Wissenschaft meinen wir in der Regel einen Vorgang, der auf graphisch-bildnerische Mittel zurückgreift anstatt auf verbale Beschreibungen und auf Formeln. Der grundlegende Unterschied wäre also der zwischen Text und Bild« (Rheinberger 2001: 57). Damit ist zwar die Assoziation Bild – Abbild aufgelöst, nicht aber die Frage nach Formen »bildlicher Evidenz« (ebd.). Für Wissenschaftsbilder stellt sich vielmehr in verschärfter Form die Frage, in welcher Weise man sie als Bilder in der Wissenschaft verwenden kann. Auch wenn man Bilder als Resultate von Inskriptionen und Übersetzungen verstehen kann, so bleibt etwas Wesentliches unberücksichtigt. Ich meine die Momente, in denen ein Wissenschaftler auf einem Bild ein Objekt sieht und erkennt und ihm dabei auch schon bestimmte Eigenschaften ansieht. Es gibt diese Momente im Forschungsprozess. Jemand visualisiert Daten auf dem Bildschirm und sieht Krater, dunkle Dünen, Schichtungen im Gestein, Kollisionen von Galaxien, Verbindungen zwischen Galaxienclustern oder andere Objekte. Hier kommt die zweite Richtung ins Spiel, die nach der Wahrnehmung von Bildern fragt. Lambert Wiesing nennt solche Objekte in Anlehnung an Edmund Husserl »Bildobjekte« (Wiesing 2005a; Wiesing 2005b). Es sind Gegenstände von »reiner Sichtbarkeit« (Wiesing 2005a: 31 et passim) in dem Sinne, dass sie physisch als solche nicht existieren. Das Physische eines Bildes, der reale Gegenstand, den jemand betrachtet, nennt Wiesing »Bildträger«.3 'LHVHEHJULIÀLFKH7UHQQXQJLVWDQDO\WLVFKHU1DWXU6LHHUODXEWHV]X VSH]L¿]LHUHQZRYRQPDQVSULFKWZHQQPDQYRQHLQHPª%LOG©VSULFKW Die Verbindung zwischen Bildträger und Bildobjekt, insbesondere die Frage, wie ein Bildträger beschaffen sein muss, um auf ihm ein bestimmtes Bildobjekt zu sehen, liegt außerhalb des Interesses von Wiesings phänomenologischem Ansatz. Genau dies ist aber für Wissenschaftsbilder eine

3 | Um zu testen, ob etwas ein Bildobjekt ist oder zum Bildträger gehört,

schlägt Wiesing vor, sich zu fragen, ob es altert. Die Farbe, mit der ein Haus gemalt ist, mag verbleichen, das Papier vergilben, aber das Haus wird nicht älter.

182 | D ATENBILDER wesentliche Frage – und zwar sowohl für eine Theorie der Bildpraxis als auch für die Bildpraxis selbst. Wenn man das, was man auf einem Bild sieht, nicht auf Inskriptionen zurückführt, bleibt das Gesehene »rein sichtbar«. Dies ist dann der Fall, wenn ein Betrachter die Inskriptionsprozesse nicht kennt oder nicht versteht. Dann haben die Bilder den Status von Bildobjekten, das heißt man kann sie bloß noch sehen, nicht mehr lesen (vgl. Kap. II.1. in diesem Buch). Ein Beispiel sind die Bilder der Ausstellung in der U-Bahnstation Garching, siehe Kap. I.2. Innerhalb des Forschungsprozesses werden Bildobjekte sofort auf etwas zurückgeführt. Wahrgenommene Objekte haben nur dann Relevanz, wenn ihnen etwas Reales zugrunde liegt. Die Struktur der farbigen Pixel auf dem Bildschirm muss sich erstens mit dem gesehenen Bildobjekt, zweitens mit den physischen Inskriptionen und drittens mit dem Objekt selbst in Verbindung, ja in Übereinstimmung, bringen lassen. 'LHVH5HIHUHQ]LHUXQJPDJUHÀH[DUWLJVHLQ(LQ:LVVHQVFKDIWOHUPDJ bei einem Bildobjekt sofort erkennen, ob und mit was es in Verbindung VWHKW'LHVVLHKWPDQHWZDGDUDQGDVV:LVVHQVFKDIWOHUKlX¿JVRIRUW)HKler auf einem Bild erkennen. Ein Bildobjekt »gerade Linie« wird zum Beispiel schnell als Artefakt des Inskriptionsprozesses wahrgenommen, nicht als schnurgerade Rinne auf dem Mars bzw. als Schicht fehlender Dunkler Materie im Universum (siehe Kap. I.1 bzw. Kap. I.2). Dass aber das reine Sehen im Forschungsprozess überhaupt notwendig ist, liegt nicht zuletzt daran, dass es sich um Datenbilder handelt. Wesentliche Teile der Inskriptionen und der Transformationen sind Umrechnungen von Daten – und dies gilt für empirisch gewonnene Daten genauso wie für Simulationsdaten. Bei diesen Umrechnungen ist der Wissenschaftler nicht dabei, er kann die Daten und was mit ihnen passiert nicht sehen. Dies ist erst mit dem nächsten Datenbild möglich (und es ist hier unerheblich, ob man die Daten wie bei den Marsmessungen mehrfach oder wie bei der Simulation in der Regel nur einmal am Schluss visualisiert). Immer ist der erste Blick auf ein Datenbild ein Zurückschauen. Das Zurückführen auf etwas (die Referenz) ist hier durchaus wörtlich zu verstehen. Beim Abzeichnen einer Zellstruktur während des Mikroskopierens ist GHU:LVVHQVFKDIWOHUGDEHLEHLP)RWRJUD¿HUHQNDQQPDQ]XJOHLFKVHKHQ ZDV PDQ LP %LOG ¿[LHUW %HL WHFKQLVFK GHOHJLHUWHQ %LOGJHEXQJHQ ]XP Beispiel automatisierten Aufzeichnungen) ist dies immerhin zu TestzweFNHQP|JOLFK$EHUKlX¿JKDEHQGLH:LVVHQVFKDIWOHULKUH2EMHNWHQLHmals »real« (das heißt hier: mit bloßem Auge) gesehen. Weder die Halos

R EFERENZ VERLUSTE – R EFERENZGEWINNE | 183

aus Dunkler Materie, noch die dunklen Dünen in Marskratern hatte je ein Mensch vor Augen.4 Bei Datenbildern ist der visualisierte Gegenstand, nämlich der Datensatz, prinzipiell unsichtbar (es sei denn, man würde die Daten als Zahlen visualisieren, was angesichts ihrer Menge auch nichts erkennen ließe).5 Gerade hier ist das Sehen und Erkennen von Objekten auf Bildern unerlässlich. Und hier stellt sich die Frage nach der Referenz in besonderer Form. Was hier als eklektizistische Spielerei mit Theorieversatzstücken erscheinen mag, ist für die Wissenschaftler ein alltägliches Problem. Sie müssen sich immer fragen, was das, was sie auf ihren Bildern sehen, zu bedeuten hat.6 Wie ist es entstanden und worauf verweist es? Was sagt es über ihr Forschungsobjekt aus, das sie als gegeben annehmen? Und vor allem, wie hängen Entstehung und Verweis zusammen? Basierend auf den Fallstudien scheint es dafür sinnvoll, statt von der einen Referenz zu sprechen, einen dreifach gegliederten Referenzbegriff zu verwenden. Ich möchte daher vorschlagen, zwischen inskriptiver, präVXPWLYHUXQGNULWLVFKHU5HIHUHQ]]XXQWHUVFKHLGHQ'LHVH%HJULIÀLFKNHLW bezieht sich nicht ausschließlich auf Bilder. Im folgenden, zweiten Abschnitt werden diese Begriffe erläutert und im dritten Abschnitt mit Beispielen aus den beiden Fallstudien konkretisiert.

Inskriptive, präsumtive und kritische Referenz Inskriptive Referenz Unter »inskriptiver Referenz« verstehe ich die Beziehung des Mediums (also zum Beispiel des Bildes) zu all denjenigen physischen, technischen 4 | Insofern es sich um grundlegend neue Forschungen handelt, haben sie unter Umständen noch nicht einmal ein Bild dieser Objekte zuvor gesehen. 5 | Diese Nicht-Sichtbarkeit ist also von anderer Art als die oben beschriebene Nichtzugänglichkeit eines »repräsentierten« Objekts im Sinne Rheinbergers, denn die Daten sind selbst Repräsentanten für etwas. 6 | Wobei es ja nicht einmal klar ist, dass verschiedene Personen dasselbe Bildobjekt sehen. Die phänomenologische Position dazu ist, dass verschiedene Personen zumindest meinen, dasselbe Bildobjekt zu sehen, da man ja nur so dieses diskutieren kann (Wiesing, persönliche Mitteilung). Aus einer Außenperspektive ist es hingegen eher plausibel, dass es wesentlich von den Vorkenntnissen hinsichtlich der Erstellung des Bildes, aber auch des Forschungsobjektes abhängt, was jemand auf dem Bild sieht.

184 | D ATENBILDER und kulturellen Faktoren, die im Bild Spuren hinterlassen. Die inskriptive Referenz ist also nicht nur eine einzige Referenz, sondern ein ganzes %QGHO 'LH =XVDPPHQIDVVXQJ GLHVHU JDQ] XQWHUVFKLHGOLFKHQ (LQÀXVVfaktoren in einem Begriff ist Absicht. Damit wird der Tatsache Rechnung getragen, dass diese Faktoren im Bild und in dessen Entstehungsprozess gemischt sind. Die inskriptive Referenz entspricht weitgehend der Referenz im Sinne Latours. Sie bezieht sich also auf das, was über die Stufen der Referenzkette erhalten bleibt. Mit »erhalten« ist gemeint: Die Spuren dürfen sich nicht verlieren. Auch wenn die Spuren selbst am Ende unsichtbar werden, muss die Verbindung, die Inskription des Dings in das Medium, erhalten bleiben. Gleichzeitig kann das Erhalten aber nicht in einem Schutz vor Eingriffen bestehen. Im Gegenteil, erst die vielfachen Transformationen lassen, so paradox dies scheinen mag, das Wesentliche erst hervortreten. Die Beispiele im dritten Abschnitt werden dies verdeutlichen. Anders als für die Frage nach der Sichtbarkeit, macht es in Bezug auf Referenz keinen grundlegenden Unterschied, ob es sich um Datenbilder, andere Bilder oder ganz andere Medien handelt. Zwar referieren Datenbilder zunächst auf Daten, aber diese Daten referieren selbst wieder auf etwas anderes.7 Dadurch ändert sich jedoch an dem Status des Bildes und der Frage seiner Referenz nichts Grundlegendes. Im Sinne von Latours Referenzketten stellen die Daten einfach ein Zwischenglied der Kette dar. Die vermeintliche Virtualität von Computerdaten und deren Konsequenzen sind vielfach diskutiert worden: Genügt schon die Tatsache, dass die Daten virtuell (im Sinne von trägerunabhängig) sind, um die Anbindung an die reale Außenwelt zu verneinen? Oder ist im Gegenteil gerade ihre Materialität als physischer Zustand eines technischen Systems entscheidend, sowohl für die Bilder als auch für deren Referenz?8 Mit Latour sind jedoch diese Diskrepanzen prinzipiell nicht zu klären, weil nichts an sich ein Zeichen (virtuell) oder ein Ding (materiell) ist. Daten, wie alle Glieder der Kette, sind Hybride, deren Zeichen- oder Dinghaftigkeit von der Position in der Kette abhängt. Deren VSH]L¿VFKH Zeichenhaftigkeit und VSH]L¿VFKH Dinghaftigkeit ist allerdings sehr wohl zu berücksichtigen. Sollte es die verlustfreie Transformierbarkeit von Daten geben, so wäre dies einfach ein Fall besonders glatt funktionierender Übersetzungen innerhalb der Kette. Es geht also 7 | Einen Überblick über die Diskussion zu »digitalen Bildern« gibt

Schneider 2009. Vgl. auch Heßler 2006. 8 | Als Beispiele für diese Positionen siehe etwa Grube 2006 bzw. Pias 2003.

R EFERENZ VERLUSTE – R EFERENZGEWINNE | 185

für ein Verständnis von Datenbildern nicht um die Datenhaftigkeit der Daten, sondern um die Daten selber. Zu fragen ist: Woher kommen diese? Woher hat jeder einzelne Pixel des Bildes genau diesen Wert? Durch die Andersartigkeit der Daten, gegenüber dem Bild einerseits und gegenüber der Welt andererseits, wird die Frage nach der Referenz jedenfalls weder beantwortet noch gegenstandslos. Präsumtive Referenz Wissenschaftler nehmen von dem Objekt, mit dem sie es zu tun haben, an, dass es unabhängig von ihren Forschungen existiert. »Unabhängig« heißt, dass die Objekte nicht vollständig durch die Repräsentationstechniken konstituiert werden, sondern eine Eigenständigkeit haben, und genau die Eigenschaften der Objekte gilt es zu erforschen. Es ist dabei zunächst nicht relevant, ob das Objekt tatsächlich existiert. Wichtig ist vielmehr, dass die Forschung ohne eine solche Annahme gar nicht beginnen könnte. Dieses Verhältnis zum Objekt der Forschung ist von der inskriptiven Referenz zu unterscheiden. Ich bezeichne es als »präsumtive Referenz«. Das Objekt der präsumtiven Referenz ist also der als unabhängig von der Repräsentation vorausgesetzte Untersuchungsgegenstand, von dem zudem angenommen wird, dass er im Prinzip – wenigstens aspekthaft – mittels der Repräsentationen erkennbar ist.9 Die präsumtive Referenz ist also diejenige, die Rheinberger gerade negiert. Selbstverständlich hat Rheinberger Recht damit zu sagen, dass das präsumtive Objekt selbst im Forschungsprozess nichts nützt. Ob ein Forscher ein solches externes, unabhängig von den verfügbaren Repräsentationstechniken existierendes Objekt annimmt, ist damit für den Akt des Repräsentierens gar nicht relevant. Das Objekt zeigt sich nur durch die Repräsentationstechniken. Sollte es irgendwann ein stabiles Objekt geben, so wäre dies ein Effekt und nicht der Grund funktionierender Repräsentation. Und dennoch denke ich, dass die Annahme eines von der Repräsentationspraxis unabhängigen Objekts den Forschungsprozess prägt. Nicht, dass den Wissenschaftlerinnen und Wissenschaftlern die Annahme in der Sache helfen würde. Hier stimme ich Rheinberger zu. Aber für den An9 | Rheinberger hat immer wieder und zu Recht dafür plädiert, für das, womit man es in der Forschung zu tun hat, den Begriff »Ding« statt »Objekt« zu verwenden, siehe u.a. Rheinberger 2001, 61. Da hier aber gerade nicht die noch unscharfen epistemischen Dinge der Forschung, sondern das als forschungsunabhängig existierend Vorausgesetzte gemeint ist, ist der Begriff »Objekt« an dieser Stelle mit Bedacht gewählt.

186 | D ATENBILDER trieb und die Richtung für die Arbeit mit und vor allem an Repräsentationstechniken ist ein als unabhängig gedachtes Objekt unabdingbar. Wären die Repräsentationstechniken umgehbar, wäre die Arbeit EHUÀVVLJ*lEHHVNHLQJHPHLQVDPHV2EMHNWN|QQWHQVLFKGLH:LVVHQschaftler mit ihren Repräsentationen zufrieden geben und würden nicht so großen Aufwand betreiben, um die verschiedenen Repräsentationen miteinander vereinbar zu machen. Wäre eine Erkenntnis des Objekts von vornherein vergeblich, bräuchte man mit dem Abgleich der Repräsentationen gar nicht erst anzufangen. Keiner dieser möglichen Globaleinwände trifft zu. Die von uns besuchten Forscherinnen und Forscher jedenfalls halten die Erkenntnis ihrer Objekte weder für unvermittelt möglich noch für prinzipiell unmöglich. Aber sie nehmen ganz eindeutig ein gemeinsames, externes Objekt als Grund für die anzustrebende Vereinbarkeit ihrer eigenen Repräsentationen mit denjenigen anderer an. Wie ist nun das Verhältnis zwischen inskriptiver und präsumtiver Referenz? Man kann mit guten Gründen die Vermittlung zwischen beiden für unmöglich halten. Das wäre jedoch eine erkenntnistheoretische und keine wissenschaftstheoretische Aussage. Denn den Wissenschaftlern geht es ja gerade um die Vermittlung zwischen beiden. Das ist es, was sie den ganzen Tag über erhebliche Anstrengungen kostet, wie an den Beispielen deutlich wird. Das Paradox dieser Situation besteht darin, dass das (ideale) Ziel die präsumtive Referenz in reiner Form – also ohne Spuren der vielfältigen Kontingenzen der inskriptiven Referenz – ist, gleichzeitig aber die Repräsentation keinesfalls abgelöst von der inskriptiven Referenz sein darf, da ansonsten die Richtigkeit der Repräsentation nur noch behauptet werden kann. Die Repräsentation muss also gleichzeitig physisch, technisch und kulturell mit dem Untersuchungsgegenstand verbunden sein, ohne selbst von der Kontingenz dieser Faktoren abhängen zu dürfen. Das Wissen, so könnte man formulieren, hängt an den kontingenten Repräsentationstechniken, aber nicht von diesen ab. Dieses Paradox ist die Grundkonstitution jeder empirischen Wissenschaft (und auch Computersimulationen gehören in diesem Sinne zu den empirischen Methoden). Für dieses Paradox entwickeln die verschieGHQHQ :LVVHQVFKDIWHQ MH VSH]L¿VFKH 8PJDQJVZHLVHQ VLH EH¿QGHQ VLFK aber immer im Spannungsfeld von inskriptiver Referenz und präsumtiver Referenz. In jedem Fall handelt es sich nicht um ein Nullsummenspiel. Nicht weil die Bilder von Anfang an konstruiert und dazu noch mehrfach transformiert sind, zeigen sie das Objekt nicht. Im Gegenteil: nur deshalb zeigen sie das Objekt, wenngleich auf eine ganz bestimmte, nämlich von Konstruktion und Transformation abhängige Weise. Oder im Sinne Latours: Je konstruierter etwas ist, umso realer ist es.

R EFERENZ VERLUSTE – R EFERENZGEWINNE | 187

Es stellt sich nun die Frage, warum für beide der Begriff der »Referenz« verwendet wird. Wird damit nicht ein Paradox behauptet, das keines ist, weil in Wirklichkeit beide Seiten grundlegend anderer Natur und dementsprechend kategorial zu unterscheiden wären – etwa in Bedingungen des Wissens versus Inhalt des Wissens oder in Erkenntnisinstrumente versus Erkenntnisgegenstände? Die hieße jedoch, vom Ergebnis her zu argumentieren. Am Ende der (erfolgreichen) Forschung – so hat Latour immer wieder betont – funktionieren die sauberen Trennungen, nicht aber im Forschungsprozess selbst, um den es in diesem Buch geht. Hier liegen die inskriptive Referenz und die präsumtive Referenz kategorial auf derselben Ebene. Beide sind irgendwie in den Bildern und in den Daten, und die Aufgabe besteht gerade darin, die präsumtive Referenz aus der inskriptiven Referenz herauszuVFKlOHQ:REHLªKHUDXVVFKlOHQ©HLQYLHO]XXQVSH]L¿VFKHUXQGGXUFKGLH Konnotation des Freilegens eines Kerns missverständlicher Begriff ist angesichts der äußerst vielfältigen Transformationsprozesse auf der Ebene der Daten und Bilder.10

10 | Wollte man die Begriffe der inskriptiven Referenz und der präsum-

WLYHQ5HIHUHQ]PLWGHQ$UWHQYRQ=HLFKHQQDFK&KDUOHV63HLUFHLGHQWL¿]LHren, so entspräche der inskriptiven Referenz Peirces Index als eine Form des Zeichens, das mit dem Bezeichneten in irgendeiner Form physisch verbunden ist, Peirce 1955. Der präsumtiven Referenz entspräche das Icon. Es sind drei Eigenschaften, die für die präsumtive Referenz ebenso gelten wie für das Icon: 1. Der Bezug ist in irgendeiner Form bildhaft, wobei dies nicht Ähnlichkeit bedeuten muss: »It may be questioned whether all icons are likenesses or not« (ebd.: 107). 2. Es bezieht sich auf das Objekt nur durch sich selbst, ungeachtet dessen, ob das bezeichnete Objekt tatsächlich existiert, – ein entscheidender Punkt, wenn man die Bildverwendung in der Wissenschaft nicht ontologisch begründen will: »An Icon is a sign which refers to the Object that it denotes merely by virtue of characters of its own, and which it possesses, just the same, whether any such Object actually exists or not« (Peirce 1955: 102; Hervorhebung im Original). 3. Man kann aus der Betrachtung des Zeichens etwas Neues über das präsumtive Objekt erfahren, Bilder können also als Forschungsmittel dienen: »A great distinguishing property of the icon is that by direct observation of it other truths concerning its object can be discoYHUHGWKDQWKRVHZKLFKVXI¿FHWRGHWHUPLQHLWVFRQVWUXFWLRQ© HEG  Natürlich ist der Witz von Wissenschaftsbildern, dass sie zugleich Index und Icon sein müssen.

188 | D ATENBILDER Kritische Referenz Für diese Transformationen ist eine dritte Art der Referenz relevant, die ich »kritische Referenz« nennen will. Damit sind durch andere Repräsentationstechniken gewonnene Daten und Bilder gemeint. Die kritische Referenz ermöglicht einen horizontalen Abgleich verschiedener Repräsentationen, die selbst auf Inskriptionen beruhen, dabei aber schon mehr oder weniger in Richtung der präsumtiven Referenz transformiert worden sind. Der Terminus »kritische Referenz« fasst zusammen, was Rheinberger (1997: 272) in »Vergleichung, Verschiebung, Marginalisierung, Hybridisierung und Pfropfung verschiedener Repräsentationen« differenziert hat. In jedem Fall handelt es sich um eine »horizontale« (ebd.) Referenz, ein »Geschiebe von einer Repräsentationstechnik zur anderen« (Rheinberger 1993: 177). Das Paradox der kritischen Referenz besteht darin, einerseits die Validität der eigenen Repräsentation anhand der vorhandenen Repräsentationen zu überprüfen, andererseits aber im Sinne des Fortschritts die voUDQJHJDQJHQHQ5HSUlVHQWDWLRQHQDOVGH¿]LWlUDQQHKPHQ]XPVVHQ'HU Abgleich ist also nicht eine bloße Angleichung, sondern auch eine Abkehr von anderen Medien. Ohne den Bezug auf die präsumtive Referenz könnte man hierin ein reines Machtspiel sehen. In der Tat hat der Abgleich mit Macht zu tun, aber im Spannungsfeld aller drei Referenzen. Wie dies im Einzelnen praktiziert wird, soll nun anhand der Digital Terrain Models (DTMs) in der Marsforschung und der Validierung von Simulationen in der Astrophysik erläutert werden.

Konkretisierungen Vom »Bild« zum Geländemodell Die präsumtive Referenz der Photogrammeter im HRSC-Team bezieht VLFKDXIGLH0DUVREHUÀlFKH'LHVHLVWGDVDOVH[LVWLHUHQGXQGLP3ULQ]LS erkennbar vorausgesetzte Objekt. Auf den ersten Blick scheint diese Bestimmung die theoretische Brisanz der Frage nach der Referenz ins Leere laufen zu lassen. Die 0DUVREHUÀlFKH VR PDJ PDQ HLQZHQGHQ LVW DQ VLFK YLHO ªUHDOHU© XQG unbestritten unabhängig von ihrer Inkenntnisnahme existent, also von ganz anderer Natur als diejenigen epistemischen Dinge der Laborwissenschaften, anhand derer Rheinberger gegen eine vorgängige, äußere Re-

R EFERENZ VERLUSTE – R EFERENZGEWINNE | 189

IHUHQ]DUJXPHQWLHUWKDW'HU0DUVH[LVWLHUWXQGHUKDWHLQH2EHUÀlFKH egal, inwieweit und mit welchen Techniken man sie erforscht. ,QGHU7DWZlUHHVKHXW]XWDJHDEVXUGGLH0DUVREHUÀlFKHLQ)UDJH]X stellen. Aber diese hat ihre Realität nur durch ihre Beobachtung. Man vergleiche etwa die großen Gasplaneten Jupiter und Saturn, bei denen es weit ZHQLJHUNODULVWZDVPDQPLWª2EHUÀlFKH©PHLQHQN|QQWH'LH/DQGXQJ von Sonden auf dem Mars mit lokal aufgenommenen Fotos hat viel zu der Realität einer als stabil angesehenen Grenzschicht zwischen Gestein und Atmosphäre beigetragen. 8QGDQGLHVHU'H¿QLWLRQYRQ2EHUÀlFKHDOV*UHQ]H]ZLVFKHQ*HVWHLQ und Atmosphäre zeigt sich auch die Abhängigkeit von der Repräsentationstechnik. Dies wird besonders an den eisbedeckten Polkappen deutlich (Adelmann/Hennig/Heßler 2008). Das Radar-Instrument MARSIS misst die Grenze zwischen Gestein und Eis, während das Laser-Höhenmessgerät MOLA die Grenze zwischen Eis und Atmosphäre misst. Was ist dann also die2EHUÀlFKH"11 +LQ]X NRPPW GDVV GLH 3KRWRJUDPPHWHU GLH 0DUVREHUÀlFKH QXU LQ JDQ]VSH]L¿VFKHU:HLVHLQWHUHVVLHUWQlPOLFKDOV+|KHQNDUWH:HQQVLH von jedem Punkt auf dem Mars seine Höhe wissen würden, wären sie – ganz anders als ihre Kollegen Geologen – schon zufrieden.12 Ihr Ziel ist ein digitales Geländemodell (DTM), also ein Datensatz, bei dem jedem [0HWHU4XDGUDWDXIGHU0DUVREHUÀlFKHHLQ=DKOHQZHUW]XJHRUGQHWLVWGHUGLH+|KHEHUHLQHUJHGDFKWHQ1XOOÀlFKHDQJLEW Die besondere Herausforderung der Photogrammeter im HRSC-Team besteht nun darin, dass die HRSC zunächst einmal gar keine Höhen misst. 'LH +56& OLHIHUW LP JlQJLJHQ 6LQQH )RWRV GHU 2EHUÀlFKH DXV JUR‰HU (QWIHUQXQJ RGHU ± WHFKQLVFKHU DXVJHGUFNW ± ÀlFKHQDXIJHO|VWH +HOOLJNHLWVZHUWH GHU /LFKWUHÀH[LRQ XQWHU GHQ ]XP =HLWSXQNW GHU $XIQDKPH herrschenden Bedingungen. Wenn einer der Photogrammeter sagt, »wir arbeiten mit Bildern«, so lässt sich dies in doppelter Weise verstehen. Ei11 | Auch zeitliche Veränderungen (durch Erdbeben, Vulkanausbrüche, Winderosion oder auch durch von der Erde her ganz unbekannte Prozesse) müssen im Sinne der präsumtiven Referenz ausgeschlossen sein, da man ja die meisten Gebiete nur einmal vermisst. 12 | Man könnte einwenden, dass bei diesen Forschungen zunächst das 2EMHNWDOVH[WHUQHV2EMHNW XQGVHLHVUHSUlVHQWDWLRQVWHFKQLNVSH]L¿VFK NRQstituiert werde, und dann dessen Eigenschaften nur noch vermessen würden. Damit wäre diese Vermessung im strengen Sinne Rheinbergers keine Forschung mehr, da ihr die prinzipielle Offenheit fehlte. Doch scheint es mir so zu sein, dass sich auch durch die »bloße« Vermessung das »Ding« MarsoberÀlFKH LP*HJHQVDW]]XPSUlVXPWLYHQ2EMHNW ZHLWHUYHUlQGHUW

190 | D ATENBILDER nerseits meint dies, dass man permanent die Daten am Bildschirm visualisiert. Andererseits ist mit »Bildern« aber auch dasjenige bezeichnet, womit die Photogrammeter es zu tun haben. Bilder sind hier nicht das Ziel der Prozedur, sondern deren – durchaus problematischer – Ausgangspunkt. Dass die HRSC – jedenfalls drei der vier Kanäle – ausgerechnet im sichtbaren Spektralbereich misst, die Daten also ähnlich aussehen, als würde man ein realistisches, farbiges »Bild« vom Mars sehen (oder direkt von der Sonde auf den Mars blicken), ist eine Kontingenz der Auslegung des Geräts. Präziser lässt sich hinsichtlich der Rohdaten von »Helligkeitsfeldern« sprechen. Diese Helligkeitsfelder bestehen aus Pixeln unterschiedlicher Helligkeit, das heißt unterschiedlich hohen Zahlenwerten. Die HRSC misst nicht, wie weitHLQDQJHSHLOWHU3XQNWGHU0DUVREHUÀlFKHentfernt ist, sondern wie hell er erscheint. Und die Helligkeit hängt natürlich vom Sonnenstand, von der Bodenbeschaffenheit, von der Neigung des Geländes, YRQHYHQWXHOOHQ6WDXEZRONHQLQGHU$WPRVSKlUHXQGYRQGHU(PS¿QGlichkeit jedes einzelnen CCD-Elements ab. Dies alles sind Umstände, die sich als inskriptive Referenz in das Helligkeitsfeld einschreiben. Keiner von diesen Umständen interessiert die Photogrammeter an sich. Die inskriptive Referenz und die präsumtive Referenz liegen hier also zunächst auf ganz anderen Ebenen. Dies gilt sogar für die Datensätze. Die Originaldaten bestehen nur aus Helligkeitswerten, ohne jede unmittelbare Höheninformation. Das daraus schließlich gewonnene DTM hingegen besteht nur aus Höhenwerten, ohne jede Helligkeitsinformation. Der Übergang beruht also darauf, die Kontingenzen loszuwerden. Aber diese Kontingenzen sind keineswegs nur Fehler, Verfälschungen usw. (wie beim Übergang von den Rohdaten zu den geometrisch entzerrten und helligkeitskorrigierten Daten). Man kann die präsumtive Referenz nicht direkt in den durch die inskriptive Referenz bedingten Daten ¿QGHQ'DIUVLQGYLHOPHKUDXIZHQGLJH3UR]HGXUHQQ|WLJGLHLQ.DSLWHO I.1 ausführlich beschrieben wurden. Reversibel ist diese Übersetzung nicht: Aus den Höhendaten kommt man nie wieder zu den Helligkeiten zurück. Hier zeigt sich, wie die disziplinären Interessen die Form der Transformation prägen. Reversibilität im Sinne Latours bezieht sich ja nur auf die wesentlichen Eigenschaften des Objekts, und für die Photogrammeter sind dies eben die Höheninformationen in den Helligkeitsdaten, nicht die Helligkeiten selber. 'DPLW LVW GLH SUlVXPWLYH 5HIHUHQ] GLV]LSOLQVSH]L¿VFK $XFK IU GLH *HRORJHQGHU$UEHLWVJUXSSHLVWGLH0DUVREHUÀlFKHLP)RNXVGHV,QWHUHVVHVDEHUGLH0DUVREHUÀlFKHGHU*HRORJHQEHVWHKWDXV6WHLQGLHGHU3KRtogrammeter hingegen aus Höhen. Und dennoch gehen beide davon aus,

R EFERENZ VERLUSTE – R EFERENZGEWINNE | 191

dass es sich um dasselbe Objekt handelt. Sie nehmen dies nicht einfach an, es ist die Grundlage ihrer Arbeit: Die Geologen verwenden die StrukWXUHQLP+|KHQSUR¿OXPDXI6FKLFKWXQJHQLQGHQ*HVWHLQVDEODJHUXQJHQ zu schließen. Und umgekehrt setzen die Photogrammeter voraus, dass die /LFKWUHÀH[LRQHQDP*HVWHLQHVHUP|JOLFKHQGLH+|KHQ]XEHVWLPPHQ Hier wird deutlich, dass es nicht nur um die Existenz des Objekts geht, VRQGHUQDXFKXPVHLQH(LJHQVFKDIWHQ'HPHQWVSUHFKHQGÀLH‰HQSHUPDnent weitere Annahmen über das Objekt in den Forschungsprozess ein. Diese Annahmen sind keine Forschungshypothesen, die es zu bestätigen oder zu widerlegen gelte. Es sind vielmehr Leitideen, die für die Anpassungen zwischen den verschiedenen Repräsentationen notwendig sind, von diesen aber niemals vollständig eingeholt werden. Sie sind notwendig für den Fortgang der alltäglichen Arbeit, ungeachtet dessen, ob sie sich prinzipiell oder gar tatsächlich selbst untersuchen lassen. Die kritische Referenz für diesen Prozess sind die auf der Basis der älteren MOLA-Messungen erstellten Geländemodelle. Anders als die HRSC misst das Mars Orbiter Laser Altimeter direkt die Höhe (was immer man unter »direkt« versteht!), nicht die Helligkeit, dafür aber nur entlang einer Linie, nicht über eine Fläche. Die Flächenabdeckung ist aber gerade der Vorteil der HRSC. Entlang dieser Linien stellen die MOLA-Daten eine harte Referenz dar. Bei Abweichungen werden die HRSC-Daten schlicht den MOLADaten angeglichen. Die Angleichung geschieht dabei selbstverständlich nicht nur entlang der Messlinie von MOLA, sondern durch Interpolation auch zwischen diesen. Das heißt, das ganze HRSC-basierte DTM wird gekippt oder gebogen. Da diese Prozedur orbitweise erfolgt, kommt es vor, dass sich zwischen zwei benachbarten Orbits Stufen ergeben. Diese Stufen werden beim patching ihrerseits wieder eliminiert. Grundlage dieses Schrittes ist die präsumtive Referenz. Es wird davon ausgegangen, dass es scharfe Stufen auf dem Mars nicht gibt, und schon gar nicht genau entlang der 6LFKWJUHQ]HQHLQHU]XIlOOLJGDUEHUJHÀRJHQHQ.DPHUD:HUZROOWHGLHV bestreiten? Also werden die Höhenmodelle noch einmal gekippt, verbogen oder geglättet, bis die Übergänge »realistisch« oder »natürlich« sind. Und »realistisch« oder »natürlich« bezieht sich auf das als extern existierend angenommene Objekt, auch wenn hier – und daher die Anführungs]HLFKHQ±LQGHU3UD[LVGLHVWXIHQORVH0DUVREHUÀlFKHVHOEVWNHLQH+LOIH ist, sondern nur die Daten. Es resultiert ein Geländemodell, bei dem jedem Flächenstück auf dem Mars genau ein Wert, nämlich seine Höhe zugeordnet ist. Dieser Wert ist durch alle drei Referenzen gleichzeitig bedingt.

192 | D ATENBILDER Die Realität der Simulation Die präsumtive Referenz der Millennium-Simulation ist die räumliche Verteilung der Dunklen Materie zu verschiedenen Zeitpunkten in der Entwicklung des Universums. Hier könnte man schon Einwände erheben. Wie kann etwas, dessen Natur noch völlig unklar ist, von dem gar ernst zu nehmende Astrophysiker (wenngleich in der Minderheit) bestreiten, dass es überhaupt existiert, eine Referenz darstellen? Hier ist daran zu erinnern, dass das Objekt im Sinne der präsumtiven Referenz etwas ist, das die Wissenschaftler für ihre Forschung als existent und erkennbar annehmen. Es geht gerade nicht darum, dass dieses vor der Erforschung und unabhängig von dieser gesichert würde und dann dessen Eigenschaften bestimmt würden. In diesem Sinne ist die präsumtive Referenz tatsächlich nur eine Annahme. Ohne eine solche Annahme geht es allerdings auch nicht. Denn mit dieser Dunklen Materie rechnet die Simulation. Es mag angesichts der Existenzfrage der Dunklen Materie verfrüht erscheinen, darüber zu diskutieren, ob sie nun 23% oder 25% des Materiegehaltes des Universums ausmacht, aber in der Simulation wirkt sich dieser Unterschied aus. Zwei Eigenschaften der präsumtiven Referenz sind jedoch zu beachWHQ'DVHUVWHLVWGLHWHFKQLNEHGLQJWH$XÀ|VXQJ'LHVHKUJUREH=XVDPmenfassung der Dunklen Materie zu »Teilchen« mit der Masse von einer Milliarde Sonnen stellt eine nur technisch bedingte Einschränkung dar. 'LHVLVWJDQ]DQDORJGHU3L[HOXQJGHU0DUVREHUÀlFKHLQ[0HWHU 4XDGUDWH1LFKWVVWHKWSULQ]LSLHOOHLQHUK|KHUHQ$XÀ|VXQJHQWJHJHQXQG in der Tat träumen schon jetzt die Marsforscher von einem 1-Quadratmeter-Netz und gleichzeitig die Astrophysiker von einer Simulation von einzelnen Sternen statt ganzer Galaxien. *UXQGOHJHQGDQGHUVDOVEHLGHU0DUVREHUÀlFKHLVWEHLGHU'XQNOHQ Materie jedoch das Ähnlichkeitsverhältnis. Die Ähnlichkeit kann hier nur eine Strukturähnlichkeit sein, da ja kein bestimmtes Gebiet des realen Universums simuliert wird.13 Die präsumtive Referenz bezieht sich also nicht auf die tatsächliche Verteilung der Dunklen Materie, sondern auf die Strukturen der Verteilung. Was ist dann hier aber die inskriptive Referenz? Auch hier scheint man zunächst in der Luft zu hängen. Sind beim Mars zwar Höhe und Helligkeit nur sehr indirekt verbunden, so hat man es doch zumindest mit auf physischen Einschreibungen beruhenden Daten zu tun. Solche gibt es 13 | Ähnlichkeit, das zeigt dieses Beispiel zudem, muss natürlich nicht visuelle oder bildliche Ähnlichkeit sein.

R EFERENZ VERLUSTE – R EFERENZGEWINNE | 193

in der Millennium-Simulation nicht. Dies bedeutet nun aber nicht, dass GLH'DWHQZLOONUOLFKRGHUJDU¿NWLYZlUHQ6LHEHUXKHQDXIVHKUYLHOHP Da ist zunächst das Wissen über die Dunkle Materie, einschließlich ihrer Dichte. Hinzu kommen allgemeine physikalische Theorien und Gesetze. Für die Garchinger Astrophysiker ist Newtons Gravitationstheorie und Einsteins Allgemeine Relativitätstheorie genauso sicher wie für die Berliner Marsforscher die Abbildungseigenschaften der CCD-Sensoren. Viel schwieriger sind hingegen die Anfangsbedingungen der Simulation. Erst wenn man den immensen Aufwand bedenkt, den die Astrophysiker betreiben, um ihre Teilchen zwar zufällig, aber in statistisch geQDXGH¿QLHUWHUDXI%HREDFKWXQJVGDWHQEDVLHUHQGHU:HLVHJHJHQEHUGHU Gleichverteilung auszulenken, wird klar, wie stark sich diese im Fortgang der Simulation einschreiben. Der Begriff der Inskription meint ja, dass sich etwas einschreibt, etwas also Spuren hinterlässt, ohne dass man eingreifen würde. Hier, so die Idee der Inskription, schreibt die Natur selber, auch wenn man vorher alles so arrangiert hat, dass sie dies tut. Aber warum Natur? Einschreiben kann sich auch die Theorie. Das Moment des Unvorhersehbaren, die Unmöglichkeit einzugreifen, die Notwendigkeit, die Spuren hinnehmen zu müssen (höchstens interpretieren, nicht aber ändern zu können oder zu GUIHQ ±DOOGLHV¿QGHWVLFKLQGHU6LPXODWLRQJHQDXVR Dass sich daneben auch Programmfehler einschreiben, von denen man gar nicht wissen kann, ob man alle gefunden hat, macht die Situation ebenso empirisch und ebenso unsicher wie die Beobachtungsdaten. Von der kritischen Referenz gibt es gleich drei verschiedene Varianten. Die erste ist ein Direktvergleich verschiedener Simulationen. Es gibt einen eigenen Forschungszweig, der die verschiedenen Simulationscodes unter kontrollierten Bedingungen auf eine astrophysikalische Situation anwendet und deren Ergebnisse miteinander vergleicht. Ein solcher Vergleich kann nur relativ, nicht absolut sein. Es gibt keine Meta-Simulation als Standard. Wie dann die Differenzen zwischen den Codes zu interpretieren sind, ist selbst Teil der Forschung. Um die Simulationen überhaupt miteinander vergleichen zu können, werden die Anfangs- und Randbedingungen so stark standardisiert, dass fraglich ist, ob man hier die unterschiedliche Spezialisierung der einzelnen Programme genügend berücksichtigt. Zudem können nicht die Daten selbst verglichen werden, sondern nur bestimmte, aus den Simulationen sich ergebende Strukturen, zum Beispiel die Anzahl der Gruppen mit einer bestimmten Teilchenzahl. Standards existieren also auch hinsichtlich der mit den Daten verfolgten Forschungsziele, die sich auf die Tests auswirken. Eine solche Anwendungsnähe gibt es bei der zweiten Variante der

194 | D ATENBILDER kritischen Referenz gerade nicht. Gemeint sind Tests anhand analytisch lösbarer oder vielfach simulierter, einfacher Probleme. Ein typisches Beispiel ist eine auf eine Gaswolke auftreffende Schockwelle. Hier wird die Sicherheit der Referenz mit möglicherweise fehlender Relevanz erkauft. Man muss gesondert begründen, warum Simulationscodes, die solche Standardprobleme gut reproduzieren, auch für reale Systeme geeignet sind. Die dritte Variante ist der Vergleich mit Beobachtungsdaten. Interessanterweise erfolgt der Vergleich hier weitgehend auf der Bildebene. Mit virtual telescopes werden Bilder erstellt, um sie mit Bildern aus tatsächlichen Beobachtungen zu vergleichen. Der Vergleich muss dabei wieder hinsichtlich struktureller Ähnlichkeit erfolgen. Ein rein auf die Bildobjekte bezogener Vergleich wäre sinnlos, da sich Simulationen oft gar nicht auf bestimmte Objekte beziehen. Auf der anderen Seite wäre ein rein formaler Vergleich – etwa von Farbe, Schärfe usw. – ebenso sinnlos, weil man die »künstlichen Daten« ja gerade so konstruiert hat, dass sie den Beobachtungsdatenbildern ähneln. Auch für die Simulation beruht die Geltung des in den Rechnern in Garching gespeicherten Modelluniversums auf der dreifach funktionierenden Referenz. Nur wenn erstens die zugrunde liegende physikalische Theorie, die Ausgangsbedingungen und die Rechenoperationen (als inskriptive Referenz), zweitens die Tests gegenüber anderen Programmen und der Beobachtung (als kritische Referenz) und drittens die kosmologischen Annahmen über Strukturbildung im Universum in Übereinstimmung sind, werden die Daten der Millennium-Simulation so real, dass die kategoriale Differenz zwischen dem Computermodell des Universums und dem tatsächlichen Universum kurzgeschlossen scheint. Nur dann ist es möglich, der Millennium-Simulation »Galaxiencluster« oder andere Objekte zu entnehmen, um damit ganz andere Forschungsfragen zu bearbeiten. Durch die funktionierende Referenz stellt das Simulationsuniversum eine zweite Realität dar.

JAN FRERCKS

II. 4 Epistemologie des Schattens

Wie dreidimensionaler Raum und dreidimensionale Dinge auf einem zweidimensionalen Bildträger dargestellt werden können, ist eine der fundamentalen Fragen zur Logik von Bildern schlechthin.1 Neben der Wahl der Perspektive sind die Beleuchtungssituation und die daraus resultierende Schattenbildung und -darstellung zentral für die Erzeugung von Tiefeneindrücken. Künstlerische Herausforderungen wie die Zeichnung des Faltenwurfs eines Tuchs oder des Muskelspiels in einem Akt lassen sich grundlegend auf die Darstellung von Körperschatten zurückführen.2 Raum, Dreidimensionalität und Tiefe werden durch Licht- und Schattensituationen dargestellt und erkannt. In wissenschaftlichen Visualisierungen ist das Zeigen von Dreidimensionalität auf einem zweidimensionalen Bildträger keinesfalls grundsätzlich durch den Untersuchungsgegenstand oder die Technik des bildgebenden Verfahrens determiniert, vielmehr ist es eine Entscheidung der Bilderzeuger, ob in der Darstellung der Daten eine dreidimensionale und damit dingliche Darstellung anvisiert wird und dieser Eindruck gegebenenfalls durch die Hinzufügung einer Beleuchtungssituation forciert

1 | So hat der Philosoph Lambert Wiesing pointiert: »Wie ein Bildträger in der Lage ist, das Bewusstsein ›eines gegenwärtig sich präsentierenden Bildobjekts‹ beim Betrachter zu erzeugen, ist zumindest derzeit unerklärlich – und das ist auch nicht sehr verwunderlich, denn hätte man eine Erklärung, so hätte man nichts Geringeres als eins der größten Rätsel der Menschheit gelöst.« Wiesing 2005a: 52. 2 | Zu Auseinandersetzungen mit Schattendarstellungen in der Kunst siehe: Stoichita 1999, Gombrich 1997, Casati 2001; grundlegend zur Wahrnehmungspsychologie von Schatten im Bild: Arnheim 2000 [1954].

196 | D ATENBILDER wird. Die dingliche Darstellung aufgenommener Daten ist eine Entscheidung, die das Wissen, das mit den Bildern erzeugt wird, prägt. Im Folgenden wird an prägnanten historischen Etappen die Verwendung von Schatten für die Darstellung von Räumlichkeit in Wissenschaftsbildern aufgezeigt und schließlich auf die Datenbilder der Astronomie bezogen.3 Dabei wird Schatten immer wieder als ein Spezialfall der Farbgebung erkennbar, da die Wahl eines dunkleren Farbtons der Darstellung und Wahrnehmung von Schatten dient. Die Erkenntniserzeugung mit Hilfe von Schatten stellt damit einen Spezialfall der Erkenntnisgenerierung mittels Farbe dar. Die in Kapitel II.1 skizzierte Nutzung von Farbe zum .RQWUDVWLHUHQ'LIIHUHQ]LHUHQXQG%HWRQHQ¿QGHWVLFKDXFKEHLP6FKDWWHQ wieder. Damit tragen die Ausführungen zur Epistemologie des Schattens auch zu epistemologischen Überlegungen bezüglich der Verwendung von Farben in Wissenschaftsbildern bei.

Schatten in Galileis Mondzeichnungen In der Geschichte der Wissenschaft lassen sich markante Punkte ausmachen, in denen die Erfassung und Darstellung einer Struktur mit Hilfe von Schatten erkenntnisgewinnenden Charakter hatte.4 In seiner Reichweite wohl unübertroffen waren diesbezüglich die Arbeiten Galileo Galileis, GHULP8QWHUVFKLHG]XVHLQHQ=HLWJHQRVVHQGLHJHÀHFNWH2EHUÀlFKHGHV Mondes durch seine Beobachtungen mit dem Teleskop als schattenwerfende Kraterlandschaft auffasste und aufgrund seiner künstlerischen Ausbildung als solche wiederzugeben vermochte (Abb. 39). Die Erkenntnis lag in der Erfassung und Darstellung dunkler Flächen als Schatten (vgl. Bredekamp 2007: 104ff; 137ff). Die Schattendarstellung konnte sich an allgemeinen alltäglichen Sehgewohnheiten orientieren und genau in dieser Alltäglichkeit lag ihre epistemische und weltanschauliche Brisanz begründet: Der göttliche Himmel erwies sich als rau, unregelmäßig und 3 | Die Aufmerksamkeit für die Rolle von Schatten in Wissenschaftsbildern geht auf die gemeinsame Arbeit an der Imago-Forschungsdatenbank mit den Mitarbeiterinnen und Mitarbeitern der Abteilung Das Technische Bild am Helmholtz-Zentrum für Kulturtechnik der HU Berlin zurück. 4 | Die hier getroffene Auswahl orientiert sich an der Eignung als Folie zur Diskussion der Datenbilder in der Astroforschung und erhebt keinesfalls den Anspruch, die Rolle von Schattendarstellungen in Wissenschaftsbildern im historischen Wandel darzustellen; beispielsweise bringt die Betrachtung von Photogrammen eine gänzlich andere Sicht auf Schatten in Wissenschaftsbildern hervor.

E PISTEMOLOGIE

$EE'LH0RQGREHUÀlFKHDOV .UDWHUODQGVFKDIWGDUJHVWHOOW*DOLOHR*DOLOHL

DES

S CHAT TENS | 197

kantig, nicht perfekter als die JHZRKQWH 2EHUÀlFKH GHU (UGH Der Wandel des Weltbildes, dass Erde und göttlicher Himmel gleichen Gesetzen gehorchen, war an die Darstellung der zerklüfWHWHQ 2EHUÀlFKH JHNQSIW GLH durch die Interpretation dunkler Flächen als Schatten erkannt worden war. Galilei konnte seine zeichnerischen Fähigkeiten, die er in klassischer künstlerischer Ausbildung erworben hatte, direkt auf seine Mondzeichnungen übertragen und gewinnbringend einsetzen.

Schatten in Höhenprofilen von Karten Auch wenn die Erfassung und Darstellung dunkler gefärbter Flächen als Schatten selten eine solch weltanschauliche Brisanz besitzt wie im Fall von Galileis Mondbeobachtungen und -zeichnungen, so prägen sie doch immer wieder Raumeindrücke. Sinnfällig wird die Entscheidung, Schattendarstellungen zur Erhöhung der Plastizität zu verwenden, etwa bei der Herausbildung wissenschaftlicher Darstellungskonventionen zur Normierung kartographischer Farbcodierungen.5 Im 19. Jahrhundert entwickelte graphische Verfahren suchten Farbabstufungen zu nutzen, um zu farbenplastischen Höhendarstellungen zu gelangen. Der Wiener Kartograph Karl Peucker unterzog Ende des 19. Jahrhunderts die Verfahren zur kartographischen Höhendarstellung einer eingehenden Kritik und entwarf in der Folgezeit eine eigene »physiologisch-optische Farbenskala« (vgl. Siemer 2007: 87). In ihr fanden die auch heute aus Atlanten und Karten vertrauten Abstufungen der Landdarstellung von in sich gestaffelten grünen Tiefebenen über gelbliche und bräunliche Felsen bis roten Gipfeln Verwendung (Abb. 40). In der Umsetzung in Karten wurde diese Farbwahl zur Wahrnehmung von Höhe mit einer weiteren Konvention der Farbwahl überlagert: eine dunkle Abstufung dieser jeweiligen Farben erhöhte durch die Suggestion von Schatten die Räumlichkeit der Darstellung (Abb. 41). Damit kom5 | Allgemein zur Geschichte der Reliefkartographie siehe Cavelti Hammer et. al 1997.

198 | D ATENBILDER

$EEª3K\VLRORJLVFKRSWLVFKH )DUEHQVNDOD©YRQ.DUO3HXFNHU]XU NDUWRJUDSKLVFKHQ+|KHQGDUVWHOOXQJ

$EE.DUWHLQIDUEHQSODVWLVFKHU +|KHQGDUVWHOOXQJPLWEHUODJHUWHP 6FKDWWHQZXUILQ5LFKWXQJ1RUGHQ 

binierte Peucker seine Farbenplastik mit dem bereits bestehenden System der Schattenplastik, die von einer südlichen Beleuchtung und entsprechendem Schattenwurf an Nordhängen ausging (Siemer 2007: 89). Zu der Staffelung von grünen, gelben, braunen und roten Farbtönen kam die Möglichkeit, jede einzelne dieser Farben dunkel abzustufen. Erst durch die Kombination dieser zwei Möglichkeiten zur Farbwahl erhöhte sich der räumliche Eindruck. Durch die Universalität der Darstellung und die Verbreitung von Karten kam es zur Ausprägung einer kollektiven Bildsprache, in der Konventionen für den einzelnen Betrachter zur Normalität wurden. Die Verwendung von Farbskalen und die Möglichkeit der dunklen Abstufung zur Schattendarstellung dienten der Erzeugung von Anschaulichkeit als Ideal des 19. Jahrhunderts, das sich in den Darstellungstraditionen fortsetzte und die Darstellung von Landschaften prägte. Im Vergleich zu den Mondzeichnungen Galileis lässt sich ein anderer epistemischer Status des Schattens feststellen: Während bei Galilei in der Schattendarstellung ein Argument lag, da VLHDXIHLQH]HUNOIWHWH2EHUÀlFKH verwies, erschienen in Karten die 6FKDWWHQUHJHOUHFKW]ZDQJVOlX¿J da von vornherein die Darstellung HLQHV+|KHQSUR¿OVLQWHQGLHUWZDU Für die Betrachter resultiert daraus eine Selbstverständlichkeit

E PISTEMOLOGIE

DES

S CHAT TENS | 199

des Schattens, der mitunter nicht einmal mehr bewusst wird. Viel zu verinnerlicht ist die Darstellungsform und zu selbstverständlich erscheint die Anschaulichkeit, so dass ihre Ursache kaum entziffert wird.

Photorealismus in der Computergraphik Eine weitere Auseinandersetzung mit Beleuchtungs- und Schattensituationen, in deren Traditionslinie auch die Datenbilder der Astroforschung stehen, hat sich auf einer kürzeren zeitlichen Skala ausgeprägt und betrifft das Darstellungsparadigma der Computergraphik. Ein Fluchtpunkt digitaler Bilderzeugung mit der Durchsetzung des Computers als Bildmaschine waren pseudorealistische Darstellungen, in GHQHQHEHQIDOOVGLH6LPXODWLRQYRQ%HOHXFKWXQJVVLWXDWLRQHQ5HÀH[LRQHQ und damit auch Schattensituationen eine zentrale Rolle gespielt haben.6 1975 widmete sich der Programmierer Martin Newell der computergraphischen Darstellung des »Utah Teapot«, einer Teekanne, die aufJUXQGLKUHU)RUPJHEXQJXQGGHUJODWWJOlQ]HQGHQ2EHUÀlFKH]XP$XVprobieren und Demonstrieren unterschiedlicher Algorithmen zur DarstelOXQJYRQ%HOHXFKWXQJ5HÀH[LRQXQG6FKDWWHQLGHDOJHHLJQHWZDUXQG]X einem Referenzobjekt avancierte (Abb. 42 a,b,c). Die Vorgabe entsprach der Idee des UD\WUDFLQJ, einem Verfahren bei dem Lichtstrahlen von einer SXQNWI|UPLJHQ/LFKWTXHOOHDXVJHKHQXQGDQ2EHUÀlFKHQUHÀHNWLHUWZHUGHQ'LH%HVFKDIIHQKHLWGHU7HHNDQQHEH]JOLFK)RUPXQG2EHUÀlFKHQbeschaffenheit war damit Herausforderung und Entgegenkommen für den Ansatz des UD\WUDFLQJ zugleich: Herausforderung wegen der rundlichen )RUPXQGUHÀHNWLHUHQGHQ2EHUÀlFKHXQG(QWJHJHQNRPPHQGD3UREOHPH wie die Darstellung von Haaren oder eines Fells ausgespart blieben. Dass eine Annäherung an ein Photo der Teekanne – nicht an die Teekanne selbst – angestrebt wurde, zeigt den Drang zu photorealistischen Darstellungen. Mit diesen Bestrebungen kam es zu einer direkten Adaption der gleichnamigen Kunstrichtung, die sich in den 1960er Jahren als H[WUHPUHDOLVWLVFKH0DOHUHLDXVJHELOGHWKDWWHXQGDXIGHUGRFXPHQWD in Kassel einem weiten Publikum präsentiert wurde. Photorealistische Darstellung stellte eine Gegenbewegung zur Kunst des 20. Jahrhunderts dar, in der die Überwindung von einer eindeutigen Relation zwischen 6 | Grundsätzlich sind zwei Sorten der Lichtdarstellung in der Computergraphik zu unterscheiden: das UD\WUDFLQJGDVGLH5HÀHNWLRQXQG%UHFKXQJ von Lichtstrahlen, die von punktförmigen Lichtquellen ausgehen, berechnet und die ab Mitte der 1980er Jahre einsetzende Verwendung des UDGLRVLW\, GHPOHXFKWHQGHXQGUHÀHNWLHUHQGH)OlFKHQ]XJUXQGHOLHJHQYJOGD]X.LWWOHU 2002.

200 | D ATENBILDER

$EEDEF'HUª8WDKWHDSRW©DYDQFLHUWHVHLW]XHLQHP5HIHUHQ]REMHNWGHU&RPSXWHUJUDSKLN3KRWR D XQGFRPSXWHUJUDSKLVFKH'DUVWHOOXQJHQ EF  Urbild und Abbild ein zentrales Movens war. In der Computergraphik wurde hingegen versucht, Natürlichkeit maschinell zu erzeugen und sich dem Abbild von etwas Realem anzunähern. Während in den Kartendarstellungen des 19. Jahrhunderts das Höhenrelief durch Farbcodierungen gekennzeichnet war, die von Schatten durch eine primitive gräuliche Überlagerung unterstützt wurde, war in der Computergraphik die BeUHFKQXQJ GHU /LFKWUHÀH[LRQHQ GLH +HUDXVIRUGHUXQJ VFKOHFKWKLQ ,Q GHU Kartendarstellung diente die beabsichtigte Anschaulichkeit dem Zweck GHU VFKQHOOHQ (UIDVVEDUNHLW GHV +|KHQSUR¿OV EHLVSLHOVZHLVH IU 3LORWHQ (vgl. Siemer 2007: 88). In der Computergraphik war der Realismus in den 1970er Jahren zunächst Selbstzweck; mit der Teekanne wurde ein vertrautes, an sich unbedeutendes Testobjekt gewählt, um die Algorithmen auszuprobieren und zu verfeinern. Trotz dieser Unterschieden ist beiden Beispielen – Karte wie ComSXWHUJUDSKLN±JHPHLQGDVVNHLQ=ZHLIHOEHUGLH([LVWHQ]YRQ6FKDWWHQ bestand; im Gegensatz zu Galilei war er keinesfalls eine kontroverse Aussage, sondern Mittel, um Idealen der Anschaulichkeit und Realismus zu genügen, so dass er in der Anknüpfung an Gewohnheiten beim Betrachter nicht bewusst wahrgenommen wird.

Schatten in Marsbildern In computergraphischen Astrobildern werden Farben einerseits Werten logisch zugeordnet, gleichzeitig erzeugen sie ihren Sinn aus der Bezugnahme auf Seh-, Darstellungs- und Bildtraditionen. %H]JOLFKGHUELOGOLFKHQ'DUVWHOOXQJYRQ+|KHQSUR¿OHQZHUGHQ3KRWRV GHU 0DUVREHUÀlFKH DXI GHQHQ 6RQQHQHLQVWUDKOXQJ ]X QDWUOLFKHP Schattenwurf führt, in Daten überführt, für die die Aufsicht mit einer Kodierung in Grauwerten einen Standard bildet (Abb. 43). Ralf Adelmann und Jan Frercks haben aufgezeigt, dass solche Bilder sowohl am Anfang der Bearbeitungskette stehen, wenn es zu einer ersten visuellen Umset-

E PISTEMOLOGIE

$EE$XIVLFKWDXIGHQ0DUVLQ *UDXVWXIHQGDUVWHOOXQJWLHIHUOLHJHQGH*HELHWHVLQGPLWGXQNOHUHQ 7|QHQEHOHJW

DES

S CHAT TENS | 201

zung der Daten kommt, als auch am Ende, wenn dem Abgleich GHU +56&%LOGHU PLW GHQ 02LA-Bildern eine Umwandlung in die Graustufenaufsicht folgt YJO .DS ,  2EZRKO LQ GLHVHQ Darstellungen kein Schattenwurf simuliert wird, ermöglicht die Verwendung von Graustufen von weiß über unterschiedliche Grautöne bis schwarz eine Anknüpfung an Sehgewohnheiten, wie dies bei der Verwendung einer Farbskala etwa von rot über violett-Töne bis blau nicht möglich wäre: Nicht zufällig sind tiefer liegende Werte mit dunklen Tönen belegt, höher OLHJHQGH PLW KHOOHQ :HUWHQ 2Ewohl kein Schattenwurf vorliegt, erfolgt die Zuordnung tiefer gelegener Gebiete mit dunkleren Werte geradezu unausweichlich im Einklang mit dem gewohnten Lichtregime. Das Bild ist damit sowohl zu ›lesen‹, indem die Werte über die Skala entziffert werden können, als auch zu ›betrachten‹, da das Tiefere als das Dunklere der Intuition entspricht. In der Verwendung der Grautöne fällt die Farbwahl zur Kodierung von Höhenwerten mit der latenten Wahrnehmung von Schatten zusammen. Eine Farbskala wie die von Peucker Ende des 19. Jahrhunderts entwickelte, wusste ein solches Zusammenkommen nicht zu leisten; er überlagerte seine Farben mit einem Grauschleier. Gleichzeitig ist die Verwendung von Graustufen als Farbcode ihrerseits kulturell auf-

202 | D ATENBILDER

$EEª6KDGHGUHOLHI©PLWVLPXOLHUWHP6FKDWWHQZXUI geladen. So war beispielsweise die Verwendung von Farben in den 1970er Jahren in der Wissenschaft verpönt, schienen sich Wissenschaftlichkeit und farbliche Gestaltung von Bildern auszuschließen (vgl. Heßler 2007b: 304). »Schwarz-Weiß«-Bilder – präziser als Graustufenbilder zu bezeichnen – sind hingegen bis heute als objektiver konnotiert (Diers 2006: 58), auch wenn sich mittlerweile die Anmutung von Wissenschaftsmagazinen der von Kunstmagazinen angepasst hat, wie der Wissenschaftshistoriker +RUVW %UHGHNDPS IHVWJHVWHOOW KDW %UHGHNDPS    ,Q GHU 3UD[LV H[LVWLHUHQZHLWHUH*UQGHIUGLH:DKOYRQ*UDXVWXIHQ(LQLJH:LVVHQschaftler heben in Gesprächen hervor, dass sie eine solche Farbwahl als angenehm für die Augen erachten und dass sie zudem Kontraste fein zu differenzieren wüssten.7 Ein anderer Grund sind geringere Kosten in der

7 | 'LH*HVSUlFKHZXUGHQQLFKWPLW$VWURSK\VLNHUQVRQGHUQPLW([SHrimentatoren der frühen Nanotechnologie geführt, die auf vergleichbare Weise Farbskalen auswählen können.

E PISTEMOLOGIE

DES

S CHAT TENS | 203

Publikation, da Farbdarstellungen auch in Magazinen, die grundsätzlich Farbdarstellungen anbieten, schlichtweg teurer sind. Im Gegensatz zu den Beobachtungen, Interpretationen und Darstellungen Galileis, in denen die Interpretation dunkler Flächen als Schatten ausschlaggebend waren, machen sich diese Bilder eine latente, unbewusste Wahrnehmung des tiefer Liegenden als das Dunklere zu Nutze. Doch bei all diesen Anknüpfungen an Bildtraditionen und Sehgewohnheiten empfanden Ralf Adelmann und Jan Frercks als Beobachter GHU DVWURQRPLVFKHQ %LOGSUD[LV GLH *UDXZHUWH IU VLFK VHOEVW VFKZLHULJ ]XHQW]LIIHUQ YJO.DS, 8QGDXFKLQGHU%LOGSUD[LVGHU$VWURSK\VLker wird die Aufsicht mit Graustufen durch Schrägansichten mit simulierten Schatten (»shaded reliefs«) ersetzt (Abb. 44). Die eindeutige Zuordnung einer Höhe zu einem Graustufenwert wird aufgegeben, da ein bestimmter Grauton nun eine Höhenposition oder aber auch eine Schattenlage angeben kann. Die Wahl eines Grauwertes ist nun das Ergebnis HLQHUNRPSOH[HUHQhEHUODJHUXQJYRQ1HLJXQJVZLQNHOXQG+|KHQSRVLWLon. Im Vergleich zu Peuckers Karten überlagern nicht »bunte« Farben mit gräulichem Schleier, sondern Grautöne aus zweierlei Motivation. Trotz GLHVHU=XQDKPHDQ.RPSOH[LWlWXQGVFKZLQGHQGHU(LQGHXWLJNHLWGHU&Rdierung eines Grautones wird der Eindruck der Plastizität vereinfacht. :lKUHQG]XQlFKVWYRQ3KRWRJUD¿HQDXVJHKHQG+|KHQSUR¿OHHUVWHOOWXQG natürlicher Schatten verwandt wurde, kommt er nun als Ergebnis einer simulierten Beleuchtungssituation zurück. Solche Graustufenbilder mit simuliertem Schatten lassen sich je nach Vorwissen des Betrachters in einem Kontinuum zwischen Entschlüsselung durch das Einbringen von Vorwissen über geologische Strukturen und die Verwendung der Skalen auf der einen Seite sowie die Betrachtung in Anknüpfung an Sehgewohnheiten auf der anderen Seite auffassen. Geologen verwenden VKDGHGUHOiHIVIUGHQ$EJOHLFKYRQ+56&%LOGHUQPLWGHQHQDXVGHU02/$.DPpagne und auch in wissenschaftsinternen Publikationen sind diese Bilder präsent. In den dortigen Legenden wird auf den Darstellungsmodus mit Schatten hingewiesen, da er durch die bestehende Alternative der Graustufenaufsicht nicht selbstverständlich ist. Die Schatten helfen dem GeoORJHQHLQH0RUSKRORJLHH[DNWHUHUIDVVHQ]XN|QQHQVLHKHOIHQDEHUDXFK HLQHP/DLHQHLQH/DQGVFKDIWLGHQWL¿]LHUHQ]XN|QQHQ(LQXQGGDVVHOEH Bild kann mit unterschiedlichem Vorwissen aufgefasst werden – Geologen können Formationen entschlüsseln und dem Laien erscheint bei der Bildbetrachtung die Darstellung von Schatten als selbstverständlich, da seine Erwartungen an die Darstellung einer rauen, keineswegs geometrisch idealen Landschaft erfüllt werden. Im Fall von Graustufenbildern IKUWGHU(LQVDW]YRQ6FKDWWHQLP.UHLVYRQ([SHUWHQZLHYRQ/DLHQJOHL-

204 | D ATENBILDER chermaßen zu einer Erhöhung der Sinnzuschreibung, auch wenn diese Sinnzuschreibungen mitunter divergieren. Die Verwendung der Schatten steht in der Tradition von Darstellungsidealen, Anschaulichkeit und Realismus zu erzeugen und macht in dieser Funktion Geländeformationen sichtbar. Wie bei Galileo Galilei ist GHU6FKDWWHQ(UNHQQWQLVLQVWUXPHQWXPGLH5DXLJNHLWGHU2EHUÀlFKHHUkennbar zu machen. Doch im Vergleich zur Frühen Neuzeit ist der Analogieschluss zwischen Erd- und Marsdarstellung zu einer Heuristik geworden, für die kein Planetenforscher mehr die Inquisition des Vatikans fürchten muss. Nutzte Galileo seine künstlerische Ausbildung, so können die Marsforscher auf Algorithmen zurückgreifen, die in den letzten 30 Jahren an Testobjekten wie der Teekanne entwickelt wurden. Mit den Algorithmen werden gleichzeitig auch immer photorealistische Bildideale aufgerufen.

3D-Ansichten der Marsoberfläche Bezüglich der Anknüpfung an Sehtraditionen durch die Realisierung von Raumkonzepten erscheint die Produktion von 3D-Filmen für die massenmediale Verbreitung nicht lediglich als ein Folgeschritt in der Bildbearbeitung, sondern auch als Folgeschritt in der Annäherung ans Realistische über die Verwendung von Lichtregimen hinaus. Die Perspektive wird durch eine permanente Änderung der Perspektive hervorgehoben. Nicht die Auswertung geologischer Fragen steht im Mittelpunkt dieser Filme, sondern auf Veranstaltungen wie Langen Nächten der Wissenschaft wird durch diese visuelle Strategie Nähe und Vertrautheit des Mars VXJJHULHUW2EZRKOHVHLQHNRPSOH[HQLFKWHLQGHXWLJEHDQWZRUWHWH)UDJH GDUVWHOOWZHOFKHQ6HKHLQGUXFNHLQ0HQVFKDXIGHU0DUVREHUÀlFKHKlWWH vermittelt die Dreidimensionalität und Plastizität eine Vertrautheit, die nicht zuletzt auf Farbverwendungen und Lichtarrangements beruht. Die Erzeugung solcher Filme macht deutlich, welche Erwartungshaltung die Marsforscher bei einem Laienpublikum vermuten – nämlich die, dass der ferne Mars vertraut und beherrschbar wirken sollte. Mit der Erzeugung von Dreidimensionalität setzen sich die Bildproduzenten zum Ziel, noch realistischere Darstellungen zu kreieren als dies mit einem Photo möglich ist und bieten dem Betrachter an, selber in die Landschaft eintauchen zu können. Dabei wir das photorealistische Ideal der 1970er Jahre so weit überspannt, dass die technischen Begrenzungen diesen Eindruck beim Betrachter wieder zusammenbrechen lassen. Da eine Immersion angepeilt, aber doch verfehlt wird, bleibt der Eindruck technischer Unzulänglichkeit (vgl. hier zu die Einleitung sowie Kap. I.1 dieses Buches).

E PISTEMOLOGIE

DES

S CHAT TENS | 205

Millenniumsimulation Wie für die Marsforschung macht auch der detaillierte Nachvollzug der %LOGSUD[LVLQGHU0LOOHQQLXPVLPXODWLRQGLH9HUZHQGXQJYRQ)DUEHQ]XU Erzeugung von Tiefeneindrücken deutlich. Der Vergleich der beiden Fallstudien zeigt, dass die Farbverwendungen in der Marsforschung sich nicht direkt auf die Millenniumsimulation übertragen lässt, vielmehr wird aus GLHVHU 3HUVSHNWLYH GLH +HWHURJHQLWlW ZLVVHQVFKDIWOLFKHU %LOGSUD[LV HLQmal mehr deutlich. Während Jan Frercks und Ralf Adelmann zeigen konnten, dass in beiden Fallstudien die Farbwahl die Anknüpfungsmöglichkeit an unterschiedliche Sehgewohnheiten gewährleistet hat, wiesen sie aber auch auf einen gravierenden Unterschied hin: In der Millenniumsimulation ist der ]XU9LVXDOLVLHUXQJH[WUDKLHUWH'DWHQVDW]ÀDFKVRGDVVNHLQH'UHLGLPHQsionalität besteht und damit auch keine Plastizität und keine Dinglichkeit zu erwarten ist. Schatten, der an Dreidimensionalität geknüpft ist, kommt LQGLHVHQ'DUVWHOOXQJHQQLFKWYRU'LH)DUEFRGLHUXQJLVWlX‰HUVWNRPSOH[ indem auf einer Helligkeitsskala die Anzahl der Teilchen dargestellt wird, die mit einer Farbcodierung verschränkt ist, um die Geschwindigkeitsdispersion darzustellen. Die Folge ist eine Annäherung an einen Tiefeneindruck: »Man blickt zwischen den Strukturen hindurch in die Tiefe des Raumes.« (Vgl. Kapitel I.2). Ralf Adelmann und Jan Frercks sind zunächst auf der Rolltreppe der U-Bahn in Garching diesem Bild begegnet und haben es durch ihre VorEHUHLWXQJVRZLHLKUHQ1DFKYROO]XJGHU%LOGSUD[LVHQWVFKOVVHOQN|QQHQ Für Laien, die nicht eine so ausgiebige Auseinandersetzung anstreben, OlVVWVLFKGLH.RPSOH[LWlWGHU)DUEJHEXQJMHGRFKQLFKWHLQPDOHUDKQHQ In der Präsentation für eine allgemeine Öffentlichkeit wird mit dieser Variabilität der Wahrnehmung bewusst gespielt: so wird der Zoom durch GLH6LPXODWLRQLQGHU$XVVWHOOXQJGHU0D[3ODQFN*HVHOOVFKDIWª6FLHQFH Tunnel« ohne weiteren Kommentar als gut 2-minütige Reise durch das Universum angeboten (Abb. 45). Besucher dieser weit gereisten Ausstellung in Shanghai, Singapur, Tokio, Johannesburg, Berlin, Dresden und Brüssel können auf ein globales kollektives Bildgedächtnis zurückgreifen, das Bildwelten wie dem Vorspann aus Raumschiff Enterprise geschuldet ist. Dabei können die Besucher darauf vertrauen, dass in einer $XVVWHOOXQJGHU0D[3ODQFN*HVHOOVFKDIW:LVVHQVFKDIWOLFKNHLW]XJUXQGH liegt. Ein Interesse des Besuchers, was mit welchen Mitteln denn nun genau dargestellt ist, wird ihm von Seiten der Ausstellungsgestalter nicht zugesprochen. Lediglich eine Fassade, ein Bildobjekt, das nicht weiter entschlüsselt werden kann, wird angeboten. Weder ein Einblick in die Praktiken der Wissenschaft, die Erkenntnisziele, noch die Ergebnisse sind

206 | D ATENBILDER möglich. Die Präsentation gibt Zeugnis davon ab, was die Wissenschaftskommunikatoren glauben, dass es die Besucher interessieren würde: eine Faszinationserzeugung von den Tiefen des Weltalls – ein Eindruck, der durch die Farbzuordnung eine Selbstverständlichkeit erfährt. Die Farbskala wurde vor der Durchführung der Simulation gewählt (vgl. Kapitel I.2) und fand ihre nachträgliche Rechtfertigung: zunächst in der innerwissenschaftlichen Auswertung als auch anschließend in der anschließenden Variabilität der Bildwahrnehmung bei der Kommunikation an Zielgruppen mit unterschiedlichem Vorwissen.

$EE6FUHHQVKRWVDXVHLQHP)LOP]XU0LOOHQQLXPVLPXODWLRQGHULP ,QWHUQHWXQGLQ$XVVWHOOXQJHQ]XVHKHQLVW

Die Variabilität der Bildrezeption Es ist vielfach darauf hingewiesen worden, dass die Sinnerzeugung von Bildern umfeldabhängig ist (Müller 2001: 18). Dieser allgemeine Befund ist auch für Wissenschaftsbilder gültig, mäandern diese Bilder doch vom Labor über Kolloquien und Tagungen in Zeitschriften, die sich an ein fachlich vorgebildetes oder auch ein Laienpublikum wenden können. Kaum Aufmerksamkeit wurde jedoch der Tatsache gewidmet, dass nicht alle Bilder in gleichem Maße in der Lage sein können, auf ihrem Weg zu unterschiedlichen Teilöffentlichkeiten unterschiedliches Wissen zu erzeugen. Einige Bilder haben eine größere Variabilität, innerwissenschaftlich »gelesen« zu werden und auch von Publikum ohne größeres Vorwissen in einem anderen Sinn aufgefasst zu werden als andere Bilder. Im Beispiel der Marsbilder als auch der Millenniumssimulation handelt es sich jeweils um Bilder, die in der Popularisierung eingesetzt werden können. Das Wissen, das mit diesen Bildern vermittelt wird, ist variabel. Maßgeblich für diese Variabilität ist dabei das Aufgreifen von Raumkonzepten, da durch die Farbauswahlen und Beleuchtungsregime die Vorstellung von Schatten hervorgerufen wird. Sie knüpfen an Raumkon-

E PISTEMOLOGIE

DES

S CHAT TENS | 207

zepte an, die dem Laien aus dem Alltag, Landkarten, Photos aus Ateliers oder Gemälden der Renaissance bekannt sind. Damit ist der epistemische Status der Farb-, Raum- und Schattenstrategien nicht dadurch bestimmt, ein bestimmtes, feststehendes Wissen zu erzeugen, vielmehr erhöhen Schatten- und Raumkonzepte die Variabilität des Wissens, das mit diesen Bildern im Prozess der Kommunikation erzeugt werden kann. Personen mit unterschiedlichem Vorwissen können den Bildern Bedeutungen beimessen. Das Wissen, das durch Schatten-, Farb- und Raumkonzepte hergestellt werden kann, ist damit einem synchronen Wandel unterworfen, GHUYRQ.RQWH[WXQG9RUZLVVHQDEKlQJW*OHLFK]HLWLJLVWHLQGLDFKURQHU Wandel bezüglich des Einsatzes von Schatten in Astrobildern zu konstatieren. Während bei Galileo die Deutung dunkler Flächen als Schatten ein Ergebnis war, das das Weltbild der Frühen Neuzeit erschüttert hat, ist die Verwendung von Schatten und Tiefeneindrücken zu Beginn des 21. Jahrhunderts in astronomischen Bildern zu einem Allgemeingut geworden. Die Anknüpfung an weltlichen Alltag bedeutet keine Provokation mehr, ist aber auch nicht unschuldig neutral, da die Wissenschaftskommunikation von ihr mitbestimmt ist. Nimmt man die synchrone wie die diachrone Dimension der Wandelbarkeit in den Blick, wird deutlich, wie sich die epistemologische Bedeutung des Schattens in astronomischen Darstellungen von einer kontroversen Zuspitzung bei Galilei zu einer Selbstverständlichkeit und zu variablen Bildrezeptionen verschoben hat.

JOCHEN HENNIG

Literatur

Abkürzungen zfv = Zeitschrift für Geodäsie, Geoinformation und Landmanagement MNRAS = Monthly Notices of the Royal Astronomical Society MNRAS:L = Monthly Notices of the Royal Astronomical Society: Letters

Literatur Adelmann, Ralf/Hennig, Jochen/Heßler, Martina (2008): »Visuelle Wissenskommunikation in Astronomie und Nanotechnologie. Zur epistemischen Produktivität und den Grenzen von Bildern«. In: Renate Mayntz/Friedhelm Neidhardt/Peter Weingart u. a. (Hg.): Wissensproduktion und Wissenstransfer. Wissen im Spannungsfeld von Wissenschaft, Politik und Öffentlichkeit. Bielefeld: transcript, S. 41-74. Arnheim, Rudolf (2000): Kunst und Sehen. Eine Psychologie des schöpferischen Auges, Berlin/New York: de Gruyter. Bartelmann, Matthias (2005): »Dunkle Strukturen. Die bislang größte astrophysikalische Computersimulation beschreibt detailliert die Entstehung von Galaxien«. In: Physik Journal 4, Nr. 6, S. 18-19. Batchelor, David (2002): Chromophobie. Die Angst vor der Farbe, Wien: facultas wuv universitätsverlag. Belsole, E./ Sauvageot, J.-L/Pratt, G.W./Bourdin, H. (2005): »Merging clusters of galaxies observed with XMM-Newton«. In: Advances in Space Research 36, S. 630-635. Berry, Richard/Burnell, James (2000): Handbook of Astronomical Image Processing. Richmond: Willmann-Bell. Bildwelten des Wissens (2006), »Farbstrategien«, Band 4,1.

L ITER ATUR | 209

Boehm, Gottfried (Hg.) (1994): Was ist ein Bild? München: Fink. Boehm, Gottfried (2001): »Zwischen Auge und Hand: Bilder als Instrumente der Erkenntnis«. In: Heintz/Huber (Hg.), S. 43-54. Boehm, Gottfried (2007): Wie Bilder Sinn erzeugen. Die Macht des Zeigens, Berlin: Berlin University Press. Böhme, Gernot (1999): Theorie des Bildes, München: Fink. Bogen, Steffen/Thürlemann, Felix (2003): »Jenseits der Opposition von Text und Bild. Überlegungen zu einer Theorie des Diagrammatischen«. In: Alexander Patschovsky (Hg.): Die Bildwelt der Diagramme Joachims von Fiore. Zur Medialität religiös-politischer ProJUDPPHLP0LWWHODOWHU2VW¿OGHUQ7KRUEHFNH6 Borck, Cornelius (1997): »Herzstrom: zur Dechriffrierung der elektrischen Sprache des menschlichen Herzens und ihrer Übersetzung in klinische Praxis«. In: Volker Hess (Hg.): Normierung der Gesundheit: Messende Verfahren der Medizin als kulturelle Praktik um 1900, Husum: Matthiesen, S. 65-87. %|UQHU*HUKDUG  .RVPRORJLH$XÀ)UDQNIXUW0)LVFKHU Bowker, Geof (2000): »Der Aufschwung der Industrieforschung«. In: Michel Serres (Hg.): Elemente einer Geschichte der Wissenschaften, Wien u.a.: Springer, S. 829-867. Bredekamp, Horst (2005): »Denkende Hände. Überlegungen zur Bildkunst der Naturwissenschaften«. In: Monika Lessl/Jürgen Mittelstraß (Hg.): Von der Wahrnehmung zur Erkenntnis – From Perception to Understanding. Symposium der Schering Forschungsgesellschaft zu Ehren von Prof. Dr. Dr. h.c. Günter Stock, Februar 2004, Berlin/Heidelberg: Springer, S. 109-132. Bredekamp, Horst (2007): Galilei der Künstler. Der Mond. Die Sonne. Die Hand, Berlin: Akademie-Verlag. Brüggen, M/Ruszkowski, M./ Hallman, E. (2005): »Active Galactic Nuclei Heating and Dissipative Processes in Galaxy Clusters«. In: The Astrophysikal Journal 630, S. 740-749. Burnell, Richard Berry / Janesick, James. 2000. The Handbook of Astronomical Image Processing. Richmond. &DOGZHOO-RKQ7KRUQWRQ  3URGXFWLRQFXOWXUHLQGXVWULDOUHÀH[LYLW\ DQGFULWLFDOSUDFWLFHLQ¿OPDQGWHOHYLVLRQ'XUKDP1&'XNH8QLversity Press. Casati, Roberto (2001): Die Entdeckung des Schattens. Die faszinierende Karriere einer rätselhaften Erscheinung, Berlin: Berliner Taschenbuch Verlag. Cavelti Hammer, Madlena/Feldmann, Hans-Uli/Oehrli, Markus (Hg.) (1997): Farbe, Licht und Schatten. Die Entwicklung der Reliefkartographie seit 1660. Murten: Cartographica Helvetica.

210 | D ATENBILDER Collins, Harry (1984): »Researching Spoonbending. Concepts and Practice of Participatory Fieldwork«. In: Collin Bell/Helen Roberts (Hg.): Social Researching. Politics, Problems, Practice, London: Routledge & Kegan Paul, S. 54-69. de Chadarevian, Soraya (1993): »Die ›Methode der Kurven‹ in der Physiologie zwischen 1850 und 1900«. In: Hans-Jörg Rheinberger/Michael Hagner (Hg.): Die Experimentalisierung des Lebens, Berlin: Akademie-Verlag, S. 28-49. Daston, Lorraine/Galison, Peter (1992): »The Image of Objectivity«. In: Representations 37, S. 67-106. Daston, Lorraine/Galison, Peter (2002): »Das Bild der Objektivität«. In: 3HWHU *HLPHU +J  2UGQXQJHQ GHU 6LFKWEDUNHLW )RWRJUD¿H LQ :LVsenschaft, Kunst und Technologie, Frankfurt/M.: Suhrkamp, S. 2999. 'LHUV0LFKDHO  )RWRJUD¿H)LOP9LGHR%HLWUlJH]XHLQHUNULWLVFKHQ Theorie des Bildes, Berlin: Philo and Philo Fine Arts. Dolag, K./Borgani, S./Schindler, S./u.a. (2008): »Simulation techniques for cosmological simulations«. In: Space Science Reviews 134, S. 229-268. Dolag, K./Reinecke, M./Gheller, C./u.a. (2008): »Splotch: Visualizing Cosmological Simulations«. In: New Journal of Physics 10. Elkins, James (1999): The Domain of Images, Ithaca/London: Cornell University Press. Elkins, James (2008): Six Stories from the End of Representation. Images in Painting, Photography, Astronomy, Microscopy, Particle Physics, and Quantum Mechanics, 1980-2000, Stanford/California: Stanford University Press. Fischer, Ernst. P. (1997): Das Schöne und das Biest. Ästhetische Momente in der Wissenschaft, München u.a.: Piper. Gao, Liang/Springel, Volker/White, Simon D. M. (2005): »The age dependence of halo clustering«. In: MNRAS:L 363, L66-L70. Gall, Alexander (Hg.) (2007): Konstruieren, Kommunizieren, Präsentieren. Bilder von Wissenschaft und Technik, Göttingen: Wallstein. Geimer, Peter (2002): »Einleitung«. In: ders. (Hg.): Ordnungen der 6LFKWEDUNHLW )RWRJUD¿H LQ :LVVHQVFKDIW .XQVW XQG 7HFKQRORJLH Frankfurt/M.: Suhrkamp, S. 7-25. Gespräch mit dem Künstler Richard Serra, Die Stahlplatte blieb einfach stehen, in: FAZ, Freitag, 3. Mai 2008, S. 40. Gombrich, Ernst H. (1994): Das forschende Auge. Kunstbetrachtung und Naturwahrnehmung, Frankfurt/M. u.a.: Campus-Verlag. Gombrich, Ernst (1997): Schatten. Ihre Darstellung in der abendländischen Kunst, Berlin: Wagenbach.

L ITER ATUR | 211

Goodman, Nelson (1995): Sprachen der Kunst, Frankfurt/M: Suhrkamp. Grab, Christoph (2001): »Teilchenphysik sichtbar machen«. In: Heintz/ Huber (Hg.), S. 109-120. Gramelsberger, Gabriele (2009): »Die präzise elektronische Phantasie der Automatenhirne. Eine Analyse der Logik und Epistemik simulierter Weltbilder«. In: Heßler/Mersch (Hg.), S. 219-234. Grube, Gernot (2006): »Digitale Abbildungen: Ihr prekärer Zeichenstatus«. In: Martina Heßler (Hg.): Konstruierte Sichtbarkeiten. Wissenschafts- und Technikbilder seit der Frühen Neuzeit, München: Fink, S. 179-196. Gugerli, David (1999): »Soziotechnische Evidenzen. Der »pictorial turn« als Chance für die Geschichtswissenschaft«. In: Traverse, 3/1999, S. 131-159. Günzel, Stephan (2009): »Bildlogik – Phänomenlogische Differenzen visueller Medien«. In: Heßler/Mersch(Hg.), S. 123-138. Gwinner, Klaus et al. (2007): »Global mapping of Mars by systematic derivation of Mars Express HRSC high-resolution digital elevation models and orthoimages«, paper given at ISPRS IV/7 Extraterrestrial Mapping Workshop, Houston. Hagner, Michael (1996): »Der Geist bei der Arbeit. Überlegungen zur visuellen Repräsentation cerebraler Prozesse«. In: Cornelius Borck (Hg.): Anatomien medizinischen Wissens. Medizin. Macht. Moleküle, Frankfurt/M.: Fischer, S. 259-286. Hagner, Michael (1997): »Zwei Anmerkungen zur Repräsentation in der Wissenschaftsgeschichte«. In: Rheinberger/Hagner/Wahrig-Schmidt, S. 339-355. Hartmann, Frank/Bauer, Erwin K. (2002): Bildersprache. Otto Neurath. Visualisierung, Wien: Wiener Universitätsverlag. Heintz, Bettina/Huber, Jörg (2001a): »Der verführerische Blick: Formen und Folgen wissenschaftlicher Visualisierungsstrategien«. In: dies. (Hg.), S. 9-40. Heintz, Bettina/Huber, Jörg (Hg.) (2001b): Mit dem Auge Denken. Strategien der Sichtbarmachung in wissenschaftlichen und virtuellen Welten, Wien u.a.: Springer. Heinz, S./Brüggen, M./Young, A./u.a. (2006): »The answer is blowing in the wind. Simulating the interaction of jets with dynamic cluster atmospheres«. In: MNRAS:L 373, L65-L69. Heipke, Christian et al. (2005): »HRSC auf Mars Express – Photogrammetrische und kartographische Auswertungen«. In: zfv, 120 (6), S. 379386.

212 | D ATENBILDER Heitmann, Katrin/Ricker, Paul M./Warren, Michael S./u.a. (2006): »Robustness of cosmological simulations. I. Large-scale structure«. In: The Astrophysical Journal Supplement Series 160, S. 28-58. Hennig, Jochen (2009): Bildpraxis. Visuelle Strategien in der frühen Nanotechnologie, Bielefeld: transcript. Hentschel, Klaus/Wittmann, Axel D. (2000): The Role of Visual Representations in Astronomy. History and Research Practice, Thun u.a.: Deutsch. Heßler, Martina (2006): »Von der doppelten Unsichtbarkeit digitaler Bilder«. In: zeitenblicke 5, Nr. 3. www.zeitenblicke.de +H‰OHU0DUWLQD D 'LHNUHDWLYH6WDGW=XU1HXHU¿QGXQJHLQHV7Rpos, Bielefeld: transcript. Heßler, Martina (2007b): »Die ›Mona Lisa der modernen Wissenschaften‹. Die Doppelhelix-Struktur als kulturelle Ikone«. In: Gall (Hg.), S. 291315. Heßler, Martina/Mersch, Dieter (Hg.) (2009): Logik des Bildlichen. Zur Kritik der ikonischen Vernunft, Bielefeld: transcript. -DQHVLFN-DPHV5  6FLHQWL¿F&KDUJH&RXSOHG'HYLFHV%HOOLQJham, WA: SPIE Press. Jaumann, Ralf et al. (2007): »The high-resolution stereo camera (HRSC) experiment on Mars Express: Instrument aspects and experiment conduct from interplanetary cruise through the nominal mission«. In: Planetary and Space Science, 55 (7/8), S. 928-952. Kemp, Martin (2003): Bilderwissen. Die Anschaulichkeit naturwissenschaftlicher Phänomene, Köln: DuMont. .LWWOHU)ULHGULFK  ª&RPSXWHUJUD¿N(LQHKDOEWHFKQLVFKH(LQIKrung«. In: Georg Christoph Tholen/Sabine Flach (Hg.): Mimetische Differenzen. Der Spielraum der Medien zwischen Abbildung und Nachbildung, Kassel: Kassel Univ. Press, S. 221-240. Köllmann, Carsten (2006): »Das elegante Universum und seine hemdsärmelige Wirtschaft – Ästhetische Aspekte der Wirtschaftswissenschaften«. In: Wolfgang Krohn (Hg.): Ästhetik in der Wissenschaft. Inderdisziplinärer Diskurs über das Gestalten und Darstellen von Wissen, Hamburg: Meiner, S. 79-104. Krämer, Sybille (2009): »Operative Bildlichkeit. Von der ›GrammatoloJLH½]XHLQHU¾'LDJUDPPDWRORJLH½"5HÀH[LRQHQEHUHUNHQQHQGHV¾6Hhen‹«. In: Heßler/Mersch (Hg.), S. 94-122. Krohn, Wolfgang (Hg.) (2006): »Die ästhetische Dimension der Wissenschaft«. In: ders.: Ästhetik in der Wissenschaft. Inderdisziplinärer Diskurs über das Gestalten und Darstellen von Wissen, Hamburg: Meiner, S. 3-38.

L ITER ATUR | 213

Kuhn, Thomas S. (1992): Die Entstehung des Neuen. Studien zur Struktur der Wissenschaftsgeschichte, Franfurt/M.: Suhrkamp. .XWVFKPDQQ:HUQHU  ª6FLHQWL¿FLQVWUXPHQWVDQGWKHVHQVHVWRwards an anthropological historiography of the natural sciences«. In: International Studies in the Philosophy of Science, vol.1, no 1, Sept., S. 106-123. Lacoste, Yves (1990): Geographie und politisches Handeln. Perspektiven einer neuen Geopolitik, Berlin: Wagenbach. Langer, Susanne K. (1984): Philosophie auf neuem Wege. Das Symbol im Denken, im Ritus und in der Kunst, Frankfurt/M.: Fischer. Latour, Bruno (1990): »Drawing things together«. In: Michael Lynch/SteYH:RROJDU +J 5HSUHVHQWDWLRQLQ6FLHQWL¿F3UDFWLFH&DPEULGJH MA/London: MIT Press, S. 19-68. Latour, Bruno (1993): La clef de Berlin et autres leçons d’un amateur des sciences, Paris: La Découverte. Latour, Bruno (1996): Der Berliner Schlüssel. Erkundungen eines Liebhabers der Wissenschaften, Berlin: Akademie-Verlag. Latour, Bruno (1997): »Der Pedologenfaden von Boa Vista. Eine photophilosophische Montage«. In: Rheinberger/Hagner/Wahrig-Schmidt 1997, S. 213-263. [identisch mit Latour 1996, S. 191-248] Latour, Bruno (1999): »Circulating Reference. Sampling the Soil in the Amazon Forest«. In: ders.: Pandora’s Hope. Essays on the Reality of Science Studies, Cambridge, MA/London: Harvard University Press, S. 24-79. Lessing, Gotthold Ephraim (1965): »Über den Beweis des Geistes und der Kraft«. In: ders.: Die Erziehung des Menschengeschlechts und andere Schriften, Stuttgart: Reclam. /LGGOH$QGUHZ  $Q,QWURGXFWLRQWR0RGHUQ&RVPRORJ\$XÀ Hoboken, NJ u.a.: Wiley. Lynch, Michael/Edgerton Jr., Samuel Y. (1988): »Aesthetics and digital image processing: Representational craft in contemporary astronomy«. In: Gordon Fyfe/John Law (Hg.): Picturing power: Visual depiction and social relations, London/New York: Routledge, S. 184-220. Maasen, Sabine/Weingart, Peter (2000): Metaphors and the Dynamics of Knowledge. London u.a.: Routledge. 0HUOHDX3RQW\0DXULFH  'LH3URVDGHU:HOW$XÀDJH0QFKHQ Fink. Mersch, Dieter (2006): »Visuelle Argumente. Zur Rolle der Bilder in den Naturwissenschaften«. In: Sabine Maasen/Torsten Mayerhauser/Cornelia Renggli (Hg.): Bilder als Diskurse, Bilddiskurse, Weilerswist: Velbrück Wissenschaft.

214 | D ATENBILDER Mersch, Dieter/Heßler, Martina (Hg.) (2009): Logik des Bildlichen. Zur Kritik der ikonischen Vernunft, Bielefeld: transcript. Mitchell, William J.T. (1990): »Was ist ein Bild?«. In: Volker Bohn (Hg.): Bildlichkeit. Internationale Beiträge zur Poetik, Frankfurt/M.: Suhrkamp, S. 17-68. Müller, Marion G. (2001): »Bilder – Visionen – Wirklichkeiten. Zur Bedeutung der Bildwissenschaft im 21. Jahrhundert«. In: Thomas Knieper/Marion G. Müller (Hg.): Kommunikation visuell. Das Bild als Forschungsgegenstand – Grundlagen und Perspektiven, Köln: von Halem, S. 14-24. Muthsam, H.J./Löw-Baselli, B./Obertscheider, Chr./u. a. (2008): »Highresolution models of solar granulation: the 2D case«. In: MNRAS 380, S. 1335-1340. Nesper, Reinhard (2001): »Die chemische Symbolik«. In: Heintz/Huber (Hg.) 2001b, S. 173-185. Neukum, G./Jaumann, Ralf and the HRSC Co-Investigator Team (2004): HRSC: The High Resolution Stereo Camera of Mars Express, ESA Special Publications SP-1240, S. 17-35. Peucker, Karl (1910): Höhenschichtenkarten. Studien und Kritiken zur /|VXQJGHV)OXJNDUWHQSUREOHPV0LWYLHU7H[W¿JXUHQXQGHLQHUIDUbigen Tafel. Stuttgart: Konrad Wittwer. Pias, Claus (2003): »Das digitale Bild gibt es nicht. Über das (Nicht-) Wissen der Bilder und die informatische Illusion«. In: zeitenblicke 2, Nr. 1. www.zeitenblicke.de Peirce, Charles S. (1955): Philosophical Writings of Peirce, New York: Dover Publications. Plümacher, Martina (1998): »Sinn der Bilder«. In: Klaus Sachs-Hombach/ Klaus Rehkemper, (Hg.): Bild – Bildwahrnehmung – Bildverarbeitung. Interdisziplinäre Beiträge zur Bildwissenschaft, Wiesbaden: Deutscher Universitätsverlag, S. 49-58. Raith, Wilhelm (Hg.)(2002): Bergmann-Schaefer: Lehrbuch der Experimentalphysik. Bd. 8: Sterne und Weltraum, Berlin/New York: de Gruyter. Rheinberger, Hans-Jörg (1993): »Vom Mikrosom zum Ribosom. ›Strategien‹ der ›Repräsentation‹ 1935–1995«. In: Hans-Jörg Rheinberger/ Michael Hagner (Hg.): Die Experimentalisierung des Lebens. Experimentalsysteme in den biologischen Wissenschaften 1850/1950, Berlin: Akademie-Verlag, S. 162–187. Rheinberger, Hans-Jörg (1997): »Von der Zelle zum Gen. Repräsentationen der Molekularbiologie«. In: Rheinberger/Hagner/WahrigSchmidt 1997, S. 265-279.

L ITER ATUR | 215

Rheinberger, Hans-Jörg (2001): »Objekt und Repräsentation«. In: Heintz/ Huber (Hg.), S. 55-61. Rheinberger, Hans-Jörg (2006): Experimentalsysteme und epistemische Dinge. Eine Geschichte der Proteinsynthese im Reagenzglas, Frankfurt/M.: Suhrkamp. Rheinberger, Hans-Jörg/Hagner, Michael/Wahrig-Schmidt, Bettina (Hg.) (1997): Räume des Wissens. Repräsentation, Codierung, Spur. Berlin: Akademie-Verlag Röpke, Friedrich (2006): »Multi-dimensional numerical simulations of type Ia supernova explosions«, Reviews in Modern Astronomy 19, S. 127-156. Schneider, Birgit (2009): »Wissenschaftsbilder zwischen digitaler Transformation und Manipulation. Einige Anmerkungen zur Diskussion des ›digitalen Bildes‹«. In: Heßler/Mersch (Hg.), S. 188-200. Scholten, Frank et al. (2004): »HRSC und Mars Express – Photogrammetrische Datenverarbeitung im planetaren Umfeld«. In: Eckhardt Seyfert (Hg.): Instrumentarien zur nachhaltigen Entwicklung von Landschaften, 13. Münster: Deutsche Gesellschaft für Photogrammetrie, Fernerkundung und Geoinformation, S. 467-474. Scholten, Frank et al. (2005): »Mars Express HRSC data processing – methods and operational aspects«. In: Photogrammetric Engineering & Remote Sensing, 71 (10), S. 1143-1152. Siemer, Stefan (2007): »Bildgelehrte Geotechniker. Luftbild und Kartographie um 1900«. In: Gall (Hg.), S. 69-108. Springel, Volker (2003): »Die Entstehung der Galaxien. Die phantastischen Fortschritte der Kosmologie haben ein Standardmodell zur Entstehung von großräumigen Strukturen im Universum ermöglicht«. In: Physik Journal 2, Nr. 6, S. 31-37. Springel, Volker (2005): »The Cosmological Simulation Code GADGET-2«. In: MNRAS 346, S. 1105-1134. Springel, Volker (2006): »Die Millennium-Simulation. Mit einem Superrechner auf den Spuren der Galaxien«. In: Sterne und Weltraum, November 2006, S. 30-40. Springel, Volker/Yoshida, Naoki/White, Simon D. M. (2001): »GADGET. A Code for Collisionless and Gasdynamical Cosmological Simulations«, New Astronomy 6, S. 79-117. Springel, Volker/White, Simon D. M./Jenkins, Adrian/u. a. (2005): »Simulations of the formation, evolution and clustering of galaxies and quasars«, in: Nature 435, Heft 7042, S.629-636. Springel, Volker/Frenk, Carlos S./White, Simon (2006): »The Large-scale Structure of the Universe«, in: Nature 440, Heft 7088, S. 1137-1145.

216 | D ATENBILDER Star, Susan Leigh/Griesemer, James R. (1989): »Institutional Ecology. ›Translations‹ and Boundary Objects: Amateurs and Professionals in Berkeley’s Museum of Vertebrate Zoology, 1907-39«. In: Social Studies of Science 19, S. 387-420. Steinbrenner, Jakob/Glasauer, Stefan (2007): Farben. Betrachtungen aus Philosophie und Naturwissenschaften, Frankfurt/M.: Suhrkamp. Stoichita, Victor (1999): Eine kurze Geschichte des Schattens, München: Fink. Tirsch, Daniela et al. (2007): »Dark dunes in Martian craters«, paper given at 38th Lunar and Planetary Science Conference, League City, Texas, March 12-16, 2007. Tufte, Edward R. (1990): Envisioning Information, Cheshire, CT: Graphics Press. Wechsler, Judith (Hg.) (1988): On Aesthetics in Science, Boston, MA u.a.: Birkhäuser. Werner, Gabriele (2001): »Das technische Bild – aus ästhetischer Sicht betrachtet«. In: Heintz/Huber (Hg.), S. 367-328. White, Hayden (1986): Auch Klio dichtet oder die Fiktion des Faktischen: Studien zur Tropologie des historischen Diskurses, Stuttgart: KlettCotta. Wiesing, Lambert (2000): Phänomene im Bild, München: Fink. :LHVLQJ/DPEHUW D $UWL¿]LHOOH3UlVHQ]6WXGLHQ]XU3KLORVRSKLH des Bildes, Frankfurt/M.: Suhrkamp. Wiesing, Lambert (2005b): »Ornament, Diagramm, Computerbild. Phänomene des Übergangs. Ein Gespräch der Bildwelten des Wissens mit Lambert Wiesing«. In: Bildwelten des Wissens, Band 3,1, S. 115-128. Winter, Irene J. (1998): »The Affective Properties of Styles: An Inquiry into Analytical Process and the Inscription of Meaning in Art History«. In: Caroline A. Jones/Peter Galison (Hg.): Picturing Science, Producing Art. New York, NY u.a.: Routledge, S. 55-77.

Abbildungsverzeichnis

Einleitung Abb. 1: Orbit 0334 3D-Perspektivbild, © ESA, DLR, FU Berlin (G. Neukum).

I.1 Orbits Abb. 2: Erstes Mariner-4-9LGHRELOG GHU 0DUVREHUÀlFKH GLH $XÀ|VXQJ EHWUlJWXQJHIlKU.LORPHWHU‹1$6$ $EE02/$.DUWHGHV0DUV‹1$6$ $EE+56& +LJK5HVROXWLRQ6WHUHR&DPHUD ‹'/5 $EE'LHQHXQ.DQlOHGHU+56&XQGLKUH$XVULFKWXQJLQ%H]XJ]XU 0DUVREHUÀlFKH6WHUHRQDKHV,QIUDURW3KRWRJUDPPHWULH*UQ 1DGLU%ODX3KRWRJUDPPHWULH5RW6WHUHR YRQOLQNVQDFKUHFKWV  © DLR. $EE2UELW%LOGVWUHLIHQDXIGHU0DUVREHUÀlFKH‹(6$'/5)8 Berlin (G. Neukum). $EE2UELW1DGLU/HYHO YRQOLQNVQDFKUHFKWV ‹(6$ DLR, FU Berlin (G. Neukum). $EE%HLVSLHOIUHLQshaded-relief-Mosaik aus Jaumann et al. 2007: 944. $EE  9HUJOHLFK YRQ YLHU shaded reliefs HLQHV $XVVFKQLWWV GHU 0DUVREHUÀlFKH ]XU 9HUGHXWOLFKXQJ GHV 4XDOLWlWVJHZLQQV GXUFK +56& 'DWHQ LQ HLQHU )DFK]HLWVFKULIW 1DGLUNDQDO GHU +56& REHQ OLQNV  9LVXDOLVLHUXQJGHV02/$0RGHOOV REHQUHFKWV GDV/HYHO*HOlQGHPRGHOO XQWHQ OLQNV  XQG GDV /HYHO *HOlQGHPRGHOO DXV +56& 'DWHQ XQWHQUHFKWV -DXPDQQHWDO

218 | D ATENBILDER $EE9HUJOHLFKYRQ+56&XQG02/$*HOlQGHPRGHOOPLW'LIIHUHQ]ELOGHUQGHU+|KHQXQWHUVFKLHGH]ZLVFKHQEHLGHQ0RGHOOHQ*ZLQQHU et al. 2007. $EE$QDJO\SKH2UELW‹(6$'/5)8%HUOLQ *1HXNXP  $EE2UELW)DUEELOG‹(6$'/5)8%HUOLQ *1HXNXP  $EE2UELW'3HUVSHNWLYELOG‹(6$'/5)8%HUOLQ *1HXkum). $EE$XVVFKQLWWDXVHLQHP%HLWUDJIUHLQH3RVWHU6HVVLRQ $EE$XVVFKQLWWDXV7LUVFKHWDO

I.2 Runs $EE7\SLVFKH9LVXDOLVLHUXQJDXVGHUMillennium6LPXODWLRQ(UOlXWHUXQJLP7H[W‹9RONHU6SULQJHO0D[3ODQFN,QVWLWXWIU$VWURSK\VLN*DUFKLQJ $EE9LVXDOLVLHUXQJDXVGHUMillennium6LPXODWLRQPLW2ULJLQDOELOGOHJHQGHDXV6SULQJHOHWDO $EE:LH$EEMHGRFKRKQH)DUEFRGLHUXQJGHU*HVFKZLQGLJNHLWVGLVSHUVLRQXQYHU|IIHQWOLFKW‹9RONHU6SULQJHO0D[3ODQFN,QVWLWXW IU$VWURSK\VLN*DUFKLQJ $EE)DUEVNDODIUGLH'DUVWHOOXQJGHU*HVFKZLQGLJNHLWVGLVSHUVLRQ XQYHU|IIHQWOLFKW ‹ 9RONHU 6SULQJHO 0D[3ODQFN,QVWLWXW IU $VWURSK\VLN*DUFKLQJ $EE  (QWZUIH IU HLQH DQGHUH )DUEJHVWDOWXQJ IU GLH 3URMHNWLRQVbilder aus der Millennium6LPXODWLRQ XQYHU|IIHQWOLFKW ‹ 9RONHU 6SULQJHO0D[3ODQFN,QVWLWXWIU$VWURSK\VLN*DUFKLQJ $EE*HVFKDFKWHOWHV3URMHNWLRQVELOGGDVIDVWLGHQWLVFKLQHLQHU3UHVVHPLWWHLOXQJXQGLQ]ZHLYHUVFKLHGHQHQ=HLWVFKULIWHQDEJHGUXFNWLVW ‹9RONHU6SULQJHO0D[3ODQFN,QVWLWXWIU$VWURSK\VLN*DUFKLQJ $EE9HUWHLOXQJGHU+lX¿JNHLWYRQ+DORVDXV'XQNOHU0DWHULHLQ$EKlQJLJNHLWYRQGHUHQ*U|‰HPLWGHU2ULJLQDOELOGOHJHQGHDXV6SULQJHOHWDO $EE  9HUWHLOXQJ YRQ NOHLQHQ +DORV DXV XQWHUVFKLHGOLFKHQ (SRFKHQ (UOlXWHUXQJLP7H[WDXV*DRHWDO $EE  9LVXDOLVLHUXQJHQ GHU 9HUWHLOXQJ YRQ NOHLQHQ +DORV DXV XQWHUVFKLHGOLFKHQ(SRFKHQ $XVVFKQLWW PLW2ULJLQDOELOGOHJHQGHZHLWHUH (UOlXWHUXQJHQLP7H[WDXV*DRHWDO $EE9HUJOHLFKGHU'DWHQDXVGHUMillennium-Simulation mit BeREDFKWXQJVGDWHQPLW2ULJLQDOELOGOHJHQGHDXV6SULQJHOHWDO $EE9LVXDOLVLHUXQJGHUWKHUPRQXNOHDUHQ)ODPPHDXVGHU6LPXODWLRQ HLQHU7\SD6XSHUQRYDDXV5|SNH'LH%LOGHU]HLJHQGHQ=X-

A BBILDUNGSVERZEICHNIS | 219

VWDQG DP $QIDQJ GHU ([SORVLRQ VRZLH  6HNXQGHQ  6HNXQGHQ XQG  6HNXQGHQ GDQDFK ‹ )ULHGULFK 5|SNH 0D[3ODQFN,QVWLWXW IU$VWURSK\VLN*DUFKLQJ Abb. 30: SnapshotDXVHLQHU6LPXODWLRQGHU'\QDPLNLQGHU*UHQ]VFKLFKW GHU6RQQHDXV0XWKVDPHWDO $EE9LVXDOLVLHUXQJHQGHV7HVWVYRQGADGET-2DQKDQGGHV0RGHOOSUREOHPV HLQHU DXI HLQH *DVZRONH DXIWUHIIHQGHQ 6FKRFNZHOOH PLW 2ULJLQDOOHJHQGHDXV6SULQJHO $EE9HUJOHLFKYRQ6LPXODWLRQVFRGHVDQKDQGGHU9LVXDOLVLHUXQJYRQ 3UREHVLPXODWLRQHQHLQHUW\SLVFKHQDVWURSK\VLNDOLVFKHQ6LWXDWLRQDXV +HLWPDQQHWDO $EE  9HUJOHLFK HLQHV %HREDFKWXQJVELOGV OLQNV  DXV %HOVROH HW DO PLWHLQHPVLPXOLHUWHQ%LOG UHFKWV DXV'RODJHWDO $EE  5|QWJHQELOGHU YRP 3HUVHXV+DXIHQ OLQNV  KWWSFKDQGUDKDUYDUGHGXSKRWRSHUVHXV >@ XQG YRQ HLQHP YHUJOHLFKEDUHQ*DOD[LHHQOXVWHUDXVHLQHU6LPXODWLRQ UHFKWV ‹0DUFXV%UJJHQ-DFREV8QLYHUVLW\%UHPHQ

II.2 Implizite Bildtheorien $EE8QWHUVFKHLGXQJGHV)DUEHLQVDW]HVDXVKWWSKXEEOHVLWHRUJJDOOHU\EHKLQGBWKHBSLFWXUHVPHDQLQJBRIBFRORUWRROSKS $EE(UOlXWHUXQJGHU:LUNXQJYRQ/LFKW¿OWHUQDXVKWWSKXEEOHVLWH RUJJDOOHU\EHKLQGBWKHBSLFWXUHVPHDQLQJBRIBFRORU¿OWHUVSKS $EE  (UNOlUXQJ GHU )DUEJHEXQJ GHV 0DUV DXV KWWSKXEEOHVLWHRUJ JDOOHU\EHKLQGBWKHBSLFWXUHVPHDQLQJBRIBFRORUPDUVSKS $EE)DOVFKIDUEHQGDUVWHOOXQJDXV-DXPDQQHWDO

II.4 Epistemologie des Schattens $EE  'LH 0RQGREHUÀlFKH DOV .UDWHUODQGVFKDIW GDUJHVWHOOW *DOLOHR *DOLOHL%LEOLRWHFD1D]LRQDOH&HQWUDOH)ORUHQ] $EEª3K\VLRORJLVFKRSWLVFKH)DUEHQVNDOD©YRQ.DUO3HXFNHU]XUNDUWRJUD¿VFKHQ+|KHQGDUVWHOOXQJDXV3HXFNHU $EE  .DUWH LQ IDUEHQSODVWLVFKHU +|KHQGDUVWHOOXQJ PLW EHUODJHUWHP 6FKDWWHQZXUILQ5LFKWXQJ1RUGHQDXV3HXFNHU $EEDEF'HUª8WDKWHDSRW©DYDQ]LHUWHVHLW]XP5HIHUHQ]REMHNWGHU &RPSXWHUJUD¿N)RWR D XQGFRPSXWHUJUD¿VFKH'DUVWHOOXQJHQ EF  DXVKWWSDUFKLYHFRPSXWHUKLVWRU\RUJ D KWWSFRPPRQVZLNLPHGLD

220 | D ATENBILDER RUJZLNL)LOH8WDKBWHDSRWBVLPSOHSQJ E   KWWSZZZMRKQFXOSQHW LPDJHVXWDKWHDSRWUHOHDVHMSJ F    $EE$XIVLFKWDXIGHQ0DUVLQ*UDXVWXIHQGDUVWHOOXQJWLHIHUOLHJHQGH *HELHWHVLQGPLWGXQNOHUHQ7|QHQEHOHJW LGHQWLVFK$EE,  $EEª6KDGHGUHOLHI©PLWVLPXOLHUWHP6FKDWWHQZXUI LGHQWLVFK$EE ,  $EE6FUHHQVKRWVDXVHLQHP)LOP]XU0LOOHQLXPVVLPXODWLRQGHULP ,QWHUQHWXQGLQ$XVVWHOOXQJHQ]XVHKHQLVWDXVKWWSZZZPSDJDUFKLQJPSJGHJDOIRUPSUHVVH  

Science Studies Nicholas Eschenbruch, Viola Balz, Ulrike Klöppel, Marion Hulverscheidt (Hg.) Arzneimittel des 20. Jahrhunderts Historische Skizzen von Lebertran bis Contergan September 2009, ca. 276 Seiten, kart., ca. 25,80 €, ISBN 978-3-8376-1125-0

Sandro Gaycken, Constanze Kurz (Hg.) 1984.exe Gesellschaftliche, politische und juristische Aspekte moderner Überwachungstechnologien (2. unveränderte Auflage 2009) 2008, 310 Seiten, kart., 29,80 €, ISBN 978-3-89942-766-0

Carmen Gransee, Maren Krähling, Marion Mangelsdorf Technoscience Eine kritische Einführung in Theorien der Wissenschafts- und Körperpraktiken Juli 2009, ca. 150 Seiten, kart., ca. 13,80 €, ISBN 978-3-89942-708-0

Leseproben, weitere Informationen und Bestellmöglichkeiten finden Sie unter www.transcript-verlag.de

2009-05-15 11-47-24 --- Projekt: transcript.anzeigen / Dokument: FAX ID 02c5210281386118|(S.

1-

3) ANZ1041.p 210281386126

Science Studies Bernd Hüppauf, Peter Weingart (Hg.) Frosch und Frankenstein Bilder als Medium der Popularisierung von Wissenschaft Januar 2009, 462 Seiten, kart., zahlr. z.T. farb. Abb., 32,80 €, ISBN 978-3-89942-892-6

Gesine Krüger, Ruth Mayer, Marianne Sommer (Hg.) »Ich Tarzan.« Affenmenschen und Menschenaffen zwischen Science und Fiction 2008, 184 Seiten, kart., zahlr. Abb., 22,80 €, ISBN 978-3-89942-882-7

Philippe Weber Der Trieb zum Erzählen Sexualpathologie und Homosexualität, 1852-1914 2008, 382 Seiten, kart., 29,80 €, ISBN 978-3-8376-1019-2

Leseproben, weitere Informationen und Bestellmöglichkeiten finden Sie unter www.transcript-verlag.de

2009-05-15 11-47-25 --- Projekt: transcript.anzeigen / Dokument: FAX ID 02c5210281386118|(S.

1-

3) ANZ1041.p 210281386126

Science Studies Kai Buchholz Professionalisierung der wissenschaftlichen Politikberatung? Interaktions- und professionssoziologische Perspektiven 2008, 240 Seiten, kart., 25,80 €, ISBN 978-3-89942-936-7

Michael Eggers, Matthias Rothe (Hg.) Wissenschaftsgeschichte als Begriffsgeschichte Terminologische Umbrüche im Entstehungsprozess der modernen Wissenschaften Mai 2009, 274 Seiten, kart., 27,80 €, ISBN 978-3-8376-1184-7

Heiner Fangerau, Thorsten Halling (Hg.) Netzwerke Allgemeine Theorie oder Universalmetapher in den Wissenschaften? Ein transdisziplinärer Überblick Juli 2009, ca. 276 Seiten, kart., zahlr. Abb., ca. 26,80 €, ISBN 978-3-89942-980-0

Gabriele Gramelsberger Computerexperimente Zum Wandel der Wissenschaft im Zeitalter des Computers Oktober 2009, ca. 296 Seiten, kart., ca. 29,80 €, ISBN 978-3-89942-986-2

Wilfried Heinzelmann Sozialhygiene als Gesundheitswissenschaft Die deutsch/deutsch-jüdische Avantgarde 1897-1933. Eine Geschichte in sieben Profilen Juli 2009, ca. 384 Seiten, kart., ca. 29,80 €, ISBN 978-3-8376-1144-1

Jochen Hennig Bildpraxis Visuelle Strategien in der frühen Nanotechnologie August 2009, ca. 338 Seiten, kart., zahlr. z.T. farb. Abb., ca. 32,80 €, ISBN 978-3-8376-1083-3

Renate Mayntz, Friedhelm Neidhardt, Peter Weingart, Ulrich Wengenroth (Hg.) Wissensproduktion und Wissenstransfer Wissen im Spannungsfeld von Wissenschaft, Politik und Öffentlichkeit 2008, 350 Seiten, kart., 29,80 €, ISBN 978-3-89942-834-6

Katja Patzwaldt Die sanfte Macht Die Rolle der wissenschaftlichen Politikberatung bei den rot-grünen Arbeitsmarktreformen 2008, 300 Seiten, kart., 29,80 €, ISBN 978-3-89942-935-0

Gerlind Rüve Scheintod Zur kulturellen Bedeutung der Schwelle zwischen Leben und Tod um 1800 2008, 338 Seiten, kart., 31,80 €, ISBN 978-3-89942-856-8

Leseproben, weitere Informationen und Bestellmöglichkeiten finden Sie unter www.transcript-verlag.de

2009-05-15 11-47-25 --- Projekt: transcript.anzeigen / Dokument: FAX ID 02c5210281386118|(S.

1-

3) ANZ1041.p 210281386126

2008-05-27 12-26-20 --- Projekt: transcript.titeleien / Dokument: FAX ID 02a8179786122216|(S.

2

) T00_02 seite 2 - 746.p 179786122240