Bilder der Präzision: Praktiken der Verfeinerung in Technik, Kunst und Wissenschaft 9783110417081, 9783110417012

Precision is a key concept in technology, art, and science, which is closely related to procedures for measurement and p

192 49 6MB

German Pages 296 Year 2018

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
Inhalt
EINLEITUNG
Cutting Edges. Präzision in der Form des Bildes
PASSUNGSVERSUCHE
Urgewichte und Naturmaße
Präzision ins Bild gesetzt. Der Reinraum als Showroom
Scalpel-like precision. Hochpräzision in der bildgeführten Radiochirurgie
Im Bild fixiert. Der Fall Schmieder als Beispiel fotografischer Erfassung in der Psychiatrie
Bilder als Werkzeuge. Lokalisationsmikroskopie und das Versprechen der hohen Auflösung
Zur Generierung von Präzision des Messbaren und des Unberechenbaren in Physik und Anthropologie. Ein Gespräch Über genaue Beobachtung
KOMPLEXITÄT
Amorphe Punktwolken. Präzision und Kontingenz in Carl Koppes Wolkenphotogrammetrie
Exaktheit und Präzision in der mathematischen Naturwissenschaft
Von Tupfen, Rissen und Fäden. Präzision als verkörperte Praxis in der Frühen Neuzeit
„ … so dreht sich das Rad wie der Himmel“ Uhren in Spiegelform als Bilder der Präzision im 16. Jahrhundert
MONTAGEN UND RHYTHMEN
Präzisions- oder Illusionsmaschine, oder: Wie Martin Scorseses Hugo Cabret Filmgeschichte in Szene setzt
Präzise Technik – Genaue Handarbeit. Ali Kazmas Automobile Factory (2012) in der Automationsdebatte
Präzise Montage. Polaroid SX-70 Sofortbildfotografie und ihre Darstellung in einem Film des Eames Office, 1972
Zufall durch Präzision. John Cages Experiment und die Genese von Zufalls- und Präzisionsbildern
BILDLICHE ENTSCGEIDUNGEN
Harndruck. Farbskalen zwischen Gestaltung und Diagnostik
Bildlogik der Vagheit. Zur juridischen Ikonologie des Abwägens
Selektive Genauigkeit. Präzisionsentscheidungen in den Flow-Maps von Charles Joseph Minard
Prägnanz als Kriterium für die Präzision diagrammatischer Bilder
Dialektik der Genauigkeit. Nicolaus Cusanus und Leon Battista Alberti
ANHANG
Die Autorinnen
Bildnachweise
Personenregister
Orts- und Sachregister
Recommend Papers

Bilder der Präzision: Praktiken der Verfeinerung in Technik, Kunst und Wissenschaft
 9783110417081, 9783110417012

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Bilder der Präzision

Bilder der Präzision Praktiken der Verfeinerung in Technik, Kunst und Wissenschaft Herausgegeben von Matthias Bruhn und Sara Hillnhütter

Gedruckt mit Unterstützung der Deutschen Forschungsgemeinschaft Besonderer Dank an Michael Allmendinger (Bundesverfassungsgericht K ­ arlsruhe) Geraldine Kirrihi Barlow (Brisbane) Familie Bucher (Coligny) Cevdet Erek Ali Kazma Katja Richter, Anja Weisenseel (De Gruyter) Stefan Zieme (Berlin)

ISBN 978-3-11-041701-2 e-ISBN (PDF) 978-3-11-041708-1 e-ISBN (EPUB) 978-3-11-041718-0 Library of Congress Cataloging-in-Publication Data Names: Bruhn, Matthias, editor. | Hillnhuetter, Sara, editor. Title: Bilder der Präzision : Praktiken der Verfeinerung in Technik, Kunst und Wissenschaft / herausgegeben von Matthias Bruhn, Sara Hillnhuetter. Description: Berlin ; Boston : De Gruyter, 2018. Identifiers: LCCN 2018014893| ISBN 9783110417012 (paperback) | ISBN 9783110417180 (epub) Subjects: LCSH: Exact (Philosophy) | Arts--Philosophy. | Technology--Philosophy--Case studies. | Science--Philosophy--Case studies. | BISAC: ART / General. Classification: LCC B105.E75 B55 2018 | DDC 530.801--dc23 LC record available at https://lccn.loc.gov/2018014893 Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.dnb.de abrufbar. ©  2018 Walter de Gruyter GmbH, Berlin/Boston Einbandabbildung: Henriette Skorna Bildredaktion: Simon Lindner, Sara Hillnhütter, Matthias Bruhn Layout und Satz: Andreas Eberlein, aromaBerlin Druck und Bindung: Hubert & Co. GmbH & Co. KG, Göttingen www.degruyter.com

Inhalt EINLEITUNG 11 Matthias Bruhn Cutting Edges. Präzision in der Form des Bildes

PASSUNGSVERSUCHE 23 Matthias Bruhn Urgewichte und Naturmaße 37 Christina Landbrecht und Verena Straub Präzision ins Bild gesetzt. Der Reinraum als Showroom 49 Kathrin Friedrich Scalpel-like precision. Hochpräzision in der bildgeführten Radiochirurgie 59 Franziska Kunze Im Bild fixiert. Der Fall Schmieder als Beispiel fotografischer Erfassung in der Psychiatrie 69 Nina Samuel Bilder als Werkzeuge. Lokalisationsmikroskopie und das Versprechen der hohen Auflösung 83 Anne Dippel und Lukas Mairhofer Zur Generierung von Präzision des Messbaren und des Unberechenbaren in Physik und Anthropologie. Ein Gespräch über genaue Beobachtung

KOMPLEXITÄT 97 Sara Hillnhütter Amorphe Punktwolken. Präzision und Kontingenz in Carl Koppes Wolkenphotogrammetrie 115

Michael Heidelberger Exaktheit und Präzision in der mathematischen Naturwissenschaft

137 K. Lee Chichester Von Tupfen, Rissen und Fäden. Präzision als verkörperte Praxis in der Frühen Neuzeit 153

Susanne Thürigen „…so dreht sich das Rad wie der Himmel“. Uhren in Spiegelform als Bilder der Präzision im 16. Jahrhundert

MONTAGEN UND RHYTHMEN 173

Luisa Feiersinger Präzisions- oder Illusionsmaschine, oder: Wie Martin Scorseses Hugo Cabret Filmgeschichte in Szene setzt

189

Gabriele Werner Präzise Technik – Genaue Handarbeit. Ali Kazmas Automobile Factory (2012) in der Automationsdebatte

201

Dennis Jelonnek Präzise Montage. Polaroid SX-70 Sofortbildfotografie und ihre Darstellung in einem Film des Eames Office, 1972

215

Anita Hosseini Zufall durch Präzision. John Cages Experiment und die Genese von Zufalls- und Präzisionsbildern

BILDLICHE ENTSCHEIDUNGEN 229

Matthias Bruhn Harndruck. Farbskalen zwischen Gestaltung und Diagnostik

237

Carolin Behrmann Bildlogik der Vagheit. Zur juridischen Ikonologie des Abwägens

249

Sandra Rendgen Selektive Genauigkeit. Präzisionsentscheidungen in den Flow-Maps von Charles Joseph Minard

259

Birgit Schneider Prägnanz als Kriterium für die Präzision diagrammatischer Bilder

269

Felix Jäger Dialektik der Genauigkeit. Nicolaus Cusanus und Leon Battista Alberti

ANHANG 285

Die AutorInnen

286

Bildnachweise

288

Personenregister

291 Orts- und Sachregister

EINLEITUNG

Matthias Bruhn

Cutting Edges Präzision in der Form des Bildes

Erscheinungweisen des Präzisen Präzision ist auch eine Frage der Form. Nicht nur bei den Spitzenleistungen der Feinmechanik und des Instrumentenbaus oder bei den Zeit- und Distanzrekorden des Sports, sondern ebenso bei der Treffsicherheit sprachlicher Ausdrucksweisen oder der Qualität musikalischer Darbietungen ist von Präzision die Rede; oftmals wird dabei auch das Bild des Räder- oder Uhrwerks bemüht, das als eine Metapher für das perfekte Ineinandergreifen von Abläufen, für das zuverlässige, zahnradartige Zusammenspiel verschiedenster Elemente dienen soll. So erscheinen zum Beispiel die rasanten Vorgänge eines modernen Sportwettbewerbs, unter den Bedingungen weltweiter Liveübertragung, kamera- und computertechnischer Hochrüstung und milliardenschwerer TV-Lizenzen, als Teile einer Bildmaschinerie, die ihren scheinbar volatilen Gegenstand hautnah und in slow motion seziert und augmentiert. Spielerische Situationen werden aus rasant wechselnden Blickwinkeln aufgezeichnet und um grafische Mittel ergänzt, welche die strenge und unerbittliche Mechanik von Beziehungen betonen, etwa durch digitale Projektion von Richtungspfeilen und Positionskreisen auf das Feld. Das Spiel gerät dadurch zu einem geradezu automatengleichen Prozess, in dem alle Beteiligten und ihre Taktiken einem höheren Plan unterliegen. Auch in der wissenschaftlichen Auf- und Nachbereitung kommen vergleichbare grafische Mittel zum Einsatz, die wahlweise die mechanische Seite bestimmter Spielzüge oder deren rechnerische Wahrscheinlichkeit unterstreichen, wie geschehen in einer Analyse von Spielzügen im Vereinsfußball aus dem Jahr 2017 ↗ABB. 1 . In dieser Studie wurde geprüft, wie sich das gesamte Spielverhalten ändert, wenn den Teilnehmenden nach und nach bestimmte Abspielmöglichkeiten genommen werden, d. h. ihr ‚Interaktionsraum‘ begrenzt wird.1 Grafiken sollen die Folgen dieser Intervention in zwei Vergleichsreihen erkennbar machen. In einer oberen Reihe stehen unterschiedlich große, aber gleichmäßig ausgeführte Kreisen und Linien für

1 Angel Ric, Carlota Torrents, Bruno Gonçalves, Lorena Torres-Ronda, Jaime Sampaio, Robert Hristovski: Dynamics of tactical behaviour in association football when manipulating players’ space of interaction. In: PLoS ONE 12, 7, 2017 (https://doi.org/10.1371/journal.pone.0180773, 1/2018).

12

Matthias Bruhn

den Ballbesitz und ‑wechsel, während darunter durch farbige 3D-Landschaften versucht wird, alle Informationen in Möglichkeitsräume zu übersetzen und diese in die Spielfläche zurückzuprojizieren. Das Ergebnis des Experiments sind komplexe grafische Formen und fließende Farbübergänge, die einem erkennbar stochastischen Problem folgen und die sich nur noch mit Hilfe ausführlicher Erläuterungen im Detail interpretieren lassen. Ansonsten legen sie eine eigene Diagrammatik oder Symbolik an den Tag, die sich aus den bildlichen Mitteln und Möglichkeiten selbst ergibt und die unabhängig vom Versuchsgegenstand oder Fachgebiet ist. Derartige grafische Formen der Illu­s tration, Notation und Visualisierung, die sich als Karten, Simulationen oder bildgebende Verfahren in allen Wissenschaftsfeldern anfinden, unterliegen spezifischen Bedingungen, die ihrerseits Ansprüche an Präzision stellen und durch ihre konkreten Formen auch das Verständnis und die Bewertung von Präzision prägen und beeinflussen. Eine zeitliche Vorhersage, die das pünktliche Eintreffen eines Ereignisses an einem Ziffernblatt abliest, weckt oder erfüllt z. B. andere Erwartungen als die Simulation dieses Ereignisses in Bildform, deren Präzision eher an der mutmaßlichen Vollständigkeit der Modellierung gemessen wird.2 Auf der Ebene der Gestaltung und der konkreten Erscheinungsform greifen andere, ästhetische Mechanismen, selbst wenn auch sie auf einer gemeinsamen Grundlage des Messens und Vergleichens beruhen sollte, nämlich einer Übersetzung in diskrete Zahlwerte. Schon dass die ganggenaue Uhr oder das komplizierte Räderwerk als Sinnbilder des Präzisen regelmäßige Verwendung finden, erklärt sich durch konkrete Formen der Gestaltung. So hängt Präzision (von lat. caedere, schneiden) auf etymologischer wie kulturtechnischer Ebene mit Praktiken des Trennens, Passend-Machens und Einfügens zusammen, und wie auch die verwandten Ausdrücke der Zäsur, des Konzisen oder Dezisiven belegen, handelt es sich beim Schneiden um einen oftmals irreversiblen, folgenreichen Vorgang, der wohlüberlegt und genau ausgeführt sein will. Im Verlauf der Kultur- und Technikgeschichte hat sich dieser Wortsinn des präzisen Schnitts von der Verwendung scharfer Werkzeuge auf die Herstellung ausgefeilter Bauteile, auf die Zielgenauigkeit von Waffen oder die Qualität chirurgischer Eingriffe übertragen. Die Gewaltsamkeit und Zerstörungskraft ‚einschneidender‘ Maßnahmen hat außerdem dazu beigetragen, dass Präzision einen ambivalenten Klang behielt, der auch die Wahrnehmung und Bewertung technisch-wissenschaftlicher Leistungen beeinflusst. Ihre Apparaturen und Protokolle zielen auf größtmögliche Verläss-

2

Vgl. Gabriele Gramelsberger: Die präzise elektronische Phantasie der Automatenhirne. Eine Analyse der Logik und Epistemik simulierter Weltbilder. In: Martina Hessler, Dieter Mersch (Hg.): Logik des Bildlichen. Zur Kritik der ikonischen Vernunft. Berlin 2009, S. 73–90.

Cutting Edges

13

1 Die Auswirkung begrenzter Abspielmöglichkeiten im Vereinsfußball (obere Reihe mögliche Vernetzungen, untere Reihe Abspielwahrscheinlichkeit bei Ballbesitz). Aus: Angel Ric u. a.: Dynamics of tactical behaviour in association football when manipulating players’ space of interaction. PLoS ONE 12, 7, 2017, Fig. 3.

lichkeit und Berechenbarkeit, sie unterwerfen jeden Gegenstand einem festen Raster und untersuchen ihn mit empathieloser Gleichgültigkeit. Im Gegenzug stehen Sprachbilder wie jene des Schnitts oder des Räderwerks für die fortwährende Kopplung der Begriffe an instrumentelle Praktiken und für einen allmählichen Bedeutungswandel, der sich aus dem Lauf der Technikentwicklung ergibt. In der Medizin führte z. B. der Einsatz neuer Verfahren dazu, dass die Metaphorik des Schießens und Schneidens durch punktgenaue Bestrahlung, eine hohe Auflösung und Schnelligkeit maschineller Bildgebung oder die fein justierte Dosierung von Medikamenten immer wieder aktualisiert wurde. Von hier wurde wiederum das Bild des chirurgischen Eingriffs entlehnt, das bei der Verwendung funk- und lasergesteuerter Waffensysteme bemüht wird, um die Begrenzbarkeit und Kontrollierbarkeit kriegerischer Handlungen und damit technisch-kulturelle Überlegenheit zum Ausdruck zu bringen.

14

Matthias Bruhn

Aus denselben historischen Gründen ist Präzision schließlich in ein umfassendes Feld synonymer und angrenzender Ausdrücke eingebettet, die Brigitte ­Lohff und Bettina Wahrig 2001 in der Einführung einer Sondernummer der Beiträge zur Wissenschaftsgeschichte zusammengetragen haben, um darin die Fragestellung und Ergebnisse einer Fachtagung zu erläutern.3 Dieses Wortfeld könnte gruppiert werden nach Konzepten der mechanischen und maschinellen Perfektion; der Messbarkeit und Vergleichbarkeit oder numerischen Formalisierung; der Gründlichkeit oder Restlosigkeit; der intellektuellen Strenge; der wahrnehmungsmäßigen Klarheit (wie in Descartes’ clare et distincte perzeptio); oder der Ähnlichkeit und Identität. Bedingt durch die Anwendungsnähe der Präzision, können im Deutschen außerdem noch weitere Begriffe hinzugefügt werden, etwa jene der Näherung und Passung, wobei Erstere das Prinzip einer schrittweisen, experimentellen Verfeinerung meint, Letztere die konkreten Mechanismen oder Folgen von Maßnahmen der Übersetzung, Taktung, Synchronisation, Kalibrierung. Beispiele aus der Konstruktion von Maschinen oder Gebäuden lassen die spezifische Bedeutung derartiger Begriffe schnell erkennen. So hat der Architekt Ole W. Fischer anhand der antiken Architektur gezeigt, dass die euklidische Geometrie erforderlich wurde, um Säulen fugenlos aus einzelnen vorgefertigten Trommeln aufrichten zu können – hieraus ergab sich eine anwendungsbedingte Unterscheidung von Berechnung und Umsetzung, die heute als Präzision und Genauigkeit, Fügung und Abweichung bestimmt werden kann: Während ‚Präzision‘ sich auf den einmaligen Ablesevorgang bezieht, der abhängig vom Messinstrument und der Lesetechnik des Beobachters ist, bezieht sich ‚Genauigkeit‘ auf den wiederholten Ablesevorgang, der sich dem Wert über Fehlerberechnung annähert. Anders gesagt: Die Präzision ist die andere Seite der Toleranz, sie bezeichnet die zugelassene Abweichung beim einmaligen Versuch und somit letzlich die asymptotische Annäherung an ein Ideal, ohne dieses jemals zu erreichen.4

3 Brigitte Lohff, Bettina Wahrig: „Über Sekunden lacht man nicht“: Genauigkeit und Präzision in den Wissenschaften und deren Folgen. XXXVIII. Symposium der Gesellschaft für Wissenschaftsgeschichte, 24.– 26. Mai 2001 in Braunschweig. In: Beiträge zur Wissenschaftsgeschichte 25, Heft 2, Juni 2002. Der darin enthaltene Beitrag von Moritz Epple (Präzision versus Exaktheit: Konfligierende Ideale der angewandten mathematischen Forschung. Das Beispiel der Tragflügeltheorie, S. 171–193) setzt sich explizit mit Wise (s. Anm. 8) auseinander. 4

Ole W. Fischer: Präzisionen zu „Precisions“. Architektur, Kunst und Wissenschaft? In: Ders. und Ákos Moravánszky (Hg.): Precisions. Architektur zwischen Wissenschaft und Kunst. Berlin 2008, 16ff. (zweisprachige Ausgabe), hier S. 26. Vgl. im selben Band Ákos Moravánszky: Die Utopie der Nulltoleranz. Zur Bedeutung von Fuge und Toleranz im Bauwesen (S. 112ff).

Cutting Edges

15

Die Schärfe des Nichtwissens Fischers Beispiel deutet an, dass Präzision als Qualitätsmaßstab in einem handwerklichen Sinne mit ökonomischen Erwägungen verbunden bleibt, etwa im Hinblick auf die Vermeidung von Fehlern und Ausschuss, die Reinheit und Gediegenheit von Zutaten, die zuverlässige Weitergabe von Verfahren. Von deren Schwierigkeit rührt auch das hohe Ansehen her, das dem antiken demiurgos , der Mechanik und Alchemie des Mittelalters oder dem Ingenium der frühneuzeitlichen Konstrukteure zukam, deren Arbeit erforderlich war, um höhere Wissenschaft treiben zu können. Sie verfügten über individuelle Erfahrungen, welche die Chemikerin und Historikerin Pamela Smith als das ‚eingefleischte‘ Wissen von Kunst und Kunsthandwerk beschrieben hat.5 Auf der anderen Seite bedarf es eines generationenübergreifenden Wissens, um bei unermesslich hohen Temperaturen Legierungen von Metall erzeugen, Steine ohne maschinelle Werkzeuge exakt schneiden oder Distanzen auf optischem Wege bestimmen zu können. Bilder haben in diesem Prozess eine entscheidende Funktion als Medien der Vermittlung, sei es in Gestalt naturkundlicher Illustrationen, als Landkarte oder Diagramm oder bei der Darstellung von Geräten oder Gebäuden.6 Auch sie müssen präzise sein oder auf präzisen Werkzeugen beruhen, wie bei der Navigation auf See anhand von feinteiligen Karten oder bei der makround mikrokosmischen Naturbetrachtung, bei der Visiere, Linsen, Messgeräte aller Art Verwendung finden. Bei all diesen Bildern und Werkzeugen kommt ein gewisses Vertrauen in ihre Zuverlässigkeit zum Ausdruck, die am Ende darüber mitbestimmt, was als Präzision, Genauigkeit oder Objektivität zu gelten hat. Wie Jutta Schickore am Beispiel von Testobjekten für die mikroskopische Untersuchung gezeigt hat, bedurfte die Prüfung von Linsen ihrerseits eines Verfahrens zur Herstellung kleinster, absolut regelmäßiger Ritzbilder, die nur noch mit eben diesen Linsen betrachtet werden können.7 Der Glaube oder Zweifel an solche Instrumente, mit denen die vollständige Vermessung und Analyse der Welt möglich würde, hat die Frage, ob es absolute Wahrheiten, vollständige Aussagen oder exakte Feststellungen auch jenseits von Philosophie oder Mathematik geben könne, stets begleitet.

5 Pamela H. Smith: The Body of the Artisan. Art and Experience in the Scientific Revolution. Chicago, IL 2004; vgl. Sven Dupré: Die Sichtbarkeit und Unsichtbarkeit von Körperwissen in der Kodifikation der Künste in der frühen Neuzeit. In: Paragrana 25, Heft 1, 2016, S. 110–129; Magdalena Bushart, Henrike Haug (Hg.): Technische Innovationen und künstlerisches Wissen in der Frühen Neuzeit. Köln 2014. 6 Wolfgang Lefèvre (Hg.): Picturing Machines. 1400–1700. Cambridge, MA 2004. 7

Jutta Schickore: Test Objects for Microscopes. In: History of Science 47, 2, 2009, S. 117–145. Vgl. auch H. Otto Sibum: What kind of science is experimental physics? Science 306, 2004, S. 60–61.

16

Matthias Bruhn

Im Zuge umfassender Industrialisierung, Technisierung und Spezialisierung entwickelte sich die Präzision im 19. Jahrhundert schließlich, wie der Wissenschaftshistoriker M. Norton Wise anhand einer Reihe von Detailstudien gezeigt hat, zu einem gemeinsamen Nenner unterschiedlichster Aktivitäten.8 Einzelne Fächer beanspruchten ein besonderes Maß an Präzision für sich oder nahmen sie, wie das Ingenieurswesen, als Ausweis ihrer Leistungsfähigkeit und Wissenschaflichkeit. Zugleich wurde sie auf bisher für unscharf gehaltene Phänomene der Natur- und Lebenswissenschaften angewandt.9 Der Anspruch auf konsequente Bezifferung der Natur führte teilweise auch zur Ausblendung materiell-technischer Umstände, unter denen bestimmte Messwerte zustandekommen. Vergleichbar der ‚Objektivität‘, die den Aufstieg der Drucktechniken und der fotografischen Verfahren mitvollzogen hat,10 oder der Evidenz, die unter den Einfluss kriminalistischer Verfahren geriet, wurde der Wortsinn beständig neu gefordert, zuweilen bis zum Selbstwiderspruch. So erzwingt die technisch-apparative Praxis der Messung und Klassifikation, wie sie mit der modernen Anthropologie und Kriminologie assoziiert wird, durch ihre konkreten Formen der Sortierung und des Zugriffs per Karteikasten und Passbild eine Typenbildung, die im groben Missverhältnis zur Breite möglicher Datengrundlagen und möglicher Differenzierungen steht und damit genausogut ein Ausdruck mangelhafter Präzision sein könnte. Auf der anderen Seite waren im positivistischen Wissensmodell jener Zeit die Widersprüche von Messung und Modell, Versuch und Erwartung, und damit Abweichungen innerhalb bestimmter Grenzen mitgedacht. Einander widersprechende Messungen konnten für wachsende Präzisierung stehen, einen Prozess stetiger Näherung, der aus Prinzip nie abgeschlossen ist: Wann immer eine Messung auf Millionstel Nachkommastellen genau durchgeführt wird, eröffnen sich Möglichkeiten weiterer Ungenauigkeit, die den Gang der Forschung und Entwicklung weiter antreiben. Aus solchen Techniken der Präzision konnte die Einsicht in die Unschärfe des eigenen Wissens ebenso folgen wie die weitere technikaffine Zuspitzung des Vokabulars, wenn von Hochpräzision bei Mikro-, Laser- oder Nanotechnologien oder vom juristischen Konzept des Grenzwerts die Rede ist.11

8 M. Norton Wise (Hg.): The Values of Precision. Princeton, NJ 1995. 9 Christoph Hoffmann: Unter Beobachtung. Naturforschung in der Zeit der Sinnesapparate. Göttingen 2006; Jutta Müller-Tamm, Henning Schmidgen, Tobias Wilke (Hg.): Gefühl und Genauigkeit. Empirische Ästhetik um 1900. München 2014; Markus Krajewski: Genauigkeit. Zur Ausbildung einer epistemischen Tugend im ‚langen 19. Jahrhundert‘. In: Berichte zur Wissenschaftsgeschichte 39, 2016, S. 211–229. Vgl. Holz in Wahrig & Lohff (s. Anm. 10) 2002. 10 Lorraine Daston, Peter Galison: Objektivität. Frankfurt am Main 2007. 11 Geert Keil, Ralf Poscher (Hg.): Unscharfe Grenzen im Umwelt- und Technikrecht. Baden-Baden 2012.

Cutting Edges

17

Die Vielfalt des Präzisen Präzision kann außerdem in unterschiedlichem Grad ausgestellt oder verborgen werden. Es gibt Praktiken und Gegenstände, deren mutmaßliche Präzision durch die Art ihrer Gestaltung und Beschreibung zusätzlich betont wird, und solche, in denen sie eher in den Hintergrund tritt, wie etwa bei der Präparation von naturkundlichen Objekten oder der Verkleidung von Automata. Ein Klavierspiel wird nicht nur als präzise beschrieben, weil es einem bestimmten Entwurf oder Rhythmus nahekommt, sondern auch, wenn es feinste Nuancierungen vornimmt. Zweck und Wirkung einer militärischen Parade können sich von einer minutiös geplanten Tanzaufführung deutlich unterscheiden, während beide mit demselben Anspruch formaler Strenge operieren, und zwar auch im Hinblick auf die expressiven Tanzformen der Moderne.12 Vergleichbares lässt sich für die scheinbar arbiträren Formen surrealistischer Kunst feststellen13 oder für die Produkte einer computergestützten Formgeneration, weshalb der Philosoph Max Bense seine Sammlung experimenteller Sprachschöpfungen als Präzise Vergnügen betitelt hat.14 Die betreffenden Formen und ihre Bewertung beruhen auf spezifischen Kulturen, in denen die zu ihrer Erreichung notwendigen Anstrengungen besonders goutiert werden, und sie erzeugen als Bilder des Wissens ihrerseits Erwartungen, setzen Maßstäbe ästhetischer und intellektueller Art. Wenn Deborah Coen – ähnlich wie Wise – für das Wien der Wendezeit um 1900 ein Denken in Wahrscheinlichkeit, Unsicherheit und Relativität ausgemacht hat, das von den Naturwissenschaften ausgehend die Sozial- und Geisteswissenschaften sowie Kunst und Kultur erfasste, so ließe sich auch für den Präzisionsbegriff folgern, dass dieser sich umgekehrt an neue Diskurse und neue Formen angepasst haben wird.15

12 Verena Senti-Schmidlin: Präzision der Körpersprache. In: Dies.: Rhythmus und Tanz in der Malerei. Zur Bewegungsästhetik im Werk von Ferdinand Hodler und Ludwig von Hofmann. Hildesheim 2007, S. 34–36; Rebekka von Mallinckrodt: Körpertechniken in der Frühen Neuzeit. In: Ausst.-Kat. Bewegtes Leben. Körpertechniken in der Frühen Neuzeit. Herzog August Bibliothek Wolfenbüttel, hg. von ders., Wiesbaden 2008, S. 34–36. 13 Gabriele Werner: Mathematik im Surrealismus. Man Ray – Max Ernst – Dorothea Tanning. Marburg 2002; Lars Blunck: „Was ist die genaue Bedeutung Ihres Ausdrucks ‚Optique de précision‘“? Prolegmena zu Marcel Duchamps Präzisionsoptik. In: Sabine Flach, Margarete Vöhringer (Hg.): Ultravision. Zum Wissenschaftsverständnis der Avantgarde. München 2010, S. 17–34. 14 Der Computerkünstler Frieder Nake hat den Titel Benses (Die präzisen Vergnügen. Versuche und Modelle. Wiesbaden 1964) im Jahr 2004 für die Ausstellung eigener Grafiken aufgegriffen (Die präzisen Vergnügungen. Die frühen grafischen Blätter und neue Interaktionen. Kunsthalle Bremen/ZKM Karlsruhe 2004). 15 Deborah R. Coen: Vienna in the Age of Uncertainty. Science, Liberalism, and Private Life. Chicago, IL 2007. Vgl. Karl Sigmund: Sie nannten sich Der Wiener Kreis. Exaktes Denken am Rand des Untergangs. Wiesbaden 2015 (ausgehend von Ernst Mach).

18

Matthias Bruhn

Gerade angesichts sich allmählich verschiebender Bedeutungen soll es im Folgenden vorrangig um Fallbeispiele handwerklich-technischer, wissenschaftlicher und künstlerischer Art gehen, welche die Beziehung verschiedener Felder auf der Ebene der Präzisierung erkennen lassen. Sie können an eine umfangreiche Geschichte der Präzisionswerkzeuge, der Feinmechanik und des Maschinenbaus anschließen, die bereits Gegenstand eigener Fächer und Literaturen sind.16 Die Gnadenlosigkeit der Apparate und Prozeduren lässt sich an Formen und Gestaltungen ästhetischer Schärfe, Glätte und Kälte und aseptischer Schnörkellosigkeit ablesen, die zu Symbolen wissenschaftlicher Objektivität aufgestiegen sind wie der weiße Kittel, das stählene Operationsbesteck, der staubfreie Laborraum, und die auch zur Symbolform jenseits der wissenschaftlichen Welt wurden, wie der White Cube der modernen Kunstausstellung. Die Zusammentragung solcher Bilder des Präzisen kann außerdem dazu dienen, die Sinnschichten und historischen Beziehungen anschaulicher zu machen, die sich in einem weiteren Sinne mit ihm verbinden, etwa im Sinne der Schärfe, die bei einem scharfkantigen Stein etwas anderes als bei einer Fotografie meint, im Hinblick auf Konturierungen (oder auf den Schliff von Linsen) aber Gemeinsamkeiten aufweist. Vergleichbares gilt für die theoretischen Fallstudien, die innerhalb der folgenden Kapitel als Bindeglieder fungieren sollen und den historischen Voraus­setzungen angrenzender Begrifflichkeiten gewidmet sind. Die Art und Weise, wie Bausteine zugeschnitten, Körperbewegungen gedrillt, oder Sonden am Bildschirm gesteuert werden, verrät ebenso viel über die damit zusammenhängenden ästhetischen oder ethischen Erwartungen wie die Montagetoleranzen, Schwankungsbreiten oder Spielräume, die dabei einberechnet werden müssen. Der Blick auf konkrete Bilder und Erscheinungsformen durchkreuzt eingeübte Unterscheidungen zwischen einer technisch-instrumentellen Genauigkeit und der Unschärfe künstlerisch-ästhetischer Praxis. Derartige Gegensatzpaare werden dem Umstand nicht gerecht, dass Präzision auch in Feldern anzutreffen ist, die nicht wissenschaftlich oder technisch aufgefasst werden, oder dass gegenläufige Begriffe wie Unschärfe, Relativität, Wahrscheinlichkeit, Näherung usw. ein Produkt von höchst unterschiedlichen Operationen des Handelns, Rechnens, Spielens und Spekulierens sein können. Überhaupt wird die Geltung und Möglichkeit wissenschaftlich-technischer ­Präzision viel zu leicht mit dem Hinweis in Zweifel gezogen, dass diese auf ­einem 16 Nur beispielhaft genannt werden sollen Hans Holländer (Hg.): Erkenntnis, Erfindung, Konstruktion. Studien zur Bildgeschichte von Naturwissenschaften und Technik vom 16. bis zum 19. Jahrhundert. Berlin 2000 oder das vierbändige Werk von Ralf Kern: Wissenschaftliche Instrumente in ihrer Zeit. Vom 15. bis 19. Jahrhundert. Köln 2010; dem wachsenden Genauigkeitsstreben des 18. Jahrhunderts ist bei Kern ein eigener Band gewidmet.

Cutting Edges

19

technischen Machbarkeitsdenken beruhe, welches im direkten Gegensatz zu den Wahrheits- und Reinheitsansprüchen wissenschaftlicher Theorie steht, oder umgekehrt auf einem Exaktheitsdenken, das durch die Relativitäts- und Unschärfekonzepte der Wissenschaften selbst längst überwunden sei. Im beiden Fällen meint Präzision eine blinde Unermüdlichkeit von Anwendungen, denen die Idealität logischer Operationen oder die Kritik des eigenen Tuns fehlt. Der Band soll demgegenüber auch jene Idee der Annäherung, Ungewissheit, Serendipity aufnehmen, die schon im Wort Präzision und seinen schneidenden Vorgängen selbst angelegt ist, und damit jene Unterscheidung von exakter (objektiver, nachprüfbarer) Wissenschaft und weicher (subjektiver, menschlicher) Interpretation überwinden, die inzwischen soweit in Sprache und Gesellschaft verankert ist, dass eine Kritik der modernen Wissenschaften reflexartig als Konfrontation von hard und soft sciences gedeutet wird. Wenn es bestimmte Formen der Präzision geben sollte, so ist damit immer auch eine formale Analyse gefordert, die ihr dem Anspruch nach genügt.

PASSUNGSVERSUCHE

Matthias Bruhn

Urgewichte und Naturmaße Maß und Maßnahme In einem Tresor im französischen Sèvres, der sich im Internationalen Büro für Gewichte und Maße (BIPM) befindet, wird seit dem Jahr 1889 ein schmuckloser metallischer Gegenstand aufbewahrt, der als Prototyp zur Festlegung des Kilogramms dienen sollte. Heute repräsentiert er die letzte physikalische Maßeinheit, die nicht über eine Naturkonstante definiert, sondern auf ein konkretes Objekt bezogen ist, einen zylindrischen Messkörper mit einer Höhe und einem Durchmesser von jeweils 39 × 39 Millimetern, der aus einer Legierung von Platin und Iridium im Verhältnis 9 : 1 besteht ↗ABB. 1 . Schon die besondere Zusammensetzung und Größe des Objektes, oft auch als Normal bezeichnet, lässt erahnen, wie kompliziert sich die Festlegung auf ein einheitliches und stabiles Maß gestalten kann. Um ein international gültiges Maß festlegen zu können, bedurfte es nicht nur einer weltweiten politischen Übereinkunft inklusive der entsprechenden Gesetzgebungen, Behörden und Fachkräfte, die dieser Übereinkunft auch Geltung verschaffen, sondern noch einer Reihe weiterer Maßnahmen im wörtlichen wie im übertragenen Sinne. Schon die ersten Versuche zur Festlegung eines Standardgewichts, in der Folgezeit der Französischen Revolution, ließen erkennen, dass damit ein unaufhörlicher Problemkreislauf angestoßen wird. So wurde das Kilogramm über die Eigenschaften von einem Kubikdezimeter Wasser bestimmt – was wiederum ein ebenso genaues Längenmaß erforderte. 1795 wurde in der Folge außerdem festgelegt, dass die Messung anhand von gefrorenem Wasser zu erfolgen habe. Doch wurde dies kurz darauf auf vier Grad Celsius korrigiert, da die Dichte von Wasser bei dieser Temperatur am höchsten sei. Dies verlangte wiederum nach geeigneten Thermo- und Barometern sowie nach geeigneten Einheiten, um diese einzuteilen und zu vergleichen. Obwohl als Vergleichsstoff praktisch ubiquitär verfügbar, erwies sich die Festlegung auf Wasser also keineswegs als einfache Lösung. Ähnliche Schwierigkeiten ergaben sich aus der Idee, einen Meter als Zehnmillionstel des Abstandes vom Nordpol zum Äquator festzuschreiben, denn sie führte zu komplizierten geografischen und geometrischen Maßnahmen.

24

Matthias Bruhn

Theoretisch gesehen ließe sich jeder beliebige Gegenstand als Referenzobjekt verbindlich machen, um damit Waagen und andere Messgeräte zu eichen; doch aus dem Bedarf, dieses Objekt zum Zwecke der Normierung an verschiedenen Orten, zumal auf verschiedenen Kontinenten, unabhängig voneinander einsetzen zu können, folgte bereits die nächste praktische Herausforderung, nämlich über identische Kopien zu verfügen, die mit dem französischen Urkilogramm abgeglichen sind. Diese wären im Idealfall aus einem unveränderlichen, von Klimaschwankungen oder chemischen Reaktionen unbeeinflussten Material gefertigt, nicht zu vergessen die Vorkehrungen gegen Manipulation, unsachgemäße Verwendung, Unfall oder Diebstahl. Die mit dem Eichungsvorgang vollzogene Kopierung und Verteilung von Messkörpern hatte ihrerseits zur Folge, dass minimale Schwankungen des Gewichts festgestellt wurden, die zwischen den verschiedenen Exemplaren auftraten und womöglich auch auf den französischen Ausgangskörper zurückgeführt werden mussten (der durchaus an Gewicht verlieren oder gewinnen kann). Entsprechende Erkenntnisse und Beobachtungen haben so dazu geführt, dass der Metallzylinder nach der Unterzeichnung der Meterkonvention und der Einrichtung des internationalen Büros am 20. Mai 1875 durch mutmaßlich geeignetere Varianten ersetzt worden ist. Gelagert wird der heute verwendete Prototyp unter einer dreifachen, schützenden Glasglocke.1 Die Gewichtszunahme des aktuellen Prototyps durch Verunreinigungen und Reaktionen wird mit etwa einem Mikrogramm pro Jahr veranschlagt. Die gegenwärtige Definition des Kilogramms ist denn auch eine rein praktische geblieben. Sie besagt schlicht, dass es durch das Gewicht des Prototyps festgelegt wird. Diese selbstgenügsame Definition ist unverändert gültig. Des Weiteren wurde vereinbart, dass das Referenzgewicht stets unmittelbar nach einer Reinigung auszuwiegen sei, die in einem bestimmten Modus erfolgt. Was in der Theorie als Gewicht zu gelten hat (nämlich das Produkt von Masse und gravitationsbedingter Beschleunigung) wird dabei vorausgesetzt.2 Im Unterschied dazu könnte die Gewichtsangabe Kilogramm auch alternativ festgelegt werden, etwa als die Masse einer bestimmten Anzahl von Atomen eines bestimmten Isotops. Vergleichbar der Lichtgeschwindigkeit, würde damit von einem konstanten natürlichen Maß ausgegangen. Doch auch dann bleibt eine Bindung an Stoffe und an die Mittel ihrer Messung bestehen.

1

Anders als meist kolportiert, handelt es sich dabei nicht um Vakuumglocken, da sich auch Luftentzug auf einen im Vakuum liegenden Körper auswirken kann. Siehe BIPM (Hg.): The International System of Units. 8. Aufl. Sèvres 2006 [Update 2014], Appendix 2: ‘Practical realization of the definition of the kilogram’.

2 BIPM (s. Anm. 1), S. 143.

Urgewichte und Naturmaße

25

1 Glasbehälter mit Messkörper zur Fest­legung des Kilogramms im Inter­na­t io­na­len Büro für Gewichte und Maße (BIPM), Sèvres.

Um den beschriebenen Schwankungen zu entgehen, wird daher sowohl mit neuen Materialien als auch Definitionen experimentiert, und so steht eine neue Festlegung des Kilogramms bevor. Die jüngsten Versuche zielen darauf ab, die Messungen zum Beispiel auf elektronischem oder optischem Wege in bekannte Größen (Ladung, Wellenlänge) zu übersetzen. Am National Institute of Technology in Gaithersburg im US-amerikanischen Maryland wird hierzu mit einer sogenannten Watt-Waage gearbeitet, die nach eigener Aussage auch eine Präzisierung der Planck-Konstante bis auf acht Nachkommastellen gestattet.3 Die Planck-Konstante beschreibt in der Quantenmechanik das Verhältnis von Energie und Frequenz eines Photons und entspricht in ihrem Charakter den anderen bekannten fundamentalen Naturkonstanten der Lichtgeschwindigkeit und der Gravitationskonstanten.

3

Meldung der Frankfurter Allgemeinen Zeitung, 29. Juni 2016, S. N2, unter Verweis auf Darine Haddad, u. a.: A precise instrument to determine the Planck constant, and the future kilogram. In: Review of Scientific Instruments 87, 2016 (DOI: 10.1063/1.4953825).

26

Matthias Bruhn

Diese Größen gelten als unveränderlich, insofern sie in geeigneter Kombination, wie es Max Planck selbst formulierte „ihre Bedeutung für alle Zeiten und für alle, auch ausserirdische und aussermenschliche Culturen nothwendig behalten“.4 Gleichwohl können sie immer feiner bestimmt werden.5 Wie genau das Gewicht des Körpers oder seine Schwankung bestimmt werden kann, hängt also auch und gerade von den feinst konstruierten Wiege- und Beobachtungstechniken und von den Fortschritten in der Materialforschung ab. Erkenntnisse der Physik und Chemie sind ebenso von Bedeutung wie handwerklich-technische Erfahrungen im Bereich der Metall- und Glasverarbeitung, der Schnitt- und Gusstechniken, des Werkzeug- und Maschinenbaus.

Urformen der Präzision Der metallische Körper von Sèvres zeigt eine schimmernde Oberfläche, die keinerlei sichtbare Spuren der Fertigung oder der Unreinheit aufweist und dadurch wie von höheren Kräften geschaffen scheint, ein Ur-Werk, das an minimalistische Plastiken oder an den dunkel glänzenden Monolithen aus Kubricks Odyssee im Weltraum erinnert. Das Urkilogramm wird gerade durch seine reduzierte Form magisch aufgeladen, noch dazu im Wissen um die diversen Schutzmaßnahmen, die wiederum an die Aufbewahrung von Reliquien, Kronjuwelen oder Goldbarren denken lassen. Die Grundform des Körpers mag sich zunächst nur aus der technischen Erwägung ergeben haben, dass er gut handhabbar sei (zum Beispiel im Hinblick auf stabile Lagerung und regelmäßige Entnahme), seine Gesamtoberfläche dabei aber möglichst gering bleibt. Neben der zylindrischen Form und seiner Oberfläche zeigt sich als explizites Gestaltungsmerkmal allenfalls eine sogenannte Fase oder Schräge, die dazu dient, das Absetzen zu erleichtern, da dieses bei einem scharf geschnittenen Zylinder exakt lotrecht erfolgen müsste. Diese völlige Reduktion auf Zweck und Geometrie führt insgesamt zu einem technoiden Gebilde, das aufgrund seiner abweisenden Glätte und äußerlichen Perfektion geradezu wie ein Sinnbild des Funktionalismus erscheint, ein Glanzstück des Industriedesigns, das auf alles Überschüssige und Ornamentale verzichtet. Und wie die funktionalistische Gestaltungslehre hat auch dieser Musterkörper eine zeitlich-stilistische Dimension, da 4

Max Planck: Über irreversible Strahlungsvorgänge. In: Sitzungsberichte der Königlich-Preußischen Akademie der Wissenschaften zu Berlin, 1899, S. 440–480, hier S. 479–480. Freundlicher Hinweis von Dr. Stefan Zieme, Theoretische Physik der Humboldt-Universität zu Berlin, dem im vorliegenden Beitrag noch weitere Anmerkungen zu verdanken sind.

5 Richard S. Davis: What Is a Kilogram in the Revised International System of Units (SI)? In: Journal of Chemical Education 92, 2015, Heft 10, S. 1604–1609 (DOI: 10.1021/acs.jchemed.5b00285).

Urgewichte und Naturmaße

27

selbst die extreme formale Reduktion noch gestalterische Entscheidungen und ästhetische Konsequenzen einschließt und es prinzipiell weitere Möglichkeiten gäbe, einen Normalkörper zu formen; genau so, wie es unterschiedliche Auffassungen darüber gibt, wann dieser als perfekt oder zulässig angesehen wird. Auf der Ebene der Gestaltungsprobleme lässt sich das Beispiel mit aktuellen Versuchen zur Formung einer idealen Kugel aus nahezu reinem Silizium-28 vergleichen, die das Kilogramm über die genaue Zahl der enthaltenen Atome neu bestimmen soll.6 Das Ergebnis ist eine metallische Sphäre von einem Durch­messer von 93,6 Millimetern. Das Hersteller-Team konnte selbstbewusst verkünden, dass diese Kugel „ein nahezu perfektes Siliziumkristall in der Form einer nahezu perfekten Sphäre“ mit dem präzisen Gewicht eines Kilogramms darstelle und dass sie – vergrößert auf das Maß der Erde – selbst an extrem abweichenden Stellen nur eine Erhebung von 240 Zentimetern aufwiese. Damit kommt auch die handwerklich-technische Expertise ins Spiel, die als fester Bestandteil einer Idee der Präzision angesehen werden muss. Für den englischen Philosophen Herbert Spencer, der vor allem als Vordenker des Sozialdarwinismus in Erinnerung geblieben ist, sind Messgeräte und Skalen als Erweiterungen des menschlichen Körpers und als Versuch der Ausdehnung des Erfahrbaren zu verstehen, ganz im Sinne der Entwicklungs- und Techniktheorien des 19. Jahrhunderts.7 Doch ist auf der anderen Seite in der täglichen Praxis immer wieder zu beobachten, dass nur spezielle Betriebe und Personen das erforderliche Know-How und/oder Material besitzen, um bestimmte Werkzeuge zu konstruieren. So wurde der Optiker Achim Leistner noch nach Erreichen des Pensionsalters aufgrund seiner handwerklichen Erfahrung in das internationale Avogadro -Projekt berufen, um zur Produktion der Siliziumkugeln beizutragen. Denn diese sind das Ergebnis einer monatelangen manuellen Schleifarbeit, ähnlich wie sie auch bei historischen Linsen zum Einsatz gekommen ist. Das Ausgangsmaterial wurde in Zentrifugen gereinigt, die ursprünglich der Atomwaffenproduktion dienten. Die Gleichmäßigkeit der Kugelform wurde dann durch eine optische Vermessung über 60.000 Punkte festgestellt, während die Struktur und Dichte der Kugel per Röntgenkristallographie ermittelt werden konnte.8

6 Sie dient außerdem vorrangig zur genaueren Bestimmung der Avogadro-Konstante (benannt nach dem italienischen Chemiker Amedeo Avogadro), welche die Zahl der Teilchen in einer Stoffmenge angibt. 7

Herbert Spencer: The Principles of Psychology (1855). 3. Aufl. London 1890, S. 366 f.

8 Devin Powell: Roundest Objects in the World Created. In: New Scientist, 1. Juli 2008, online verfügbar unter https://www.newscientist.com/article/dn14229-roundest-objects-in-the-world-created#.­ VOHyzfnRV_E (Stand 08/2017). Zur ästhetischen Bestimmung der Vollkommenheit vgl. auch die Einleitung zum Sammelband von Verena Olejniczak Lobsien, Claudia Olk, Katharina Münchberg (Hg.): Vollkommenheit: Ästhetische Perfektion in Antike, Mittelalter und Früher Neuzeit. Berlin 2010.

28

Matthias Bruhn

2 Achim Leistner präsentiert die Sili­zium-­ kristall­kugel des ­Avogadro-Projekts im ­Aus­t ra­lian Center for Precision Optics. ­Aufnahme von 2008.

In der einzelnen Kugel ist somit einerseits ein umfassenderes, kollektives Maschinenwissen gespeichert, das andererseits an bestimmten Stellen immer wieder der individuellen Expertise bedarf. Schon das Halten und Transportieren stellt ein Wagnis, zumindest eine Herausforderung dar. Auf einem Fotoporträt von 2008 im Australian Centre for Precision Optics präsentiert Leistner den staunenswert glatten, glänzend-spiegelnden Körper als sein Meisterwerk, wie einen Reichsapfel oder eine Seherkugel, die ihre Umwelt in sich aufnimmt ↗ABB. 2 . Diese Sphäre ist die optische Weltformel schlechthin und wird der Kamera in einer Weise entgegengestreckt, die an berühmte Bildnisse der Kunstgeschichte erinnert, insbesondere an ein Selbstporträt des Malers Girolamo Francesco Maria Mazzola, genannt il Parmigianino (1503–1540, siehe ↗ABB. 3), der sich mit einer übergroßen Zeichenhand am vorderen Bildrand dargestellt hat, um damit Dreierlei anzuzeigen: erstens, dass er vor einem konkaven Spiegel sitze, zweitens, dass er dessen Verzerrung darzustellen vermöge, und drittens, dass die optisch vergrößerte Hand das vornehmste Werkzeug des Künstlers sei. Sie war es, die der Stilepoche des Manierismus den Namen gegeben hat, eines Überstils, in dem die künstlerische Handhabung selber zum Thema und die gestaltende Hand deutlich ausgestellt wird.

Urgewichte und Naturmaße

29

3 Parmigianino: Selbstporträt im konvexen Spiegel, 1523/1524. Öl auf Pappel, Durchmesser 24,4 cm, Kunsthistorisches Museum Wien.

Auch die Zeitschrift New Scientist kommentierte die Herstellung der Silizium­ kugel mit einer kunsthistorischen Anekdote aus dem Leben Giottos, der aus freier Hand und ohne Zirkel einen vollkommenen Kreis gezeichnet haben solle, um einem Abgesandten des Papstes seine künstlerische Eignung und Fertigkeit zu demonstrieren. Derartige Legenden sollen immer wieder die Beherrschung des Materials und der Werkzeuge unterstreichen, und sie sind Teil eines beruflichen Ethos, ob beim Schneiden von hoheitlichen Siegeln, beim Schärfen von Messern oder beim Gießen von Kanonenrohren. Dinge gelten als kerzengerade oder lotrecht, weil sie immer auch mit einer bestimmten technischen Sorgfalt hergestellt sind, so wie das Ziehen ultrafeiner Linien in Millimeterpapier oder das Messen von Millisekunden spezielle Geräte erfordert, die ihrerseits erst einmal abgestimmt werden müssen. Das Bild des Avogadro -Projekts deutet zudem an, dass ebenmäßige Körper selten und kostbar sind, da sie auch bei noch so durchdachten und wiederkehrenden Bearbeitungsvorgängen stets von einem geometrischen Ideal abweichen. Präzision meint damit – dem lateinischen Wort gemäß – den Zuschnitt eines konkreten Objektes auf ein Ideal hin, mit dem es nie deckungsgleich ist, dem es sich aber so weit wie möglich annähert. Vollkommene Präzision würde im Gegenzug nur bedeu-

30

Matthias Bruhn

ten, dass der Nachweis einer Abweichung nicht mehr möglich ist. Bis dahin gilt es, einen Gegenstand abzutragen oder zu ergänzen, zu polieren oder zu isolieren, um einem theoretisch vorgegebenen Ideal so nahe wie möglich zu kommen. Das zeigt sich auch und gerade im Design von Objekten, die als Urmeter und Urkilogramm für genau definierte technische Funktionen stehen und zu diesem Zweck eine Reduktion ihrer Gestaltung vornehmen, die auf die mathematische Idealität platonischer Körper und die Perfektion lupenreiner, kristalliner Strukturen setzt. Die Messvorgänge, samt ihrer Zähler, Stellschrauben und Kalibrierungsmittel, unterliegen ebenso wie die dazugehörigen Parameter einem Prinzip der wechselseitigen Verzahnung und Passung, durch das alles und jedes miteinander verbunden wird. Eine wichtige Voraussetzung dafür ist das Konzept der Einheit (unit, unité), da erst mit ihr unterschiedlichste Daten, Intensitäten oder Prozesse in gemeinsame Zahlensysteme und Raster übertragen und als Kurven, Skalen, Tabellen oder Farben ausgegeben werden können, etwa Wellenlängen oder Pulsschläge. Nicht zufällig schwingt im Begriff der Einheit auch die politisch-revolutionäre Idee der Einheitlichkeit, Gemeinsamkeit und Abstimmung mit, damit eingeschlossen auch die Spannung von Unterteilung, Vereinheitlichung und Zusammenführung. Die Aufbewahrung des Urkilogramms spiegelt diese besondere symbolische Bedeutung, da mit ihr auch die Hoheit über die Überwachung von Maßen und Gewichten und die Eichung von Waagen, Behältnissen und anderen Objekten zum Ausdruck kommt.

Das Maß und die Hoheit Die Festlegung auf konkrete Maßkörper oder die Einführung von Fertigungsnormen und Kommunikationsstandards können als ein Ergebnis der Industrialisierung, Technisierung und Verwissenschaftlichung angesehen werden, die in Europa seit dem Zeitalter des Barock zu beobachten sind. Gleichwohl weist diese Praxis eine längere Vorgeschichte auf, die weit über die modernen Maßnahmen der Zentralisierung und Standardisierung hinausgeht, insofern Praktiken des Zählens und Wiegens oder der Notation von Pegelständen, kalendarischen oder politischen Ereignissen schon in den frühesten Hochkulturen zu finden sind, ebenso wie der Tausch und die Prüfung von Waren und ihren Äquivalenten, den Gewichten oder Münzen, die als direkte Vorläufer des Urkilos angesehen werden können. Schon die ersten vorgeschichtlichen Sternwarten, die auf der Anordnung großer Steinkörper beruhten, dienten der langfristigen Messung und einer Beobachtung auf Basis astronomischer Fixpunkte und wiederkehrender Ereignisse.

Urgewichte und Naturmaße

31

Die Präzision von Raum und Zeit, die in diesen Praktiken und Formen manifestiert ist, steht auch für ein Denken in eigenen Größenordnungen. So haben Techniken der Messung eine inhärente Tendenz zunehmender Ausdehnung und Komplikation. Beide sind korreliert. Eine Ungenauigkeit von Messwerkzeugen im Kleinen wirkt sich in großem Maßstab fatal aus. Umgekehrt lassen sich mit entsprechendem Aufwand Vorhersagen von magisch anmutender Genauigkeit machen, die den Verantwortlichen hohe gesellschaftliche Bedeutung zukommen lässt. Die moderne Metrologie nimmt in diesem Sinne nicht nur älteste politisch-rechtliche Praktiken der Kodifizierung in sich auf (die schon seit dem ­Babylonischen König Hammurapi sowohl Entscheidungen über Maße und Gewichte wie auch über den Umgang mit Fälschungen betrifft), sondern spiegelt auch die fundamental gesellschaftliche, wirtschaftliche und wissenschaftliche Bedeutung jeglicher Messung und Vergleichung von Daten, die oft genug eine gewaltsame, normative Seite haben. Für den US-Essayisten Lewis Mumford bleiben die Pyra­miden des alten Ägypten darum eine Leistung, die von der Industrialisierung nicht übertroffen werde, denn „genauestes Maß, höchste technische Präzision und makellose Perfektion sind kein Monopol unseres Zeitalters“.9 Großbauwerke sind vielmehr seit den antiken Hochkulturen Symbole der Hoheit und Unterwerfung, weil sie auf einer Vielzahl von Techniken und Bauteilen beruhen.10 Auch die Grande complica­tion des Maschinen- und Uhrenbaus, angetrieben durch Wasser und Luft, Federn und Seilzüge ist ein Ergebnis dieses Strebens und ein Symbol der Präzision. Mit ihr werden die Kräfte und Abläufe der Natur, ihre Beseelung oder Unerbittlichkeit nachgestellt, wenn nicht nachjustiert. Der Mensch ist Teil dieses Räderwerks (wie im Titelbild zu Robert Fludds Abhandlung des Mikro- und Makrokosmos von 1617 oder in Charlie Chaplins Moderne Zeiten von 1936) oder wird selber als ein solches gesehen (wie in L’homme machine des Julien Offry de la Mettrie von 1748). Internationale und öffentlich geförderte Kooperationsprojekte wie das CERN, welche die Experimentalanordnungen der Physik räumlich, datenmäßig und finanziell ins Extrem ausdehnen, beziehen insbesondere aus der Idee einer auf Wachstum angelegten Präzision einen nennenswerten Teil ihrer Legitimation.11 Sie ist Ausdruck eines globalen Wettbewerbs um technische Meisterschaft, welcher prinzipiell nie abgeschlossen sein kann. Berichte, wonach es einem Team am Max-Planck-Institut für Kernphysik gelungen sei, das Gewicht eines Elektrons 9 Lewis Mumford: Der Mythos der Maschine. Kultur, Technik und Macht. Frankfurt am Main 1986, S. 227. Die erstmals 1967 erschienene, zweibändige Publikation weicht besonders in diesem Punkt von Sigfried Giedions Chronik der Industrialisierung ab, die dieser 1947 in der Herrschaft der Mechanisierung entworfen hatte. 10 Sara Hillnhütter (Hg.): Planbilder. Medien der Architekturgestaltung, De Gruyer, München/Berlin 2015. 11 Vgl. Peter Galison: Big Science. The Growth of Large-Scale Research. Stanford, CA 1992.

32

Matthias Bruhn

auf 30 Billionstel genau zu bestimmen, legen immer schon die nächste Marke für Genauigkeitsprüfungen fest. Aus demselben Grund werden Abweichungen zweier Messgeräte voneinander, zum Beispiel zweier Atomuhren, stets als Belege für die aktuell mögliche Präzision vergleichender Prüfung angesehen und eben nicht als Beleg für das Versagen eines Geräts.12

Vom Naturmeter zum Urmeter Im architekturtheoretischen Sammelband Precisions von Ákos Moravánszky und Ole W. Fischer13 hat der Konzeptkünstler František Lesák verschiedene Bedeutungsebenen von Präzision diskutiert; denn in der bildenden Kunst und Architektur lässt sie sich als ästhetische und symbolische Form, als Disziplinierung künstlerischer Akte, als (quasi)wissenschaftliche Tugend und Rationalität oder als maschinelle Verarbeitung gut unterscheiden.14 Während der Begriff Präzision selber unpräzise sei, so Lesák, lasse sich sehr wohl von einer Präzisionsästhetik sprechen. In einer aus zehn Fotosequenzen bestehenden Arbeit unter dem Titel Die Begründung eines Meters durch Schätzung ist er in einem Selbstversuch 1972 darum der Frage nachgegangen, was das Wesen eines Meters ausmache, das zu einer festen Größe werden konnte. Damit schreibt er die untrennbare Beziehung von Kunst und Architektur zum Messwesen weiter. Das Vermessen oder Wiegen von Dingen setzt Maße und Messwerkzeuge voraus, welche eine Norm umsetzen, zu der sie selber immer nur relativ sind. Techniken der Messung beruhen stets auf vorangegangenen Werkzeugen, mit denen sie verglichen werden und auf die sie verweisen. Aus derselben Logik hat sich die evolutive Vorstellung ergeben, wonach der menschliche Fortschritt auf einer permanenten Verfeinerung seines Instrumentariums, der téchne, beruht. Seit der Antike werden diese Verfahren und Innovationen praktisch-technischer wie intellektueller Art in Berichten aufgezeichnet, die zur sogenannten Naturgeschichte gehören. In dieser schreibt sich der Mensch durch seine Künste, seine Kulturtechniken ein. Naturgebunden bleiben sie insofern, als sie weiterhin auf bestimmten Stoffen, auf Materialtraditionen und -erfahrungen beruhen, etwa auf dem Schneiden und Ritzen mit Hilfe scharfkantiger Steine oder Stöcke. Nicht zufällig wird im Deutschen

12 Vgl. Florian Köhler, Sven Sturm, Wolfgang Quint, Klaus Blaum: Das Elektron auf der Waage. In: Physik in unserer Zeit 45, 2014, 292–298. 13 Vgl. die Einleitung des Bandes, Anm. 4 14 František Lesák: Präzision als Tugend, als Notwendigkeit und als Selbstzweck. In: Ákos Moravánszky, Ole W. Fischer (Hg.): Precisions. Architektur zwischen Wissenschaft und Kunst. Berlin 2008, S. 138–165.

Urgewichte und Naturmaße

33

4 Cevdet Erek: Hundertjähriges Lineal, 2014. Zedernholz, im Besitz des Künstlers.

das allgegenwärtige Schneidegerät namens Messer mit derselben Bezeichnung belegt wie ein Gerät zur Bestimmung von Längen und Distanzen. Die Materialbindung wird auch in einem kleinen Objekt symbolisiert, das der Konzeptkünstler Cevdet Erek im Jahre 2014 angefertigt hat. Auf den ersten Blick handelt es sich um ein gewöhnliches Schullineal, allerdings von der ungewöhnlichen Länge von 49,8 cm und mit dem keineswegs bescheidenen Titel Lineal-Jahrhundert (im Besitz des Künstlers) – eine einfache Leiste aus Zedernholz mit Einteilung, an einer Längsseite angeschrägt, an einem Längsende mit einer sauberen Bohrung versehen, am anderen Ende durch ein Stück Rinde abgeschlossen ↗ABB. 4 .15 An einer großen und weitgehend leeren Ausstellungswand angebracht und per Scheinwerfer beleuchtet, entfaltet das kleine Objekt sofort eine besondere Aura durch die Spannung von scharfen Kanten und sanfter Maserung. Obwohl grundverschieden in Funktion und Aufbau, erinnert es dann durchaus an das Urkilo­ gramm, das Urmeter oder vergleichbar reduzierte Körper. Anders als das Urmeter ist das Lineal nicht nur Maß, sondern auch Werkzeug: es ist durch einen Schnitt begradigt worden, um selber zum Zeichnen exakter Striche zu dienen. Das Lineal, im Englischen passenderweise als Ruler bezeichnet, ist darüber zum Inbegriff des

15 Gezeigt in der Ausstellung Concrete, Tophane-i Amire-Kulturzentrum/Mimar Sinan Kunstuniversität Istanbul, in Zusammenarbeit mit Monash University Museum of Art, kuratiert von Geraldine Kirrihi Barlow, Melbourne 2015.

34

Matthias Bruhn

Schulmeisterlichen, der Disziplinierung und des Drills geworden, der auch dem Militärischen eingeschrieben ist. Wenn sich der Ethnologe Thomas Hauschild an seine politisch bewegte Studienzeit erinnert, in welcher das Verteilen linker Flugblätter mit der Unerbittlichkeit eines soldatischen Kommandos verglichen wurde, so zeigt dies auch, dass Drill über alle politischen Lager hinweg ein Ausdruck maschinengleichen Funktionierens sein konnte.16 Zum anderen sind in Ereks künstlerisch transformiertem Schullineal Erinnerungen an Zeiten eingeschlossen, deren stummer Zeuge der Baum geworden ist. Gerade die feinen Unregelmäßigkeiten der Holzstruktur, die an wertvolle Furniere erinnern, machen neugierig, und der nähere Blick zeigt in der Tat, dass die vermeintliche Skala des Lineals aus den wachstumsbedingten Jahresringen besteht, die hier überdeutlich zutage treten und auf ästhetische Weise reaktiviert sind. Der Künstler verweist damit auf die verschiedenen Zäsuren und Katastrophen, die sich im Jahrhundert seit dem Ausbruch des ersten Weltkriegs ereignet haben. Das Holzlineal transformiert Natur in eine Kunstform und thematisiert das Maß und die Messung, indem es den natürlichen Stoff dem exakten Schnitt industrieller Fertigung unterwirft; es thematisiert damit auch den Stoff, den es verletzt. Holz steht für eine Fülle natürlicher Eigenschaften, die sich in Wachstumsprozessen und Musterbildungen ebenso zeigen wie in den unterschiedlichen Arten und Weisen, es als Werkstoff einzusetzen. Seine Maserung ist sowohl Schmuckform des Kunstgewerbes wie analytisches Mittel der Altersbestimmung. Cevdet Erek experimentiert mit derartigen Formen und Materialien, um zeitliche Dauer oder biografische Information in Skalen und Leisten zu übersetzen.17 Der tomografische Schnitt quer zur Struktur des Holzes erzeugt hier neue Formen und Sichtbarkeiten, die ihre eigene Zeit repräsentieren. Das Wachstum des Stammes gibt Aufschluss, zeigt ein historisches Schnittbild, das auch Sinnbild für Geschichte im Allgemeinen sein kann. Es erinnert in seiner Verbindung von scharfer Kante und weicher Maserung schließlich auch daran, dass die Künste und ihre Medien zur Entstehung eines Konzeptes der Präzision wesentlich beigetragen haben; entgegen der wiederkehrenden Behauptung, dass Kunstwerke (oder Bilder) sich durch Mehrdeutigkeit, ­alogischen Charakter und mangelnde Verbindlichkeit oder Präzision von Zahlen und Wörtern unterscheiden, ist schon die Erfahrung von Präzision in weiten Teilen eine ästhetische.18 16 Thomas Hauschild: Auch wir waren ganz normale Terroristen. In: Die Welt, 22. November 2015. 17 Vgl. die Installation Ruler zur Ausstellung der IfA-Galerie Another Country. Eine andere Welt. Online verfügbar unter http://www.ifa.de/kunst/ifa-galerien/ausstellungen/another-country/cevdet-erek.html (Stand 08/2017). 18 „According to Aristotle, knowledge originated in wonder and gained its greatest pleasure from precision, which was only to be achieved through the visual sense“ Brian S. Ogilvie: The Science of Describing.

Urgewichte und Naturmaße

35

5 Ulrich Dähne, Geschäftsführer der Stabila Mess­geräte Gustav Ullrich GmbH, zeigt einen Ur-Zoll­s tock des Erfinders Anton Ullrich aus dem Jahre 1886.

Von dem Kunstlineal des Jahres 2014 führt eine direkte Brücke in das Jahr 1889 zurück, als im französischen Sèvres das Urkilogramm eingelagert wurde, denn in jenem Jahr wurde auf der Pariser Weltausstellung auch ein neuartiges Hilfsmittel vorgestellt, das auf den Werkzeugmacher Anton Ullrich zurückgeht, nämlich eine auf mehreren Gelenken beruhende Holzleiste mit Zentimetermaß, heute landläufig als Zollstock bekannt. In einem rezenten Foto der Firma Stabila, welche die Produktion der gleichfalls 1889 begründeten Fabrik fortsetzt, hält der Geschäftsführer des Unternehmens, der Physiker Ulrich Dähne, das älteste erhaltene Modell des Hauses dem Betrachter entgegen ↗ABB. 5 . Hier ist es das historische Werkzeug selber, das als prototypischer Maßstab im wörtlichen Sinne fungiert. Den deutschen Bezeichnungen Urkilo und Urmeter zum Trotz sind gerade die Messkörper der Metrologie und Materialforschung keine Offenbarungen oder UrChicago, IL 2006, S. 26.

36

Matthias Bruhn

schöpfungen, sondern Gewährsstücke in einem System von Setzungen, Vereinbarungen und Forschungen, die durch die Wahl von Substanzen oder Verfahren gestalterische Entscheidungen auf höchstem technischen Niveau repräsentieren. Sie könnten belegen, dass es eine Kultur der Präzision und je nach praktischer Auslegung auch verschiedene Kulturen der Präzision geben kann. Sowohl das bescheidene, künstlerisch motivierte Holzlineal als auch das scheinbar rein technische Urkilogramm, in seiner geometrischen Einfachheit den antiken Pyramiden ähnelnd, sind Produkte dieser Kulturen.

Christina Landbrecht und Verena Straub

Präzision ins Bild gesetzt Der Reinraum als Showroom

An der niederländischen Universität Twente befindet sich eines der weltweit führenden Institute für Nanotechnologie, das MESA+. Dessen Herzstück ist ein 1.000 Quadratmeter großes Reinraumlabor, in dem zu Nanophotonik und Nanoelektronik geforscht wird. Auf seiner Webseite präsentiert sich das Institut nicht nur als innovative Wissenschaftseinrichtung, sondern auch als Anlaufort für öffentliche Labortouren: „Would you like to visit this unique laboratory? You can!“1 Fotografien, die auf der Webseite veröffentlicht sind, zeigen einen weitläufigen Reinraumkomplex, in dem Menschen in weißen oder blauen Ganzkörperanzügen, mit Handschuhen, Kopfbedeckungen und Schutzbrillen ihrer Arbeit nachgehen ↗ABB. 1 . Aber nicht nur Fotografien machen den Ort einsehbar, Interessierte werden von einem Guide auch durch einen Besuchergang geführt, der zwischen Reinraum und Glasfassade eingepasst und eigens für öffentliche Besichtigungen konzipiert wurde ↗ABB. 2 . Durchlaufende Fenster ermöglichen sowohl den Blick in den Raum als auch auf den begrünten Campus. Durch die gläsernen Wände hindurch kann man dem wissenschaftlichen Personal zusehen, während flatscreens , die im Gang platziert sind, über die neuesten Entwicklungen der Nanotechnologie Auskunft geben. Der Reinraum wird hier zum quasi-öffentlichen showroom. Diese Inszenierung ist bemerkenswert, denn sie scheint mit den herkömmlichen Gestaltungskonventionen für Reinräume in naturwissenschaftlichen Laboren zu brechen. Noch 2013 verglich der Leiter des Graphene Research Centre an der National University of Singapore, der Physiker Antonio Castro Neto, den Reinraum mit einem Verlies. Den Blick nach draußen bezeichnete er als Ausnahme: „Most cleanrooms are dungeons with no sun light or outside view.“2 Aktuelle Beispiele weisen jedoch auf einen Trend zu verglasten Außenfronten hin, so etwa Castro N ­ etos

1

Mesa+ Institut für Nanotechnologie der Universität Twente: Would you like to visit this unique laboratory?, 2015, online verfügbar unter https://www.utwente.nl/mesaplus/public/tour/ (Stand 08/2017).

2

Die Aussage basiert auf einer Umfrage der Autorinnen, für die nach Laborbesuchen an Universitäten in Japan, Singapur und den USA die jeweiligen Professoren nach kulturellen Unterschieden in der Laborgestaltung befragt wurden. Auszüge ihrer Statements fanden Eingang in die Publikation Charlotte Klonk (Hg.): New Laboratories. Historical and Critical Perspectives on Contemporary Developments. Berlin 2016.

38

Christina Landbrecht und Verena Straub

eigenes Labor in Singapur, das sich durch die Verwendung großzügiger Fenster von der Vorstellung des Reinraums als Verlies verabschiedet. Auch das deutsche Unternehmen Lindner, das unter anderem Reinraumlabore für das Pharmaunternehmen Novartis plante, wirbt auf seiner Webseite mit Bildern lichtdurchfluteter Reinräume, deren umlaufende Fensterfronten den Blick nach draußen ermöglichen.3 Zeichnet sich in der Gestaltung von Reinräumen ein Paradigmenwechsel ab?

Die ultra-saubere Zelle im Labor Die Entstehung des Reinraumes beruht auf zwei wesentlichen Erkenntnissen im mikroskopischen Bereich: Mit dem Nachweis von gefährlichen Krankheitserregern hatten sich Ärzte bereits Mitte des 19. Jahrhunderts darum bemüht, die Luft in Operationssälen keimfrei zu halten.4 Hundert Jahre später, während des Zweiten Weltkriegs, verlangte auch die Entwicklung der Militärtechnologie nach neuen Verfahren zur Herstellung von Präzisionsbauteilen, etwa für Bordinstrumente der Luftwaffe. Deren kleiner werdende Elemente, darunter Zahnräder und Kugellager, stellten die Produktionsfirmen vor ein allgegenwärtiges Problem: Staub. Denn schon kleinste Partikel konnten den Fertigungsprozess stören und schwere Fehlfunktionen verursachen. Anfang der 1960er Jahre stellte daher ein Bostoner Werbefachmann fest: „The United States could lose a war because of a particle of dust only a ten-thousandth the size of the period that ends this sentence.“5 Die Einsicht, dass ein Staubpartikel über Sieg oder Niederlage zu entscheiden vermochte, so wie Mikroorganismen über Leben und Tod, hatte Konsequenzen für die Ausarbeitung von Reinheitsstandards in Produktionsstätten seit den 1930er Jahren. Sowohl in Lazaretten als auch in Zulieferfirmen der amerikanischen Waffenindustrie begann man fieberhaft an Raumkonzepten zu arbeiten, die hier Keim- und dort Staubfreiheit garantierten. Im Jahr 1962 gelang dem Physiker Willis Whitfield, der in den Sandia National Laboratories an verbesserten Produktionsbedingungen für kleinste mechanische Nuklearwaffenteile forschte, ein entscheidender Durchbruch. Mit seiner Erfindung der sogenannten Laminarströmung revolutionierte er die bisherigen, als white

3

Siehe die Web-Seite der Lindner Group, online verfügbar unter https://www.lindner-group.com/de_DE/ unternehmen/lindner-group/firmenstruktur/lindner-reinraumtechnik-gmbh/ (Stand 03/2018)

4

Daniel Holbrook: Controlling Contamination. The Origins of Clean Room Technology. In: History and Technology 25, 2009, Heft 3, S. 173–191, insb. S. 177–78; siehe auch W. Whyte: An Introduction to the Design of Clean and Containment Areas. In: Ders. (Hg.): Cleanroom Design. New York 1991, S. 2 ff.

5 Zitiert nach Joe Alex Morris: How to be Really Clean. In: Saturday Evening Post (Philadelphia), 1961, Heft 26, S. 76.

Präzision ins Bild gesetzt

1 Eric Brinkhorst: Blick in das Reinraumlabor, Mesa+ Institut für Nanotechnologie, Universität Twente, Niederlande, Fotografie von 2010.

2 Eric Brinkhorst: Umlaufender Gang, Mesa+ Institut für Nanotechnologie, Universität Twente, Nieder­ lan­de, Fotografie von 2010.

39

40

Christina Landbrecht und Verena Straub

oder grey area bezeichneten Labore. Hatten bisherige Reinräume lediglich das Tragen besonderer Arbeitskleidung, häufiges Staubsaugen und eine luftdichte Versiegelung der Räume vorgesehen – mit der Folge, dass Staubpartikel, die einmal hineingelangt waren, nicht mehr entweichen konnten – so sah Whitfields Prinzip vor, den Raum mit Hilfe eines Luftzugsystems, das gereinigte Luft über die Decke einführte und durch den Boden wieder ausströmen ließ, kontinuierlich mit gefilterter Luft zu versorgen, die auf diese Weise zehn Mal pro Minute ausgetauscht wurde.6 Die Luft in Whitfields so genanntem ultra-clean room ↗ABB. 3 wies damit tausend Mal weniger Partikel auf als in vergleichbaren Reinräumen seiner Zeit.7 Entwicklungen in der Halbleiter-Forschung wurden dadurch erst möglich und begründeten die moderne Mikroelektronik.8 Weiterhin konnten auf Basis dieses Systems die so genannten Reinraumklassen ausgearbeitet werden, die den Grad der Sauberkeit eines Reinraumes bis heute zertifizieren. Mithilfe des Laminar Flow -Systems, hocheffizienter Filter sowie reinraumspezifischer Materialien war eine Technologie geschaffen worden, die die Produktion einwandfreier Präzisionsteile ermöglichte.

Präzision als Handlungskompetenz Eine gängige Definition weist den Reinraum als ein „Verfahren und [eine] Anlage zur Herstellung besonders hoher äußerer Reinheit“ aus, „die für spezielle Fertigungsverfahren (besonders in der Mikroelektronik für die Chipfertigung), medizinische Operationen oder andere gegenüber Verunreinigungen empfindliche Tätigkeiten erforderlich ist.“9 Primäres Ziel der Reinraumtechnologie ist die Schaffung eines kontrollierten Produktionsmilieus. Neben räumlichen Besonderheiten ging mit

6 William Yardley: Willis Whitfield. In: The Boston Globe, Dezember 2012, online verfügbar unter https:// www.bostonglobe.com/metro/obituaries/2012/12/08/willis-whitfield-inventor-clean-room/I80NVGaFirCR1HV09W4ZYO/story.html (Stand 08/2017). 7

Mr. Clean. In: Time, 13. April 1962, S. 52.

8 Vgl. die Einschätzung der Sandia-Historikerin Rebecca Ullrich, sowie des Direktors der Sandia Labore Paul Hommert, der 2012 über Whitfields Erfindung schrieb: „His breakthrough concept for a new kind of cleanroom, orders of magnitude more effective than anything else available in the early 1960s, came at just the right time to usher in a new era of electronics, health care, scientific research and space exploration. His impact was immense; even immeasurable.“ In: Sandia Labs News Releases: Modern-Day Cleanroom Invented by Sandia Physicist Still Used 50 Years Later, 26. November 2012, online verfügbar unter https://share.sandia.gov/news/resources/news_releases/cleanroom_50th/#.VkG-b-nLDSg (Stand 08/2017). 9 Eintrag ‚Reinraum‘, Brockhaus Enzyklopädie. Leipzig (21. Auflage) 2006.

Präzision ins Bild gesetzt

41

3 Foto AP: Willis Whit ­field vor seinem ultra clean room, Sandia National Laboratories Albu­quer­que, New Mexico, USA, Foto­grafie von 1962.

ihrer Entstehung aber auch eine „neue Fertigungsphilosophie“10 einher, die neue Verhaltens- und Kleidungsvorschriften erforderte. Angesichts eines umfassenden Regelkodexes, den der Nutzer befolgen muss, kann man den Reinraum deshalb auch als Handlungssystem verstehen, das im Zeichen der Präzisierung von Arbeitsabläufen steht und der Genauigkeit in mehrerer Hinsicht eine konkrete Form gibt. Bettina Wahrig und Brigitte Lohff haben darauf hingewiesen, dass Tugenden wie Sorgfalt, Gewissenhaftigkeit, Gründlichkeit und Zuverlässigkeit häufig als Synonyme des Begriffs verwendet werden.11 Präzision und Genauigkeit haben viel mit Disziplin zu tun. Genauigkeit ist nicht nur eine Forderung, die an die zu verfertigende wissenschaftliche Arbeit gestellt wird, sie ist eine Tugend, welche der Wissenschaftler besitzen muß, eine Charaktereigenschaft, die in möglichst früher Jugend angeeignet werden sollte.12 10 “a new philosophy of manufacture”. Daniel Holbrook: Controlling contamination. The origins of the clean room technology. In: History and Technology 25, 2009, Heft 3, S. 173–191, hier S. 182. 11 Brigitte Lohff, Bettina Wahrig: „… über Sekunden lacht man nicht“ – Über die Folgen der Anwendung von Genauigkeit und Präzision in den Wissenschaften. In: Berichte zur Wissenschaftsgeschichte 25, 2002, S. 71–79, S. 73. 12 Lohff, Wahrig (s. Anm. 11).

42

Christina Landbrecht und Verena Straub

4 Unbekannter Fotograf: White Area von Miniature Precision Bearings, Keene, New Hampshire, USA, 1956.

Im Falle des Reinraums wirkt sich diese Tugend direkt auf die Körper und damit das Verhalten der Forschenden aus. Deren natürliche Funktionsweisen gelten als größte Störfaktoren sauberer Laborumgebungen und müssen deshalb so weit wie möglich kontrolliert werden. Im Jahr 1958 gewährte das amerikanische Unternehmen Miniature Precision Bearings, das kleinste Kugellager an die amerikanische Waffenindustrie lieferte, dem US-Magazin The New Yorker Einblick in eine white area ↗ABB. 4 . Disziplin war bereits in diesem Vorläufer des Reinraums ebenso unerlässlich wie die richtige Kleidung, so der Vorsitzende des Unternehmens Horace Gilbert: „[E]veryone wears a nylon smock and cap, and nobody is allowed to smoke, use pencils or tissues, or sneeze.“13 Gilberts Aussage macht deutlich, dass im Reinraum Vorgaben herrschen, die nicht den Alltagsgewohnheiten entsprechen und die den Eintretenden daher regelrecht in eine andere Welt katapultieren. Der Journalist Alex Joe Morris, der im Jahr 1961 verschiedenste Reinräume in den USA besuchte, berichtete analog dazu: „[A] visit to a Clean Room is strictly 13 Brendan Gill: Very Tiny. In: The New Yorker, 1958, Heft 25, S. 17–18, S. 17.

Präzision ins Bild gesetzt

43

out of this ­world“.14 Morris musste erfahren, dass das Betreten eines Reinraums mit zahlreichen Hürden und Anstrengungen verbunden war. Mehrere Schleusen und Pufferräume mit selbstschließenden Türmechanismen trennten ihn von den umgebenden Produktionshallen: „We pushed open the heavy door and stepped into a passage, shut off from the factory as if we were on another planet.“15 Erst nach einer Reinigungsprozedur durch eine Luftdusche, gefolgt vom Anlegen eines Ganzkörperanzugs wurde dem Besucher unter Anleitung eines Begleiters Zutritt gestattet: „I began to get an eerie feeling that I was preparing for an interplanetary flight as I pulled the bulky overshoes up around my legs and fastened them.“16 In seinem Artikel für die The Saturday Evening Post vermittelte Morris dem Leser einen Eindruck vom Ritual, das dem Betreten des Raums vorausging. Er beschreibt eine durch und durch körperliche Erfahrung, die mit Anweisungen und Verboten gepaart war. Ein Ingenieur, der Morris auf einer seiner Labortouren begleitete, brachte dies auf den Punkt: „Everybody who goes through this door is indoctrinated. […] They have to be sold on cleanliness and then resold every day, because familiarity breeds carelessness.“17 Die Forschenden sind angehalten, sich im Reinraum so wenig und so langsam wie möglich zu bewegen, um das Aufwirbeln von Staub zu vermeiden. Einem Wissenschaftler zufolge erzeugte dies sogar eine besondere, wiedererkennbare Reinraumgangart: „Some of our experts say they can always tell Clean Room workers by the way they walk. They call it the superclean shuffle.“18 Auch heute noch gehören Verhaltensanweisungen zum gängigen Repertoire der Regularien für Reinräume. Mit Hilfe von Piktogrammen verdeutlichen Reinraumtechniker, dass sich bestimmte Bewegungsabläufe negativ auf die Effektivität der Laminarströmung auswirken. Extreme Bewegungen wie Treppensteigen wirbeln besonders viel Staub auf und gefährden die Laborbedingungen. Aus diesem Grund sind Reinräume auch meist ebenerdig angelegt. Kleidung, Verhalten, Architektur und Bewegung werden der Präzisionsarbeit angepasst. Sie garantieren schließlich, dass die Reinraumtechnologie fast vollkommene Reinheit ermöglicht. Darüber hinaus lassen sie aber auch all das körperlich erfahr- und sichtbar werden, was Norton Wise als Werte der Präzision definierte: „Precision is everything that ambiguity, uncertainty, messiness, and unreliability are not. It is responsible […]. It shows quality.“19

14 Morris (s. Anm. 5). 15 Morris (s. Anm. 5). 16 Morris (s. Anm. 5). 17 Morris (s. Anm. 5). 18 Morris (s. Anm. 5). 19 M. Norton Wise: Introduction. In: Ders. (Hg.): The Values of Precision. Princeton 1995, S. 3.

44

Christina Landbrecht und Verena Straub

Der Bedeutungswandel des gläsernen Reinraums Umso verwunderlicher mag es scheinen, dass ein Forschungsinstitut wie das an der Universität Twente heute gerade den Reinraum für die Öffentlichkeit in Szene setzt, den Morris in seinem Bericht noch als anderen, außerweltlichen Raum darstellte. Mit Blick auf die Bilder der frühen white areas wird jedoch nachvollziehbar, dass der offene Reinraum keineswegs eine Innovation unserer Tage ist: Auf den Fotografien der Reinräume, die den Artikel aus dem Jahr 1961 illustrieren, erscheint das Reinraumlabor der American Bosch Arma Co. in Hempstead, New York als luftiges open lab, das mit den umliegenden Labor- beziehungsweise Büroräumen über Fensterfronten und Telefone verbunden ist ↗ABB. 5 . Die transparente Gestaltung des Raumes gleicht somit bereits den Reinräumen, wie sie heute in vielen internationalen Laboren gebaut werden. Vor dem Hintergrund dieser frühen, gläsernen Reinräume wirkt die Gestaltung von Whitfields technologisch avancierter Reinraumzelle aus dem Jahr 1962 überraschend ↗ABB. 3 . Sein Prototyp präsentiert sich als eine nach außen hin isolierte Zelle aus Metall, eine Art „trailer without wheels“20, die kaum mehr als 1,80 Meter hoch war. Auch wenn es in dieser Reinraumbox zwei kleine Fenster gab und die Forscher durch ein Telefon mit der Laborumgebung verbunden waren, handelte es sich im Unterschied zu seinen Vorläufern um einen hermetisch wirkenden Kubus, der anders als die von Morris besuchten Reinräume Exklusion und Isolation suggeriert.21 Wie der Reinraum in Hempstead deutlich macht, waren bereits die frühen Beispiele mit Fensterfronten ausgestattet, die den Raum prinzipiell einsehbar machten. Eine solche gläserne Gestaltung ist mit heutigen Reinräumen durchaus vergleichbar. Die Art und Weise hingegen, wie über den Reinraum gesprochen und welche Maxime mit ihm verbunden wird, hat sich grundlegend verändert. Anfang der 1960er dienten Fensterfronten in erster Linie dem Zweck, einem Gefühl von Klaustrophobie vorzubeugen: „No windows at all would be better,“ so Morris’ Begleiter, „but this view gives operators in the Clean Room a feeling of contact with the plant and helps prevent claustrophobia. We call them acanfae

20 Time 1962 (s. Anm. 7). 21 In einem Artikel, der 1966 in der New York Times erschienen war, beschrieb der Journalist Harold Schmeck die Fortschritte im Bereich keimfreier Bereiche innerhalb von Operationssälen als Einhausungen, die zwar den Charakter einer isolierten Einheit hatten. Diese Form der Isolation hatte jedoch nichts zu tun mit räumlicher Separation: „A special operatingroom unit was built for Bataan Memorial Methodist Hospital in Albuquerque at a cost of $ 20,000, Dr. John G. Whitcomb, administrative chairman of the department of surgery of Lovelace Clinic said today. […] The surgical enclosure is 10 feet by 12 feet in area and 8 ½ feet from floor to ceiling. […] [It] fits inside a conventional operating room and is isolated from the rest of the room by clear plastic vertical panels.“ Harold M. Schmeck Jr.: Air System cuts Risk of Infection. In: The New York Times, 27. Juli 1966.

Präzision ins Bild gesetzt

45

5 Reinraumlabor der American Bosch Arma Co., Hempstead, New York, USA, Fotografie, 1961. Aus: Joe Alex Morris: How to be Really Clean. In: Saturday Evening Post (Philadelphia) 1961, Heft 26, S. 30.

windows – anticlaustrophobia-and-no-fooling-around-either windows.“22 Das „no-fooling-around“ kann in diesem Sinne als Maßnahme zur Sichtkontrolle und Überwachung interpretiert werden und verdeutlicht erneut die Indoktrinierung der Reinraumwissenschaft. Obwohl sie Anfang der 1960er die kontrollierten Bedingungen des Reinraums durch Licht- und Wärmeeinfall eigentlich gefährdeten, konnten allein Fenster und damit die Einsehbarkeit garantieren, dass die in ein Handlungssystem übersetzten Werte der Präzision eingehalten wurden. Ganz anders sieht die Rhetorik aus, mit der heute die transparente Gestaltung von Reinräumen gerechtfertigt wird. Gegenwärtige Reinraumlabore – wie jenes des MESA+ – sind mit Fensterfronten versehen, die sowohl Sichtbeziehungen innerhalb des Laborgebäudes zulassen als auch den Blick nach draußen, in die Natur freigeben. Ein Beispiel für eine solche Öffnung des Reinraums ist auch im Graphene Centre der National University of Singapore zu finden ↗ABB. 6 . Castro Neto, der an seiner Gestaltung maßgeblich beteiligt war, begründete die Entscheidung für große Fensterfronten mit den verbesserten Arbeitsbedingungen, die so entstünden: „We planned on the windows because we wanted to humanize the work 22 Morris (s. Anm. 5). S. 77.

46

Christina Landbrecht und Verena Straub

6 Blick in den Reinraum, Graphene Research Centre, National University of Singapore, Fotografie von 2010.

inside the cleanroom.“23 Die einstige Rede von der Disziplinierung scheint heute einer Offenheitsrhetorik zu weichen, die einerseits im Zeichen einer angenehmen und ‚humanen‘ Arbeitsatmosphäre steht. Der Mensch wird nicht mehr primär als Störfaktor der Reinraumtechnologie betrachtet. Seine Bedürfnisse sollen vielmehr wieder respektiert werden. Andererseits – das machen die Beispiele aus Twente und Singapur deutlich – erlaubt das transparente Labor nicht nur den Blick von außen auf die naturwissenschaftliche Praxis. Für die Wissenschaftlerinnen und Wissenschaftler im Labor eröffnen sich Möglichkeiten der Kommunikation und des kollaborativen Arbeitens, die ganz im Sinne einer Definition des Forschens als sozialem Prozess stehen. Im Jahr 2012 prognostizierte die US-amerikanische Beratungsagentur für Forschungsbauten Tradeline: “Research activity will become an increasingly social process involving face-to-face collaboration within small 23 Email-Interview der Autorinnen mit Antonio Castro Neto, August 2013 (s. Anm. 2).

Präzision ins Bild gesetzt

47

interdisciplinary teams focused on targeted research problems.”24 Aus dieser Neubewertung wissenschaftlicher Praxis ergaben sich Konsequenzen für die Gestaltung von Forschungseinrichtungen, die fortan dem offenen und transparenten Großraumlabor einen hohen Stellenwert einräumten, in der Hoffnung, so den Austausch und die Kommunikation zwischen Forschern zu fördern sowie zufällige Begegnungen zu ermöglichen. Fensterfronten werden nicht mehr nur als notwendiges Übel zur Vermeidung von Klaustrophobie in Kauf genommen, sondern sind integraler Bestandteil der interdisziplinären Laborpraxis. Heutige Reinräume wie das MESA+ gehen mit ihrer Forderung nach Transparenz aber häufig noch einen Schritt weiter, indem sie über die interne Kommunikation hinaus den Dialog mit der Öffentlichkeit bewusst fördern wollen. Seit den 1980er Jahren wird die Vermittlung naturwissenschaftlicher Forschung zunehmend als dringlich empfunden und es werden Maßnahmen entwickelt, um der Öffentlichkeit Einblick in die Thematik und Ergebnisse wissenschaftlicher Arbeit zu gewähren.25 Das Angebot der Labortour durch das Mesa+ macht dies allzu deutlich. Die geführten Touren kommen damit nicht nur einem demokratischen Anspruch auf Wissensvermittlung nach. Der Blick durch das Fenster hat auch aufklärerisches Potenzial und entkräftet, zumindest visuell, die Vorstellung, dass „Wissen eine ‚black box‘ [sei]“26. Der Einblick in den Reinraum verwandelt die Arbeit im Labor vielmehr zum Bild der Präzision selbst. Ohne Zweifel versucht der heutige, transparente Reinraum der öffentlichen Forderung nach einer Vermittlung wissenschaftlicher Arbeit Rechnung zu tragen. Möglich wurde diese Transparenz dennoch erst dann, als sich die durchlaufenden Fensterfronten deshalb durchgesetzt hatten, weil sie ein probates Mittel darstellten, den Reinraum auch funktional zu optimieren. Bereits 1988 berichtete das Magazin Popular Science über Entwicklungen im Bereich der Fensterindustrie, die dazu führten, dass Fenster dieselbe Isolierfähigkeit wie Wände aufwiesen. Vor allem für Konferenzsäle und Reinräume seien die so genannten Varlite Windows der Taliq Corporation sinnvoll, da sie dazu beitrügen, staubsammelnde Jalousien und Vorhänge überflüssig zu machen.27

24 Tradeline: The growing human factor in research, 2012, online verfügbar unter https://www.tradelineinc. com/reports/2012–1/research-research-facility-futures (Stand 08/2017). 25 Siehe The Royal Society (Hg.): The Public Understanding of Science. London 1985, online verfügbar unter https://royalsociety.org/~/media/Royal_Society_Content/policy/publications/1985/10700.pdf (Stand 08/2017). 26 Nico Stehr: Arbeit, Eigentum und Wissen. Zur Theorie von Wissensgesellschaften. Frankfurt am Main 1994, S. 203. 27 Dawn Stover: Amazing Glazing. In: Popular Science 233, 1988, Heft 2, S. 52–53, S. 53.

48

Christina Landbrecht und Verena Straub

Das Primat der Präzision, das von Anfang an den Reinraum beherrschte, soll heute nicht mehr als reine Subordinationsgeste verstanden werden, die das wissenschaftliche Personal zum Störfaktor degradiert. Zeitgenössische Forschungsinstitutionen und ihre Designs werten den Reinraum vielmehr durch eine transparente Gestaltung auf und verleihen ihm dadurch ein positives, kommunikatives Image. Weit über ihre Technologie und Funktionalität hinaus können Reinräume dadurch auch zum PR-wirksamen Aushängeschild der Spitzenforschung avancieren, in denen das Paradigma der black box dem des showrooms gewichen ist.

Kathrin Friedrich

Scalpel-like precision Hochpräzision in der bildgeführten Radiochirurgie

Im Bereich der radiochirurgischen Bestrahlung werden Körper nicht durch Schnitte geöffnet. Vielmehr basiert der Zugang zum Körper, ebenso wie die therapeutische Intervention, in weiten Teilen auf Visualisierungstechniken, auf dem Handeln an und mit Bildformen. Bereits in der Entstehungsphase der Radiochirurgie hatte der schwedische Neurochirurg Lars Leksell, der als ihr mutmaßlicher, durch den Fachdiskurs beglaubigter ‚Erfinder‘ gilt, auf dieses grundlegende, operative Erfordernis hingewiesen. Leksell merkte insbesondere die zunehmende Distanzierung der strahlenbasierten Chirurgie zum Patientenkörper an. Da kein direkter visueller Zugriff des Chirurgen auf das Operationsgebiet mehr möglich sei, sprach er der präoperativen Planung einen besonderen Stellenwert zu: Surgery of this kind is a radical departure from the classical tradition in which operations are performed under direct visual control. The surgeon is not governed by the circumstances in the wound, and in place of skilful improvisation he has a procedure which is the consequence of careful preoperative planning.1

Obwohl damit ein fundamentaler Wandel des chirurgischen Eingriffs umschrieben ist, werden in der Fachsprache auch heute, wann immer Bilddaten und –formen die Bestrahlung von Tumoren und anderen Pathologien leiten, weiterhin Metaphern bemüht, die an das traditionelle chirurgische Handwerk anschließen. “Only at the point where the […] beams cross is radiation delivered high enough to effectively destroy the cells of the abnormal brain lesion. The amplitude of radiation at this point of convergence is so high that it allows for scalpel-like precision.“2 Dieser Vergleich zwischen einer strahlenchirurgischen und einer offenen chirurgischen Operation, die von Neuroonkologen und Neurochirurgen des Cedars-Sinai Medical Center in Los Angeles ausgeführt wurde, legt nahe, dass die hochenergetischen Strahlen eines radiochirurgischen Systems so durchdringend und fokussiert seien,

1

Lars Leksell: Stereotaxis and Radiosurgery. An Operative System. Springfield, IL1971, S. 55.

2 John S. Yu, Anne Luptrawan, Robert E.Wallace, Behrooz Hakimian: Radiosurgery of Intracranial Lesions. In: Behnam Badie (Hg.): Neuro-Oncology. New York 2006, S.124–130, hier S. 124. Hervorh. K. F.

50

Kathrin Friedrich

dass sie eine ‚Skalpell-ähnliche Präzision‘ erlaubten, die normales und pathologisches Gewebe zu trennen vermöge. Aus dieser Annahme ergibt sich eine ganze Reihe von theoretischen wie praktischen Fragen, welche die Rede von der Präzision in der Radiochirurgie – jenseits des metaphorischen Bezugs zum schneidenden Handwerk – auf weitere Referenzen beziehen und insbesondere Probleme der bildbasierten Planung und Intervention aufwerfen. Der operative Status von Bild- und Medientechniken muss insbesondere dann hinterfragt werden, wenn diese das Handeln am Patienten ermöglichen und leiten. Wie gestaltet sich die Arbeit von Medizinern, deren handwerkliche Fähigkeiten sich im Falle der Radiochirurgie vorrangig auf den Umgang mit Körperbildern und entsprechenden Softwareanwendungen beziehen? Und welche Erfordernisse an Berechnung und Sichtbarmachung stellt die bereits von Leksell angesprochene präoperative Planungsphase, um dem Versprechen einer hochpräzisen Bestrahlung gerecht zu werden? Um diesen Fragen nachzugehen und aufzudecken, aus welchen Ideen und Praktiken sich die Rede von der Hochpräzision einer radiochirurgischen Behandlung speist, werden im folgenden idealtypische Phasen eines solchen Bestrahlungsprozesses im Hinblick auf die eingesetzten Bild- und Medientechniken nachvollzogen.

Visualisieren und Fusionieren Während in der Frühphase radiochirurgischer Praktiken noch Röntgenaufnahmen herangezogen wurden, um die Planung einer Behandlung durchzuführen sowie nachträglich deren Ergebnis zu überprüfen, sind aktuell eine Vielzahl digitaler Bildgebungsverfahren im klinischen Einsatz. Bildgeführte Bestrahlungssysteme wie das CyberKnife des US-amerikanischen Unternehmens Accuray Inc. werden bisweilen nicht nur als präzise, sondern als „hochpräzise“ Techniken bezeichnet.3 Im Gegensatz zu radiotherapeutischen Bestrahlungen nutzen radiochirurgische Systeme wie das CyberKnife eine sehr hohe Strahlendosis, die in wenigen Sitzungen in das identifizierte Tumorvolumen eingebracht wird. Das intraoperative Dispositiv des CyberKnife besteht aus einem Roboterarm, der die Bestrahlungseinheit trägt, einer in sechs Graden beweglichen Patientenliege, die von der Herstellerfirma als RoboCouch bezeichnet wird, sowie aus Durchleuchtungs-, Tracking- und Videotechnik ↗ABB. 1 .

3 Etwa in Michael Wannenmacher, Frederik Wenz, Jürgen Debus (Hg.): Strahlentherapie. 2. Aufl. Berlin/ Heidelberg 2013, S. 100.

Scalpel-like precision

51

1 Aufbau des radiochirurgischen Bestrahlungssystems CyberKnife. Die intraoperativen Visualisierungsund Steuereinheiten befinden sich in einem abgetrennten Raum, in dem sich das Personal während der Bestrahlung aufhält.

Vor Beginn der Planung einer radiochirurgischen Bestrahlung muss der Patien­ ten­körper in eine handhabbare visuelle Form gebracht werden. Digitale Bildgebungsverfahren wie die Magnetresonanztomografie (MRT) und Computertomografie (CT) stellen dafür eine gleichsam berechenbare wie sichtbare Grundlage her. Während Magnetresonanztomografien eingesetzt werden, um Weichteilgewebe wie das Hirn differenzierter darstellen zu können, erfordert die zum Cyberknife -System gehörende Planungssoftware Multiplan zudem die Anfertigung von CT-Aufnahmen. Auch wenn die primäre Diagnostik, z. B. von Tumoren im Gehirn, üblicherweise auf Grundlage von MRTs durchgeführt wird, müssen deren Daten in der Planungssoftware mit CT-Darstellungen fusioniert werden ↗ABB. 2 . Die Registrierung beider Datensätze nimmt zunächst das Softwareprogramm anhand des Vergleichs geometrischer Parameter auf Datenebene vor. Sodann können Radiochirurgen die korrekte Ausrichtung der beiden Bilddatensätze visuell überprüfen, indem sie eine Art Drehschieber, als Gerade innerhalb der drei Schnittbilder und der 3D-Modellierung angedeutet, nutzen ↗ABB. 2 . Durch beständiges Interagieren mit dem rotierenden Schieber werden im Gesamtbild die Verhältnisse

52

Kathrin Friedrich

2 Detailansicht der ­MultiPlan Preplaning-Software. In Leserichtung: 3D-Modellierung der fusionierten Datensätze, axiale, koronare und sagittale Schnittbild­ansichten. Jeweils links der Trennlinie des Drehschiebers ist der MRTBilddaten­anteil dargestellt.

zwischen MRT und CT reguliert. Dabei kann visuell die Passgenauigkeit der Übergänge von der einen in die andere Bildgebungstechnik überprüft werden. Die Notwendigkeit der Fusionierung von MRT mit CT begründet sich in zwei technisch-physikalischen Aspekten. Zum einen dienen die Messwerte aus der Computertomografie als Grundlage zur Berechnung der späteren Strahlendosis. Zum anderen bedingt die Röntgendurchleuchtungstechnik, die im CyberKnife -System zur intraoperativen Lagekontrolle eingesetzt wird, die digitale Rekonstruktion von Computertomografien zu Röntgenbildern.4 Strahlenphysikalisch und geometrisch wird der Computertomographie im CyberKnife -System eine akkuratere Integrationsleistung zugestanden als den Daten der Magnetresonanztomografie. CT-Aufnahmen bieten im Hinblick auf Weichteilgewebe wie das Gehirn bei der Operationsvorbereitung weniger Informationen als MRT. Während ein CT-Schnittbild des Schädels festere Strukturen prominenter darstellt, gehen diffizilere Strukturen des Gehirns in einer bildlichen Unschärfe unter. Diagnostische Aussagen

4

John R. Adler, Christopher J. Pham, Steven D. Chang, Raul A. Rodas: Image-guided Robotic Radiosurgery: The CyberKnife, Perspectives in Neuroscience, November 2003. Online unter http://cinf.org/uploads/ CyberKnife.pdf (Stand 8/2017).

Scalpel-like precision

53

3 Detailansicht der ­MultiPlan ­PreplaningSoftware. Oben links ist der geplante Strahlen­ gang simuliert, die drei weiteren Kacheln stellen das konturierte Bestrah­lungs­ gebiet dar, in dem die Strahlenintensität farblich kodiert ist.

zur Lage und Morphologie von Tumoren können damit anhand von CT weniger differenziert getroffen werden als anhand von MRT.5 Hier deutet sich ein grundsätzliches Dilemma an, in dem die Rede von der Hochpräzision in der bildgeführten Radiochirurgie laviert. Digitale Visualisierungen müssen sowohl in ihrer Berechenbarkeit akkurat und valide sein, um die koordinative Verbindung zwischen software-gestützter Planung und robotischer Bestrahlungstechnik leisten zu können. Gleichzeitig muss ihre Sichtbarkeit an Wahrnehmungskonventionen und diagnostische Anforderungen anschließen. CT können im Fall von Bestrahlungen des Kopfes nur in seltenen Fällen beide Erfordernisse erfüllen, sodass in die Planungsphase weitere Bildgebungsmodalitäten integriert werden, die auf einer ästhetisch-epistemischen Ebene Erkenntnis erlauben, obgleich sie bezogen auf die weitere Datenverarbeitung nicht präzise im Sinne von technisch anschlussfähig sind.

5

Je nach klinischer Indikation und Krankheitsbild muss differenziert werden, welche andere Bildgebungstechnik neben der CT oder statt der MRT eingesetzt wird. Dies ist zudem durch die Ausstattung der Klinik sowie den erforderlichen Arbeitsaufwand bestimmt, sodass in manchen Fällen ältere Bilddaten sowie Fremdmaterial zur Planung beziehungsweise Fusion herangezogen werden.

54

Kathrin Friedrich

Lokalisieren und Konturieren Die fusionierten, patientenspezifischen Schnittbilder dienen sodann zur Markierung von Bestrahlungsvolumina und von Risikostrukturen wie dem Hirnstamm.6 Hierbei müssen nicht allein erkennendes Sehen und Interaktion mit Bilddaten miteinander abgestimmt werden, sondern die Bilddaten müssen immer auf die radiochirurgische Intervention hin gedacht und gesehen werden. Dafür konturieren die behandelnden Ärzte und Ärztinnen in den Bilddaten dasjenige Areal, welches als Tumor oder andere Pathologie erkannt wird. In den zuvor fusionierten MRT- und CT-Visualisierungen werden die Grenzen des target volume farblich durch Operationen mit der Computermaus markiert ↗ABB. 3 . Unterschiedliche Farbkodierungen verweisen dabei nicht allein auf die visuelle Herausstellung somatischer Strukturen, sondern dienen auch als Hinweise an die Strahlenphysik, welches anatomische Areal nicht oder nur mit einer geringen Dosis von Strahlung getroffen werden darf, da sonst funktionelle Schädigungen zu befürchten wären. Bilderkennen geht hier untrennbar mit interventioneller Planung einher, da der Datensatz automatisiert an die robotische Bestrahlungseinheit prozessiert wird und deren Aktionen mitsteuert.7 Die propagierte Skalpell-ähnliche Präzision der Bestrahlung beruht in dieser Hinsicht auf den Fähigkeiten der Planenden, im Bild die Wechselwirkungen zwischen Körper und technischem Verfahren vorauszudenken.8 Allein digitale Bilder bieten ein operatives Medium, das einerseits verlässlich die spezifischen Messwerte einzelner Patienten aus Bildgebungsverfahren darstellt und anderer-

6 Cole A. Giller, Jeffrey A. Fiedler, Gregory J. Gagnon, Ian Paddick: Radiosurgical Planning. Gamma Tricks and Cyber Picks. Hoboken, NJ 2009, S. 5ff. 7

Godfrey Hounsfield, einer der Entwickler der Computertomografie, betont in der klinischen Frühphase deren ‚Vermittlungspotential‘ zur gleichsam visuellen wie geometrischen Abstimmung zwischen Patient und Bestrahlungssystem. “In the past, radiation treatment planning has been a very lengthy procedure. Now with the aid of CT therapy planning computer programs, we can position the therapy beam automatically with precision in a few minutes. The system is linked to a CT diagnostic display console and a color display monitor which shows the radiation isodose distributions overlaid on the basic CT scan itself […]. The scan is used as the ‘patient input’ to the system, and areas of interest such as tumor, bone, lung, or sensitive organs are outlines by an interactive light pen.” Godfrey N. Hounsfield: Computed Medical Imaging. In: Science 210, 1980, Heft 3, S. 22–28, hier S. 26.

8 Nur wenige fachspezifische Publikationen betonen die Notwendigkeit eines entsprechenden Bildhandlungswissens. Ein Handbuch zur Strahlentherapie stellt fest, dass die Ausbildung zum Facharzt für Strahlentherapie breite Kenntnisse zu Diagnostik und möglichen Therapieformen vermittle. „Dabei darf jedoch nicht vergessen werden, dass die bildgebenden Verfahren zusammen mit profunden Kenntnissen der Anatomie […] das Handwerkszeug jeglicher radioonkologischer Therapie bleiben muss! Dies gilt insbesondere für die Methoden der Hochpräzisionsbestrahlung.“ Wannenmacher, Wenz, Debus (s. Anm. 3). Eine systematische Analyse der operativen Verschränkungen von etabliertem medizinischen Wissen und bildgebenden bzw. bildgeführten Techniken in klinischen Kontexten, die auf einer reflexiven Ebene die daraus resultierenden epistemologischen Konsequenzen behandeln, ist bislang jedoch nicht erfolgt.

Scalpel-like precision

55

seits ein radiochirurgisches Operationsgebiet eröffnet, in dem Handlungen gerade deswegen möglich sind, weil der Patientenkörper distanziert wurde.9 Gleichzeitig muss dieser immer bedacht werden, da das Bildliche nicht an seiner Oberfläche verhaftet bleibt, sondern mittels Robotertechnik auf beziehungsweise in den Körper rückübersetzt wird. Präzision ist dabei nicht allein eine Frage der Messgenauigkeit und technischen Standardisierung, sondern misst sich am Maßstab des therapeutischen Erfolgs, der aus der Kooperation von menschlicher Bildwahrnehmung und –handlung mit digitalen Medientechnologien entstehen soll.10

Registrieren und Kontrollieren Die Koordination von Bildtechnik, Patient und Bestrahlungssystem, die in der Planungsphase unter Referenz an eine technische Berechenbarkeit und ästhetisch-epistemische Anschlussfähigkeit geleistet wird, setzt sich intraoperativ fort. Für die Bestrahlung müssen alle Elemente so an- und aufeinander ausgerichtet sein, dass die Bestrahlung ohne Abweichungen von der Planung vorgenommen werden kann, damit die Strahlung nur in das Tumorvolumen und nicht in umliegendes, gesundes Gewebe trifft: When the planning is completed, the physicians and surgeons have to match the robot’s coordinates with the patient’s anatomical reference points by mapping the physical space to the robot’s working frame. This process is called registration. Once appropriately registered, the robot can autonomously perform the desired task by exactly following the pre-programmed plan.11

Zu diesem Zweck werden in der bildgeführten Radiochirurgie wiederum visuelle Vermittlungsinstanzen eingesetzt. Im Gegensatz zur stereotaktischen Bestrahlung, bei der rigide Metallrahmen mit dem Schädel verschraubt werden, um sowohl Stillstellung als auch Koordination zu ermöglichen,12 bedarf das Cyber­Knife -System 9 Vgl. Aud Sissel Hoel, Frank Lindseth: Differential Interventions: Images as Operative Tools. In: Ingrid Hoelzl (Hg.): The New Everyday, Cluster ‘Operative Images’, Februar/März 2014, online verfügbar unter http://mediacommons.futureofthebook.org/tne/ (Stand 8/2017). 10 Jean-Michel Hoc: From Human-Machine Interaction to Human-Machine Cooperation. In: Ergonomics 43, 2000, Heft 7, S. 833–843. 11 Tamás Haidegger, Benvo Zoltán, Peter Kazanzides: Manufacturing the Human Body: the Era of Surgical Robots. In: Journal of Machine Manufacturing 49, 2009, Heft E2, S. 24–32, hier S. 24. 12 Anne Beaulieu: A Space for Measuring Mind and Brain: Interdisciplinarity and Digital Tools in the Development of Brain Mapping and Functional Imaging. 1980–1990. In: Brain and Cognition 49, 2002, Heft 1, S. 13–33.

56

Kathrin Friedrich

4 Screenshot der ­ CyberKnife Steuerungssoftware. In der linken Spalte digital rekonstruierte Röntgenbilder (DRR), in der Mitte (Camera) intra-operativ angefertigte Röntgenaufnahmen sowie rechts (Overlay) die Überlagerung beider zur Prüfung der Übereinstimmung von geplantem und angesteuertem Bestrahlungsvolumen.

aufgrund seiner intraoperativen Bildgebungs- und Trackingtechniken nicht mehr eines solchen starren Rahmens. Zunächst gilt es daher durch Tracking-Verfahren und Röntgendurchleuchtung die bewegte Lebendigkeit der Patientinnen und Patienten in eine Regelmäßigkeit zu überführen, mit der das technische System rechnen kann. Des Weiteren müssen die Operationen der Bestrahlungstechnik und das Innere des Körpers (erneut) in eine ästhetische Form gebracht werden, die technischem und medizinischem Personal anschaulich macht, in welchem Maß Planung und Ausführung voneinander abweichen. Um die mögliche Abweichung zu überwachen werden in der Steuerungssoftware des CyberKnife die aus den CT-Aufnahmen errechneten digitally reconstructed radiographs (DRR s) mit intra-operativ angefertigte Röntgenaufnahmen überlagert ↗ABB. 4 . Das Erfordernis, die technologisch weiterentwickelten und gegenüber Röntgenbildern in vielen Fällen diagnostisch signifikanteren CT zu Radiographien ‚zurückzurechnen‘ macht erneut auf ein Dilemma digitaler Bildgebung aufmerksam. Da intraoperativ nicht allein die Lage von Patient_innen vermessen und auf Datenebene abgeglichen werden muss, sondern auch veranschaulicht werden soll, kommen Röntgendurchleuchtungssysteme zum Einsatz, die dies sowohl zeitlich wie auch pragmatisch bewerkstelligen.

Scalpel-like precision

57

Erneut werden dafür technische Genauigkeit und bildbasierte Überprüfbarkeit miteinander verspannt. Dort, wo digitale Berechenbarkeit ihre eigenen geometrischen Referenzsysteme aufspannt, ist zunächst nichts zu sehen. Erst durch die Herstellung von Sichtbarkeit wird menschlichen Akteuren eine Form der Kontrolle und Überprüfung zugestanden, in der ein ästhetisches Kalkül zum Tragen kommen kann. Die Grundlage hierfür findet sich jedoch nicht allein in den situativ hergestellten Visualisierungen, sondern in der im Angesicht von avancierter Roboterund Trackingtechnik fast anachronistisch erscheinenden Wahrnehmungstradition von Röntgenbildern. Die Fertigkeit in solcherart Summationsbildern Strukturen zu differenzieren, eröffnet die Möglichkeit, die geometrische Präzision zu überprüfen. Eine andere Art ästhetisch zugänglicher Kontrollmechanismen ist im CyberKnife -System nicht vorgesehen. Immer schon muss das Bilderkennen auf Berechnungen und deren Sichtbarmachung vertrauen.

Hochpräzision im Dilemma digitaler Bilder Die radiochirurgische Praxis und mit ihr die Rede von der hochpräzisen Bestrahlung ist beständig mit dem grundsätzlichen Dilemma digitaler Bildgebung befasst. Digitale Bilder müssen immer aus maschinenlesbaren Datenstrukturen und einer wahrnehmbaren Darstellungsform bestehen.13 Wenn die fachdiskursive Rede von der Hochpräzision zielgerichtete Strahlen, standardisierte Messungen und technisch korrekte Korrelation von Datensätzen adressiert, vergisst sie die Ebene der Sichtbarmachung und die Praktiken der visu­ ellen Interaktion, die für die Durchführung strahlenchirurgischer Interventionen unerlässlich sind. Die Radiochirurgie verfügt über keinen anderen therapeutischen Zugang zum menschlichen Körper als durch digitale Medientechnologien. Dafür muss jedoch eine ästhetisch wahrnehmbare Form digitaler Daten zur Verfügung gestellt werden, die zwar auf Datenebene standardisiert und in diesem Sinn präzise sein mag, sich aber der quantitativen Überprüfbarkeit entzieht, wenn sie auf menschliche Wahrnehmungs- und Interpretationsprozesse trifft. Im Spannungsfeld von quantitativ erfassbarer und normierter Genauigkeit sowie einem erfahrungsgemäßen, operativen Bildwissen, das sich kaum in eine quantifizierbare Systematik fassen lässt, ist zweifelhaft, was als hochpräzise gilt und wird so von vornherein aus der Rede von der radiochirurgischen Hochpräzision ausgeschlossen.

13 Frieder Nake: Surface, Interface, Subface. Three Cases of Interaction and One Concept. In: Uwe Seifert, Jin Hyun Kim, Anthony Moore (Hg.): Paradoxes of Interactivity. Perspectives for Media Theory, Human-Computer Interaction, and Artistic Investigations. Bielefeld 2008, S. 92–109, hier S. 105.

Franziska Kunze

Im Bild fixiert Der Fall Schmieder als Beispiel fotografischer Erfassung in der Psychiatrie

Im Jahre 1943 erschien in der Zeitschrift für die gesamte Neurologie und Psychiatrie ein Beitrag des Neurologen Friedrich Schmieder (1911–1988), den dieser im Winter des vorangegangenen Jahres unter dem Titel Die Photographie in der Psychiatrie eingereicht hatte. Darin bemängelte er die Qualität der Aufnahmen von Patient*innen, die während der vorangangenen vier Jahrzehnte an der Psychiatrischen und Neurologischen Universitätsklinik Heidelberg entstanden waren: Nicht nur, daß man sich meistens auf die Kopfaufnahme beschränkte und verschiedene Entfernungen und Haltungen wählte, sondern es fehlt jede Übersichtlichkeit und Einheitlichkeit, auch ein bestimmtes Abbildungsverhältnis und eine Ausmeßbarkeit.1

Schmieder forderte dagegen ausdrücklich eine standardisierte Darstellungsweise nach anthropologischen Maßstäben, um eine optimale bildliche Wiedergabe der morphologischen Merkmale zu erzielen. ‚Optimal‘ bedeutete nicht nur schnell und reproduzierbar, sondern auch objektiv, was dadurch gewährleistet sein sollte, dass die Bilder scharf, proportionsgerecht beziehungsweise verzerrungsfrei und nachmessbar waren.2 Gerade die letzten drei Punkte seien laut Schmieder bisher nur unzureichend berücksichtigt worden: Entweder seien sie schlichtweg ignoriert oder aber aus Gründen, die gegen eine standardisierte Aufnahmesituation sprachen, nicht angewendet worden.3 Teilweise scheiterten die Versuche auch, 1 Fritz Schmieder: Die Photographie in der Psychiatrie. In: Zeitschrift für die gesamte Neurologie und Psychiatrie 176, 1943, Heft 1, S. 31–50, hier S. 34. 2 Schmieder (s. Anm. 1), S. 31 und 33. Ein Jahr zuvor beschrieb Bruno Kurt Schultz (1901–1997), Anthropologe und SS-Führer, die Fotografie als eine der wichtigsten Methoden in der ‚Rassenforschung‘ und bezeichnete den Fotoapparat als deren „drittes Auge“. Bruno K. Schultz: Die Leica in der rassenkundlichen Methodik. In: Heinrich Stöckler (Hg.): Die Leica in Beruf und Wissenschaft. (zuerst 1941), Frankfurt am Main 1948, S. 287–300, hier S. 287 und 300. 3 Prominentes Beispiel hierfür ist der französische Neurologe Jean-Martin Charcot (1825–1983), der in den 1870er Jahren seine Patientinnen in der Pariser Salpêtrière scheinbar spontan während ihrer hysterischen Anfälle fotografieren ließ und damit der Krankheit ein Bild gab. Vgl. Georges Didi-Huberman:

60

Franziska Kunze

da die Proportionsverhältnisse nicht zufriedenstellend ins Bild übertragen werden konnten.4 Bereits 1856 sind in Psychiatriekreisen Forderungen laut geworden, die schriftliche Darstellung psychiatrischer Fälle durch Fotografien derselben zu ergänzen. Hugh Welch Diamond (1809–1886) zählt zu den ersten Medizinern, die fotografisches Reihenmaterial selbst anfertigten und in die klinisch-psychiatrische Praxis integrierten.5 Nachdem ihm 1848 die Leitung der Frauenabteilung des Surrey ­County Lunatic Asylum in London übertragen worden war, hatte er auch damit begonnen, seine Patientinnen systematisch zu fotografieren.6 In einem Vortrag vor der Royal Society im Jahr 1856, der den Titel On the Application of Photography to the Physio­ gnomic and Mental Phenomena of Insanity trug, erklärte der britische Psychiater seine Beweggründe für dieses Vorgehen: […] I may observe that Photography gives permanence to these remarkable cases, which are types of classes, and makes them observable not only now but for ever, and it presents also a perfect and faithful record.7

Diamond machte nicht nur hier, sondern auch an anderen Stellen deutlich, dass das fotografische Bild den anderen Bildgebungsverfahren bezüglich Genauigkeit, Schnelligkeit, Beweiskraft und Einsatzmöglichkeit im Rahmen späterer Untersuchungen deutlich überlegen sei.8 Von den auf diese Weise fixierten Äußerlichkeiten seiner Patientinnen erhoffte er sich, Rückschlüsse auf ihren individuellen, mentalen Zustand ziehen und davon ausgehend allgemeingültige Typen psychischen Invention of Hysteria. Charcot and the Photographic Iconography of the Salpêtrière, Cambridge, MA 2003, in welchem dieser die Rolle der Fotografie im Rahmen der Kategorisierung von ‚Hysterie‘ untersuchte. Der Psychiater Robert Sommer (1864–1937) argumentierte darüber hinaus, dass die Aufgenommenen für die Fotografien weder sonderlich „präparirt“ noch durch sie „gestört“ werden sollten (Robert Sommer: Lehrbuch der psychopathologischen Untersuchungs-Methoden. Berlin/Wien 1899, S. 6). 4

Dies wurde nicht nur von Schmieder, sondern bereits vor ihm von dem Anthropologen und Physiologen Gustav Fritsch (1838–1927) sowie dem Psychiater und Neurologen Ernst Kretschmer (1888–1964) bemängelt. Vgl. Gustav Fritsch: Die Gestalt des Menschen, Stuttgart 1899, S. 135; sowie Ernst Kretschmer: Körperbau und Charakter. Untersuchungen zum Konstitutionsproblem und zur Lehre von den Temperamenten (1921), 13. und 14. Aufl. Berlin 1940, S. 9.

5 Vgl. Susanne Regener: Vom sprechenden zum stummen Bild. Zur Geschichte der psychiatrischen Fotografie. In: Marianne Schuller, Claudia Reiche, Gunnar Schmidt (Hg.): BildKörper. Verwandlungen des Menschen zwischen Medium und Medizin. Hamburg 1998, S. 185–209, hier S. 190. 6 In einigen Fällen finden sich auch Porträtaufnahmen männlicher Patienten. Zu den biografischen Daten Diamonds und für weiterführende Lektüre siehe Sharrona Pearl: Through a Mediated Mirror: The Photographic Physiognomy of Dr Hugh Welch Diamond. In: History of Photography 33, 2009, S. 288–305; Richard Lansdown: Photographing Madness. In: History Today 61, 2011, S. 47–53. 7

Hugh W. Diamond: On the Application of Photography to the Physiognomic and Mental Phenomena of Insanity (1856). In: PsicoArt – Rivista on line di arte e psicologia 1, 2010, S. 1–14, S. 8.

8 Vgl. Diamond (s. Anm. 7), S. 8.

Im Bild fixiert

61

Krankseins ableiten zu können. Die sukzessive Dokumentation und Typologisierung von Physiognomie, Körperhaltung, Aufmachung und Krankheitsverlauf diente aber nicht nur der Diagnostik, sondern wurde überdies zu therapeutischen Zwecken eingesetzt. So konfrontierte Diamond seine Patientinnen mit ihrem Abbild und erweckte damit nach eigenem Bekunden ihre Aufmerksamkeit, was häufig mit einer gesteigerten Bereitschaft zur Kommunikation einhergegangen sei.9 Für die Aufnahmen wählte der Psychiater kein stringentes Setting; zwar lichtete er seine Patientinnen meist im Sitzen ab, doch Bildausschnitt, Positionierung und Blickrichtung sowie Kleidung und Accessoires variierten von Fall zu Fall. Eine der Fotografien zeigt eine junge Frau frontal auf einem Stuhl sitzend ↗ABB. 1 . Sie trägt ein geblümtes Kleid, die Hände ruhen auf einem weißen Gewand, das auf ihrem Schoß liegt. Ihr Blick weist über ihre rechte Schulter aus dem Bild heraus. Der Ausdruck im Gesicht der Patientin veranlasste den Psychiater John Conolly (1794–1866), der im März 1858 über ihren Fall in der Artikelserie The Physiognomy of Insanity berichtete, zu folgender Spekulation: „ […] the eyes are not lost in vacancy; they seem to discern some person or object which excites displeasure or suspicion.”10 Diese Vermutung ist in der Tat naheliegend. Der schwere Stoff, der die Frau hinterfängt und sie visuell von der Umwelt abschirmen sollte, gibt auf der linken Seite nicht den Blick auf ein geschlossenes Studio, sondern auf den Innenhof der Anstalt frei. Auf eben diesen scheint auch die Aufmerksamkeit der Patientin gerichtet zu sein. Die sensible Aufnahmesituation wird als anfällig für störende Einflüsse jeder Art entlarvt. Eben jene ambivalenten Parameter sind es, die von nachfolgenden Psychiatern beklagt werden sollten; befördert durch das Bestreben im ausgehenden 19. Jahrhundert, die Welt und die in ihr existenten Objekte und Subjekte systematisch erfassen, ordnen und klassifizieren zu wollen.11 Dies ging mit einer zunehmenden Forderung nach Normierung der inszenatorischen Rahmenbedingungen einher. Obwohl die Fotografie sich in diesem Zusammenhang bereits einen Namen als adäquates Aufzeichnungsmedium gemacht hatte, beklagte der medizinische Journalist Ludwig Jankau (geb. 1865) 1894 das Fehlen „eines geeigneten Schemas für photographische Aufnahmen von Kranken“12 in Deutschland.

9 Vgl. Diamond (s. Anm. 7), S. 6 f. 10 John Conolly: The Physiognomy of Insanity. In: The Medical Times and Gazette. A journal of medical science, literature, criticism, and news. London 1858, S. 238–241, hier S. 238. 11 Ungefähr zeitgleich begannen sich auch Kriminologie und Kriminalistik für den Einsatz der Fotografie unter anderem im Rahmen der Verbrechertypisierung und -identifizierung zu interessieren (Allan Sekula: The Body and the Archive. In: October 39, 1986, S. 3–64). 12 Ludwig Jankau: Die Photographie im Dienste der Medizin. In: Ders. (Hg.): Internationale Medizinisch-photographische Monatsschrift 1, 1894, S. 1–8, hier S. 4f.

62

Franziska Kunze

1 Hugh Welch Diamond: Porträt einer Patientin, um 1855, Salzpapierabzug von Kollodium-Nass­platten-Negativ, Surrey County Asylum.

Schenkt man Schmieders eingangs zitierten Worten Glauben, hatte sich an diesem Umstand bis 1942 nicht viel geändert. Sein Essay Die Photographie in der Psychiatrie liest sich daher auch wie eine akribisch verfasste Anleitung, um „ein großes Reihenmaterial zu schaffen und zu sichern, das auch nach späteren, neueren Gesichtspunkten eine möglichst weitgehende Auswertung gestattet“13. Das fotografische Bild sollte dabei die sorgfältige Beschreibung und exakte Messung der Patient*innen ergänzen.14 Dafür richtete er sich zunächst nach den Vorgaben, die die Anthropologen Rudolf Martin (1864–1926) und Theodor Mollison (1874–1952) schon 1914 formuliert hatten: Folglich sollten die zu fotografierenden Personen zur Erfassung des ganzen Körpers aufrecht und nackt neben einem Maßstab stehend, sowohl frontal und im Profil, als auch von hinten abgelichtet werden.15 Um Ver13 Schmieder (s. Anm. 1), S. 32. 14 Vgl. Schmieder (s. Anm 1), S. 33. 15 Die Autoren beziehen sich ihrerseits auf eine anthropologische Aufnahmeform, wie sie 1875 von Gustav Fritsch beschrieben wurde. Diese steht in einem eindeutig kolonialistischen Zusammenhang und diente der Typologisierung und Vergleichung fremder Völker. Vgl. Gustav Fritsch: Praktische Gesichtspunkte

Im Bild fixiert

63

2 Abbildung und Bildunterschrift aus Fritz ­Schmieder: Die Photographie in der Psychiatrie. In: Zeitschrift für die gesamte Neurologie und Psychiatrie 176, 1/2, 1943, Abb. 1 a–d.

änderungen der Pose im Zuge eines Positionswechsels zu vermeiden, entwickelte Martin zusätzlich eine Drehscheibe mit Schnappvorrichtung, welche die stehende Person in die gewünschte Sichtachse beförderte.16 Diese Maßnahmen sorgten zwar für eine Einheitlichkeit und dadurch auch Vergleichbarkeit der erzielten Aufnahmen, Schmieders größtes Anliegen jedoch – die Vermeidung perspektivisch bedingter Veränderungen der Proportionsverhältnisse – wurde damit noch nicht eingelöst. Dafür experimentierte er mit verschiedenen Entfernungen und Objektiven, bis er die idealen Bedingungen ermittelt hatte. Die Ergebnisse stellte er ebenfalls in seinem Essay vor und illustrierte das Problem mithilfe von vier Aufnahmen desselben Mannes ↗ABB. 2 . Während das erste Bild der für die Verwendung zweier dem Reisenden wichtigen technischen Hilfsmittel. Das Mikroskop und der photographische Apparat. In: Georg Neumayer (Hg.): Anleitung zu wissenschaftlichen Beobachtungen auf Reisen. Berlin 1875, S. 591–625. 16 Vgl. Rudolf Martin: Lehrbuch der Anthropologie in systematischer Darstellung. Mit besonderer Berücksichtigung der anthropologischen Methoden (1914). 2. Aufl. Jena 1928, S. 38–43. Das Kapitel zur fotografischen Reproduktion ist von Mollison überarbeitet worden.

64

Franziska Kunze

3 Carl Schneider und das vierjährige „Forschungskind“ Anita A. (18.2.1940 Mannheim – 10.8.1944 Eichberg/Eltville), Fotografie von 1944.

Reihe einen Zustand wiedergibt, wie er bis dato üblicherweise in den Fachblättern zu finden war – „Wir sehen gleichsam auf die Füße herunter und zum Gesicht hinauf.“17 –, zeigt das letzte Bild den Mann in annähernd richtigem Verhältnis. Aus den gewonnenen Erkenntnissen leitete Schmieder folgende Regel ab: Bei einer durchschnittlichen Körpergröße von 1,60 bis 1,80 Metern soll eine Kleinbildkamera mit einem Objektiv der Brennweite von 13,5 Zentimetern und eine Aufnahmeentfernung von 10 Metern gewählt werden. Sollte diese Entfernung aus Platzgründen nicht eingehalten werden können, genügen fünf Meter bei Verwendung des 8,5-Zentimeter-Objektivs der Contax oder des 9-Zentimeter-Objektivs der Leica.18 Das Problem der proportionsgerechten Darstellungsweise bestand in einigen Fällen jedoch weiterhin:

17 Schmieder (s. Anm. 1), S. 38. 18 Vgl. Schmieder (s. Anm. 1), S. 39 f.

Im Bild fixiert

65

Unruhige, erregte, negativistische oder stuporöse, demente oder uneinsichtige Kranke, alle können derartige Schwierigkeiten machen, daß sich selbst einfache Aufnahmen als unmöglich erweisen. Dann die große Gruppe der Bettlägerigen, Siechen, Gelähmten oder sonstwie körperlich Geschädigten. Von ihnen kann man vielleicht Aufnahmen im Sitzen oder im Bett liegend erhalten. Aufnahmen, die aber den Anforderungen nach Sichtbarkeit sämtlicher Körpermerkmale und Proportionsverhältnisse, darüber hinaus auch einer gewissen Ausmeßbarkeit entsprechen sollen, erschienen unmöglich. Daher kommt es, daß wir z. B. von der Mehrzahl aller Idioten, deren körperliche Mißbildungen, Maßveränderungen und Entwicklungsstörungen uns äußerst interessieren müssen, keine Aufnahmen haben, die brauchbar sind.19

Allein das von Schmieder verwendete Vokabular zur Beschreibung seines „Patientenmaterial[s]“20 deutet das diffamierende Verhalten an, mit dem er den Männern, Frauen und auch Kindern im Rahmen seiner fotografischen Studien begegnete. So führte er seine Überlegungen weiter aus: Das äußerste ist vielleicht, daß ein Patient auf dem Schoße eines Pflegers, vielleicht noch mühsam durch weitere Hilfskräfte in einer bestimmten Haltung fixiert, aus einer beliebigen Entfernung und in zufälliger Haltung aufgenommen wird und dieses Bild dann die wichtigste Unterlage zur Beurteilung der körperlichen Verhältnisse bieten soll.21

Schmieder bezieht sich hier auf eine weit verbreitete Praxis, überliefert durch Aufnahmen, in denen die Hände des Pflegepersonals oder ganze Personen in den fotografischen Akt eingreifen, um die Patient*innen ‚abbildbar‘ zu machen.22 Eine Aufnahme aus der Psychiatrischen und Neurologischen Universitätsklinik Heidelberg zeigt den leitenden Psychiater und Obergutachter des nationalsozialistischen Euthanasieprogramms Carl Schneider (1891–1946), wie er für eine vermeintlich anthropometrische Aufnahme das vierjährige ‚Forschungskind‘ Anita A. gegen dessen Willen an beiden Armen festhält ↗ABB. 3 .23

19 Schmieder (s. Anm. 1), S. 41. 20 Schmieder (s. Anm. 1), S. 44. 21 Schmieder (s. Anm. 1), S. 41. 22 Vgl. dazu ausführlicher Susanne Regener: Visuelle Gewalt. Menschenbilder aus der Psychiatrie des 20. Jahrhunderts. Bielefeld 2010. 23 Maike Rotzoll, Volker Roelcke, Gerrit Hohendorf: Tödliche Forschung an Kindern. Carl Schneiders „Forschungsabteilung“ an der Heidelberger Psychiatrischen Universitätsklinik 1943/44. In: Heidelberg. Jahrbuch zur Geschichte der Stadt 16, 2012, 2011, S. 113–122, hier S. 116.

66

Franziska Kunze

4 Abbildung und Bildunterschrift aus Fritz Schmieder: Die Photographie in der Psychiatrie. In: Zeitschrift für die gesamte Neurologie und Psychiatrie 176, 1/2, 1943, Abb. 3.

Es ist verwunderlich, dass Schneider 1944 noch zu derlei Maßnahmen griff, hatte sein Kollege Fritz Schmieder doch gerade erst eine Möglichkeit ersonnen, auch Fälle wie diesen nach anthropologischen Maßstäben erfassen zu können: „Wir glauben, die Frage dadurch lösen zu können, daß wir diese Patienten grundsätzlich im Liegen und wenn notwendig in einer leichten Narkose photographieren.“24 Um dies zu bewerkstelligen, musste sich die Kamera aber über der jeweiligen Person befinden. Da unter diesen Umständen in der Regel nicht einmal der erforderliche Mindestabstand für eine verzerrungsfreie Aufnahme eingehalten werden konnte, ließ Schmieder in einem Raum der Heidelberger Klinik die Zimmerdecke durchbrechen und eine Luke einfügen, sodass der Fotoapparat im nächst höheren Stockwerk angebracht werden konnte ↗ABB. 4 .25 Für die im Text erwähnte Narkotisierung wurde auf Chloräthyl, in einigen Fällen auf Evipan zurückgegriffen, manchmal wur24 Schmieder (s. Anm. 1), S. 41. 25 Vgl. Schmieder (s. Anm. 1), S. 41f.

Im Bild fixiert

67

5 Abbildung und Bildunterschrift aus Fritz Schmieder: Die Photographie in der Psychiatrie. In: Zeitschrift für die gesamte Neurologie und Psychiatrie 176, 1/2, 1943, Abb. 4 [gemeint sind nicht 5 cm Entfernung, sondern 5 m].

de auch Morphium zur Ruhigstellung eingesetzt.26 „Mit dieser Methode wird es uns gelingen, daß alle übrigen Patienten, die bisher nicht photographisch festzuhalten waren, im Bild aufzunehmen.“27, so Schmieder. Dieses Festhalten im Bild tritt auf der letzten Fotografie seines Beitrages besonders eindrücklich zutage ↗ABB. 5 . Hier wurde ein kleiner Junge für die Aufnahme nicht nur narkotisiert, auch wurde sein Kopf von zwei Händen in die gewünschte Position gebracht und fixiert. Diese erzwungene Form der Aneignung eines fotografischen Abbildes kennzeichnet den erschütternden Tiefpunkt in der Psychiatriefotografie.28 Sie bildet das Ende einer zunehmenden Tendenz der Verobjektivierung beziehungsweise 26 Schmieder (s. Anm. 1), S. 44. 27 Schmieder (s. Anm. 1), S. 44. 28 Das systematische Fotografieren von Patient*innen der Psychiatrie wurde nach dem Ende des 2. Weltkrieges eingestellt. Vgl. Susanne Regener: Die pathologische Norm. Visualisierungen von Krankheit in der Psychiatrie. In: Gert Theile (Hg.): Anthropometrie. Zur Vorgeschichte des Menschen nach Maß, München 2005, S. 179–193, hier S. 181.

68

Franziska Kunze

Verdinglichung psychisch Kranker.29 Das von Hugh W. Diamond initiierte individuell erscheinende Porträt wich nachfolgend einer in jeder Hinsicht genormten Abbildung. Hatte das systematische Fotografieren von Patient*innen Mitte des 19. Jahrhunderts noch Anteil an der Typologisierung von Krankheitsbildern, diente die visuelle Erfassung weniger als hundert Jahre später auch ihrer Stigmatisierung als abnorm geltende Persönlichkeiten. Das fotografische Porträt wurde nicht mehr in den Heilungsprozess integriert, sondern fungierte in letzter Konsequenz als beweiskräftiges Argument für planmäßige Tötungen im Namen der Forschung.30

29 Hier greift ebenso Susanne Regeners Beobachtung einer ‚Gleichschaltung der Bilder‘. Damit unterstreicht sie die Angleichung der psychiatrischen Porträts an jene zu polizeilichen und ‚rassenhygienischen‘ Maßnahmen. Vgl. Regener (s. Anm. 22), S. 191. 30 So wurden in 21 Fällen die Kinder des Heidelberger Klinikums nach ihrer fotografischen Erfassung und umfassenden Untersuchung in der Heil- und Pflegeanstalt Eichberg getötet, um den Sektionsbefund der Gehirne mit den zuvor erhobenen Daten vergleichen zu können. Vgl. Rotzoll u. a. (s. Anm. 23), S. 115 und 117.

Nina Samuel

Bilder als Werkzeuge Lokalisationsmikroskopie und das Versprechen der hohen Auflösung*

Das Phänomen der „sehr hellen sphärischen Objekte“ In einer granularen Struktur vor dunklem Hintergrund bilden verstreute helle Flecken ein undefiniertes Gesamtbild, in dem einige Flecken besonders hell leuchten ↗ABB. 1 . Links oben ist zum Vergleich ein kleines graues Bild eingefügt: Hier zeigt sich innerhalb einer nebelartigen Struktur, die an eine Sonografie erinnert, in der linken Ecke eine erleuchtete runde Komponente, von der zwei zweigartige Strukturen ausgehen, die den Formen auf dem ersten Bild vage ähneln. Ansonsten scheinen die beiden Bilder nicht viel gemeinsam zu haben. Der auffälligste Unterschied ist das Fehlen der verstreuten Flecken auf dem kleineren Bild. Dieses zweiteilige Bild stammt aus einem Artikel, den der Physiker Rainer Kaufmann gemeinsam mit Kollegen im Jahr 2010 in der Zeitschrift Micron veröffentlichte.1 Beide Bilder zeigen denselben Ausschnitt derselben Zelle. Ihre Gegenüberstellung sollte die Unterschiede zweier mikroskopischer Bildgebungsverfahren verdeutlichen: Das nebelartige graue Bild veranschaulicht die ältere, konventionelle Weitfeldmikroskopie, während das größere, granulare Bild mit den Flecken den ‚neuen Ansatz‘ der im Jahr 2006 entwickelten Lokalisationsmikroskopie wiedergibt. Im Begleittext, der ansonsten vor Fachbegriffen strotzt, werden die auffallenden Flecken geheimnisvoll als „very bright spherical objects“ (sehr helle sphärische Objekte) beschrieben.2 Kaufmann wurde während einer Versuchsreihe zur Sichtbarmachung intrazellulärer Strukturen auf sie aufmerksam. Da sie auf den Weitfeldbildern nicht zu sehen waren, wurden sie in keiner Weise erwartet. Im vorgegebenen Zeitrahmen des Versuchs blieb ihre biologische Identität unerklärbar. Die Geschichte der mikroskopischen Bildgebung liest sich wie ein fortlaufendes Streben nach höherer Auflösung, um die Grenzen des Beobachtbaren auszu * Der Text ist die gekürzte und überarbeitete Fassung eines Aufsatzes, der von Claudia Fuchs übersetzt worden ist (Nina Samuel: Images as tools. On visual epistemic practices in the biological sciences. In: Studies in History and Philosophy of Biological and Biomedical Sciences 44, Juni 2013, Heft 2, S. 225–236). 1 Rainer Kaufmann, Patrick Müller, Michael Hausmann, Christoph Cremer: Imaging label-free intracellular structures by localisation microscopy. In: Micron 42, 2010, Heft 4, S. 348–352. 2 Kaufmann u. a. (s. Anm. 1), S. 349.

70

Nina Samuel

weiten. Der hier wiedergegebene visuelle Vergleich sollte die Lokalisationsmikroskopie als bedeutenden neuen Schritt in diesem Bestreben zeigen. Sie wurde entwickelt, um eine optische Auflösung jenseits der Diffraktionsgrenze der konventionellen Lichtmikroskopie zu ermöglichen und somit intrazelluläre Strukturen sichtbar zu machen, die mehr als sechsmal kleiner sind, als es die Grenzen der optischen Auflösung bis dahin erlaubten – mit einer akzeptierten Genauigkeit von 10 Nanometern und weniger, anstelle von 200.3 Die Rhetorik, mit der dieses neue Visualisierungsverfahren gefeiert wurde, erinnert dementsprechend an ein mit der Entdeckung Amerikas vergleichbares Ereignis: Das Lichtmikroskop hat einst das Tor in eine neue Welt eröffnet. Doch alle Geheimnisse des Mikrokosmos enthüllen konnte es nicht: Strukturen, die kleiner als 200 Nanometer sind, kann Licht nicht sichtbar machen. Neue Methoden erlauben es heute, die bislang für absolut gehaltene Grenze der räumlichen Auflösung zu überwinden und tief, bis in die Nanowelt der Zellen, vorzustoßen.4

Wie ↗ABB. 1 zeigt, vollzieht sich der angepriesene technische und epistemische Fortschritt als Transformation des Bildes. Der Kontrast zwischen der nebulösen Unbestimmtheit undifferenzierter Schatten und der neuen feinen Granularität scheint die passende Ikonografie für diese ‚Entdeckung neuer Welten‘ zu liefern, die als tieferer Blick in die Zellstruktur und als ein Versprechen, ‚mehr zu sehen‘, präsentiert wird.

3

Vgl. Fang Huang u. a.: Ultra-High Resolution 3D Imaging of Whole Cells. In: Cell 166, 2016, Heft 4, S. 1–13; Ke Xu, Hazen P. Babcock, Xiaowei Zhuang: Dual-objective STORM reveals three-dimensional filament organization in the actin cytoskeleton. In: Nature Methods 9, 2012, Heft 2, S. 185–188. Diese Grenze in der Lichtmikroskopie wird gemeinhin als Abbe-Rayleigh-Limit bezeichnet. Vgl. Ernst Abbe: Beiträge zur Theorie des Mikroskops und der mikroskopischen Wahrnehmung. In: Archiv für Mikroskopische Anatomie 9, 1873, S. 413–418. Die ersten maßgeblichen Schritte in Richtung Lokalisationsmikroskopie wurden von drei Forschungsteams in den USA unternommen. Siehe Eric Betzig u. a.: Imaging Intracellular Fluorescent Proteins at Nanometer Resolution. In: Science 31, 2006, Heft 5793, S. 1642–1645; Samuel T. Hess, Thanu P. K. Girirajan, Michael D. Mason: Ultra-High Resolution Imaging by Fluorescence Photoactivation Localization Microscopy. In: Biophysical Journal 91, 2006, Heft 11, S. 4258–4272; Michael J. Rust, Mark Bates, Xiaowei Zhuang: Sub-diffraction-limit imaging by stochastic optical reconstruction microscopy (STORM). In: Nature Methods 3, 2006, Heft 10, S. 793–796. Zu einer Studie über die Fluoreszenzmikroskopie und zu den großen Hoffnungen, die die neuen ‚nanoskopischen‘ Verfahren weckten, siehe Alberto Diaspro: Optical Fluorescence Microscopy From the Spectral to the Nano Dimension. New York 2010; sowie Stefan W. Hell: Far-Field Optical Nanoscopy. In: Science 316, 2007, Heft 5828, S. 1153–1158.

4 Christoph Cremer: Vorstoß in den Nanokosmos: Neue Mikroskope überschreiten für unüberwindlich gehaltene Grenzen. In: Ruperto Carola, 2008, Heft 3, o. S., online unter www.uni-heidelberg.de/presse/ ruca/ruca08-3/vorst.html (Stand 04/2018).

Bilder als Werkzeuge

71

A

B

2µm 1 Rainer Kaufmann u.a.: Vergleich zwischen Weitfeldmikroskopie (A) und Lokalisationsmikroskopie (B), 2010.

Es drängt sich daher die Frage auf, in welcher Weise das Versprechen einer neuen Schärfe Auswirkungen auf die Gestaltung, die Interpretation und den Gebrauch der Bilder in der Forschung zeitigt. Den Spuren der „sehr hellen sphärischen Objekten“ folgend, soll gefragt werden, was durch die neue Technik darstellbar ist und wie etwas aussehen muss, damit es wahrgenommen und verstanden werden kann.

72

Nina Samuel

Aus Daten werden Bilder Der Visualisierungsprozess basiert in der Weitfeld- wie auch in der Lokalisationsmikroskopie auf dem Prinzip der Fluoreszenz.5 Während jedoch in der herkömmlichen Fluoreszenzmikroskopie jedes Bild durch einmalige Belichtung entsteht und unmittelbar für das Auge sichtbar ist, basiert die Bildgewinnung in der Lokalisationsmikroskopie gänzlich auf der Erfassung großer Datenmengen durch kontinuierliche Messung.6 Zunächst wird der Zelle Energie in Form von Licht hinzugefügt, um eine fluoreszierende Reaktion auszulösen. Während dieser Aktivierung des biologischen Materials durch einen Laserstrahl werden die Moleküle buchstäblich ‚an- und ausgeschaltet‘, das heißt sie wechseln in Intervallen zwischen einem fluoreszierenden und einem reversiblen ‚dunklen‘ Zustand. Dieser lichtinduzierte, temporäre nicht-fluoreszierende Zustand einzelner Moleküle führt zu ihrer optischen Isolation und ermöglicht eine bis auf wenige Nanometer präzise Erfassung von Positionsdaten.7 Diese Prozedur lässt sich als Schwarzweißfilm aufzeichnen, der eine schemenhafte, unscharfe Struktur, gefüllt mit blinkenden weißen Punkten – den Molekülen – zeigt ↗ABB. 2 . Das Ergebnis ist ein Bild des Bildgebungsprozesses, das die Bedingungen der neuen Präzision offenbart: Der große weiße Punkt links oben ist ein Artefakt, eine sichtbare Erinnerung an die instrumentelle Anordnung und den Aufzeichnungsprozess, der zwischen Zelle und Darstellung steht. Da die Strukturen, die mit dieser Methode aufgenommen werden sollen, sehr tief im Zellinneren gelegen sind, kann es passieren, dass Fluoreszenzlicht außerhalb des fokussierten Bereichs auftritt und zu diesen Störungen führt. Das Auftreten von Artefakten ist ein integraler Bestandteil des Visualisierungsprozesses, da es leicht vorkommen kann, dass der Algorithmus diese Störungen nicht herausfiltert oder noch zusätzliche blinkende Punkte generiert oder dass Moleküle reagieren, die nicht angesprochen wurden.

5 Um in der Fluoreszenzmikroskopie ein Bild zu erhalten, wird Licht auf die Moleküle einer biologischen Struktur projiziert, so dass Licht in einer anderen Farbe abgestrahlt wird. Die Fluoreszenzmikroskopie ist das am weitesten verbreitete Bildgebungsverfahren in der modernen Biologie. Sie wurde seit Beginn des 20. Jahrhunderts laufend weiterentwickelt. Die Weitfeldmikroskopie ist derzeit eines der gängigsten Verfahren der modernen Fluoreszenzmikroskopie. Für einen Vergleich verschiedener Fluoreszenzverfahren siehe Tobias Breidenmoser u. a.: Transformation of Scientific Knowledge in Biology. Changes in our Understanding of the Living Cell through Microscopic Imaging. Preprint des Max-Planck-Instituts für Wissenschaftsgeschichte 408, Berlin 2010. 6 Heute zeigt sich eine Abkehr vom Paradigma der Beobachtung, das die Naturwissenschaften im 19. Jahrhundert prägte. Vgl. Christoph Hoffmann: Unter Beobachtung. Naturforschung in der Zeit der Sinnesapparate. Göttingen 2006. Messgeräte und Datenerfassung ersetzen nun in erster Linie die Beobachtung, jedoch spielt das Sehen nach wie vor eine entscheidende Rolle bei der Interpretation der riesigen Datenmengen. 7

Kaufmann u. a. (s. Anm. 1), S. 348.

Bilder als Werkzeuge

73

2 Rainer Kaufmann: Datenerfassung in der Lokalisationsmikroskopie, Standfoto, 2009.

Der nächste Schritt ist das Zusammenfügen der riesigen Datenmengen zu einem neuen, konsistenten Ganzen. Mit statistischen Verfahren werden Zahlenreihen in räumliche Beziehungen und Farben übersetzt. Zwei entscheidende Parameter beeinflussen diese Bildherstellung: die Dichte der gemessenen Punkte und die Genauigkeit ihrer Lokalisation. Genau genommen sind jedoch die Informationen, die in der ersten Phase aufgezeichnet werden, nicht das, was in der biologischen Forschung benötigt wird. Während die blinkenden Punkte die Positionsbestimmung der Fluorophore ermöglichen, sind für die Biologie vor allem Moleküle und Proteine (Makromoleküle) interessant.8 Diese Tatsache beeinflusst den Prozess der Bildentstehung: Die Physik muss statistische Verfahren anwenden, um die Positionen der Moleküle zu bestimmen und die Daten schließlich in ein einziges Gesamtbild umzuwandeln.9 Streng genommen kann also nur die ‚wahrscheinlichste‘ Position der Moleküle dargestellt werden. Zudem ist das Wissen darüber, wie biologische Substanzen auf das Hinzufügen von Energie reagieren, begrenzt; es entwickelt sich mit jedem neuen ­E xperiment weiter. Der Laserstrahl bewirkt eine Elektronenreaktion im Inneren der Zelle, und Fluoreszenz verändert die Elektronenzustände und Konfigurationen der Moleküle. Da dies kein wirklich natürlicher Vorgang ist, kann er unberechenbare, überra8 Die räumliche Distanz zwischen Molekülen und Fluorophoren ist klein, aber quantifizierbar. Sie beträgt bis zu 15 Nanometer. 9 Dies ist üblicherweise eine Gauß-Anpassung. Das Zusammenfügen der Daten kann ebenfalls durch einen Film visualisiert werden – in diesem Fall einen Farbfilm, der zeigt, wie sich das Bild der Zelle nach und nach vervollständigt, indem ein Punkt nach dem anderen vor einem dunklen Hintergrund hinzukommt.

74

Nina Samuel

schende Auswirkungen auf das dargestellte Bild haben. Unbeabsichtigte Interaktionen zwischen dem Bildgebungsprozess und den Molekülen sind Teil der Forschung und können zu neuen Erkenntnissen führen. Auf der Repräsentationsebene bilden diese unvermeidbaren Eigenheiten des mikroskopischen Bildgebungsprozesses Unsicherheitsbereiche, die für epistemische Prozesse in Experimentalsystemen kennzeichnend sind.10 Sie öffnen die Tür ins Reich des Unerwarteten und ermöglichen das plötzliche Auftreten von Phänomenen, die zu Verwirrung, Revision oder neuen Erkenntnissen führen können.

Der Konflikt zwischen verschiedenen Kulturen des Sehens Etwas Neues zu sehen, etwa eine unbekannte Form, die im Rahmen eines Versuchs sichtbar wird, ist der klassische Ausgangspunkt für Entdeckungen. Eine nicht klassifizierbare Form, die unerwartet auftaucht, wird jedoch oft als technische Störung oder fehlerhafte Darstellung missinterpretiert und somit nicht beachtet oder verworfen.11 Der Frage, ob das Sehen die Grenzen unseres Wissens einschränkt, kann folglich entgegengesetzt werden, dass manchmal auch das Wissen unser Sehen bestimmt oder einschränkt. Frei nach Henri Bergson, der über die Trägheit des menschlichen Verstandes räsonniert hatte, ließe sich behaupten, dass auch das Auge die unaufhaltsame Tendenz habe, Konzepte zu bevorzugen, an die es schon lange gewöhnt ist.12 Situationen wie das unerwartete Auftreten der ‚sehr hellen sphärischen Objekte‘ ↗ABB. 1 sind ein Beispiel für diese Momente der Irritation, die sich im Laufe der wissenschaftlichen Praxis ergeben. Sie dienen als Ausgangspunkt für grundlegende Fragen über die vernetzten Mechanismen von Entdeckung, Standardisierung und der notwendigen Migration von Bildern in der aktuellen biologischen Forschungspraxis.

10 Als der Wissenschaftshistoriker Hans-Jörg Rheinberger die Untersuchungsobjekte solcher Experimentalsysteme definierte, stellte er fest, dass sie „sich in einer für sie charakteristischen, nicht reduzierbaren Vagheit präsentieren“. Hans-Jörg Rheinberger: Experimentalsysteme und epistemische Dinge: eine Geschichte der Proteinsynthese im Reagenzglas. 2. Aufl. Göttingen 2002, S. 24. 11 Zu Darstellungsfehlern in der Fotografie siehe Peter Geimer: Was ist kein Bild? Zur Störung der Verweisung. In: Ders. (Hg.): Ordnungen der Sichtbarkeit: Fotografie in Wissenschaft, Kunst und Technologie. Frankfurt am Main 2002, S. 313–341. Für eine Fallstudie zu komplexen Dynamiken, die sich damit befasst, wie unerklärliche und unerwartete visuelle Formen das beeinflussen können, was am Anfang einer mathematischen Theorie steht, siehe Nina Samuel: Beredte Skizzen. Chaos und das zerbrochene Ei von Yoshisuke Ueda. In: Bildwelten des Wissens 7.2: Mathematische Forme(l)n. Berlin 2010, S. 83–89. Zur Frage von Fehlern und Störungen in frühen Computergrafiken im Allgemeinen siehe auch Nina Samuel: ‘Do not clean off the dust specks. They are real.’ Über gestörte, verschmutzte und verborgene Computerbilder. In: Robert Suter und Thorsten Bothe (Hg.): Prekäre Bilder. München 2010, S. 19–47. 12 Zitiert in Gaston Bachelard: Epistemologie. Ausgewählte Texte. Frankfurt am Main 1974, S. 172.

Bilder als Werkzeuge

75

Im Fall der Lokalisationsmikroskopie muss hervorgehoben werden, dass es sich bei den Wissenschaftlern, die diese Bilder vor allem in den ersten Jahren nach ihrer Erfindung produzierten, meist nicht um Biologen, sondern um Physiker mit Spezialisierung in angewandter Optik und Informationsverarbeitung handelte. Da das Verfahren erst im Jahr 2006 entwickelt wurde, war es lange Zeit nicht standardisiert und im biologischen Labor noch nicht zugänglich: Es waren vielmehr Physiker, welche die Instrumente, Methoden und Algorithmen entwickelten, und zwar im Auftrage von Biologen, mit denen sie die Ergebnisse erörterten. Letztere waren nicht die ‚Endanwender‘. Sie übernahmen eine Vermittlerrolle zwischen zwei wissenschaftlichen Kulturen und somit zwischen zwei verschiedenen Kulturen des Sehens .13 Diese unterschiedlichen Kulturen des Sehens hatten direkten Einfluss auf die Frage, ob etwas unaufgeklärt Wahrgenommenes in das Wissenssystem eingegliedert werden kann oder nicht. So war es für Kaufmann der Vergleich mit einem der ältesten mikroskopischen Verfahren, der endgültig bestätigte, dass die ungeklärten „sehr hellen sphärischen Objekte“ eindeutig ein integraler Bestandteil der Zelle und kein Artefakt sein mussten: der Hellfeld-Lichtmikroskopie, die seit dem 17. Jahrhundert existiert.14 Die Physik arbeitet üblicherweise nicht mit diesem Verfahren – im biologischen Nasslabor gehört es hingegen zum Alltag. Hier werden Hellfeld-Lichtmikroskope verwendet, um Proben zu untersuchen und Zellen in Kulturen zu zählen. Die jeweilige Laborpraxis bestimmt also, welche Mikroskopbilder als gewohnt gelten können und ob sie der Kultur des Sehens der Biologie oder der P ­ hysik angehören; ein Biologe hätte sich womöglich gar keine Gedanken um die hellen Flecken gemacht, da sie ihm aus der täglichen Praxis vertraut gewesen wären. Wenn wissenschaftliche Repräsentationen zwischen solchen unterschiedlichen Kulturen des Sehens migrieren müssen, kann man sie als Grenzobjekte bezeichnen. Dieser Begriff, der von Susan Leigh Star und James R. Griesemer entwickelt wurde, widmet sich dem soziologischen Problem der Übersetzung und Migration von Konzepten und Technologien zwischen heterogenen Wissenschaftswelten: „[Um zwischen verschiedenen Sichtweisen zu übersetzen, brauchen wir Grenzobjekte, die] an verschiedene Sichtweisen adaptierbar und zugleich robust genug sind, um eine globale Identität zu wahren.“15 Doch wie wird ein Ergebnis zugleich robust und adaptierbar?

13 Für die Mikroskopie wurde dieser Begriff von Schlich eingeführt. Thomas Schlich: Repräsentationen von Krankheitserregern. Wie Robert Koch Bakterien als Krankheitsursache dargestellt hat. In: HansJörg Rheinberger, Michael Hagner, Bettina Wahrig-Schmidt (Hg.): Räume des Wissens. Repräsentation. Codierung. Spur. Berlin 1997, S. 165–190, hier S. 170. 14 Vgl. Kaufmann u. a. (s. Anm. 1), S. 350, Abb. 3. 15 James R. Griesemer, Susan Leigh Star: Institutional Ecology, ‘Translations’ and Boundary Objects. Amateurs and Professionals in Berkeley’s Museum of Vertebrate Zoology, 1907–39. In: Social Studies of Science 19, 1989, S. 387–420, hier S. 387.

76

Nina Samuel

Ästhetische und epistemische Schlachtfelder In seiner Erörterung über die Beziehung zwischen Fakten und Artefakten in der biologischen Mikroskopie verweist Nicolas Rasmussen auf eine epistemologische Mikroskopierpraxis, die Ende des 19. Jahrhunderts aufkam und auch von Ian Hacking in seiner maßgebenden Studie Einführung in die Philosophie der Naturwissenschaften aufgegriffen wurde.16 Hacking argumentierte, dass die ‚Existenz‘ einer mikroskopisch beobachteten Entität als ‚etwas Reales‘ davon abhängt, ob sie unter verschiedenen Experimentalverfahren in Erscheinung tritt. Um einer Beobachtung das Merkmal der ‚Existenz‘ zuzusprechen, werden also die Ergebnisse ‚neuer Instrumente‘ mit jenen ‚alter Instrumente‘ abgeglichen, und auch verschiedene Methoden und instrumentelle Beobachtungen werden gegeneinander abgeglichen. Wie anhand der seltsamen „sphärischen Objekte“ demonstriert werden konnte, ist der von Hacking für die optische Mikroskopie beschriebene Mechanismus auch für Methoden wie die Lokalisationsmikroskopie, bei der das direkte Sehen durch Messungen und Datenerfassung ersetzt wird, nach wie vor gültig: Ältere Bildgebungsverfahren bleiben ein wichtiger Bezugspunkt, wenn es um die intradisziplinäre Evaluierung von plötzlich auftretenden Phänomenen geht, die die Wahrnehmung irritieren. Doch das Kriterium der Wiederholung und Übereinstimmung gilt auf eine abgeänderte und eher unerwartete Weise – jenseits der Evaluierung von unerwarteten Ergebnissen – auch, wenn es um die Frage der inter disziplinären Kommunikation geht. Da Biologinnen und Biologen darauf geschult sind, Zellen über die Interpretation mikroskopischer Bilder zu analysieren, mussten Physiker wie Kaufmann ihre Messungen in eine für die Biologie brauchbare Form übersetzen, anstatt die Daten z. B. in einem Histogramm oder Diagramm bereitzustellen. Die Herausforderung bestand darin, der biologischen Forschung ‚etwas Sichtbares zu geben‘, das mit ihrer praktischen Erfahrung über das ‚Aussehen von Zellen‘ in Zusammenhang gebracht werden kann. Um diesen Prozess zu erleichtern, fand in der interdisziplinären Kommunikation ein Austausch von Erwartungen statt: Fachleute aus der Biologie wiesen im Vorfeld anhand ihrer Erfahrungen darauf hin, wie die untersuchten biologischen Strukturen im Wesentlichen aussehen und welche Merkmale seitens der Physik nach Möglichkeit hervorgehoben werden sollten. Ebenso unterstützten Physiker die Interpretation der visuellen Ergebnisse anhand der Erkenntnisse, die sie durch die erfassten Daten gewonnen hatten. 16 Nicolas Rasmussen: Facts, artifacts, and mesosomes: Practicing epistemology with the electron microscope. In: Studies in History and Philosophy of Science (Part A) 24, 1993, Heft 2, S. 227–265, hier S. 227 und 232. Siehe auch Ian Hacking: Representing and Intervening: Introductory topics in the philosophy of natural science. Cambridge/New York 1983, S. 186–209.

Bilder als Werkzeuge

77

A

500nm

B

500nm

C

3

500nm

Rainer Kaufmann u.a.: Vergleich zwischen einem konventionellen Weitfeld-Fluoreszenzbild (A), einem Lokalisationsbild desselben Ausschnitts (B) und den Ergebnissen des Clusterfindungsalgorithmus (C), 2011.

Die Herausforderungen der interdisziplinären Kommunikation wurden besonders deutlich, wenn eine größere technische Umstellung wie jene von der herkömmlichen Fluoreszenz- zur Lokalisationsmikroskopie stattfand. Die Fähigkeit der menschlichen Wahrnehmung, sich an ein neues Bildsystem anzupassen, scheint weit hinter der Geschwindigkeit zurückzuliegen, mit der neue Technologien für die Forschung verfügbar werden – oder mit Kaufmanns Worten aus dem Jahr 2011: „Man kann allgemein davon ausgehen, dass es rund zehn Jahre dauert, bis eine neu entwickelte mikroskopische Technik allgemein ‚akzeptiert‘ und standardmäßig verwendet wird.“17 Ein Bildervergleich, den Kaufmann zeitgleich veröffentlichte, ver17 Rainer Kaufmann, unveröffentlichtes Interview mit der Autorin, 16. Februar 2011, Heidelberg.

78

Nina Samuel

deutlicht die Aspekte dieser Herausforderung ↗ABB. 3 .18 Er zeigt drei verschiedene Arten der Visualisierung anhand desselben biologischen Ausschnitts: Das oberste Bild entstand mit konventioneller Weitfeld-Fluoreszenztechnik und enthält unscharfe grüne Flecken vor einem schwarzen Hintergrund ↗ABB. 3 a. Ganz unten ist ein Lokalisationsbild zu sehen, das den Clusterfindungsalgorithmus erkennen lässt und aus präzisen dunklen Flecken vor einem weißen Hintergrund besteht ↗ABB. 3 c. Dieses Bild kommt laut Kaufmann einer ‚exakten‘ visuellen Repräsentation der gemessenen Daten am nächsten. Würde man die Daten jedoch in dieser Bildform an einen Biologen weitergeben, wäre vermutlich noch keine interdisziplinäre Kommunikation möglich: er könnte die Bilder nicht lesen und sie darum ebensogut wieder an die Hersteller zurückgeben, so Kaufmann. Aufgrund der gravierenden visuellen Diskrepanz, wie sie zwischen ↗ABB. 3A und 3C zu sehen ist, und um die Bilder verständlich zu machen, ist es daher üblich, Lokalisationsbilder digital zu überarbeiten. Das Ziel dabei ist, konventionelle Weitfeldbilder so gut wie möglich zu ‚imitieren‘, wie das mittlere Bild ↗ABB. 3B veranschaulicht. Dies erfolgt durch eine Gauß-basierende Darstellung. Der Philosoph Paul Virilio schlug vor, dass neue Technologien stets in Verbindung mit den neuen Fehlertypen, die sie produzieren, betrachtet werden sollten.19 Nimmt man diesen Rat ernst, muss man sich genauer ansehen, was in Fällen einer potenziellen Fehlkommunikation oder Fehlinterpretation vor sich geht: Wie versucht die wissenschaftliche Gemeinschaft, diese zu vermeiden, und was sagt dies über visuelle epistemische Methoden in den Biowissenschaften aus?

Ein Bekenntnis zur visuellen Kontinuität Neue Technologien können neue Uneindeutigkeiten und Dilemmata mit sich bringen. Der Physiker David Baddeley widmete sich der Suche nach der besten und praktikabelsten Methode, „diese Liste [von Daten] in eine Bildform zu übersetzen“.20 Er verglich dazu drei verschiedene Methoden für die Umwandlung der Lokalisationsdaten in Bilder ↗ABB. 4A–C . Er stellte der typischen Gauß-Methode (oben) zwei Alternativen gegenüber, die sich vor allem durch die Form der Umrisslinien (eckig oder abgerundet) unterscheiden. Baddeley kam zu einem überraschenden 18 Rainer Kaufmann u. a.: Analysis of Her2/neu membrane protein clusters in different types of breast cancer cells using localization microscopy. In: Journal of Microscopy 242, 2011, Heft 1, S. 46–54, hier S. 50. 19 Paul Virilio: Der Urfall (accidens originale). In: Tumult. Zeitschrift für Verkehrswissenschaft 1, 1979, S. 77– 82, hier S. 77. 20 David Baddeley, Mark B. Cannell, Christian Soeller: Visualization of Localization Microscopy Data. In: Microscopy and Microanalysis 16, 2010, Heft 1, S. 64–72, hier S. 64.

Bilder als Werkzeuge

79

4 David Baddeley: Anwendung von Visualisierungsmethoden auf Versuchsdaten aus der Lokalisationsmikroskopie. a: Konventionelle Visualisierung durch Gauß-basierte Bildsynthese; b: Quadtree-basierte Bildsynthese; c: Triangulationsbasierte Visualisierung, 2010.

Schluss: Darstellungen, welche die Kriterien für eine interdisziplinäre Kommunikation am besten erfüllen – also jene, die den optischen Effekt von Weitfeldbildern am besten imitieren (die verbreitete Gauß-basierte Visualisierung, ↗ABB. 4A oder ↗ABB. 3B –, liefern die schwächsten Ergebnisse, wenn es darum geht, ein größtmögliches Datenvolumen zu übermitteln.21

21 Baddeley, Cannell, Soeller (s. Anm. 20), S. 68.

80

Nina Samuel

Hier zeigt sich ein offensichtliches Dilemma: Die Physik musste Bilder produzieren, die einerseits der Ästhetik der unscharfen Weitfeldmikroskopie ausreichend nahekamen, um eine interdisziplinäre Kommunikation zu ermöglichen, und die andererseits scharf und präzise genug waren, um möglichst viele Informationen über die untersuchte Probe zu übermitteln. Im Lauf dieses Prozesses war die Physik sogar gefordert, gegen die menschliche Natur selbst vorzugehen: Für Baddeley hat das Auge die natürliche Tendenz, „in einem Rauschen fälschlicherweise Strukturen“ zu sehen.22 Umso schlimmer war es, dass gerade die in der Biologie bevorzugten Gauß-basierten Bilder diese Wahrnehmungstendenz verstärken konnten. Aus diesem Grund kam die Frage, wie die Lokalisationsdaten visualisiert werden sollen, einem „täglichen Kampf“ gegen das „Gestaltsehen“ gleich, wie Kaufmann bekräftigte: Dies ist tatsächlich eine Art Kampf, denn man muss den Biologen erklären, welche Informationen wirklich in dem Bild enthalten sind und welche sie aufgrund der Besonderheiten der menschlichen Wahrnehmung nur annehmen.23

Entwickelt wurden also Bilder mit dem Ziel, die Wahrnehmung auf biologischer Seite zu leiten und das Risiko einer Fehlinterpretation oder Fehlkommunikation zu minimieren. Allerdings basierte die Entscheidung darüber, was als richtig oder falsch galt, auf einer eigenen Interpretation und auf der vorangegangenen Kommunikation zwischen zwei Fachgebieten. Das resultierende Bild trug stets Spuren dieses Prozesses und seiner Kompromisse. Um die Migration zwischen verschiedenen Kulturen des Sehens zu ermöglichen, wurden Bilder zu einem Schlachtfeld, auf dem Daten, Imagination und die Psychologie der Wahrnehmung zusammentrafen. Das Ringen um den perfekten Ausgleich zwischen Datenmenge und sichtbarer Oberfläche hatte erheblichen Einfluss auf die tatsächliche Gestaltung der mikroskopischen Bilder, die zwischen Physik und Biologie zirkulierten. Wie Ludwik Fleck betonte, geht in der Wissenschaft die Fähigkeit, bestimmte Gestalten (interessanterweise verwendete er auch diesen Begriff) wahrzunehmen, immer mit einem Rückgang der Fähigkeit, andere wahrzunehmen, einher.24 Besonders wenn Bilder zwischen verschiedenen Kulturen migrieren, kann diese trainierte Fähigkeit über die Frage entscheiden, ob eine visuelle Erscheinung als neue Entdeckung oder als Artefakt beurteilt wird – oder welche Bildtraditionen in Denkkollektiven

22 Baddeley, Cannell, Soeller (s. Anm. 20), S. 69. 23 Kaufmann (s. Anm. 17). 24 Ludwik Fleck: Über die wissenschaftliche Beobachtung und die Wahrnehmung im allgemeinen. In Ders: Erfahrung und Tatsache. Gesammelte Aufsätze, hg. v. Lothar Schäfer u. Thomas Schnelle. Frankfurt am Main 1983, S. 59–83, hier S. 61 f.

Bilder als Werkzeuge

81

vorherrschen.25 Baddeley klassifizierte Methoden wie die sogenannte Quadtree-­ Visualisierung ↗ABB. 4B als die effizientesten, wenn es um das Potential geht, eine hohe Datendichte zu enthalten. Doch leider ähnelte ihr Aussehen zu sehr der mosaikartigen Ästhetik früher Computerspiele und erinnerte mehr an die pixeligen, klobigen Bilder von Atari – einem Spielepionier der 1970er Jahre – als an Zellstrukturen. Solche Muster fielen nicht in das übliche und bekannte Formenrepertoire der Biologie. Um als interdisziplinäres Kommunikationsmittel und als Grenzobjekt zu funktionieren, musste das kantige Muster ↗ABB. 4B folglich so modifiziert werden, dass es wieder verschwommener aussah ↗ABB. 4C . Das hochauflösende Bild mit seiner neuen Präzision musste also künstlich abgeändert werden, um das ältere Bildgebungsverfahren zu imitieren: Die Schärfe musste nachträglich ‚verwischt‘ werden, um das biologische Auge an das Unbekannte zu gewöhnen – und sei es auch zum höchsten Bedauern der Physik über einen weiteren Verlust an Informationsdichte, wie Kaufmann bemerkte. Das ästhetische Ringen um die richtige Form der Visualisierung wurde zu einem epistemischen, das in den Prozess von Entdeckung, Reproduktion und Übereinkunft in die Wissenschaft einfloss. Standardisierung ist eine Voraussetzung für Zirkulation. Bildkonventionen funktionieren als zuverlässiger Filter in zwei verschiedene Richtungen: Zum einen haben sie Einfluss darauf, wie Daten in Bilder übersetzt werden, zum anderen bestimmen sie die Grenze zwischen dem Erwarteten und dem Unerwarteten – dem akzeptierten und dem infrage gestellten Ergebnis. Für die Migration zwischen verschiedenen Kulturen des Sehens durchlaufen Bildobjekte eine sorgfältige Bildverarbeitung, die auf der Einbeziehung konstruktiver Aspekte der Wahrnehmung beruht. Die visuelle Zähmung des Unerwarteten wird durch eine bewusste Anpassung von etablierten und trainierten Arten des Sehens möglich gemacht. Die Notwendigkeit, das Ungesehene im Rahmen des Beobachteten und visuell Bekannten zu rekonstruieren, also gemessene Daten in ein Bild umzuwandeln, unterstreicht die Bedeutung der Bildkontinuität in modernen biologischen Forschungspraktiken, die an Traditionen des Sehens gebunden bleibt.

25 Fleck (s. Anm. 24), S. 154–161.

Anne Dippel und Lukas Mairhofer

Zur Generierung von Präzision des Messbaren und des Unberechenbaren in Physik und Anthropologie Ein Gespräch über genaue Beobachtung

Als Post-Doc in der Physik verwendest Du in Deiner jetzigen Forscher­ lebens­phase viel Zeit darauf, dass das Experimentalsystem, an dem Du arbeitest, über die Zeit alle Daten liefert, für die es gebaut wurde. Der ­Geschlossenheit des technischen Raumes steht die Offenheit der experimentellen Zeit gegenüber. Denn der Ausgang bleibt ungewiss und die Messung bedarf konstanter Sorge. Und auch an Deinem Experiment sind schon mehrere G ­ enerationen von Nachwuchswissenschaftler_innen ausgebildet worden, deren Hauptaufgabe immer darin bestand, die Präzisionsinstrumente bedienen zu lernen, zu warten und sich sogar in sie hineinzuversetzen, gleichsam hineinzufühlen.

ANNE DIPPEL:

Tatsächlich geht es darum, ein Gespür für das Experiment zu ent­ wickeln - wie es riecht, sich anhört und anfühlt. Ich verbringe viel Zeit im Untergrund des physikalischen Instituts in der Boltzmanngasse in Wien und halte das Experiment am Leben.

LUKAS MAIRHOFER:

AD:

Diese Formulierung amüsiert mich immer, weil es doch eigentlich keinen Organismus, sondern eine komplexe technische Infrastruktur darstellt – und die Sorge um das Experiment, die Kämpfe, die in der Gruppe ausgetragen werden, alle sozialen Aspekte und mikrokulturellen Eigenheiten tauchen am Ende in den wissenschaftlichen Schriften gar nicht mehr auf. Experimentalsysteme stellen schließlich soziotechnische Arrangements dar, die eben nur durch permanente Sorge und Pflege die präzisen Daten liefern, für die sie gebaut wurden. „Die Hand am Experiment“ zu haben, wie Dein Arbeitsgruppenleiter Markus Arndt mir im Gespräch erklärte, mit dem Experimentalsystem „zu leben“, eine „Symbiose“ einzugehen, scheint dabei einer der zentralen Faktoren für das Gelingen einer exakten Messung zu sein. Nur so kann auch die vor allem mündliche Weitergabe von Tricks und Kniffs garantiert werden, also all das, was Michael Polanyi als „implizites Wissen“ bezeichnet hat. Aber erkläre doch

84

Anne Dippel und Lukas Mairhofer

noch einmal ganz genau, was macht Ihr eigentlich in Wien für Experimente und welche Rolle spielt dabei die Präzision? LM:

In unserem Keller bringen wir recht große und komplexe Moleküle, zum Beispiel Vitamine oder kleine Peptid-Ketten, dazu, sich so zu verhalten, als wären sie delokalisierte Wellen. Also, zumindest können wir die Bewegung ihres Massenmittelpunktes so beschreiben. Das führt zu eigenartigen Vorhersagen, die der alltäglichen Erwartung widersprechen, die wir an solche Moleküle haben: Nämlich dass sie lokalisierte Objekte sind. Wir führen mit diesen Molekülen eine Art Doppelspaltexperiment durch. Wir beugen die Materiewellen an Gittern und erzeugen dann hinter den Gittern eine Abbildung, zeichnen ein Interferenzmuster auf, das darauf schließen lässt, dass jedes der Moleküle mehrere Spalten des Beugungsgitters passiert hat: Weil die Moleküle in unserem Experiment von ihrer Umgebung weitgehend isoliert sind, ist die Position des Massenmittelpunkts nicht mehr exakt bestimmt und die Wellenfunktion, mit der wir seine Bewegung beschreiben, leuchtet mehrere Spalten aus. Die Welle passiert alle diese Spalten, wodurch hinter jeder Öffnung kleine Kugelwellen entstehen, die sich dann überlagern. So interferiert das Molekül mit sich selbst. Allerdings kann dieser „Weg“ durch mehrere Spalten nicht beobachtet werden, denn wird die Trajektorie der Moleküle beobachtet, so verschwindet das Interferenzmuster. Auch entsteht das Interferenzbild erst durch die Messung vieler eintreffender Moleküle. Es ist also problematisch, davon zu sprechen, was das Molekül bei der Beugung am Gitter wirklich macht, wir können nur ein Modell dieses Verhaltens bilden. Die Wahrheit dieses Modells besteht nicht darin, dass es sagt, was wirklich passiert, sondern darin, dass es korrekte Vorhersagen macht.

AD:

Als ich zu kulturanthropologischen Feldforschungszwecken in euer physikalisches Labor nach Wien kam und Du mir die erste Führung durch eure quantenoptisch und quantennanophysikalisch ausgerichteten Experimente gegeben hast, war ich von der Kompaktheit und Fülle der hier versammelten Präzisionsinstrumente und -messgeräte hingerissen. Und nicht nur Dir, sondern allen, die dort arbeiten, steht die Begeisterung für die Präzision der Instrumente, die Ihr benutzt, ins Gesicht geschrieben.

LM:

In einem technologischen und metrologischen Sinn ist Präzision ganz entscheidend für das Gelingen der Experimente. Das Wellenverhalten großer, komplexer Moleküle kennen wir in unserem Alltag nicht, und es wird auch nur unter Umständen nachweisbar, die nicht sehr alltäglich sind: Im Ultrahochvakuum wird ein Strahl von Molekülen durch eine Spalte mit etwa hundert Nanometern

Zur Generierung von Präzision des Messbaren und des Unberechenbaren in Physik und Anthropologie

85

Abstand geschickt. Dabei dürfen die Gitterperioden nur um Bruchteile des Durchmessers eines Wasserstoffatoms voneinander abweichen, die Abstände zwischen den Gittern nur um wenige Mikrometer.

Viele der Instrumente und Maschinen, die Bestandteil des Experiments sind, wurden mit großer Genauigkeit gefertigt – zum Beispiel die Laser und die Turbomolekularpumpen, die das Vakuum erzeugen, die Vibrations- und Neigungssensoren und natürlich die Detektoren, mit denen das Interferenzmuster schließlich abgebildet wird. Umgekehrt ist das Interferenzmuster selbst wieder ein sehr präzises Lineal, mit dem wir einen Versatz des Molekülstrahls um wenige Nanometer messen können. Das erlaubt es uns, mit großer Genauigkeit elektrische, magnetische und optische Eigenschaften der Moleküle zu bestimmen, die bisherigen Verfahren weitgehend unzugänglich waren.

AD:

Mit genauen Messungen habe ich es auch am CERN zu tun, dem Centre Européen de la Recherche Nucléaire. Dort beforsche ich Wissenspraktiken, -strukturen und Weltvorstellungen, die zur Generierung physikalischer Beschreibungen und Beobachtungen von Natur notwendig sind. Insbesondere blicke ich dabei auf zwei Forschungskollaborationen des Large Hadron Colliders , ATLAS (A ToroidaL LHC AparatuS) und CMS (Compact Muon Solenoid). In den Geschwister-Experimenten werden Protonenpakete auf nahezu Lichtgeschwindigkeit beschleunigt und in Vakuumröhren durch supraleitende Magneten gelenkt, die dabei in flüssigem Helium auf -272° C heruntergekühlt werden. An vier verschiedenen Detektorpunkten werden gezielt Kollisionen erzeugt. In den einzelnen Komponenten wird etwa das Verhältnis von Ladung und Impuls, oder die Energie eines Teilchens gemessen, aus der dann verschiedene Massen und die jeweiligen Eigenschaften der Partikel bestimmt und analysiert werden können. Dadurch können präziseste Daten von fundamentalen Teilchen des Kosmos gewonnen werden. Sie beeinflussen unsere Vorstellung von Natur. Wobei man natürlich die Frage stellen muss, ob man bei der Komplexität des Experiments und der Stellung der Computersimulation im Experiment überhaupt von einer objekthaften, unberührten Natur sprechen kann, weil die Ereignisse in einem materiell-semiotischen Verbund von Technik, Algorithmen und mathematisch basierter Datenanalyse generiert werden. Die gemessenen Signaturen am CERN sind damit Signifikant und Signifikat zugleich, besitzen einen Status, den ich deshalb als Signem bezeichne.

LM:

Welchen Zweck erfüllen die Präzisionsmessungen und welche Rolle spielen die graphischen Visualisierungen für das genaue Verständnis des Experiments?

86

Anne Dippel und Lukas Mairhofer

AD:

Die graphischen Visualisierungen, seien es Feynman-Diagramme oder Histogramme, seien es Modelle von Detektoren oder das Event-Display, also Darstellungen von Kollisionsereignissen, dienen den Menschen zur Verständigung. Sie besitzen keinen wissenschaftlichen Aussagewert, präzisieren keine Bedeutung. Und auch die Experimente selbst zielen darauf ab, nicht bloß neue Teilchen zu finden, sondern die bekannten Teilchen genauer zu verstehen. „Es wird immer diese beiden Typen geben“, erklärt mir jemand am CERN über das Dasein von Physiker_innen: „Die einen suchen das Neue, die anderen möchten ein immer präziseres Verständnis von dem gewinnen, was wir schon wissen. Beides ist notwendig.“



Im besten Fall präzisieren und transformieren die statistisch signifikanten Messergebnisse der Kollisionen theoretische Annahmen über das Universum. Ziel ist, das so genannte Standardmodell in der Teilchenphysik zu testen, das zwar alle bekannten Elementarteilchen und alle Wechselwirkungen – starke, schwache und elektromagnetische – berücksichtigt, aber die Gravitation vernachlässigt und daher als unvollständig erachtet wird. Letztendlich lässt sich dieser Versuch mit Platons Höhlengleichnis verstehen: Die Schatten an der Wand sind die gemessenen Daten, das Feuer selbst, das den Schatten wirft, ist der Detektor, die Voraussage, welche Formen der Schatten annimmt, ist die Theorie. Je besser der Detektor, desto genauer das Bild, wodurch die theoretischen Annahmen überprüft und im besten Fall verworfen werden können.

LM:

Das ist aber jetzt schön, dass Du doch den Brückenschlag zur Philosophie gefunden hast.

AD:

Zu diesem Zweck also werden die größten Digitalkameras der Welt gebaut und die zweitgrößte Höhle der Welt gegraben, pro Sekunde werden dabei etwa 600 Millionen Proton-Proton-Kollisionen aufgezeichnet. Abertausende Computer werden synchronisiert, damit die Datennahme fehlerfrei läuft. Pro Jahr kostet das Unternehmen etwa eine Milliarde Euro und es waren allein im Jahr 2015 in der ATLAS-Kollaboration 3751, am CMS-Detektor 2927 Menschen beschäftigt. Um diese Zusammenarbeit produktiv zu gestalten und die technische Apparatur in Stand zu halten, bedarf es zahlreicher Meetings und Koordinierungstreffen, unberechenbar viele Schritte von genauen Berechnungen und Programmierungen. Das Experimentalsystem ist derart komplex, dass eigentlich ständig etwas nicht genau funktioniert, irgendwo ein Ausfall passiert, ein Bug im System ist und selbst wenn dann einmal alles präzise zu funktionieren scheint, kann es passieren, dass ein Wiesel etwa auf eine Kabelleitung trifft und das ganze Projekt für einige Zeit lahmlegt, weil es ein Kabel durchgebissen

Zur Generierung von Präzision des Messbaren und des Unberechenbaren in Physik und Anthropologie

87

hat. So verwundert auch nicht, dass trotz des hohen Grades an Stratifikation, Arbeitsteilung und synchronisierter Präzision von so vielen Menschen, Maschinen und Algorithmen, die ‚Cernerinnen‘ und ‚Cerner‘ selber oft über das Versagen der Genauigkeit Witze machen, so wie im nachfolgenden Spruch, der an einer der vielen Türen des CERN geklebt wurde: „Theory is when you know everything but nothing works. Practice is when everything works but no one knows why. In this Lab, theory and practice are combined. Nothing works, and no one knows why.“

Ein anderes solches Statement auf einer Bürotür zeigt den Stellenwert technischer Präzision zur Generierung von Daten am CERN: „Without Engineering – Science is just Philosophy.“



Ich lasse die tieferen philosophischen Implikationen und die Abwertung der Philosophie hier einmal stehen und behaupte, dass so etwas natürlich von selbstbewussten Technikern und Technikerinnen stammt, die sich oftmals dagegen wehren müssen, dass die technische Verwirklichung von und Arbeit an der Präzision im Vergleich zur theoretischen Physik geringer bewertet wird, obwohl ohne sie nun einmal nichts Erdachtes konkret dargestellt werden kann.

LM:

Unsere Gruppe ist viel kleiner, und auch die community, also der esoterische Zirkel der Molekülinterferenz, wie Ludwik Fleck es nennen würde – jener Kreis, der über das tazite, nicht verschriftlichte Wissen verfügt, das notwendig ist, um die Experimente am Leben zu erhalten. In der Gruppe von Markus Arndt in Wien sind wir etwa zwanzig Fachleute, welche drei Molekülinterferometer betreiben und daneben sehr intensiv daran forschen, wie recht sensible und fragile Biomoleküle dazu gebracht werden können, einen Molekülstrahl zu formen. Viele grundlegende theoretische Modelle hat Stefan Nimmrichter in der Gruppe selbst entwickelt, und wir kollaborieren mit einigen Mitgliedern der theoretischen Physik, insbesondere mit Klaus Hornberger von der Universität Duisburg. Diese entwickeln mathematische Beschreibungen für das Verhalten der Materiewellen, welche die Bewegung der Massenmittelpunkte der Moleküle im Interferometer beschreiben, ohne ihnen wohldefinierte Trajektorien zuzuweisen. Dabei verwenden wir aber physikalische Größen, die eng mit dem Konzept der Moleküle als lokalisierte und strukturierte Teilchen verbunden sind, zum Beispiel ihre Polarisierbarkeit, also wie leicht es möglich ist, die Elektronen im Gerüst der Atomkerne zu verschieben. Auch bei der präzisen Bestimmung von Moleküleigenschaften führen wir Messungen durch, die das Verhalten der Materiewelle verändern – um aus dieser Veränderung auf Eigenschaften zu schließen, die klassisch gedachten Molekülen zukom-

88

Anne Dippel und Lukas Mairhofer

men. Niels Bohr hat postuliert, dass die Quantenobjekte abhängig von unserer experimentellen Fragestellung entweder Wellen- oder Teilcheneigenschaften aufweisen, dass sich diese aber gegenseitig ausschließen. Mir scheint, dass unsere interferenzgestützten metrologischen Experimente zeigen, dass Wellen- und Teilcheneigenschaften nicht immer komplementär sind und gleichzeitig auftreten, wenn wir geschickt genug fragen. AD:

Mir scheint es, als ob ihr Gedankenbilder in euren Versuchen verwendet, die gar nicht präzise sind – und die so unpräzise bleiben dürfen.

LM:

Dieser unterstellte Mangel an Genauigkeit behagt mir gar nicht. Worin besteht diese Unschärfe, die du unseren Konzepten zuschreibst?

AD:

Die Unschärfe zeigt sich zuerst darin, dass ihr kein Bild davon machen könnt, was mit der Materie auf ihrem Weg passiert, bevor sie zum Bild wird, das dann in einem Histogramm gedeutet werden kann.

LM:

Das stimmt in unserer Quantenwelt tatsächlich. Wenn wir versuchen, den Weg der Moleküle durch das Interferometer zu verfolgen – ja selbst wenn es nur prinzipiell möglich wäre, diesen Weg zu verfolgen, etwa weil die Objekte Photonen von geeigneter Wellenlänge aussenden – dann verschwindet das Interferenzbild. Wir haben also keinen experimentellen Zugriff darauf, was am Beugungsgitter passiert. Die klassische Physik hat von sich behauptet, eine präzise Theorie in dem Sinn zu sein, dass sie beschreiben kann, wie sich jedes ihrer Objekte zu jedem Zeitpunkt verhält. Sie ist eine anschauliche Theorie, weil jeder Größe im Modell unmittelbar einer physikalischen Entität entspricht. Die Geschichte ihrer Objekte ist eine ununterbrochene Trajektorie, eine Bahn, die dem Objekt zu jedem Zeitpunkt einen Ort zuschreibt und diese Orte kausal miteinander verknüpft. Die Quantentheorie kann das nicht leisten. Die Massenmittelpunkte unserer Moleküle haben schlicht keinen wohldefinierten Ort, wenn sie sich durch das Gitter bewegen. Wir können nur die zwei Punkte am Beginn und am Ende des Experiments fixieren, an denen das Molekül lokalisiert ist – die Quelle und den Ort, an dem das Molekül den Detektor erreicht. Aber es ist nach meinem Verständnis in der Quantenmechanik nicht zulässig, dazwischen eine Linie zu ziehen und zu behaupten, das sei nun der Weg des Moleküls gewesen. Gegenüber der klassischen Physik scheint diese Quantenmechanik zwar seltsam unvollständig zu sein, sie hat aber den Vorteil, dass ihre Vorhersage darüber, wie das Interferenzbild aussehen wird, zu den Ergebnissen unserer Experimente passt, während die klassische Physik für unser Experiment keine brauchbaren Prognosen macht. In diesem Sinn ist die Quantenmechanik wesentlich präziser als die Newton’sche Mechanik.

Zur Generierung von Präzision des Messbaren und des Unberechenbaren in Physik und Anthropologie

89

AD:

Hinzu kommt, dass ihr keine Feldtheorie, also kein einheitliches mathematisches Formelwerk besitzt, welches das Verhalten der Materie auf ihrem Weg durch das Experiment hinlänglich beschreiben könnte, sondern dass ihr einzig das Verhalten der Materie aufzeigen könnt und zwar in einer künstlich hergestellten Realität, einer eigenen Welt, die in unserer Welt ihren experimentell begrenzten Raum erhält. Bei euch beschreibt die Theorie also unmittelbar das Bild, während von der Schrödinger-Gleichung, die das Verhalten der Teilchen beschreibt, wiederum kein Bild gemacht und somit das physikalische Ereignis selbst nicht vollständig entborgen werden kann.

LM:

Das klingt eigenartig, weil die Quantenmechanik vor allem vor der Zweiten Quantisierung – also vor einer Feldtheorie – sehr unanschaulich ist, sich also kaum bildlich fassen lässt. Aber tatsächlich verwenden wir Theoreme der Optik und Quantenmechanik, um aus den Eigenschaften der Materiewellen einerseits und der Beugungsgitter andererseits das Interferenzmuster vorherzusagen. In unseren Experimenten sind die Interferenzmuster tatsächlich das Resultat, auf das wir abzielen. Die Rolle der Bilder am CERN scheint eine andere zu sein, sie dienen nur der Visualisierung der Kollisionen. Worin besteht die Präzision dieser Bilder?

AD:

Die Präzision des Event-Displays , wie es etwa zunächst durch Hans Drevermann für das Aleph-Experiment des LEP (Large Electron-Positron Collider) entwickelt wurde und dessen Verfahren der ‚Bildtransformation‘ für das Visualisierungsprogramm Atlantis im ATLAS-Experiment weiterhin Bestand hat, zeichnet sich dadurch aus, dass physikalische Ereignisse, deren Form letztendlich gar nicht für unser Sehgeometrie geschaffen sind, so transformiert werden, dass sie nicht zu Verfälschungen des natürlichen Phänomens, sondern präzise Übersetzungen für unseren Wahrnehmungsapparat werden. Neben den 3D-Bildern, die für die Presse gemacht werden, sind darüber hinaus Gedankenbilder jeglicher Art wichtig. Sie ermöglichen die allegorische Übertragung einer nicht in Wörtern und Bildern darstellbaren, mathematischen und technischen ­Präzision.

LM:

Welchen Stellenwert besitzt die Messung für die Teilchenphysik?

AD:

Die Messung verkörpert nicht bloß den Erfolg des Experiments, sondern bildet einen zentralen Wert der phyikalischen community, ist Teil der Grundnarrationen der hochenergiephysikalischen Forschung. Sie legitimiert überhaupt erst die Forschung, konsolidiert das Fundament physikalischen Selbstverständnisses. Genau deshalb wird ihr so viel Bedeutung wie grundständiger Zweifel entgegengebracht: „Die Messung ist das einzige, woran ich glaube“, sagte eine Physikerin zu mir. Ein anderer sagte: „Ich glaube keiner Messung, an der

90

Anne Dippel und Lukas Mairhofer

ich nicht beteiligt war und selbst an der, die ich mitgesteuert habe, hege ich Zweifel. Viel zu viele Menschen sind involviert, ein Fehler lässt sich immer irgendwo finden.“ Eine Dritte sagte: „Im Grunde ist alles bloß eine Annäherung an die Natur. Wir berücksichtigen in unseren Experimenten stets statistische und systematische Messfehler.“ Der Aufwand, der betrieben wird, um ein überzeugendes Messergebnis zu erlangen, bedarf in großen Kollaborationen eines nicht weniger präzisen Personalmanagements, verlangt von jedem Einzelnen konstante Selbstdisziplinierung und Pflicht zur Genauigkeit.

Nur durch dieses komplexe Gemenge entstehen die Simulationen des Experimentalsystems, die Monte-Carlo -Simulationen der physikalischen Ereignisse, und schließlich die Messungen von Phänomenen an sich, sowie die Datenanalysen der gemessenen Signaturen und die aussagekräftigen Histogramme, die selbst wieder zeitliche Darstellungen unzähliger präziser Messungen veranschaulichen. Dabei operiert die Physik ganz ähnlich wie der Hochfrequenzhandel oder wie die Datenanalyst_innen, die komplexe Systeme mittels komplexer Wahrscheinlichkeitsverteilungen beschreiben und dabei nun einmal auf dieses oder jenes Ergebnis wetten müssen, weil es so viele Möglichkeiten gibt. Allerdings sind im Gegensatz zum Aktienmarkt die angenommenen Werte und berücksichtigten Parameter deutlich weniger arbiträr. Erst die Algorithmen machen den physikalischen Prozess überhaupt erkennbar. Die Analyse von Big Data, ob in Aktienhandel oder Hochenergiephysik, ähnelt sich nicht nur im Hinblick auf ihre Bildsprache (etwa Kurvendiagramme), sondern auch mit Blick auf die informatischen und mathematischen Werkzeuge. Sie wurden zur Präzisionsmessung in der Physik entwickelt, dienen aber ebenso dem globalen Finanzmarkt.

LM:

Das CERN bildet nicht nur die Elite für dieses Wirtschaftssystem aus, sondern hat mit dem World Wide Web auch das Protokoll entwickelt, mit welcher der Aktienhandel und insbesondere das high-frequency trading inzwischen arbeitet. Aber man kann das CERN nicht für die Gesellschaft verantwortlich machen, in die es eingebettet ist. Natürlich tragen seine Mitglieder eine enorme soziale Verantwortung. Das betrifft die Technologien, welche sie entwickeln, aber auch die Bilder und Denkstrukturen, die sie verwenden. Die kopernikanische Revolution hat die soziale Welt ebenso grundlegend verändert wie die Atombombe. Aber umgekehrt ist es das Gesellschaftssystem, das bestimmt, welche Fragen überhaupt zulässig und interessant sind, und natürlich auch, was Physiker_­ innen machen, wenn sie nicht mehr in ihrem Gebiet arbeiten.

AD:

Am CERN ausgebildete Menschen gehen später auch in humanitäre Big DataAnalyseprojekte oder beschäftigten sich mit energietechnologischen Frage­

Zur Generierung von Präzision des Messbaren und des Unberechenbaren in Physik und Anthropologie

91

stellungen, Systemen künstlicher Intelligenz. Phänomenologisch gesehen verwundert es daher nicht, dass das CERN auch eine Elite für das globale Wirtschaftssystem ausbildet, denn sie sind das nomadische Leben und die Zusammenarbeit in internationalen Kollaborationen durch ihre Zeit in Meyrin gewöhnt; sie sind kosmopolitisch, teamerfahren und durchsetzungsfähig, sowohl effizient im Management als auch von großer Expertise, was Algorithmen anbetrifft. Wie ist es denn bei Euch? LM:

Unsere Arbeitsweise ist tatsächlich nicht so straff organisiert wie am CERN. Das liegt einerseits vielleicht daran, dass es nicht notwendig ist, die Arbeit von hunderten und tausenden Menschen so zu organisieren, dass sie ineinandergreift und miteinander kompatibel ist. In unserer kleinen Gruppe kann die Arbeit viel spontaner verteilt und koordiniert werden. Andererseits steckt in den Kollisionsexperimenten der Teilchenphysik jahrzehntelange Erfahrung, während wir derzeit die einzige Gruppe sind, die Interferenzexperimente mit großen und komplexen Molekülen durchführt. Sehr viel des notwendigen Know-hows und der Technologie müssen wir selbst entwickeln, und das bedeutet oft, dass wir neue Methoden ausprobieren müssen, ohne zu wissen, ob sie funktionieren werden. Unsere sehr präzisen Experimente beginnen oft mit eher vagen Vorstellungen davon, wie sie durchgeführt werden können.

AD:

Oder wie ein anderer Physiker sagte: „Es geht nicht bloß darum es als Erste entdeckt zu haben, sondern es richtig zu machen.“ Der Begriff der Präzision ist im Alltag am CERN daher allgegenwärtig, insbesondere seitdem das Higgs am LHC gemessen wurde und man die bisherigen Ergebnisse noch genauer verstehen möchte. Die bestimmenden Prozesse des Forschungsalltags sind das Neue zu suchen und die Präzision zu finden. Beispielhaft hierfür ist eine Diskussion zwischen zwei ATLAS-Physikern bei der ich zufällig mit dabei saß. Es ging im weitesten Sinne um die Frage, wie ein Teilchen in dem Detektor am besten simuliert werden könne. Der eine sagt zum anderen: „We are physicists, we’re doing measurements depending on the precision of our simulation. We are not biologists using the microscope. So how much is the precision affected, if we are choosing the other way? We have to use the right amount of force depending on the sources to achieve precision.“ Sein Gesprächspartner beeilt sich daraufhin zu sagen „I agree“ um darauf zu verweisen, dass im Blick auf die Präzision diese und andere Fragen nun schon seit über einem Jahr in der Arbeitsgruppe immer wieder diskutiert wurden. Das Gespräch verläuft sich dann in Details.

LM:

Dieser Physiker hat ja aber auch nach der Präzision in Deiner eigenen Arbeit gefragt. Was macht also die Präzision in der anthropologischen Feldforschung

92

Anne Dippel und Lukas Mairhofer

aus – sie steht doch vor einem ähnlichen Problem wie die Präzision in der Quantenphysik: Die Beobachtung zielt nicht auf einen objektiven Zustand, der völlig unabhängig von ihr existiert, sondern gerade durch die Beobachtung vielleicht erst erzeugt wird. AD:

Das stimmt. Es gibt auf theoretischer Ebene zwischen Kulturanthropologie und Quantenphysik viele Ähnlichkeiten. Wir definieren Felder, untersuchen Kollektive und blicken dabei auf singuläre Ereignisse, betreiben qualitative Mikroanalyse, denken Kräfte, Mechaniken und Dynamiken. Die Hintergrunddichte an Fakten lässt sich nur über einen mühseligen und zeitkritischen Prozess des steten Vergleichs von sogenannten partiellen Verbindungen und der Aufzeichnung von synchron beobachteten Ereignissen bewältigen, so dass am Ende über eine systematische Komplexitätsreduktion strukturelle Gewissheiten als relationale Phänomene eines Ganzen hervortreten können.



Hinzu kommt der Anspruch, nicht bloß schon existente Theorien in einem deduktiven Verfahren auf das Empirische zu applizieren, sondern in einem induktiven Verfahren aus der Beobachtung von Ereignissen, die theoretische Diskurse in Frage stellen, neue Ansätze durch Kontrastieren und Vergleichen zu generieren. Mittels hermeneutischer Verfahren werden Vorstellungen auf die Probe gestellt. Es gilt, trotz des Primats der qualitativen Daten aus eben diesen kein zementiertes Fundament einer faktischen Wahrhaftigkeit zu gießen. Eine präzise Begriffsbildung denkt den Prozess der Feldforschung als epistemisches Potential der Brüchigkeit von Ereignisrekonstruktion. Durch diesen Prozess werden fallbezogene, empirische Funde, etwa Wörter, Begriffe und Vorstellungen der Feldbewohner_innen und ihres Feldes für die theoretische Reflexion fruchtbar, zuletzt also die Welt, in der wir leben, handhab- und beschreibbar gemacht. Jede Kulturtheorie ist von vorn herein empiriegeladen. Und auch wenn es einen nicht-reduzierbaren Eigensinn gibt, ist jedes empirische Datum von Theorie durchtränkt.



Besonders deutlich wird dieser Prozess in einem Bild von Stefan Hirschauer, er schreibt: „Es gibt einerseits eine notwendige theoretische Optik, um das unendliche Feld des Erfahrbaren zu strukturieren, aber es gibt auch eine notwendige empirische Hintergrundbeleuchtung, in deren Licht eine verallgemeinernde Aussage erst zu einer sinnhaltigen Aussage wird.“1 Die von Heisenberg postulierte Unschärferelation, auch wenn sie für die Quantenwelt formuliert

1 Stefan Hirschauer: Die Empiriegeladenheit von Theorien und der Erfindungsreichtum der Praxis. In: Ders., Herbert Kalthoff, Gesa Lindemann (Hg.): Theoretische Empirie. Zur Relevanz qualitativer Forschung. Frankfurt am Main 2008, S. 165–187.

Zur Generierung von Präzision des Messbaren und des Unberechenbaren in Physik und Anthropologie

93

wurde, ist uns in unserer alltäglichen Forschungspraxis vertraute Begleiterin und wird durch das hier beschriebene Verfahren a priori in die Analyse mit eingebaut, im Forschungsprozess reflektiert. Die Präzision des Beobachteten ist eben relational zur Position der Beobachter.

KOMPLEXITÄT

Sara Hillnhütter

Amorphe Punktwolken Präzision und Kontingenz in Carl Koppes Wolkenphotogrammetrie

Im Jahr 1891 fand eine Meteorologen-Konferenz in München statt, auf welcher der Beschluss gefasst wurde, zur weltweiten Beobachtung verschiedener Wolkenarten aufzufordern. Um die Einladung bekanntzumachen, wurde 1896 ein Wolkenatlas publiziert, der anhand von Beispielfotografien unterschiedliche Verfahren vorschlug. Ziel war es, ein Netzwerk von Teilnehmern „aller Länder“1 aufzubauen, um die oberen Luftströme auf der Erde durch die Zugrichtung und Höhe der Wolken zu studieren. Observatorien der Harvard Universität und in Potsdam, Stationen auf Java, in Russland und Manila, aber auch Amateurvereine schlossen sich dem Vorhaben an, die Form und Bewegung der Wolken beginnend mit dem 1. Mai ein Jahr lang zu messen oder fotografisch zu fixieren.2 Um die Beobachtung weit auseinanderliegender Stationen korrelieren zu können, war eine präzise Abstimmung erforderlich. Hierzu legten die Meteorologen Hugo Hildebrand Hildebrandsson (1838–1925), Albert Riggenbach (1854–1921) und Léon-Philippe Teisserenc de Bort (1855–1913) in dem besagten Wolkenatlas 16 Wolkenarten fest.3 Allerdings erwies es sich bereits als schwierig, die Formverläufe der Wolken spachlich zu fassen. Die erste Wolkenart, Cirrus genannt, zeigte vereinzelte zarte Wolken „von faserigem Gewebe, in Form von Federn“ ↗ABB. 1 . Da sie sich meist weit in regelmäßigen Abständen erstreckte und oft Streifen bis ans Ende des Sichtkreises bildete, ließ sie sich kaum zählen. Eine weitere Wolkenart, die einen deutlicheren Umriss besaß, wurde Cumulus-Nimbus genannt ↗ABB. 2 , zu erkennen an den „gewaltige[n] Wolkenmassen, die sich in Form von Bergen, Türmen, und Ambossen erheben.“4 Besonders der Meteorologe Wladimir Köppen (1846–1910) charakterisierte in seinem Artikel Einiges ueber Wolkenformen die verwendeten

1 Internationaler Wolken-Atlas, [hrsg. v.] Hugo Hildebrand Hildebrandsson, Albert Riggenbach, Léon-Philippe Teisserenc de Bort, Gauthier-Villars et Fils, Paris 1989, S. 21. 2 Für eine Übersicht der Teilnehmer siehe Carl Koppe: Photogrammetrie und Internationale Wolkenmessung. Braunschweig 1896, S. 103. 3 Internationaler Wolken-Atlas (s. Anm. 1); Im Wesentlichen basieren die Wolkengattungen auf den vier Wolkenarten, die Luke Howard unterschied (Cirrus, Cumulus, Stratus und Nimbus). Vgl. ders. On the Modification of Clouds. In: Philosophical Magazine 16, Nr. 64, 1803, S. 344–357. 4

Internationaler Wolken-Atlas (s. Anm. 1), S. 25.

98

Sara Hillnhütter

1 Cirrus, Fotografie, Internationaler Wolken-Atlas, Fig. 3.

­ ezeichnungen unter den Meteorologen als „eine unvermeidliche Herrschaft des B subjektiven Elements.“5 Um die sprachliche Benennung der Wolken zu ergänzen hatte Hildebrandsson, der bereits einige Jahre zuvor in Uppsala mit dem Studium der Himmelsbewegungen begonnen hatte, wiederkehrende Wolkenformen fotografiert und in einem Handbuch im Jahr 1879 veröffentlicht.6 Unklar blieb jedoch, ob sich die Klassifizierung der Wolkenformen für alle Erdteile als nützlich erweisen würden. Um diese Frage zu beantworten, reiste der Privatier und Wetterforscher Ralph Abercromby (1842–1897) um die Erde und fertigte in den verschiedenen Klimazonen der Welt „Augenblicks-Photographien“ von Wolken an.7 In seinem Reisebericht kam er zu 5 Wladimir Köppen: Einiges über Wolkenformen. In: Meteorologische Zeitschrift, [hrsg. v.] Österreichische Gesellschaft für Meteorologie, Deutsche Meteorologische Gesellschaft, Bd. 12/Jg. 4, Juni/Juli 1887, S. 203–214/252–261, S. 203. 6 Hugo Hildebrand Hildebrandsson: Sur la classification des nuages employée á l’observatoire métérologique d’Uppsala, Photographies de M. Henri Osti. Uppsala 1879. 7

Wladimir Köppen: Einiges ueber die Wolkenformen (s. Anm. 5), S. 253.

Amorphe Punktwolken

99

2 Cumulus, Fotografie, Internationaler Wolken-Atlas, Fig. 18.

dem Schluss, dass sich deren Hauptformen nicht wesentlich unterschieden, doch bemerkte auch er: „[the] difficulty in the way of any accordance of nomenclature arises from the impossibility of expressing the varying forms of clouds in words […].“8 Fotografien sollten also helfen, die Variablen und Abweichungen von definierten Formen darzustellen. Um erklären zu können, warum die Wolken mal wie eine Feder, mal wie ein Amboss aussahen, wurde für das sogenannte Internationale Wolkenjahr vorgeschlagen, die Wassertröpfchen in der Luft mathematisch zu beschreiben für eine Klassifizierung ohne imaginäre Bilder. Dabei kamen zwei Vermessungsapparate zur Anwendung: Zum einen der Theodolit, also ein Winkelmessgerät, mit dem sich durch ein Fernglas einzelne Wolkenpunkte trigonometrisch, aus dem Brechungswinkel der Linse, bestimmen ließen, zum anderen ein Phototheodolit, der das projizierte Bild zusätzlich chemisch auf einer Glasplatte fixieren konnte. Die große 8 Ralf Abercromby Motion of Dust. In: Quarterly Journal of the Royal Meteorological Society 13, Nr. 62, S. 154–166.

100 Sara Hillnhütter

Herausforderung bestand jedoch darin, Wolken mit dem Handwerkszeug der perspektivischen Projektion zu beschreiben. So formulierte Köppen: Um aus dem Aussehen bezw. der scheinbaren Form der Wolken mit mehr und mehr Sicherheit auf deren wirkliche Form und Textur schliessen zu können, bedarf es einer Perspective-Lehre in Anwendung auf die Wolken, wovon wir bis jetzt nur sehr ungenügend Anfänge besitzen.9

Im 19. Jahrhundert gab es viele Vermessungspraktiken, bei deren Verfahren meist auf vorhandene Abstraktionsschemata am Objekt zurückgegriffen wurde (z. B. geometrische Eigenschaften wie die Orthogonalität der Architektur, oder natürliche Formprinzipien wie die Kreisform eines Planeten). Herta Wolf hat in ihrem Artikel Das Licht im Dienste der Wissenschaft 10 konstatiert, dass Astronomen oder Geodäten nach unterschiedlichen Regeln und Bedingungen verfuhren, die von der Beschaffenheit des Objektes abhingen, aber vor allem an das Wissen geknüpft waren, das um das Objekt herum generiert wurde oder schon vorhanden war. Vermessung stellte also keineswegs eine allein rezeptive Praxis dar: Indem Bildelemente in der Vermessung auf geometrische Figuren wie Kreis, Linie, Winkel und Punkt reduziert wurden, waren sie medial verfügbar, der Gegenstand wurde dabei im Übergang von technischen zu symbolischen Verfahrensweise von seiner Materialität abstrahiert.11 Die zur Vermessung verwendeten Werkzeuge und Zeichen traten in eine Wechselwirkung mit dem Gegenstand, in der Bilder als strukturelle Knotenpunkte Wirklichkeit gleichermaßen aneigneten und evozierten. Die Praxis der Perspektive, die bis in das 20. Jahrhundert hinein an den Kunst­ aka­demien als theoretische Grundlage für den „richtigen“ räumlichen Bildaufbau gelehrt wurde und in der Architektur und Technik zum Einsatz kam, wurde in Auseinandersetzung mit den optischen Geräten und amorphen Gegenständen einer Revision unterzogen. Fraglich blieb für viele Geodäten, wie die Eigenschaften des Bildes mit den Eigenschaften des Objektes zusammenhingen. Um diese Frage zu beantworten, überprüften die Akteure, unter welchen Bedingungen ein fotografisches Bild mit der perspektivischen Projektion auswertbar war. Auffällig dabei ist der Wandel des Begriffes Perspektive, die in der Kunst- und Architekturtheorie dem Wortstamm entsprechend (perspicere, lat. mit dem Blick 9 Köppen (s. Anm. 7), S. 204. 10 Herta Wolf: Das Licht im Dienste der Wissenschaft: Herausforderung Venusdurchgang 1874. Licht = Fotografie und Fotografie des Lichts. In: Licht und Leitung, Archiv für Mediengeschichte, Bd. 2, hg. v. Lorenz Engell, Bernhard Siegert und Joseph Vogl. Weimar 2002, S. 85–100. 11 Vgl. die Definition von Kulturtechnik von Sybille Krämer und Horst Bredekamp, Einleitung. In: Bild – Schrift – Zahl. München 2003, S. 9.

Amorphe Punktwolken

101

durchdringen oder hindurchschauen) eine „richtige“ Darstellung des Raumes meint, als wäre das Bild ein Fenster.12 In dem Wolkenatlas wird der Leser angeleitet, die „Einwirkungen der Perspektive [auf die sichtbare Form der Wolken] zu vermeiden […].“13 Perspektive wird hier zum Begriff, der anstelle einer universellen Sichtbarkeit, wie sie mit der Fenster-Metapher angesprochen wird, vor allem die Einschränkung der Standpunkthaftigkeit beschreibt. Obwohl die Photogrammeter die geometrische Zeichnung streng mathematisch verwendeten, markierte der Begriff im Umgang mit Fotografien ein Konzept von Perspektivität, das die morphologische Veränderlichkeit, also auch die Verzerrung eines Gegenstandes in der Fotografie anzeigte. Unter welchen Bedingungen ließ sich also eine Wolkenfotografie mit perspektivischer Projektion mathematisch auswerten?

Materialität der Vermessung Carl Koppe (1844–1910), der an der Technischen Universität einen Lehrstuhl für Deskriptive Geometrie innehatte, beteiligte sich am internationalen Wolkenjahr. Als Geodät, der verschiedentlich bei größeren Kampagnen wie z. B. der Vermessung des Gotthardtunnels mitgewirkt hatte, gehörte er zu jenen Technikern, die besonders bei schwer zugänglichen Objekten den Phototheodoliten anstelle eines einfachen Messgeräts einsetzten.14 Die Genauigkeit dieser photogrammetrischen Winkelbestimmung ist bei scharf begrenzten Bildern und Objekten wie namentlich Sternen, Kirchturmspitzen, Signalen ec. eine sehr große und der Genauigkeit der direkten Messung nahezu gleichkommend […].15

In der Wolkenphotogrammetrie, so Koppe, bestand die Herausforderung neben der Distanz zum Gegenstand und der unsteten Form der Gebilde darin, mögliche Unschärfen der Apparatur, etwa Krümmungen oder Eintrübungen der fotografischen Linse überhaupt zu bemerken, da „die Wolken ihrer an sich schon unbestimmten Begrenzung und Form halber keine durch Vergrösserung mittelst eines Fernroh-

12 Leon Battista Alberti: Über die Malkunst. Darmstadt 2002. 13 Internationaler Wolken-Atlas (s. Anm. 1), S. 27. 14 Vgl. Koppes erste photogrammetrische Vermessung des Rosstrapefelsens: Carl Koppe, Die Photogrammetrie oder Bildmesskunst. Weimar 1889, S. 69f. 15 Carl Koppe: Hoehe und Bewegungen der Wolken. In: Vom Fels und Meer, Bd. 16, Berlin 1896, S. 516–520, hier S. 519.

102 Sara Hillnhütter

3 Mammato-Cumulus, Internationaler Wolken-­Atlas, Fig. 26.

res bedingte Verschärfung der Einstellung zulassen.“16 Auch die Projektion der Negative auf Papier brachte häufig die Schwierigkeit mit sich, im Endprodukt die Materialität von Papier und Wolke zu unterscheiden ↗ABB. 3 . Aufgrund der fehlenden Wesensmerkmale der Wolke für eine konventionelle Vermessung, nannte Koppe seine Methode zur Fotografie-basierten Berechnung amorpher und ephemerer Objekte Präzisionsvermessung . Präzision bedeutete dabei, die Apparatur derart einzustellen, dass ihre Materialität im Bild unsichtbar bleibe, um eine genaue numerische Bestimmung jeder für das menschliche Auge noch so unbestimmbaren Form vornehmen zu können. Eine Wolke musste dafür in ihr kleinstes, nicht mehr teilbares Element zerlegt werden, den Punkt. 16 Carl Koppe: Photogrammetrie und Internationale Wolkenmessung. Braunschweig 1896, S. 2.

Amorphe Punktwolken

103

4 Schema für Trigono­metrie, in: Photogrammetrie und Internationale Wolkenmessung, Fig 1.

Praktisch lief die Aufnahme wie folgt ab: Die Wolkenvermesser verständigten sich telefonisch, um zwei Kameras von unterschiedlichen Standpunkten auf einen Punkt zu richten und gleichzeitig auszulösen.17 Bei dieser Methode lag das Problem häufig darin, überhaupt einen Bereich am Objekt festzulegen, auf den man die Kamera richten konnte: Es ist naturgemäss nicht leicht für die Beobachter, sich über einen gleichzeitig von ihnen einzustellenden Wolkenpunkt so genau zu verständigen, dass die Visirlinien beider Instrumente wirklich scharf auf einen und denselben Punkt gerichtet sind.18

Die Bilder wurden ausgewertet, indem der Abstand des fixierten Punktes, der in zwei Fotografien aus verschiedenen Blickwinkeln zu finden war, zur sogenannten Basislinie, die sich zwischen den beiden Standpunkten spannte, berechnet wurde ↗ABB. 4 . Aus den zwei Bildebenen ergabt sich ein Koordinatensystem, aus dem sich sämtliche andere, abgebildete geometrische Figuren entwickeln ließen. Die Dreiecksberechnung wurde unter der Bezeichnung Trigonometrie in der Landvermes17 Koppe (s. Anm. 16), S. 2. 18 Koppe (s. Anm 16), S. 2.

104 Sara Hillnhütter

sung, der Astronomie und auf Bauhütten seit Langem praktiziert. Vom Architekten und Denkmalpfleger Albrecht Meydenbauer (1834–1921), der sie auf Fotografien anwendete, wurde dieses Verfahren der nachträglichen Auswertung von Bildaufnahmen als Photogrammetrie bezeichnet.19 Vermessen wurde dabei genau genommen nicht mehr das Objekt, sondern seine zweidimensionale, fotografische Aufzeichnung. Für die Wolkenvermessung kam erschwerend hinzu, dass die Meteorologen die räumlichen Beziehungen zwischen den einzelnen Messungen nicht mittels euklidischer Geometrie zu visualisieren vermochten, d. h. die Wolkenpunkte blieben auch in der Zeichnung und Berechnung immer eine Punktwolke, in der jede Markierung eine individuelle Tiefendimension hatte. Der Theodolit erwies sich als unpraktisch, so Koppe, da er immer wieder genau eingestellt werden müsse; in der Zwischenzeit hätten sich die anvisierten Bereiche wieder bewegt: „Beim Photographieren ist dies anders. Hier wird der ganze Komplex von Punkten, welche im Gesichtsfelde der Camera liegen, als Bild auf einmal abgebildet und photographisch fixiert.“20 Daher bevorzugte Koppe die instantane Aufzeichnung aller Bildbereiche in ihrer restlosen Komplexität.

Genauigkeit durch Reduktion Bis heute ist eine konstante Handlungsanweisung für Vermessungstechniker, die Kamera beim Aufnehmen lotrecht auszurichten. Dieser Vorgang, den man in der Geodäsie generell und auch bei nicht-photographischen Verfahren als Horizontierung bezeichnet, gewährleitet, dass das Objekt auf der Bildebene einigermaßen krümmungs- und verzerrungsfrei dargestellt wird. Viele Photogrammeter kletterten in die Höhe, um Objekte in ihrer inneren Ausrichtung auf die Schwerkraft zu erfassen, also eine möglichst flache Ansicht zu erzielen. Bei der Wolkenphotogrammetrie war die frontale Ausrichtung auf die Objekte dagegen nicht möglich. Die Kamera musste aus einer Froschperspektive die Wolken aufnehmen, dabei trennten sich der Fluchtpunkt der Lichtprojektion, der in der Mitte der Linse lag, vom Horizont, was in einer zeichnerischen Perspektive nicht vorgesehen war ↗ABB. 5 . In der Geschichte der Photogrammetrie zeigt sich deutlich, dass eine geometrische Zeichnung des Lichtkegels und der darin befindlichen Objekte aus einem fotografischen Bild erst ermöglicht werden musste. Um

19 Albrecht Meydenbauer, Über die Anwendung der Photographie zur Architektur- und Terrainaufnahme (Photometrographie): Zeitschrift für Bauwesen 17, S. 63–70, Berlin 1867. 20 Koppe (s. Anm. 15), S. 519.

Amorphe Punktwolken

105

5 Schemata für gerade und gekippte Ebenen, Photogrammetrie und Internationale Wolkenmessung, Fig 1.

Perspektivkonstruktion und Lichtkegel zur Deckung zu bringen, wurde das Bild horizontiert, so dass Flucht- und Brennpunkt auf dem Horizont lagen. Koppe löste das Problem der gekippten Bildebene, indem er die entstandenen Bilder wieder in die Kamera einlegte und durchleuchtete ↗ABB. 6 . Man gibt hierzu […] der aus ihrem Conus herausgenommenen Camera in einem Aufsatzstücke genau dieselbe Neigung, welche sie bei der photographischen Aufnahme hatte, beleuchtet die eingesetzte und vorher fixierte photographische Platte nach Abnahme des Deckels von der Rückseite und betrachtet sie dann durch das in die Achsenlager des Theodoliten eingelegte Hilfsfernrohr.21

21 Koppe (s. Anm. 15), S. 519.

106 Sara Hillnhütter

6 Phototheodolit mit Anbau, in Beiträge zum Carl-Koppe-Gedächtniskolloquium, S. 72.

Er verwendete also den Phototheodoliten selbst, um das Bild optisch zu vermessen. Dafür markierte Koppe Punkte auf der Platte, indem er mit dem Zirkel in das Negativ stach, um die Messung möglichst präzise wiederholen zu können: „Durch eine Lupe unterstützt, kann man fein eingestochene Punkte bis auf 0,05 mm genau ablesen.“22 Koppe und auch andere Geodäten nannten die geometrische Bearbeitung der Fotografien mit Zirkel, Lineal und Bleistift „niedere Photogramme­ trie, welche sich mit der geringeren Genauigkeit graphischer Methoden begnügt.“23 Damit war gemeint, dass die Materialität der verwendeten Werkzeuge und der Bezugsrahmen von Auge und Hand die Genauigkeit der Zeichnung begrenzte.24 Koppe entwickelte eine Formel, mit der er die Lagebestimmung einzelner Punkte numerisch vornehmen konnte. Fotografie und Perspektive boten für die wissen22 Koppe (s. Anm. 16), S. 59. 23 Koppe (s. Anm. 14), Einleitung, V. 24 Vgl. den Beitrag von K. Lee Chichester im vorliegenden Band.

Amorphe Punktwolken

107

schaftliche Praxis Handlungsoptionen, weil mittels der Projektion auf einen Punkt hin, den Brenn- oder Fluchtpunkt, die Körperlichkeit der Objekte auf die Fläche abstrahiert wurde. Der Punkt ermöglichte die algebraische Nullstellung, welche als produktive Leerstelle die Basis für die Umformung in eine Gleichung bildete, somit konnten die dargestellten Objekte transitiv in mathematische Symbole umgeformt werden.25 Die Reduktion des körperlichen Einsatzes und die vereinfachte Wiederholbarkeit der Messung stellten für Koppe die zentralen Vorteile gegenüber konventionellen Verfahren dar. Doch gerade diese Nachträglichkeit und das Plausibilisieren der Rechenergebnisse widersprach der wissenschaftlichen Haltung vieler Geo­ däten: Ein solches nachträgliches Verwerfen, bezw. Auswählen von Beobachtungen und Messungen nach dem berechneten Erfolge hat aber viel Missliches an sich. In der Geodäsie wird es als unstatthaft betrachtet, und mit Recht, denn man bekommt gar zu leicht eine falsche Vorstellung von der Genauigkeit der Endresultate, weil nach geschehener Auswahl, oder vielmehr eben in Folge derselben eine grössere Uebereinstimmung erzielt wurde.26

Im Vorgang der Vermessung wurde also sowohl die Körperlichkeit der Forscher reduziert, indem das Verfahren an den Schreibtisch verlagert wurde, als auch der Gegenstand auf die Fläche abstrahiert.27 Mit der Bildvermessung vermochte man somit Erfahrungselemente in der wissenschaftlichen Praxis zu reduzieren, damit wurden aber Fragen nach der Genauigkeit im Sinne von Zielsetzung und Glaubwürdigkeit des entstandenen Wissens diskursiviert.

Präzision im Kleinen und im Großen Zu Beginn seiner Publikationstätigkeit hatte Koppe Genauigkeit definiert als eine numerische Punktbestimmung mit einem Fehlerquotienten von 1:4000, also einer Lagebestimmung von Wolkenpunkten bis auf die vierte Kommastelle. Die Photogrammetrien einer Wolke ermöglichten, so die Vorstellung Koppes, die theoretisch restlose numerische Definition der darin befindlichen Bildpunkte. Die Qualität der 25 Sybille Krämer: Leerstellen-Produktion. In: Helmar Schramm u. a. (Hg.): Instrumente in Kunst und Wissenschaft. Berlin 2006, S. 502–506, S. 506. 26 Koppe (s. Anm. 16), S. 2. 27 Harun Farocki: Die Wirklichkeit hätte zu beginnen. In: Farocki, Nachdruck: Texte, hg. von Susanne Gaensheimer und Nicolaus Schafhausen, Vorwerk 8, Berlin 2001, S. 187–213, S. 191.

108 Sara Hillnhütter

Formelberechnung im Vergleich zur graphischen Projektion lag darin, den Bildraum ohne Winkel und Linien beschreiben und skalieren zu können, d. h. für jeden einzelnen Punkt eine individuelle Tiefendimension zu berechnen. Reinhard Süring (1866–1950) der die Ergebnisse des Internationalen Wolkenjahres in einem Artikel kommentierte, sah darin eine fehlgeleitete Vorstellung von Fehlerbeherrschung, denn „die Abweichungen einzelner aus verschiedenen Bestimmungsstücken abgeleiteten Koordinaten des Wolkenpunktes“ seien „als Genauigkeitsmaß ganz irreführend,“ da sie den Eigenschaften des Gegenstandes keine Rechnung trügen.28 Auch andere Beteiligte sprachen sich aus Gründen der Praktikabilität gegen die von Koppe vorgeschlagene restlose Aufnahme einzelner Wolkengebilde aus, darunter Filip Åkerblom, Mitarbeiter von Hildebrandsson in Uppsala: Die Beobachtungen, welche in Upsala [sic] mit Photogrammetern angestellt wurden, beweisen, dass die Anwendung dieser Instrumente Resultate von grosser Genauigkeit gibt. Die Reduktionsmethoden, um die auf den Clichés gemessenen Koordinaten in ihre wahren Winkelwerthe zu verwandeln, sind aber, wenigstens so weit sie bisher angewendet wurden, viel zu kompilicirt. [Verweis auf Koppe]29

Åkerblom brachte als Gegenvorschlag eine ungefähre Punktbestimmung ins Spiel, welche für die grobe Erfassung der Höhe und Richtung der Wolken ausreichend wäre und den Abgleich der Ergebnisse zwischen den Akteuren vereinfachte. Er entwickelte ebenfalls eine Formel zur Auswertung der Photogrammetrien. Aus einer Tabelle konnten die Teilnehmer des Wolkenjahres die von der Fotografie abgemessenen Längen ohne weitere Berechnung den wirklichen Wert ablesen. Aus den zusammengetragenen Aufnahmen sollte sich ein Gesamtbild der Luftströme auf der Erde ergeben, das idealiter eine Wettervorhersage zu ermöglichen vermochte. Für eine Zusammenarbeit zwischen den einzelnen Vermessungsstationen, die zum Großteil in Europa und Nordamerika verteilt lagen, waren passende Zeit und Ortsangaben grundlegend.30 Koppe schlug daher vor, die Lage der Beobachtungsstationen vorab in das mathematische Kalkül zu integrieren.

28 Reinhard Süring: Bericht über die Ergebnisse der deutschen Wolkenbeobachtung während des internationalen Wolkenjahres, in: Meteorologische Zeitschrift. Stuttgart August 1904, S. 358–371, hier S. 360. 29 Filip Åkerblom: Über die Anwendung von Photogrammetern zur Messung von Wolkenhöhen. In: Meteorologische Zeitschrift, Juni 1894, XI, S. 219f. 30 Herta Wolf: Wolken, Spiegel und Uhren. Eine Lektüre meteorologischer Fotografien. In: Fotogeschichte, Heft 48, 1993, S. 3–18.

Amorphe Punktwolken

109

Drei Beobachtungsstationen legt man zweckmässig so, dass die Entfernung rund 700m und 2000m betragen, und die Standpunkte ein rechtwinkliges Dreieck ­bilden, dessen Seiten den Hauptbewegungsrichtungen der Wolken entsprechen.31

Die Abstimmung zwischen den Stationen sollte zudem die Bezugnahme zwischen den Bildern erleichtern und deren Wert erheblich erhöhen: In Deutschland könnte bei gleichzeitiger Theilnahme von Braunschweig und ­Danzig mit Potsdam nach einheitlichem Plane eine weit grössere Vollständigkeit und Sicherheit erreicht werden, zumal in Potsdam und Braunschweig gleichartige Instrumente benutzt werden.32

Es galt also, sich zunächst über Ziele und Nutzen in der Wetterforschung zu verständigen, um eine gemeinsame Disziplin zu entwickeln, und dies erforderte wiederum die „Präcisirung der Aufgabe durch eine klare und genaue Anleitung, bezw. Instruction für den Beobachter in Bezug auf Alles, was durch die photogrammetrische Aufnahme ermittelt und festgestellt werden soll.“33 Die Abstimmung der Fragestellung und der Auswertungsverfahren sollte vor allem dazu führen, den anfallenden Arbeitsaufwand zu rechtfertigen und zu begrenzen.34

Vermessung als Kontingenzbewältigung In der Geschichte der Vermessungstechnik warben die Akteure häufig mit dem gesellschaftlichen Nutzen ihrer Verfahrensweisen: Dazu sollte beispielsweise gehören, Unwetter vorauszusagen, Denkmäler vor etwaigen Einflüssen zu schützen oder Kriminalität vorzubeugen.35 Das gemeinsame Ziel der Vermessungstechniker war also Komplexität zu bewältigen, indem Wissen akkumuliert wurde, das helfen sollte mittels einer mathematischen Simulation Ereignisse zu prognostizieren. Fotografie reproduzierte Kontingenz36 und ermöglichte zum einen in der Wetterbeobachtung die Unwägbarkeiten der Formen aufzunehmen. Doch die restlose Erfassung

31 Koppe (s. Anm. 16), S. 84. 32 Koppe (s. Anm. 16), S. 105. 33 Koppe (s. Anm. 16), S. 76. 34 Koppe (s. Anm. 16), S. 108. 35 Vgl. Francis Galton: Inquiries Into Human Faculty and Its Development. London 1883. ­Albrecht Meydenbauer: Ein deutsches Denkmäler-Archiv. In: Deutsche Bauzeitung 18, Heft 2, 1894, S. 629–631. 36 Peter Geimer: Bilder aus Versehen. Eine Geschichte fotografischer Erscheinungen. Hamburg 2010.

110 Sara Hillnhütter

der Abweichungen, brachte wie Koppe deutlich formulierte, eine Überforderung menschlicher Arbeitskraft mit sich, etwa in Gestalt massenhafter Fotoserien: Eine einzelne Wolkenaufnahme ist zu sehr vom Zufalle abhängig; um das Gesetzmässige bei diesen wechselvollen Erscheinungen erkennen zu können, wird man Mittelwerthe aus mehreren Einzelaufnahmen bilden müssen.37

Um den Mittelstand für einen Monat zu charakterisieren, so Koppe, würden 1440 Doppelaufnahmen benötigt. Sogenannte Mittelwerte, aus denen Koppe Gesetzmäßigkeiten für die Wolkenform formulieren wollte, wurden vor allem schwierig, wenn es sich um die Minima und die Maxima, wie die großen und kleinen Formen und Wirbel der Wolke genannt wurden, drehte. Bei einer grossen jährlichen Anzahl, namentlich der Minima, und bei dem zu hinreichend vollständigen Aufnahme eines einzelnen erforderlichen Umfange der Messungen, wird man mit einer der obigen Zahl gleichen Anzahl von Doppelaufnahmen kaum ausreichen, um die Hauptminima und -maxima in ihren Verlaufe sicher zu charakterisieren, geschweige denn auch alle secundären Wirbel, die Gewitter u. dergl.38

Bei der Wolkenvermessung stellte sich also die Aufgabe, die Umrisslinien, aus einem Überblick über die großen Strukturen bis in kleinste Strudel zu verfolgen. Da gerade diese Wirbel die bewegte Form der Wolke auszumachen schienen, verglichen die Wissenschaftler sie mit vom Wind bewegtem Sand, oder Strukturen in der Geologie.39 Die Parametrisierung der Wolke führte nur schwerlich dazu, die Unwägbarkeiten der Form mit der Vermessung zu reduzieren; vielmehr übertrug sich ihre Komplexität in die um das Objekt zirkulierenden Wissensstrukturen , deren Schnittstelle das Bild darstellte. Da sich die Punktiteration nicht geometrisch, also zeichnerisch reduzieren ließ, schlug der Mathematiker und Meteorologe Francis John Welsh Whipple (1876–1943) die Kompositmethode des Physiologen Francis Galton (1822–1911) vor.40 Galton 37 Koppe (s. Anm. 16), S. 103f. 38 Koppe (s. Anm. 16), S. 104. 39 Ralph Abercromby: Motion of Dust. In: Quarterly Journal of the Royal Meteorological Society 16, Nr. 74, April 1890, S. 119–126. 40 M. G. Whipple: Composite portraiture adapted to the reduction of meteorological and other similar observations. In: Quarterly Journal of the Royal Meteorological Society, Jg. 9, Heft 48, 1883, 189–193. Vgl. Herta Wolf: Wolken, nicht nur um ihrer selbst willen. In: Basler Magazin, Nr. 19, 11. Mai 1991. S. 6f. und Herta Wolf: Fixieren – Vermessen. Funktionen fotografischer Registratur in der Moderne. In: Susanne Holschbach u. a. (Hg.): Riskante Bilder. Kunst Medien Literatur. München 1995, S. 239–261, hier S. 252.

Amorphe Punktwolken

111

hatte einzelne Negative auf ein Blatt belichtet, um einen statistischen Mittelwert im Bild zu generieren.41 Anstelle eines mathematischen Verfahrens sollte ein Bildprozess zur Reduzierung dienen: „[…] the labour of reduction may in many cases be saved by making use of the graphic or composite, instead of the purely numerical method.”42 Whipple kommentierte, im Kompositbild zeige sich die wahre Kurve der täglichen Variationen: „Several sets of curves having been so treated, the typical curves drawn which will be still less affected by abnormal movements; so eventually the true curve of diurnal variation would be arrived at.“43 Eine Reduktion der komplexen fotografischen Erscheinung bedeutete das Überlagern verschiedener Zustände der Wolken auf ein Blatt, bevor man diese parametrisierte. Der Meteorologe und Mathematiker Edward Lorenz (1917–2008), der sich in der Chaos-Forschung profilierte, datierte die Formulierung des sogenannten Phasenraumes und die Untersuchung dynamischer Systeme in die Astronomie und Wetterforschung der zweiten Hälfte des 19. Jahrhunderts.44 Ein Phasenraum gibt mehrere Zustände eines bewegten Systems wieder; in der Darstellung wird ein Zustand durch einen Punkt repräsentiert. So Lorenz: „This is a hypothetical n- dimensional space in which each state of the system is represented by a point, and particular solutions appear as special curves – solution curves.“45 Die „Lösungskurve“, oder wie Whipple sie nannte, die „wahre“ Kurve, sollte also in der Kompositfotografie durch die Überlagerung verschiedener zeitlicher Zustände entstehen, womit die Punkte sich sowohl räumlich, als auch zeitlich auf einander bezögen. Der Mathematiker Benoît Mandelbrot formulierte erstmals im Jahr 1975 geometrische Mengen, die sich mehrdimensional auffächern. Er verwendete dafür den Neologismus Fraktal , dessen Wortstamm von dem lateinischen frangere abgeleitet ist, das zerbrechen, hier wohl das zergliedern der Fläche in mehrere Ebenen bedeutet.46 Bevor Mandelbrot eine Neuformulierung der Geometrie vornahm ermöglichte die auf Optik und Chemie basierten Apparate, scheinbar formlose Wirbel aufzunehmen und aus der Mehrfachbelichtung einen Bildprozess einzuleiten, der bereits einen Phasenraum veranschaulicht. Denn der „Bilderzeugungsprozess von Fraktalen beruht auf Iteration, sie sind prototypische Prozessbilder; die Bewegung

41 Der Eugeniker Galton hatte sich bemüht, Verbrechertypen anhand seiner Kompositportraits für die Kriminologie zu finden. Vgl. Galton (s. Anm. 35). 42 Whipple (s. Anm. 40), S. 192. 43 Whipple (s. Anm. 40), S. 190. 44 Edward Lorenz: Essence of Chaos. Seattle 1993, S. 119f. 45 Lorenz (s. Anm. 44), S. 117. 46 Nina Samuel: Die Form des Chaos. Bild und Erkenntnis in der komplexen Dynamik und der fraktalen Geometrie. München 2014, S. 120.

112 Sara Hillnhütter

eines Punktes im Raum ist das generative Prinzip“, wie es Nina Samuel in ihrer Geschichte der Fraktale beschreibt.47 Am Ende des 19. Jahrhunderts trafen die Praktiken von systematischer Figuration in der Mathematik auf komplexe und unregelmäßige Gegenstände in der Natur, die in optischen Apparaten in ihrer materiellen und körperlichen Fülle auf die Fläche abstrahierbar und fixierbar waren. In Momenten, in denen sich die Struktur nicht mehr mit der Systematik der Geometrie beschreiben ließ, bedurfte es einer Entwicklung neuer Verfahrensweisen. So wurde der Gegenstand vermessen und handhabbar gemacht, beeinflusste dabei aber auch die Praktiken und die Symbolik, mittels derer das Wissen formuliert und tradiert wurde. Das von den gängigen Möglichkeiten wissenschaftlicher Visualisierung abweichende Wesen der Wolke, zeigte sich also gerade in der präzisen Vermessungspraxis als widerständig, indem das Gebilde scheinbar Abweichung und Regel verkehrte. Das, was Koppe als „wahre“ Fehler benannte, die bei einer präzisen Anwendung der Apparatur nicht auf die Technik und bei einer genauen Anwendung der Mathematik nicht auf die Auswertung zurückzuführen waren, spiegelte den chaotischen Formverlauf der Wolke und ihren Charakter als Möglichkeitsform wieder.48

Schluss Der Philosoph Edmund Husserl problematisierte die Fokussierung auf präzise Messung in der europäischen Wissenschaft, die das Anschauen wirklicher und möglicher Gestalten bereitstelle. Gerade die Praxis der Möglichkeitsabwägung im Sinne einer Kontingenzbewältigung bewertete er als „[…] eine Voraussicht, welche die Leistungen der alltäglichen Voraussicht unendlich übersteigt.“49 Die theoretische Aufwertung von Messtechniken innerhalb wissenschaftlicher ­Praxis deutete Husserl als Krise, denn Ziel und Sinn der Messung erhebe sich zum Selbstzweck: Aber die Messkunst ist in sich zugleich Kunst, die „Genauigkeit“ der Messung in Richtung auf eine aufsteigende Vervollkommnung immer weiter zu treiben. Sie ist eine Kunst, nicht als fertige Methode, etwas fertig zu machen, sondern zugleich

47 Samuel (s. Anm. 46), S. 124. 48 Koppe (s. Anm. 16), S. 14. 49 Edmund Husserl: Die Krisis der europäischen Wissenschaften und die transzendentale Phänomenologie. Eine Einleitung in die phänomenologische Philosophie. In: Philosophia 1, 1936, S. 77–176, hier S. 127.

Amorphe Punktwolken

113

Methode, ihre Methode immer wieder zu verbessern durch Erfindung immer neuer Kunstmittel (z. B. instrumentaler).50

Husserl fordert hier die Verankerung von Zielen für die wissenschaftliche Handlung, die außerhalb einer technischen, vermessenden Praxis stehen. In der Meteoro­ logie führte der Maßstab der technischen Präzision erst einmal dazu, dass die gesammelten Daten von einzelnen Forschern nicht mehr zu bewältigen waren. Im Jahr 1922 veröffentlichte der Engländer Lewis Fry Richardson (1881–1953) eine Anleitung zur numerischen Wettervorhersage Weather Prediction by Numerical Process , die er mit der Vorstellung eines Zentrums abschloss, indem 64.000 menschliche Computer, also nahezu eine „forecast factory“ ein atmosphärisches Feld von 400 Kilometern Kantenlänge rechnerisch simulieren sollten.51 Der Mathematiker John von Neumann (1903–1957) verwendete die in der Meteorologie gesammelte Datenfülle, um seine Rechenmaschine auszuprobieren.52 Auch wenn sich Wettervorhersagen mit immer höherer Wahrscheinlich treffen lassen, bietet die Geschichte der Meteorologie ein Beispiel dafür, wie sich Reduktion und Komplexität in der Praxis der Genauigkeit strukturell verlagern und bedingen. Kontingenz wird dabei nicht bewältigt, sondern die Objekte und Werte wissenschaftlicher Praxis werden dabei selbst zu Möglichkeitsformen: damit stehen sie oft nicht als Endpunkt, sondern am Anfang Wissen schaffender Dynamik.

50 Husserl (s. Anm 49), S. 115. 51 Lewis Fry Richardson: Weather Prediction by Numerical Process (1922), New York 1965, S. 219. Vgl. Isabell Schrickel: Bypassing Mathematics. Das Verhältnis von Bild und Zahl in der Geschichte der Meteorologie, Bildwelten des Wissens Bd. 7,2. Mathematische Formeln, S. 9–18, hier S. 12. 52 Lorenz (s. Anm. 44), S. 98.

Michael Heidelberger

Exaktheit und Präzision in der mathematischen Naturwissenschaft

Wenn nicht mehr Zahlen und Figuren Sind Schlüssel aller Kreaturen Wenn die so singen, oder küssen, Mehr als die Tiefgelehrten wissen, Wenn sich die Welt ins freye Leben Und in die Welt wird zurück begeben, Wenn dann sich wieder Licht und Schatten Zu ächter Klarheit wieder gatten, Und man in Mährchen und Gedichten Erkennt die wahren Weltgeschichten, Dann fliegt vor Einem geheimen Wort Das ganze verkehrte Wesen fort Novalis1

In diesem Gedicht kommt ein Vorurteil gegen die Mathematiker zum Ausdruck, das auch heute noch viele hegen, auch wenn sie die Alternative, die Novalis in seinem Gedicht propagiert, nicht in jeder Hinsicht teilen. Der Dichter spricht es nicht an, aber man kann es leicht mit seinen Auffassungen in Verbindung bringen: Das verkehrte Wesen der Mathematik liege in ihrem fehlgeleiteten Präzisionsanspruch. Novalis stellt einen Gegensatz her zwischen der Welt der Zahlen und Figuren auf der einen Seite und der Welt der Erfahrung, des freien Lebens, von Licht und Schatten auf der anderen. In einem anderen Zusammenhang sieht Novalis die Mathematik aber durchaus auch positiv und in ihrem Wesen vergleichbar mit der Sprache, etwa wenn er schreibt: „Wenn man den Leuten nur begreiflich machen könnte, daß es mit der Sprache wie mit den mathematischen Formeln sei – Sie machen eine Welt für sich aus […] eben darum spiegelt sich in ihnen das Verhält-

1 Novalis: Heinrich von Ofterdingen. In: Schriften. Die Werke Friedrich von Hardenbergs. Historisch-kritische Ausgabe, hg. von Paul Kluckhohn und Richard Samuel. 4 Bde., Darmstadt 1977, Bd. 1, S. 344f.

116 Michael Heidelberger

nißspiel der Dinge.“2 Hier wird die Mathematik als eine in sich geschlossene Welt gesehen, die aber die Verhältnisse der Dinge zueinander spiegeln kann. Mit diesen Worten legt Novalis eine moderne Einstellung an den Tag, die erst im 20. Jahrhundert ihren Höhepunkt erreichen sollte.3 Ihr zufolge ist die Mathematik ein reines Formelspiel, das keinerlei Bezug zur erfahrbaren Welt besitzt. Mit David Hilberts Grundlagen der Geometrie von 1899 wird endgültig, wie Hans Freudenthal sich ausdrückte, „die Nabelschnur zwischen Realität und Geometrie durchgeschnitten. Die Geometrie ist reine Mathematik geworden.“4 Ihre Grundbegriffe sagen nicht mehr und nicht weniger aus, als was in den Axiomen über ihre Beziehungen zueinander festgelegt wird. „Irgendeine Kenntnis oder Anschauung wird von diesen Gegenständen [der Geometrie] nicht vorausgesetzt, sondern nur die Gültigkeit jener ebenfalls rein formal, d. h. losgelöst von jedem Anschauungs- und Erlebnisinhalte, aufzufassenden Axiome,“ schrieb Albert Einstein in seinem Vortrag über Geometrie und Erfahrung von 1921, in dem er sich zu Hilberts Auffassung bekannte.5 Da die Bedeutungen der geometrischen Begriffe keinen externen Bezug haben, sind sie durch die axiomatische Beschreibung per definitionem genau und vollständig. Doch ist mit dieser Auffassung zugleich das nächste Rätsel aufgegeben, nämlich warum die Mathematik überhaupt auf die Welt anwendbar ist. Nicht nur die hoch entwickelten Naturwissenschaften, sondern schon in einfachsten Alltagszusammenhängen kommen wir ohne Mathematik nicht aus. Für mehr als 2000 Jahre jedoch sahen die Menschen in ihrer Anwendung kein Problem. Der Kern ihrer Auffassung von Mathematik stammte aus dem Aristotelischen Denken.6 Mathematische Gegenstände sind nichts, was von den sinnlichen Gegenständen getrennt wäre, sie haben keinen unabhängigen substanziellen Charakter. Sie sind nicht dem Sein nach früher als das Sinnliche, sondern bloß dem Begriffe nach. Wir gelangen zur Mathematik, so Aristoteles, indem wir von den sinnlichen Eigenschaften der Gegenstände absehen – im begrifflichen Denken alles abstrahieren, was nicht Größe an ihnen ist.

2 Novalis: Monolog von 1798. In: Ders. (s. Anm. 1), Bd. 2, S. 672. 3 Vgl. hierzu auch Hans Niels Jahnke: Mathematik und Romantik. Die Aphorismen des Novalis zur Mathematik. In: Unikate 33, 2008, S. 30­­–41. 4

Hans Freudenthal: Zur Geschichte der Grundlagen der Geometrie, zugleich eine Besprechung der 8. Auflage von Hilberts ‚Grundlagen der Geometrie‘. In: Nieuw Archief voor Wiskunde 5, 1957, Heft 4, S. 105–142, hier S. 111.

5

Albert Einstein: Geometrie und Erfahrung. Sitzungsberichte der Preußischen Akademie der Wissenschaften Berlin. Philosophisch-Historische Klasse. Berlin 1921, S. 123–130, hier S. 124 f.

6 Grundlegend ist dabei Aristoteles: Metaphysik, 13. Buch (Buch M), Kapitel 1–3.

Exaktheit und Präzision in der mathematischen Naturwissenschaft

117

Gemischte Mathematik Der Weg bis zur höchsten Abstraktionsstufe kann gleichwohl auch in unterschiedlichem Ausmaß einzelne Eigenschaften konkreter Gegenstände berücksichtigen. In diesem Fall betreibt man das, was seit dem frühen 17. Jahrhundert als mathematica mixta bezeichnet wurde: eine die sinnlichen Eigenschaften in verschiedenem Ausmaß mit einbeziehende, ‚gemischte‘ Mathematik.7 Der Begriff einer gemischten Mathematik stellt noch keine wie auch immer geartete Vorform einer mathematisierten Physik dar. Physik ist für die aristotelische Tradition, grob gesagt, die Wissenschaft von der Veränderung der Natur in der wahrnehmbaren Welt. Natur ist dabei das, was „in sich selbst einen Anfang von Veränderung und Bestand hat.“8 Wenn wir die mathematischen Eigenschaften der Welt betrachten, abstrahieren wir jedoch von den Veränderungen. Demgemäß wird die Wichtigkeit der gemischten Mathematik für die Physik vom Aristotelismus als gering eingestuft. Noch d’Alembert unterscheidet in der französischen Encyclopédie von 1765 zwischen Mathématiques pures und Mathématiques mixtes .9 Um die Wende zum 19. Jahrhundert trifft man häufiger auf den Ausdruck angewandte Mathematik, ohne dass damit die frühere Bedeutung notwendigerweise schon aufgegeben wäre. So schreibt zum Beispiel noch 1791 der Mathematikprofessor Johann Heinrich Voigt aus Jena: So lange man bey den Größen an nichts weiter denket, als an das, was ihnen als Größen eigen ist, so sagt man, daß man sie rein, oder von allen übrigen, etwa an sich habenden Eigenschaften abgesondert, betrachte […]. Sobald man aber ausser dem was die Größe angeht, auch noch andere Eigenschaften der Gegenstände mit in Betracht zieht, so hat man die angewandte Mathe­matik. Z. B. ich stelle mir bey einem Dreyeck ausser seinen Seiten und ­Winkeln überhaupt, auch noch besonders die eine Seite als eine Ebne vor, auf welche eine Tonne hinauf gewälzt werden soll; die andere als das Stück der 7

Zur gemischten Mathematik vgl. Lorraine Daston: Fitting Numbers to the World: The Case of Probability Theory. In: William Aspray, Philip Kitcher (Hg.): History and Philosophy of Modern Mathematics (Minnesota Studies in the Philosophy of Science XI). Minneapolis 1988, S. 221–237; Sayaka Oki: The Establishment of ‘Mixed Mathematics’ and Its Decline 1600–1800. In: Historia Scientiarum – International Journal of the History of Science Society of Japan 23, 2013, Heft 2, S. 82–91; Reinhard Siegmund-Schultze: The establishment of the notion and of the word ‘applied mathematics’ around 1800. In: From ‘Mixed’ to ‘Applied’ Mathematics: Tracing an important dimension of mathematics and its history. Mathematisches Forschungsinstitut Oberwolfach, Report 12/2013, S. 663–665, hier S. 664.

8 Aristoteles: Physik. Vorlesung über die Natur. Griechisch-deutsch, hg. von Hans Günther Zekl. Bd. 1 (Buch I–IV), Hamburg 1986, hier Buch II, 192 b. 9 Eintrag ‚Mathématique, ou Mathématiques‘. In: Denis Diderot & Jean le Rond d’Alembert: Encyclopédie ou Dictionnaire raisonné des sciences, des arts et des métiers. Band 10, Paris 1765, S. 188 f.

118 Michael Heidelberger

­ rdfläche über welches jene Last hinweg, und die dritte als die Höhe, auf welche E sie hinauf gehoben werden soll: so gehört nun diese Betrachtung des Dreyecks nicht mehr in die reine, sondern in die angewandte Mathematik.10

Es ist zu vermuten, dass auch der Siegeszug der Analysis seit dem späten 18. Jahrhundert den Auffassungswandel von Anwendung in der Mathematik mit bewirkte. Es ist schwer einzusehen, dass die Verwendung der Infinitesimalrechnung auf verschiedenen physikalischen Gebieten jeweils eine neue Disziplin generieren sollte, wie es die Konzeption der gemischten Mathematik eigentlich erfordern würde. Plausibler erscheint es, auch in diesem Fall von einer allgemeinen mathematischen Theorie auszugehen, die sich je nach empirischem Bereich in unterschiedliche Varianten gesondert darstellt. Der Bezug zur Erfahrung beruht also eher darauf, dass man einen erfahrbaren Fall als Spezialisierung einer abstrakten mathematischen Theorie auffasst und nicht, wie in der früheren Sicht, als eine konkrete empirische Erweiterung einer solchen. Kant schrieb in diesem Sinne, „dass Mathematik das Allgemeine in concreto (in der einzelnen Anschauung) und doch durch reine Vorstellung a priori erwägen kann.“11 Es scheinen aber auch philosophische Auffassungen bei dieser Entwicklung Pate gestanden zu haben. John Locke bestritt in seinem Essay, dass mathematische Gegenstände als solche in irgendeiner, wenn auch noch so schwachen, Art und Weise empirische Realität besitzen, wie es die herkömmliche Auffassung der gemischten Mathematik nahelegt. Mathematisches Wissen ist vielmehr Wissen um unsere selbstgeschaffenen Ideen, die in der erfahrbaren Welt nur so weit existieren, wie diese Welt mit ihnen übereinstimmt: The mathematician considers the truth and properties belonging to a rectangle or circle only as they are in idea in his own mind. For it is possible he never found either of them existing mathematically, i. e. precisely true, in his life. But yet the knowledge he has of any truths or properties belonging to a circle, or any other mathematical figure, are nevertheless true and certain, even of real things existing: because real things are no further concerned, nor intended to be meant by any such propositions, than as things really agree to those archetypes in his mind.12

10 Johann Heinrich Voigt: Grundlehren der reinen Mathematik. Jena 1791, S. 7 (§§ 14 und 15). 11 Immanuel Kant: Kritik der reinen Vernunft. 2. Auflage Riga 1787, B 762f. 12 John Locke: An Essay Concerning Human Understanding. London 1690, IV, iv, 6.

Exaktheit und Präzision in der mathematischen Naturwissenschaft

119

Exaktheit und Präzision Mit John Locke kommen wir dem Verständnis von Präzision und Exaktheit der Mathematik näher. Bei genauer Beschäftigung mit seiner Auffassung stellt man fest, dass er ein Problem mit der Präzision, das in der Konzeption der gemischten Mathematik auftaucht, elegant gelöst hat. Wenn das Wesen rein mathematischer Gegenstände etwas ist, auf das wir am Ende einer sukzessiven Abstraktion von sinnlichen Eigenschaften stoßen, was berechtigt uns dann beispielsweise den vollkommenen Kreis als einen Gegenstand der reinen Mathematik zu nehmen? Warum nicht auch den unvollkommenen Kreis, der übrigbleibt, wenn wir von seiner materiellen Realisierung absehen? Die Antwort, dass die Unvollkommenheit des Kreises eine sinnliche Eigenschaft ist, von der ebenfalls noch abstrahiert werden muss, um einen reinen Kreis zu erhalten, kann nicht ausreichen. Mit demselben Recht könnte man auch die Rundheit des Kreises als sinnliche Eigenschaft ansehen, von der genauso noch zu abstrahieren wäre, um zum reinen mathematischen Gegenstand zu gelangen. Für Locke ist dies kein Problem: Auch wenn wir keine idealen Gegenstände in der Realität finden, hat es doch Sinn sie anzuerkennen und mathematisch mit ihnen umzugehen. Als reine mathematische Gegenstände kommen sie mit ihrer Präzision nur durch unsere eigenen Ideen ins Spiel. Mit Überlegungen von Moritz Epple lässt sich die schwankende Terminologie in Bezug auf Exaktheit und Präzision vereinheitlichen: „Unter dem Begriff der Exaktheit“, schreibt Epple, „verstehe ich hierbei ein Ideal, das sich auf die inneren Regeln wissenschaftlichen Argumentierens bezieht. Eine Argumentation ist in dem Maß exakt, wie sie strengen Regeln, einer Disziplin genauen Argumentierens folgt.“13 Das Paradigma der Exaktheit in diesem Sinne waren von alters her die Elemente des Euklid, die übrigens auch von Aristoteles beeinflusst wurden. Die allgemeinen grundlegenden Prinzipien sind dort in den Axiomen niedergelegt, an deren Wahrheit nicht gezweifelt wird. Der Aufbau ist deduktiv, das heißt, Lehrsätze der Geometrie sind nur solche Sätze, die aus den Axiomen folgen. Von früh an wurde diskutiert, was genau die Regeln sind, welche die Exaktheit der Geometrie im Sinne Euklids ausmachen. Außerdem versuchte man immer wieder, Lücken und Inkonsequenzen in den überlieferten Texten zu überwinden, was die Diskussion um Exaktheit in Gang hielt.

13 Moritz Epple: Präzision versus Exaktheit. Konfligierende Ideale der angewandten mathematischen Forschung. In: Berichte zur Wissenschaftsgeschichte 25, 2002, S. 171–193, hier S. 174.

120 Michael Heidelberger

„Unter dem Wert der Präzision“, fährt Epple fort, verstehe ich dagegen, soweit mathematische Wissenschaften betroffen sind, einen relationalen Wert, der den Vergleich zweier Elemente wissenschaftlicher Praxis regelt. Die beiden Elemente sind dabei unterschiedlich erzeugt; was präzise ist oder nicht, ist die Übereinstimmung dieser Elemente.14

Zu denken wäre hier an die Repräsentation empirischer Daten durch eine mathematische Theorie. Bekannt ist zum Beispiel die Rolle, welche die Präzisionsmessungen der Marsbahn durch Tycho Brahe für Johannes Kepler spielten. Obwohl Tycho bei seinen Beobachtungen noch kein Fernrohr verwendete, erreichte er in seinen Messungen eine bis dahin unerhörte Genauigkeit. Kepler wertete die von Tycho gefundene Abweichung der Marsbahn von der Kreisbahn um sehr geringe 8 Bogenminuten nicht mehr als bloße Beobachtungsungenauigkeit, sondern als Widerlegung der Kreisbahnhypothese. Dabei wurde er auch vom Platonismus beeinflusst, der die präzise mathematische Verfasstheit der Natur lehrte. Das Missverhältnis der von seinen verschiedenen Theorien vorausgesagten Daten zu den von Tycho gemessenen war für ihn zu groß geworden: „Da aber jener Fehler jetzt nicht vernachlässigt werden durfte, so wiesen allein diese 8’ den Weg zur Erneuerung der ganzen Astronomie und bildeten das Material für einen großen Teil des Werkes.“15 Kepler schuf diese „Erneuerung“ der Astronomie, indem er seine bisherigen Versuche zur genauen Bestimmung der Marsbahn verwarf und statt der Kreisbahn die Ellipsenbahn favorisierte – ein Schritt, der in der Tat die Astronomie revolutionierte. Epple resümiert wie folgt: „Das Ideal der Exaktheit misst eine mathematische Argumentation an ihren inneren Regeln, der Wert Präzision vergleicht ihre Resultate mit extern erzeugten Daten.“16 Exaktheit und Präzision betreffen also unterschiedliche Ideale und Normen. Im traditionellen Bild der Mathematik verschmilzt beides häufig und aus dem einen wird oft das andere gefolgert. Es ist aber für die Zwecke einer begrifflichen Analyse wichtig, beide Aspekte auseinanderzuhalten. Epple vertritt nun die These, dass es in fortgeschrittenen Erfahrungswissenschaften öfter zu einem Konflikt zwischen dem Bestreben nach Exaktheit und dem nach Präzision kommt. Besonders in den Ingenieurswissenschaften, die zu einem brauchbaren, wenn auch nicht unbedingt exakten Ergebnis kommen müssen, sei 14 Epple (s. Anm. 13), S. 174. 15 „Nunc quia contemni non potuerunt, sola igitur haec octo minuta viam praeiverunt ad totam Astronomiam reformandam, suntque materia magnae parti hujus operis facta.” Johannes Kepler: Astronomia Nova, o. O., [Heidelberg] 1609, S. 114. 16 Epple (s. Anm. 13), S. 175.

Exaktheit und Präzision in der mathematischen Naturwissenschaft

121

die Entwicklung einem bootstrapping vergleichbar: Einmal steht die Exaktheit im Vordergrund, dann wieder die Präzision. Durch eine Lockerung der Exaktheit kann oft höhere Präzision erreicht werden, durch Abschwächung der Präzisionskriterien eine höhere Exaktheit.17

Die Rolle intertheoretischer Beziehungen Die Positionen Lockes (und teilweise jene des Novalis) stehen für einen Begriff der Mathematik, der von Empirie abrückt und den Eigenwert, die Autonomie der Mathematik sowie ihre vom Menschen geschaffene Natur betont. Damit wird nicht behauptet, dass mathematische Theorien notwendigerweise a priori sind und ihr empirischer Entstehungszusammenhang keine Rolle spielt, aber zumindest, dass sie durch empirische Argumente nicht widerlegbar sind. Die Weiterentwicklung scheint in Bezug auf Exaktheit und Präzision seit der Neuzeit doch primär eine innermathematische Angelegenheit gewesen zu sein. Damit meine ich, dass die wechselseitigen Bezüge der verschiedenen mathematischen Disziplinen untereinander die Vorstellungen von Exaktheit und Präzision beeinflussten und weitertrieben und nicht so sehr der Bezug der Mathematik auf empirische, also außermathematische Erfordernisse. Ein Paradebeispiel hierfür ist Descartes’ Entwicklung der analytischen Geometrie im 17. Jahrhundert – also, grob gesagt, der Mathematik, die geometrische Gegenstände numerisch auszudrücken gestattet. Descartes nahm dementsprechend in seiner Geometrie 18 die Algebra manchmal als eine Art Rechenhilfe, um geometrische Probleme zu lösen und umgekehrt.19 Aus dem Hin- und Herspringen zwischen beiden Disziplinen ergaben sich schließlich weitreichende Nachfolgedisziplinen, die aus einer Vereinigung von Algebra und Geometrie entsprungen sind. Die Exaktheits- und Präzisionsvorstellungen der einen Disziplin beeinflussten die der anderen.20 Zu Beginn des zweiten Buchs der Geometrie bemerkt Descartes, dass die antike Tradition geometrische Konstruktionen in drei Klassen aufgeteilt habe, je nach den Mitteln, mit denen sie lösbar sind: mit Kreisen und Geraden, mit Kegelschnitten

17 Epple (s. Anm. 13), S. 172 f. 18 René Descartes: La Géométrie. Leiden 1637. In: Œuvres de Descartes, hg. von Charles Adam und Paul Tannery. Band VI, Paris 1902, S. 367–485 (ursprünglich erschienen als einer von drei Anhängen zu Descartes’ Discours de la méthode pour bien conduire sa raison). 19 Vgl. Emily R. Grosholz: Cartesian Method and the Problem of Reduction. Oxford 1991, S. 25. 20 Um dies kurz zu erläutern, lehne ich mich stark an folgende Arbeit an: Emily R. Grosholz: Descartes’ unification of algebra and geometry. In: Stephen Gaukroger (Hg.): Descartes: Philosophy, Mathematics and Physics. Brighton 1980, S. 137–168.

122 Michael Heidelberger

oder mit noch komplexeren Kurven. Er selber teilte die Kurven in mechanische und geometrische ein, was man später dann als transzendentale und algebraische Kurven bezeichnete. Da jedoch die meisten Punkte einer transzendentalen Kurve nicht algebraisch konstruierbar sind, hielt er sie für nicht exakt genug und daher für nicht zur Geometrie gehörig. Descartes gebrauchte die Algebra aber auch als Mittel, die antike Geometrie zu erweitern: Er versuchte zu zeigen, dass eine ganze Hierarchie von bisher unbekannten algebraischen Kurven, die über Kegelschnitte hinausgehen, auch geometrisch darstellbar sind. In Analogie zur Konstruktion einfacher Fälle solcher Erweiterungen formulierte er Regeln, die weitere Verallgemeinerungen ermöglichen sollten; hierzu fand Pierre de Fermat mehrere Gegenbeispiele.21 Durch den Bezug einer mathematischen Disziplin auf eine andere können sich also durch Analogiebildung und Verallgemeinerung neue Probleme und Ideale von Exaktheit herausbilden. Descartes’ Lehre von der res extensa hat ohne Zweifel den Begriff einer g ­ enuin mathematischen Physik mächtig gefördert und die aristotelische Auffassung geschwächt. Descartes reduzierte in seinen Meditationen die vielen verschiedenen Substanzen der Welt, welche die aristotelische Naturlehre kennt, auf zwei: die ausgedehnte Substanz (res extensa) und die denkende Substanz (res cogitans). ­Alles Materielle ist seinem Wesen nach ausgedehnt und beweglich und alles Ausgedehnte seinem Wesen nach materiell. Andere Eigenschaften der materiellen Substanz kommen für Descartes (und vor ihm schon für Galilei) nicht den äußeren Gegenständen zu, sondern ergeben sich aus deren Einwirkung auf uns Menschen, genauer: auf unsere denkende Substanz. Descartes ist daher bestrebt, das Wissen um physikalische Phänomene von der sinnlichen Erfahrung so weit wie möglich zu lösen. Damit wird jedoch der Unterschied zwischen physischen und geometrischen Eigenschaften eingeebnet: Wenn Descartes zeigen kann, dass die Algebra geometrisch interpretierbar ist, dann erhält dadurch auch die Geometrie eine viel stärkere Unabhängigkeit von ihren sinnlichen Entsprechungen als zuvor – selbst im Vergleich zu ihrer aristotelischen Auffassung; und auch der Materiebegriff wird verändert: Materie ist nun etwas, dem in Bezug auf seine Mathematisierbarkeit, nicht nur im Sinne der Geometrie, keine Grenzen mehr gesetzt sind. Die Eigenschaften der Materie lassen sich also präzise in Zahlen ausdrücken, ja ihr Wesen ist in den Zahlen niedergelegt. Die Revolution des Begriffs der Physik in der frühen Neuzeit war ein komplexer Prozess, an dem nicht nur Descartes, sondern vor allem auch Galilei Anteil hatte. Im Vergleich zu Descartes ist Galileis Auffassung von der Natur mathematischer 21 Grosholz (s. Anm. 20), S. 163.

Exaktheit und Präzision in der mathematischen Naturwissenschaft

123

Physik gleichzeitig schwächer und doch auch radikaler. Sein Platonismus kommt direkt in seiner berühmten Gleichsetzung der Natur mit einem Buch zum Ausdruck, das in mathematischen Buchstaben, sprich geometrischen Figuren, geschrieben ist.22 Auf den ersten Blick scheint dieser Vergleich eine Nähe zu Descartes anzudeuten. Wahrscheinlicher ist jedoch, dass er eine rhetorische Übertreibung ­Galileis darstellt, dass das göttliche Wort, das die Welt hervorgebracht hat, sich nicht wie das Buch der Heiligen Schrift einer direkt verständlichen Sprache bedient, sondern eben der Sprache der Mathematik. Diese Übertreibung ist zugleich ein Einspruch gegen die von der Kirche und den Averroisten vertretene Beschränkung der menschlichen Erkenntnisfähigkeit in Bezug auf die Natur. Haben wir einmal die Sprache der Mathematik verstanden, dann können wir die Natur so gut verstehen wie die Heilige Schrift. So stellt im Dialogo der Gesprächspartner Salviati, der meist Galileis eigene Meinung vertritt, unmissverständlich klar, dass der Mensch zwar bezüglich des Umfangs der von ihm begriffenen Dinge nie an die göttliche Einsicht heranreiche, jedoch in Bezug auf die Vollkommenheit und Intensität einer einzelnen mathematischen Wahrheit durchaus: Die Erkenntnis der wenigen [Wahrheiten] aber, welche der menschliche Geist begriffen, kommt meiner Meinung an objektiver Gewissheit der göttlichen Erkenntnis gleich; denn sie gelangt bis zur Einsicht ihrer Notwendigkeit, und eine höhere Stufe der Gewissheit kann es wohl nicht geben.23

In dieser Hinsicht sieht sich Descartes später genötigt, Galileis Optimismus zu dämpfen: Im Gegensatz zu Galilei ist ihm die Mathematik die Wissenschaft des Möglichen, Physik die Wissenschaft des tatsächlich Existierenden. Welche der mathematischen Möglichkeiten jeweils tatsächlich in der Welt realisiert sind, kann nur durch Erfahrung entschieden werden. Physik habe also keine objektive Gewissheit, sondern nur eine hypothetische (eine certitude morale).24 Wenn eben von Galileis Platonismus die Rede war, zeigt sich hier, dass dieser etwas Gewaltsames und Exaltiertes an sich hat und weit ab vom historischen Autor Plato liegt: Für Galilei ist der Schluss von einer natürlichen Erscheinung auf die sie bestimmende (mathematische) Idee exakter und logischer Natur, für Plato selbst aber – wegen des χωρισμός , der Kluft zwischen vollkommener Idee und 22 Galileo Galilei: Il Saggiatore (1623). In: Le opere di Galileo Galilei. Edizione nazionale, hg. von Antonio Favaro. Band VI, Florenz 1896, S. 197–372, hier S. 232. 23 Galileo Galilei: Dialog über die beiden hauptsächlichsten Weltsysteme (1632). Hg. und übers. von Emil Strauss. Leipzig 1891, Erster Tag, S. 108. 24 René Descartes: Principia Philosophiae. Amsterdam 1644, 3. Teil, § 46. In: Œuvres de Descartes (s. Anm. 18), Band VIII. Paris 1905, S. 1–329, hier S. 100 f. Zur certitude morale vgl. ebd. § 205, S. 327.

124 Michael Heidelberger

den unvollkommenen Erscheinungen – nicht. Plato hält diese Spaltung generell für unüberbrückbar; für Galilei kann jedoch die Abweichung der zugrundeliegenden Idee von den Erscheinungen durch sukzessive Berücksichtigung der weiteren wirksamen Ideen überwunden werden. Dementsprechend hält Salviati im Dialogo dem Vertreter des Aristotelismus Simplicio entgegen, dass der Physiker mit störenden Abweichungen von den theoretischen Ideen genauso angemessen umgehen kann wie ein Buchhalter mit dem Gewicht der Verpackung bei der Bestimmung des Warenwerts: Wisst Ihr, wie die Sache liegt, Signore Simplicio? Gerade wie der Kalkulator, damit die Zucker-, Seide- und Wollerechnungen stimmen, seine Abzüge für das Gewicht der Kisten, der Verpackung und sonstigen Ballasts machen muss, so muss der Geometer, wenn er die theoretisch bewiesenen Folgewirkungen experimentell studieren will, die störenden Einflüsse der Materie in Abrechnung bringen. Wenn er das versteht, so versichere ich Euch, alles wird akkurat ebenso stimmen wie die zahlenmäßigen Berechnungen. Die Fehler liegen also weder an dem Abstrakten noch an dem Konkreten, weder an der Geometrie noch an der Physik, sondern an dem Rechner, der nicht richtig zu rechnen versteht.25

Galilei sieht also in Bezug auf Präzision und Exaktheit der Physik eigentlich wenig Probleme: Die Notwendigkeit der Mathematik und damit ihre Exaktheit übertragen sich direkt auf die Physik. Damit ist die Physik von vornherein auf Präzision angelegt und eventuelle Ungenauigkeiten sind bei korrekter Vorgehensweise nur vorläufig. Galilei scheint sich nicht mit der Frage beschäftigt zu haben, ob eine Präzision wirklich immer nach endlich vielen Schritten erreichbar ist. Für Descartes ist die Situation problematischer: Zwar ist die wesentliche Eigenschaft der Materie ihre Ausdehnung und damit geometrischer Natur. Aus dem Erfolg der mathematischen Beschreibung natürlicher Phänomene lässt sich aber nicht folgern, dass damit ihre Wesenseigenschaften aufgefunden wären. Es sind nämlich stets mehrere korrekte alternative Beschreibungen nebeneinander möglich, ohne dass endgültig zwischen ihnen entschieden werden könnte: Aus dem früheren steht bereits fest, dass die Materie in allen Körpern der Welt ein und dieselbe ist, dass sie beliebig teilbar und schon von selbst in viele Teile geteilt ist, die sich verschieden bewegen und etwa kreisrunde Bewegungen haben und immer die gleiche Summe von Bewegungen in der Welt erhalten. Aber wie groß diese Teile sind, wie schnell sie sich bewegen und welche Kreise sie beschreiben, 25 Galilei (s. Anm. 23), Zweiter Tag, S. 220.

Exaktheit und Präzision in der mathematischen Naturwissenschaft

125

kann man aus bloßer Vernunft nicht ableiten; denn Gott konnte dies auf unzählbare Arten zustande bringen, und nur die Erfahrung kann lehren, welche er davon ausgewählt hat. Wir können deshalb jede beliebige annehmen, vorausgesetzt, dass alles daraus Abgeleitete voll und ganz mit der Erfahrung übereinstimmt.26

Für Descartes muss also die Physik zwar wesentlich mathematisch konstituiert sein, da die Materie selbst mathematisch verfasst ist. Ob wir jedoch mit mathematischen Mitteln das Wesen der Natur beschreiben, steht auf einem anderen Blatt. Ein Modell kann im Umgang mit der Natur zwar sehr hilfreich sein (auch entsprechend seinem Präzisionsgrad), seine Wahrheit kann aber nicht bewiesen werden. Mathematik selbst ist zwar präzise, aber die mathematische Physik kann dies für sich niemals in Anspruch nehmen. Es scheint so, dass auch heute noch die Einstellungen zwischen einem galileischen und kartesischen Pol schwanken: einem forschen und optimistischen Realismus und einem skeptischen Antirealismus.

Sprachliche Mitteilung von Tatsachen Man darf nun nicht in den Fehler verfallen, die bisher herangezogenen Episoden zu verallgemeinern und das Wesen der modernen Naturwissenschaft tout court mit der Abwendung von Aristoteles und der Hinwendung zur Mathematisierung zu identifizieren. Auch darf man nicht meinen, Exaktheit und Präzision seien auf die Mathe­matik beschränkt. Thomas Kuhn und andere haben einen sehr wichtigen Unterschied zwischen zwei Traditionen der Naturwissenschaften herausgearbeitet, zwischen der Mathematischen oder Klassischen Tradition einerseits und der Baconischen oder Experimentellen andererseits.27 Zur ersten gehören solche Disziplinen wie geometrische Optik, Astronomie, Statik, Harmonielehre und vor allem Geometrie, die sich alle schon im Altertum zu reifen Wissenschaften entwickelt haben. Die zweite Tradition, die ihren Namen von Francis Bacon als ihrem rührig­ sten Vertreter herleitet, entstand aus experimentellen Bewegungen und Praktiken, besonders in der Biologie, Medizin, Alchemie und Optik, den Naturgeschichten oder den vielfältigen praktischen Künsten, die im 16. und 17. Jahrhundert einen außerordentlichen Aufschwung erfuhren. Näherhin gehören dazu die Wärmelehre, Elektrizitätstheorie, Lehre vom Magnetismus, Chemie, Pharmazie, Metallurgie,

26 Descartes (s. Anm. 24). 27 Thomas S. Kuhn: Mathematische versus experimentelle Traditionen in der Entwicklung der physikalischen Wissenschaften. In: Ders.: Die Entstehung des Neuen. Studien zur Struktur der Wissenschaftsgeschichte, hg. v. Lorenz Krüger. Frankfurt am Main 1977, S. 84–124.

126 Michael Heidelberger

Glasmacherkunst und ähnliches – alles Wissensgebiete, die in der Antike keine (oder wenigstens keine systematische) Ausbildung erfahren haben und mit Mathematisierung noch nichts zu tun hatten. Der Bruch dieser Gebiete mit dem aristotelischen Denken ist auch nicht so markant wie im Falle der mathematischen Denkweisen der Zeit. Während wir in der mathematischen Tradition im Großen und Ganzen eine wachsende Autonomie der Mathematik und eine Abwendung von der sinnlichen Erfahrung ausmachen konnten, setzte die Baconische Tradition auf (qualitative) Erforschung durch Beobachtung und Experiment, durch Versuch und Irrtum. Beide Traditionen liefen in der Geschichte ziemlich getrennt nebeneinander her, bis sie dann – vereinzelt im späten 18., dann aber systematisch im 19. Jahrhundert – mehr und mehr miteinander verschmolzen.28 Nach dem bisherigen Gedankengang muss diese Entwicklung einigermaßen rätselhaft erscheinen. Wie können die Distanzierung von der Sinnlichkeit in der Entwicklung der Mathematik und die Betonung der Rolle von Experiment, Erfahrung und Beobachtung in den Baconischen Strömungen überhaupt zusammenfinden? Überraschenderweise scheint die Spannung zwischen beiden Bestrebungen und ihre Verbindung philosophisch wenig reflektiert worden zu sein. Ich meine nun, dass man in den Überlegungen des Physikers und Philosophen Ernst Mach eine Antwort auf diese Fragen finden kann. Mach thematisierte den Übergang von alltäglicher Erfahrung und Begriffsbildung zur Mathematisierung und behandelte dabei auch die Frage der Präzision und Exaktheit der mathematischen Physik. Es ist klar, so Mach, dass es in den Naturwissenschaften, also auch für die mathematische Tradition, erst einmal die Sinne sind, die uns mit den Tatsachen vertraut machen: „Wir kennen eine einzige Quelle unmittelbarer Offenbarung von naturwissenschaftlichen Tatsachen – unsere Sinne.“29 Das bloße sinnliche Innewerden einer Tatsache in den Empfindungen macht sie aber noch nicht wissenschaftlich verwertbar. Der nächste Schritt dahin ist die sprachliche Mitteilung, die ein „gewaltiger, wesentlicher Faktor beim Aufbau der Wissenschaft“ ist. „Nicht das, was der feine Naturbeobachter oder Menschenkenner an halbbewussten Konjekturen in seinem Innern birgt, sondern nur was er klar genug besitzt, um es mitteilen zu können, gehört der Wissenschaft an.“30

28 Ich habe Galilei bisher als Vertreter der mathematischen Tradition behandelt. Er ist jedoch gleichzeitig auch Vertreter der Bacon’schen. Auch Isaac Newton trägt diese ‚zwei Seelen‘ in seiner Brust; vgl. I. Bernard Cohen: Franklin and Newton. Philadelphia 1956, Kap. V. 29 Ernst Mach: Über das Prinzip der Vergleichung in der Physik. In: Ders.: Populär-Wissenschaftliche Vorlesungen (5. Auflage, Leipzig 1923), hg. von Elisabeth Nemeth und Friedrich Stadler. Ernst Mach Studienausgabe, Band 4, Berlin 2014, S. 219–236, hier S. 220. 30 Mach (s. Anm. 29), S. 220 f.

Exaktheit und Präzision in der mathematischen Naturwissenschaft

127

Eine wissenschaftliche Theorie kommt also durch einen doppelten Vorgang zu Stande: „Durch Aufnehmen von Sinneswahrnehmungen (durch Beobachtung und Versuch), und durch selbsttätige Nachbildung der Tatsachen der Wahrnehmung in Gedanken. Diese Nachbildung muss, wenn sie wissenschaftlichen Charakter haben soll, mitteilbar sein.“31 Ein weiterer Schritt ist die Ergänzung der Tatsachen in Gedanken: Halbbewusst und unwillkürlich erwirbt der Mensch seine ersten Naturerkenntnisse, indem er instinktiv die Tatsachen in Gedanken nachbildet und vorbildet, indem er die trägere Erfahrung durch den schnelleren beweglichen Gedanken ergänzt.32

Tatsachen werden dadurch mitteilbar, dass sie mit anderen, schon bekannten Tatsachen in Gedanken verglichen werden. Mach illustriert dies anhand der Farb­ empfindungen: Anfänglich entstanden Farbbezeichnungen wohl durch Vergleich mit schon vertrauten und gemeinsam beobachtbaren Farbträgern, die als Muster dienten. Farbbezeichnungen bedeuteten so viel wie: ‚wie eine Rose‘, ‚wie eine Zitrone‘, ‚wie ein Blatt‘, ‚wie eine Kornblume‘.33 Die Namensverwendung ist also auf der einfachsten Stufe erst einmal indirekt, da auf andere, schon bekannte Tatsachen Bezug genommen wird. Die Aussage, der Himmel ist wie eine Kornblume, ist eine indirekte Beschreibung einer Tatsache, wie Mach sagt, weil sie an unser Wissen über Kornblumen appelliert. Der häufige Gebrauch von solchen indirekten Vergleichen in den unterschiedlichsten Situationen führt nun nach Mach dazu, dass zum Beispiel das Wort blau nur noch mit der Farbe assoziiert wird und nicht mehr an andere mögliche Hinsichten der Übereinstimmung mit der Kornblume. Blau bekommt also eine „selbständige, von jedem Objekt, jeder Verbindung, unabhängige, wie man sagt, abstrakte oder begriffliche Bedeutung.“34 Die Begriffe rot, gelb, grün, blau, haben nun jeden Bezug auf konkrete Objekte, die als Muster der Farbe dienten, verloren und stellen nurmehr Namen dar. Sprachliche Mitteilungen über Tatsachen, die von den Ursituationen der Benennung losgelöst sind, also nur abstrakte begriffliche Mittel verwenden, sind direkte Beschreibungen. Die Entwicklung sprachlicher Bedeutung ist für Mach also eine allmähliche Befreiung von indexikalischen Parametern. 31 Ernst Mach: Die Prinzipien der Wärmelehre. Historisch-kritisch entwickelt (Orig. Leipzig [2. Aufl.] 1900), hg. von Michael Heidelberger und Wolfgang Reiter. Ernst Mach Studienausgabe, Band 5, Berlin 2016, S. 142. 32 Ernst Mach: Die ökonomische Natur der physikalischen Forschung. In: Ders. (s. Anm. 29), S. 181–202, hier S. 183. 33 Mach (s. Anm. 31), S. 445; sowie Mach (s. Anm. 29), S. 222. 34 Mach (s. Anm. 29), S. 222.

128 Michael Heidelberger

Mach ist sich bewusst, dass solch begriffliche Mitteilungen immer auch einen Verlust bedeuten. Wir folgen jeweils einem ganz bestimmten Interesse und blenden andere Aspekte einer Tatsache ganz aus: Mosaikartig setzt die Sprache und das mit ihr in Wechselbeziehung stehende begriffliche Denken das Wichtigste fixierend, das Gleichgültige übersehend, die starren Bilder der flüssigen Welt zusammen, mit einem Opfer an Genauigkeit und Treue zwar, dafür aber mit Ersparnis an Mitteln und Arbeit. Die Tatsachen werden immer mit einem Opfer an Vollständigkeit dargestellt, nicht genauer, als dies unsern augenblicklichen Bedürfnissen entspricht. Die Inkongruenz zwischen Denken und Erfahrung wird also fortbestehen.35

Diese Auffassung Machs wird uns später noch näher beschäftigen.

Mathematisierung durch Messung Mit der direkten Beschreibung einer Tatsache ist ihre Mathematisierung noch nicht gegeben. Dazu müssen erst die beteiligten Begriffe zu Messbegriffen werden. Machs beste Analyse der Messung physikalischer Größen findet sich in seiner Wärmelehre.36 Ausgehend von der Wärmeempfindung behandelt er dort hauptsächlich die Messung der Temperatur. Im Alltag, so Mach, dient unsere Wärmeempfindung als ein direktes Merkmal oder Zeichen des Wärmezustandes, aber in der Physik suchen wir nach einem neuen physischen Merkmal, das uns die Wärmeempfindung ersetzen kann und uns so einen erfolgreichen praktischen Umgang mit der Wärme ermöglicht. Ohne ein neues, die Empfindung ersetzendes Merkmal wäre unser Urteil über eine Tatsache von den veränderlichen und schwer kontrollierbaren Zuständen unserer Sinnesorgane abhängig.37 Ein rein physisches Merkmal schaltet diese unerwünschte Abhängigkeit aus und lässt nur das physikalische Verhalten von Körpern in Beziehung zu anderen Körpern übrig. Bei der Temperaturmessung kann man sich zum Beispiel mit einem Quecksilberthermometer den Zusammenhang zwischen Volumenausdehnung und Wärmezustand zunutze machen und durch Konvention festlegen, dass nunmehr die Ausdehnung des Quecksilberfadens, also seine Volumenänderung, als physisches

35 Mach (s. Anm. 32), S. 185 und 196. 36 Mach (s. Anm. 31), S. 57–76. 37 Ernst Mach: Erkenntnis und Irrtum (2. Aufl., Leipzig 1906), hg. von Elisabeth Nemeth und Friedrich Stadler. Ernst Mach Studienausgabe, Band 2, Berlin 2011, S. 158.

Exaktheit und Präzision in der mathematischen Naturwissenschaft

129

Zeichen für die Temperatur gelten soll, selbst wenn sie mit der Empfindung nicht immer konform geht. Man muss sich dabei vor Augen halten, schreibt Mach, dass die Wärmeempfindung und das Volumen […] zwei verschiedene Beobachtungselemente [sind]. Dass sie überhaupt zusammenhängen, hat die Erfahrung gelehrt; wie, und wie weit sie zusammenhängen, kann wieder nur die Erfahrung lehren.38

Es gibt also keine eindeutige Beziehung der Volumenausdehnung zu unseren Wärmeempfindungen, aber beide gehen in der Alltagswelt auf weite Strecken miteinander parallel, so dass doch noch eine gewisse Verwandtschaft des neuen Merkmals (physisches Verhalten) mit dem alten (der Empfindung) erhalten bleibt. Empfindungen lehren uns etwas über die Welt und wir benötigen sie, um uns als Lebewesen zurechtzufinden, aber sie versagen in vielen Fällen in dieser Funktion, besonders auch wenn es um Präzision geht. Die Wahl der Volumenausdehnung als Merkmal für den Wärmezustand bietet unter anderem den Vorteil, dass nun die Gleichheit von Wärmezuständen definierbar wird.39 Wärmeempfindungen als Merkmal der Wärme erlauben keine solche Definition, da sie nicht immer transitiv sind und, wie jedermann weiß, keine endgültige intersubjektive Einigung herbeizuführen gestatten. Mit der Definition der Temperaturgleichheit ist die wichtigste Grundvoraussetzung für die Messung von Wärmezuständen geschaffen. Um sie vollständig zu erreichen, ist eine weitere Übereinkunft nötig, die dem Volumen als Merkmal des Wärmezustands bestimmte Zahlen zuordnet. So schreibt Mach: „Die Temperaturzahlen sind Zeichen der Zeichen.“40 Auch diese Zuordnung ist willkürlich, wird aber wie die anderen konventionellen Festlegungen von der Erfahrung geleitet . Die Temperatur ist nach dem bisher Ausgeführten, wie man unschwer erkennen wird, nichts als die Charakterisierung, Kennzeichnung des Wärmezustandes durch eine Zahl. Diese Temperaturzahl hat lediglich die Eigenschaft einer Inventarnummer, vermöge welcher man denselben Wärmezustand wieder erkennen, und wenn es nötig ist, aufsuchen und wiederherstellen kann. Diese Zahl lässt zugleich erkennen, in welcher Ordnung die bezeichneten Wärmezustände sich folgen, und zwischen welchen andern Zuständen ein gegebener Zustand liegt.41

38 Mach (s. Anm. 31), S. 57. 39 Mach (s. Anm. 31), S. 58 f. 40 Mach (s. Anm. 31), S. 74; vgl. auch ebd. S. 385. 41 Mach (s. Anm. 31), S. 75 f.

130 Michael Heidelberger

Man muss sich bei dieser Stelle unbedingt klar darüber sein, dass für Mach die „begrifflichen Bestimmungselemente einer Tatsache“ untereinander und mit denen anderer Tatsachen naturgesetzlich zusammenhängen und daher eine Vermehrung des Wissens um solche Zusammenhänge zu einer fortschreitenden Beschränkung der Willkür der Übereinkunft führt. Die „begrifflichen Bestimmungselemente einer Tatsache [sind] als abhängig voneinander anzusehen.“42 Um Machs Beispiel mit den Farben weiterzuspinnen: Die Wissenschaft bleibt nicht bei der direkten Farbbeschreibung stehen, sondern untersucht zum Beispiel auch die Abhängigkeit der Farbe von der Wellenlänge des Lichts. Dadurch ergeben sich empirische Zusammenhänge, die erst die Voraussetzung für die Definition von Maßbegriffen in der Farbtheorie und damit für die Möglichkeit der Messung der Farbe schaffen. Messungen beruhen zwar auf „willkürlichen“ Übereinkünften, wie Mach oft sagt, aber diese Willkür ist nicht schrankenlos, sondern nimmt vernünftigerweise Rücksicht auf die bekannten gesetzlichen Zusammenhänge. Wir haben im Beispiel der Temperaturzahl schon von Maßzahlen gesprochen, müssen aber noch genauer verstehen, warum uns in den Naturwissenschaften ein physisches Merkmal für eine Größe noch nicht ausreicht, sondern dass wir nach weiteren Zeichen, eben den Zahlen, suchen, die das physische Merkmal ihrerseits ersetzen. Hier ist erst einmal festzustellen, dass auch die Zahlen selbst, wie Mach ausführt, das Ergebnis der Entwicklung von einer indirekten zu einer direkten Beschreibung sind: So sind auch die Zahlen, ursprünglich die Namen der Finger, Hände und Füße, welche als Ordnungszeichen der mannigfaltigsten Objekte benützt wurden, zu abstrakten Begriffen geworden.43

Was bedeutet hier „Ordnungszeichen“? Wir möchten vielleicht verschieden große Mengen gleichartiger Gegenstände voneinander unterscheiden, auch wenn uns der Unterschied nicht direkt in der Wahrnehmung gegeben ist. Für kleine Anzahlen ist dies ohne die Hilfe von Zahlen möglich, aber bei größeren und sehr großen Anzahlen, wenn sie zudem noch nahe beieinanderliegen, wird dies unmöglich. Habe ich in einer Schale 87 Erbsen und in einer anderen 89, kann ich nicht direkt sehen, welcher Schaleninhalt der größere ist. Erst durch Zählen kann ich das Verhältnis der Mengen zueinander feststellen:

42 Mach (s. Anm. 29), S. 233. 43 Mach (s. Anm. 29), S. 222; vgl. auch Mach (s. Anm. 31), S. 85 f.

Exaktheit und Präzision in der mathematischen Naturwissenschaft

131

Was sind die Zahlen? Die Zahlen sind ebenfalls Namen. Die Zahlen würden nicht entstehen, wenn wir die Fähigkeit hätten, die Glieder einer beliebigen Menge gleichartiger Dinge mit voller Deutlichkeit unterschieden vorzustellen. Wir zählen, wo wir die Unterscheidung gleicher Dinge festhalten wollen […]. Das Zählen beginnt deshalb mit dem Zuordnen der wohlbe­kannten Finger, deren Namen auf diese Weise allmählich Zahlen werden.44

Wenn die Finger nicht mehr ausreichen, wird auf die Zahlen selbst von neuem die Zähloperation angewendet. Auch bei der Beschreibung qualitativ gleichartiger, aber doch unterschiedlicher Tatsachen taucht das Bedürfnis auf, sie miteinander vergleichen zu können. War der gestrige Temperaturanstieg gleich dem heutigen? Welches dieser unregelmäßig geformten Getreidefelder ist das größte und welches das kleinste? Die Notwendigkeit solcher Ordnungen wird schlagartig klar, wenn wir das allgemein in Gebrauch befindliche Merkmal für den Wert eines wirtschaftlichen Gutes ins Auge fassen: Im einfachsten Fall diente dazu einmal etwa ein Stück Gold festgelegter Größe. Es hat sich schnell ergeben, dass es günstig ist, das Metallstück in gleichgroße Münzen aufzuteilen und die Zahlen als Zeichen der Anzahlen dieser Münzen zu nehmen. Damit ließen sich dann auch ganz praktische Fragen lösen wie die, welcher Bäcker in der Stadt sein Brot am günstigsten verkauft. Ähnlich nun auch in der Physik: Durch die Darstellung einer Tatsache als Anzahl einer Maßeinheit (oder Kombinationen von solchen) werden die Tatsachen vergleichbar. „Für den Physiker […] sind die Maßeinheiten die Bausteine, die Begriffe die Bauanweisung, die Tatsachen das Bauergebnis.“45 Fassen wir zusammen: Für Mach durchläuft der Weg von der einfachen sinnlichen Erfahrung bis zu ihrem mathematischen Ausdruck mehrere Phasen: Ausgangspunkt ist immer eine Empfindung, die für uns eine Tatsache wird, wenn wir sie in Gedanken nachbilden. Zuerst ist diese Nachbildung instinktiv und wird in Gedanken durch andere Tatsachen ergänzt, so wie ein Hund, der den Stock sieht, die Schläge vorausahnt. Durch Vergleich mit anderen bekannten und geläufigen Tatsachen wird die Tatsache mitteilbar gemacht. Zur Ausschaltung störender Einflüsse der Sinnesorgane wird ein neues physisches Merkmal festgelegt, das in mancher Hinsicht zwar mit der Empfindung parallel geht, sie aber als Merkmal ersetzt und sich vor allem für die intersubjektive Verständigung als brauchbarer als die Empfindung erweist. Die Festlegung wird durch die Erfahrung geleitet, von den Tatsachen aber nicht erzwungen. Dem neuen Merkmal werden schließlich 44 Mach (s. Anm. 31), S. 85 f. 45 Mach (s. Anm. 31), S. 452.

132 Michael Heidelberger

durch ein geeignetes Zuordnungsprinzip, das sich eines Instruments bedient, Zahlen zugeordnet. Tatsachen werden so mithilfe von Maßeinheiten repräsentierbar und untereinander vergleichbar. „Die Maßeinheit ist eine konventionell festgesetzte Vergleichstatsache mit Hilfe welcher wir andere Tatsachen in Gedanken aufbauen.“46 Durch Anwendung der Mathematik (letztlich also durch Zähloperationen) wird demnach eine leicht überschaubare und handhabbare Ordnung der Tatsachen und ihr Vergleich untereinander ermöglicht. Wie ist nun im Lichte dieser Überlegungen das Verhältnis zwischen Mathematischer und Baconischer Tradition einzuschätzen? Mach entwirft im Grunde eine anthropologische Konzeption, die die Mathematisierung der Natur als eine sukzessive Konstruktion aus rudimentärer alltäglicher Zählerfahrung und, wenn man so will, dem Umgang Bacons mit der Natur, aufgebaut denkt. Der Weg führt von Analogien zu Differenzierungen, von indirekten zu direkten Beschreibungen. Mathematische Naturwissenschaft kommt also nicht dadurch zustande, dass eine reine Welt autonomer, der Erfahrung entrückter, Objekte auf die empirische Welt ‚angewandt‘ wird, sondern durch sukzessive Einführung neuer Begriffe, die den Vergleich der Tatsachen untereinander ermöglichen. Mach vertritt also eine der platonischen diametral entgegengesetzte Auffassung von Mathematik. Für Descartes liegt, wie wir gesehen haben, das Wesen der materiellen Welt in ihrer Ausdehnung, also einer mathematischen Kategorie. Dies findet sich in weitergearbeiteter Form auch noch bei Kant, für den Raum und Zeit apriorische Formen unserer Sinnlichkeit sind. Für Mach beruhen solche Lehren auf einem versteckten Pythagoreismus: „Nur die Naivität der Pythagoräer konnte meinen, mit Zahlenverhältnissen nicht eine Eigenschaft, sondern das ganze Wesen der Dinge zu treffen.“47 Die mathematische Seite an den Gegenständen unserer Erfahrung ist also nur ein Aspekt unter vielen, dessen Berücksichtigung uns Menschen als biologischen Organismen mit mangelhafter kognitiver Ausstattung (vor allem mit nicht immer zuverlässigen Sinnesorganen) das Verständnis und den Umgang mit der Natur sehr erleichtert. Es wird dadurch aber nichts zu Tage gefördert, was prinzipiell nicht auch ohne Mathematik ausdrückbar wäre. Die Mathematik ist keine autonome Welt geheimnisvoller weltentrückter Gegenstände, sondern der Inbegriff eines vom Menschen erdachten Ordnungssystems, das eine unüberschaubare Menge von Möglichkeiten im Umgang mit der Natur freisetzt. Mach hat sich auch mit der Frage beschäftigt, warum es so schwer ist, sich von Vorstellungen zu befreien, die mit den ursprünglichen Empfindungen als Merkmalen verbunden waren. Er berichtet, wie in der Frühzeit der Wärmelehre Tempera46 Mach (s. Anm. 31), S. 452. 47 Mach (s. Anm. 31), S. 446.

Exaktheit und Präzision in der mathematischen Naturwissenschaft

133

turmessungen in Zweifel gezogen wurden, weil man eine Definition von Temperatur für eine empirische Hypothese über die Welt hielt anstatt für eine willkürliche Festsetzung . Bis in die neueste Zeit scheinen aber die Arbeiter auf diesem Gebiete mehr oder weniger unbewusst nach einem natürlichen Temperaturmass, nach einer wirklichen Temperatur, nach einer Art Platonischer Idee der Temperatur zu suchen, von welcher die am Thermometer abgelesenen Temperaturen nur ein unvollkommener, ungenauer Ausdruck wären.48

Mach führte auch Newtons Begriffe des absoluten Raumes und der absoluten Zeit auf ähnliche platonistische Tendenzen zurück. „In den Vorstellungen der Zeit spielt die Empfindung der Dauer den verschiedenen Zeitmaßen gegenüber dieselbe Rolle, wie in dem obigen Fall die Wärmeempfindung. Ähnlich verhält es sich mit dem Raume.“49 Man muss sich in der Physik von solchen platonistischen Vorstellungen befreien. Diese Auffassung sollte besonders in Albert Einsteins Relativitätstheorie ihre Sprengkraft erweisen.50 Welche Folgerungen lassen sich nun aus Machs Auffassungen für die Diskussion der Präzision und Exaktheit ziehen? Fragen nach der Exaktheit der Mathematik reduzieren sich auf die regelrechte Reduktion einer mathematischen Operation auf eine andere, einfachere. Sie beziehen sich auf die Regeln, die wir zur Ersparnis im Umgang mit Zahlen festlegen. In Bezug auf Präzision muss man zuerst zwei verschiedene Bedeutungen der Redeweise von der Präzision der Mathematik unterscheiden. ‚Die Beschreibung einer Tatsache ist präzise‘, kann 1. heißen, dass sie beliebig genau in das Ordnungssystem der mathematischen Physik eingeordnet werden kann. Es kann aber auch 2. heißen, dass die empirischen Gegenstände, um die es geht, als Größen aufzufassen und auf die (platonisch verstandenen) mathematischen Gegenstände zu beziehen sind. Ohne einen solchen Bezug gibt es keine (noch nicht einmal unzureichende) Erkenntnis, also keine Wissenschaft. Mach würde die erste Bedeutung sicher problemlos akzeptieren. Der Sprachphilosoph Fritz Mauthner, der stark durch Mach beeinflusst war, bezeichnete in diesem Sinne die Mathematik als ein „unendlich subtileres Werkzeug als die Sprache.“51

48 Mach (s. Anm. 31), S. 67. 49 Mach (s. Anm. 31), S. 71. 50 Vgl. Michael Heidelberger: Einleitung zur Neuausgabe der Wärmelehre. In: Mach (s. Anm. 31), S. IX–XXXV, hier S. XXVII–XXXV. 51 Fritz Mauthner: Mathematische Naturerklärung. In: Ders.: Wörterbuch der Philosophie, Band 2, 2. Aufl., Leipzig 1923, S. 307–317, hier S. 315 f.

134 Michael Heidelberger

Die zweite Bedeutung von Präzision würde Mach aber vehement zurückweisen. Sie kommt vielleicht am Deutlichsten bei Immanuel Kant zum Ausdruck, wenn er in einer berühmten Wendung Wissenschaftlichkeit allgemein mit mathematischem Gehalt in Verbindung bringt: Ich behaupte aber, dass in jeder besonderen Naturlehre nur so viel eigentliche Wissenschaft angetroffen werden könne, als darin Mathematik anzutreffen ist. Denn nach dem Vorhergehenden erfordert eigentliche Wissenschaft, vornehmlich der Natur, einen reinen Teil, der dem empirischen zum Grunde liegt und der auf Erkenntnis der Naturdinge a priori beruht.52

Dieser „reine Teil“ hat es mit dem Begriff der Größe zu tun, weil nur dieser sich a priori in der Anschauung darlegen lässt. Eine Behauptung kann für Kant daher

nur dann wissenschaftlich sein, wenn sie mit mathematischen Mitteln formuliert wird. ‚Präzision‘ wird so zu einer Alles-oder-Nichts-Eigenschaft von Behauptungen: Entweder sie sind präzise, weil auf die Welt der Mathematik bezogen, oder nicht. Nach Machs Auffassung ist es völlig problemlos, nicht nur Mathematik und mathematisierte empirische Wissenschaft für präzise anzusehen, sondern auch die Erfahrung in alltäglichen Situationen, in denen keine Mathematik zum Einsatz kommt. ‚Der Himmel ist blau wie eine Kornblume‘ oder ‚Der Himmel ist blau‘, aber auch ‚Dieser Stein ist schwerer als der andere‘, drücken präzise Sachverhalte aus. ‚Präzision‘ ist ein relativer Begriff, der je nach unseren „augenblicklichen Bedürfnissen“53 unterschiedliche Bedeutung haben kann. In der kantischen Auffassung müsste man diese Relativität anders verstehen: Die Aussage ‚Dieser Stab ist ungefähr ein Meter lang‘ wäre zwar wissenschaftlich und damit präzise im zweiten Sinne, weil der Stab als Größe aufgefasst wird, aber die Aussage ist unpräzise im ersten Sinne, weil sie nicht der Bestimmtheit der Größe entspricht. Würde man die Natur als Inbegriff aller tatsächlichen Ordnungsbeziehungen begreifen, wäre ihr mathematisch-physikalischer Ausdruck, wenn er denn menschen­möglich wäre, tatsächlich mit ihrem vollständigen Verständnis gleichzusetzen. Ich glaube nicht, dass Mach dem zustimmen würde. (Selbst für Kant gibt es neben den extensiven Größen die „Realität in der Erscheinung“, die davon zu unterscheiden ist.) Wo durch mathematische Operationen eine Ordnung ausgedrückt wird, wird am Ende ‚etwas‘ geordnet, was nicht selbst wieder Ordnungsbeziehung ist.

52 Immanuel Kant: Metaphysische Anfangsgründe der Naturwissenschaft. Riga 1786, S. VIIIf. 53 Mach (s. Anm. 32), S. 196.

Exaktheit und Präzision in der mathematischen Naturwissenschaft

135

Schluss Der Weg von der Alltagserfahrung einer Tatsache zu ihrem mathematischen Ausdruck ist daher nicht nur ein Weg zur übersichtlichen Ordnung, sondern auch ein Weg von der Analogie zur Präzision. In der Analogie werden Zusammenhänge zwischen getrennten Bereichen hergestellt. „[A]ller Zusammenhang, alle begriffliche Einheit kommt durch die Vergleichung in die Wissenschaft“, schreibt Mach.54 Die Alltagssprache und die Erfahrungswissenschaft wurzeln anfänglich immer in der Analogie. Durch Einführung von direkten Beschreibungen und weiter von Maßbegriffen, die auf Messinstrumenten beruhen, wird die Möglichkeit geschaffen, zwischen Tatsachen derselben Art zu differenzieren. Weder die Darstellung in Analogien noch die in präzisen Zahlenverhältnissen allein kann der ganzen Wirklichkeit gerecht werden und ihr Wesen treffen. Beide Darstellungen sind für sich genommen einseitig und müssen sich ergänzen. Mit Mach können wir also einen Weg aufzeigen, wie sich der von Novalis im anfangs zitierten Gedicht beschriebene Konflikt löst: „Zahlen und Figuren“ können auch für die Wissenschaft nicht als „Schlüssel“ aller Wirklichkeit gelten. So etwas kann nur von einem Pythagoräer und Platonisten behauptet werden. Allerdings sind sie auch kein „verkehrtes Wesen“, sondern sie dienen uns dazu, uns in der Wirklichkeit, wie sie nun einmal ist, besser zurechtfinden. Niedere Tiere können sich erhalten, indem sie sich durch angeborene Reflexe den augenblicklichen Umständen anpassen. Der Mensch braucht hierzu aber mehr „Fernsichtigkeit“, wie Mach es einmal ausgedrückt hat.55 Die exakte und präzise Erkenntnisweise der Zahlen und Figuren steht nicht gegen die des „geheimen Wortes“: Sie ergänzen sich gegenseitig.

54 Mach (s. Anm. 31), S. 445. 55 Mach (s. Anm. 37), S. 9.

K. Lee Chichester

Von Tupfen, Rissen und Fäden Präzision als verkörperte Praxis in der Frühen Neuzeit

Welche politische Relevanz der Unterschied zwischen einer Linie und einem Strich haben kann, zeigt die sogenannte Grüne Linie, die 1948 während der Friedensverhandlungen zwischen Israel und der Arabischen Allianz als Waffenstillstandsmarkierung gezogen wurde und bis heute Teile des Westjordanlands umgrenzt. In seiner Performance The Green Line von 2004 ist der Künstler Francis Alÿs diese Grenzlinie quer durch Jerusalem abgelaufen, wobei er grüne Farbe aus einer Dose neben sich auf den Boden tropfen ließ ↗ABB. 1 . Die als drip painting entstandene schmale Spur verweist subtil auf die Materialität ebenjener Linie, welche die Kommandeure Moshe Dayan und Abdullah at-Tall auf einer Karte im Maßstab von 1:20.000 eingetragen hatten. Auf der für das Waffenstillstandsabkommen von 1949 bindend gewordenen Landkarte ist der Verlauf der Frontlinien als ein drei bis vier Millimeter breiter Strich mit einem grünen und einem roten Bunt- oder Wachsstift eingezeichnet. In der Realität entsprechen diese wenigen Millimeter inklusive der Unschärfen am Rand einer Breite von 60 bis 80 Metern und einer Fläche von 35 Quadratkilometern, die seit 1949 in zahlreichen Gerichtsverfahren zur Disposition gestellt worden sind.1 Bezeichnender Weise waren es schon in der Frühen Neuzeit Künstler, die auf die entscheidende Differenz zwischen ideeller, geometrischer Linie und real gezogenem Strich hingewiesen haben. Zwar waren es keine Gebietsstreitigkeiten infolge unsauber gezogener Grenzlinien, die diese Reflexionen veranlasst haben. Nichtsdestotrotz liegen zu dieser Zeit auch ballistische Implikationen der geometrischen Operationen auf dem Papier nicht fern, wurden doch beispielsweise Festungsanlagen nach der Maßgabe handgezeichneter Schussachsen entworfen. Hierbei verschmolzen Planungslinie und Schuss zu einer Einheit, sodass die Breite

1 Mette Gieskes: The Green Line. Potency, Absurdity, and Disruption of Dichotomy in Francis Alÿs’s Intervention in Jerusalem. In: Jeroen Goudeau, Mariëtte Verhoeven, Wouter Weijers (Hg.): The Imagined and Real. Jerusalem in Art and Architecture. Leiden 2014. Es finden sich unterschiedliche Angaben zur Breite der von den Kommandeuren gezeichneten Linien und zum Maßstab der verwendeten Karte. Ich orientiere mich an den von Alÿs selbst zitierten Angaben, zurückgehend auf Meron Benvenisti: City of Stone. The Hidden History of Jerusalem. Berkeley/Los Angeles 1996.

138 K. Lee Chichester

der Planungslinie durchaus reale Auswirkungen auf die Form und Effektivität einer Festung bzw. eines Angriffs gehabt haben könnte.2 Es ist daher nicht ohne praktische Relevanz, dass Albrecht Dürer seine Underweysung der Messung mit dem Zirkel und Richtscheyt – das erste, 1525 in Nürnberg veröffentlichte Geometriebuch in deutscher Sprache – mit der Unterscheidung zwischen dem immateriellen, unzerteilbaren „punckt“ des Geometers und dem „als ein gemel“ vor Augen geführten „tupff“ des Künstlers beginnt. Hierauf folgt eine Differenzierung zwischen der breitenlosen, unsichtbaren Linie Euklids und dem mit der Feder gezogenen „strich“ oder „ryß“ ↗ABB. 2 .3 Es erscheint zunächst verwunderlich, dass ein Künstler es für nötig erachten sollte, seinen Gebrauch sichtbarer Punkte und daraus entstehender Striche zu rechtfertigen, stellen sie doch die Voraussetzung seiner Kunst dar. Allerdings liegen hierfür vier Gründe nahe, die im Folgenden näher erörtert werden sollen: Erstens folgt Dürer einer Argumentationsweise, die auf die Perspektivbücher Leon Battista Albertis und Piero della Francescas zurückgeht und antike Künstler-Anekdoten aufruft, sodass er sich durch dieses Stilmittel in eine illustre Genealogie einreiht.4 Zweitens beruht die Zentralperspektive, die bei allen drei Autoren vorgestellt wird, einerseits auf geometrischen Verfahren, andererseits aber auf einer optischen Theorie, welche die Wahrnehmung von Lichtstrahlen körperlich begreift. Hierdurch ergibt sich unweigerlich ein Konflikt zwischen der Perspektivlehre und der euklidischen Vorstellung ideeller, rein geistiger Elemente der Geometrie. Doch sowohl Piero als auch Dürer, die beide wesentlich zur Wiederentdeckung antiker Geometrie beigetragen haben, lassen eine Tendenz zu einer körperlichen Auffassung der geometrischen Grundoperationen erkennen. Dies deutet drittens auf eine künstlerische Reflexion des

2

Siehe etwa Bettina Marten, Ulrich Reinisch, Michael Korey (Hg.): Festungsbau: Geometrie – Technologie – Sublimierung. Berlin 2012; sowie Jeroen Goudeau: The Horizon Besieged. Ways of Capturing Space in Early Modern Fortification Theory. In: Mapping Space. Networks of Knowledge in 17th Century Landscape Painting, hg. von Ulrike Gehring, Peter Weibel, Zentrum für Kunst- und Medien (ZKM). München 2014, S. 301–305, insb. S. 302.

3 Siehe zur Reflexion der Idealität versus Materialität von Punkt und Linie Wolfgang Schäffner: Euklids Zeichen. Zur Genese des analogen Codes in der Frühen Neuzeit. In: Bildwelten des Wissens 7.2: Mathematische Forme(l)n. Berlin 2010, S. 62–73; sowie Robert Felfe: Naturform und bildnerische Prozesse. Elemente einer Wissensgeschichte der Kunst des 16. und 17. Jahrhunderts. Berlin 2015, Kapitel II.1: Punkt und Linie – der Dinge Anfang, insb. S. 165–181. 4 Dürer war mit Albertis De pictura (1435) vertraut und kannte Pieros De prospectiva pingendi (ca. 1474) zumindest in Auszügen, wie Exzerpte in seinem Notizbuch verraten. Martin Kemp: The Science of Art. Optical Themes in Western Art from Brunelleschi to Seurat. New Haven, CT 1990, S. 55; und Peter R. Cromwell: Polyhedra. One of the Most Charming Chapters of Geometry. Cambridge 1997, S. 126. Es wurde gemutmaßt, dass diese Kenntnis durch seinen italienischen Lehrmeister, womöglich Luca Pacioli selbst, vermittelt wurde. Für eine Zusammenfassung der Kontroverse um die Identität von Dürers Lehrer in Bologna, siehe Maria Walcher Casotti: Un episodio controverso del soggiorno di Dürer a Venezia: il viaggio a Bologna. In: Arte veneta 61, 2005, S. 187–198.

Von Tupfen, Rissen und Fäden

139

1 Francis Alÿs: The Green Line. 2004. ­Fotografische Dokumentation.

2 Albrecht Dürer: Underweysung der Messung. Nürnberg 1525, 1. Buch, o. S.

140 K. Lee Chichester

epistemischen Werts visuell-haptischer Verfahren hin, die aus der Werkstatttradition stammen und um 1500 erstmals für die mathematische Forschung fruchtbar gemacht werden.5 Daraus folgt jedoch im gleichen Zug auch die Vertrautheit der Künstler mit den ebenso konkreten Folgen ungenauen Arbeitens, sodass viertens der in der Perspektivliteratur unermüdlich wiederholte Hinweis auf die praktische Unteilbarkeit des Strichs6 auch als eine Mahnung an den Lehrling verstanden werden kann, präzise zu arbeiten.

Präzise Markierungen: Vom Reißen, Schneiden und Stechen Das Lateinische ‚punctum‘ geht ähnlich wie der ‚tupff‘ auf eine durch Stechen hervorgebrachte Narbe oder Vertiefung zurück und oszilliert somit in der Negativität des eingestoßenen Lochs zwischen einem Etwas und einem Nichts.7 In der Frühen Neuzeit wurde der Tupf als „für das Auge wahrnehmbare[r] Fleck“ bereits vom körperlos konzipierten Punkt durch eine tendenzielle Betonung von Sichtbarkeit und Materialität unterschieden.8 Auf analoge Weise war das Verbum ‚reyssen‘ zu Dürers Zeit noch eng mit seiner ursprünglichen Bedeutung des ‚Einritzens‘ im Sinne von „Linien im Ackerbau ziehen“ verknüpft.9 Diese Bedeutung war auf das Eingravieren von Runen und anderen Zeichen in Materialien wie Holz, Wachs oder Metall übertragen worden, um gegen 1500 im Neuhochdeutschen von den Techniken des Holzschnitts und Kupferstichs auf die Zeichnung selbst überzugehen. Insbesondere der Kupferstich sowie die zu Beginn des 16. Jahrhunderts aufkommende Technik der Radierung bewahren als Tiefdruckverfahren die einstige Bedeutung des Pflügens einer Vertie-

5 Für den Eingang praktischer Probleme aus der (kunst)handwerklichen Werkstatt in die mathematische Forschung um 1500 siehe Leonardo Olschki: Die Literatur der Technik und der angewandten Wissenschaft vom Mittelalter bis zur Renaissance. Bd. 1: Geschichte der neusprachlichen wissenschaftlichen Literatur. Heidelberg 1919. 6 So etwa bei Leonardo da Vinci, Walter Hermann Ryff (1558), Heinrich Lautensack (1564), Daniele Barbaro (1569), Egnatio Danti (1583), Lucas Brunnen (1615), Daniel Schwenter (1618), Peter Halt (1625) und Jean François Niceron (1638). Siehe Felfe (s. Anm. 3), S. 165 ff. 7

Wolfgang Schäffner: Punkt. Minimalster Schauplatz des Wissens im 17. Jahrhundert (1585–1665). In: Helmar Schramm, Ludger Schwarte, Jan Lazardzig (Hg.): Kunstkammer, Laboratorium, Bühne. Schauplätze des Wissens im 17. Jahrhundert. Berlin/New York 2003, S. 56–74, hier S. 56.

8 Die Gebrüder Grimm weisen in ihrem Wörterbuch gesondert darauf hin, dass die Implikation der Berührung, die den ursprüngliche Gebrauch von „Tupf“ als „durch stosz, stich oder berührung überhaupt entstandener punkt“ prägt, bei Dürer noch bewahrt ist. Eintrag „tupf “, in: Deutsches Wörterbuch von Jacob und Wilhelm Grimm, 16 Bde. in 32 Teilbänden, Leipzig 1854–1961. Online verfügbar unter http:// woerterbuchnetz.de/DWB/?sigle=DWB&mode=Vernetzung&lemid=GT14716#XGT14716 (Stand 08/2017). 9 Vgl. Deutsches Wörterbuch von Jacob und Wilhelm Grimm (s. Anm. 8), Eintrag „reiszen“. In diesem Sinne könnte Karin Leonhards Studie zum Bild als Feld in der Malerei („Picturas Acker“) um die Grafik erweitert werden. Siehe Karin Leonhard: Bildfelder. Stilleben und Naturstücke des 17. Jahrhunderts. Berlin 2013.

Von Tupfen, Rissen und Fäden

141

fung, die eine zugleich materielle wie semantische Scheidung vornimmt. Die Linie als Gravur oder Schnitt trennt und definiert, ganz im Sinne des englischen Idioms to draw a distinction oder des ‚Scharfsinns‘, und verbindet damit dialektisch die Tätigkeit des Umreißens mit derjenigen des Heraus- oder Auseinanderreißens. Es ist diese Ambivalenz, mit der schon Dürer spielte, als er schrieb: „Dann warhafftig steckt die kunst [d. h. Theorie] inn der natur / wer sie herauß kann reyssen der hat sie.“10 Zugleich ist der Riss als scharfer Schnitt – oder genauer, als Schnitt mit geschliffener Klinge – der dünnste Strich, der sich überhaupt ziehen lässt. Er kommt somit der breitenlosen geometrischen Linie am nächsten, erfüllt aber auch den lateinischen Wortsinn von Präzision als praecidere – zerschneiden. Wie obige Beispiele bezeugen, war frühneuzeitlichen Künstlern vollends bewusst, dass das mathematische Ideal einer ausdehnungslosen Linie in der Realität nicht zu erreichen ist. Allein einen Näherungsversuch kann das Prädikat der Präzision in der Geometrie oder Perspektivkunst ausweisen, das Adjektiv präzise nur die maximale Annäherung an den „Grenzwert manuell ausführbarer Grapheme“ bezeichnen.11 Damit stellt sich jedoch die Frage, wie die Idee einer absolut geraden, breitenlosen Linie überhaupt aufkommen konnte. Wenn Präzision von einer notgedrungen unsauberen Praxis abhängt, dürfte dann nicht auch das geometrische Ideal nur durch die Erfahrung einer direktionalen Steigerung und asymptotischen Annäherung an einen ultimativ unerreichbaren Zustand erkennbar werden?12 Dieser Auffassung folgend, würden sowohl das Ideal als auch Präzision auf materiellen Erfahrungen im Umgang mit Medien und Werkzeugen beruhen. Wie Robert Felfe gezeigt hat, erscheint der Punkt bei Dürer niemals als vollkommen ideell, selbst wenn Dürer behauptet, dass er „ein solch ding“ sei, das „weder Größ Leng Breyt oder Dicken hat“. Er wird in der bildreichen Sprache des Künstlers vielmehr als eine Art Spielball oder Messpunkt eingeführt, der sich geistig “hoch in lufft werffen / oder in die tyffen fellen“ lässt, selbst dorthin, wo er „doch mit dem leib nit reichen kann“, und dabei zugleich als eine Art Atom beschrieben, das „eyn anfang unnd ende / aller leyblichen ding“ darstellt.13 Entsprechend kann Dürers Überführung des ideellen Punkts in den materiellen Tupf auch umgekehrt gelesen werden als Definition des geometrischen Punkts aus der Praxis heraus. In

10 Albrecht Dürer: Vier Bücher von menschlicher Proportion. Nürnberg 1528, 4. Buch, S. 198. Nicht zufällig beginnt Dürers Underweysung mit dem Satz „Der aller scharff sinnigste Euclides / hat den grundt der Geometria zusamen gesetzt […]“. 11 Felfe (s. Anm. 3), S. 167. 12 Peter Janich hat anschaulich dargestellt, inwiefern die euklidische Geometrie Vorannahmen macht, die nur vor dem Hintergrund einer handwerklichen Praxis selbsterklärend sind. Peter Janich: Handwerk und Mundwerk. Über das Herstellen von Wissen. München 2015, S. 23–41. 13 Felfe (s. Anm. 3), S. 168 ff.

142 K. Lee Chichester

3 Hans Holbein: Druckermarke für Valentin ­Curio. Holzschnitt, vermutlich aus einer ­Ausgabe des Lexicon Graecum, Basel 1525. London, British Museum, Inv.-Nr. 1895/0122.880.

4 Unbekannt: Druckermarke für Hieronymus Curio. Kopie nach Hans Holbein d. J., 1552. ­Museum für angewandte Kunst, Wien, Inv.-Nr. KI 3172.

Von Tupfen, Rissen und Fäden

143

Albertis Grundlagen der Malerei (1435/1436) wird diese Denkrichtung umso deutlicher, wenn er den Punkt als „so winzige[n] Tupfen – durchaus vergleichbar einem Atom“ beschreibt, „dass keine Hand irgendwo einen kleineren zustande bringen könnte.“14 Heinrich Lautensack spitzt dies in seiner Perspectiva von 1564 wörtlich zu, indem er erklärt: „denn ein Punct ist das reinste stüpflein so man mit einer Nadel thun kann / Dann je reiner deine pünctlein im abtheilen sind / je besser ist.“15 Die Urlegende zur Annäherung an die ideale Linie lieferte Plinius d. Ä. in seiner Darstellung des Paragone zwischen Apelles und Protogenes – einer Anekdote, die in der Kunsttheorie um 1500 zunehmend populär wurde: Die beiden Künstler waren demnach in einen Wettstreit darüber eingetreten, wer die schmalste, durch keinen weiteren Strich zerteilbare Linie zeichnen könne. Als sich Protogenes schließlich geschlagen geben musste, entschieden die Rivalen, das Bild als Zeugnis größtmöglicher künstlerischer Meisterschaft für die Nachwelt aufzubewahren.16 Das Virtuosenstück – vielleicht das frühste Beispiel eines abstrakten Tafelbildes – ist zwar nicht erhalten, doch hat es Hans Holbein im Jahr 1521 zu einer ähnlich bekannt gewordenen Druckermarke für Valentin Curio inspiriert. Während in den frühen Versionen ein auf gewundene Säulen gestütztes Gewölbe mit Putten einen zentralen Wappenschild rahmt, wird Letzterer in späteren Versionen ab 1525 freigestellt ↗ABB. 3 . Anstelle eines Wappens zeigt er eine gehenkelte Tafel, eine sogenannte tabula ansata, die sich seit dem späten 15. Jahrhundert als Signaturtäfelchen etabliert hatte, und darunter eine aus einem Wolkenkranz hervorstoßende Hand. Entlang der zentralen Achse eines auf der Tafel vorhandenen breiteren Strichs zeichnet die Hand in einer merkwürdig verkrampften Haltung eine schmale senkrechte Linie. Während in der ab 1525 verwendeten Version eine rechte Hand den Strich mit einem Pinsel malt – wie von Plinius berichtet –, zeigt ein Nachdruck von 1552, der in Varianten bereits ab 1545 erscheint, eine linke Hand, die eine Feder oder einen Griffel führt ↗ABB. 4 . Durch den Austausch des Werkzeugs steigerte der unbekannte, für Valentin Curios Sohn Hieronymus arbeitende Künstler den Eindruck präzisen Arbeitens im Sinne des Einschneidens oder „Reißens“ einer möglichst schmalen Vertiefung.17 14 In der Auseinandersetzung um praktische versus absolute Unteilbarkeit schwingt stets auch der seit der Antike andauernde Streit zwischen Atomisten und Aristotelikern über die Teilungsgrenze der Materie und die Existenz von Elementarkörpern mit. Leon Battista Alberti: Das Standbild. Die Malkunst. Grundlagen der Malerei, hg. von Oskar Bätschmann, Christoph Schäublin. Darmstadt 2000, S. 340 f. 15 Heinrich Lautensack: Des Circkels unnd Richtscheyts / auch der Perspectiva / und Proportion der Menschen und Rosse / kurtze / doch gründtliche underweisung […]. Frankfurt am Main 1564. Online verfügbar unter http://digi.ub.uni-heidelberg.de/diglit/lautensack1564/0102 (Stand 8/2017). 16 Plinius Secundus d. Ä.: Naturkunde. Buch 35, hg. von Roderich König. Darmstadt 1997, S. 67–69. 17 Die seitenverkehrte und vergrößerte Kopie ist in ihrer klaren Formensprache zugleich vereindeutigend und opulenter. Sie entspricht zudem Holbeins dokumentierter Linkshändigkeit. Zu den Druckermarken

144 K. Lee Chichester

Die Wahl des Motivs als Druckermarke könnte angesichts der von Curio verlegten humanistische Schriften als Hinweis auf seine Genauigkeit in der Übertragung von Manuskripttexten in den Bleiletterndruck gedeutet werden – damit erschiene das Nachzeichnen oder Zerschneiden entlang einer vorgezeichneten Linie (prae-cidere) als allgemeine Metapher für sorgfältiges Arbeiten.18 Oskar Bätschmann hat jedoch darauf hingewiesen, dass Holbein Plinius’ Anekdote womöglich in einem doppelten Sinn verstanden hat: Als zweiter Apelles reklamierte er einerseits den künstlerischen Sieg für sich, indem er den Strich als aussagekräftige Geste an die Stelle seiner Signatur setzte; andererseits folgte er der Auslegung des Erasmus von Rotterdam, der Protogenes als Sieger auserkoren hatte, denn: Wie der Maler Protogenes den Apelles an einer einzigen Linie erkannte, den er niemals zuvor gesehen hatte, lässt sich auf gleiche Art aus einer einzigen Antwort Erfindungskraft und Verstand eines Mannes erfassen von einem, der selbst klug ist.19

So ließe sich die Bildaussage auch auf die Qualität der von Curio ausgewählten Autoren beziehen. Diese Lesart wird zusätzlich dadurch gestützt, dass Holbeins Hand im Begriff ist, die zweite Linie einzuzeichnen, die bei Plinius Protogenes vorbehalten ist. Die Hand, welche die Bildgrenze zu durchstoßen scheint, ist durch den Wolkensaum als Hand der göttlichen Intervention ausgewiesen, als manus divina, die um 1500 auch Künstlern zugesprochen wurde.20 In dieser Eigenschaft markiert sie nicht nur die Vermittlung zwischen Ideenwelt und Materialität, sondern stellt auch eine Analogie her zwischen künstlerischem Strich und göttlichem Schöpfungsakt: von Valentin und Hieronymus Curio siehe: Paul Heitz (Hg.): Baseler Büchermarken bis zum Anfang des 17. Jahrhunderts, mit Vorbemerkungen und Nachrichten über die Baseler Drucker von Carl Christoph Bernoulli. Straßburg 1895, S. XXVI ff. 18 Druckermarken dienten dazu, die Firma des Druckers deutlich erkennbar zu machen, und bezogen sich daher nicht notwendiger Weise inhaltlich auf das Druckerwesen. Während die ältesten Signets Wappenschilde und Initialen darstellten, wurden sie im Laufe der Renaissance zunehmend aufwendig und sinnbildhaft. Die dargestellten antiken Allegorien und biblischen Motive wurden vornehmlich zum Schmuck entworfen, teilweise von namhaften Künstlern. Siehe Heitz (s. Anm. 17), S. IX f. 19 Desiderius Erasmus. Parabolae sive similiae. Straßburg 1514; sowie Oskar Bätschmann. Holbeins Hand. In: Hans Holbein der Jüngere. Die Jahre in Basel 1515–1532. Ausst. Kat. Kunstmuseum Basel. München 2006, S. 110–116, hier S. 111. Bätschmann beruft sich auf Frank Hieronymus. Oberrheinische Buchillustration. Band 2,1: Basler Buchillustration 1500–1554. Basel 1984, Nr. 389, S. 407 f. 20 Bätschmann (s. Anm. 19), S. 113. Bätschmann erwähnt auch die verstörende Ähnlichkeit von Holbeins zeichnender Hand mit jener seines Leichnam Christi im Grabe aus demselben Jahr. Die unbequeme Haltung des Stifts mit dem Mittelfinger bringt er jedoch mit einem antiken Wortspiel in Verbindung, das auf den gemeinsamen etymologischen Ursprung von Pinsel (penicillus) und Penis abzielt und somit auf die künstlerische Schöpferkraft anspielt.

Von Tupfen, Rissen und Fäden

145

So scheidet Gott in der Genesis – dargestellt in der Schedelschen Weltchronik von 1493 als eine wolkenumringte, „sprechende“ Hand – Licht und Dunkelheit, Himmel und Erde, Erde und Wasser.21 In anderen Worten: er zieht Trennlinien, zeichnet Risse. In seiner Underweysung der Messung beschreibt Dürer den zwischen Nichts und Etwas oszillierenden Punkt zwar als Anfang und Ende aller leiblichen Dinge. Aus dem Punkt gehe jedoch als noch potenteres Mittel der Schöpfung die gewundene Schlangenlinie hervor, denn, die Schlangen Lini ist unendlich zuverendern / darauß man wunderbarlich ding mag machen / […] und wie es wißlich ist / das man allein viel seltzams dings / mit einer Lini machen kann / […] ist woll zudencken was mit zweyen dreyen oder vill Linien auß zurichten sey.22

Wie Felfe aufgezeigt hat, war im 16. Jahrhundert der Glaube an die reale Existenz der Linie in der Natur weit verbreitet.23 Diese Überzeugung entsprang der Vorstellung, dass Gott die Welt nach einem zeichnerischen Plan entworfen habe, in welchem er mittels der sich unendlich windenden Linien eine anmutige Vielfalt an Formen und Kreaturen hervorgebracht habe. Diese galt es dem Künstler mit seinem Strich auf dem Papier einzufangen oder fortzuschreiben, womit sich eine Kontinuität zwischen äußerer Welt und dem Forschungsfeld des Bildmediums ergab. Unter Anderem der Bedeutungszuwachs kunsthandwerklicher Arbeit im Zeitalter der Vermessung und Mechanisierung verlieh dem Vergleich von Schöpfergott und erstem Geometer bzw. Mechaniker Aufschwung.24 Wurde die Welt im Zuge ihrer beginnenden empirischen Erforschung zunehmend als Maschine oder Uhrwerk aufgefasst, die von dem göttlichen „sapientissimus, optimus, potentissimus mechanikos et mechanopoios“ konstruiert worden war, so konnte sie genau deshalb

21 Siehe zur Ikonografie der „sprechenden“ Hand Horst Wenzel. Von der Gotteshand zum Datenhandschuh. Zur Materialität des Begreifens. In: Sybille Krämer, Horst Bredekamp (Hg.): Bild – Schrift – Zahl. München 2003, S. 25–36, insb. S. 30 f. 22 Albrecht Dürer: Underweysung der Messung mit dem Zirkel und Richtscheyt. Nürnberg 1525, o.S. Online verfügbar unter http://digital.slub-dresden.de/werkansicht/dlf/17139/6/ (Stand 08/2017). 23 Robert Felfe: Sehen am Faden der Linie. Spiele des Bildermachens bei Abraham Bosse. In: Helmar Schramm, Ludger Schwarte, Jan Lazardzig (Hg.): Spektakuläre Experimente. Praktiken der Evidenzproduktion im 17. Jahrhundert. Berlin/New York 2006. 24 Zur Vorstellung Gottes als erster Geometer siehe Friedrich Ohly: Deus Geometer. Skizzen zu einer Geschichte der Vorstellung von Gott. In: Norbert Kamp, Joachim Wollasch (Hg.): Tradition als historische Kraft. Berlin u. a. 1982, S. 1–42. Zum Ursprung der experimentellen Wissenschaften und des mechanischen Weltbildes in der kunsthandwerklichen Praxis siehe Edgar Zilsel: The Sociological Roots of Science. In: American Journal of Sociology 47, 1942, S. 1–32.

146 K. Lee Chichester

auch vom Menschen begriffen und gestaltet werden.25 Die von Klaus Maurice ausgemachte „Frage nach dem Vorrang von Ideen oder Materie, Theorie oder Praxis, Denken oder Tun“, die mit einer Abwendung von der kontemplativen Genügsamkeit mittelalterlicher Scholastik und der Hinwendung zu Naturbeobachtung und experimenteller Manipulation einherging, wurde von Kunsthandwerkern und praxisorientierten Wissenschaftlern zunehmend im Sinne der Materie entschieden.26 Die göttliche Hand, die in Holbeins Druckermarke, und umso mehr in ihrer Kopie, den schmalstmöglichen Riss zeichnet, arbeitet im Materiellen, an der Grenze weltlicher Steigerungsmöglichkeit. Als Mittel der Präzision bleibt ihr allein ein retooling vom Pinsel zur Feder beziehungsweise zum Griffel und folglich von der Malerei zur Zeichnung beziehungsweise Gravur. Die Abwandlung des Zeichenmediums durch den Kopisten zeigt, dass er in Holbeins Vorlage die Darstellung einer körperlichen Praxis der Präzision erkannt hat, samt aller Tücke des Schöpfens und Denkens im Material.

Die Einbildung vor Augen: Verkörperte Geometrie Einen weiteren Vorzug des gezeichneten Strichs gegenüber der imaginären Linie nennt Dürer ebenfalls in seiner Einleitung zur Underweysung , wo er, nachdem er einen geraden Strich gesetzt hat, erklärt: Auff das die unsichtig lini / durch den geraden ryß im gemüt verstanden wird / Dann durch solche weyß muß der jnnerlich verstand im eussern werck angezeigt werden / Darumb will jch alle ding / die jch in diesem büchlin beschreib / auch darneben auffreissen / auff das meyn darthun / die iungen zu einer einbildung vor augen sehen / unnd dest baß begreiffen.27

In der formvollendeten Zeichnung lasse sich demnach erst erkennen, ob ein theoretischer Sachverhalt verstanden worden sei, ebenso wie er erst durch seine Ansichtigkeit im wahrsten Sinne des Wortes be-greifbar werde. Mit dem Wörtchen „muß“ suggeriert Dürer allerdings, dass auch nur derjenige über geometrisches Wissen verfügen könne, der die Fertigkeit besitze, eine Figur mit Stift, Papier, Zirkel 25 So beschrieb 1599 der französische Mathematiker und Mediziner Henri de Monantheuil den göttlichen Mechaniker. Zitiert nach Klaus Maurice: Der drechselnde Souverän. Materialien zu einer fürstlichen Maschinenkunst. Zürich 1985, S. 15 f. 26 Maurice (s. Anm. 25), S. 13 ff. Siehe hierzu auch Pamela Smith: The Body of the Artisan: Art and Experience in the Scientific Revolution. Chicago 2004. 27 Dürer (s. Anm. 22), o.S.

Von Tupfen, Rissen und Fäden

147

5 Netzabwicklung. Aus: Albrecht ­ ürer, Underweysung der Messung. D Nürnberg 1525, 4. Buch, Abb. 41.

und Lineal präzise zu konstruieren.28 Ein rein theoretisches Verstehen ist damit ausgeschlossen – erst das Können zählt. Für Dürer ist die Geometrie offenbar eine Wissenschaft, die sich nicht abschließend mit Worten vermitteln lässt, sondern körperliche Fähigkeiten instrumenteller Führung und der Abstimmung von Auge und Hand umfasst. Ohne Handfertigkeit kein Begriff.

28 Zu einem ähnlichen Schluss kam der Humanist Petrus Ramus, der zwischen 1568 und 1570 kunsthandwerkliche Werkstätten u. a. in Nürnberg besuchte und befand, dass die Mathematik nur als angewandte Kunst ihren Zweck erfülle, da es allein darauf ankomme, „die Hand ans Werk anzulegen und […] gut zu arbeiten“. Petrus Ramus: La Remonstrance de Pierre de la Ramée, faite au conseil privé, en la chamber du roy au Louvre, le 18 de janvier 1567, touchant la profession royalle en mathématique. Paris 1567. Zitiert nach Reijer Hooykaas: Humanisme, Science et Réforme. Pierre de la Ramée, 1515–1572. Leiden 1958, S. 21. In den 1950er Jahren entwickelte Michael Polanyi hierfür das Konzept des tacit knowledge, oder impliziten Wissens, das nur im Vollzug bewiesen werden kann und sich der sprachlichen Darlegung entzieht. Michael Polanyi: Personal Knowledge: Towards a Post-Critical Philosophy. Chicago 1958. In der jüngeren Verkörperungsphilosophie taucht, etwa bei Alva Noë, die Vorstellung wieder auf, dass Wissen durch eine grundlegende Fähigkeit zur Handlung bestimmt ist („consciousness is something we do“). Alva Noë: Out of Our Heads. Why You Are Not Your Brain, and Other Lessons from the Biology of Consciousness. New York 2009.

148 K. Lee Chichester

Es ist kein Zufall, dass diejenigen Traktate und Kunstbücher, die den geometrischen Punkt als kleinsten Fleck und die Linie als dünnsten Strich neudefinieren, allesamt in die Perspektive und andere regelhafte Konstruktionen einführen. Sie mahnen damit präzises Arbeiten in einem Bereich an, in dem Falschheit vom Auge sofort erkannt wird, aber auch reale Größenverhältnisse und Maße aus dem Bild herausgelesen werden können.29 Zugleich legitimieren diese Traktate die Verwendung von Stift und Papier als epistemischen Mitteln im Umgang mit mathematischen Konzepten. Nicht umsonst waren es vor allem Künstler, die zur Wiederentdeckung antiker Geometrie in der Frühen Neuzeit beigetragen haben – etwa zur Rekonstruktion der Platonischen und Archimedischen Körper. In seinen Traktaten präsentierte Piero della Francesca insgesamt sechs von 13 archimedischen Körpern, deren räumliche Gestalt aus antiken Textquellen nicht erschließbar war. Dürer fügte noch drei weitere hinzu. Vieles legt nahe, dass hierfür neben einem ausgeprägten visuellen Vorstellungsvermögen der Umgang mit materiellen Hilfsmitteln entscheidend war.30 Erst die Perspektivkonstruktion mit Hilfe von Grundund Aufriss, die Piero in seiner De prospectiva pingendi von 1474/1475 vorgeführt hat, machte es möglich, die charakteristische Regelmäßigkeit dieser Körper zu visualisieren. Doch die Tatsache, dass Piero in seinem Libellus de quinque corporibus regularibus auch davon spricht, Ecken abzuschneiden, um archimedische aus platonischen Körpern zu gewinnen – in der heutigen Mathematik als ‚Trunkation‘ bekannt –, deutet auf die zusätzliche Verwendung mathematischer bozzetti hin. Dürer wiederum stellte regelmäßige Körper als Netzabwicklungen dar – eine Darstellungsform, die er offenbar selbst erfunden und womöglich aus ornamentalen Kachelmustern, wie sie in seiner Underweysung ebenfalls vorkommen, entwickelt hatte ↗ABB. 5 . Judith Veronica Field nimmt an, dass diese Netze als Erkenntnismittel fungierten, da sich einige archimedische Körper mit ihrer Hilfe leichter generieren lassen als durch Abschneidungen. Sie mutmaßt zudem, dass Johannes Kepler dieses potente Werkzeug erkannt und selbst angewandt haben könnte, um die restlichen archimedischen Körper zu entdecken, die er 1619 erstmalig in kompletter Serie publizierte.31

29 Siehe Simon Stevin: Van de Verschaeuwing. Eerste bouck der deursichtighe. Leyden 1605. 30 Judith Veronica Field: The Invention of Infinity: Mathematics and Art in the Renaissance. Oxford 1997, S. 70 ff. 31 Johannes Kepler: Harmonices mundi libri V. Buch II. Linz 1619. Es ist überdies bekannt, dass Kepler selbst Modelle der geometrischen Festkörper anfertigte und weitere bei dem Tübinger Mathematikprofessor Wilhelm Schickard in Auftrag gab. Vgl. Judith Veronica Field: Rediscovering the Archimedean Polyhedra: Piero della Francesca, Luca Pacioli, Leonardo da Vinci, Albrecht Dürer, Daniele Barbaro, and Johannes Kepler. In: Archive for History of Exact Sciences 50, Nr. 3–4, 1997, S. 241–289, hier S. 268 f.

Von Tupfen, Rissen und Fäden

149

Die regelmäßige Schönheit der Polyeder führt schnell zu dem Fehlschluss, dass sie ebenso leicht zu konstruieren wären. Dürer empfiehlt seinem Leser, dass er die Körper „selbs zamen müg legen“, indem er sie „grösser auf ein zwifach gepabt papiers“ lege und „schneyd mit einem scharpfen messer auf der einen seyten all ryß durch den einen pogen papiers“. Anschließend werde der Körper zusammengefaltet, „dan solche ding sind zu vil sachen nutz“.32 Der Teufel jedoch steckt im Detail: Ist eine Falte unscharf geknickt oder eine Linie schief gezogen bzw. breiter als die Schnittfläche des Messers, verliert der Körper seine Regelmäßigkeit, und dem Pappmodell fehlt die Passung. Viele Künstler, die sich in Süddeutschland mit der Perspektivkonstruktion und Geometrie befasst haben, waren als Goldschmiede und Instrumentenbauer ausgebildet. Sie rühmten sich damit, wenn sie einen ‚verkürzten Weg‘ der Konstruktion entdeckten, und verstanden dies keinesfalls als eine Verfälschung mathematischer Geometrie. Als Instrumentenbauer sahen sie es als ihre Aufgabe, Messungen zu erleichtern und umständliche Berechnungen mittels verdrießlicher Tabellen zu überwinden, indem sie Rechenleistungen in Instrumente auslagerten – Hans-Ulrich Seifert spricht in diesem Zusammenhang von toolification.33 Bezeichnender Weise führte Dürer die Perspektive nicht mit Albertis Konstruktionsverfahren ein, sondern stellte im letzten Teil seiner Underweysung eine Reihe von Zeicheninstrumenten vor, die er in folgenden Ausgaben erweiterte. In Süddeutschland folgte eine Handvoll Künstler seinem Beispiel und suchte nach instrumentellen Mitteln zur Beschleunigung der Perspektivkonstruktion mit Stift und Lineal. Dabei wurden die Elemente der Albertischen Perspektivprojektion materialisiert, indem Konstruktionslinien, wie bei Hans Lencker, durch Fäden ersetzt oder die Lichtstrahlen selbst, wie bei Dürer, in Drähten konkretisiert wurden. Letzteres Prinzip wandte auch der Nürnberger Goldschmied Wenzel Jamnitzer an, dessen Perspektivinstrument es erlaubte, regelmäßige Körper, allen voran Polyeder, aber auch militärische Festungen, direkt aus dem Grund- und Aufriss perspektivisch ins Bild zu setzen ↗ABB. 6 .34 Jamnitzer hatte die Funktionsweise 32 Dürer (s. Anm. 22), o. S. 33 Siehe Ausst.-Kat. Prints and the Pursuit of Knowledge in Early Modern Europe, hg. von Susan Dackerman. Harvard Art Museums. Cambridge, MA/New Haven, CT 2011, S. 25; sowie Hans-Ulrich Seifert: From Gunter’s Chain to Systematic Triangulation. Geodetically Generated Landscapes in Early Modern Practice. In: Mapping Space (s. Anm. 2), S. 376 ff. 34 Allein dank einer Radierung Jost Ammans sowie der Veröffentlichung Paul Pfinzings ist der Nachwelt eine Vorstellung von Jamnitzers Instrument überliefert. Siehe Paul Pfinzing: Ein schöner kurtzer Extract d. Geometriae vnnd Perspectiuae […]. Nürnberg 1599. Den Einsatz von Jamnitzers Zeicheninstrument zur Darstellung von Festungen belegt eine Radierung in Johann Faulhaber: Newe geometrische und perspectivische Inventiones […]. Frankfurt am Main 1610, S. 37. Einen weiteren Hinweis geben Linien, die als Fäden mit mäandrierenden Enden dargestellt sind in Samuel Marolois: Opera mathematica ou oeuvres mathematiqves traictans de geometrie, perspective, architecvre, et fortification […]. Amsterdam 1628, Tafel 43.

150 K. Lee Chichester

6 Jamnitzers Perspektivinstrument. Aus: Paul Pfinzing: Ein schöner kurtzer Extract der Geometriae vnnd Perspectiuae wie die Perspectiua ohne Geometria nicht sein kan, ­Hernacher wie die Perspectiua in ihren Wercken auff drey Weg zuuerstehen […]. ­Nürnberg 1599, Tafel 11.

Von Tupfen, Rissen und Fäden

151

der Perspektive und Optik so in seinem Instrument verdichtet, dass die Maschine selbst den Konstruktions-, ja beinahe den Zeichenvorgang übernahm. Der Künstler musste nur mehr am Gerät hantieren: Stäbe verrücken, Ringe verschieben, Halterungen festschrauben, und wie von allein zeichnete sich durch Perforationen eine Figur im Papier ab, deren Punkte nur noch auf der Oberfläche verbunden werden mussten – ein ‚Malen nach Zahlen‘. Umso bedeutender aber wurde die materielle Qualität der Bestandteile: Die Präzision der Zeichnung hing nun ab von der Dicke des Fadens, der Stabilität der Messstäbe und der Dünne der Nagelspitze. Zudem war Jamnitzer weiterhin auf euklidisch konstruierte Grund- und Aufrisse angewiesen35 – und auch hier ist eine Grenze der Genauigkeit schnell erreicht: Ist die Figur allzu komplex, überlagern sich so viele Konstruktionslinien auf dem Papier, dass Orientierung unmöglich oder das Blatt gar vor Tinte schwarz wird. An dieser Stelle – ebenso wie bei geometrisch nicht exakt konstruierbaren, irregulären Körpern – kann nur noch das Augenmaß übernehmen. Der Mathematiker Günther M. Ziegler geht daher davon aus, dass Jamnitzer die Grund- und Aufrisse der komplexeren Körper in seiner Perspectiva corporum regularium von 1568 nicht geometrisch konstruieren konnte und sie entsprechend (jenseits der Grundfiguren) auch nicht mit seinem Instrument gezeichnet hat.36 Als einzige Alternative bleibt eine händische Ausführung auf der Basis eines geübten Zusammenspiels von Auge und Hand. So lässt sich Präzision auch im Künstler selbst verkörpert denken – in den organischen Instrumenten seiner Augen und Hände, die durch Übung verfeinert, geeicht und aufeinander abgestimmt werden. Schon Michelangelo soll, im Gegensatz zu Dürer, gefordert haben, dass der Künstler seinen Richtscheit und Kompass nicht in den Händen halten solle, sondern in den Augen. Letztendlich ist es ja auch das Auge, welches von der Präzision einer Perspektivzeichnung überzeugt werden muss, sofern sie nicht für weiterführende Bildoperationen genutzt wird. Tatsächlich haben zahlreiche Untersuchungen, unter anderem von Field, gezeigt, dass Künstler der Frühen Neuzeit nur in äußerst seltenen Fällen die Regeln der Perspektive eins zu eins angewandt haben.37 Unter anderem vertrauten sie deshalb stär35 In seinem Perspektivtraktat von 1571 veröffentlichte Hans Lencker ein Gerät, mit dem sich Grundrisse von Modellen abtragen ließen. Allerdings ist immer nur eine Hälfte des Körpers für die abtragende Nadel erreichbar. Johannes Lencker: Perspectiva. Nürnberg 1571. 36 Zwar ist es nach Ansicht des Mathematikers Günther M. Ziegler möglich, Jamnitzers in der Perspectiva corporum regularium (Nürnberg 1568) veröffentlichte Körper nach der euklidischen Methode zu konstruieren, „aber die Grund- und Aufrisse sind sicher so kompliziert, dass man da ‚nichts sieht‘“. Das Papier wäre vor Linien schwarz. Ziegler folgert, dass dies nicht die von Jamnitzer gewählte Methode gewesen sein könne (E-Mail-Korrespondenz vom 28. August 2015). 37 Field (s. Anm. 30); Kim H. Veltman: Perspective, Anamorphosis and Vision. In: Marburger Jahrbuch für Kunstwissenschaft 21, 1986, S. 93–117.

152 K. Lee Chichester

ker auf das Urteil des Auges, da die Perspektivgesetze scheinbare Verzerrungen verursachten, die auf die Rundung der Retina und andere optische Effekte zurückgehen. Ironischerweise lag ausgerechnet der Deutung von Masaccios Trinità als frühstem überliefertem streng zentralperspektivischem Gemälde vermutlich eine unpräzise Messung zugrunde: Erst als ein Forscherteam das Fresko aus der Nähe untersuchte, anstatt fotografische Abzüge mit Hilfslinien zu analysieren, deren Breite in der Realität mehreren Zentimetern entsprach, wurden Abweichungen von den Perspektivgesetzen offensichtlich.38 Die Renaissanceforscher hätten durch die Künstlerbücher vorgewarnt sein können, dass ihre Striche nicht breitenlos waren.

38 Field (s. Anm. 30), S. 42 und 43–61.

Susanne Thürigen

„ … so dreht sich das Rad wie der Himmel“ Uhren in Spiegelform als Bilder der Präzision im 16. Jahrhundert

Die 1889 von Wilhelm Ostwald (1853–1932) begründete Schriftenreihe der Klassiker der exakten Wissenschaften versammelte allein bis 1938 rund 240 ins Deutsche übersetzte Abhandlungen aus Mathematik, Physik, Chemie, Mechanik, Optik, Biologie und Kosmologie, um nur einige zentrale Themenbereiche zu nennen.1 Der Chemie-Nobelpreisträger Ostwald schätzte, dass die Geschichte der „exakten Wissenschaften“ als „allgemeines Kulturgut […] nicht länger als dreihundert, höchstens vierhundert Jahre“ bestehe.2 In dieser Formulierung macht sich eine gewisse Unsicherheit in Bezug auf die vor 1700 liegenden Jahrhunderte, insbesondere in Bezug auf das 16. Jahrhundert, bemerkbar. Dies könnte überraschen, deutet die Geschichte des Adjektivs präzise doch selber eine deutlich breitere historische Dimension an, die bis auf das 14. Jahrhundert zurückgeht und zunächst ein genau bestimmtes Maß oder einen genau bestimmten Ort meint. Seit Beginn des 15. Jahrhunderts wurde das Wort in der Zeitmessung in Bezug auf sämtliche Indikationen von Zifferblättern verwendet.3 Zwei Bände in Ostwalds Reihe sind entscheidenden Wegmarken der Geschichte eines Instruments gewidmet, das im 19. Jahrhundert zunehmend als Präzisionsinstrument bezeichnet wurde, nämlich der Uhr: Christiaan Huygens bahnbrechender Traktat über Die Pendeluhr (Horologium oscillatorium) von 1658/1673 sowie Friedrich

1

Wilhelm Ostwald: Ostwalds Klassiker der exakten Wissenschaften, 44 Bde., Leipzig 1889–1894. Die Reihe wurde zwischen 1894 und 1938 und erneut ab 1954 unter verschiedenen Herausgebern fortgesetzt; bis heute sind ca. 280 Bände erschienen (Dank für kritische Lektüre und wichtige Hinweise geht an Philippe Cordez, Julia Saviello und Philippa Sissis).

2

Wilhelm Ostwald: Die Pyramide der Wissenschaften. Eine Einführung in wissenschaftliches Denken und Arbeiten. Stuttgart 1929, S. 13.

3

Siehe das Lemma Précis/précise in: Alain Rey (Hg.): Dictionnaire historique de la langue française. 3 Bde., Paris 2012, Bd. 2, S. 2760–2761. In diese Sinne verwendet Pietroadamo de’Micheli das Wort in seiner Beschreibung der Mantuaner Turmuhr (1473). Transkribiert in: Rodolfo Signorini (Hg.): Il mirabile orologio di Mantova e diciannove disegni inediti del 1706. Le ore medie, lo zodiaco, le fasi lunari, le ore planetarie, le previsioni astrali, caratteri e attività degli umani, regole per scoprire i ladri. Mantua 2011, S. 99–124, hier fol. 84v (S. 105), fol. 89r (S. 107).

154 Susanne Thürigen

Wilhelm Bessels Untersuchungen über die Länge des einfachen Secundenpendels von 1826.4 Was war Präzision also vor dem Zeitalter der ‚exakten Wissenschaften‘, das nach Wilhelm Ostwald und seinen Nachfolgern erst im 18. Jahrhundert eintreten würde? Die Annäherung an diese Frage soll exemplarisch anhand astronomischer Räderuhren erfolgen, die zwischen 1550 und 1650 in Süddeutschland entwickelt wurden.5 Vorstellungen von Präzision oder Ganggenauigkeit wurden hier weniger schriftlich formuliert, als vielmehr an den Objekten selbst verhandelt und ­inszeniert. Die betreffenden Tischuhren aus Eisen und Messing, in einem meist vergoldeten Bronze-, Kupfer- oder Messinggehäuse, werden im Gegensatz zu ihren Vorgängern nicht mehr von Gewichten, sondern von einer aufgerollten Spiralfeder aus Stahl angetrieben, deren Kraft durch die sogenannte Schnecke egalisiert wird. Spindel und Waag überführen den Ablauf der Räder schließlich in eine gleichmäßige und langanhaltende Bewegung. Die im 16. Jahrhundert so genannten ‚Spiegeluhren‘ ↗ABB. 1 , eine bestimmte Form der astronomischen Räderuhr, gaben hierbei ein regelrechtes Bild der Präzision ab: Dass die Augsburger Uhrmacher diese Art von Tischuhr zu ihrem Meisterstück machten, kann als eine direkte Reaktion auf einen europäischen Kundenkreis interpretiert werden, der im Laufe des 16. Jahrhunderts ein zunehmendes Interesse für genaue Zeitinstrumente entwickelte.

Planetenuhren, Himmelsgloben und die Politik der Präzision Das Zusammenspiel von astronomischer Forschung und höfischer Patronage stimulierte unmittelbar technische Innovationen und insbesondere die Verbesserung der Uhrenherstellung. Bruce T. Moran hat in seiner grundlegenden Studie Princes, Machines and the Valuation of Precision in the 16th Century von 1977 die politischen, ökonomischen und philosophischen Rahmenbedingungen aufgezeigt, in denen

4 Christaan Huygens: Die Pendeluhr. Horologium oscillatorium (Ostwalds Klassiker der exakten Wissenschaften 192, hg. von August Heckscher, Arthur von Oettingen). Leipzig 1913; Friedrich Wilhelm Bessel: Untersuchungen über die Länge des einfachen Secundenpendels (Ostwalds Klassiker der exakten Wissenschaften 7, hg. von Heinrich Bruhns). Leipzig 1889. 5 Grundlegend dazu Klaus Maurice: Die deutsche Räderuhr. Zur Kunst und Technik des mechanischen Zeitmessers im deutschen Sprachraum. 2 Bde., München 1976; Ausst.-Kat. Die Welt als Uhr. Deutsche Uhren und Automaten 1550–1650, hg. von Klaus Maurice und Otto Mayr. Bayerisches Nationalmuseum München. München/Berlin 1980; zur Ikonographie der Räderuhren siehe Thomas Fusenig: Räderuhren. In: Hans Holländer (Hg.): Erkenntnis Erfindung Konstruktion. Studien zur Bildgeschichte von Naturwissenschaften und Technik vom 16. bis zum 19. Jahrhundert. Berlin 2000, S. 557–577.

„ … so dreht sich das Rad wie der Himmel“

155

1 Spiegeluhr, Augsburg, vor 1573. Kunsthistorisches Museum Wien.

soziale und wissenschaftliche Vorstellungen von Präzision realisiert werden konnten.6 Am Beispiel dreier gelehrter Machthaber des 16. Jahrhunderts – Kaiser Karl V., Kurfürst Ottheinrich von der Pfalz und Landgraf Wilhelm IV. von Hessen-Kassel – verdeutlicht er, dass Präzision nicht nur in Bezug auf neue astronomische Beobachtungen, sondern auch in Bezug auf den Staatsapparat des lenkenden Souveräns aufgewertet wurde.7 Karsten Gaulke verwies in diesem Zusammenhang auf 6 Bruce T. Moran: Princes, Machines and the Value of Precision in the 16th Century. In: Sudhoffs Archiv 61, 1977, Heft 3, S. 209–228. 7

Zu Karl V. siehe José A. García-Diego: Juanelo Turriano, Charles V’s Clockmaker. The Man and His Legend (span. Orig. 1982). Wadhurst 1986. Zu Pfalzgraf Ottheinrich zuletzt Günther Oestmann: Astrologici und Mechanici im Umkreis Ottheinrichs. In: Ausst.-Kat. Von Kaisers Gnaden. 500 Jahre Fürstentum Pfalz-Neuburg. Bayerische Landesausstellung 2005 in Neuburg a. d. Donau, hg. von Suzanne Bäumler und Evamaria Brockhoff. Augsburg 2005, S. 256–260; für die von Ottheinrich in Auftrag gegebene Planetenuhr Philipp Imsers und Gerhard Emmosers (1554/1561) siehe ders. ebenda, Nr. 7.102 (S. 268–271), mit weiterführender Literatur.

156 Susanne Thürigen

die Bedeutung des Hofastronomen Andreas Schöner in Kassel, der die Idee des Nürnberger Astronomen Regiomontanus, die astronomische Forschung durch die Neuvermessung des Himmels wiederherzustellen, nach Kassel getragen hat.8 Die dort entstandene Planetenuhr (Wilhelmsuhr, 1561) ging bereits über die reine Darstellung der ptolemäischen Theorie hinaus und integrierte neue Daten für Sternpositionen. Ebenfalls in Kassel, wo mithilfe einer Uhr die Längengrade der Sterne vermessen werden sollten, erfand der Hofmechaniker Jost Bürgi die Kreuzschlaghemmung, eine Technik, mit der die mechanische Uhr die Genauigkeit von weniger als einer Minute Differenz am Tag erreichte. Die von ihm signierte Bergkristalluhr, die sich heute im Kunsthistorischen Museum in Wien befindet (1622/1627), zeigte erstmals ein Sekundenzifferblatt und somit eine Verkleinerung der Skala zur Steigerung der nachvollziehbaren Genauigkeit in der Messung.9 Fürstliche Patronage führte zudem zu technischen Innovationen im Bereich der zum Uhrenbau notwendigen Werkzeuge und Instrumente. So mechanisierte Juanelo Turriano für seine im Auftrag Karls V. entstandene Planetenuhr die Herstellung der Zahnräder, die er nun mit einer eigens dafür erfundenen Drehbank gleichmäßig schnitt, anstatt sie mit der Hand auszufeilen.10 Neben den Planetenuhren entwickelten sich auch uhrwerksbetriebene Himmelsgloben, die in größerer Zahl in Kassel oder später auch in Augsburg hergestellt wurden, zu begehrten Stücken an europäischen Höfen.11 Himmelsgewölbe, Sonne und Mond rotierten hier in Bahnen en miniature, zeitgleich mit den schwer zu be-greifenden planetaren Vorbildern. Der zentrale Wortlaut dieses Strebens nach

8 Siehe hierzu Karsten Gaulke: The First European Observatory of the Sixteenth Century, As Founded by Landgrave Wilhelm IV of Hesse-Kassel. A Serious Historiographic Category or a Misleading Marketing Device? In: Stephen Johnston, Mara Miniati, Giorgio Strano (Hg.): European Collections of Scientific Instruments. 1550–1750. Leiden 2009, S. 87–99. Siehe weiterhin für Wilhelm IV. von Hessen-Kassel John H. Leopold: Astronomen. Sterne. Geräte. Landgraf Wilhelm IV. und seine sich selbst bewegenden Globen. Luzern 1986; Jürgen Hamel: Die astronomischen Forschungen in Kassel unter Wilhelm IV. 2. Aufl. Frankfurt am Main 2002; Ausst.-Kat. Der Ptolemäus von Kassel. Landgraf Wilhelm IV. von Hessen-Kassel und die Astronomie, hg. von Karsten Gaulke. Astronomisch-Physikalisches Kabinett in der Orangerie, Kassel 2007; Karsten Gaulke: Wilhelm IV. von Hessen-Kassel. Der Nutzen der Astronomie für einen Fürstenhof des 16. Jahrhunderts. In: Ders. (Hg.): Kepler, Galilei, das Fernrohr und die Folgen. Frankfurt am Main 2010, S. 47–66; siehe für die Planetenuhr, die als Geschenk Wilhelms IV. an Kurfürst August von Sachsen nach Dresden gelangte, auch Michael Korey: Die Geometrie der Macht. Mathematische Instrumente und fürstliche Mechanik um 1600. München/Berlin 2007. 9 Zu dieser Uhr siehe Hans von Bertele: Precision Timekeeping in the pre-Huygens Era. In: Horological Journal 12, 1953, S. 794–816. 10 Siehe Ambrosio de Morales: Las Antigüedades de las ciudades de España. Alcalá 1575, S. 93. Diese gedrechselten Räder seien „tan al justo como era menester“. 11 Zur Sammlungskultur wissenschaftlicher Instrumente: Johnston, Miniati und Strano (s. Anm. 8); Bart Grob, Hans Hooijmaijers (Hg.): Who needs scientific instruments? Conference on scientific instruments and their users. Leiden 2006; zu den mechanischen Himmelsgloben Leopold (s. Anm. 8); Alexis Kugel: Sphères. L’art des mécaniques célestes. Paris 2002.

„ … so dreht sich das Rad wie der Himmel“

157

2 Georg Roll, Johann Reinhold: Mechanischer Himmels­globus, 1584. Kunsthistorisches ­Museum Wien.

Präzision drückte sich in dem sicheren, unwandelbaren „waren lauff aller Planeten“12 aus. Es galt, diesen wie auch den Lauf der Gestirne untrüglich und gerecht, mit größtmöglicher Sicherheit und Klarheit in Konkurrenz mit der Natur nachzuahmen, was Uhrmacher wie Georg Roll und Johann Reinhold in Augsburg, die sich in den 1580er Jahren auf den Bau mechanischer Himmelsgloben spezialisierten, in ihren dazugehörigen Bedienungsanleitungen betonten ↗ABB. 2 .13

12 Zitiert nach dem Wortlaut der Auftragsvergabe Ottheinrichs von der Pfalz für eine Planetenuhr an den Mathematiker Philipp Imser (nach Hans Rott: Ott-Heinrich und die Kunst. In: Mitteilungen zur Geschichte des Heidelberger Schlosses 5, 1905, S. 1–232, hier S. 117). 13 „[…] syhet man die Sonne mit dem Globo ordenlich herumb gehn, doch khomet sy alle tag einen grad für sich, damit sy ihren gang Im Jahr vollkhommen richtig und gantz durch den Zodiacum vollbringe. […] der Mon […] hat er allermassen Inn disem Globo Coelesti durch den Zodiacum seinen richtigen gang […]“, gemäß der Transkription von Ernst Schmidt: Eine antike Globusuhr aus dem Königl. Mathematisch-Physikalischen Salon Dresden. In: Leipziger Uhrmacher-Zeitung 12, 1905, Heft 5, S. 116–120, hier S. 118.

158 Susanne Thürigen

Als ein weiterer stimulierender Faktor für die Verbesserung der Uhrenher­ stellung kann die Suche nach der Lösung eines der komplexesten astronomischen Probleme angeführt werden: die genaue Messung des geografischen Längengrads, bei der ebenfalls versucht wurde, Uhren einzusetzen. Philipp III. (1578–1621), König von Spanien, schrieb eigens einen hochdotierten Wettbewerb für die Entwicklung eines überzeugenden Verfahrens aus.14 Bereits diese wenigen Beispiele zeigen auf, dass Präzision als politischer, sozialer und wissenschaftlich-technischer Wert im 16. Jahrhundert eine zentrale Rolle in Astronomie und Instrumentenbau spielte. „Die schönsten und richtigsten Uhren“, so schrieb 1595 der italienische Enzyklopädist Tommaso Garzoni (1549–1598), kommen von den zahlreichen Uhrmachern in Deutschland, die im europäischen Vergleich den „Ruhm in dieser Profession“ davontragen würden.15 Am Beispiel des Uhrenbaus bildete sich im 16. und 17. Jahrhundert die Vorstellung aus, dass der scharfsinnige Geist der ‚Deutschen‘ in ihrer manuellen Intelligenz zu finden sei, wie dies auch der nicht weiter bekannte Autor einer History of Most Manual Arts (1661) auf den Punkt brachte: „[…] for these Germans are said to have their wits at their fingers ends.“16 Tatsächlich griffen aber weder die süddeutschen noch die italienischen, französischen oder englischen Uhrmacher vor der Erfindung der Pendeluhr Mitte des 17. Jahrhunderts in umfassendem Maße zur Feder, um über ihr Handwerk zu räsonieren.17 Zwar gehörte zum Standard der Uhrenproduktion, dass zu jeder Tischuhr auch eine selbstverfasste, handgeschriebene Gebrauchsanweisung vorgelegt wurde, aber die wenigen noch erhaltenen Beschreibungen astronomischer Tischuhren des 16. und 17. Jahrhunderts nehmen sich insgesamt doch sehr schlicht aus. Süddeutsche Uhrmacher wie Kaspar Langenbucher oder Niclaus München erläutern in knappen, sachbezogenen Worten verschiedene astronomische oder astrologische Funktionen ihrer Objekte. Beide betonen Fleiß und Aufwand der handwerklichen

14 Silvio A. Bedini: The Pulse of Time. Galileo Galilei, the Determination of Longitude, and the Pendulum Clock. Florenz 1991, S. 9–20. 15 „[…] et da infiniti germani, che hoggidì portano il vanto in questa professione, venendo tutti gli horologii piu belli et piu giusti dalle parti loro” (Tommaso Garzoni: La piazza universale de tutte le professione del mondo. Ausg. Venedig 1599, S. 625). 16 Thomas Powell: Humane Industry. Or, A History of most Manual Arts. London 1661, S. 184: „Gafferellus a Frenchman makes mention of a clock that he had seen at Legorn, made by a German (for these Germans are said to have their wits at their fingers ends) on which clock a company of shepherds playd upon the bagpipes, with rare harmony and motion of the fingers, while others danced by couples, keeping time and measure, and some others capered and leaped.“ 17 Eine Ausnahme wäre vielleicht Attilio Parisio: Discorso […] sopra la sua Nuova Inventione d’Horologi con una sola Ruota. Venedig 1598. Die erste Beschreibung des Uhrwerksmechanismus findet sich bei Girolamo Cardano: De Rerum Varietate Libri XVII. Basel 1557. Den ersten umfassenden, nicht ganz fehlerfreien Traktat zu Monumental- und Kleinuhren schrieb der Kapuzinermönch Giuseppe da Capriglia: Misura del Tempo, cioè Trattato d’Horologij da Ruota di tre Ordini. Padua 1665.

„ … so dreht sich das Rad wie der Himmel“

159

3 Zeichnung einer Tischuhr (Spiegeluhr) aus dem 17. Jh. Historisches Museum Frankfurt.

Arbeit, von den fein gestochenen Gravuren bis zum schön gearbeiteten Futteral. Sowohl Langenbucher als auch München beziehen sich jedoch weniger auf den inneren Uhrwerksmechanismus als auf die reizvolle, äußere Ummantelung.18 Ein Anspruch auf Ganggenauigkeit und Präzision wird hier also noch nicht greifbar. Um ihre potentiellen Auftraggeber und Abnehmer jedoch im Vorfeld des 18 Niclaus München: Verzaichnus, was mein Niclaus München kleinen Uhrmachers alhier in Nürnberg gefertigtes Maisterstuckh verrichten thuett (1640, MS. im Staatsarchiv Hannover). In: Claudius Saunier: Die Geschichte der Zeitmeßkunst von den ältesten Zeiten bis zur Gegenwart. 3 Bde., Bautzen 1903, Bd. 2, S. 440–443; Kaspar Langenbucher: Verzaichnuß und ware beschreibung der Spiegeluhr und Augsburger Maisterstuckg […] (1649, Herzog Anton Ulrich-Museum, Altregistratur, Neu 318).

160 Susanne Thürigen

Auftrags überzeugen zu können, bedurfte es werbender Mittel, die hier weiter Aufschluss geben. So galt es für die Uhrmacher, ihre zukünftigen Auftraggeber entweder mit einer sogenannten Visierung des prospektiven Objekts, also einer ausgearbeiteten, oft kolorierten Federzeichnung ↗ABB. 3 , oder bei einem Werkstattbesuch und während des Probelaufes einer Uhr mit eigenen Erläuterungen zu beeindrucken. Beide Verfahren appellierten insbesondere an den Sehsinn. Dazu passt, dass auch Kaspar Langenbucher und Niclas München in ihren Gebrauchsanweisungen auf die reiche optische Erscheinung ihrer Uhren verwiesen haben. Es ließe sich daher fragen, ob Vorstellungen von Präzision insbesondere auf visuellem Wege in Szene gesetzt wurden.

Die Spiegeluhr. Eine Objekterfindung, oder: Die Bildwerdung der Uhr Ein Blick in die ersten süddeutschen Zunftordnungen der Uhrmacher in Nürnberg (1565), Würzburg (1572), Augsburg (1565/1577) oder Ansbach (1591), in denen die Regeln für die Meisterprüfung fixiert sind, macht deutlich, dass die äußere Erscheinungsform weniger streng bestimmt war als die Funktionen der Uhrwerke selbst – in Nürnberg wird schlicht darauf verwiesen, dass Gehäuse und Dekoration von den Kandidaten selbst hergestellt werden müssten.19 Umso überraschender ist die genaue Anweisung der Augsburger Zunftordnung von 1577, welche die angehenden Uhrmacher dazu aufforderte, eigenverantwortlich und als zweites von insgesamt fünf Meisterstücken „eine Uhr“ anzufertigen, „welche man einen Spiegel nennt, der auch alle Dinge anzeigt und schlägt wie bei der vorerwähnten Uhr“ – eine Tischuhr in Spiegelform also, die Stunden (nach Wahl 12 oder 24) und Viertelstunden schlagen und auch wecken sollte.20 Zur weiteren Ausstattung gehörten ein Astrolabium sowie die Anzeige der aktuellen Länge des hellen Tages, des Datums sowie der Position der Planeten mit ihren Zeichen. Die Spiegeluhr wurde in der Folge zu einer Art Aushängeschild der Augsburger Zunft.21

19 Albert Gümbel: Aktenstücke zur Geschichte der mittelfränkischen Uhrmacherkunst. Halle 1928; siehe für einen Überblick der Zunftordnungen Granville H. Baillie: Clocks and Watches. A Historical Bibliography. London 1951; Klaus Maurice: Von Uhren und Automaten. Das Messen der Zeit. München 1968, S. 28–32 und Maurice (s. Anm. 5), S. 127–146. Speziell zu Augsburg siehe Eva Groiss: Das Augsburger Uhrmacherhandwerk. In: Die Welt als Uhr (s. Anm. 5), S. 64–89. 20 Diese „vorerwähnte“ Uhr schlägt „[…] Stunden und Viertelstunden. Sie soll auch wecken und soll auch das Astrolabium, die Taglänge, den Kalender, die Planeten mit ihren Zeichen zeigen. Wenn ein Viertelzeiger gedreht wird, sollen alle Zeiger mitgehen, außerdem soll sie nach Wahl 12 oder 24 Stunden schlagen.“ Zitiert nach der Transkription der Zunftordnung bei Groiss (s. Anm. 19), S. 70–71. 21 Langenbucher erwähnt dies explizit im Titel seiner Gebrauchsanweisung.

„ … so dreht sich das Rad wie der Himmel“

161

Es ist zunächst nicht gesichert, ob die Idee der Spiegeluhr in Augsburg selbst entstand. Einen frühen Hinweis auf eine solche liefert ein Porträt der Erzherzogin Anna von Österreich des Münchner Malers Hans Mielich (1556) im Kunsthistorischen Museum in Wien. Ein Inventar Kaiser Karls V., ihres Onkels, aus dem gleichen Jahr führt indessen eine Spiegeluhr aus München auf.22 Die erste erhaltene Spiegeluhr stammt jedenfalls aus Augsburg und wurde 1564 von Jeremias Metzger geschaffen. Sie befindet sich heute im Victoria & ­Albert Museum in London, ihr Uhrwerk wurde jedoch stark verändert. Aus Metzgers Werkstatt kam möglicherweise eine weitere Version, die um 1573 entstanden ist ↗ABB. 1 . Herkules sitzt hier auf einem runden, durchbrochenen Sockel. Anstelle des sphärischen Himmelsgewölbes lastet eine trommelförmige, senkrecht aufgestellte Uhr auf seinen Schultern. Darüber lagert eine weitere, kleinere ­Trommel, an deren Seiten zwei Sphinxen ihre Köpfe in die Höhe strecken. Den oberen Abschluss des Objektes bildet eine antikisch gekleidete Fortuna, die auf einem goldenen Ball balanciert. Ein Zipfel des hinter ihr aufgeblähten Segels umschlingt ihre rechte Hand, mit ihrer Linken hält sie das Segel weit emporgestreckt über sich. Das Zifferblatt der Uhr zeigt auf der Vorderseite ein bewegliches Astrolabium mit Drachen-, Sonnen- und Mondzeiger. Herkules schultert in dieser astronomischen Uhr also anstelle des sphärischen ein planes Himmelsgewölbe. Auf der Rückseite ist die sogenannte „Nürnberger Uhr“, eine spezielle Stundenzählung der Reichsstadt, abzulesen ↗ABB. 4 . Für die drei zunächst fantastisch anmutenden, antikischen Gestalten in den Medaillons der Rückseite, die formal die ebenfalls runde Anzeige der Nürnberger Uhr sowie die kleinere Scheibe, in der die Stunde geviertelt wird, ergänzen, lassen sich Vorlagen bei Virgil Solis ausfindig machen: Demnach wird ein nicht näher bestimmter Herrscher in einen kosmischen Rahmen – Sol und Luna – eingebettet.23 Ursprünglich schlug die Uhr jede der angezeigten Viertelstunden. Das hier aufgeführte Aufbauschema von Postament, figürlichem oder vasenförmigem Nodus, aufgesetzter Trommel mit Uhrwerk und Zifferblatt sowie einer weiteren Überkrönung zeichnet nahezu jede der zahlreich erhaltenen Spiegeluhren aus.24 Es entspricht in vielerlei Hinsicht dem eines Standspiegels, wie der Vergleich mit einer 22 „Item le premier de Municque a forme de myroir a deux monstres sonnant les mynutes et depuis la racontre par montre clais.“ Fernando Checa Cremades (Hg.): The Inventories of Charles V. and the Imperial Family. Madrid 2010, Bd. 1, S. 50f./21 (Inventario de joyas dejadas en España, 2. Oktober 1556. Archives Générales du Royaume, Bruxelles, Chambre des Comptes, leg. 97). Aus dem Inventareintrag geht indes nicht hervor, ob die genannte Tischuhr in München hergestellt oder vielleicht auch nur dort angekauft wurde. 23 Siehe Hollstein’s German Engravings, Etchings and Woodcuts, 1400–1700, hg. von Giulia Bartrum. Rotterdam 2004, Nr. 754 und 776. Die untere Figur ist in der Vorlage von Virgil Solis mit den Lettern „A POLIN“ (Apoll) gekennzeichnet. 24 Siehe für einen ersten Überblick Maurice (s. Anm. 5), Bd. 2, Nr. 540–565.

162 Susanne Thürigen

4 Spiegeluhr, Augsburg, vor 1573 (Rückseite). Kunsthistorisches Museum Wien.

5 Peter Flötner: Entwurf für einen ­Spiegel (Kopie?). Universitätsbibliothek Erlangen.

Zeichnung aus der Nürnberger Bilderfabrik Peter Flötners zeigen kann ↗ABB. 5 . Auch hier spielt Zeitlichkeit eine Rolle: Der Nodus des Spiegels wird auch an diesem Beispiel anthropomorphisiert, und zwar mit einer jungen Frau, deren Jugendlichkeit durch den von ihr getragenen, gefüllten Obstkorb akzentuiert wird. Ein Totenkopf und zwei weinende Putten oberhalb des Rahmens bilden dazu ein Memento mori, das für die Eitelkeit des Lebens steht, welches so fragil ist wie das Spiegelglas selbst.

„ … so dreht sich das Rad wie der Himmel“

163

Spiegel, Uhren und astronomisch-astrologische Prophetie Die ausgewählte Kundschaft Augsburger Uhrmacher wie Jeremias Metzger wird auch an der Spiegeluhr aus Wien deutlich:25 Wie eine Inschrift auf der Postamentplatte erläutert, verehrte Abt Johannes von Weingarten die Uhr dem Erzherzog Ferdinand II. von Österreich, einem Neffen Kaiser Karls V. und seit 1564 Landesfürst von Tirol in Innsbruck.26 Die Aktivitäten Ferdinands, der die Grundsteine der berühmten Kunst- und Wunderkammer auf Schloss Ambras bei Innsbruck legte, stellten einen prominenten Kontext für die Rezeption einer Spiegeluhr dar. Aus seinem Nachlassinventar geht indes hervor, dass er neben Tischuhren und -automaten auch das Uhrmacherwerkzeug dafür besaß.27 Es lässt sich nicht mit Sicherheit sagen, ob er die Werkzeuge ebenso unermüdlich zum Einsatz brachte wie etwa kurze Zeit später Herzog August der Jüngere von Braunschweig-Lüneburg (1579–1666).28 Jedenfalls betätigte sich Ferdinand II. nicht nur als Glasbläser und Kunstdrechsler, sondern auch als Mineraliensammler und Metallgießer und kam damit in unmittelbare (und durchaus riskante) Berührung mit metallurgischen Techniken.29 Es erscheint also durchaus plausibel, dass Ferdinand auch in der Uhrmacherkunst dilettierte. Während Ferdinands Devise Vincit potentia fati („die Macht des Schicksals siegt“) eher auf das unumgängliche menschliche Schicksal hindeutet, wird ihm in einem Porträtstich Francesco Terzios als Imprese eine Karavelle im Sturm mit dem Motto Sic resistit („auf diese Weise widersteht sie“) zugeeignet:30 Dies lässt vor dem Schicksal eine Gestaltungsmöglichkeit offen, die man sich von dem Gebrauch insbesondere astronomischer Uhren versprach. Das prophetische Potenzial der Astrologie und auch des Spiegels – der Einfluss des Menschen auf sein

25 Erwin Neumann: Die Tischuhr des Jeremias Metzker von 1564 und ihre nächsten Verwandten. Bemerkungen zur Formengeschichte einer Gruppe süddeutscher Stutzuhren der Renaissance. In: Jahrbuch der Kunsthistorischen Sammlungen in Wien 57, 1961, S. 89–122. 26 Dies wird an einer Inschrift deutlich, die in die Platte an der Unterseite des Fußes eingraviert wurde. Die Inschrift ist transkribiert im Ausst.-Kat. Die Entdeckung der Natur. Naturalien in den Kunstkammern des 16. und 17. Jahrhunderts, hg. von Wilfried Seipel und Alfred Auer. Schloss Ambras Innsbruck und Kunsthistorisches Museum Wien. Wien 2006, S. 221–222. 27 Inventar des Nachlasses Erzherzog Ferdinands II. von Tirol in Ruelust, Innsbruck und Ambras. In: Jahrbuch der Kunsthistorischen Sammlungen 7, 1888, Heft 2, Reg. 5556, S. CCXXVI–CCCXII, S. CCXLIII: „In ainem nidern casten […] Uhrmacherwerchzeug“. Das Interesse Ferdinands II. an der Astrologie diskutierte zuletzt Ivo Purš: Erzherzog Ferdinand II., Astrologie und das Lustschloss Hvězda (Stern). In: Studia Rudolphina 14, 2014, S. 15–29. 28 August Fink: Die Uhren Augusts d. J. Braunschweig 1953. 29 Siehe Ivo Purš: Das Interesse Erzherzog Ferdinands II. an Alchemie und Bergbau und seine Widerspiegelung in seiner Bibliothek. In: Studia Rudolphina 7, 2007, S. 75–109, hier besonders S. 75–76. 30 Purš (s. Anm. 27), S. 22–26.

164 Susanne Thürigen

6 Frontispiz (Holzschnitt) zu Pietroadamo de’­Micheli: Dichiaratione de l’Horologio di mantova (verfasst 1475), Mantua 1547.

fatum  – ist schon früh mit Monumentaluhren in Zusammenhang gebracht wor-

den. P ­ ietroadamo de’Micheli rühmt in dieser Hinsicht bereits 1473 die Mantuaner ­Turm­uhr ↗ABB. 6 : Öffne also die Augen des Verstandes, um diese Geheimnisse des Himmels zu verstehen, jetzt, wenn du schaust, kannst du alles in diesem Spiegel der freundlichen Geister sehen, der Mantua geschenkt wurde, um die zukünftigen Dinge vorherzusehen, die gegenwärtigen Dinge zu ordnen, und auch die verborgenen und dunklen, vergangenen Dinge zu verstehen und zu kennen.31

31 Signorini (s. Anm. 3), fol. 96v-r (S. 111–112), hier fol. 96r (S. 112): „Apri adonque gli occhii de l’intelletto ad intender questi secreti del cielo, ora che veder porrai el tutto in questo ostensorio specchio de spiriti gentili, donato a Mantua per prevedere le cose future, ordinar le presenti, intender et saper le preterite nascose e occulte.“

„ … so dreht sich das Rad wie der Himmel“

165

Wie in einem prophetischen Spiegel sei es also dem Betrachter einer astronomischen Uhr möglich, das eigene Schicksal am Zifferblatt abzulesen und bei seiner Lebensführung zu bedenken. Nicht ohne Grund wurden im 16. Jahrhundert auch die positiven gesundheitlichen Folgen gelobt, die mit der Erfindung der Kleinuhren einhergehen würden.32 Für Ferdinand II. konnte die Spiegeluhr darüber hinaus, im Kontext politisch-ethischer Praxis, sinnbildhaft die an den Fürsten gestellte Forderung praktischer Klugheit im politischen Handeln (prudentia/providentia) verdeutlichen. Der vergleichende Blick auf eine Personifikation der Astronomie aus der Hand des Ulmer Malers Martin Schaffner könnte außerdem belegen, dass die bei ­Metzgers Goldschmiedewerk angefügten Sphinx-Figuren keine beliebigen Versatzstücke zur bloßen Verschönerung waren ↗ABB. 7. Die Astronomie hält hier einen konvexen Standspiegel in der Hand, der von den Flügeln einer Sphinx getragen wird.33 Im selben Sinne gestand der Kleriker Jost Bodeker in seinen Erläuterungen der von ihm konstruierten Osnabrücker Domuhr (1587), dass „ein jeder practicus, so lust und lieb zu der Astrologien und ein liebhaber der Astronomien ist […] viel mehr und besser als ich, hier auß sehen und merken und viel dinges hiervon judicieren konnen“:34 Seine Uhrmacherkunst sah er demnach als Dienstleistung für die Astrologie. Die Spiegelform der Tischuhr verweist also auch theoretisch auf das Potential, das die astronomisch-astrologischen Funktionen einer solchen Uhr entfalten können, sofern ihr Besitzer das nötige Wissen dazu mitbringt. Die Ineinssetzung von Tischuhr und prophetischem Spiegel setzt dabei voraus, dass die Uhr die himmlischen Verläufe oder die Rotationen der nördlichen Fixsternsphäre exakt reproduzieren würde. Zum anderen verweist die Spiegelform auf die menschlichen Grenzen astronomischer Forschung und astrologischer Einsicht. Als der Schaffhauser Groß- und Kleinuhrmacher Isaak Habrecht, der maßgeblich am Bau der Straßburger Münsteruhr beteiligt war, 1633 verstarb, wurden zu seinen Ehren mehrere auf ihn gehaltene Grabreden zu einem kleinen Band zusammen32 Der Zusammenhang zwischen Uhr und Spiegel im medizinischen Sinne besteht in der Selbstkomplexion. So rät Girolamo Cardano beispielsweise dazu, sich einen Spiegel zu beschaffen, um die sich verändernden Zustände des eigenen Körpers zu beobachten, während astronomische Angaben der Uhr etwa der Bestimmung des richtigen Zeitpunktes für medizinische Eingriffe wie den Aderlass dienten. Siehe Nancy G. Siraisi: The Clock and the Mirror. Girolamo Cardano and Renaissance Medicine. Princeton 1991. 33 Justus Lange: Die Erfindung der Welt. Martin Schaffners bemalte Tischplatte von 1533. Kassel 2002. 34 Jost Bodeker: Ein kurtzer unterricht und einleytung des new erfundenen astronomischen uhrwerks zu Ossnabrug im Dhome (1587). Abgedruckt bei Hermann Veltman: Handschriftliche Aufzeichnungen über einige alte jetzt verschwundene Uhrwerke der Stadt Osnabrück. In: Mitteilungen des Historischen Vereins zu Osnabrück 15, 1890, S. 232–302, hier S. 254. Bodeker fährt fort: „[…] als wie ein jedes jahr zukunfftig sein wirtt mit zulassung Gottes, als von kranckheiten, von sterben, von kriegen, von teurer zeitt, von fruchtbarkeit des ertreichs und des dinges vielmehr etc.“

166 Susanne Thürigen

7 Die Astronomie. Detail eines Bildertisches von Martin Schaffner, 1533. Museum Schloss Wilhelmshöhe, Kassel.

gefasst und gedruckt. Ausführlich lobte man seine außergewöhnliche Expertise in der Himmelserforschung: Hie ligt deß Himmelskunst Herr Habrecht hocherfahren Der weder tag noch nacht that fleiß vnd arbeyt sparen Nur daß er mehr vnd mehr Gotts wunder lehrnen solt Nur daß er wissen moecht waß er je wissen wolt.

„ … so dreht sich das Rad wie der Himmel“

167

So hat ihn Gottes hand gen Himmel gar gefuehret Da er es in dem werck vor hellen augen spueret Wie schawen alle noch durch ein verachtes glaß Biß daß auch wallen wir die liebe Himmelstraß.35

Allein im Tode würde der himmelsforschende und wissbegierige Astronomen-Uhrmacher an sein Ziel kommen. Durch seinen Fleiß habe er sich zwar schrittweise größere Einblicke in ‚die Wunder Gottes‘ erarbeitet, doch erschließe sich ihm der ganze Anblick des Kosmos erst im Himmelreich. Die Rede schließt mit einem bekannten Zitat aus Paulus’ Korintherbriefen: „Was wir jetzt nur in einem Spiegel und als Rätsel sehen, werden wir einmal von Angesicht zu Angesicht schauen“ (1.Korinther 13:12).36 Die Vorstellung des Spiegels in den Korintherbriefen beruht letztlich noch auf älteren Techniken der Glasherstellung, seine Oberfläche ist hier nicht kristallklar und transluzid, sondern trüb zu denken.37 Einem frommen Betrachter zeigt die Spiegelform also gleichzeitig die Grenzen astronomischer Einsicht und die Unergründlichkeit des göttlichen Geheimnisses auf.

Spiegeluhren als Ebenbilder des Himmels Astronomen, Kosmologen oder Geografen haben ihre Arbeit selbst als eine maximale Annäherung an das kosmische Ur- oder Vorbild gedeutet, als das Erstellen von spiegelartigen, unverzerrten Ebenbildern von größtmöglicher Ähnlichkeit (similitudo) oder von Simulachra, und ihre Arbeit zuweilen auch direkt mit dem Porträtieren gleichgesetzt. Die Geometrie des Himmels, so schrieb beispielsweise Paracelsus, lehre, „das Firmamentum [zu] contrafeiten auff ein ander Corpus. Gleich als ein Maler der ein ding abconterfeit mit farben / das wirdt hier in ein Instrumentum gebracht“. Wenn der Vergleich zutrifft, wären auch die Uhrmacher nach Paracelsus Himmelsmaler.38

35 Threni Beatis Manibus Viri Clarissimi & Excellentissimi, DN. ISAACI HABRECHTI Med & Philos. Doctoris experientissimi, & in Rep. Argentoratensium Practici felicissimi, dexterrimi, Mathematici quoque celebratissimi. Straßburg 1633 [mit Bleistift datiert], Bibliothèque Nationale et Universitaire de Strasbourg, M.24.694, §3. 36 Siehe dazu Herbert L. Kessler: Speculum. In: Speculum. A Journal of Medieval Studies 86, 2011, Heft 1, S. 1–41. 37 Faye Tudor: ‘All in him selfe as in a glass he sees’. Mirrors and vision in the Renaissance. In: John Shannon Hendrix, Charles H. Carman (Hg.): Renaissance Theories of Vision. Farnham 2010, S. 171–186, S. 172. 38 Theophrastus Paracelsus: Astronomia magna. Frankfurt am Main 1571, S. 33. Die Beziehung zwischen Spiegel und Malerei ist ein weites Thema, siehe dazu beispielsweise Tudor (s. Anm. 37).

168 Susanne Thürigen

8 Theodor Galle nach Jan van der Straet: Die Uhrmacherwerkstatt. Kupferstich aus der Serie Nova Reperta, um 1590, Blatt 5.

Seit ihrer Erfindung wird die Räderuhr als Modell der Beschaffenheit des Kosmos verstanden.39 „Fein aus Eisen gemacht, so dreht sich das Rad wie der Himmel. Zeigt die Stunden genau, jetzt und auch später an“ ist in einem Vers zu lesen, welcher der Darstellung einer Uhrmacherwerkstatt nach Jan van der Straet beigegeben wurde ↗ABB. 8 . Das Blatt ist Teil der berühmten Kupferstichreihe über technische Erfindungen van der Straets (Nova Reperta), die circa 1590 im Auftrag des Florentiners Luigi Alamanni entstanden ist.40 Hier werden außerdem die be39 Fusenig (s. Anm. 5) 2000, S. 557. 40 „Rota aequa ferrea aetherisque voluitur, Recludit aequè et haec et illa tempora.“ Text zu Jan van der Straet, Die Uhrmacherwerkstatt, Blatt 5 der Kupferstichserie Nova Reperta, Antwerpen um 1590. ­D eutsche Übersetzung nach Jan van der Straet: Nova Reperta. Erfindungen und Entdeckungen des Mittelalters und der Renaissance in Kupferstichen des ausgehenden 16. Jahrhunderts (Reproduktionen nach dem Original-Exemplar der 1. Aufl.), hg. vom Deutschen Museum. München 1972. Alamanni bestellte zunächst zehn Kupferstiche inklusive Frontispiz, darunter Blatt 5. Später wurden der Serie weitere zwölf Kupferstiche hinzugefügt. Zur Diskussion der Datierung und der Referenzen van der Straets siehe Ales-

„ … so dreht sich das Rad wie der Himmel“

169

ruflichen Anforderungen deutlich, die an die Uhrmacher gestellt wurden. Unter die Tätigkeiten, die ein scharfes Augenmaß erfordern, zählt van der Straet neben dem Schreiben und Lesen mehrere feinmechanische Berufe: Lederer und Schneider, sowie Kupferstecher und Uhrmacher tragen hier eine Brille, so wie in anderen Werkstattdarstellungen des 16. Jahrhunderts auch Gold- und Silberschmiede.41 Prüfend wird ein Zahnrad observiert und der regelmäßige Abstand zwischen den ausgefeilten Zähnen mit den Fingern ertastet. Die Kleinuhrmacherkunst wird an dieser Stelle nicht nur in ihrer ganzen Breite gezeigt – von der großen, kastenförmigen Uhr bis zu den feinen Halsuhren –, sondern auch als eine ars präsentiert, die sorgsam ausgebildete Bewegungen und scharfe Sinne erfordert. Der dem Kupferstich beigegebene Vers zielt dabei auf die harmonischen, genauen und tatsächlichen Himmelsbewegungen sowie auf die präzise Stundenangabe ab. Präzision hieß also, ein wahres Abbild des Kosmos herzustellen, eine kinetische Simulation der wahren himmlischen Bewegungen, die auf einer stetig verbesserten Ganggenauigkeit des Uhrwerkes beruht, und damit auf sorgfältiger Herstellung und einer bewussten Wahl von Materialien in Verbindung mit detaillierten astronomischen Daten. Mit der Wahl der Spiegelform taten die Augsburger Uhrmacher also offensichtlich kund, dass die Herstellung von genauen Zeitmessern und Präzision nicht allein in der Hand ausgewählter Mechaniker wie etwa Jost Bürgi in Kassel liege. Eine ganze Zunft wie jene der Augsburger beanspruchte im Gegenteil diese Expertise für sich. Thomas Fusenig gab zu bedenken, dass sich in den Bildprogrammen frühneuzeitlicher Räderuhren „trotz ihrer großen Bedeutung keine kontinuierliche ikonographische Tradition der Innovation ausgebildet hat“.42 Allerdings haben die Augsburger mit einer spezifischen Form, nämlich der Spiegeluhr, ein Bild für ­mechanische Präzision geschaffen, das sich als erfolgsversprechend gut hundertfünfzig Jahre halten sollte – trotz der sich im 16. Jahrhundert andeutenden Erschütterungen der aristotelischen und christlichen Vorstellungen der Unveränderlichkeit der himmlischen Sphäre, auf der es beruhte.43

sandra Baroni Vannucci: Jan Van Der Straet detto Giovanni Stradano. Flandrus pictor et inventor. Mailand 1997, S. 397–400, Kat. Nr. 697. Vannucci datiert die sieben Vorbereitungszeichnungen für die erste Serie 1588 und 1589, siehe S. 282–288, Kat. Nr. 461–477. 41 Siehe u. a. Alessandro Feis Darstellung einer Goldschmiedewerkstatt (1570, Florenz, Palazzo Vecchio, Studiolo Francesco I. de’ Medici), von dem die Serie van der Straets vermutlich inspiriert war. Vgl. Lucy Davis: Renaissance Inventions: Van Eyck’s Workshop as a Site of Discovery and Transformation in Jan van der Straet’s Nova Reperta. In: Netherlands Yearbook for History of Art 59, 2009, S. 223–248, hier S. 227. 42 Fusenig (s. Anm. 5). Die Wahrnehmung der Spiegelform veränderte sich indes innerhalb dieser anderthalb Jahrhunderte; dies soll an anderer Stelle untersucht werden. 43 Siehe für einen Überblick Ann Blair: Natural Philosophy. In: Lorraine Daston, Katherine Park (Hg.): Early Modern Science (The Cambridge History of Science, Bd. 3). Cambridge 2006, S. 363–406, insbes. S. 385–387.

170 Susanne Thürigen

Die technikikonologische Analyse sollte zeigen, welch zentrale Rolle die Ummantelung einer Uhr durch ein messingvergoldetes Gehäuse in Spiegelform für die Selbstdarstellung einer feinmechanischen Zunft gespielt haben könnte. Sie dient der Reflexion in jeder Hinsicht des Wortes, indem sie die Techniken des Uhr­macherhandwerks in sich aufnimmt und sie visuell repräsentiert.44 In diesem ­Sinne könnte die prunkvolle, goldglänzende Spiegeluhr, um es auf Wilhelm Ostwalds Begriff zu bringen, als Klassiker unter den möglichen Bildern der Präzision gelten.

44 Vgl. Philippe Cordez: Werkzeuge und Instrumente in Kunstgeschichte und Technikanthropologie. In: Ders., Matthias Krüger (Hg.): Werkzeuge und Instrumente. Berlin 2012, S. 1–20, insb. S. 14. Darin wird die „Aufforderung an die Kunstgeschichte“ formuliert, „sich mit Techniken und ihren Repräsentationen auseinanderzusetzen.“ „In diesem Zusammenhang kann auch die Kunstgeschichte einen Beitrag leisten, indem sie ihre empirische Expertise dafür einsetzt, die Materialisierungen von Repräsentationen technischer Objekte und Prozesse zu beschreiben und in ihrer sozialen Relevanz zu verstehen“ (S. 9).

MONTAGEN UND RHYTHMEN

Luisa Feiersinger

Präzisions- oder Illusionsmaschine, oder: Wie Martin Scorseses Hugo Cabret Filmgeschichte in Szene setzt In einer Einstellung von Martin Scorseses Film Hugo Cabret 1 erscheint Paris durch das Ziffernblatt einer Turmuhr, deren mechanisches Räderwerk kinematografisch in eine Präsentation der Stadt überblendet wird. Abschließend verschmilzt der Verkehrsfluss um einen runden Platz im Zeitraffer zu einem pulsierenden Lichtkreis. Paris wird inzeniert als Sinnbild der modernen Stadt, deren ineinandergreifende industrielle Abläufe – von der Fließbandproduktion bis zum Zugverkehr – wie bei einer Maschine genauestens getaktet und abgestimmt sind (TC 1:20:01–1:20:07). Die Sequenz ist eingebettet in die Geschichte des Waisenjungen Hugo Cabret, der sich nach dem Tod seines Vaters, eines Uhrmachers, in einem Bahnhof versteckt und sich um die dort angebrachten Zeitmesser kümmert. Um die von seinem Vater begonnene Restaurierung eines mechanischen Mannes zu vollenden, stiehlt Hugo fehlende Teile aus einem Spielwarenladen, dessen Besitzer sich als der Filmemacher Georges Méliès entpuppt. Der Plot des Films lässt die beiden Protagonisten durch den jeweils anderen sein Glück finden – Hugo wird aufgenommen in die Familie des Filmemachers, welcher wiederum die späte Anerkennung für sein Œuvre erfährt.2 Mehr als diese anrührende Story waren es indes wohl die zahlreichen Referenzen auf die Frühgeschichte des Films, die Hugo zu einem Liebling des cinephilen Publikums und der Feuilletons avancieren ließen. Im Folgenden soll anhand der in Scorseses’ Werk auftretenden filmischen Apparaturen die Illusionsmaschine Film3 als Präzisionsmaschine gedeutet werden. 1 Martin Scorsese (Regie): Hugo Cabret. Paramount 2011, 127 min. Alle folgenden Zeitangaben beziehen sich auf die im gleichen Jahr bei Paramount Home Entertainment veröffentlichte 3D-Blu-Ray. 2 Während Hugo Cabret eine rein fiktive Figur ist, basiert die Rolle des Filmemachers auf dem tatsächlichen Georges Méliès, dessen Filme in Ausschnitten ebenfalls in Hugo gezeigt werden. Doch während Méliès am Ende seines Lebens zwar einen Spielwarenladen unterhielt, ist die Geschichte seiner ‚Wiederentdeckung‘ weniger punktuell verlaufen, als der Spielfilm dies darstellt. Zum Leben und Werk des Filmemachers siehe Franz Kessler, Sabine Lenk, Martin Loiperdinger (Hg.): Georges Méliès – Magier der Filmkunst. Basel 1993. 3

Der Begriff der Illusionsmaschine steht in Anlehnung an die vor allem in den 1970er Jahren und zentral von Jean-Louis Baudry vorgebrachte Kritik des erzählenden Films, der im architektonisch und sozial definierten Raum des Kinos präsentiert wird. Siehe Jean-Louis Baudry: Ideologische Effekte erzeugt vom

174 Luisa Feiersinger

Als eine solche, genau operierende Maschine kann auch der bereits erwähnte mechanische Mann ↗ABB. 1 verstanden werden, der mit seiner Fähigkeit, ein Bild zu zeichnen, an den von Pierre Jaquet-Droz und Jean-Frédéric Leschot in den 1770er Jahren angefertigten Zeichen-Automaton erinnert.4 In Hugo wird der Automat als die Story vorantreibendes und strukturierendes Element eingesetzt. Dieser ist zunächst funktionsuntüchtig und um ihn zu reparieren, muss Hugo die in den Wänden des Bahnhofs verborgenen Gänge verlassen und sich dem Spielwarenbesitzer offenbaren. Weil dieser den Apparat im Notizbuch des Jungen als seinen ehemaligen Besitz wiedererkennt, ist sein Interesse an dem Waisen geweckt. Méliès’ Patentochter kann den Androiden mit einem Schlüssel entsperren, so dass er wieder seine Tätigkeit aufnimmt. Hugos Versuch, den Apparat ins Haus des Filmemachers zu transportieren, führt am Ende dazu, dass letzterer von der tragischen Situation des Jungen erfährt und ihn bei sich aufnimmt. Die Maschine löst ihre narrative Funktion gerade durch ihr Nichtfunktionieren ein. Durch die diversen Szenen, die sich mit ihrem mechanischen Aufbau beschäftigen, wird das diffizile Räderwerk besonders in Szene gesetzt. Es verbindet nicht nur die Charaktere, sondern auch das Medium Film mit mechanischen Uhrwerken: Der Android wurde vom Filmemacher selbst aus den gleichen Bauteilen wie seine Kamera gebaut und produziert eines seiner bekanntesten Filmbilder – eine im Auge des Mondes landende Rakete. Während bereits die Vorlage des Films, eine Graphic Novel von Brian Selznick,5 mit dieser Idee den auf einem Räderwerk basierenden Automaten auch schon als Vorstufe der Kamera charakterisiert, konkretisiert Scorseses Werk die Verwandtschaft des Automaten mit den zentralen Apparaten des Films über den Funktionsmechanismus von Projektor und Kamera zusätzlich durch kinematographische Setzungen: Als der mechanische Mann erstmals zu sehen ist, ertönt leises Rattern; ein gleichmäßig flackernder Lichtkegel beleuchtet den Raum (TC 0:17:31–0:18:00). Basisapparat. In: Robert F. Riesinger (Hg.): Der kinematographische Apparat. Geschichte und Gegenwart einer interdisziplinären Debatte. Münster 2003, S. 27–40. Er zielt dabei auf das klassische Hollywoodkino, das seine Produktionsmechanismen verdecke und sich somit, im Gegensatz zu einer selbstreflexiven Autorenfilmtradition, als als bewusste Täuschung zeige. Obwohl sich diese Kritik des Blockbusterkinos bis heute gehalten hat, soll hier die damit verbundene Annahme einer Filmtradition, die prinzipiell nicht über die eigene Produktion reflektiert, in Frage gestellt werden. 4 Vgl. zu Automaten des 18. Jahrhunderts: Silvio A. Bedini: The Role of Automata in the History of Technology. In: Technology and Culture 5, 1964, Heft 1, S. 24–42. In einem Interview hat der Konstrukteur des Apparats in Hugo, Dick George, von seiner Inspiration durch die Automaten von Jaquet-Droz und Leshot berichtet. Cristy Lytal: Working Hollywood: Dick George, prop maker. In: The Los Angeles Times, 27. November 2011. Online verfügbar unter http://articles.latimes.com/2011/nov/27/entertainment/laca-working-hollywood-20111127 (Stand 08/2017). 5 Brian Selznik: The Invention of Hugo Cabret. New York 2007. Selznik war indes eher vom schreibenden Automaten Henri Maillardets inspiriert. Siehe Henry Fountain: Graceful Moves, for a Boy Made of Metal. In: The New York Times, 26. Dezember 2011. Online verfügbar unter http://www.nytimes.com/2011/12/27/ science/maillardet-automaton-inspired-martin-scorseses-film-hugo.html?_r=0 (Stand 08/2017).

Präzisions- oder Illusionsmaschine

175

1 Martin Scorsese: Hugo Cabret (TC 2:01:10), Paramount Home Entertainment, 2011.

Ein Deckengemälde, welches das Medium Film symbolisiert, wird später mit den gleichen audiovisuellen und nicht durch die Filmhandlung begründeten Elementen präsentiert (TC 1:09:58–1:10:03). Erst mit einer in der Story vorkommenden Filmvorführung wird schließlich offengelegt, dass es die Mechanik der Filmapparatur ist, die dieses Rattern und Flackern erzeugt (TC 1:30:27–1:32:50). Der mechanische Aufbau ist für Kamera und Projektor spiegelbildlich gleich. Ein Filmstreifen wird über einen Zahnradmechanismus an einer mit einer Linse ausgestatteten Öffnung vorbeigeführt. Dabei wird Licht entweder nach innen geleitet, um den Filmstreifen zu belichten, oder nach außen, um das auf dem Filmstreifen Abgebildete auf die Leinwand zu projizieren. Damit in beiden Fällen keine Unschärfe entsteht, muss der Streifen ruckartig und im Takt mit dem Lichteinfall bewegt werden. Die intermittierende Bewegung, bei der sich der Filmstreifen nur bei verschlossener Linse vorwärtsbewegt, produziert jenes in Hugo dargestellte Flackern des Lichtes, das damit den Aufbau der filmischen Apparatur vor Augen stellt. Das hörbare Rattern wiederum verweist auf das Räderwerk, das den Mechanismus trotz der ruckartigen Bewegung des Filmstreifens kontinuierlich antreibt.

176 Luisa Feiersinger

Mechanische Bedingungen der Bewegungsillusion Die in Hugo hergestellte Verwandtschaft von Uhrwerk und mechanisch-analogem Film folgt einer historischen Konvergenz. Denn wie die Schöpfer des historischen Zeichen-Automatons, Droz und Leschot, entstammte auch eine Vielzahl der ersten Kamerakonstrukteure dem Metier der Uhrmacher. Dies erlaubt mechanische Film­ apparate in Analogie zur Räderuhr zu denken, jener ersten Präzisionsmaschine par excellence6: Während die eine Apparatur mittels eines Zahnradsystems eine von außen zugeführte, kontinuierliche Kraft auf ihre tickenden Zeiger und diversen Funktionen, Komplikationen genannt, verteilt, wandelt die andere die gleichbleibende Kraft in die ruckartige Bewegung des Filmstreifens und die ‚Komplikation‘ der Unterbrechung des Lichteinfalls um. Die erste Maschine taktet so das Verstreichen der Zeit in ablesbare Stunden, Minuten und Sekunden, die zweite erzeugt die filmische Grundillusion des in sich bewegten Bildes. Allerdings besteht diese zweite Maschine aus den zwei reziproken Apparaten – einerseits aus der Kamera, die die Bewegung vor ihr in einzelne Phasenbilder ‚zerschneidet‘ und andererseits aus dem Projektor, der diese Phasenbilder wieder zu einer Bewegung zusammensetzt. Anhand der unterschiedlichen Strategien mit dieser Übersetzung der Bewegung in ihre Visualisierung umzugehen argumentierte die bis heute einflussreiche Film­theorie der 1970er Jahre für zwei diametrale Ansätze filmischer Produktion. Wird die Konstruktion der Bewegung im Film selbst deutlich, so wird dieser in der Reflexion der eigenen Mittel als einem künstlerischen Anspruch genügend interpretiert; wird sie indes verdeckt, wird der Film als Produkt der Illusionsmaschine Kino verstanden, die darauf zielt ihr Publikum zu täuschen.7 Tatsächlich kann für das narrative Kino eine Entwicklung beobachtet werden, in der die apparative Vermittlung weniger wahrnehmbar werden sollte. Dazu wurde die filmische Illusion durch passgenau ineinandergreifende Teile und standardisierte Arbeitsabläufe stabilisiert. So wurde der Greifarmmechanismus, der beispielsweise im Cinematographen der Gebrüder Lumière die ruckartige Bewegung des Filmstreifens erzeugte, durch den Malteserkreuz-Mechanismus abgelöst. Während die Greifarme den Filmstreifen nur im Moment des Weiterziehens berühren, bleibt er im Malteserkreuz, das im Zusammenspiel mit einer mit Stift und 6 Vgl. auch Siegfried Zielinski: Miniatur. Zum Kino als Zeitmaschine. In: Daniela Kloock (Hg.): Zukunft Kino. The End of the Reel World. Marburg 2008, S. 147–155. 7 Doane stellt dies exemplarisch dar und setzt den narrativen Film dabei in Opposition zu den Kunstwerken von Anthony McCall, der den Blick der Zuschauer spezifisch auf die Apparatur lenke. Mary Ann Doane: Movement and Scale. Vom Daumenkino zur Filmprojektion. In: Daniel Gethmann, Christoph B. Schulz (Hg.): Apparaturen bewegter Bilder. Münster 2006, S. 123–137.

Präzisions- oder Illusionsmaschine

177

Sperrscheibe ausgestatteten Antriebswelle funktioniert, stets eingespannt.8 Die Antriebswelle dreht kontinuierlich, und nur wenn der Stift in eine der Einkerbungen des Kreuzes trifft, dreht sich dieses um eine Vierteldrehung weiter. So bewegt jedes vierte Perforationsloch den Filmstreifen um die Distanz einer einfachen Bildhöhe. Der Moment der Weiterbewegung wird durch eine mit der Antriebswelle korrelierte Flügelblende – eine durchgehend rotierende Scheibe, die aber nur teilweise mit opakem Material gefüllt ist – abgedeckt.9 Durch die beständige Führung des Streifens steht das projizierte Bild ruhiger, wird die Bewegung innerhalb des Bildes flüssiger. Einen entscheidenden weiteren Schritt stellte die Etablierung des Motors dar. Wurde der lichtempfindliche Streifen zunächst noch per Handkurbel mit einer Geschwindigkeit von um die 18 Bilder pro Sekunde bewegt, setzte sich mit dem Motor die Geschwindigkeit von 24 Einzelbildern pro Sekunde fest. Damit wird abhängig von der jeweiligen Einzelbildhöhe eine bestimmte Länge Filmstreifen, beim 35mm-Film beispielsweise 460 mm (oder 1,5 Fuß) pro Sekunde bewegt.10 Mit dem Ziel, die Illusion überzeugender wirken zu lassen, hat sich die Kamera zum Messgerät von Bewegung entwickelt. Durch die Stabilisierungsprozesse wird die von ihr aufgenommene Bewegung räumlich messbar. Wie bei einer Uhr, die nach sechzig Sekunden den Minutenzeiger um eine Position fortbewegt, lässt sich die Dauer einer Filmsekunde an dem Vorbeiziehen von eineinhalb Fuß 35mm-Film über 96 Perforationslöcher ablesen. Mit dieser fixierten Korrelation zwischen der Dauer der vor der Kamera stattfindenden Bewegung, ihrer graphischen Fixierung auf dem Filmstreifen und der Dauer ihrer lichtbildlichen Darstellung, ist die Apparatur derart standardisiert, dass sie den Bestrebungen Étienne-Jules Mareys nahekommen kann, der eine ebenso fixierte und damit herausrechenbare Apparatur benötigte und entwickelte um Bewegung selbst zu erforschen.11 An diesem Bezug zu Marey wird deutlich, dass filmische Apparate stets eine eigene spezifisch filmische Bewegung hervorbringen. 8 Ein US-Patent für diesen Transportmechanismus wurde 1896 mit der Nummer 578185 von Armat eingereicht. Aber auch Oskar Messter verwendete ein solches von Beginn an ohne es zu patentieren. Albert Narath: Oskar Messter and his work. In: Raymond Fieldling (Hg.): A Technological History of Motion Pictures and Televison. Berkeley/Los Angeles 1967, S. 109–117. 9 Wird dieser Aufbau nicht für die Aufnahme, sondern für die Projektion eingesetzt, wird das Erscheinen des Einzelbildes zusätzlich noch einmal durch die Flügelblende geteilt, so dass sich die Frequenz der Bilder auf 48 Erscheinungsmomente pro Sekunde erhöht. Vgl. David Bordwell, Kristin Thomson: Film Art. An Introduction. 9. Aufl. New York 2010. 10 James Monaco: Film verstehen. Reinbek bei Hamburg 2000, 89 ff. Monaco nennt das Jahr 1927 als dasjenige, in dem 24 Bilder pro Sekunde zum Standard wurden. Ebd. S. 91. 11 Obwohl Marey gerade nicht auf den Einsatz von Film zur Bewegungswiedergabe zielte, sondern ihn zur Bewegungsanalyse verwendete, entwickelte er mit dem Chronographen einen Apparat, der die zentralen Elemente der filmischen Apparatur enthält. Marta Braun: Picturing Time. The Work of Etienne-Jules Marey. 1830–1904. Chicago/London 1995; Michel Frizot: Analyse und Synthese der Bewegung. Étienne-Jules

178 Luisa Feiersinger

Bestimmung des Films durch seine Apparatur Diese Bewegungsillusion ist den Prinzipien des 19. Jahrhunderts inhärent verpflichtet. Die Praktiken der Massenproduktion, die sich zunächst durch die Zerteilung der Arbeit in leicht wiederholbare Arbeitsschritte und dann in der maschinellen Übernahme dieser Arbeitsschritte auszeichneten, spiegeln sich in der apparativen Filmtechnik ebenso wie in der durch sie hervorgebrachten Bewegungswiedergabe. Dass einer der ersten heute bekannten Filme (La Sortie de l’Usine Lumière à Lyon, 1895) die in der Fabrik der Lumière-Brüder Arbeitenden zeigt, kann als Aufscheinen der Technik des Films in seinem Sujet gedeutet werden. Für einen der ersten Filmtheoretiker, Siegfried Kracauer, waren diese Alltags­ aufnahmen der beiden Brüder die Erfüllung des im Medium Film angelegten Ideals. Allerdings bezieht sich Kracauer in seiner Beschreibung der kinematografischen Technik und damit in seiner Argumentation, nicht auf die Apparatur, sondern auf den lichtempfindlichen Filmstreifen.12 Wie sehr sich Kracauer auf den fotochemischen Filmstreifen konzentriert und nicht auf den Apparat in den dieser eingespannt ist, lässt sich eindeutig an seiner Diskussion von Georges Méliès erkennen. Im Gegensatz zu den Werken der Lumière-Brüder, die er im Ursprung einer „realistischen Tendenz“13 sieht, könne die „formgebende Tendenz“14, wie sie Méliès vertrete, niemals wirklich „filmisch“ sein, da sie anstatt der wirklichen Welt eine imaginierte Welt hervorbringe.15 Angesichts der hier dargelegten Produktion der Bewegungsillusion, muss diese Einschätzung Méliès’ und des „Filmischen“ seiner Werke in Frage gestellt werden. Wie beschrieben, löst der filmische Apparat immer den aufgenommenen Ablauf von der realen Bewegung ab, um über Phasenbilder projizierte Bewegung Mareys Methode. In: Daniel Gethmann, Christoph B. Schulz (Hg.): Apparaturen bewegter Bilder. Münster 2006, S. 141–154. Auch Marey musste dabei Standardisierunge einführen, die Frizot unter dem Begriff der opérateurs mareysiens fasst. Er bezeichnet als jene Setzungen in der Produktion der Bewegungsdarstellung die Mareys analytisches Vorgehen ermöglichten, namentlich den „Nullpunkt, die ultra-kurze Belichtung, die periodische Unterbrechung, die Kontrollsynthese, die Übertragung (Bewegung durch Übertragung)“. Frizot (s. Anm. 8), S. 145. 12 So bezeichnet Siegfried Kracauer 1964 in seinen Grundbegriffen des Films die Fotografie als den „entscheidende[n] Faktor in der Produktion filmischen Inhalts“ und schließt daraus, dass „[d]as Wesen der Fotografie […] in dem des Films fort[lebe]“. Siegfried Kracauer: Theorie des Films. Die Errettung der äußeren Wirklichkeit. Frankfurt am Main 1964, S. 53. Mit der Ableitung des Films aus seiner fotografischen Basis ist Kracauer in eine weiter gefasste Argumentationslinie einzuordnen; auch der französische Theoretiker André Bazin leitet den Film und seine ideale Verwendung von der Fotografie ab. Siehe André Bazin: Ontologie des photographischen Bildes. In: Tom Tykwer, André Bazin, Robert Fischer (Hg.): Was ist Film? (1945). Berlin 2004, S. 33–42. 13 Kracauer (s. Anm. 12), S. 61. 14 Kracauer (s. Anm. 12), S. 63. 15 Kracauer (s. Anm. 12), S. 63f.

Präzisions- oder Illusionsmaschine

179

zu erzeugen. Während eine unbearbeitete Filmsequenz dies verdeckt, lässt eine manipulierte die Künstlichkeit der filmischen Bewegung erkennbar werden. Eine der einfachsten Manipulationen ist dabei die der Geschwindigkeit. Ist die Aufnahmefrequenz der Phasenbilder höher als ihre Abspielfrequenz, wird der Zeit­ab­ lauf gedehnt; ist sie niedriger, erscheint die Bewegung schneller. Die Bewegung im Bild ist in ihrer Zeitlichkeit damit nicht von der Echtzeit der aufgenommenen Zeitspanne abhängig, sondern von der Taktung der Zerschneidung der Bewegung während der Aufnahme und der Zusammenfügung in der Wahrnemhung während der Projektion. Die im Apparat vollzogene Umwandlung der vor der Kamera liegenden, profilmischen Wirklichkeit in die durch die Kamera projizierte, filmophanische Wirklichkeit mit eigenem Raum-Zeit-Kontinuum,16 ist also immer gegeben. Sie kann nur die Produktion weiterer Illusionen ermöglichen, nicht aber vermieden werden. Méliès wandte dieses Potential der Apparatur konsequent an. In L’oracle de delphe (1903)17 lassen sich beispielsweise drei Sequenzen beobachten, in denen der ehemalige Bühnenmagier die phantastischen Momente durch die Ausnutzung der von der Filmapparatur hervorgebrachten Lichtbildwirklichkeit erzeugt: Einem Grabräuber erscheint der Geist des Begrabenen wie aus dem Nichts heraus (TC 0:57–1:05) ↗ABB. 2 , zwei steinerne Skulpturen werden lebendig (TC 1:14), und der Dieb wird mit einem Eselskopf bestraft (TC 1:17). Diese Handlungen erscheinen in der Betrachtung des Films magisch, da das Raum-Zeit-Kontinuum der diegetischen Welt lückenlos erscheint. Produziert sind sie indes genau durch Unterbrechungen des Aufnahmevorgangs und der währenddessen vorgenommenen Manipulationen. So muss, um den Geist erscheinen zu lassen, der Filmstreifen mehrfach belichtet werden. Zunächst wird die Szenerie aufgenommen, wobei der dunkle Eingang des Grabes das lichtempfindliche Material keinen Lichtstrahlen aussetzt. In einem zweiten Schritt wird der gleiche Filmstreifen im Dunklen zurückgespult und mit dem Geist vor dunklem Hintergrund belichtet. Da nun nur an jener Stelle Lichtinformationen eintreffen, die zuvor unbelichtet geblieben ist, fügen sich die beiden separaten Aufnahmevorgänge zu einem einzigen Filmablauf zusammen. Nur weil 16 Etienne Souriau hat in seinem Aufsatz Das filmische Universum die verschiedenen Wirklichkeitsebenen des Films begrifflich voneinander getrennt. Neben der diegetischen Ebene, die eine vom Film ausgeprägte narrative Welt beschreibt, führt er die profilmische ein, die jene Elemente der afilmischen Welt umfasst, die bereits auf den Film bezogen sind, sowie die filmophanische und filmografische Ebene, die das Erscheinen des Films auf dem Filmstreifen respektive als Projektion benennen. Während sich vor allem der Begriff des Diegetischen in der Filmanalyse gehalten hat, werden hier im Folgenden alle Begriffe eingesetzt, um die Ebenen sprachlich eindeutig zu trennen. Etienne Souriau: Die Struktur des filmischen Universums und das Vokabular der Filmologie. In: montage/av 6, 1997, Heft 2, S. 140–157. 17 Georges Méliès (Regie): L’oracle de Delphes, Star Film Nr. 476, 1903, 35 mm, s/w, 2 Minuten. Vgl. Britisch Film Institute. Online verfügbar unter http://www.bfi.org.uk/films-tv-people/4ce2b751ec35c (Stand 08/2017). Online verfügbar unter https://www.youtube.com/watch?v=GQDqC1rr3rY&t=22s (Stand 08/2017).

180 Luisa Feiersinger

2 Georges Méliès: L’oracle de Delphes (TC 0:58), Star Film Nr. 476, 1903.

der filmische Ablauf vom profilmischen Ereignis abgelöst ist, kann ein magisch erscheinender, diegetischer Moment erzeugt werden – es muss dazu jedoch auf der filmografischen Ebene millimetergenau gearbeitet werden, da Differenzen beim Zusammenfügen der beiden Aufnahmen andernfalls die Konstruktion offenlegen. Betrachtet man die Stufe, auf welcher der Geist erscheint, wird sichtbar, dass das architektonische Element leicht unterhalb seiner zuvor ausbelichteten Entsprechung schwebt, wodurch beide Treppenabsätze im filmophanischen Bild zu sehen sind und die Doppelbelichtung erkennbar machen ↗ABB. 2 . Und nicht nur räumliche, auch zeitliche Unpassungen können die Produktionsschritte aufzeigen. So offenbart das vorzeitige Erschrecken des Grabräubers, dass die Handlung eine Synthese getrennt gefilmter Abläufe ist und die Belichtung des zweiten zu spät einsetzte (TC 0:54). Die Notwendigkeit der Passung dehnt sich bei der Hervorbringung phantastischer Momente auf die profilmische Realität aus, wie sich bei den Szenen der Verlebendigung der Skulpturen und der Transformation des menschlichen Kopfes in den eines Esels beobachten lässt. Wieder muss die Aufnahme unterbrochen

Präzisions- oder Illusionsmaschine

181

werden, diesmal um einen Austausch im profilmischen Set vorzunehmen. Damit der Handlungsschritt im projizierten Bewegungsbild unsichtbar bleibt, muss sich die Veränderung auf einzelne lokale Stellen begrenzen, während die übrige Szenerie im Idealfall völlig unverändert bleibt. Dergestalt kann der in der Kamera vollzogene Schnitt, der in späteren Filmen, als Montage, physisch auf der filmografischen Ebene vollzogen wurde, unbemerkt bleiben. Die Produktionsbedingungen der phantastischen Momente in Méliès’ Film zeigen, dass diese nur durch die filmische Apparatur möglich und damit als dezidiert ‚filmisch‘ zu beschreiben sind. Alle Arbeitsschritte, wie Schnitt, Einfügungen und Belichtung, müssen dabei räumlich und zeitlich passgenau vollzogen werden, um unsichtbar zu bleiben. Der Film als Illusionsmaschine, die glaubhaft das Unwirkliche vermittelt, kann nur dann funktionieren, wenn die Möglichkeiten des filmischen Apparats mit exakt ausgeführten Handlungen genutzt werden, er also als Präzisionsmaschine operiert. Je genauer letztere arbeitet, desto überzeugender erscheint die filmische Illusion. Krakauer, der, obwohl er zugeben musste, dass Méliès „seine Illusionen mehr und mehr mit Hilfe der dem Medium eigentümlichen Techniken“ produzierte und diese somit als „filmische Illusion[en]“18 zu beschreiben sind, dennoch darauf beharrte, dass sie der Tradition des Theaters verpflichtet blieben, weil sie anders als die Werke der Lumière-Brüder nicht auf die Wiedergabe der Wirklichkeit zielten, also „keine echt filmischen Gegenstände in sich enthielten“19 kann also in seiner Einschätzung widersprochen werden. Weil er den Film von der Fotografie ableitet, begreift er ihn als „in einzigartiger Weise dazu geeignet, physische Realität wiederzugeben und zu enthüllen“, weswegen dies dann auch das Ziel des Films sein müsse.20 Vielmehr aber zeichnet sich Film auf Basis seiner Apparatur genau dadurch aus, dass in ihm Illusion und Präzision amalgamiert sind.

Narrativierte Filmtheorie Der Film Hugo Cabret führt in seiner Narration diese beiden Stränge zusammen und lässt sich dabei als narrativierte Theorie interpretieren. Die Apparate treten hier nicht nur auf, sondern das moderne Märchen entsteht genau durch das Zusammenkommen von Méliès, der seit Kracauers Text als Gründungsvater des phantastischen Films gilt, und Hugo, der aus einer Familie von Uhrmachern stammt und so die mechanisch-apparative Entwicklungslinie repräsentiert. 18 Kracauer (s. Anm. 12), S. 60. 19 Kracauer (s. Anm. 12), S. 61. 20 Kracauer (s. Anm. 12), S. 55.

182 Luisa Feiersinger

Beim Anblick der Stadt, die in der eingangs erwähnten Szene zum Uhrwerk wird, tröstet Hugo seine Begleiterin damit, dass in der Welt wie in einer riesigen Maschine jeder eine ihm zugedachte Rolle zu erfüllen habe und es keine überflüssigen Teilchen gebe (TC 1:20:07–1:20:52). Auf Dialogebene wird hier benannt, was sich visuell bereits den ganzen Film über vermittelt hat. Hugo lebt in den Wänden des Bahnhofs und bewegt sich, wie die Eröffnungsszene zeigt, in deren inneren Gängen und Schächten wie ein zugehöriges Teilchen (TC 0:02:44–0:03:28). Die von ihm gewarteten Uhren sind die Displays einer Bahnhofsmaschinerie, die als architektonische Manifestation des modernen Zeitalters gesehen werden kann, denn das darin zusammenlaufende Zugsystem machte es zwingend notwendig, die einzelnen Ortszeiten einer gemeinsamen Taktung zu unterwerfen, um die Anschlüsse der Züge zu gewähren. Vor allem aber produzierte die Zugfahrt eine Weltwahrnehmung, die sich von der bisherigen unterschied.21 Durch das Zugfenster sahen die Reisenden die Welt an sich vorbeirauschen und raumzeitliche Distanzen zusammenfallen. Mit der Zugtechnik, deren Funktionieren in getakteten Zeitabläufen und genau arbeitender Mechanik gründet, wird also eine Wirklichkeit erzeugt, die für die Reisenden nur visuell durch die Fensterrahmung wahrnehmbar ist. Diese Analogie zur durch den Film ermöglichten Wahrnehmung hat sich auch in einer Vielzahl an Filmen niedergeschlagen, die Züge als Sujets aufgreifen. Hugo präsentiert in seiner Narration zahlreiche dieser frühen Filme, einerseits als diegetische Einspieler und andererseits als Vorlage für eine seiner spektakulärsten Szenen.22 Durch die Inszenierung des Titelhelden als Teilchen der Bahnhofsarchitektur und damit als Personifikation der modernen Wahrnehmung, geht Hugo über das angenommene Reflexionspotenzial seiner eigenen Tradition hinaus. Denn in der passgenau ineinandergreifenden Story trifft Hugo als Repräsentant des Films als Medium moderner Wahrnehmung die auf apparativer Präzision basiert, auf Georges Méliès, der als ehemaliger Bühnenmagier in der Filmgeschichtsschreibung die phantastische Tradition des Mediums verkörpert. Indem die beiden sich gegenseitig ein Happy End bereiten wird narrativ dafür argumentiert, dass sich die beiden Tendenzen des Films eben nicht widersprechen, sondern produktiv zusammenfügen. Hugo zeigt sich zudem zwar mit einer überzeugenden und ungebrochenen Darstellung des Unwirklichen, wie es der Illusionsmaschine Film zugeschrieben wird, verdeckt seine

21 Der Aufsatz bezieht sich im Folgenden auf die Studie Wolfgang Schivelbuschs, der die durch Züge ermöglichte Wahrnehmung mit der durch den Film hervorgebrachten parallelisiert hat und beide als dezidiert modern beschreibt. Wolfgang Schivelbusch: Geschichte der Eisenbahnreise. Zur Industrialisierung von Raum und Zeit im 19. Jahrhundert. Frankfurt am Main 1995. 22 So werden in Hugo unter anderem L’Arrivee d’un train à La Ciotat der Brüder Lumière, Edwin Porters The Great Train Robbery und Buster Keatons The General gezeigt. Jean Renoirs La Bête humaine dagegen scheint die Szene, in der ein Zug entgleist, als Modell zugrunde zu liegen (TC 1:22:44–1:24:24).

Präzisions- oder Illusionsmaschine

183

Apparatur allerdings nicht, wie es dieser zugeschrieben wird, sondern stellt sie auf inhaltlicher Ebene vor Augen. Das künstlerische Narrativ, das den Diskurs um die eigene Vergangenheit aufführt, endet dann auch mit einer Aufnahme des magisch beleuchteten, mechanischen Mann – als gleichermaßen wunderproduzierendes wie genau arbeitendes Uhrwerk ist er wie der Film Hugo gleichermaßen Illusionswie Präzisionsmaschine.

End of story? Wie der Film könnte auch dieser Aufsatz mit dem mechanischen Mann als Illusion hervorbringende Präzsionsmaschine enden. Bisher wurde jedoch allein mit den, auch in Hugo zitierten, Apparaten des mechanisch-analogen Films argumentiert, obwohl das Werk selbst in digitaler Technik produziert wurde.23 Diese wird häufig – im wissenschaftlichen Diskurs ebenso wie in feuilletonistischer Filmkritik – als Bruch mit bisheriger Technik verstanden. Meist pejorativ ist von der Auflösung der ‚analogen Wärme‘ in ‚digitale Kälte‘ die Rede, von der geistlosen Ergötzung an möglich gewordenen Special Effects und nicht zuletzt von einem Verlust fotografischer Authentizität durch die Unsichtbarkeit der nachträglichen Bearbeitung. Dass diese Thesen zum Teil wie die Wiederholung Kracauers im Zeitalter der sogenannten digitalen Revolution klingen, ist nicht überraschend. Hat sich doch dessen Charakterisierung des Films auf Basis des fotochemischen Materials über den Begriff des Indexikalischen erfolgreich in der Filmtheorie gehalten.24 Obwohl das Auftreten des digitalen Bildes zwar dazu führte, zuvor differenzierter geführte Debatten zu verkürzen, um die analoge Fotografie als authentisch zu stilisieren,25 hat es doch gleichzeitig auch neue Denkanstöße geliefert über das ‚Filmische‘ nachzudenken. Dabei hat sich vor allem die Animationsfilmforschung mit der Frage nach Filmgeschichtsschreibung beschäftigt. Während nicht in fotochemischer Technik produzierte Filme bisher als Sonderformen des Films verstanden wurden, plädiert diese

23 Der Film ist in digitaler stereoskopischer Technik produziert worden. Die Entscheidung, die Raumillusion der Stereoskopie einzusetzen, mag die Entscheidung für digitale Technik sogar beeinflusst haben. Die Raumillusion basiert ebenfalls dezidiert auf der präzisen Verdoppelung der Filmspuren. 24 Tom Gunning hat in einem Aufsatz dargestellt, wie sich mit dem Begriff des Index die Bestätigung der Authentizität im Film, abgeleitet von der fotografischen Basis in der Filmtheorie, als für den Film entscheidend gehalten hat. Er bezieht sich dabei jedoch nicht auf Kracauer, sondern auf Bazin als Theoretiker, der die Basis dafür gelegt habe. Tom Gunning: Moving Away from the Index: Cinema und the Impression of Reality. In: differences. A Journal of Feminist Cultural Studies 18, 2007, Heft 1, S. 29–52. 25 Martin Lister legt dies überzeugend für digitale und fotografisch-analoge Bilder dar, geht dabei jedoch nicht weiter auf das Bewegtbild ein. Martin Lister: Extracts from Introduction to the photographic image in digital culture. In: Liz Wells (Hg.): The photography reader. London/New York 2003, S. 218–227.

184 Luisa Feiersinger

3 Paramount Pictures: Hugo Cabret. 3D-Animation “Making of” von Pixomondo (TC 04:42).

Forschungslinie für eine Definition des Films aus seiner spezifischen Form der Bewegungsgenerierung heraus.26 Dass im Anschluss computergenerierter Phasenbilder an gezeichnete Phasenbilder, der analog-fotografische Film wiederum als Sonderform ausgrenzt wird, sei hier nur erwähnt. Denn abseits dieser Debatten über den durch die digitale Technik herbeigeführten Bruch mit der Filmgeschichte und damit der Filmästhetik soll hier – durch Charakterisierung der Illusionsmaschine als Präzisionsmaschine – gegen einen solchen Umbruch argumentiert werden. Auf der Ebene der Apparaturen zeigt sich die neue Technik lediglich als ein Präzisierungsschritt, der die Prozesse der Taktung und Standardisierung auf kleinerer Ebene ansetzt. An die Stelle des fotosensitiven Filmstreifens ist eine Sensorplatte getreten. Sie besteht aus im Raster angeordneten Sensoren, deren Gesamtanzahl die Auflösung bestimmt und die auf jeweils einen Farbwert reagieren. Die so skalierten binären Werte eines Bildes ergeben dessen Datensatz, der auf einem Speichermedium festgehalten wird. Dies geschieht in einer definierbaren Aufnahmefrequenz. Im Projektor wiederum wird der Datensatz in der gleichen Frequenz vom 26 Dieser Punkt wurde sehr thesenhaft von Lev Manovich vertreten. Lev Manovich: The Language of New Media. Cambridge, MA/London 2001. Im Unterschied zu Manovich stützt sich die Animationsforschung vor allem auf konkrete Beispiele. Vgl. hierzu z. B. André Gaudreault, Philippe Gauthier: Could Kinematography be Animation and Animation Kinematography. In: Animation 6, 2001, Heft 2, S. 85–91.

Präzisions- oder Illusionsmaschine

185

4 Paramount Pictures: Hugo Cabret: 3D-Animation “Making of” von Pixomondo (TC 04:46).

Speichermedium ausgelesen und projiziert.27 Anders als beim fotografischen Film, dessen lichtempfindliches Korn unregelmäßig angeordnet ist, ist das Raster der lichtempfindlichen Sensoren beim digitalen Film in jedem Phasenbild gleich und jeder Bildpunkt als einzelner Pixel spezifisch bestimmbar. Diese gleichbleibende Struktur der digitalen Bilder ist für deren klare, als Kälte beschriebene, Anmutung verantwortlich;28 die Ersetzung des Filmstreifens durch Sensorplatte und Speichermedium perfektioniert den Bildstand und erlaubt es, die Bildfrequenz zu erhöhen. Doch schon beim analogen Film entwickelte man immer feinkörnigeres Filmmaterial, um dessen Struktur im Projektionsbild weniger sichtbar zu machen; und die Bestrebungen, die Grundillusion des Bewegtbildes glaubhafter zu machen, fanden bereits, wie dargelegt, im Malteserkreuz -Mechanismus und mechanischem Antrieb ihren Anfang. Die technische Entwicklung auf Ebene der digitalen Kamera und des digitalen Projektors kann damit schlicht als Fortführung der Bemühungen beschrieben werden, die Übersetzung profilmischer Bewegung in filmophanische 27 Ausführlich stellt diese Veränderungen Barbara Flückiger dar, deren Aufsatz sich auch mit der daraus resultierenden Bildästhetik beschäftigt. Barbara Flückiger: Das digitale Kino. Eine Momentaufnahme. Technische und ästhetische Aspekte der gegenwärtigen Bilddatenakquisition für die Filmproduktion. In: montage/av 12, 2003, Heft 1, S. 28–54. 28 Flückiger (s. Anm. 27), S. 29.

186 Luisa Feiersinger

Bewegung glaubhafter zu machen. Obwohl ein kategorialer Bruch durch die digitale Technik nicht mehr gegeben scheint, wenn man digitale Bild­akquise und -projektion als Präzisierung beschreibt, sei noch kurz bei den Manipula­tionsmöglichkeiten verweilt. Bei der Bearbeitung des als Datensatz gespeicherten Bildes ist die Bestimmbarkeit der einzelnen Pixel mit einem genauen Wert und klar definierten Ort entscheidend für die tatsächlich gesteigerten Möglichkeiten der Bearbeitung: Jeder Pixel kann gezielt angesteuert und verändert werden. Der Eingriff kann bei pixelgenauem Arbeiten in der Betrachtung unsichtbar bleiben und die Möglichkeit ganze Arbeitsabläufe von einem frame auf den nächsten zu übertragen, erlaubt die Manipulation ganzer Szenen in ökonomisch vertretbarem Rahmen. Dieses Potential der digitalen Filmbilder ist auch in Hugo ausgeschöpft worden. Das Making of zeigt die Prozesse am Beispiel einer Szene, in der sich Hugo selbst in den mechanischen Mann verwandelt ↗ABB. 3+4 .29 Sein Körper wird dabei im Greenscreen-Verfahren durch ein metallenes Skelett ersetzt, ebenso ist der Raum nur teilweise gebaute Kulisse und größtenteils am Computer entstanden. In der späteren Szene ist, die exzeptionelle Disposition zur Manipulation der digitalen Bilder zunächst bestätigend, keine Spur dieser Bearbeitung mehr sichtbar (TC 1:25:51–1:25:35). Obwohl nun unsichtbar, sind die vorgenommenen Ersetzungen nur Weiterführungen der bereits in L’oracle de Delphes angewandten Tricktechniken: Während bei Méliès ein Geist in einen Raum kopiert worden ist, in dem er niemals stand, wird Hugo in einen niemals gebauten Raum versetzt; und während ein Dieb mit einem Eselkopf versehen wurde, werden die Beine des Helden aus Scorseses Film von denen des Automaten ersetzt. In beiden Fällen erweist sich das Filmbild als immer schon artifiziell. Überdies sind die stark bearbeiteten digitalen Filmbilder in ihrer Hervorbringung künstlicher Wirklichkeiten dezidiert filmisch, da sie die in analogen filmischen Apparaten angelegten Möglichkeiten, eigene filmophanische Wirklichkeiten zu produzieren, aufgreifen und sichtbar machen: Wenn der Film Hugo also digitale Manipulationen einsetzt, um seinen Titel­ helden zu jenem Apparat werden zu lassen, der das Zusammenkommen von ­Illusion und mechanischer Präzision verkörpert, dann ist dies ebenfalls als narra­tiver Kommentar auf die eigene Technik zu verstehen. Im Anschluss an die ­Diskussion der Animationsfilmforschung ruft der Film assoziativ die Frage nach der Möglichkeit einer Genealogie auf, da der mechanische Mann auch gezeichnet in Hugos Skizzen­buch auftritt. Wenn diese Zeichnungen dem Publikum dann als ­Daumenkino präsentiert werden (TC 0:05:54–0:06:31), erscheinen sie als eine Vorform der Illu­sionsmaschine Film. Mit der digital ermöglichten Verwandlung ­Hugos 29 Paramount Pictures: Hugo Cabret: 3D-Animation Making of von Pixomondo. Online verfügbar unter https://www.youtube.com/watch?v=pVQ6hiIPkvM (Stand 08/2017), Screenshot TC 04:42 und 04:46.

Präzisions- oder Illusionsmaschine

187

in einen mechanischen Mann werden analoger und digitaler Trickfilm hier als verwandt gezeigt. Indem an Stelle seines Herzens eine Uhr tickt, wird schließlich zum Ausdruck gebracht, dass auch der digitale Film nur als Präzisionsmaschine der filmischen Illusion dienen kann.

Gabriele Werner

Präzise Technik – Genaue Handarbeit Ali Kazmas Automobile Factory (2012) in der Automationsdebatte

Den als Netzroller gespielten Ball erreicht er ebenso wenig wie den haargenau auf die Kante der Tischtennisplatte platzierten. Obwohl beide Spieler angepriesen werden als äußerst treffsicher, schnell und flexibel, der eine sogar als der schnellste der Welt, stellt sich an diesen beiden Spielzügen heraus, wo die Grenzen der Flexibilität des Einen gegenüber dem Anderen liegen. Den Werbefilm der Firma KUKA Roboter GmbH aus dem Jahr 2014 anzusehen ist ein Vergnügen. Geht es geordnet hin und her, hat der Tischtennisspieler Timo Boll gegen die Geschwindigkeit des KUKA KR AGILUS keine Chance. Konfrontiert jedoch mit dem variablen und virtuosen Spiel, das Boll zum Weltranglistenersten gemacht hat, erstarrt der Roboter und Boll gewinnt das Match. Verfährt der Industrieroboter KUKA also innerhalb eines ihm entsprechenden Systems, ist er unschlagbar; sobald Timo Boll aber außerhalb dieses Systems handelt, das heißt die Maße der Tischtennisplatte gewitzt und mit Geschick zu nutzen weiß,1 sind die Ballkontakte mit der Platte ganz offenbar jenseits einer berechenbaren Zufälligkeit, sind die Abweichungen von den Vertrauensgrenzen so groß, dass sie nicht mehr in Messunsicherheiten oder als Ungenauigkeiten in eine Wahrscheinlichkeitsverteilung der Ballkontakte eingerechnet werden können.2 Roboter bewegen sich innerhalb von Sachsystemen, ihre sachbezogenen und regelhaften Arbeits- und Handlungsprozesse werden von Algorithmen gesteuert.3 Deshalb verbietet sich eine Anthropomorphisierung von Robotern. Denn ein Roboter handelt nicht, er verfährt nach expliziten Regeln, durch die die Art und Weise eines Vorgangs bemessen und gesteuert wird. Und er verfährt nicht im Allgemeinen

1 Dem ersten Spiel folgte eine Revanche. Online verfügbar unter: http://www.kuka-timoboll.com (Stand 2/2016). 2 Zu den hier verwendeten Begrifflichkeiten der Messtechnik vgl. Thomas Bronder: Zufall und Wahrscheinlichkeit. In: Dieter Hoffmann, Harald Witthöft (Hg.): Genauigkeit und Präzision in der Geschichte der Wissenschaften und des Alltags. Braunschweig 1996, S. 281–301, S. 285 f. 3

Vgl. Günter Ropohl: Die Dualität von Verfahren und Sachen in der Allgemeinen Technologie. In: Sitzungsberichte der Leibniz-Sozietät, Jg. 75, 2004, S. 21–34, S. 26 f. Online verfügbar unter: http://leibnizsozietaet. de/wp-content/uploads/2012/11/03_ropohl_k1.pdf (Stand 4/2018).

190 Gabriele Werner

oder an sich prozessgesteuert, sondern innerhalb eines zweckmäßig gestalteten Systems von Abläufen. Aus diesem Grund sind Verfahren und Maschine aufeinander bezogen.4 Diese Dinglichkeit von Technologie, die sich in ihrer präzisen, redundanten und reibungslosen Funktionalität der Maschinen beobachten lässt, macht ihren ästhetischen Reiz aus. Die an diesem Beispiel knapp entwickelten Argumente sollen das sozio-kulturelle, technologische und ästhetische Feld umreißen, in dem der elfminütigen Film Automobile Factory (2012) des türkischen Künstlers Ali Kazma über Fertigungsstationen von Audi in Ingolstadt situiert ist und daraufhin angeschaut werden wird, wie Großmaschinen, Roboter und Arbeiter_innen5 im „Audi Produktionssystem“ interagieren.6 Denn auch im Unterschied zur von der Firma selbst produzierten virtuellen Werksführung,7 sind in Kazmas Film automatisierte Produktionsabläufe – Abläufe, in denen auch die knallorangefarbenen Industrieroboter der Firma KUKA zum Einsatz kommen8 – Anlass für eine maschinenästhetische Formsprache, die zu zeigen vermag, wie im Rhythmus der Maschinen und in der Fortbewegung der Fließbänder maschinelle und menschliche Tätigkeiten korporativ ineinander greifen. Der Film liefert keinen Grund, hierin entfremdete Arbeit angeprangert zu sehen. Er ist keine postfordistische Neuauflage von Chaplins Modern Times (1936), sondern zeigt, wie unter den Bedingungen der Automationsarbeit die Stellung des Arbeiters* zur Maschine wahrgenommen werden kann.9 4

Ropohl (s. Anm. 3), S. 22.

5 In diesem Text wird eine gendergerechte Sprache benutzt, mit der zugleich kontextbezogene Unterscheidungen getroffen werden: Sind in der eigenen Argumentation Personen in der Mehrzahl genannt, so wird der Unterstrich benutzt. Ist von Arbeiter*n die Rede, wird der Begriff mit einem Sternchen versehen, um zu verdeutlichen, dass eine marxistische/gewerkschaftliche Klassenbezeichnung nur ‚den Arbeiter‘ kannte/kennt (wie in ‚die Arbeiterklasse‘). Kommen Personen weiblichen oder männlichen Geschlechts in dem Film von Ali Kazma vor, so wird die männliche oder weibliche grammatikalische Form gewählt, weil davon ausgegangen wird, dass tatsächlich Bilder des Männlichen und des Weiblichen gezeigt werden sollen. 6 „Takt, Fluss, Pull und Perfektion sind die Grundprinzipien des Audi Produktionssystems (APS) – eines der flexibelsten und effizientesten Produktionssysteme der Automobilindustrie. Online verfügbar unter http://www.audi.com/corporate/de/unternehmen/produktionsstandorte/audi-produktion-weltweit/ ingolstadt.html#fullwidthpar__ah_2 (Stand 2/2016). 7

Zum Werbefilm vgl. https://www.youtube.com/watch?v=2tDUxywwtYc (Stand 2/2016).

8 Auch bei VW in Wolfsburg werden diese Roboter eingesetzt. Zu den Industrierobotern der Augsburger Firma KUKA vgl. Constanze Kurz, Frank Rieger: Arbeitsfrei. Eine Entdeckungsreise zu den Maschinen, die uns ersetzen. München 2015, S. 202–213. 9 Automation wird hier nicht synonym mit Automatisierung und damit nur als deutschsprachige Übernahme eines englischen Ausdrucks verwendet, vgl. hierzu Martin Schwarz: ‚Werkzeuge der Geschichte‘. Automatisierungsdiskurse der 1950er und 1960er Jahre im deutsch-deutschen Vergleich. In: Technikgeschichte, Jg. 82, 2015, Heft 2, S. 137–156, S. 143, Anm. 21. Vielmehr soll mit dem Begriff ein Aspekt von Gouvernementalität angezeigt werden, der weit über die Organisation von Arbeit hinausgeht. Ich beziehe mich hier auf die Analysen der von Frigga Haug geleiteten Projektgruppe Automation und Qualifikation am Psychologischen Institut der Freien Universität Berlin, die zwischen 1975 und 1981

Präzise Technik – Genaue Handarbeit

191

1 Roboterstraße. Aus: Ali Kazma, Obstruction Series/Automobile Factory, 2012, single-channel video, 10 min. (2:34/4:22).

Nach dem Titel blickt man zunächst auf hintereinander geschaltete Großmaschinen, die vorne Einzelteile (Türelemente) ansaugen und auf Bändern ablegen. Nahblicke auf Maschinenteile wechseln sich mit Halbtotalen ab, aber die Kamera verdichtet immer den Ausschnitt, nie sieht man einen Überblick über die Halle, in der wohl Hunderte von Maschinen für die Fertigung von Einzelteilen stehen ↗ABB. 1 . Arbeit, das heißt menschliche Tätigkeiten, so wie Kazma sie filmt, scheint sich auch jenseits des Fließbands in den eher ruhigen, gleichmäßigen Rhythmus der Maschinen einzupassen. Was jedoch noch wesentlicher hervorsticht ist, dass Arbeit im ersten Teil des Films durch visuelle und haptische Qualitätskontrollen definiert wird. Immer wieder streichen Hände mit und ohne Handschuh sanft über Oberflächen, beugen sich Gesichter tief über Autoteile, um im Streiflicht Unebenheiten zu erkennen ↗ABB. 2 . Gegenüber dem Einsatz von Hochtechnologie durch Roboter auf den Fertigungsstraßen erscheint das merkwürdig anachronistisch. Doch ent-

insgesamt fünf Bände zur Automationsarbeit herausgegeben hat und auf die im Nachfolgenden noch gesondert hingewiesen werden wird. Martina Heßler spricht für diesen Zusammenhang davon, dass eine „Technikanthropologie“ nötig sei, um die Stellung des Menschen gegenüber der Technik komplexer analysieren zu können. Martina Heßler: Die Ersetzung des Menschen? Die Debatte um das MenschMaschine-Verhältnis im Automatisierungsdiskurs. In: Technikgeschichte, Jg. 82, 2015, Heft 2, S. 109–136, S. 109.

192 Gabriele Werner

2 Handwerk. Aus: Ali Kazma, Obstruction Series/Automobile Factory, 2012, single-channel video, 10 min. (6:26/6:33).

steht nicht der Eindruck, Kazma wolle zwischen Grobem und Feinem unterscheiden, vielmehr geht es um zwei Formen der Präzision, beide gleichermaßen zweckorientiert und sachbezogen. Nicht immer ist ersichtlich, was genau die Roboter tun. Sie sind ununterbrochen in Bewegung, und wenn es Roboterarme sind, dann sieht das nicht zu jeder Zeit effizient aus, eher so, als müssten die mechanischen Arme wegen ihrer geringeren Freiheitsgrade der Gelenkteile Umwege vollführen, um die geforderte Position zum Fahrzeugteil zu erlangen. Genauigkeit und Präzision lassen sich mit den Synonymen Behutsamkeit und Sorgfalt auf Seiten der Handarbeit und Zuverlässigkeit und Exaktheit auf Seiten der Maschine sprachlich differenzierter fassen. Allerdings beruht diese sprachliche Differenzierung auf dem, was der Film zu sehen gibt, der sehr wohl mit seinen ästhetischen Mitteln Arbeit von reproduzierbaren, komplexen Vorgängen unterscheidet und so eine feine Zäsur setzt zwischen den (Kontroll­-)Bedingungen genauer Arbeit und den Kontrollsystemen maschineller Präzision.10 Kazma lässt diese an der gleichförmigen Effizienz beobachten, mit der ein Roboterarm rund um Türen 10 Brigitte Lohff und Bettina Wahrig listen diverse Synonyme für Präzision und Genauigkeit und für das Adjektiv präzise auf, die im Verlauf dieses Textes aufgegriffen werden. Brigitte Lohff, Bettina Wahrig: „ … über Sekunden lacht man nicht“ – Über die Folgen der Anwendung von Genauigkeit und Präzision in den Wissenschaften. In: Berichte zur Wissenschaftsgeschichte, Jg. 25, 2002, Heft 2, S. 71–79, S. 73.

Präzise Technik – Genaue Handarbeit

193

und Fenster Silikonstreifen zieht – um nach Beendigung dieses Vorgangs kurz in einer Ausgangsposition zu verharren, bis eine neue Karosserie vor ihm zum Stehen kommt und der Arm exakt die gleichen Bewegungen wiederholt. Jetzt wird auch deutlich, dass im Spiel KUKA gegen Timo Boll der Roboter nicht angesichts menschlicher Meisterschaft erstarrt, sondern in seiner Ruheposition stehen bleibt, weil seine Sensoren die Informationen eines Netzrollers oder Schmetterballs in dem vorgegebenen System nicht bearbeiten und er deshalb nicht sachbezogen verfahren kann.11 Wenn es an dieser Stelle in dem Film eine Zweiteilung in den Bildern Kazmas gibt, dann die zwischen grazil und zerbrechlich wirkenden Karosserien und der Allee der Roboter. Und so gibt es einen interessanten Moment des Erschreckens, wenn eine Karosserie in der Lackiererei in das Tauchbad der Grundierung sinkt. Hier nun wird klar, welche Funktion die Qualitätskontrollen per Hand und Auge hatten. Kazma zeigt nicht, wie umfangreich die Karosserien vor dem Eintauchen mittels Luftdüsen und rotierenden Emu-Federbüscheln staubfrei gemacht werden, dass zwischen jedem Lackierungsschritt Arbeiter prüfen, ob es keine Einschlüsse im Lack gibt, indem sie mit behandschuhten Händen über die Oberflächen streichen und diese punktuell nachschleifen und reinigen.12 Stattdessen springt der Film zu einem nachfolgenden Arbeitsgang, bei dem die in weißer Folie fest verpackten Roboterarme mit den Spritzdüsen an ihren Enden eine Karosserie weiß lackieren ↗ABB. 3 , und schneidet dann zu einem mitteldunkel schlammfarbenen Bauteil, auf dem der Lichteinfall durch die Oberlichter der Werkhalle Farbbrechungen erzeugt und die nackte Hand eines Arbeiters im kurzärmeligen Hemd über die Lackierung wischt. In mehreren Variationen zeigt Kazma diese Tätigkeit – manche Gesten erinnern zuweilen an jene, mit denen Pferdebesitzer_innen die Flanken ihrer Tiere begutachten. Vordergründig ist dies die Gegenüberstellung von einer die Technologie bedeutenden cleanen Farbsemantik und einer das menschliche Inkarnat aufnehmenden, die Arbeit bedeutenden Farbigkeit. Was jedoch den eigentlichen Reiz dieser Gegenüberstellung ausmacht, kommt mit dem nächsten Schnitt ins Bild: Die Oberfläche einer schwarzen Lackierung, auf der orange und hellblaue Lichtreflexe in Streifen schlieren und sich zu Mustern formen, die nun tatsächlich dem Fell einer Raubkatze ähneln. Aber dieser 11 „For cooperation between robot and human, it is important that both partners coincide on the same objects and topics and create a perceptual common ground and shared representation. […] [The] system needs to recognize e. g. a gesture as pointing gesture, compute the location indicated by the human worker and then transform this information to estimate his focus-of-attention.“ Claus Lenz u. a.: Joint-Action for Human and Industrial Robots for Assembly Tasks. In: Proceedings of the 17th IEEE International Symposium on Robots and Human Interactive Communication, 2008, S. 130–135, S. 130. Online verfügbar unter: http://www6.in.tum.de/Main/Publications/Lenz2008a.pdf (Stand 2/2016). 12 Zu diesen Schritten in der Produktion vgl. wiederum den Werbefilm: https://www.youtube.com/­w atch ?v=cR7U8s9lq94 (Stand 2/2016).

194 Gabriele Werner

3 Lackroboter. Aus: Ali Kazma, Obstruction Series/Automobile Factory, 2012, single-channel video, 10 min. (7:31).

Farbauftrag und die mit ihm intendierten Effekte sind das Produkt von Hochtechnologie. ↗ABB. 4 Kazma setzt auf Mythen, die er anschließend sofort wieder in die Sachlichkeit einer Fabrik zurückholt. Ein Datenblatt mit Produkttypenbezeichnungen leitet über zur Montagehalle, in der die Elektronik installiert wird; Arbeiter montieren mit schnellen, routinierten Handgriffen Kabel im Fahrzeuggehäuse und installieren Armaturenbretter. Anschließend werden die Scheiben eingesetzt, die Textilien verlegt, Sicherheitsgurte angebracht13 und Fahrgestell und Motor mit der Karosserie verbunden – so zumindest in der Reihung Kazmas. Nach der nahsichtigen Vielheit menschlicher Tätigkeiten weitet sich der Kamerablick anschließend in eine m ­ enschenleere helle Halle immensen Ausmaßes, in der die Motoren von Maschinen bewegt werden; eingesetzt und verschraubt werden Fahrgestell und Motor in einer Mensch-Maschine-Kooperation. Was folgt ist pure Handarbeit. Geprüft wird, ob zum Beispiel bewegliche Teile – Haubendeckel und Türen – passgenau mit den Rahmen abschließen und zu diesem das vorgeschriebene Spaltmaß haben. Dafür wird eine Spaltlehre benutzt, aber Kazma zeigt, dass sich die Arbeiter hauptsächlich auf ihre Fingerspitzen verlassen, um Niveauunterschiede 13 Bei dieser Tätigkeit wird eine von zwei im Film vorkommenden Arbeiterinnen gezeigt.

Präzise Technik – Genaue Handarbeit

195

4 Lackoberfläche. Aus: Ali Kazma, Obstruction Series/Automobile Factory, 2012, single-channel video, 10 min. (6:53).

zu erfühlen. Wieder wäre korrekter von Genauigkeit der Arbeit zu sprechen – auch gegenüber dem technischer gefassten Begriff der Präzision.14 Die fertigen Autos verlassen unter prüfenden Blicken von Arbeiter_innen die Werkshalle, und der Film endet mit ­einem erneuten Blick in die Fertigungshalle für die Einzelteile vom Beginn des Films. Immer dann, wenn es in Ali Kazmas Videoarbeiten der letzten rund zehn Jahre um Arbeit geht,15 bestimmt die genaue Beobachtung, wie sorgfältiges Handwerk oder routinierte Akkordarbeit mit maschinellen Vorgängen in der Organisation des Produktionsprozesses zusammengehen, den Bildverlauf. Im Zentrum steht die sachbezogene Herstellung von Waren und die sachgerechte Aufmerksamkeit dafür, welche Funktionen den Maschinen und welcher Wert dem Handwerk zukommen. Diese analytische Wahrnehmung für ein nicht dichotomes, sondern zweckdienliches Mensch-Maschine-Verhältnis ermöglicht, die Akkuratesse standardisierter 14 Zur Diskussion anderer Möglichkeiten der Unterscheidung zwischen Präzision und Genauigkeit vgl. M. Norton Wise (Hg.): The Values of Precision. Princeton 1995, S. 7 f. 15 Vgl. Ali Kazma: zamancI | timemaker, Ausstellung der Galerie ARTER Istanbul (30.1. – 5.4.2015), kuratiert v. Emre Baykal. Ausst.kat. hg. v. İlkay Baliç. Istanbul 2015 (Dank an Lesli Jebahar, Galeri Nev Istanbul, für die Bereitstellung umfangreicher Video-Arbeiten von Ali Kazma sowie an den Künstler für das ­G espräch).

196 Gabriele Werner

Massenprodukte wie den Zuschnitt von Jeans16 oder auch die Exaktheit ausgestanzter „Girotondo-Figuren“17 neben der Gewissenhaftigkeit feinmechanischer Uhrmontagen18 und der handwerklichen Gründlichkeit im Umgang mit den zahllosen Fäden von Web- und Strickmaschinen19 in einer Gesamtsicht zu zeigen, in der jedes Detail das gleiche Maß an Bedeutung erhält. In Kazmas Arbeitswelten ist Automatisierung kein maschineller Ersatz für Handarbeit, sondern hier wird Automation in einem ganz bestimmten, in den Debatten der 1970er Jahren eingeführten Sinn gezeigt: Wesentlich gemeint ist […] die Art des Produktionsprozesses, also die Art und Stufe der Auseinandersetzung des Menschen mit der Natur, die Art der Lebensbewältigung. Ausgangspunkt für die Bestimmung des Wesens von Automation ist also die spezifische Arbeit des Menschen, und zwar zum einen als Konstrukteur der Maschine – damit steht die technische Besonderheit der Maschinerie zur Diskussion – zum anderen als jener, der mit den Maschinen – ihnen untergeordnet oder sie überwachend – arbeitet; hierbei geht es um die Stellung des Menschen im Arbeitsprozeß, sein Verhältnis zur Maschinerie, soweit es aus der konkret-nützlichen Tätigkeit ableitbar ist, zunächst unabhängig von der kapitalistischen Formbestimmung.20

Doch was die konkret-nützlichen Tätigkeiten betrifft, standen seit Ende der 1950er Jahre Automatisierung und ihr Teilgebiet, die Robotisierung, in dem schlechten Ruf, ihretwegen verlören die Handfertigkeiten an Bedeutung und trügen zur Dequalifizierung des Facharbeiter*wissens bei.21 Auf die Bewegungsanalysen der 1930er Jahre22 folgten die (später auch computergestützten) maschinell analysierten Be-

16 Ali Kazma: Jeans Factory, 2008. 17 Ali Kazma: Houshold Goods Factory, 2008. Hier handelt es sich um Haushaltswaren der Firma Alessi. 18 Ali Kazma: Precision industry, 2014#. Gedreht wurde in der Firma LIP Precision Mechanics in Besançon, Frankreich. Die Fabrik wurde zwischen 1973 und 1974 von den Arbeiter_innen kollektiv selbst verwaltet. 19 Ali Kazma: Casa di Moda, 2009. 20 Projektgruppe Automation und Qualifikation (Hg.): Automation in der BRD (Projektgruppe Automation und Qualifikation, Bd. 1). Berlin 1975, S. 7. 21 Vgl. Projektgruppe Automation und Qualifikation (Hg.): Theorien über Automationsarbeit (Projektgruppe Automation und Qualifikation, Bd. 3), Berlin 1978, S. 21; Martina Heßler: Die Halle 54 bei Volkswagen und die Grenzen der Automatisierung. In: Zeithistorische Forschungen/Studies in Contemporary History, Jg. 11, 2014, Göttingen 2014, S. 57–76 und 61. 22 Vgl. Herbert Mehrtens: Arbeit und Zeit, Körper und Uhr. Die Konstruktion von ‚effektiver‘ Arbeit im ‚Scientific Management‘ des frühen 20. Jahrhunderts. In: Berichte zur Wissenschaftsgeschichte (s. Anm. 10), S. 121–136; ders.: Bilder der Bewegung – Bewegung der Bilder. Frank B. Gilbreth und die Visualisierungstechnik des Bewegungsstudiums. In: Horst Bredekamp, Gabriele Werner (Hg.): Bilder in Prozessen. Bildwelten des Wissens. Kunsthistorisches Jahrbuch für Bildkritik, 1,1, 2003, S. 44–53.

Präzise Technik – Genaue Handarbeit

197

arbeitungsprozesse,23 bis dann in den 1980er Jahren Automatisierung auch den massiven Robotereinsatz meinte.24 Arbeitserleichterung und Arbeitsplatzvernichtung bedingen sowohl die Euphorie als auch die Arbeitskämpfe. Hatte noch Karl Marx in einer objektivierenden Zustandsbeschreibung der mechanischen Produktionsentwicklung den Ersatz der menschlichen „Hand selbst“25 durch Maschinen als Fortschrittsgeschichte analysiert, so machten die Arbeitskämpfe in der Druckindustrie in den 1960er und 1970er Jahren26 und in der Automobilindustrie der 1980er Jahre27 deutlich, dass die systematische Ausschaltung von Erfahrungswissen und die Wegrationalisierung von Arbeitsplätzen für ungelernte Arbeiter* durch automatisierte und robotisierte Verfahren den Produktionsfluss nicht nur optimierten, sondern auch hochgradig fehleranfällig machte.28 Indes bleibt auch für die Technologieentwicklung eines postfordistischen Kapitalismus weiterhin die Diagnose zur revolutionären Basis der Technik gültig, die Karl Marx im 19. Jahrhundert gestellt hatte:

23 Projektgruppe Automation und Qualifikation (Hg.): Automationsarbeit: Empirische Untersuchungen Teil 1 (Projektgruppe Automation und Qualifikation, Bd. 4), Berlin 1980, S. 118 und 127; Martina Heßler (s. Anm. 21), S. 58. 24 Martina Heßler (s. Anm. 21), S. 63. 25 „Diese mechanische Vorrichtung ersetzt nicht irgendein besonderes Werkzeug, sondern die menschliche Hand selbst, die eine bestimmte Form hervorbringt, durch Vorhalten, Anpassen und Richtung der Schärfe von Schneideinstrumenten usw. gegen oder über das Arbeitsmaterial, z. B. Eisen. So gelang es, die geometrischen Formen der einzelnen Maschinenteile „mit einem Grad an Leichtigkeit, Genauigkeit und Raschheit zu produzieren, den keine gehäufte Erfahrung der Hand des geschicktesten Arbeiters verleihen konnte“, schrieb Karl Marx 1867 in Das Kapital in Nachfolge der 1855 erschienen Industry of Nations. Part II: A Survey of the Existing State of Art, Machines, and Manufactures (printed for the Society for Promoting Christian Knowledge). Ders.: Das Kapital (MEW Bd. 23), Berlin 1975, S. 406. 26 Lange Zeit gingen hochqualifizierte Facharbeiter* in der Setzerei und Druckerei davon aus, dass ihre mit einem besonderen tacit knowledge ausgestatteten Tätigkeiten keinesfalls technisiert und automatisiert werden können. Vgl. Karsten Uhl: Maschinenstürmer gegen die Automatisierung? Der Vorwurf der Technikfeindlichkeit in den Arbeitskämpfen der Druckindustrie in den 1970er und 1980er Jahren und die Krise der Gewerkschaften. In: Technikgeschichte (s. Anm. 9), S. 157–179 und 166. 27 In der Automobilindustrie waren zunächst gerade nicht die Facharbeiter* bedroht, sondern das Heer der ungelernten Arbeiter*: „Die ersten Industrieroboter wurden 1961 bei Ford eingesetzt. Roboter übernahmen einfache Tätigkeiten, die zuvor von ungelernten Arbeitern ausgeführt worden waren: den Maschinen Werkstücke reichen und sie wieder entfernen, Teile von einem Laufband zum anderen befördern etc. Gleichfalls Anfang der 1960er Jahre nutzte General Motors einen Schweißroboter.“ Martina Heßler, (s. Anm. 21), S. 62. 28 Je höher der Grad der Automatisierung, umso wichtiger wurde der Einsatz der im Produktionsverfahren verbleibenden Menschen: „[…] so zeigte sich in Halle 54 eine weitere, fundamentale Dimension dieser Ironie: Hier wurde menschliche Arbeitskraft vor allem notwendig, um die Fehler der Roboter zu beheben. […] Die anfangs gelobte Präzision und Zuverlässigkeit des Roboters korrespondierte mit seiner Inflexibilität und seiner Unfähigkeit, vom Regelverlauf abweichende Situationen einzuschätzen.“ Martina Heßler (s. Anm. 21), S. 66 und 71.

198 Gabriele Werner

4 Stuhl. Aus: Ali Kazma, Obstruction Series/Automobile Factory, 2012, single-channel video, 10 min. (7:31).

Die moderne Industrie betrachtet und behandelt die vorhandene Form eines Produktionsprozesses nie als definitiv. Ihre technische Basis ist daher revolutionär, während die aller früheren Produktionsweisen wesentlich konservativ waren. […] Sie revolutioniert damit ebenso beständig die Teilung der Arbeit im Inneren der Gesellschaft und schleudert unaufhörlich Kapitelmassen und Arbeitermassen aus einem Produktionszweig in den anderen. Die Natur der großen Industrien bedingt daher Wechsel der Arbeit, Fluß der Funktion, allseitige Beweglichkeit des Arbeiters.29

Ali Kazma zeigt in der Halle für die Endmontage Arbeiter, die auf einem an einen Roboterarm montierten Stuhl sitzen ↗ABB. 5 , der sie ins Fahrzeuginnere fährt, wo sie die Armaturen montieren. Ein tadellos ergonomischer Arbeitsplatz – gekoppelt an einen präzisen 98-Sekunden-Takt. Länger darf ein Arbeitsschritt an einer Station nicht dauern, da andernfalls ein für jeden Fertigungsschritt individuiertes Geräusch erklingt.30 Hinter der zu Beginn des Films entstehenden Anmutung rhyth29 Karl Marx (s. Anm. 25), S. 511. 30 Ein „Erfahrungsbericht“ der Firma hält sich mit Kommentaren zur Behauptung zurück, hierbei handle es sich um ein Signal für die Abteilungsleitung, damit diese wisse, wo sie helfend eingreifen müsse. https://web.archive.org/web/20161110203854/qifo.de/audi-werksfuhrung-in-ingolstadt-ein-erfahrungsbericht/ (Stand 4/2018).

Präzise Technik – Genaue Handarbeit

199

mischer Ruhe steht also ein präzises Kontrollverfahren. Kurz und bündig: Beweglichkeit findet bei der Automationsarbeit unter Akkordbedingungen statt, die vom minutiösen Takt der genau hierfür konstruierten und programmierten ­Maschinen vorgegeben wird und dem sich die Sorgfalt der Handarbeit unterzuordnen hat. ­K azma kommentiert diese Arbeitsbedingungen nicht, aber die Bildmontagen seines gesamten Films sind so gewählt, dass sie zumindest aufmerksam machen.

Dennis Jelonnek

Präzise Montage Polaroid SX-70 Sofortbildfotografie und ihre Darstellung in einem Film des Eames Office, 1972

Zu den Klängen einer Musik von Elmer Bernstein beginnt eine kurze Kamerafahrt über einen Schreibtisch, die beim Erscheinen des Schriftzuges Camera Work auf einer Ausgabe der von Alfred Stieglitz herausgegebenen Zeitschrift zum Stehen kommt.1 Das Durchblättern dieses Heftes bringt in rascher Folge etwa New Yorker Stadtansichten der Jahrhundertwende sowie mehrere Porträts zum Vorschein, von denen eines Stieglitz im Profil zeigt. Von Neuem bewegt sich die Kamera nun über den Tisch und kommt bei einer Doppelseite der Zeitschrift Life aus dem Februar 1947 zum Stehen, auf der eine ganzseitige Abbildung den Erfinder der Sofortbildfotografie Edwin Land wiedergibt ↗ABB. 1 .2 Im Gegensatz zum statischen Brustbild von Alfred Stieglitz zeigt die inzwischen ikonisch gewordene Aufnahme, wie Land im Begriff ist Positiv und Negativ eines Polaroid-Trennbildes3 voneinander zu lösen, welches sein Gesicht zeigt und verdoppelt. Mit einer weiteren Zeitschriftenseite des Scientific American aus der Aprilausgabe des Jahres 1947 wird nun eine dritte Publikation eingeblendet, in der die kryptische Buchstaben- und Zahlenfolge SX-70 hervorgehoben erscheint.4 Bei diesem Kürzel handelt es sich um eine Vorform derjenigen Typenbezeichnung, die für ein neues, „uneingeschränktes“5, fotografisches Einstufen-Verfahren Verwendung finden sollte, zu dessen Entwicklung die Polaroid Corporation jedoch noch weitere zweieinhalb Jahrzehnte nach Erscheinen des Artikels benötigen sollte. Aus dem Jahr der Marktreife der SX-70-Technik, 1972, stammt schließlich 1

Auf das bekannte, von Edward Steichen entworfene Deckblatt der Zeitschrift folgt eine Kompilation von Bildern, die verschiedenen Ausgaben der Zeitschrift entnommen wurden.

2 Anonym: Picture of the Week. In: Life, 3. März 1947, S. 32–33. 3

Bis zur Einführung des Integralbildsystems SX-70 bestanden Polaroid Sofortbilder nach ihrer Belichtung aus einer Verbindung aus Negativ- und Positivträger, die nach sechzig Sekunden mit einer gleichmäßigen Bewegung voneinander getrennt wurden.

4

Harland Manchester: Pictures In 60 Seconds. In: Scientific American 176, 1947, Heft 4, S. 167–170.

5

Als „Absolute One-Step Photography“ wird die SX-70-Technik im Titel zweier Artikel Edwin Lands bezeichnet, die in Photographing Science and Engineering 16, 1972, Heft 4; sowie in The Photographic Journal 114, 1974, Heft 7 erschienen. Beide wiederabgedruckt in Mary McCann (Hg.): Edwin H. Land’s Essays. 2 Bde. Springfield, VA 1993, Bd. 1: Polarizers and Instant Photography, S. 179–183 und 185–192.

202 Dennis Jelonnek

1 Charles Eames, Ray Eames: SX-70. Made for Polaroid Corporation by the Office of Charles and Ray Eames with a concluding statement by Philip Morrison. USA 1972 (10:50 min.), TC 00:42.

auch die hier beschriebene, nur wenige Sekunden dauernde Eröffnungsszene des gleichnamigen Imagefilms, den die Polaroid Corporation beim Büro von Charles und Ray Eames in Auftrag gegeben hatte.6 Bereits die beschriebene eng getaktete Sequenz mit ihrem aus Höhepunkten der Fotografiegeschichte zusammengesetzten Dreischritt – Stieglitz’ fotografisches Werk, Lands Sofortbildverfahren und dessen Perfektionierung in Form des im Film thematisierten Integralbildsystems – vermittelt einen Eindruck von der ebenso präzisen wie raffinierten Montage der Bilder und ihrer Engführung mit der Botschaft des voice-over. Sie dient hier dazu, das neuartige Polaroid SX-70-Verfahren sowohl in der Geschichte des Mediums zu verankern als auch seine Fortschrittlichkeit 6 Charles Eames, Ray Eames: SX-70. Made for Polaroid Corporation by the Office of Charles and Ray Eames with a concluding statement by Philip Morrison. US. 1972 (10:50 min.). Der Film wurde für die Vorführung während der Aktionärsversammlung der Polaroid Corporation im Frühjahr 1973 in Auftrag gegeben, kam jedoch in der Folge noch mehrmals zu Vermarktungszwecken zur Aufführung.

Präzise Montage

203

gegenüber konkurrierenden, herkömmlichen Fotoprodukten hervorzuheben. Über die beschriebene, visuell verdichtete Botschaft der ersten Sekunden des Films hinaus erweisen sich auch die folgenden Szenen von SX-70 in ihrer Gesamtheit als eine komplexe audiovisuelle Choreografie, deren Vielzahl von dargebotenen Einzelszenen und sprachlich vermittelten Informationen bei genauerem Hinsehen einer minutiös ablaufenden Dramaturgie folgen, der eine geradezu rigide Struktur zugrunde liegt. In dieser virtuosen Gestaltung des Films, die nicht nur ihr striktes übergreifendes Formprinzip hinter einer überwältigenden Fülle von Bildern, Tricksequenzen, Klängen und eingesprochenen Texten verbirgt, sondern zugleich eine ästhetische Passung von filmischem Medium und dem dargestellten Gegenstand der Sofortbildfotografie herstellt, liegt die raffinierte Präzision der Eames’schen Filmsprache, der im Folgenden anhand weiterer Szenen nachgespürt werden soll.7

Das Gedeihen der Fotografie Als historischer Einstiegspunkt für die Darstellung des neuesten Produktes der Polaroid Corporation fungiert in der bereits beschriebenen, kurzen Sequenz zu Anfang des Films der Fotograf Alfred Stieglitz. Dessen Werk verkörpere das „Gedeihen der Fotografie in Amerika“8, da er die zentrale Idee der Polaroid Sofortbildfotografie in seinem Schaffen vorweggenommen habe. Entsprechend beschreibt die Stimme aus dem Off Stieglitz’ „Fotografie als eine Kunstform, als ein[en] Lernschritt, und als ein[en] Einblick in das Leben und in die Dinge, die uns umgeben. Stieglitz selbst beschrieb seine Arbeit als die Erforschung des Wohlbekannten.“9 Wie die Polaroid Corporation stehe er somit für eine Fotografie, in der die Ästhetik des Bildes Vorrang vor der Technik seines Zustandekommens habe. Seit 1947 hätten zu diesem Zweck „Edwin Land und Polaroid eine zentrale Idee, einen einzigen Gedankengang verfolgt: die Beseitigung der Hürden zwischen dem Fotografen

7

Präzision und Raffinesse werden hier insofern als einander gegenseitig bedingende Eigenschaften verstanden, als erhöhte Präzision der Raffinesse in ihrem wörtlichen Sinn als einer Verfeinerung bedarf, während Raffinesse als „listig[es] auf etwas aus sein“ Präzision im Sinne eines konzentrierten und zielstrebig genauen Vorgehens erfordert. Friedrich Kluge: Etymologisches Wörterbuch der deutschen Sprache. Berlin/New York (24. Auflage) 2001, S. 740. Dank für den den Hinweis geht an Stefan Schulz.

8 „The photographs, drawings and articles by Stieglitz and his friends signaled photography’s coming of age in America.“ Eames (s. Anm. 6), TC 00:09–00:16 (hier und im Folgenden eigene Übersetzungen, soweit nicht anders angegeben). 9 „Photography as an art, a step in learning, and an insight into the life and the things that surround us. Stieglitz described his own work as the exploration of the familiar.“ Eames (s. Anm. 6), TC 00:17–00:22.

204 Dennis Jelonnek

2 Charles Eames, Ray Eames: SX-70, TC 00:51.

und seinem Gegenstand“.10 Auf diese fotografiehistorische Herleitung des Polaroid-Verfahrens aus dem seit langer Zeit gehegten Wunsch nach einer möglichst einfach zu handhabenden Technik folgt im Film abrupt die beinahe epiphanisch wirkende Einblendung des leuchtend weißen Schriftzuges SX-70 auf schwarzem Grund, mit der sich die Erfüllung dieses Traumes ankündigt und die 50-sekündige Einführung endet ↗ABB. 2 . Der Begriff der Einführung ist hier auch insofern zutreffend, als die Struktur des gesamten Films der musikalischen Form eines sogenannten Kettenrondos frappie10 „Since 1947, Edwin Land and Polaroid have pursuit a central concept, one single thread: the removal of the barriers between the photographer and his subject.“ Eames (s. Anm. 6) TC 00:40–00:50. Bereits am 31. Mai 1949 hatte Edwin Land in einem Vortrag vor der Royal Photographic Society in London eine ganz ähnliche Aussage formuliert: “By making it possible for the photographer to observe his work and his subject matter simultaneously, and by removing most of the manipulative barriers between the photographer and the photograph, it is hoped that many of the satisfactions of working in the early arts can be brought to a new group of photographers.“ Edwin Land: One-step Photography. In: The Photographic Journal 90, 1950, S. 7–15.

Präzise Montage

205

rend ähnelt, dem ebenfalls häufig eine Einführung vorangestellt ist; SX-70 erweist sich als eine Transposition dieser Gattung aus dem Bereich der Musik in diejenige des Filmschnitts, welcher hier einer genau festgelegten visuellen Partitur folgt. Wie im Rondo wechseln sich nach der Einführung jeweils ein wiederkehrendes Strukturelement und inhaltlich variierende Filmblöcke ab. Diese Form dient der didaktischen Funktion des Imagefilms in besonderer Weise, da sie durch die Wiederholung gleichartiger Elemente Einprägsamkeit mit unterhaltsamer Abwechslung verquickt, welche durch die variierenden Anteile entsteht.11 Konkret bedeutet dies für den Aufbau der Eames-Produktion, dass Szenen mit hohem Identifikationspotential für den Betrachter, in denen die konkrete Anwendung und die Resultate der SX-70-Fotografie in verschiedenen Anwendungsfeldern dargestellt werden, wiederholt zwischen Sequenzen montiert sind, in denen es um die detaillierte Anleitung der Benutzung von Kamera und Film, um deren technische Funktionsweise, sowie um ihre industrielle Herstellung geht. Auf diese Weise werden Produktion und Anwendung der Technik, die Erklärung der physikalisch-chemischen Prozesse und die Evidenz der sich sichtbar selbstentwickelnden Bilder so miteinander verschaltet, dass nicht nur die SX-70-Technik, sondern auch die Art und Weise ihrer Präsentation im Film als Teil einer „Kette der Kunstfertigkeit“ erscheint, wie es im Kommentar des MIT-Physikers und Technikphilosophen Philip Morrison heißt. Es sei diese Fertigkeit, die „Erfinder, Ingenieure [und] Arbeiter […] miteinander verbindet. Der Anwender ist ihr letztes Glied.“12 In der Szenenabfolge von SX-70 steht dieser Anwender entsprechend sowohl am Ende als auch am Anfang. Auf die Einblendung des kryptischen Filmtitels folgen nicht weniger als neun knappe Beispielszenen, in denen die neuartige, faltbare Spiegelreflexkamera im kompakten Format ihre Portabilität und Funktionalität unter Beweis stellt: Stets in der Sakkotasche mitgeführt, nimmt ein Vater mit dieser Kamera seinen Sohn hinter einer Architektur aus Bauklötzen auf, woraufhin beide mit großer Freude die Entwicklung des Bildes verfolgen. Zwei folgende Szenen zeigen die Aufnahme von Fischen und Meerestieren, einmal in freier Natur, einmal 11 Auf ähnlichen Prinzipien von wiederholten und variierten Elementen, Strophen und Refrains, beruht die Eingängigkeit von Popsongs. Das Rondo entspricht in seiner noch klareren Struktur, frei von Übergangselementen, der Form des Films jedoch eher. In ein alphabetisches Schema übertragen folgt „SX-70“ der Form: E – A1 – B – A2 – C1/C2 – A3, wobei mit E die Einführung bezeichnet ist, die durch die Einblendung des Titels an ihrem Ende formal vom Rest des Films getrennt wird. 12 „In the end it links the inventors, the engineers, the workers […] into one chain of craftsmanship. The user is the final link.“ Aus Philip Morrisons Concluding Statement, siehe Eames (s. Anm. 6), TC 08:42–08:52. Wie Elmer Bernstein arbeitete auch Morrison mit den Eames auch an ihrem populärsten Film Powers of Ten, der in einer sketch version 1968 und in der final version 1976 abgeschlossen wurde. Vgl. Leo Sartori, Kostas Tsipis: Philip Morrison (1915–2005). A Biographical Memoir. National Academy of Sciences, Washington, D. C. 2009, S. 17. Online unter www.nasonline.org/publications/biographical-memoirs/ memoir-pdfs/morrison-philip.pdf (abgerufen 8/2017).

206 Dennis Jelonnek

von den Abbildungen eines Buches, deren Resultate anschließend jeweils als Tableaus ausgelegt werden; weitere Gegenstände werden im Zuge offensichtlich wissenschaftlicher oder gestalterischer Arbeiten fotografisch dokumentiert; schließlich werden ein Kleinkind, ein Kindergeburtstag sowie jeder einzelne Sprung eines Mädchens beim hopscotch in rascher Folge aufgenommen und nach 60 Sekunden Entwicklungszeit betrachtet. Das Spektrum einer Technik, die ihrem Erfinder zufolge einer Prothese gleiche, die als „ein neues Auge, und ein zweites Gedächtnis“13 diene und „das Leben der Menschen zu bereichern“14 verspreche, findet sich in diesen und den zahlreichen späteren Beispielen aus Arbeit, Freizeit und Familienleben mustergültig abgedeckt – Polaroid-Fotografie versteht sich so „als eine Kunstform, als ein Lernschritt, und als ein Einblick in das Leben und in die Dinge, die uns umgeben.“15

Bilder in Kettenreaktion Während solche Demonstrationen, in denen die Produktion und Rezeption von Sofortbildern unmittelbar verbunden sind, in immer neuen Variationen wiederholt werden, weisen die zwischengeschalteten längeren Szenen einen jeweils eigenständigen Charakter auf. Die erste dieser Sequenzen vermittelt die korrekte Bedienung der Kamera, indem vor dem Hintergrund einer alltäglichen Begebenheit – ein Mann möchte ein Detail eines Schiffes fotografieren – eine Anleitung zur korrekten Bedienung der SX-70- Kamera geschaltet wird. Jede einzelne Handlung mit dem Apparat wird konzentriert ausgeführt, nachdem sie von der weiblichen Stimme des voice over ebenso knapp wie präzise angewiesen wurde. Schritt für Schritt wird so die Kamera geöffnet, der Filmpack eingelegt, die korrekte Positionierung der Kamera vor dem Auge und ihre Einstellung auf das Motiv geübt, um schließlich zu zeigen, wie sich das belichtete Bild aus der Kamera schiebt und sich in der Hand des zufriedenen Fotografen entwickelt. Auf eine erneute Abfolge von Anwendungsbeispielen folgt eine komplementäre Sequenz, in der mithilfe von Tricktechnik die Vorgänge im Inneren der Kamera erläutert werden.

13 „As a new eye, and a second memory, it will enhance the art of seeing and reinforce recalling.“ Edwin Land: A Letter to Our Shareholders. In: Polaroid Corporation Annual Report for 1969, Cambridge, MA 1970, S. 4. 14 Edwin Land: Die einfachste Art, schöpferisch zu sein. In: Wilfried Wiegand (Hg.): Die Wahrheit der Photographie. Klassische Bekenntnisse zu einer neuen Kunst. Frankfurt am Main 1981, S. 289–293, hier S. 293. Ursprünglich publiziert unter dem Titel: The Most Basic Form of Creativity. In: Time, 26. Juni 1971, S. 51. 15 Eames (s. Anm. 6). TC 00:18-00:24.

Präzise Montage

207

Die aufwändige Szene stellt mit einer Dauer von 3 Minuten und 25 Sekunden nicht nur den längsten narrativ zusammenhängenden Block dar, sondern ist auch exakt in der Mitte des Films als dessen Herzstück positioniert. Erneut drängt sich hier das Sinnbild einer Kette auf, mit dem sich die Struktur des Films aus gleichbleibenden und variierenden Abschnitten beschreiben lässt und das im voice over des Films die untrennbare Verbindung aller Beteiligten an der Sofortbildfotografie formuliert. Was die Eames nun in dieser zentralen Szene visualisieren, ist eine lineare Kettenreaktion, die vom Blick des Fotografen durch den Sucher bis zum entwickelten Sofortbild abläuft und in ihrem reibungslosen Ineinandergreifen mechanischer, elektronischer und chemischer Prozesse die bislang in der Fotografie ungekannte Automatik des SX-70-Verfahrens in eine temporeiche filmische Bewegung übersetzt, die mit stakkatoartigen Erläuterungen des Geschehens unterlegt ist. Die Bildfolge beginnt mit der Großaufnahme eines Fingers auf dem kreisrunden roten Auslöser. Es folgt die Profilansicht eines Mannes, der sein Auge vor dem Sucher der bildparallel positionierten Kamera platziert. Mit dem Verschwinden der Kamerawand setzt eine Trickfilmsequenz ein: Der Längsschnitt durch das Innere des Apparats wird sichtbar, in den mithilfe einer weißen Linie der Pfad des Lichtes durch das mit Spiegeln ausgekleidete Innenleben von der Linse bis zum Sucher und in das Auge des Fotografen in fünf Reflexionen dargestellt wird ↗ABB. 3 . Jedes einzelne optische Element der Kamera wird nun erläutert: Das vierteilige Linsensystem, der Fresnel-Spiegel im Kameraboden sowie ein asphärischer Spiegel, der das Bild durch den ebenfalls asphärischen Sucher wirft. Nach der Betätigung des Auslösers klappt der im Kameraboden befindliche Fresnel-Spiegel nach oben, sodass das Sucher-Motiv nun auf die fotosensitive Oberfläche der Bildeinheit reflektiert wird und diese belichtet. Es folgt eine Aufsicht der Kamera, um nach den optischen Elementen deren elektronische Bauteile zu erläutern. Zugleich verändert sich auch der Stil der Darstellung von einer diagrammatischen Aufbereitung der Wegeführung des Lichts zu einer effektvollen Inszenierung einzelner Bauteile, deren formale Qualitäten in den Vordergrund rücken und einen Eindruck von Hochtechnologie suggerieren: Eine rotierende, silbern schimmernde Batterie vor schwarzem Hintergrund; Anordnungen von Transistoren, Widerständen und Schaltkreisen; Kupferdrahtspulen und eine grünlich glimmende Fotozelle; sich gegeneinander verschiebende Bauteile, die neue Reaktionen und Mechanismen auslösen. Immer wieder wechseln kreisförmige Details der Kamera mit Ornamenten aus labyrinthisch verzweigten Liniengeflechten in der ansonsten verborgenen Elektronik des Apparats ab ↗ABB. 4 . Der zu Beginn sichtbare, rote Auslöser findet zuletzt seine Entsprechung in der Einblendung des geschlossenen schwarzen Kameraver­ schlusses, der sich zu einem weißen Rund öffnet und die Vorgänge innerhalb der Kamera beendet. Damit nicht genug, folgt eine erneute diagrammatische Aufbe-

208 Dennis Jelonnek

3 Charles Eames, Ray Eames: SX-70, TC 05:00.

reitung der ans Tageslicht ausgeworfenen Bildeinheit, deren beginnende Entwicklung nun an einem Schnitt durch die horizontalen, hauchdünnen Negativ- und Positivschichten des Integralbildes erläutert wird. Das fertig entwickelte, leuchtend farbige Bild stellt den Höhepunkt der technischen Präsentation der Kamera dar. Es findet seinen Platz an einer Pinnwand, die ihrem Aussehen nach im Studio der Eames selbst ihren Platz zu haben scheint. Als ein weiterer Schritt zurück zum Ursprung der Technik folgt darauf die Präsentation der Herstellung von Kameras und Filmen in den Fabriken der Polaroid Corporation. Diese ist als rhythmische Abfolge formal abstrahierter Detailaufnahmen inszeniert, in denen rapportartige Wiederholungen gleicher Formen, Detailvergrößerungen von Bauteilen und rätselhafte Vorgänge aus der Kameraproduktion als Stilmittel eingesetzt werden. Den ästhetisierenden Aufnahmen von Fertigungs- und Montagevorgängen entspricht der synchrone Schlusskommentar Philip Morrisons, der das Integralbildverfahren in die Tradition kybernetischer Schnittstellenrhetorik einzureihen sucht: „Man kann Technik als einen lebenden

Präzise Montage

209

4 Charles Eames, Ray Eames: SX-70, TC 05:32.

Baum ansehen, dessen Stamm Äste hervorbringt, die wiederum Blätter austreiben. Oder man kann sie als ein Netz verstehen, in dem jeder Knoten Fäden aus vielen Richtungen in sich aufnimmt.“16 Am Ende seiner Erläuterung der Polaroid-Technik und ihrer Anwendung, die als ein ausgeglichenes Zusammenspiel von Mensch und Apparat dargestellt wird, blendet der Film erneut Szenen der Anwendung der Polaroid-Kamera und der Betrachtung ihrer Resultate ein, die schließlich in einer Reihe einander überblendender Großaufnahmen von weißumrahmten SX-70-Sofortbildern ausklingen. Mit ihren folkloristischen Motiven und Abbildungen alltäglicher Gegenstände präsentieren sie die Neuheit der Technik und ihren alltäglichen Nutzen als eine Möglichkeit ästhetischer Betätigung für jedermann.

16 „You can look at technology as a living tree, the trunk bearing branches, the branches leafing out. Or you can see it as a net, each knot tying up threads from many sides.“ Aus Philip Morrisons Concluding Statement, Eames (s. Anm. 6), TC 07:40–07:50.

210 Dennis Jelonnek

Ästhetische Erfahrung von Technik Die temporeiche und doch minutiös strukturierte Bilderflut weist zwei prominente Stilmittel von Eames-Filmen auf, wie sie der Regisseur Paul Schrader bereits im Jahr 1970 beschrieben hatte:17 In denjenigen Filmen, die sich der Darstellung eines bestimmten Objektes widmen und deshalb als toy films zu charakterisieren seien, herrsche das Prinzip der object integrity, also der umfassenden, klaren Darstellung des Gegenstandes vor, während die idea films , die sich der Vermittlung eines spezifischen Wissens annehmen, mit einem bewussten information overload, einer visuellen Überforderung des Zuschauers, operierten. Gemäß dieser Auffassung nähme SX-70 einen Sonderstatus unter den Filmen von Charles und Ray Eames ein, da in ihm toy und idea gleichermaßen zum Tragen kommen. Als ein Imagefilm für den Hersteller einer neuartigen Kamera steht einerseits das Instrument als gestalterische und wissenschaftlich-technische Höchstleistung im Vordergrund, dessen Lebenszyklus im Laufe des Films von seiner Darstellung während der Benutzung über sein Innenleben bis zum Prozess seiner Herstellung aus zahllosen Einzelteilen zurückverfolgt wird. Aus dieser Darstellung eines nahtlos ineinandergreifenden fotografischen Prozesses zur Erzeugung von Sofortbildern und der ebenso integrierten Form seiner industriellen Produktion wird jedoch zugleich, insbesondere im Kommentar Morrisons, die komplementäre Idee einer der technischen Funktionsweise analogen Form integraler ästhetischer Erfahrung hergeleitet,18 die der Technik ihrem Wesen nach eigne und vom Konsumenten durch ihre Einbindung in dessen Alltag erworben werden könne. Entsprechend formulierte Edwin Land in einem zeitnahen Interview, dass es „Wahrnehmungen“ gebe, „die Menschen ohne die Photographie nie vollständiger erfahren könnten. […] Unsere neue Kamera kann, so glaube ich, die Lebensweise der Menschen beeinflussen. Ich hoffe, sie wird ein Teil von ihnen werden.“19 Das Gleiche ließe sich auch für den Film der Eames behaupten, der seinerseits eine Wahrnehmung des SX-70-Systems ermöglicht, wie es von seinen Benutzern nie vollständiger erfahren werden könnte. Bereits im Jahr zuvor, 1971, hatten es 17 Vgl. Paul Schrader: Poetry of Ideas. The Films of Charles Eames. In: Film Quarterly 23, 1970, Heft 3, S. 2–19, hier S. 7–8. 18 Die Nähe der Werberhetorik der Polaroid Corporation zur Ästhetik John Deweys, die dieser 1934 in Art as Experience zusammengefasst hat, ist frappierend und lässt sich durch die Jahrzehnte verfolgen. Ihren Höhepunkt erreicht sie mit der Polaroid Experience des SX-70-Integralbildsystems ab 1972. Edwin Land arbeitete nachweislich in einem Labor der Harvard University, als Dewey 1931 seine Vorlesung Art and the Esthetic Experience gehalten hat, die die Grundlage für Art as Experience darstellte. Vgl. John Dewey: Art as Experience (engl. Orig. 1934), Frankfurt am Main 1988; Polaroid Corporation (Hg.): The Polaroid Experience. Beilage des Polaroid Corporation Annual Report for 1973. Cambridge, MA 1974. 19 Land (s. Anm. 14), S. 51.

Präzise Montage

211

sich die Eames mit der für IBM ausgerichteten Ausstellung A Computer Perspective zum Ziel gesetzt „eine mutige neue Form der Kommunikation“20 zu entwickeln, die einerseits auf der bereits als typisches Stilmittel beschriebenen quantitativen Überfülle an Information beruhte; andererseits zielte sie auf eine spezifische Anordnung dieser Informationen ab, die den qualitativen Strukturprinzipien des dargestellten Gegenstandes – des Computers als information machine – entsprach.21 Für das SX-70-Verfahren, dessen neuartige Bedienung und Funktionsweise der breiten Masse zu Beginn der 1970er-Jahre ebenso unbekannt war wie diejenige eines Computers, galt es eine vergleichbar sprechende formale Aufbereitung für den Film zur Vorstellung der neuen Polaroid-Fotografie zu finden. Aus diesem Grund folgt sein Ablauf einem ebenso präzisen strukturellen Rhythmus wie die wiederholungsgenau einander ablösenden Vorgänge des dargestellten Verfahrens, das sich nach jedem Drücken des Auslösers in einer exakt geordneten Kaskade von mechanischen Bewegungen, elektronischen Signalen und chemischen Reaktionen abzuspulen hatte, um erfolgreich ein Sofortbild zu erzeugen. Dass nicht nur eine strukturelle Analogie zwischen dem Produkt der Polaroid Corporation und dem Produkt des Eames Office – bezeichnenderweise gleichlautend mit SX-70 betitelt – besteht, sondern dass auch die übergeordneten, ganzheitlichen Ansprüche an Technik, Gestaltung und Kreativität der Protagonisten einander ähnelten, wurde insbesondere von Polaroid beharrlich betont, um die Zusammenarbeit mit den Eames als ein von gegenseitiger Sympathie getragenes Projekt erscheinen zu lassen. In der aufwändig produzierten Werbezeitschrift Polaroid Close-up erschien noch 1981 ein entsprechender Artikel von Jehane R. Burns, einer ehemaligen Mitarbeiterin des Eames Office, in dem die Beziehung zwischen Konzernchef Edwin Land und den Eames thematisiert wird. Bereits ein zu Beginn des Textes platziertes Zitat von Ray Eames, das sich als Variation einer früheren Aussage Edwin Lands nachweisen lässt, besiegelt die Geistesverwandtschaft von Charles Eames und Letzterem: Die SX-70-Kamera wurde von dem Moment an, in dem Edwin Land sie in Charles’ Hand legte, zu einer Erweiterung seines Auges und seines Denkens. Er suchte immer nach den Grenzen der Möglichkeiten und teilte mit Land die Freude an den Ergebnissen […].22 20 Isaac Bernard Cohen: Introduction. In: The Office of Charles and Ray Eames (Hg.): A Computer Perspective. Background to the Computer Age (engl. Orig. 1973), Cambridge, MA/London 1990, S. 5. 21 Vgl. Margarete Pratschke: Die Kunst, Technik zu vermitteln. Zur Bilddidaktik des Computers bei Charles und Ray Eames. In: Bildwelten des Wissens 7.1: Bildendes Sehen, 2009, S. 19–34. 22 „The SX-70, from the moment Edwin Land first placed it in Charles’ hand, became an extension of his eye and mind. Always checking the boundaries of possibilities – sharing, with Land, the enjoyment of the

212 Dennis Jelonnek

Medium und Arbeitsweisen Interessanter noch als die Zuschreibung einer ursprünglich auf Land zurückgehenden Aussage an Ray Eames ist die damit verfolgte Strategie, den Film als eine symbiotische Zusammenarbeit von Polaroid und Eames Office zu inszenieren. So wird in ihm die Sofortbildfotografie konsequent als ein Bildmedium dargestellt, das der Arbeitsweise der Eames ebenso entspricht, wie es aus dieser hervorgegangen sein könnte: Insbesondere SX-70-Bilder, die direkt in Charles’ geräumige Hemdtaschen wandern konnten, während er weiter fotografierte, eigneten sich für die Gewohnheit des Büros, auf der Suche nach dem prägnanten Detail mehrfach und rekursiv zu dokumentieren […]. Einzeln und in Gruppen fanden sie vom ersten Tag an, als die Kamera uns erreichte, ihren Weg an die Bürowand.23

In einer zuvor erwähnten Sequenz des SX-70-Films ist diese – faktische oder vorgebliche – Bereitstellung einer Technik durch Polaroid und ihrer Integration in die Gestaltungsprozesse der Eames anhand der von Burns erwähnten Bürowand mit besonderer Raffinesse ins Bild gesetzt ↗ABB. 5 . Es handelt sich um die unauffällige, etwa zehn-sekündige Szene, in der das fertig entwickelte Sofortbild im Anschluss an die Erläuterung seines Zustandekommens gezeigt wird. Als Kulminationspunkt des vorangegangenen Prozesses wird es mit der angesprochenen Strategie ­visueller Überinformation in einer komplexen filmischen Bewegung präsentiert:24 Mithilfe eines zoom-out , der demjenigen des populären Eames-Films Powers of Ten entspricht, wird der Zuschauer in fließender Folge mit einer formlosen blaugrünen Fläche konfrontiert, die sich sodann als Teil einer Farbkarte für den fotografischen Tonwertabgleich entpuppt, die wiederum in einer Studioumgebung – mit großer Wahrscheinlichkeit der Eames – steht. Diese Konstellation gibt sich jedoch im Laufe weiteren Herauszoomens als Motiv eines Sofortbildes mit dem typischen, weißen SX-70-Rahmen zu erkennen, welches bei Stillstand der Kamera selbst mit zwei Reißzwecken an eine Pinnwand der Eames geheftet erscheint. Dort befindet results […] taking his pleasures seriously.“ Ray Eames, zitiert nach Jehane R. Burns: Did you get pictures? Charles Eames’ SX-70 designs. In: Polaroid Close-up 12, 1981, Heft 3, S. 6–11, hier S. 6. Land hatte bereits Jahre zuvor in einem Jahresbericht des Unternehmens formuliert: „As a new eye, and a second memory, it will enhance the art of seeing and reinforce recalling.“ (s. Anm. 13). 23 „SX-70 prints especially, which could go straight into Charles’ capacious shirt pocket while he went on shooting, suited the office habit of multiple and recursive documentation, and the pursuit of the eloquent detail […]. Singly and in clusters, SX-70 prints found their way back onto the wall of the office from the first day the camera reached us.“ Burns (s. Anm. 23), S. 10. 24 Eames (s. Anm. 6), TC 07:27–07:36.

Präzise Montage

213

5 Charles Eames, Ray Eames: SX-70, TC 07:35.

es sich unter anderem neben einem Blatt Papier, auf dem das abgeschnittene Wort „d Corporation“ für Polaroid Corporation, sowie das damalige Logo der Firma aus zwei sich überschneidenden Kreisen zu erkennen sind. Der grundlegenden Struktur des Films entsprechend, verkettet die Kamerafahrt so im Laufe der Zoombewegung die Präsentation des Produktes der Polaroid Corporation mit seiner Einbindung in die kreative Sphäre der Eames. Für deren Arbeitsumgebung steht die Pinnwand pars pro toto, indem sich in ihrem materiellen Tableau die Aufgaben, Ideen und Pläne des Paares repräsentiert finden. Die Verquickung der Erzeugnisse von Polaroid Corporation und Eames Office verläuft in dieser Sequenz für den Zuschauer als ein ständig wechselndes Erkennen von Sofortbildtechnik und Studioumgebung und mündet schließlich in deren gleichberechtigtem Nebeneinander, das zugleich ein Ineinander darstellt: Als Mise-en-abyme der Farbtafel im Eames-Studio, die sich einen Moment später als ein Sofortbild an der Pinnwand dieses Studios zu erkennen gibt, konstituiert es innerhalb des Films ein in die Tiefe und Fläche zu lesendes Sinnbild für die integrale Verbindung

214 Dennis Jelonnek

zwischen Polaroid Corporation und Eames Office, sowie zwischen Sofortbildfotografie und einer Arbeitsumgebung, in die das Produkt der Polaroid Corporation als notwendiger Teil einer spezifischen kreativen Arbeitsweise der Eames integriert ist. Ebenso wie der Film bestehe in deren Studio „[j]ede Oberfläche […] aus vielen Ebenen sprechender Dinge und Bilder: […] aus Modellen, Attrappen, Kritzeleien, Diagrammen und Tabellen jeder Art und Größe“25, sowie vor allem aus Fotografien, die dazu dienten „frühere Erfahrungen in die Gegenwart und Zukunft zu weben.“26

25 „The office itself is the most enjoyable […] space I know. […] Every surface seemed to be levels-deep in eloquent things and images: […] models, mock-ups, doodles, diagrams and charts of every kind and scale […].“ Burns (s. Anm. 23), S. 6. 26 „The other hallmark of Eames projects is the abundance of images – all kinds of images, but, inevitably, photographs most of all; photography as a way of weaving past experience into the present and the future.“ Burns (s. Anm. 23), S. 8. Burns Beschreibung von Erfahrung im Büro der Eames ruft erneut Deweys Ästhetik auf: „Auch in der Erfahrung gibt es eine fließende Bewegung von etwas weg zu etwas hin. Während der eine Teil in den anderen hinüberführt, das Vorangegangene weiterbefördert, gewinnt jeder Teil in sich an Bedeutung. Das fortbestehende Ganze wird durch die aufeinanderfolgenden Phasen, die Hervorhebung seiner mannigfaltigen Farben, diversifiziert.“ Dewey (s. Anm. 19), S. 48. „Wie das Atmen, so ist auch Erfahrung ein Rhythmus von Aufnehmen und Abgeben. Diese Aufeinanderfolge wird durch Intervalle gegliedert und zu einem Rhythmus geformt – durch Zeiten also, in denen eine Phase endet und die andere im Verborgenen bereits besteht und sich vorbereitet.“ Dewey (s. Anm. 19), S. 70–71.

Anita Hosseini

Zufall durch Präzision John Cages Experiment und die Genese von Zufalls- und Präzisionsbildern

Im Steingarten des Ryōan-ji-Klosters in Kyoto, im Jahr 1499 angelegt, befinden sich fünf Moosflächen, umgeben von weißem Kies, der auf einem etwa 10 × 30 Meter großen Grundstück ausgelegt worden ist. Auf diesen Flächen wiederum sind insgesamt fünfzehn unterschiedlich große Steine platziert ↗ABB. 1 .1 Die unter Verwendung eines Rechens erzeugten Linienmuster im Kiesbett umgrenzen diese Formationen und verbinden sie miteinander. Abstraktion und Reduktion bestimmen den Garten und öffnen Assoziationsräume: Das Gefüge aus Linien und Flächen erweckt den Eindruck einer Meerlandschaft mit Inseln oder auch von Berggipfeln, die das Wolkenfeld durchbrechen.2 Für die Genese der etwa 170 Bleistiftzeichnungen mit dem Titel Where R = Ryoanji, die John Cage zwischen 1983 und 1991 ausführte, bildet ebendieser Steingarten die Inspirationsquelle. Auf handgeschöpftem Japanpapier zeigen sich Kreisformationen, die mal zu einer das gesamte Papier beherrschenden All-over-Struktur verwachsen, mal komponiert und gruppiert geordnet in Erscheinung treten ↗ABB. 2 . Zarte, harte, weiche, blasse und dunkle Bleistiftlinien umreißen und markieren ihre Formen. Teilweise wirken sie willkürlich auf dem Blatt verteilt – manchmal jedoch scheint der ihnen zugewiesene Platz genau ausgewählt. John Cage reiste 1962 nach Japan und besuchte dort den Ryōan-ji -Garten in Kyoto.3 Als Anhänger des Zen-Buddhismus versuchte er die Philosophie in sei-

1 Der Garten ist jedoch so gestaltet, dass aus jedem Blickwinkel maximal vierzehn der Steine zugleich gesehen werden können. Constance Lewallen: Cage and the structures of Chance. In: David W. Bernstein, Christopher Hatch (Hg.): Writings through John Cage’s Music, Poetry, and Art. Chicago 2001, S. 234–243, S. 242. 2 Vgl. Corinna Thierolf: Plötzliche Bilder. Die Ryoanji-Zeichnungen von John Cage. In: Bayrische Staatsgemäldesammlung (Hg.): Hanne Darboven – John Cage, Staatsgalerie Moderner Kunst München. Ostfildern 1997, S. 42–76. Die Wasserassoziation wird auch von dem Kunsthistoriker Yoshinobu Yoshinaga beschrieben: „The garden is an attempt to represent the innermost essence of water, without actually using water, and to represent it at that even more profoundly than would be possible with real water.” Zitiert nach David A. Slawson: Secret teachings in the art of Japanese gardens. Tokyo 1987, S. 74. 3

Thierolf (wie Anm. 2), S. 46.

216 Anita Hosseini

1 Stéphane D’Alu: Ryoanji Garten in Kyoto, 2004, Fotografie.

2 John Cage: Where R = Ryoanji (4R)/4, Juli 1983, Bleistift auf handgeschöpftem Japanpapier, 25,4 × 48,3  cm, Privatsammlung.

Zufall durch Präzision

217

nem kompositorischen und künstlerischen Schaffen zu integrieren.4 So war es sein Ziel, das Leben durch sein Œuvre zu bejahen, nicht aus Chaos Ordnung zu machen, nichts zu verbessern, sondern zu zeigen wie das ‚eigentliche‘ Leben aussieht, „which is so excellent once one gets one’s mind and desires out of its way and lets it act of its own accord.“5 Im vorliegenden Aufsatz soll jedoch das Augenmerk auf einen anderen Aspekt der Bildgenese gelegt werden: Das experimentelle Vorgehen des Künstlers, das sich sowohl aus einer präzisen Praxis als auch aus einem intentionalen Gebrauch des Zufalls speist. Die Where R = Ryoan-ji-Zeichnungen sind intendierte Zufallsbilder, die zugleich auch Bilder der Präzision sind. Diese zunächst paradox anmutende Aussage soll durch einen Blick auf das künstlerische Verfahren Cages als experimentelles Vorgehen im Sinne des wissenschaftlichen Experimentierens erläutert werden. Es soll gezeigt werden, dass die Koppelung von Präzision und Zufall künstlerische wie auch wissenschaftliche Erkenntnisse hervorbringt und dass Zufall und Präzision gleichermaßen ihr Territorium im Bild finden. Die experimentell erzeugten Zufalls- beziehungsweise Präzisionsbilder bilden somit ein ästhetisches oder auch epistemisches Drittes. Die Genese der Zeichnungen ist hierbei von größter Relevanz: Cage wählte ein rechteckiges Format, dessen Kanten in Koordinaten von 1 bis 64 unterteilt wurden. Die Schnittpunkte der vertikalen und horizontalen Begrenzungslinie wurden mit der Zahl Null beziffert ↗ABB. 3 . Darüber hinaus verwendete er 17 Bleistifte der Stärken 9H bis 6B und 15 verschiedene Steine.6 Die Intentionalität in seinen Arbeiten wurde durch eine intention of the mind operation, durch die Einbeziehung der Unbestimmtheit und des Zufalls erzielt.7 So erfolgte die zufällige Auswahl der Koordinaten, der Steine und Stifte durch den Einsatz des I Ging . Bei I Ging handelt es sich um eine Sammlung von 64 chinesischen Orakelsprüchen. Obwohl die mythologische Implikation dieses Buches für Cage von keinerlei Bedeutung war, spielte das I Ging eine herausragende Rolle als Methode der Zufallseinbindung in seinem kompositorischen und künstlerischen Vorgehen.8 Hierbei bildete jedoch die genaue Kennzeichnung und Nummerierung der Bestandteile und Materialien, also die Setzung eines Rahmens, die Grundlage.

4 Ein Sachverhalt, der bereits vielfach untersucht und interpretiert wurde. Einen schönen Einblick in die Inspiration Cages durch den Zen-Buddhismus und dessen Einsatz in Kunst, Musik und Performance gibt Kay Larson: Where the Heart Beats: John Cage. Zen Buddhism and the Inner Life of Artists. London 2012. 5 John Cage: Silence. Lectures and writings. Middletown 1961, S. 95. 6 Thierolf (s. Anm. 2), S. 51. 7 Vgl. Kathan Brown: Visual art. In: David Nicholls (Hg.): The Cambridge Companion to John Cage. Cam­ bridge 2002, S. 109–127, hier S. 113. 8 Vgl. Hans-Friedrich Bormann: Verschwiegene Stille – John Cage performative Ästhetik. München 2005, S. 170.

218 Anita Hosseini

3 Schablone, die John Cage für die Ryoanji-Zeichnungen verwendet hat, Bleistift auf Papier, 39,5 × 11 cm (gekennzeichnetes Feld), Bayrische Staatsgemäldesammlungen München.

Mit dem I Ging generierte Cage sowohl seine Zeichnungen als auch seine Kompositionen, indem er die 64 zur Auswahl stehenden Sprüche durch Koordinaten, Steine und Stifte, aber auch Elemente der Musik, wie Noten, Längen, Dynamik und Stille ersetzte, denen er Zahlen von 1 bis 64 zugeordnete.9 In einer Art Münzwurf oder Würfelspiel bestimmte nun das I Ging ,10 welcher Ort für welchen Stein festgelegt wurde und mit welcher Bleistiftstärke die Konturen nachgezeichnet werden sollten.11 Das I Ging gab die horizontale und vertikale Ausrichtung des jeweiligen Steins vor, der nach Positionierung auf dem Papier mit dem dafür bestimmten Stift umfahren wurde. Die runden und ovalen Formen erinnern an die Moosinseln und Findlinge des Ryōan-ji -Gartens. Auf einigen Blättern der Where R = Ryoan-ji -Serie wiederholte Cage diese Praxis mehr als fünfzehnmal. Durch das repetitive Auflegen und Umkreisen der Steine potenzierte sich die Anzahl der Linien auf dem Papier. Daraus resultierten Strukturen, deren Durcheinander und Übereinander der Umrisslinien die Erinnerung an einen puristisch angelegten Steingarten wieder aufheben.

9 Cage kommentiert selbst kurz das Verfahren der Bildgenese seiner Zeichnungen und darauf aufbauend die sich an dieser Praxis anlehnenden Kompositionen. John Cage: ‘Ryoanji’: Solos for Oboe, Flute, Contrabass, Voice, Trombone with Percussion or Orchestral Obbligato (1983–85). In: PAJ. A Journal of Performance and Art 31, 2009, Heft 3, S. 58–64. 10 Bisweilen brachte er durch das I Ging erstellte Zahlenfolgen mit sich, die für ihre unmittelbare Nutzung und Übertragung auf die Zeichnung bereitstanden. Brown (s. Anm. 7), S. 114. 11 In der Komposition werden durch diese Methode die Länge des Stücks festgelegt, die Tonalität bestimmt und Momente der Stille integriert. So legte Cage auch die drei Sätze seines berühmten stillen Stücks 4’33’’ (1952) sowie ihre jeweiligen Längen fest, die dem Stück seinen Namen gaben. Darüber hinaus entstanden so weitere Arbeiten wie Music of Changes (1951). Bormann (s. Anm. 8), S. 171.

Zufall durch Präzision

219

Cage verstand seine so generierten Zufallsbilder als „an exploration of how nature itself functions as a means to open the mind and spirit to the beauty of life with minimum of artistic expression or interpretation.”12 Die Repräsentation der Natur erfolgte also durch den Zufall, der für Cage gleichbedeutend mit der Natur, dem Prozessualen und Unvorhersehbaren war und dessen Einbeziehung einer Angleichung von Werk- und natürlichen Prozessen dienen sollte, im Sinne einer allgemeinen Entgrenzung des Ästhetischen.13 Durch den Einsatz des I Ging wurden Leben und Natur in Form des Zufalls in die Bildproduktion integriert – es lässt sich hier von einer Aleatorik der Werkgenese sprechen. Holger Schulze definiert zwei Formen der Aleatorik – ein Begriff, der erstmals 1954 von Werner Meyer-Epple für die Künste gebraucht wurde und zuvor „physikalische Anwendungsmöglichkeiten von Zufallsfunktionen“ (André Blanc-Lapierre und Robert Fortet14) beschrieben hatte.15 Die erste Form ist die improvisatorisch-indeterminierte, automatische Werkgenese und meint, dass Werke der Kunst durch das Un- oder Überbewusste generiert werden. Die zweite Form, die kombinatorisch-determinierte, maschinelle Werkgenese, beschreibt das Erzeugen von Kunstwerken durch die Einbeziehung des Zufalls, bei denen das Material oder das Programm zu Werkproduzenten werden.16 Obwohl die aleatorische Praxis von Where R = Ryoanji das Zeichenmaterial, den Stein und seine Positionierung innerhalb der Zeichnungen festlegte und somit der von Schulze definierten zweiten Form angehören würde, suchte Cage dennoch selbst die Steine aus, die er für seine Zeichnungen verwendete, bestimmte welche Seite des Steins an dem vorbestimmten Punkt angelegt werden sollte und wie viele Steine, in welcher Ausrichtung auf dem Blatt platziert und dargestellt wurden. Somit waren Material und I Ging nicht die alleinigen Werkproduzenten,17 sondern auch die aufwändigen und von Cage 12 Lewallen (s. Anm. 1), S. 242. 13 Die besondere Relevanz des Prozessualen betont Cage in einem Interview mit Daniel Charles: „Mir […] entzieht sich nichts. Noch ist irgendwas präsent, ohne sich zu bewegen. Dinge kommen und gehen. Sie sind ebensowenig an- wie abwesend. Wenn sie eher das eine oder das andere wären, würden sie sich auf Objekte reduzieren. Wieder einmal haben wir es eher mit Prozessen als mit Objekten zu tun, und es gäbe keine Objekte, wenn das Ganze kein Prozeß wäre, der Prozeß, der ebenso jedes Objekt ist.“ John Cage: Für die Vögel. Gespräche mit Daniel Charles. Berlin 1984, S. 191. 14 André Blanc-Lapierre, Robert Fortet: Théorie des fonctions aléatoires. Application à divers phénomènes de fluctuation. Paris 1953. 15 Holger Schulze: Das Modell der nichtintentionalen Werkgenese. Über Werkgeneratoren zwischen Cage und Frontpage. In: Peter Genolla, Thomas Kamphusmann (Hg.): Die Künste des Zufalls. Frankfurt am Main 1999, S. 94–121, S. 99. 16 Vgl. Schulze (s. Anm. 15), S. 100 f. 17 Cages Anliegen der Negation des Künstlersubjekts entspricht dem Vorgehen vieler Künstler seiner Zeit. Das Verschwinden des Autors und das Scheitern dieser Versuche, das sehr typisch für seine Generation ist, wurde von Verena Krieger anschaulich dargelegt und untersucht in ihrem Aufsatz: Sieben Arten, an der Überwindung des Künstlersubjekts zu scheitern. Kritische Anmerkungen zum Mythos vom ver-

220 Anita Hosseini

getroffenen Vorkehrungen, die es ermöglichen sollten, das Schöpferische der Natur einzufangen.18 Dieses Vorgehen kommt einer experimentellen Anordnung gleich, in welcher Präzision als Voraussetzung für eine Einschreibung des Zufalls in ein bildnerisches Ergebnis eingesetzt wird. Doch auch das wissenschaftliche Interesse an Bildern der Natur, an einer Erfassung der Naturgesetze jenseits des subjektiven Einflusses des Wissenschaftlers findet sich darin wieder. Unter dem Terminus mechanische Objektivität beschreiben Lorraine Daston und Peter Galison das Streben der Naturforscher des 19. Jahrhunderts, durch den ‚richtigen‘ Umgang mit Instrumenten und Apparaten sich selbst zu schulen und so die ‚Objektivität‘ ihrer Forschung zu steigern. Unter anderem durch den Einsatz von bildgebenden Instrumenten, aber auch durch Disziplin wollten Naturforscher ihre Handschrift verschwinden lassen.19 Dies gelang zum einen durch Sorgfalt bei der Beobachtung und definierte die „Aufgabe der Hand [als reine] Nachahmung und Bestätigung dessen, was das Auge sah.“20 Zum anderen sollte der Wille des Forschers […] darauf trainiert werden, das Selbst zu disziplinieren, indem er Wünsche verhinderte, Verlockungen abwehrte und das entschlossene Bemühen um ein Sehen bestärkte, das frei von allen durch Autorität, ästhetisches Vergnügen oder Eigenliebe bewirkten Verzerrungen war.21

Ebenso wie Cage versuchte, seine eigenen Präferenzen, seine Handschrift und somit seine Autorschaft zu eliminieren, trachteten auch zahlreiche Naturforscher danach, eine Natur frei von ihrer eigenen Person darzustellen. So wurde zur bild-

schwundenen Autor. In: Martin Hellmond, Sabine Kampmann (Hg.): Was ist ein Künstler? Das Subjekt der modernen Kunst. München 2003, S. 117–148. 18 Innerhalb der Mountain Lake Workshops 1988 und 1990 an der Virginia Tech Foundation in Blacksburg, bat ihn Ray Kass, der Direktor und Initiator, Wasserfarbbilder anzufertigen, die nach demselben Prinzip wie die Where R = Ryoanji Serie entstehen sollten. Kass zitiert nach Christopher Shultis: Cage in Retrospect: A Review Essay. Here Comes Everybody: The Music, Poetry and Art of John Cage, Mills College, November 15–19, 1995. In: The Journal of Musicology 14, 1996, Heft 3, S. 400–423, hier S. 402. So fertigte Cage die mehrteiligen Werkreihen River Rocks and Smoke sowie New River Rock and Washed an. Auch bei diesen setzte er Steine, die er am Ufer des New River in Virginia gefunden hatte, als ‚Schablonen‘ ein. Die Steine wurden mit ihrer flachsten Seite auf das Blatt gelegt und zunächst mit einer Feder umfahren und schließlich mit einem in Farbe getränkten Pinsel konturiert. Constance Lewallen betont in diesem Zusammenhang, dass Cage erst in einem zweiten Schritt den Pinsel nutzte, da er vermeiden wollte, dass seine Zeichnungen zu sehr von seiner Handschrift geprägt würden. Lewallen (s. Anm. 1), S. 238. Auch hierbei wurden die Pinsel durch den Zufall bestimmt und aus zwölf zur Verfügung stehenden mit unterschiedlichen Breiten ausgewählt. Lewallen (s. Anm. 1), S. 242. 19 Lorraine Daston, Peter Galison: Objektivität. Frankfurt am Main 2007, S. 113f. 20 Lewallen (s. Anm. 1) S. 194. 21 Lewallen (s. Anm. 1).

Zufall durch Präzision

221

lichen Wiedergabe von Natur entweder die Fotografie eingesetzt, die scheinbar Bilder erzeugt, „die unberührt von Menschenhand waren“,22 oder es wurden Regeln festgeschrieben (zum Beispiel International Code of Nomenclature von 1910), die der objektiven Wiedergabe des Forschungsgegenstandes dienten und die Genese von Bildern soweit reglementierten, dass das Subjekt der Bildgenese in den Hintergrund trat.23 Diese Bilder repräsentieren jedoch nicht nur die geltenden Konventionen wissenschaftlicher Illustrationen der Natur, sondern veranschaulichen zugleich auch eine bestimmte Praxis der Bildproduktion. So betont Olaf Breidbach, dass wir „in den resultierenden Bildern, die wir mit anderen Perspektivierungen begreifen, in einer Differenzanalyse die kulturell bedingte Eingrenzung und damit die Wahrnehmungsstile der Zeit erfassen [können].“24 Und mehr noch: Auch wissenschaftliche Repräsentationen folgen einem Stil, das in einem Sehen mündet, welches „als gerichtetes Wahrnehmen, mit entsprechendem gedanklichen und sachlichen Verarbeiten des Wahrgenommenen“25 nach Ludwik Fleck gefasst werden kann. In Anlehnung an Denkstile, Sehkonventionen und Theorien wird ebenjene Natur sichtbar und untersuchbar, die diesen folgt. Auch Cages Vorgehen veranschaulicht eine zeitgenössische Auffassung der Repräsentation von Natur, die keine mimetisch exakten Ebenbilder erzeugen, sondern die Natur selbst im Prozess ihrer Lebendigkeit, in ihrem steten Werden, zur Darstellung bringen möchte. In dieser Zielsetzung rückt die Praxis der Werkgenese in den Fokus. Das aleatorische Verfahren soll den Zufall zum Produzenten der Zeichnungen machen und so Bilder der Natur schaffen. Der Fokus auf die Cage’sche Bildgenese und das Bemühen, die Natur und das Leben in ihrer Unvorhersehbarkeit zur Darstellung zu bringen, offenbart Parallelen zwischen seiner künstlerischen und der experimentellen Praxis von Wissenschaftlern. Nach Cage ist ein Experiment „simply an action the outcome of which is not foreseen.“26 So definiert auch Hans-Jörg Rheinberger das Experiment als einen Ort für die Genese neuen Wissens,27 das jedoch unvorhersehbar sei und ausschließlich a posteriori als Neues charakterisiert werden könne.28 Die Experi-

22 Lewallen (s. Anm. 1), S. 113. 23 Vgl. Lewallen (s. Anm. 1), S. 118. 24 Olaf Breidbach: Bilder des Wissens. Zur Kulturgeschichte der wissenschaftlichen Wahrnehmung. München 2005, S. 47. 25 Ludwik Fleck: Entstehung und Entwicklung einer wissenschaftlichen Tatsache. Frankfurt am Main 1999, S. 130. 26 Cage (s. Anm. 5), S. 69. 27 Vgl. Hans-Jörg Rheinberger: Wissenschaft und Experiment. In: Anne von der Heiden, Nina Zschocke (Hg.): Autorität des Wissens. Kunst- und Wissenschaftsgeschichte im Dialog. Zürich 2012, S. 123–132, hier S. 123. 28 Vgl. Rheinberger (s. Anm. 27), S. 124.

222 Anita Hosseini

mentalanordnung zeichnet sich hierbei durch „gültige Reinheits- und Präzisionsstandards“ aus, in denen die Wissenschaftsobjekte „eingebettet und durch die Umfassung gleichzeitig begrenzt“29 werden. Das Experiment liefert durch seine Anordnung, Rahmensetzung und das Einbeziehen eines „kanalisierte[n] oder in die Wege geleitete[n] Zufall[s]“30 Antworten auf unbekannte Fragen.31 Demnach ist ein Experiment eine Synthese aus Vermutungen, Annahmen und Zufälligkeiten, die durch eine genaue Anordnung, Beobachtung und Rückschau etwas hervorbringen, das zuvor unbekannt war.32 Dennoch oder gerade deshalb ist ein wichtiges Charakteristikum von Experimenten ihre Künstlichkeit. Bereits Francis Bacon forderte eine genaue Beobachtung der Natur, indem der Experimentator durch den Einsatz von Instrumenten und Apparaten (oder durch Neukontextualisierungen) auf seinen Untersuchungsgegenstand einwirken sollte. Durch die Schaffung einer künstlichen Situation, durch die Zuhilfenahme oder durch das Weglassen bestimmter Mittel, lasse die Experiment­ anordnung für den Naturphilosophen […] nicht Alles bloss auf die Kräfte des Geistes ankommen, noch nimmt sie aus der Naturgeschichte und den mechanischen Versuchen den ihr dargebotenen Stoff – roh, wie er ist – ins Gedächtnis auf, sondern legt ihn erst verändert und umgearbeitet dem Verstand vor.33

Ein Experiment fördert also durch die Veränderung und Umarbeitung des Untersuchungsgegenstandes etwas zu Tage, das zuvor unbekannt war. Somit ist ein Fakt auch immer ein Artefakt oder eine Tat sache eine Tat sache,34 wie Bruno Latour in seinem gleichnamigen Aufsatz in Anlehnung an die Aussage „un fait est un fait“ von Gaston Bachelard erklärt.

29 Hans-Jörg Rheinberger: Experiment: Präzision und Bastelei. In: Christoph Meinel (Hg.): Instrument – Experiment. Historische Studien. Berlin 2000, S. 52–60, S. 53. 30 Rheinberger (s. Anm. 27), S. 125. 31 Hans-Jörg Rheinberger: Experimentalsysteme und epistemische Dinge – Eine Geschichte der Proteinsynthese im Reagenzglas. Göttingen 2006, S. 25. 32 So charakterisiert Rheinberger das epistemische Ding, den Forschungs- und Untersuchungsgegenstand, als das, „was man noch nicht weiß.“ Rheinberger (s. Anm. 29), S. 52. 33 Francis Bacon: Neues Organ der Wissenschaft (Lat. 1620). Darmstadt 1990 nach der Ausgabe Leipzig 1830, S. 74f. 34 Bruno Latour: Eine Tatsache ist eine Tatsache. In: Rüdiger Schmidt, Bettina Wahrig-Schmidt (Hg.): Das Denken der Bilder. Philosophischer Taschenkalender. Jahrbuch zum Streit der Fakultäten 2, Lübeck 1992, S. 210–220. Hans-Jörg Rheinberger wählt diesen Titel für seine Übersetzung des Aufsatzes. Latour selbst hatte seinen Titel der Aussage „un fait est un fait“ von Gaston Bachelard entlehnt. Latours Aufsatz erschien 1990 im Englischen unter dem Titel The force and reason of experiment.

Zufall durch Präzision

223

Es wird […] aus Millionen anderer möglicher Anordnungen ausgewählt […]; sodann wird es konstruiert inmitten von Instrumenten und ist ebenso unsichtbar wie undenkbar ohne sie (‚Phänomeno-Technik‘); drittens ist es immer unterdeterminiert und muß durch theoretische Erwartungen überdeterminiert werden.35

Eine Tat sache wird zu einer Tat sache, da in einem Experiment als Ereignis und Handlung alle beteiligten Faktoren verändert werden.36 So resultiert aus einem Experiment nicht nur neues Wissen und eine Theorie, sondern vor allem auch eine neue Wissenschaft, ein neuer Wissenschaftler, eine neue Sache, die sich allesamt nach einem Experiment anders darstellen als zuvor.37 Der Experimentator, der von Rheinberger laut der Typenunterscheidung Bricoleur oder Ingenieur (nach Claude Lévi-Strauss’ Das wilde Denken) als Bastler charakterisiert wird, zeichnet sich durch ein Ausprobieren aus. František Lesák schreibt, dass beide, Bricoleur und Ingenieur, präzise vorgehen, dass sich ihre Zielsetzungen und ihr Umgang mit den vorhandenen Ressourcen jedoch deutlich voneinander unterscheiden.38 Der Bastler „erklärt das Zufällige zum Notwendigen“39 und so kann seine Tätigkeit dazu führen, dass […] gängig verwendete Werkzeuge […] im Prozeß ihrer Reproduktion neue Funktionen annehmen. Geraten sie in Zusammenhänge, die über ihre ursprüngliche Zwecksetzung hinausgehen, so können Eigenschaften an ihnen sichtbar werden, die bei ihrem Entwurf nicht beabsichtigt waren.40

Somit wird der Zufall zum generierenden Faktor auch innerhalb der Wissenschaften und bringt nicht nur neues Wissen hervor, sondern verändert zugleich auch die verwendete Technik. Einem solchen Bastler gleich setzte auch Cage Technik ein, jedoch mit dem Ziel, Kompositionen und Bilder zu generieren: 35 Latour (s. Anm. 34), S. 210. 36 Eberhard Döring zeigt darüber hinaus auf, dass gerade durch die Einbeziehung des Zufalls innerhalb der Forschung die individuelle Einbildungskraft des Subjekts aktiviert wird, woraus resultiert, dass es keine objektiven Erkenntnisse geben kann, da diese stets einen subjektiven Ursprung haben. Eberhard Döring: Zufall der Forschung. Aspekte zur Kunst der Erkenntnis. Berlin 1992, S. 21. 37 Vgl. Latour (s. Anm. 34), S. 212ff. 38 František Lesák: Präzision als Tugend, als Notwendigkeit und als Selbstzweck. In: Ákos Moravánszky, Ole W. Fischer (Hg.): Precisions. Architektur zwischen Wissenschaft und Kunst. Berlin 2008, S. 138–165, hier S. 142ff. 39 Lesák (s. Anm. 38), S. 144. 40 Rheinberger (s. Anm. 31), S. 34.

224 Anita Hosseini

Mit Hilfe einer geeigneten Technologie, die sicherlich nicht zu diesem Zweck entworfen worden ist, werde ich mir sein [des Aschenbechers] inneres Leben anhören. Aber gleichzeitig werde ich diese Technologie steigern, da ich ihre völlige Freiheit, sich auszudrücken und ihre Möglichkeiten zu entfalten, erkennen werde.41

Im Zuge des Umgangs mit den technischen Bedingungen und ihrem Einsatz in Kontexten, für die sie nicht gemacht wurden, bringt er nicht nur ein ästhetisches Produkt hervor, sondern wandelt auch die Technologien selbst um. Hierdurch wird deutlich, dass die Abschließung eines Experimentalensembles durch präzise Rahmensetzung und die gleichzeitige Öffnung für Indeterminationen und Zufälligkeiten nicht nur das Output (Fakt/Bild) determinieren, sondern auch die Technik selbst modifizieren. Durch die Festlegung des Blattformates und der Länge der jeweiligen Koordinaten, durch die Auswahl der Steine sowie der Bestimmung von Anzahl der Stifte, Steine und möglicher Wiederholungen aber auch durch die Entscheidung für eine Methode, das I Ging, erzeugt Cage die Bedingungen für die Einbeziehung des Zufalls bei der Bildgenese. Diese präzisen Vorbereitungen lassen Zufall aus Präzision entstehen und machen so die werdende Natur in ihrer Zufälligkeit zum Bild bestimmenden Faktor. Ähnlich verhält es sich mit einem wissenschaftlichen Experiment: Experimentalanordnung und ‚technische Dinge‘ bilden einen Rahmen für die Genese neuer Erkenntnisse. Zugleich wird der kanalisierte Zufall durch die Versuchskonstellationen, Instrumente und das Einwirken auf den Untersuchungsgegenstand in das Experimentalsetting integriert. Aus diesen beiden Faktoren gleichermaßen geht die Tat sache hervor.42 Die daraus resultierende neue Erkenntnis wird im Zuge der Wissenschaften erklärt und schließlich in eine Theorie eingebettet. Innerhalb der Kunstproduktion hingegen sieht dieser dritte und letzte Schritt ganz anders aus – das Ergebnis ist hier ein Bild, das jedoch stets auf den Prozess seiner Entstehung verweist. So versuchen die Zeichnungen Cages nicht etwas zu erklären, aber sie zeigen etwas auf: Die Gegenwärtigkeit des Zufälligen sowie seine bildgenerische Funktion. Auch das wissenschaftliche Experiment ist nicht ausschließlich das Erklärungsorgan theoretischen Wissens, sondern kann

41 41 Cage (s. Anm. 13), S. 283. 42 Die zufälligen Erscheinungen werden als Anomalien, als Abweichungen von der Regel definiert und bilden so die Grundlage für weitere Versuche. Werden die Anomalien im Zuge der Theorieschreibung zu Erkenntnissen, so bilden sie das Fundament für einen Paradigmenwechsel, wie Thomas S. Kuhn in seinem Aufsatz Anomalien und das Auftauchen wissenschaftlicher Erkenntnisse darlegt. Siehe Thomas S. Kuhn: Die Struktur wissenschaftlicher Revolutionen. Frankfurt am Main 2014, S. 65–78.

Zufall durch Präzision

225

Dingen und Phänomenen Sichtbarkeit verleihen, die sonst unsichtbar und unbemerkt blieben.43 Präzision lässt sich anhand von Verfahren der Messbarkeit fassen, ob es sich nun um Zeit, Länge, Distanz, Anzahl usw. handelt. Doch die visuelle Repräsentation unterliegt stets einer Transformation, die im weitesten Sinne einer ästhetischen Methodik, einem Stil folgt. In Wissenschaft und Kunst legt Präzision somit den Gegenstand, das zu untersuchende sowie die Bedingungen fest und dient einer Annäherung an ein konkretes Wissen, wohingegen das Repräsentierte durch Denkstile, Darstellungskapazitäten und vorhandene beziehungsweise modifizierte Techniken bestimmt ist. In einem Experiment können technische und epistemische Dinge kategorial unterschieden werden: Während ersteres die Bedingungen für die Beantwortung von Fragen liefert, wirft letzteres ebendiese auf.44 Der Bereich der technischen Dinge bildet in einem induktiven Experiment das Setting und ist stark von Präzision und Genauigkeit in der Ausführung bestimmt; die epistemischen Dinge hingegen beschreiben Unbestimmtheiten und Unvorhersehbarkeiten (Zufall), wodurch sie zur Grundlage neuer Fragen und Theorien werden. Dieser Dualismus findet sich in der Cage’schen Praxis wieder, bei der das I Ging und die Materialien als technische Dinge in Erscheinung treten und Präzisionswerkzeuge bilden, während das Bild selbst als epistemisches Ding definiert werden kann, das vor seiner Erzeugung unbekannt ist und nach seiner Genese als Zufalls- und Präzisionsbild seine technische Machart reflektiert. Die Präzisions- und Zufallsbilder als Resultate experimenteller Anordnungen in Kunst und Wissenschaft bilden folglich ein Drittes. Es tritt als naturwissenschaftlicher Ertrag oder ästhetische Formsprache in Erscheinung: Die Kunst schafft ein ästhetisches Produkt, während die Wissenschaft eine Erklärung für epistemische Dinge sucht und in Folge dessen eine Theorie hervorbringt.45 Dennoch macht der Vergleich zwischen diesen Praktiken deutlich, dass im Zuge eines Experiments – ganz gleich, ob ästhetisch oder epistemisch – Zufall und Präzision gleichermaßen das Vorgehen wie auch das Ergebnis bestimmen. Cage beabsichtigte das Einfangen von natürlichen Prozessen (Zufall) durch bestimmte Vorkehrungen (Präzision), die es ihm erlauben sollten, sich als Künstlersubjekt und Autor seiner Arbeiten zu negieren und die Natur so zu zeigen, wie sie ‚wirklich‘ ist. Seine Where R = Ryoanji -Serie repräsentiert jedoch weniger die Natur, als vielmehr die Unbestimmtheit der Natur durch den Einbezug des Zufalls. Seine Zeichnungen sind Spuren eines Algorithmus 43 Vgl. Hans-Jörg Rheinberger zum wissenschaftlichen Experiment, das ebenfalls Dinge hervorbringen kann, die vor dem Experiment unerwartet waren. Rheinberger (s. Anm. 31), S. 34. 44 Vgl. Rheinberger (s. Anm. 31), S. 27–34; Rheinberger (s. Anm. 29), S. 53–56. 45 Vgl. Thomas S. Kuhn: Bemerkungen zum Verhältnis von Kunst und Wissenschaft (1969). In: Lorenz Krüger (Hg.): Die Entstehung des Neuen. Frankfurt am Main 1978, S. 446–460, hier S. 450.

226 Anita Hosseini

(bestimmt durch die Codierung des I Ging), aber auch Spuren einer Werkgenese, die in ihrer Prozessualität sein künstlerisches Schaffen spätestens seit seinem stillen Stück 4’33’’ bestimmen sollten. In der Relektüre seiner aleatorischen Werke aus wissen­schaftshistorischer Perspektive zeigt sich, dass Cages Praxis einer Tradition der Naturrepräsentation folgt, die bereits seit der frühen Neuzeit in naturphilosophischen Praktiken zu beobachten ist und auch heute noch in epistemologischen Studien untersucht wird: Die Annäherung an die Phänomene der Natur und die damit einhergehende Negation des Subjekts sowie die Präzision als Methode der Wahl und die Rolle des Zufalls.

BILDLICHE ENTSCHEIDUNGEN

Matthias Bruhn

Harndruck Farbskalen zwischen Gestaltung und Diagnostik

Dass Begriffe der Präzision oder Genauigkeit nicht nur für Fragen der Messtechnik von Bedeutung sind, lässt sich auch an einer traditionellen medizinischen Praxis ablesen, die heute eher unappetitliche Assoziationen weckt, nämlich an der sogenannten Urinschau.1 Tatsächlich ist sie zu allen Zeiten von zentraler diagnostischer Bedeutung gewesen. Denn menschliche Harnflüssigkeit kann (neben Stuhlgang, Haut oder Blut) nachweislich über bestimmte Krankheiten und Zustände des Körpers Auskunft geben, und zwar über verschiedene Sinne und über verschiedene medizinische Lehren und Traditionen hinweg. Diese grundsätzliche indikatorische Funktion hat die Urinprobe bis in die moderne Zeit beibehalten, auch wenn immer weitere Analyseverfahren hinzugekommen sind. In jedem Falle lag es nahe, die Färbung oder Tönung von Körperäußerungen wie dem Urin auf irgendeine Weise festzuhalten, um entsprechende Befunde im Unterricht, im Lehrbuch oder im Labor auch kommunizieren und systematisieren zu können, und diese gegebenenfalls weiter zu kommentieren, etwa was Geruch oder Beschaffenheit anbetrifft. Hierzu waren ärztlichen Lehrwerken wie Johannes von Kethams Fasciculus Medicinae von 1491 ↗ABB. 1 oder Ulrich Pinders Epiphanie Medicorum von 1506 ↗ABB. 2 Holzschnitte mit einem Kreismotiv beigefügt, die von Hand koloriert wurden, um den beobachteten Farbton darzustellen.2 Doch war dies leichter gesagt als getan. Denn um körperliche Zustände oder Erkrankungen mittels Farbwerten beschreiben oder ablesen zu können, mussten diese überhaupt erst einmal in einer verlässlichen Form verfügbar sein. Die Kolorierung stellte zugleich eine Kodierung von Informationen dar, die auf zahlreichen Voraussetzungen beruht. So ergaben sich aus der Urinschau unmittelbare diagnostische wie bildpraktische Fragen: etwa ob eine Farbe allein und eindeutig für einen bestimmten Zustand stehe, wie sich diese festhalten und mit den beobachteten (flüchtigen) Symptomen

1 Der Text greift Passagen eines Beitrages zu einem Sammelband auf, der vom BMBF-geförderten Forschungsverbund Farbe als Akteur und Speicher (www.farbaks.de) herausgegeben wird. 2

Zur Entwicklung der Harnschau siehe Michael Stolberg: Die Harnschau. Eine Kultur- und Alltagsgeschichte. Köln u. a. 2009, insbes. die Abschnitte Die Harnfarben, S. 46 ff und Die Harnschau als Ritual, S. 125 ff.

230 Matthias Bruhn

1 Kreisschema zur Harnschau. Holzschnitt in einer unkolorierten italienischen Ausgabe des Johannes von Ketham: Fasciculus Medicinae. Venedig 1493.

Harndruck

231

2 Die ärztliche Harnschau. Kreisschema und Legende. Kolorierte Holzschnitte aus: Ulrich Pinder: Epiphanie Medicorvm. Speculum videndi vrinas hominum. Nürnberg 1506.

abgleichen lasse. Hinzu kam die Frage, wie die so definierte Skala von Erscheinungen oder Wahrnehmungen zuverlässig reproduziert werden könne, zumal wenn es sich nicht als ausreichend erwies, Urinproben zu sammeln, zu trocknen und weiterzuverwenden. Der Herstellung und Verwendung von stabilen Farbstoffen kam damit eine entscheidende Funktion für die Praxis und Erkenntnisgewinnung zu, und die Urinschau hat im Gegenzug für die Geschichte der Farbenkunde eine ebenso große Bedeutung erlangt wie etwa der Regenbogen, dessen genaue Abfolge lange Zeit nicht sicher bestimmt werden konnte, ganz zu schweigen von seiner Entstehung.3 Anders als etwa bei der Imitation von individuellen und lebendigen Hauttönen, die schon für sich gesehen eine große Herausforderung darstellen,4 bedeutete die Vervielfältigung von Farben im Buchdruck, dass zahlreiche Seiten nachein-

3

John Gage: Die Zerlegung des Regenbogens. In: Ders.: Kulturgeschichte der Farbe. Von der Antike bis zur Gegenwart. Ravensburg 1994, Kapitel 6, S. 93 ff.

4

Vgl. Daniela Bohde, Mechthild Fend (Hg.): Weder Haut noch Fleisch. Das Inkarnat in der Kunstgeschichte. Berlin 2007.

232 Matthias Bruhn

ander wie in einem Manufakturbetrieb mit einer einheitlichen Tönung versehen werden mussten. Dazu bedurfte es wiederum besonderer Mittel, die der Kunstund Handwerksproduktion entstammten, denn hier waren die Erfahrungen am weitesten gediehen, wie Pigmente beschafft und zubereitet werden müssen, wie sie leuchtend und stabil bleiben oder sich beim Auftrag auf andere Stoffe oder unter dem Einfluss von Licht, Hitze oder Feuchtigkeit verändern. Bilder verderblicher Gegenstände konnten ebenso verblassen wie ihre Vorlagen – ein Problem naturkundlicher Dokumentation oder Klassifikation, das zum Beispiel auch mit dem Mehrfarbendruck nicht behoben war. In den eben erwähnten Büchern wurden daher neben dem Farbkreis noch Legenden und Übersichten aufgeführt, in denen die Farbtöne mit naturanalogen Beschreibungen versehen waren, das heißt mit Beschreibungen, die zum Beispiel auf das bekannte und möglichst dauerhafte Aussehen von Stein- oder Pflanzensorten Bezug nehmen. Eine Verbindung zu Feldern wie Botanik, Pharmazie oder Mineralogie ergab sich also nicht nur aus dem Problem der visuellen Wiedergabe (etwa von Blüten- oder Fruchtfarben), sondern auch, weil die verwendeten Mittel weitergehende praktisch-technische Kenntnisse voraussetzten und oftmals rar und kostspielig waren.5 Und nicht nur die konkreten Werkstoffe sind als eine Brücke zwischen Kunst und Wissenschaft anzusehen, sondern auch die in der Urinschau geläufigen Ikonografien der Farbzirkel, Skalen und Tabellen, die der Kodierung von Farbe als Merkmals- und Bedeutungsträger dienten. Besonders das Kreismotiv, das seit Jahrtausenden für die diagrammatische ‚Schlüssigkeit‘ einer Theorie oder Beobachtung steht, blieb in botanischen und zoologischen Publikationen geläufig, in denen Farbe als Bestimmungsmittel Verwendung fand ↗ABB. 3 . Es kehrte zeitgleich auch in künstlerischen Traktaten zur Farbenlehre wieder, darunter in Philipp Otto Runges Farbenkugel von 1810. Hier vermochte das Kugelmotiv die Konsistenz und Harmonie des natürlichen Farbenspiels noch zusätzlich zu betonen, wobei die farbigen Illustrationen selbst wiederum höchste kunsttechnische Anforderungen stellten. Farbdarstellungen waren damit in mehrerer Hinsicht der symbolische Stoff für die wechselseitigen Verbindungen von gestalterischer Erfahrung, Erkenntnistheorie und Ästhetik sowie medizinisch-naturkundlichem Wissen. Zu Zeiten de Kethams oder Pinders war die Physik von Helligkeit und Farbe noch nicht systematisch beschrieben. Das Hantieren mit konkreten Farbstoffen führte daher auch in der Theorie zu einer groben Unterscheidung von ein- und mehrfarbigen Bildern (mit dem Effekt, dass ‚Farbe‘ wiederum als Zutat oder flüchtige Erscheinung angesehen werden konnte). Dieselbe Unterscheidung macht sich bis heute in der Umgangs5 Zur symbolischen Bewertung von Farbmaterialien siehe Michael Baxandall: Die Wirklichkeit der Bilder. Malerei und Erfahrung im Italien der Renaissance. Neuausgabe Berlin 2013.

Harndruck

233

3 Falttafel zur Bezeichnung von Pflanzenfarben. Kolorierter Kupferstich aus François Brisseaux de ­Mirbel: Élémens de Physiologie végétal et de Botanique, Bd. 1, Paris 1815, Tafel 3.

sprache bemerkbar, wenn von farbigen und schwarzweißen Bildern die Rede ist, wo genauer von ein- und mehrfarbigen Darstellungen gesprochen werden könnte. Auch ‚Grafik‘ wird weiterhin konzeptionell von ‚Malerei‘ unterschieden, obwohl eine Bleistift- oder Tuschezeichnung ebenfalls Farbstoffe einsetzt und ein Gemälde monochrom ausgeführt sein kann. Nicht vergessen werden sollte außerdem, dass in der vorfotografischen Zeit auch die direkte Übersetzung von Buntwerten in einfarbige Zeichnungen keine Trivialität gewesen ist, sondern es besonderer Überlegungen bedurfte, unterschiedliche Farbwerte durch unterschiedliche Helligkeiten oder durch das Spiel von Schraffuren und Papiergründen zu simulieren. Derartige künstlerisch-technische Fragen haben ihrerseits jedoch auch den Weg zur physikalischen Erforschung der Bunt- und Grauwerte bereitet.6 Zum einen hat das Arbeiten mit Mal- und Druckfarben die Frage aufgeworfen, wie die Zutaten gemischt werden müssten, um Farbwerte zu verändern, aufzuhellen oder zu verdunkeln (etwa durch Verdünnung oder durch Zutat von Schwarz oder Weiß). Zum anderen haben die künstlerischen Experimente des 17. und 18. Jahrhunderts die physiologischen Untersuchungen zum Farbensehen angeregt und die Bedeu6 John Gage: Graue Substanz. In: Felix Prinz (Hg.): Graustufen. Bildwelten des Wissens 8.2, Berlin 2011, S. 65–73.

234 Matthias Bruhn

tung subjektiver Empfindungen vor Augen geführt.7 Experimente mit Linsen und Spiegeln führten zu Isaac Newtons Beobachtung der Brechung oder Spaltung von weißem Licht und später zu Joseph Fraunhofers Beschreibung der Spektrallinien im Jahre 1814.8 Goethes zeitgleiche Versuche zur Farbenlehre sind ein Beleg dafür, wie die physikalische Beschreibung des Lichts mit der künstlerischen Erfahrung in Konflikt geraten kann.9 Andererseits zeigen die frühen fotografischen Experimente jener Phase, dass Buchdruck, Optik oder Farbenchemie stetig weiter zusammenwirken. Und sogar der Harn hat in der Hochphase der Industrialisierung seine grundlegende Bedeutung beibehalten. So markiert die künstliche Synthese des Harnstoffs, die dem jungen Chemiker Friedrich Wöhler erstmals 1828 gelang, den Übergang zu einer neuen Biochemie, die es dem Menschen in Aussicht stellte, organische Stoffe und damit Bausteine des Lebens auf technischem Wege zu erzeugen. Dass sich unterdessen das Verhältnis zum Körper seit der Frühen Neuzeit grundlegend verändert hat, zeigt das allmähliche Verschwinden eines anderen verbreiteten Bildmotivs der Kunstgeschichte, nämlich des sogenannten Pissers , aus deren modernem Kanon.10 Linsentechnik und aufwändige Edeldruckverfahren, strahlungsbasierte Aufzeichnungen oder kostspielige Computer- und Interface -Technologien haben die Möglichkeiten naturwissenschaftlich-medizinischer Bildproduktion immer wieder neu abgesteckt. Doch wurden selbst mit massentauglichen digitalen Medien nicht die Probleme überwunden, die sich aus der konkreten Bereitstellung oder Wahrnehmung von Farbunterschieden ergeben. Der moderne Buchdruck hat die gedankliche Trennung von Farbe und Graustufen ebenso weitergetragen wie die spätere Elektronik, deren Fernsehröhren und Computermonitore zunächst nur Helldunkeldarstellungen ausgaben. Grafikkarten und ‑anwendungen können auf unterschiedliche Weise konstruiert, Anzeigegeräte und Arbeitsplätze müssen kalibriert werden. Virtuelle Farbräume, wie sie Grafikprogrammen zugrundeliegen, zielen auf konkrete Anwendungen in der analogen Welt, etwa in der Druckvorstufe, und bedürfen im Zuge technischer und funktionaler Weiterentwicklungen stetiger Anpassungen.11

7

Ulrike Boskamp: Primärfarben und Farbharmonie. Farbe in der französischen Naturwissenschaft, Kunstliteratur und Malerei des 18. Jahrhunderts. Weimar 2009; Magdalena Bushart, Friedrich Steinle (Hg.): Colour Histories. Science, Art, and Technology in the 17th and 18th Centuries. Berlin 2015.

8 Vgl. Klaus Hentschel: Mapping the Spectrum. Techniques of Visual Representation in Research and Teaching. Nachdruck Oxford 2009. 9 Olaf L. Müller: Mehr Licht. Goethe mit Newton im Streit um die Farben. Frankfurt am Main 2015. 10 Vgl. Jean-Claude Lebensztejn: Figures pissantes, 1280–2014. Paris 2016. 11 Ein extremes Beispiel für die Rationalisierung von Farbe als Markern stellen moderne Autolackierungen dar, denen bestimmte Pigmente eingemischt werden, die bei Unfällen beteiligte Modelle identifizieren können.

Harndruck

235

Als besonders komplex erweist sich hier die Situation wiederum im medizinischen Kontext von Diagnose und Therapie, wo die tägliche ärztliche Arbeit längst durch computerbasierte Verfahren unterstützt wird. Letztere können Messdaten grundsätzlich in Farbe ausgeben oder durch den Einsatz von Falschfarben überhöhen, doch ist dies nicht in allen Fällen wünschenswert, da graustufige Ansichten für das menschliche Auge eine Struktur oder eine graduelle Veränderung nach wie vor eindeutiger wiedergeben.12 Insofern automatisierte bildgebende Technologien damit betraut sind, Operationsgebiete zu definieren und in wachsendem Maße Befunde und Entscheidungen beeinflussen oder sogar antizipieren, werfen bunte Darstellungen in der Medizin oder vergleichbaren Feldern die dringende Frage auf, wie diese gestaltet und eingesetzt werden müssten, um für alle Beteiligten zuverlässig verwendbar zu sein. Dies betrifft nicht nur Fragen der Konvention (zum Beispiel die Frage der Verbindlichkeit und Eindeutigkeit von Farbtabellen), sondern auch den Umstand, dass die Wahrnehmung und Interpretation der Farben von Situationen, Standorten und psychologischen Faktoren abhängt und individuellen Schwankungen unterliegt. Aus der Kartografie ist beispielsweise bekannt, dass der Eindruck scheinbarer Plastizität einer Oberflächendarstellung von der Kombination und Abfolge der verwendeten Farbwerte abhängt, die nebeneinander auf einer Karte zu sehen sind. Um festzustellen, ob und wieweit Buntheit im naturwissenschaftlich-technischen oder medizinischen Kontext praktikabel und zuverlässig ist, müsste zudem geklärt werden, woher die zugrundeliegenden Semantiken stammen und wie sie sich historisch entwickelt haben. Es zeigt sich, dass ‚Präzision‘ auch in der Sphäre der Bunt- und Helligkeitswerte weit mehr umfasst als eine sorgfältige Trennung von Seheindrücken, Farbstufen oder Pigmenten. Sie steht für Sehweisen und Denkstile, die sich im Zusammenspiel von Gegenstand und Darstellungsmöglichkeiten zu einem Bildkörper eigener Qualität verdichten.

12 Jürgen Hennig: Farbeinsatz in der medizinischen Visualisierung. In: Vera Dünkel (Hg.): Farbstrategien. Bildwelten des Wissens 4.1, Berlin 2006, S. 9–16.

Carolin Behrmann

Bildlogik der Vagheit Zur juridischen Ikonologie des Abwägens

It is easy to be certain. One has to be sufficiently vague.1

Kein anderes Bild bringt die Komplexität rechtlicher Urteilsfindung gleichermaßen anschaulich und abstrakt zur Darstellung wie das einer gleicharmigen Balken­ waage. Ihre Mechanik, über die zwei Schalen horizontal auf einer Höhe tariert werden, wird im juridischen Kontext als ausgleichende Gerechtigkeit verstanden, die aequitas , abgeleitet vom Lateinischen aequus (für eben, gerade, waagerecht). In der Gestalt des Messinstruments werden damit Prinzipien umschrieben, die das Recht zu einer exakten Wissenschaft machen.2 Mit ihrem im Mittelpunkt vertikal gehaltenen Zeiger, dem sprichwörtlich gewordenen Zünglein, verbindet sich ein Ideal der Exaktheit, mit der sich Urteile begründen und deren Wirkungen absehen lassen. Schlägt der Zeiger zu einer Seite hin aus, weil in eine der beiden Waagschalen mehr Gewicht gelegt wurde als in die andere, kann dies sowohl den Moment der Urteilsfindung anzeigen als auch eine mögliche Ungerechtigkeit oder Parteinahme, die durch gerechtes Aufwiegen wieder ins Lot gerät. Der universellen, kultur- und epochenübergreifenden Signifikanz des Bildes der Waage im Recht, der Verbindung zur Ökonomie und ihres attributiven Status für die Allegorie bedarf es hier keiner weiteren eingehenden Erläuterung.3 Zu fragen ist vielmehr, wie das Bild einer selbsttätigen, unabhängigen Suche nach dem mechanischen Gleichgewicht die Logik des rechtlichen Urteilens im Spannungsfeld zwischen Exaktheit und Vagheit hervorbringt.

1 Charles Hartshorne und Paul Weiss (Hg.): The Collected Papers of Charles Sanders Peirce: Collected Papers. Bd. 3 und 4, Cambridge, MA 1933 1060, 4.237. 2 Aequitas bezeichnet die Gerechtigkeit des Rechts im Ganzen (im Gegensatz zum iustum, das nur auf das positive Recht bezogen ist). Vgl. Gottfried Schiemann: Aequitas. In: Der Neue Pauly, Bd. 1, Stuttgart/ Weimar 1996, Sp. 188–189. Vgl. grundlegend zur Ikonographie Lars Ostwaldt: Aequitas und Justitia. Ihre Ikonographie in Antike und Früher Neuzeit. Halle 2009. 3 Es sei lediglich verwiesen auf drei zentrale Überblicksdarstellungen zur Ikonographie: Otto Kissel: Die Justitia. Reflexionen über ein Symbol und seine Darstellung in der bildenden Kunst. München 1984; Sven Behrisch: Die Justitia. Eine Annäherung an die Allegorie der Gerechtigkeit. Weimar 2006, S. 30–34; Dennis E. Curtis, Judith Resnik: Representing Justice. Invention, Controversy, and Rights in City-states and Democratic Courtrooms. New Haven 2011, S. 19–21.

238 Carolin Behrmann

Die Semiotik hat der Semantik des Abwägens eine besondere Bildhaftigkeit zugesprochen, die zwischen abstrakten Normen und Gesetzen und der Empirie des konkreten Falles vermitteln könne. In seiner Unterscheidung zwischen sprachlichem Zeichen und Symbol schrieb Ferdinand de Saussure Letzterem eine „natürliche Beziehung zwischen Bezeichnung und Bezeichnetem“ zu.4 Demzufolge würde das „ikonische“ Fundament des Symbols der Waage das Abwägen von Evidenz und Interesse zum Ausdruck bringen. Die damit beschriebene Balance zwischen Gesetz und Urteilsfindung, die dem juridischen Verfahren zugrunde liegen soll, setzt jedoch einen statischen, um nicht zu sagen: mechanistischen Rechtsbegriff voraus, der Momente der Unbestimmtheit und Willkür ausschließt. Das Wägen ist eine mechanische Technik, auf der viele metrische Verfahren gründen. Für den Warenhandel und die Grundlagen der Ökonomie wurde sie zu einem zentralen Instrument, das den gerechten Ausgleich von Interessen unparteiisch garantierte, da eine in Zahlen bestimmbare Äquivalenz zugrunde gelegt wurde.5 So wurde traditionellerweise die Form und Mechanik des Wägens und der Messung mit den Prinzipien des juridischen Verfahrens (oder des Rechtens) exemplarisch in Verbindung gebracht.6 Nicht selten wird das Wägen auch in eins gesetzt mit der Geometrie und der mathematischen Berechnung. Bei Hendrik Niclaes (1502–1580) ↗ABB. 1 , der die sichtbare Kirche und damit jede andere Form der zwischen Gott und Mensch vermittelnden Autoritäten strikt abgelehnt hat, übernimmt die Waage eine mediale Funktion.7 Vor dem strahlenden Lichtkegel einer himmlischen Naturerscheinung aus Wolken und Licht, umgeben von verschiedenen Messinstrumenten, schwebt sie über einem quadratischen Sockel, auf dem „Christus“ steht. Die in der Mittelachse platzierte Balkenwaage tritt nicht nur als Präzisionsinstrument der göttlichen Gerechtigkeit, sondern auch als Materialisierung des Opferkreuzes in Erscheinung. Die im Kupferstich zum Ausdruck gebrachte radikale Loslösung der Gerechtigkeit von Kirche und Obrigkeit, die eine methodische Entsprechung der metrischen

4

„Beim Symbol ist es nämlich wesentlich, dass es niemals ganz beliebig ist; es ist nicht inhaltlos, sondern bei ihm besteht bis zu einem gewissen Grade eine natürliche Beziehung zwischen Bezeichnung und Bezeichnetem. Das Symbol der Gerechtigkeit, die Waage, könnte nicht etwa durch irgendetwas anderes, z. B. einen Wagen ersetzt werden.“ Charles Bally, Albert Sechehaye (Hg.): Ferdinand de Saussure. Grundfragen der allgemeinen Sprachwissenschaft. Berlin/New York 2001, S. 80.

5 Dazu Ludger Schwarte: Vom Urteilen. Gesetzlosigkeit, Geschmack, Gerechtigkeit. Berlin 2012, S. 136. 6 Zu einem Beispiel der Assoziierung von Geometrie und Rechtspraxis vgl. Carolin Behrmann: Metrics of justice. A sundial’s nomological figuration. In: Nuncius 30, 2015, Heft 1, S. 161–194. 7 Dissident und Führer der religiösen Sekte Haus der Liebe aus dem 16. Jahrhundert. Zu Niclaes vgl. Alastair Hamilton: The House of Love. Cambridge 1981; sowie Karl Enenkel: Die Erfindung des Menschen. Die Autobiographik des frühneuzeitlichen Humanismus von Petrarca bis Lipsius. Berlin/New York 2008, S. 814 f.

Bildlogik der Vagheit

239

1 Hendrik Niclaes: Eyn gebet in den geest. Kupferstich, Antwerpen 1548.

Genauigkeit des Rechts mit verwandten Disziplinen nahelegt, fand sich in der Aufklärung wieder. So führte der Staats- und Verfassungsrechtsexperte Johann Stephan Pütter im 18. Jahrhundert nach der Hermeneutik zunächst die mathematischen Wissenschaften an, eine auf „Rechtsfälle angewandte Mathematik“ (mathesis forensis), von der er sich unparteiliche Objektivität versprach.8 Für den Juristen und Universalgelehrten Christian Wolff war die Mathematik dem Recht insofern von Nutzen, da hierüber die „präzise und vollständige“ Kenntnis eines Sachverhaltes erreicht werden könnte. Insbesondere die Geometrie wurde für die demonstrative rechtliche Beweisführung eine wichtige Methode, um Regeln und Abweichungen zu bestimmen und zweifelsfreie Sicherheiten hervorzubringen, eine Vorstellung, die besonders in der Aufklärung in den Debatten über Rationalisierung und die Vor- und Nachteile rechtlicher Kodifizierung Konjunktur machte.9

8 Johann Stephan Pütter: Neuer Versuch einer juristischen Encyclopädie und Methodologie. Göttingen 1767, S. 43–44. Hierzu Heinz Mohnhaupt: ‚Lex certa‘ and ‚ius certum‘. The Search for Legal Certainty and Security. In: Lorraine Daston, Michael Stolleis (Hg.): Natural Law and Laws of Nature in Early Modern Europe. Farnham 2008, S. 73–88, hier S. 74. 9 Mohnhaupt (s. Anm. 8), S. 76.

240 Carolin Behrmann

Der Vergleich zwischen mathematischer Kalkulation und rechtlicher Präzision legt nahe, dass unterschiedliche intuitive Gerechtigkeitsvorstellungen quantifizierbar seien.10 Mit der Praxis des Rechtens, das von den Regeln des Verfahrens und der Argumentation abhängig ist, bleibt jedoch auch eine Unbestimmtheit verbunden, die das summum ius summa iniuria zum Ausdruck bringt: „Höchstes Recht kann zur höchsten Ungerechtigkeit“ werden, wenn die Urteilsfindung nur auf den Wortlaut des Gesetzes achtet und dessen übergeordneten Sinn und Zweck übersieht, wovor bereits Cicero warnte (De officiis , 1,33). Mit der Bildmetapher des mechanischen Präzisionsinstruments ist ein Modell der Konstanz, Absolutheit, Stabilität und berechenbaren Ordnung verbunden, das die Unberechenbarkeit sozialer Wirklichkeiten und die Prozesshaftigkeit rechtlicher Urteilsfindung jedoch ausblendet. Indem es exakte Wissenschaftlichkeit suggeriert, ist es dynamischen und beweglichen Konzeptionen konstitutioneller Rechtsvorstellungen diametral entgegengesetzt.11

Mechanik der Selbstregulierung Dass zwischen dem Symbol der Waage und der Ausgleichsfunktion des Rechts eine geradezu natürliche Beziehung und unmittelbare Verbindung bestehe, hat die Kunsttheorie der Neuzeit bezweifelt; sie hat andere Figuren gesucht, welche die Gerechtigkeit angemessener darstellen. In dem von Battista Fiera, dem Mantuaner Arzt und Dichter im Jahre 1515 publizierten fiktiven Monolog zwischen dem Spötter und Satiriker Momus und dem Maler Mantegna wird diskutiert, wie die Justitia darzustellen sei.12 Seiner eigenen Ansicht unsicher, holt der Maler die Meinungen verschiedener Philosophen ein, die – erwartungsgemäß – einander grundlegend widersprechen. Nur der Stoiker Erasmus schlägt eine sitzende einarmige Justitia vor, die eine Waage in der Hand halten soll.13 Auf die Nachfrage, warum sie nur einen Arm besitze, entgegnet er, dass damit sichergestellt sei, dass Justitia nicht selbst etwas in die von ihr gehaltenen Waagschalen legen könne. Momus spottet, dass solcher Rat von einem Kaufmannssohn zu erwarten gewesen wäre, da dieser

10 „Geometry provides the precision and the format in which the relationships between the various notions of justice are readily seen.“ Donald Wittman: The Geometry of Justice. Three Existence and Uniqueness Theorems. In: Theory and Decision 16, 1984, Heft 3, S. 239–250. 11 Hierzu grundlegend Roberta Kevelsen: Icons of Justice/Spirit of Laws. In: International Journal for the Semiotics of Law 7, 1994, Heft 21, S. 227–239. 12 Battista Fiera: De Iusticia Pingenda. On the Painting of Justice. A Dialogue between Mantegna and Momus, hg. und übers. von James Wardrobe. London 1957; vgl. auch Curtis, Resnik (s. Anm. 3), S. 93–94. 13 Fiera (s. Anm. 12), S. 30–31.

Bildlogik der Vagheit

241

das Wägen lediglich mit dem unehrlichen Geschäftssinn seines Vaters in Verbindung bringe.14 Nicht nur die Idee richterlicher Korrumpierbarkeit, sondern auch die körperliche Asymmetrie der einarmigen Justitiafigur (die übrigens am Ende weder Momus noch Mantegna überzeugt) berührt die Grundlagen der formgebenden und bildhaften Vorstellungen im Rechtsdenken. An das von Fiera skizzierte Problem der manipulierbaren Exaktheit lassen sich Überlegungen zu epistemischen Präzisierungsverfahren anschließen, die sich aus dem Gebrauch metrischer Instrumente ergeben. In seinen Überlegungen zur „natürlichen Geometrie“ bedient sich beispielsweise Leonardo da Vinci einer Schnellwaage, um das aequilibrium des menschlichen Körpers mit einem mechanistischen Vergleich zu erklären. Der „waagerechte Stand des Menschen“ müsse als ausgewogenes Verhältnis zwischen Mittellinie und ausgestreckter Faust definiert werden, was man sich wie das Gegengewicht der Waage vorzustellen habe.15 Leonardo war sich bewusst, dass ein solches „mechanistisches Paradigma“ den Konflikt zwischen Funktion und Materie nicht hinlänglich erklären konnte.16 So stellt er in seiner Untersuchung des Gleichgewichts einer am fulcrum aufgehängten gleicharmigen und selbstanzeigenden Waage eine grundsätzliche Abweichung der menschengemachten Messinstrumente von den idealen Prinzipien der Mathematik fest.17 Die „Unvollkommenheit des Drehpunktes“ der Waage (das fulcrum) sei dafür verantwortlich, dass sie niemals die Exaktheit der mathematischen Berechnung erreichen könne. Aus dieser technischen Unvollkommenheit lasse sich auch die Unvollkommenheit der Erfahrung (ispirienza) gegenüber der geometrischen Berechnung ableiten: In den Werken des Handwerkers und der Natur seien geometrische Gesetze demzufolge nur bedingt realisiert. Die artifiziell hergestellten Maschinen und Instrumente könnten niemals auch nur annähernd an die Perfektion der Geometrie heranreichen, sondern seien lediglich Metaphern, um die Natur zu begreifen.18 Die seit dem 16. Jahrhundert mit der Mechanisierung einhergehende epistemologische Idee der Gesetze als Deskriptionen in den Naturwissenschaften haben die

14 „Paternae aedepol fraudis est memor.“ Fiera (s. Anm. 12) S. 31. 15 Leonardo da Vinci: Trattato della pittura (Codex Urbinus Latinus 1270); hierzu Matthew Landrus: The Proportional Geometry of Form, Balance, Force, and Motion in Leonardo da Vinci’s Work. In: Sabine Rommevaux, Philippe Vendrix, Vasco Zara (Hg.): Proportions. Turnhout 2011, S. 341–355. 16 Frank Fehrenbach: Leonardo da Vinci, Mikrokosmos und Zweite Natur. Krise einer naturphilosophischen Analogie. In: Hans Werner Ingensiep, Richard Hoppe-Sailer (Hg.): NaturStücke. Ostfildern 1996, S. 42–68. 17 Mit „fulcrum“ ist der Dreh- und Mittelpunkt der Waage gemeint. Leonardo bezieht sich auf die Arbeiten des Mathematikers Jordanus Nemorarius aus dem 13. Jahrhundert (Liber de ratione ponderis). Vgl. Fritjof Capra: Learning from Leonardo: Decoding the Notebook of a Genius. San Francisco 2013, S. 164. 18 Paolo Galuzzi: Art and Artifice in the Depiction of Renaissance Machines. In: Wolfgang Lefèvre, Jürgen Renn, Urs Schoepflin (Hg.): The Power of Images in Early Modern Science. Basel/Boston 2003, S. 58–60.

242 Carolin Behrmann

Vorstellung der präskriptiven Gesetzmäßigkeiten im Recht geprägt.19 Erwägt man die möglichen Wechselwirkungen zwischen dem praktischen Technikverständnis und den herrschenden Ordnungsvorstellungen im Recht, der Ökonomie und in der Politik, lässt sich die Idee der Naturwissenschaft, die Natur zu objektivieren und befragbar zu machen, mit jener des Naturrechts zusammenbringen.20 In der selbstanzeigenden Waage der Justitia verbindet sich das Rechnen mit dem juridischen Urteilen über den mechanisch geschaffenen Ausgleich, der von einer zahlenmäßig ausdrückenden Äquivalenz abgeleitet wurde.21 Das Bild der Waage im Recht kann ebenso mit einer wachsenden Legitimität in Verbindung gebracht werden, die nicht mehr einer Rückversicherung der Theologie bedarf.22 Hans Blumenberg zufolge ist diese wesentlich über die Auseinandersetzung mit der Unordnung zu erklären, der „eine Gesetzlichkeit der Selbstregulation zugeschrieben“ wird, in die keine transzendente Größe eingreife.23 Ähnlich argumentiert Otto Mayr, der anhand der Technikgeschichte die Abkehr von einer autoritären und zentralisierten Kontrolle nachzeichnet, welche die politische Philosophie in Europa im 16. und 17. Jahrhundert tief geprägt hat und aus der sich schließlich demokratische, dezentralisierte und liberale Selbstregulierungsmechanismen ausbildeten.24 Für die deterministische Deutung der Technik in gesellschaftlichen und politischen Strukturen wurden die Leitbilder Uhr und Waage als Modelle selbstregulierender Systeme verwendet. Die mit der Waage assoziierte Balance wurde mit den liberalen Vorstellungen des Equilibriums und des Ausgleichs verknüpft, womit die ebenso verbundene traditionelle Binarität des Vergleichs zwischen zwei ungleichen Teilen, zwischen Tugend und Laster, gut und böse, richtig und falsch sich aufhob.25 Anstelle einer vertikalen Hierarchisierung der Rechtssetzung, die von dem Willen eines einzelnen Souveräns ausgeht, bildete sich die Vorstellung einer Rechtssicherheit, deren Prinzipien Objektivität und Transparenz sich der Willkür einer absolutistischen Rechtsauslegung entgegenstellten. 19 Mauro Dorato: The Software of the Universe. An Introduction to the History and Philosophy of the Laws of Nature. Aldershot/Burlington 2005, S. 4. 20 Otto Mayr: Essay über den Charakter der Technik. o. O. 1987, S. 11–13; siehe auch Wolfgang Röd: Geometrischer Geist und Naturrecht. Methodengeschichtliche Untersuchungen zur Staatsphilosophie im 17. und 18. Jahrhundert. München 1970; Kurt Kluxen: Zur Balanceidee im 18. Jahrhundert. In: Helmut Berding (Hg.): Vom Staat des Ancien régime zum modernen Parteienstaat. München 1978, S. 41–58. 21 Hierzu Schwarte (s. Anm. 5), S. 136. 22 Zur Metapher der Waage bei Gottfried Wilhelm Leibniz siehe Cristina Marra: Metaphora translata voce. Prospettive metaforiche nella filosofia di G. W. Leibniz. Florenz 2010, insb. Kapitel 5 (La Bilancia. Metafore meccaniche di misurazione, S. 129–149). 23 Hans Blumenberg: Legitimität der Neuzeit. Frankfurt am Main 1999, S. 252. 24 Otto Mayr: Uhrwerk und Waage. Autorität, Freiheit und technische Systeme in der frühen Neuzeit (engl. 1986). München 1987. 25 Mayr (s. Anm. 24), hier insb. Kapitel 7 (Imagery of Balance and Equilibrium, S. 139–147).

Bildlogik der Vagheit

243

So allgemeingültig das Bild der Waage heute weitgehend als Symbol für die Gerechtigkeit des Gerichts gilt: Eine „natürliche Beziehung“ zwischen Metrik und Rechtspraxis ist höchst problematisch. Das Wägen als eine für das Recht instrumentelle Technik zu bezeichnen, suggeriert, dass das Gesetz eine feststehende messbare Größe sei, von dem die richterliche Entscheidung mit präziser Entsprechung abgeleitet werden könnte. Das Symbol einer sich selbst austarierende Waage hat die mechanistische aequitas-Vorstellung derart überzeugend repräsentiert, dass bis heute Rechtsinstitutionen immer wieder darauf zurückgreifen. Gerade darum wird die mit ihrem Bild verbundene Ableitung des Rechts aus den Gesetzen besonders im Rechtspositivismus des 20. Jahrhunderts problematisiert.26 Hans Kelsen verweist in seiner Reinen Rechtslehre (1934) auf die Notwendigkeit einer formalen Analyse des Rechts, um naturrechtliche Grundannahmen zu widerlegen. In seiner Theorie der Interpretation beschreibt er die Rechtsordnung nicht als ein horizontales Gleichmaß, sondern als einen vertikalen „Stufenbau“ über den, verkürzt gesagt, abstrakte Rechtsnormen schrittweise, von Stufe zu Stufe konkretisiert und individualisiert werden könnten.27 In kritischer Auseinandersetzung mit verschiedenen Gerechtigkeitsnormen rationalen Typs diskutiert der Rechtspositivist auch die von Aristoteles bereits in der Mesotes-Formel geprägte Vorstellung der Gerechtigkeit als Tugend, die nach Art eines geometrischen Verfahrens bestimmbar sei, worin implizit auf Messverfahren wie das der Balkenwaage angespielt wird. Demzufolge sei das gerechte Verhalten als Mitte zwischen zwei Extremen zu verorten, zwischen einem Zuviel und einem Zuwenig, dem Unrecht-Tun und dem Unrecht-Leiden.28 Die aristotelische Idee einer gerechten Mitte zwischen zwei Übeln bezeichnet Kelsen als Tautologie, da es keine zwei Größen, sondern nur ein Übel gäbe. Auch in der Kritik an der Automatentheorie seines A ­ ntagonisten Carl Schmitt, der ihn wiederum als „Zelot[en] eines blinden Normativismus“29 bezeichnete, artikuliert Kelsen Zweifel an der Vorstellung der Messbarkeit des Gesetzes, die ihm als ein Rückschritt zu Rechtsvorstellungen der konstitutionellen Monarchie erscheint. So wirft er Schmitt vor, dieser gehe davon aus, dass jede richterliche Entscheidung bereits 26 Jan Schröder: Aequitas und rechtswissenschaftliches System. In: Zeitschrift für neuere Rechtsgeschichte. Juristische Methodenlehre zwischen Humanismus und Naturrecht 21, 1999, Heft 1, S. 29–44. 27 „Die Rechtsordnung stellt nicht ein System gleichgeordneter, in ein und derselben Ebene liegender Normen dar, sondern einen Stufenbau einander über- und untergeordneter Rechtssätze, deren gegenseitiges Verhältnis die von der Reinen Rechtslehre unternommene Strukturanalyse aufgehellt hat.“ Hans Kelsen: Zur Theorie der Interpretation. In: Internationale Zeitschrift für Theorie des Rechts, Bd. 8, 1934, S. 9–17, hier S. 9. 28 Hans Kelsen: Reine Rechtslehre. Wien (2. Auflage) 1960, S. 375 f. 29 Carl Schmitt: Der Hüter der Verfassung. Berlin 1931, S. 30.

244 Carolin Behrmann

fertig im Gesetz enthalten, nur im Wege einer logischen Operation aus ihm abgeleitet werde: die Justiz als Rechtsautomat ! C. S. behauptet nämlich allen Ernstes, dass die Entscheidung des Richters inhaltlich aus einer anderen meßbar und berechenbar im Gesetz bereits enthaltenen Entscheidung abgeleitet ist (S. 38). Auch diese Lehre stammt aus dem Bestand der Ideologie der konstitutionellen Monarchie: der von dem Monarchen unabhängig gewordene Richter soll sich der Macht nicht bewußt werden, die das Gesetz ihm einräumt, ihm – da es nur generellen Charakter hat – einräumen muß. Er soll glauben, dass er ein bloßer Automat ist, dass er Recht nicht schöpferisch schafft, sondern bloß schon geschaffenes Recht, eine im Gesetz schon fertig daliegende Entscheidung findet. Sie ist heute längst durchschaut.30

Kelsen verwundert es deswegen nicht, dass Schmitt an dieser Automatentheorie – […] nicht weiter festhält, sondern mit Nachdruck erklärt: In jeder Entscheidung, selbst in der eines tatbestandsmäßig subsumierenden, prozessentscheidenden Gerichts, liegt ein Moment der reinen Entscheidung, das nicht aus dem Inhalt der Norm abgeleitet werden kann.31

Für Schmitt stützte die Herleitung des Gesetzes aus dem Willen des Gesetzgebers die Notwendigkeit des Führerprinzips , und wurde zum Fundament der faschistischen Rechtsideologie. Trotz aller Unterschiede treffen sich beide Rechtsdenker in einem Punkt: Zum einen ist die Rechtsanwendung nicht als „rein logische, vom Gesetz geleitete Denkoperation“ zu verstehen und zum anderen müsse der „Wille des Gesetzes“ mit dem Inhalt einer Fiktion gleichgesetzt werden.32 Wie für Schmitt hat auch für Kelsen die konkrete Rechtsnorm nur zu einem Teil Einfluss auf die richterliche Entscheidung.33 Die Idee des fiktiven Gehalts innerhalb der Rechtsoperationen taucht auch in aktuellen Auseinandersetzungen mit dem Begriff und dem Verständnis der Normen auf. So stellt jüngst der Rechtswissenschaftler Christoph Möllers eine Ähnlichkeit fest zwischen den „Normen, die wir als ‚gesetzt‘ behandeln“ und den Fiktionen, da sie beide einen „Raum zwischen Wirklichem und Möglichem besetzen würden.“34

30 Hans Kelsen: Wer soll Hüter der Verfassung sein? In: Hans R. Klecatsky, René Marcic, Herbert Schambeck (Hg.): Die Wiener rechtstheoretische Schule. Wien 1968, S. 1546. 31 Kelsen (s. Anm. 30). 32 Axel-Johannes Korb: Kelsens Kritiker. Ein Beitrag zur Geschichte der Rechts- und Staatstheorie (1911– 1934). Tübingen 2010, S. 136. 33 Korb (s. Anm. 32), S. 137–138. 34 In Rückgriff auf Wolfgang Iser zum Fiktiven und Imaginärem vgl. Christoph Möllers: Die Möglichkeit der Normen. Über eine Praxis jenseits von Moralität und Kausalität. Berlin 2015, S. 245.

Bildlogik der Vagheit

245

Mobile fit fixum, oder der Wert der Vagheit Die Suche nach einer anderen Formensprache des Rechtens und nach einer Bildsprache, die eine mechanistische Sicht zu vermeiden trachtet, lässt sich nach dem Ende des NS-Regimes im Kontext des Ankaufs von Kunstwerken beobachten, die für die Ausstattung der neuen Institutionen des Rechtswesens vorgesehen waren. Die Diskussionen um Motivik und Gestaltung der Werke erinnern damit an den frühneuzeitlichen Disput um die Möglichkeit alternativer Bildwelten des Rechts.35 Einige in den späten 1990er Jahren als Kunst am Bau angekauften Kunstwerke für die Räume des Bundesverfassungsgerichts in Karlsruhe zeigen, dass sie weniger einer Idee der Präzision folgen, sondern mit deren Gegenteil, mit einer Bildsprache der Unbestimmtheit oder Vagheit in Verbindung zu bringen sind. Die 1997 geschaffene Skulptur der Gerechtigkeit und das dazu gehörige Ölgemälde mit dem Titel Horizont des Schweizer Künstlers André Bucher, kombinieren eine Kugel mit einem Quader ↗ABB. 2 .36 Als Gesamtkunstwerk war diese Auftragsarbeit für einen Pausenraum im Bauteil I des ehemaligen Casinogebäudes des Verfassungsgerichts vorgesehen und diente im Jahre 2001 als Motiv für die Sonderbriefmarke der Feierlichkeiten zu dessen 50. Jubiläum.37 Von vier rund nach oben gebogenen Stahlschienen gehalten, ist eine Bronzekugel auf einem Sockel platziert. Ihre Position lässt sich auf den Schienen im Zwischenraum von zwei durchlöcherten Stahlplatten hin und her verschieben, kann die kreisförmig ausgestanzten Löcher in den Platten aber nicht durchdringen. Das Ölgemälde im Hintergrund zeigt zwei ineinandergreifende Farbflächen Rot und Blau, über deren unterem Drittel eine weiße gerade Linie waagerecht auf Höhe des oberen Sockelrandes gezogen ist. Es fällt auf, dass das Gleichmaß und die Gerade des Horizonts, die mit der Gerechtigkeitsvorstellung des aequus verbunden werden könnten, durch die Instabilität einer rollenden Kugel verstärkt wird. Die Kombination von Kugel und Quader lassen an die Allegorie der Fortuna denken, die damit das Bild der Justitia ersetzt. In einem zentralen Aufsatz über die Aus-

35 Eine umfassende Untersuchung der über zahlreiche Kunst am Bau Wettbewerbe und Ankäufe versammelten Kunstwerke und Bildausstattungen in Rechtsräumen und Gerichtsgebäuden der Bundesrepublik nach 1945 steht bislang aus. Siehe allgemein die Auseinandersetzung bei Horst Bredekamp: Politische Ikonologie des Grundgesetzes. In: Michael Stolleis (Hg.): Herzkammern der Republik. Die Deutschen und das Bundesverfassungsgericht. München 2001, S. 9–35. 36 Die Größe der Skulptur beträgt 80 × 45 × 30 cm und des Gemäldes 206 × 134 cm. Seit 2014 befinden sich die Werke im Bauteil V. Ursprünglich lauteten die Titel Gleichgewicht und Das Niveau oder die Gerade. Dank an Rolf Hach aus der Verwaltung des Bundesverfassungsgerichts für die genauen Angaben. 37 Postwertzeichen 0,56 Cent, 2001, Gestaltung von Franz Liedtke, mit dem Artikel 1 „Die Würde des Menschen ist unantastbar. Sie zu achten und zu schützen ist die Verpflichtung aller staatlichen Gewalt. 50 Jahre Bundesverfassungsgericht.“

246 Carolin Behrmann

2 André Bucher: Gerechtigkeit und Horizont. 1996/2002, Bundesverfassungsgericht Karlsruhe.

wirkungen emblematischer Bildprägungen hatte der Ikonologe William ­Heckscher anhand eines Monuments aus dem Garten Goethes, das dieser als Altar der Fortuna entworfen hatte, die bildhistorische Bedeutung der Entgegensetzung von Kugel und Kubus nachgezeichnet.38 Das aus zwei Gegenfiguren geschaffene Sinnbild zeigt die Kombination von Stabilität und Wandelbarkeit, wobei die Kugel als „sedes Fortuna rotunda“ für die schwankende Fortuna und der Kubus demgegenüber als „sedes Virtutis“, als Sitz der Tugendhaftigkeit, die auch mit der Souveränität des Herrschers verbunden ist, gedeutet wird. Dieses als räumliche Geometrie zu verstehende Abwägen gegenüber dem Statut ließe sich auch übertragen auf ein zentrales Dilemma der Rechtssprache, die zum einen auf die Präzision des Ausdrucks, aber ebenso auf

38 Über Goethes Denkmal für Agathe Tyché (Granit, 1777) in seinem Weimarer Garten vgl. William S. Heckscher: Goethe im Banne der Sinnbilder. Ein Beitrag zur Emblematik. In: Jahrbuch der Hamburger Kunstsammlungen 7, 1962, S. 35–54.

Bildlogik der Vagheit

247

semantische und ontologische Vagheit oder Unbestimmtheit angewiesen ist. Dies stellt ein bleibendes methodisches Grundproblem des Rechts dar.39 Der generische Gesetzestext, der einen Sachverhalt allgemein und verallgemeinerbar beschreibt, muss wieder auf einen singulären Fall angewendet werden können. Diese Logik der Vagheit hatte Charles S. Peirce mit dem „Faktum der Kontextualität“ in Verbindung gebracht, das sich dem Umstand verdankt, dass ein „Zeichen es seinem Interpreten überlassen muss, ihm einen Teil seiner Bedeutung zu verleihen.“40 So lässt sich auch die Idee der Wandelbarkeit, des sich beständig ändernden Kontextes, aus dem heraus jemand vor das Gesetz tritt, und die ruhende Beständigkeit des Kubus, über dem die Kugel in einem vorgezeichneten Feld zu der einen oder anderen Seite rollen kann, mit der Doktrin der ‚verfassungskonformen‘ Auslegung der Gesetze des Bundesverfassungsgerichts in Verbindung bringen.41 Im Falle von mehreren Auslegungsmöglichkeiten wird diejenige Gesetzesinterpretation vorgezogen, die mit der Verfassung vereinbar ist. Um den ‚Grundsatz‘ der Rechtsbeständigkeit der Gesetze als einen Rechtsgrundsatz zu wahren, werden die Verfassungsrichter dazu angehalten, hinter die üblichen Interpretationsregeln zurückzutreten. Ihre Auslegungsmethode soll die Gebote der Verfassung mit denen der Rechtskontinuität und Rechtssicherheit in Einklang bringen.42 Die Idee der Präzision im Recht wird mit einer Vagheit verbunden, die der Bildlogik einer genau messenden Waage diametral entgegengesetzt ist. Dennoch, und hier spielt das Kunstwerk sicherlich mit der Vorstellung des Naturrechts, zieht es die Kugel immer wieder in die Mitte des Sockels zurück.

39 Vgl. zum Beispiel Reiner Arntz, Peter Sandrini: Präzision versus Vagheit. Das Dilemma der Rechtssprache im Lichte von Rechtsvergleich und Sprachvergleich. In: Bassey Edem Antia (Hg.): Indeterminacy in Terminology and LSP. Studies in Honour of Heribert Picht. Amsterdam 2007, S. 135–156. 40 Vgl. Karl Oehler: Sachen und Zeichen. Zur Philosophie des Pragmatismus. Frankfurt am Main 1995, S. 235. 41 Zur Diskussion des Statuesken in der juridischen Bildsemantik vgl. Martin A. Kaymann: Law and the statuesque. In: Law & Critique, Jg. 24, 2013, S. 1–22. 42 Otto Bachof: Der Verfassungsrichter zwischen Recht und Politik. In: Carl Ludwig Paul Trüb (Hg.): Summum ius summa iniuria. Individualgerechtigkeit und der Schutz allgemeiner Werte im Rechtsleben. Tübingen 1963, S. 47.

Sandra Rendgen

Selektive Genauigkeit Präzisionsentscheidungen in den Flow-Maps von Charles Joseph Minard

Der französische Ingenieur Charles Joseph Minard (1781–1870) gilt als einer der Vorreiter auf dem Gebiet der visuellen Aufbereitung von Informationen. Im Laufe von mehreren Jahrzehnten hat er verschiedene grafische Darstellungsformen für numerische Datensätze (etwa zum nationalen und internationalen Warentransport über bestimmte Verkehrswege) entwickelt und dabei ein Gesamtwerk von gut sechzig statistischen Karten hinterlassen. Seine mit Abstand berühmteste Grafik darunter ist die Figurative Karte der fortschreitenden Mannverluste der französischen Armee im Russlandfeldzug 1812–1813 aus dem Jahr 1869, die heute eine der am häufigsten zitierten historischen Referenzen zur Datenvisualisierung ist ↗ABB. 1 . Der US-amerikanische Informationswissenschaftler Edward Tufte bezeichnete die Karte einmal enthusiastisch als die „möglicherweise beste statistische Grafik, die je entworfen wurde“, und diesen Ruhm verdankt sie vor allem der geschickten Einbindung von insgesamt sechs Datendimensionen.1 Das hier verwendete Format der figürlichen Karte (in der heutigen Fachsprache oft als Flow-Maps bezeichnet), das die Bewegung von Gütern oder Menschen im geografischen Raum visualisiert, wurde von Minard eigenständig ausgearbeitet; die Napoleon-Karte ist damit der Höhe­punkt einer ganzen Reihe derartiger Übersichten, bei deren Ausarbeitung er das Prinzip kontinuierlich weiterentwickelte. Minards Karten erschienen als Lithografie in einer Auflage von mehreren Dutzend und wurden von Hand koloriert. Sie enthalten Erklärungstexte, in denen Minard seine Quellen ausweist und die Methode erklärt, mittels derer er die abstrakten Zahlenverhältnisse in eine visuelle Konfiguration transformierte. In seinen Flow-Maps verband Minard zwei grafische Systeme, die sich zu seiner Zeit auf einem sehr unterschiedlichen Entwicklungsniveau befanden. Die Kartografie einerseits, als die bereits hochentwickelte Repräsentation geografischer Räume, war über Jahrhunderte technisch und wissenschaftlich weiterentwickelt worden. 1 Eigene Übersetzung. Edward Tufte: The Visual Display of Quantitative Information. Cheshire, CT 2001, S. 40. Die sechs integrierten Datendimensionen umfassen neben der geografischen Breite und Länge die Mannschaftsstärke der Armee, die Bewegungsrichtung der Armee, die Temperaturen während des Rückzugs sowie einige zeitliche Angaben.

250 Sandra Rendgen

In der ersten Hälfte des 19. Jahrhunderts – als Minard begann, sich mit grafischen Visualisierungen zu beschäftigen – bildete sie bereits eine ausdifferenzierte Fachdisziplin.2 Für die Herstellung von Karten waren mathematische, grafische und geografische Kenntnisse erforderlich – Fachwissen, das Minard im Rahmen seiner Ausbildung als Ingenieur erworben hat.3 Die visuelle Sichtbarmachung von numerischen Zahlenverhältnissen andererseits war eine relativ junge Herangehensweise.4 Diagrammatische Repräsentationen lassen sich zwar bis in die Antike zurückverfolgen, jedoch handelt es sich dabei um Anordnungen: Die Aufteilung der Bildfläche in visuelle Strukturen gibt symbolische oder materielle Ordnungen wieder. Die Übertragung von numerisch ausgedrückten Zahlenverhältnissen in proportionale Flächen oder in Graphen entwickelte sich dagegen erst zaghaft im Laufe des 18. Jahrhunderts, in einer langfristigen intellektuellen Entwicklung, die mit René Descartes’ Discours de la méthode und seiner analytisch aufgefassten Geometrie ihren Anfang nahm. In ihrer aufschlussreichen Übersicht über die zunächst nur zögerliche Nutzung von Graphen zur Visualisierung von experimentellen Daten kommt die Wissenschaftshistorikerin Laura Tilling zu dem Schluss: Es wird also deutlich, dass Graphen im 18. Jahrhundert nicht unbekannt waren, aber ihre Nutzung resultierte im Allgemeinen nicht aus der Überzeugung, dass sie sich gut für die Präsentation oder Analyse von experimentellen Ergebnissen eignen, sondern war meist anderen Umständen geschuldet.5

2

Eine ausgezeichnete Übersicht über intellektuelle und politische Problemstellungen und Entwicklungsschritte der Kartografie seit der Antike bietet etwa Jerry Brotton: A History of the World in Twelve Maps. London 2013.

3

Charles Joseph Minard war technischer Ingenieur für den Bau von Kanälen, Wasserwegen und Brücken, zuerst in konkreten technischen Projekten, später auch häufig in beratender Funktion. Ab ca. 1830 beschäftigt er sich intensiv mit der Planung eines Eisenbahnnetzwerkes in Frankreich. Näheres zu seinen Kenntnissen und seiner Laufbahn bei Gilles Palsky: Des chiffres et des cartes. Naissance et développement de la cartographie quantitative française au XIXe siècle. Paris 1996, S. 113. Ausführlich dazu auch Sandra Rendgen: The Minard System. The Complete Statistical Graphics of Charles-Joseph Minard. Princeton NJ 2018 (im Erscheinen).

4

Zu den semantischen Differenzen in der Terminologie von Repräsentation, Sichtbarmachung und Visualisierung vergleiche den Artikel Sichtbarmachung/Visualisierung, in: Horst Bredekamp, Birgit Schneider, Vera Dünkel (Hg.): Das Technische Bild. Kompendium zu einer Stilgeschichte wissenschaftlicher Bilder. Berlin 2008, S. 132–135. In diesem Sinne soll ‚Sichtbarmachung‘ hier als die Summe derjenigen Operationen verstanden werden, als deren Ergebnis die in Zahlen ausgedrückten Statistiken in eine visuelle Gestalt transformiert werden.

5 Eigene Übersetzung. Laura Tilling: Early Experimental Graphs. In: The British Journal for the History of Science 8, 1975, Heft 3, S. 200.

Selektive Genauigkeit

251

1 Carte figurative des pertes successives en hommes deL’armée française dans la campagne de Russie, 1812–1813.

Dies ändert sich gegen Ende des 18. und vor allem im frühen 19. Jahrhundert. Minard beteiligt sich rege an einer Diskussion, welche Vorteile die bildliche Darstellung numerischer Zahlenverhältnisse mit sich bringen könnte, und bezieht sich dabei unter anderem auf seinen Vorläufer, den Ingenieur und Ökonomen William Playfair (1759–1823), der – isoliert von den wissenschaftlichen Diskursen seiner Zeit – eine Reihe von Blättern mit Wirtschaftsdaten veröffentlicht hatte, etwa in seinem Commercial und Political Atlas von 1786. Damit bildet sich langsam eine Praxis der statistischen Visualisierung heraus, die jedoch zu Minards Zeit noch keine festen Konventionen und Standards ausgebildet hatte.6 Das Format der Flow-Map basiert nun darauf, statistische Zahlenverhältnisse nicht in einem abstrakten, diagrammatischen Bildraum zu visualisieren, sondern sie auf den geografischen Raum zu beziehen und damit Kartografie und statistische Visualisierung zu verbinden.7 In dieser für die thematische Kartografie cha-

6 Ohne eine erschöpfende Historiografie dieser Entwicklung zu bieten, diskutiert Tufte (s. Anm. 1), S. 21–51 einzelne Meilensteine. Weitere Beispiele des vereinzelten Gebrauchs von Graphen bis zum 18. Jahrhundert in Tobias Vogelgsang: Datenvisualisierung und Ästhetik. Johann Heinrich Lamberts Graph und William Hogarths ‚Analysis of Beauty‘, Berlin 2015, S. 9–43. 7

Zur Frage, wer die Flow-Map historisch zuerst verwendet hat, vgl. Palsky (s. Anm. 3), S. 118. Obwohl Minard heute weitgehend als Erfinder der Flow-Map gilt, ist ein früherer Gebrauch durch den englischen Ingenieur Henry Drury Harness (1804–1883) im Jahr 1838 nachgewiesen. Minard war dessen Werk jedoch offenbar nicht bekannt. Für eine Beschreibung der Genese der Flow-Map im Kontext von Minards Gesamtwerk vgl. Sandra Rendgen: The Fifty Maps of Minard. In: Malofiej 22. Conference Proceedings of the Annual Malofiej Infographics Summit, Pamplona 2015, S. 76–89.

252 Sandra Rendgen

rakteristischen Kombination zweier Darstellungssysteme ergeben sich jedoch praktische Probleme ihrer Integration in einen gemeinsamen Rahmen, etwa wenn die grafischen Zeichen und Symbole der Karten und der statistischen Darstellung einander verdrängen oder behindern.8 Minard löst diese Spannung auf, indem er eine klare Priorisierung zwischen beiden grafischen Systemen vornimmt und die Kartografie lediglich als Hintergrundfolie behandelt, auf der er seine präzise statistische Visualisierung entfaltet. In seinen Basiskarten ist geografische Exaktheit für Minard daher explizit zweitrangig. Der Kartograf Arthur Robinson interpretierte das als Moment des Aufbegehrens gegen kartografische Konventionen: […] der Tendenz der Tyrannei der exakten geografischen Position, von seinem Hauptthema abzulenken, widerstand [Minard] mit allen Kräften. Dementsprechend revidierte er Küstenlinien, verschwendete wenig Aufmerksamkeit auf Kartenprojektionen und skalierte die Größe geografischer Merkmale, um die Karte den dargestellten Daten anzupassen.9

Bis auf wenige frühe Arbeiten enthalten alle thematischen Karten von Minard eine ausführliche Erläuterung, in denen der Autor auch seine Entscheidungen in Bezug auf die visuelle Umsetzung von Informationen offenlegt. So heißt es etwa in der Erläuterung zur Figurativen und annähernden Karte des Transports mineralischer Brennstoffe auf Wasserwegen und mit der Eisenbahn im französischen Kaiserreich während des Jahres 1858 ↗ABB. 2 : Das Hauptziel der Karte war es, dem Auge zu ermöglichen, durch die Breite der Ströme die Gütermengen abzuschätzen. Daher musste ich die geografische Genauigkeit der Platzierung der Ströme opfern.10

Minard wollte sich also nicht von Standards der geografischen Beschreibung einengen lassen, da er fürchtete, dass deren Detailtreue ihn bei der Darstellung seines eigentlichen Themas – der Statistik – behindern würde. 8 „Thematische Kartografie erzeugt immer Spannungen und erfordert Kompromisse zwischen den Grenzen der Karte und der Repräsentation von Daten“, beschreibt etwa der kanadische Historiker für Datenvisualisierung Michael Friendly die Problemstellung. Michael Friendly: Visions and Re-Visions of Charles Joseph Minard. In: Journal of Educational and Behavioral Statistics 27, 2002, Heft 1, S. 31–51, hier S. 33 (eigene Übersetzung). Online unter: http://euclid.psych.yorku.ca/datavis.ca/papers/jebs.pdf (Stand 8/2017). 9 Arthur H. Robinson: The Thematic Maps of Charles Joseph Minard. In: Imago Mundi. A Review of Early Cartography 21, 1967, S. 95–108, S. 95f (eigene Übersetzung). 10 Erläuternder Text der Karte in Abb. 2 (eigene Übersetzung). Die Karte wird im Archiv der École Nationale des Ponts et Chaussées in Paris verwahrt.

Selektive Genauigkeit

253

2 Carte figurative et approximative du mouvement des combustibles minéraux sur les voies d’eau et de fer de l’Empire français pendant l’année 1858, 1860.

Wie sieht dieser unkonventionelle Umgang mit der Kartografie im Detail aus? In der Karte des Transports mineralischer Brennstoffe fällt zunächst auf, dass das Bild Frankreichs extrem reduziert ist und nur äußerst spärliche geografische Referenzen enthält. Die geografischen Bezüge beschränken sich auf eine Reihe von Ortsnamen, auf die Küstenlinien im Norden, Westen und Süden Frankreichs sowie die Landgrenze im Osten. Paris als das wirtschaftliche und kulturelle Zentrum des Landes ist deutlich herausgehoben. Die extreme Präsenz der farbigen Ströme, die das Hauptthema der thematischen Karte bilden, erschwert es im vorliegenden Beispiel enorm, die grafische Konfiguration im Hintergrund überhaupt als Karte Frankreichs zu erkennen. Schon mit bloßem Auge wird deutlich, dass die westfranzösische Atlantikküste allenfalls grob nachgezeichnet ist, Inseln wie die Île de Ré oder die Île d’Oléron bei La Rochelle ganz unterschlagen werden. Bei Bayonne im

254 Sandra Rendgen

Südwesten verliert sich die Küstenlinie im Nirgendwo, die Grenze zu Spanien bleibt völlig offen. Die Karte setzt damit eine gute geografische Kenntnis Frankreichs und eine entsprechende Bildung des Publikums voraus. Auf diesem blassen Hintergrund entwickelt Minard das zweite grafische System, das für ihn inhaltlich eindeutig im Vordergrund steht und das ein komplexes System von Warenströmen (hier den Umlauf von Kohle und Koks aus ausländischen und einheimischen Bergwerken) sichtbar zu machen versucht. Im Kontrast zur fragmentarisch behandelten Karte tritt hier eine sehr viel größere Sorgfalt zu Tage. Die exakte Breite der Ströme – das konstituierende Element der betreffenden Karten – spielt dabei die zentrale Rolle. Konsequent konstruiert Minard sie proportional zu den transportierten Gütermengen: „Die Mengen an Kohle und Koks, die im Umlauf sind, werden dargestellt durch die Breite der Ströme, indem ein Millimeter 10.000 Tonnen entspricht. Sie werden außerdem angegeben durch die Zahlen, die an den Strömen notiert sind (deren Einheit 1.000 Tonnen ist) […]“,11 wie es im Erklärungstext auf der Karte heißt. Die Farbkodierung fügt den Warenströmen eine weitere Informationsebene hinzu, indem sie die Herkunft der Kohle klassifiziert (rosafarbene, gelbe, violette und schwarze Ströme stammen aus einheimischen Kohlebergwerken; blaue aus belgischen, grüne aus britischen und braune aus deutschen Quellen). Während Minard die Basiskarten also kaum visuell ausformuliert und weder textlich noch durch eine Legende erklärt, werden die statistischen visuellen Elemente bis auf den Millimeter genau gezeichnet, durch eine Farblegende erklärt und textlich ausführlich erläutert. Minard wiederholt zu vielen Gelegenheiten das Hauptziel seiner Visualisierungen: „Das wichtigste Prinzip meiner grafischen Darstellungen und figürlichen Karten ist es zu ermöglichen, dass die Proportionen numerischer Zahlenverhältnisse – soweit möglich – durch das Auge unmittelbar beurteilt werden können.“12 Er verfolgt also eine sorgfältige grafische Umsetzungsweise, die es ermöglicht mit einem Blick Zahlenverhältnisse zu erfassen. Damit das zuverlässig möglich ist, müssen die Ströme konsequent nach demselben Schema ins Bild übersetzt und grafisch reproduziert werden. Das ermöglicht einen schnellen Eindruck der Zahlenverhältnisse, den Minard in einem weiteren Schritt präzisiert, indem er die in den Strömen angezeigten Mengen durch absolute Zahlen konkret benennt.13 Die schnelle Erfas-

11 Erläuternder Text zur Karte (s. Anm. 10). 12 „Le principe dominant qui caractérise mes tableaux graphiques et mes cartes figuratives est de faire apprécier immédiatement par l’œil, autant que possible, les proportions des résultats numériques.“ Charles Joseph Minard: Des Tableaux Graphiques et des Cartes Figuratives. Paris 1862, S. 2 (eigene Übersetzung; Hervorhebung im Original). 13 „Toutefois, si mes cartes donnent immédiatement les rapports simples comme le double, le triple, etc. ce qui, je le répète ne s’obtient par les nombres que par une opération mentale un peu longue cet

Selektive Genauigkeit

255

3 Carte figurative et approximative du mouvement des combustibles minéraux sur les voies d’eau et de fer de l’Empire français pendant l’année 1858 (Detail), 1860.

sung der Gesamtproportionen durch die Ströme wird damit um eine gründlichere Lesart ergänzt, die es erlaubt, konkrete Teilmengen miteinander ins Verhältnis zu setzen. Ein Detailblick auf die Kohle-Karte ↗ABB. 3 zeigt, mit welchen praktischen Schwierigkeiten Minard allerdings bei der Umsetzung zu kämpfen hatte. Die Probleme entstanden insbesondere durch die große Anzahl an Warenströmen, die das Thema der Karte vorgab, und die nun auf einem gegebenen, geografischen Raum zu platzieren waren. Da die Breite konsistent der Menge der transportierten Kohle entsprechen musste und nicht alle Ströme in den vorhandenen Raum passten, sah sich Minard besonders für den Nordosten Frankreichs gezwungen, besondere Lö-

avantage s’evanouit s’il faut comparer des éléments très-disproportionnés, tandis qu’avec les nombres, quand le plus petit n’a que deux chiffres, avec un peu e temps de l’esprit peut approcher du quotient; c’est pourquoi j’écris aussi les nombres sur plusieurs de mes cartes.“ Minard (s. Anm. 12), S. 3.

256 Sandra Rendgen

sungen zu entwickeln. Dies führte zu einigen fragwürdigen Entscheidungen, etwa wenn mehrere breite blaue Ströme ineinanderliefen und der Leser dadurch nicht mehr nachvollziehen konnte, welche Warenmengen wo abgeblieben sind. In der Betrachtung von Minards Gesamtwerk lässt sich der Schluss ziehen, dass diese Schwierigkeiten der statistischen Visualisierung als deren Entwicklungsprobleme anzusehen sind, die Minard schrittweise zu überwinden suchte. In seinen späteren Flow-Maps grenzte Minard seine Themen dahingehend ein, dass sich keine Platzprobleme mehr ergaben und auch die Proportionen zwischen dargestellten Teilmengen besser zu erfassen waren. Die Napoleon-Karte, mit der Minard sein Werk krönte, bot in dieser Hinsicht einen interessanten Schlusspunkt: Sie konzentrierte sich nämlich auf nur eine einzige Mengenbewegung im geografischen Raum – die der französischen Armee nach Moskau und zurück. Doch ließ sich die Hauptaussage zu diesem historischen Ereignis, nämlich die desaströse Niederlage und Dezimierung der Armee von 422.000 auf 10.000 Mann in wenigen Monaten mit der kontinuierlich abnehmenden Breite des Stroms sehr eindrücklich darstellen. Die eindrucksvolle Klarheit dieser Botschaft (und damit auch die Popularisierung der cartes figuratives als Format) verdankt sich vor allem Minards entschiedener Priorisierung der diagrammatischen Elemente. Die Basiskarten bieten – bewusst – nur eine grobe Skizze des betreffenden geografischen Raumes und entbehren der präzisen Ausarbeitung. Die Entscheidung für eine ungenaue Ausarbeitung der Karten ist daher nicht etwa in Minards mangelnden kartografischen Kenntnissen begründet, sondern vielmehr in seinem Bestreben, statistische Angaben ins Zentrum der Analyse zu stellen und darüber eine andere Art grafischer Präzision zu formulieren. In dieser erzielte er eine hohe Effizienz. Es kann als originäre Leistung Minards gelten, dass er verschiedene Darstellungsformen für statistische Werte mit Bezug auf den geografischen Raum entwickelte und damit die statistische Grafik um eine kartografische Dimension erweitert hat. Die klare Entscheidung für die statistische und gegen die kartografische Präzision ist dabei als eine Zuspitzung zu interpretieren, die vor allem die effiziente Lesbarkeit seiner Karten zum Ziel hatte. Minard bewegte sich damit in den Anfängen eines bis heute andauernden Diskurses über Präzision, Effizienz und Popularisierung in der Informationsvisualisierung.14 In dessen Kern stehen gegeneinander das Ziel, die visuellen Kernaussagen effizient und leicht lesbar darzustellen, und die Notwendigkeit, dafür komplexitätsreduzierende oder gar verfälschende Verallgemeinerungen zu treffen. Minard hat 14 Als zeitgenössische Vertreter dieses Diskurses mögen hier beispielhaft stehen Tufte (s. Anm. 1) sowie Andrew Gelman, Antony Unwin: Infovis and Statistical Graphics. Different Goals, Different Looks. In: Journal of Computational and Graphical Statistics 22, 2013, Heft 1. Online unter www.stat.columbia. edu/~gelman/research/published/vis14.pdf (Stand 8/2017).

Selektive Genauigkeit

257

mit seiner selektiven Präzision eine klare Strategie für dieses Dilemma entwickelt. In verschiedenen schriftlichen Anmerkungen, aber auch durch das systematische Austesten verschiedener Darstellungsformen weist Minards Werk damit bereits sehr früh ein hohes Reflexionsniveau über Genauigkeit und Lesbarkeit statistischer Visualisierungen auf.

Birgit Schneider

Prägnanz als Kriterium für die Präzision diagrammatischer Bilder

In ihren Vorworten und Einleitungen entfalten so genannte Pioniere der Infografik wie William Playfair oder Otto Neurath eine Fortschrittsgeschichte der Diagrammatik, die in vielem einer Fortschrittsgeschichte technischer Instrumente gleicht. Die operativen Bilder der Infografiker oder Visioneers 1 (wörtlich ‚Visionsingenieure‘) haben in der Geschichte der Grafik die Instrumente des Wissens und das, was mit diesen gewusst, gedacht und vermittelt werden kann, immer weiter optimiert. Als Ziel und Maßstab gelungener Grafik erscheint hierbei die Prägnanz . Sie ist das erstrebenswerte Kernideal und Leitbild einer optimierten Informationsgrafik beziehungsweise der Horizont, auf den hin diagrammatische Methoden entwickelt wurden und werden. Wo beim fotografischen oder mimetischen Bild der Wissenschaft Präzision gefordert wird, ist dies beim Informationsbild die Prägnanz. Nur wenn Diagramme prägnant sind, erzeugen sie auch einen akkuraten Eindruck. In der grafischen Praxis geht es dabei allerdings eher um das Ideal eines Bildes, das komplexe Zusammenhänge oder Analysen von unübersichtlichen Daten auf einmal , das heißt auf einen Blick oder mit einem Wimpernschlag in ihrer wesentlichen Gestalt und Bedeutung zu erfassen erlaubt.2 Es ist diese Konstellation von Zeit, Auge und Denken, auf welche die Prägnanz abzielt. Der Begriff selbst wandelte sich mit der Gestaltpsychologie von Max Wertheimer (1880–1943) und Wolfgang Köhler (1887–1967) von einem Spezialbegriff der klassischen Rhetorik zu einem Begriff der Benennung visueller Formeigenschaften – wobei der Begriff bis heute gleichermaßen als Kommunikationsideal für die Sprache gilt. Wertheimer und Köhler erforschten Anfang des 20. Jahrhunderts

1

Der Begriff wurde zunächst von Informationsdesignern und Computergrafikern benutzt, um ihre eigene Tätigkeit zu beschreiben, Bilder zu konstruieren. Der Historiker W. Patrick McCray gebraucht den Begriff, um das Zusammenspiel von Visionen, Design, Bild und Konstruktion zu benennen. W. Patrick McCray: The Visioneers. How a Group of Elite Scientists Pursued Space Colonies, Nanotechnologies, and a Limitless Future. Princeton/Oxford 2013.

2 Zum Erfassen einer Figur innerhalb von Bruchteilen einer Sekunde vgl. Leonardo da Vinci: Trattato della Pittura/Traktat von der Malerei, hg. und eingeleitet v. Marie Herzfeld, übers. v. Heinrich Ludwig. Jena 1909, S. 14; Horst Bredekamp: Die Erkenntniskraft der Plötzlichkeit. Hogrebes Szenenblick und die Tradition des Coup d’Œil. In: Joachim Bromand und Guido Kreis (Hg.): Was sich nicht sagen lässt. Das Nicht-Begriffliche in Wissenschaft, Kunst und Religion. Berlin 2010, S. 455–468.

260 Birgit Schneider

das Gesetz der Prägnanz , welches benennt, wie die menschliche Wahrnehmung in chaotischen Strukturen aufgrund einer angeborenen Strukturerwartung reflexhaft Gestaltmerkmale bevorzuge, die sich deutlich voneinander abheben oder die eine einfache, signifikante Form ergeben.3 Deutliche Kontraste und einfache Grundformen seien hierbei besonders wirkungsvoll, wie zum Beispiel der Kreis, weil dieser als Form am schnellsten erfasst werde, oder eine Figur, die sich aufgrund ihrer Färbung von den übrigen ausnehme. Diese grundsätzliche Beobachtung der Wahrnehmungsforschung lässt sich auf Diagramme übertragen. Der Kartograph Jacques Bertin, der 1967 eine umfangreiche Semiologie der Netze, Karten und Diagramme vorlegte, hat aus den gestalt­ ex­perimentellen Beobachtungen abgeleitet, dass Prägnanz auch als generelles Merkmal für die Bestimmung der Qualität eines grafischen Bildes dienen könne: Es muss daher ein präzises und messbares Kriterium gefunden werden, um mit dessen Hilfe die Konstruktionen [gemeint sind grafische Bilder, Anm. d. A.] klassifizieren und die unbestreitbar beste Konstruktion kennzeichnen zu können. Dann lässt sich auch erklären, warum bestimmte Leser dieser, andere Leser jener Konstruktion den Vorzug geben. Dieses Kriterium nennen wir ‚Prägnanz‘.4

Bertins Kriterium, um die Prägnanz einer Grafik qualitativ bestimmen zu können, ist ein zeitökonomisches. „Wenn eine Konstruktion zur richtigen und vollständigen Beantwortung einer gestellten Frage unter sonst gleichen Voraussetzungen eine kürzere Betrachtungszeit erfordert als eine andere Konstruktion, so bezeichne man diese als prägnanter in Bezug auf die gestellte Frage.“5 Bei der Prägnanz geht es mithin um den „geistigen Aufwand der Wahrnehmung“6, den es braucht, um den Sinn einer Grafik zu verstehen, wobei eine Grafik umso prägnanter ist, je weniger Momente der Wahrnehmung nötig sind, um den Gehalt der Grafik zu verstehen. Konkret kann dies bedeuten, dass weniger Augenbewegungen nötig sind, um sich die Bedeutung der Grafik zu erschließen. Was aber bedeutet Prägnanz für die Erkenntniskraft der Grafik? Wäre Prägnanz demnach eine überkulturelle Universalie, die auf alle Diagramme und Infografiken übertragen werden und auch darüber hinaus, im Bereich von Wahrnehmung und Gestaltung, Geltung beanspruchen kann?

3 Vgl. z. B. Psychologische Forschung. Zeitschrift für Psychologie und ihre Grenzwissenschaften (hg. von Kurt Koffka, Wolfang Köhler, Max Wertheimer, Jg. 4, 1923, Heft 1. 4

Jacques Bertin: Graphische Semiologie. Diagramme, Netze, Karten. Berlin 1974, S. 147.

5 Bertin (s. Anm. 4), S. 147. 6 Bertin (s. Anm. 4), S. 147.

Prägnanz als Kriterium für die Präzision diagrammatischer Bilder

261

Kriterien der Prägnanz: Extrakt der Daten Hinsichtlich der Konzepte und Methoden, wie Prägnanz zu erklären, zu bewerten oder systematisch herzustellen sei, herrscht eine gewisse Vagheit. Trägt man die Kriterien zusammen, die verstreut in Anleitungen für die Erstellung prägnanter Grafiken in der Praxis und in allgemeinen Theorien der Diagrammatik zu finden sind, verbinden sie vor allem die folgenden Ideale. Sie sind (1) zeitökonomisch, das heißt, sie sind in kürzerer Zeit mit weniger geistigem Aufwand einfacher verständlich, als dies für den gleichen Inhalt in einer Text- oder Listenform der Fall wäre. Sie sind (2) instantan und konzentriert wie ein Extrakt und geben vor, das Beste in sich zu vereinen; auch in der Synopse (wörtlich ‚zusammen sehen‘) läuft die Komplexität eines Gegenstandes wie in einem Kern auf das ‚Wesentliche‘ und ‚Wichtigste‘ zusammen.7 (3) Sie simplifizieren: Sie vereinfachen das Komplexe und sind leichter verständlich („Der optische Eindruck erspart vor allem die Denkarbeit des Sichvorstellens, strengt also weniger an“8). Sie sind (4) aussagekräftig, einprägsam und eindringlich: Ihre ‚klare‘, geordnete und ‚eindeutige‘ Form ist einfacher memorierbar als der gleichförmige Fluss eines Textes oder die getrennten Felder einer Tabelle. Da Prägnanz ein Merkmal gelungener, richtiger Figuren ist, werden (5) prägnante Figuren zudem meist als schöner aufgefasst. Überträgt man derartige Eigenschaften auf die Erkenntniskraft von Grafiken, so ist die Prägnanz eine Eigenschaft, die idealerweise visuelle Form und geistige Erkenntnis miteinander in Deckung bringt. Entsprechend dieser Aufschlüsselung sind die negativen Gegenbegriffe zur Prägnanz: kompliziert, ungeordnet, unübersichtlich, unklar, umständlich oder verwirrend, aber auch disharmonisch und beliebig.

Fülle versus Leere Während Präzision im Sinne der Abbildungsqualität vom Leitbild maximaler Schärfe, Klarheit oder Detailgenauigkeit bestimmt ist, die alles Verschwommene, Unscharfe und Vage zum Gegenbild hat, ist Prägnanz nicht durch derartige optische oder kameratechnische Metaphern strukturiert. Die wortgeschichtliche Herkunft des Begriffs Prägnanz lässt vielmehr eine andere Konnotation vermuten. Der Begriff kommt von lateinisch praegnans für schwanger, trächtig, im übertragenen Sinne 7 Steffen Bogen, Felix Thürlemann: Jenseits der Opposition von Text und Bild. Überlegungen zu einer Theorie des Diagramms und des Diagrammatischen. In: Alexander Patschovsky (Hg.): Die Bildwelt der Diagramme Joachims von Fiore. Zur Medialität religiös-politischer Programme im Mittelalter. Ostfildern 2003, S. 8. 8 Willi Schön: Das Schaubild. Eine Systematik der Darstellungsmöglichkeiten. Stuttgart 1957, S. 11.

262 Birgit Schneider

gefüllt, gehaltvoll, umfassend, gedrängt. Das Englische benutzt den synonymen Begriff concise (von lat. kurzgefasst). Auch die geistige Einprägung, die prägnante Grafiken erzeugt, ist Teil der Wurzel des Begriffes prägnant (prägen von mittelhochdeutsch bræchen, præchen : einpressen, abbilden, die im Begriff schwanger ebenfalls angelegt ist). Fülle und Verkürzung, Abstraktion und Konkretion, Verdichtung und Simplifizierung sind die diametralen Bewegungen, die in dieser Spannung immer prägnantere Gestaltungen hervorbringen; Prägnanz wird hergestellt, indem mittels Linien charakteristische Eigenheiten des Dargestellten in einer Weise abstrahiert und kondensiert werden, dass eine schnell einprägsame und verständliche Figur dabei entsteht. Analytische Grafiken sind damit Medien der Synthese: Das seit Leonardo da Vinci von fast allen Diagramm-Praktikern wiederholte ‚Lob des Auges‘ und die Vorstellung, dass der Geist für viele wissenschaftliche Fragen „ohne Linien blind“ sei,9 baut auf einem Erkenntniskonzept auf, das aus der praktischen Erfahrung abgeleitet ist. Die Prägnanz schließt hier an das Ideal der Evidenz im Sinne der Offensichtlichkeit an.10 Die leitende Vorstellung besteht darin, dass sich eine prägnante Idee wie eine zündende Idee oder ein deus ex machina direkt in den Geist einbrennt, also den kürzesten Weg vom Papier in den Kopf nimmt und dort dauerhaft verbleibt.11 Prägnanz ist mithin ein Mittel der radikalen Abkürzung von Erkenntniswegen und der erfolgreichen Einprägung und insofern ein Konzept, dass im Kreuzungspunkt von Didaktik (verständlich), Rhetorik (evident), Erkenntnis (aussagekräftig) und Wahrnehmung (unmittelbar) angesiedelt ist.

Beispiele einer prägnanten und einer verwirrenden Grafik Um die Problematik des Leitbilds der Prägnanz weiter herauszuarbeiten, seien an dieser Stelle zwei Beispiele angeführt ↗ABB. 1+2 . In der Theoretisierung seiner eigenen grafischen Praxis bezog der Brite William Playfair (1759–1823) die optische Wahrnehmung und das visuelle Denken auf die Möglichkeiten der grafischen Visualisierung mittels Linien. In einem seiner Vorworte schreibt er: 9 Leonardo da Vinci (s. Anm. 2). Da Vinci beschreibt hier, dass die Astronomie „allein für sich ohne Linien nicht betrieben“ werden kann. Ohne sie „ist die Kunst des Geometers blind.“ 10 Die Konzept- und Begriffsgeschichte der visuellen Evidenz haben insbesondere dargestellt: Lorraine Daston: Wonders and the order of nature. 1150–1750. New York 1998; Rolf F. Nohr: Evidenz – das sieht man doch. Münster 2004; Ders.: Nützliche Bilder: Bild, Diskurs, Evidenz. Münster 2014; vgl. auch Angela Fischel: Natur im Bild. Zeichnung und Naturerkenntnis bei Conrad Gessner und Ulisse Aldrovandi. Berlin 2009. 11 Vgl. zur Vorstellung der Zeugung eines Gedankens durch Bilder z. B. Beate Fricke, Tanja Klemm: ­Conceptio – perceptio. Das ‚Weimarer Blatt‘ von Leonardo da Vinci. In: Matthias Bruhn, Kai-Uwe Hemken (Hg.): M ­ odernisierung des Sehens. Sehweisen zwischen Künsten und Medien. Bielefeld 2008, S. 83–100.

Prägnanz als Kriterium für die Präzision diagrammatischer Bilder

263

As the eye is the best judge of proportion, being able to estimate it with more quickness and accuracy than any other of our organs, it follows, that wherever relative quantities are in question, a gradual increase or decrease of any revenue, receipt or expenditure, of money, or other value, is to be stated, this mode of representing it is peculiarly applicable; it gives a simple, accurate, and permanent idea, by giving form and shape to a number of separate ideas, which are otherwise abstract and unconnected.12

Einfach, dauerhaft und akkurat sind die drei Eigenschaften, die Playfair seiner neuen Kunst der Linie zuschreibt, mit der er die Wirtschaft Großbritanniens erstmals in die Form von Kurven transformierte. Playfairs Nobilitierung der Erkenntnismöglichkeiten durch Linien zielte in zwei Richtungen. Zum einen ist er derjenige, der das angehäufte Staats- beziehungsweise Tabellenwissen seiner Zeit mittels grafischer Analysen heruntergebrochen und epistemisch neu zugänglich gemacht hat.13 Im Gegensatz zu den bestehenden „numerical tables“, die zahllose „distinct ideas“ nebeneinander darböten, verbinde der Modus der Liniengrafik „proportion, progression and quantity“.14 Andererseits wird in Playfairs hoher Einschätzung des Auges deutlich, dass er die charakteristische Gestalt einer Linie als heuristisches Erkenntnis- und Entscheidungswerkzeug ansah, das auf einem direkten Weg ins visuelle Denken führt. Auch er steht in der bereits erwähnten Tradition der lobenden Herausstellung des coup d’œil seit Leonardo da Vinci, die dem Zusammenspiel von Sehsinn und Bild ein direktes, sofortiges Einprägen in das geistige Auge im Sinne eines instantanen und gleichzeitig tiefgreifenden Verständnisses bezeugt. Wer die Linien Playfairs anschaut, könne „bilanzieren, ohne zu rechnen“15. ↗ABB. 1 zeigt die Exporte und Importe zwischen Dänemark und Norwegen innerhalb von 80 Jahren von 1700 bis 1780. Die Grafik ist Bestandteil seines Statistischen Atlas, der seit 1786 in mehreren Auflagen erschie12 William Playfair: The commercial and political atlas: representing, by means of stained copper-plate charts, the progress of the commerce, revenues, expenditure, and debts of England, during the whole of the eighteenth century (zuerst 1786), London 1801, S. X. 13 Zu Tabellen und Staat siehe Barbara Segelken: Bilder des Staates. Kammer, Kasten und Tafel als Visualisierungen staatlicher Zusammenhänge. Berlin 2010; Sybilla Nikolow: A. F. W. Crome’s Measurements of the ‘Strength of the State’. Statistical Representations in Central Europe around 1800. In: History of Political Economy, Jg. 33, 2001, (Suppl. 1), S. 23–56; Birgit Schneider (Hg.): Diagramme und bildtextile Ordnungen. Bildwelten des Wissens. Kunsthistorisches Jahrbuch für Bildkritik, 3, 1. Berlin 2005. 14 Playfair (s. Anm. 12), S. X. Mit den numerical tables meint Playfair die Staatstafeln, die Leibniz hundert Jahre zuvor noch wegen ihres Potentials, einen Überblick zu verschaffen, so sehr gerühmt hatte (Gottfried Wilhelm Leibniz: Entwurff gewißer Staats-Tafeln. In: Ders.: Sämtliche Schriften und Briefe. Vierte Reihe: Politische Schriften, hg. v. d. Akademie der Wissenschaften der DDR, Bd. 3, Berlin 1986, S. 340–349). 15 Joachim Krausse: Information auf einen Blick – Zur Geschichte der Diagramme. In: Form + Zweck, Jg. 16, 1999, S. 4–23, hier S. 11.

264 Birgit Schneider

1 William Playfair: Exporte und Importe zwischen Dänemark und Norwegen innerhalb von 80 Jahren von 1700 bis 1780. Aus: William Playfair: The Commercial and Political Atlas: Representing, by Means of Stained Copper-Plate Charts, the Progress of the Commerce, Revenues, Expenditure and Debts of England during the Whole of the Eighteenth Century, London 1786.

nen ist. In der Gestalt der beiden Linien und ihrer Proportionen lässt sich auf einen Blick ersehen, an welchem Punkt die Linie der englischen Exporte zum Vorteil Großbritanniens die Kurve der Importe aus Dänemark und Norwegen übersteigt. Die Entscheidung Playfairs, jeweils nur zwei Kurven in einem Koordinatensystem zu vergleichen, ist dabei essentiell für den Prägnanzeffekt. Hätte Playfair seine Grafiken mit mehr Kurven und Relationen gefüllt, so hätte dies den Prägnanzeffekt gemindert. Gleichzeitig wirft der von Hand gezogene Gang der Kurven Fragen nach den dahinterliegenden Daten und ihrer „Zuverlässigkeit“ (Johann H. Lambert)16 auf, bleibt doch bei jeder Datenkurve unsichtbar, wie die Datenlage dahinter aussieht. 16 Über das Problem der Zuverlässigkeit bei interpolierenden Kurven, welche die Räume zwischen Datenpunkten glätten, machte sich der Mathematiker Johann H. Lambert in seiner Schrift Theorie der Zuverlässigkeit der Beobachtungen und Versuche (1765) Gedanken. Siehe dazu: Laura Tilling: Early Experimental Graphs. In: British Journal for the History of Science, Jg. 8, 1975, Heft 3, S. 193–213; Tobias Vogelsang: Datenvisualisierung und Ästhetik. Johann Heinrich Lamberts Graph und William Hogarths ‚Analysis of Beauty‘. Berlin 2015.

Prägnanz als Kriterium für die Präzision diagrammatischer Bilder

265

2 Mark Lombardi: World Finance Corporation and Associates ca. 1970–84: Miami-Ajman-Bogota-Caracas (7. Fassung), 1999, Graphit und Buntstift auf Papier, 152,4 × 198,1 cm. Privatsammlung (Courtesy Pierogi Gallery and the Lombardi family).

Ein zweites Beispiel verdeutlicht, wann das Ideal eines optimierten Diagramme-Instrumentariums im Sinne der Prägnanz an seine Grenzen gerät. Der Künstler Mark Lombardi (1951–2000) hat nach jahrelanger Recherchearbeit die Komplexität der Beziehungen zwischen Investoren, Unternehmen, Militär, Banken und Politik in den Jahren 1970 bis 1984 für die USA darzustellen versucht ↗ABB. 2 . Grundlage seiner Diagramme waren schriftliche Quellen aus allen erdenklichen Medien, aus denen er Informationen über die Beziehungen und Verstrickungen seiner Protagonisten gewinnen konnte. Das Resultat sind großformatige Bilder, die mit zahlreichen geschwungenen Linien eine so verwickelte Struktur der Macht von Geld und Politik vor den Augen der Betrachter entfalten, dass von Prägnanz im bisher behandelten Sinne keine Rede mehr sein kann. Die Strukturerwartung läuft ins Leere und das Ideal eines Erfassens auf einen Blick erscheint angesichts der dichten Verstrickungen und Beziehungen als Erkenntnisideal obsolet. Die hier dargestellte Welt, so läßt sich schlussfolgern, ist komplexer als es ein prägnantes Bild von Geldflüssen,

266 Birgit Schneider

das nur wenige Relationen aufzeigt, jemals vermitteln könnte. Die Wahrnehmungstendenz geordneter Formen, wie sie noch die Gestaltpsychologie veranschlagt hatte, findet hier keinen Haltepunkt in den überall gleichwichtigen Strukturen dieser Grafik. Die größte Klarheit besteht im Tatbestand ihrer Komplexität – aber auch in der hier nur vordergründig prägnanten Kreisform, zu der Lombardi die vielen Verbindungen angeordnet hat. So stellt sich die generelle Frage, wie es zu bewerten sei, wenn eine Grafik es nicht vermag, den Eindruck von Klarheit und Prägnanz zu erzeugen. Bedeutet dies, dass die Wirklichkeitswahrnehmung ihres Autors oder ihrer Autorin ebenso unklar und diffus sein muss wie die Grafik? Wer nicht prägnant darzustellen vermag, so eine mögliche Schlussfolgerung, liegt falsch oder hat das Wichtige nicht erkannt und ist nicht imstande, Muster innerhalb von Komplexitäten auszumachen. Überkomplexe Bilder erwecken den Verdacht eines verfilzten, verworrenen und verwirrten Denkens,17 zuweilen gelten sie sogar als Anzeichen verschwörungstheoretischer Ansichten. Andererseits ließe sich argumentieren, dass es Daten und Informationen gibt, die in ihren Relationen so komplex und verworren sind, dass sie sich grundsätzlich nicht mehr prägnant darstellen lassen. Es gibt zahlreiche Beispiele für Zusammenhänge, die sich weder auf einen Blick erfassen noch in ein Bild bringen lassen, so dass das Visualisierungsparadigma scheitert. Dies gilt für die Strukturen des Gehirns oder des Internets, für das Klimasystem oder das Weltall, aber auch für biochemische Prozesse. Für alle Darstellungen dieser Strukturen kann bezweifelt werden, ob sich ihre prägnante Gestalt in Visualisierungen darlegen lässt. Stattdessen nehmen sie rhizom- oder filzartige Strukturen an, die sich klaren Formen der Sichtbarmachung entziehen. Hier werden die Grenzen des Ideals der Prägnanz deutlich, das die Spannung zwischen der Anforderung der Komplexitätsvereinfachung (William Playfair) und der Komplexitätserhaltung (Mark Lombardi) zugunsten der Vereinfachung entscheidet. Während die Prägnanz dem Rauschen und dem Chaos entgegenwirkt und die weniger wahrscheinlichen Sinnpunkte der Ordnung markiert, veranschaulichen verworrene Grafiken die unreduzierte Komplexität. Aufgrund der Strukturtendenz prägnanter Bilder nannte Rudolf Arnheim das Gesetz der Prägnanz daher auch das „Gesetz der Einfachheit“18. Er bestimmte den Begriff informationstheoretisch: Die Prägnanz könne als ein Verfahrensweg verstanden werden, bei dem die Wahrnehmung Informationen reduziert. Seine Perspektive macht den Prozess der Informationswahrnehmung anschlussfähig an

17 Vgl. Gerhard Henschel: Die wirrsten Grafiken der Welt. Hamburg 2003. 18 Vgl. Rudolf Arnheim: Kunst und Sehen. Eine Psychologie des schöpferischen Auges. Berlin/New York 2000, S. 217.

Prägnanz als Kriterium für die Präzision diagrammatischer Bilder

267

die Informationsvisualisierung, die auf einer solchen Suche nach vereinfachten Wahrnehmungen fußt. Insofern bestätigen prägnante Bildeindrücke aber auch immer wieder die Vermutung, dass die Welt eine geordnete Struktur besitze und dass auch Daten entsprechend prägnante Strukturen aufweisen müssten, ohne dabei unterscheiden zu können, ob es der Geist ist, der sich in der Prägnanz spiegelt oder die Struktur der Wirklichkeit, die hier zum Ausdruck kommt. Wahrscheinlich bilden die Linien in Lombardis Bildern aus diesem Grund auf einer höheren Ebene selbst wieder prägnante, kosmische Kreisformen, um die unauflösliche Spannung zwischen Vereinfachung und Komplexität visuell zu fassen und so den Abgrund zwischen dem Anspruch auf Verstehen und der Grenze des Verstehens erkennbar zu machen. Wie sich jedoch zeigt, ist die Prägnanz ebenso wie die Evidenz keine überhistorische Universalie, sondern muss mit Blick auf das sich wandelnde Erkenntnisinteresse immer neu bestimmt werden.

Felix Jäger

Dialektik der Genauigkeit Nicolaus Cusanus und Leon Battista Alberti

In seiner Studie Individuum und Kosmos in der Philosophie der Renaissance (1927) suchte der seinerzeit in Hamburg lehrende Kulturphilosoph Ernst Cassirer (1874– 1945) die gedanklichen Strömungen des 15. und 16. Jahrhunderts zu bündeln, um das Geistesleben der Epoche auf den Begriff zu bringen. Das im Umkreis der Kulturwissenschaftlichen Bibliothek Warburg entstandene und ihrem Begründer Aby Warburg gewidmete Werk stellte sich im Besonderen die Aufgabe, das Problem der Form, das „die spekulativ-philosophischen, die technisch-mathematischen und die künstlerischen Tendenzen der Zeit“1 gleichermaßen durchdringe, als ordnendes Prinzip herauszuarbeiten.2 Im Brennpunkt der Überlegungen stand dabei die Lehre des Nicolaus Cusanus (1401–1464), dessen erkenntniskritische Methode Erfahrungswirklichkeit und theoretische Vernunft auf produktive Weise ins Verhältnis setze.3 Die künstlerische Praxis der Renaissance gebe diese Spannung nicht nur wieder, sondern fungiere als ihr eigentliches Medium, insofern die Wahrnehmung erst in ihr sicht- und greifbare Gestalt erhalte. Über den humanistischen Kunsttheoretiker Leon Battista Alberti (1404–1472), dem er persönlich und geistig verbunden gewesen sei, habe Cusanus Widerhall in der italienischen Kunst gefunden.4 Hierbei sei mit der Präzision (praecisio) auch eine Vokabel zur Geltung gekommen, die paradigmatisch für eine positive Erfahrungswissenschaft einstehe.5 Cassirer attestierte insbesondere Leonardo da Vinci (1452–1519) das paradoxe Vermögen einer exakten, sinnlichen Fantasie, die nicht willkürlich verfahre, sondern der Wahrnehmung „ihre Prägnanz, ihre Schärfe und Bestimmtheit“6 verschaffe. Mittels präziser Gestaltung gebe sich

1

Ernst Cassirer: Individuum und Kosmos in der Philosophie der Renaissance. Darmstadt 1927, S. 55.

2

Für eine systematische Analyse zur Ausstrahlung der Warburg-Bibliothek auf Cassirers Philosophie siehe Martin Jesinghausen-Lauster: Die Suche nach der symbolischen Form. Der Kreis um die Kulturwissenschaftliche Bibliothek Warburg. Baden-Baden 1985.

3

Zur geistesgeschichtlichen Würdigung des Nicolaus Cusanus siehe Cassirer (s. Anm. 1), S. 7–8.

4

Für den Einfluss des Cusanus auf Alberti siehe Cassirer (s. Anm. 1), S. 54–55.

5 Zum Begriff der praecisio siehe Cassirer (s. Anm. 1), S. 15 und 23–28. 6 Cassirer (s. Anm. 1), S. 167.

270 Felix Jäger

die Anschauung eine Form, in der die Gesetze der Natur und die künstlerische Einbildungskraft in Einklang stehen.7 Cassirer schrieb der Präzision hierin eine eigene Wahrnehmungsqualität zu, deren Eignung als Analysekategorie und Stilkriterium der Frührenaissance im Folgenden beleuchtet werden soll. Während die Wissenschaftsgeschichte in der Regel die Eigengesetzlichkeit des Genauigkeitsdiskurses im 18. und 19. Jahrhundert hervorhebt,8 vertritt die vorliegende Untersuchung einen genealogischen Ansatz, der die longue durée des Begriffs in Rechnung stellt: Nicht die Isolierung einer Erkenntnisformation, wie sie Lorraine Daston und Peter Galison unternehmen,9 steht im Vordergrund, sondern die Vorprägung einer Vokabel, deren anhaltender Wahrheitsanspruch zurückverfolgt werden soll. Nicolaus Cusanus und Leon Battista Alberti werden als Vordenker allgemeiner Wandlungsprozesse herausgegriffen, die diese gedanklich erfasst und stilbildend befördert haben. Ihre biographischen und geistigen Berührungspunkte legen Synergien nahe, die geeignet sind, die Wechselseitigkeit von Genauigkeitsbegriff und Bildpraxis exemplarisch in den Blick zu nehmen. Präzision ist als Formprozess zu verstehen, in dem die Sphären von Natur und Kunst spannungsvoll gegeneinander abgegrenzt werden. Die von Cassirer unterstellte Verschränkung von Naturgesetzlichkeit und Fantasie wird dabei zu hinterfragen sein.

Messen und Tauschen Die Annahme einer persönlichen Verbindung zwischen Cusanus und Alberti, die Rückschlüsse auf gegenseitige Einflussnahme zuließe, beruht auf Indizien. Diese deuten auf ein humanistisches Milieu hin, das sich um den Hof Nicolaus’ V. (1397– 1455) und das Konzil von Ferrara-Florenz (1438–1439) gruppierte. Innerhalb dieses Netzwerks teilten Cusanus und Alberti gemeinsame Bekanntschaften, wie Paolo Toscanelli (1397–1482), Giovanni Andrea Bussi (1417–1475) und Enea Silvio Piccolomini (1405–1464), mit denen sie in regelmäßigem Briefkontakt standen. Obwohl namentliche Erwähnungen und wörtliche Zitate fehlen, geben auch ihre Schriften eine gedankliche Annäherung zu erkennen. Cusanus besaß nachweislich eine Aus-

7

Zur Exaktheit bei Leonardo da Vinci siehe Cassirer (s. Anm. 1), S. 164–168 und 179–180. Im Anschluss an den französischen Wissenschaftshistoriker Pierre Duhem (1861–1916) vermutet Cassirer eine unmittelbare Rezeption der Philosophie des Cusanus. Cassirer (s. Anm. 1), S. 51–55.

8 Vgl. Thomas S. Kuhn: The Function of Measurement in Modern Physical Science. In: Isis 52, 1961, Heft 2, S. 161–193. Analog vgl. M. Norton Wise: Introduction. In: Ders. (Hg.): The Values of Precision. Princeton 1995, S. 3–13, hier S. 3–4. 9 Lorraine Daston, Peter Galison: Objektivität. Frankfurt am Main 2007, S. 113.

Dialektik der Genauigkeit

271

gabe der Elementa Picturae (1435–1436), die noch immer in der Bibliothek des St. Nikolaus-Hospitals in Bernkastel-Kues aufbewahrt wird. Neben einer platonischen Grundierung zeigt insbesondere die späte Schaffensphase des Cusanus einen dezidiert ästhetischen Akzent, der sich in der Aufwertung der Kunst (ars) und des Sehens niederschlägt.10 Auffallend deutlich treten konzeptionelle Affinitäten in der Problematisierung des Messens zutage, dessen technische und philosophische Erforschung der Präzision neues Profil verleiht. In seinem Dialog Idiota de Staticis Experimentis (1450) erörtert Cusanus verschiedene Mess- und Wägetechniken, die unter anderem auf die Quantifizierung von magnetischer Anziehungskraft, Luftfeuchtigkeit und Blutdruck abzielen. Obgleich diese niemals vollkommen genau seien, könne man sich hierbei, wie ­Cusanus erläutert, „mittels des Gewichtsunterschiedes in größerer Wahrheit zu den Geheimnissen der Dinge herantasten.“11 Etwa zeitgleich widmete sich auch Alberti neuen Verfahren der Messkunst. Sein Traktat Ex Ludis Rerum Mathematicarum (1450–1452) behandelt Methoden der Volumen-, Gewichts-, Abstands- und Tiefenmessung sowie der Geodäsie, die den Überlegungen des ­Cusanus nahestehen.12 Wie dieser kalkuliert Alberti mit einem impliziten Genauigkeitspostulat, das in seinem Architekturlehrbuch De Re Aedificatoria (1443–1452) gestalterisch gewendet ist: Der Schmuck eines Bauwerks solle nach genauer Erwägung „ausgemessen, verbunden und zusammengefügt“ sein, sodass er durch „Linien, Winkel, Zug, Zusammenhang und Zusammenfassung“13 gebunden erscheine.14 Das Kriterium der Genauigkeit ist damit in den Dienst einer ästhetischen Wirkung gestellt, die Alberti im Titel seines Mathematiktraktats spielerisch aufgefasst hatte. Obwohl hierin eine Verfeinerung der Messtechnik angestrebt ist, die mit der Verkleinerung von Recheneinheiten und Gewichtsstücken im 15. Jahrhundert ein10 Für einen Überblick zur Forschungsliteratur siehe Charles H. Carman: Leon Battista Alberti and Nicholas Cusanus. Towards an Epistemology of Vision for Italian Renaissance Art and Culture. Farnham 2014, insb. S. 4–12; Kurt Flasch: Nicolò Cusano e Leon Battista Alberti. In: Luca Chiavoni u. a. (Hg.): Leon Battista Alberti e il Quattrocento. Florenz 2001, S. 371–380. Maßgeblich zu konzeptionellen Überschneidungen Giovanni Santinello: Nicolò Cusano e Leon Battista Alberti. Pensieri sul Bello e sull’Arte. In: Leon Battista Alberti. Una Visione Estetica del Mondo e della Vita. Florenz 1962, S. 265–296. 11 Nicolaus Cusanus: Idiota de Staticis Experimentis. Der Laie und die Experimente mit der Waage. In: Leo Gabriel (Hg.): Nikolaus von Kues. Die philosophisch-theologischen Schriften, übers. von Dietlind und Wilhelm Dupré, Bd. 3. Freiburg 2014, S. 611–647, hier S. 612–613; analog vgl. S. 624–625 und 628–629. 12 Exemplarisch zur Genauigkeit in der Landvermessung etwa Leon Battista Alberti: Ex Ludis Rerum Mathematicarum. In: Kim Williams u.a (Hg.): The Mathematical Works of Leon Battista Alberti. Basel 2010, S. 9–140, hier S. 37. 13 Leon Battista Alberti: Zehn Bücher über die Baukunst, übers. von Max Theuer. Wien/Leipzig 1912, Lib. IX, Cap. VIII, S. 513; Leon Battista Alberti: L’Architettura. De Re Aedificatoria, hg. und übers. von Giovanni Orlandi, 2 Bde., Bd. 2. Mailand 1966, Lib. IX, Cap. IX, S. 851. 14 Ähnlich zur Sorgfalt in der Verzeichnung der Grundfläche Alberti 1966 (s. Anm. 13), Bd. 1, Lib. III, Cap. I, S. 175.

272 Felix Jäger

hergeht, entspricht der sich abzeichnende Vorstellungsgehalt nicht dem abstrakten Präzisionsbegriff, der später die exakten Wissenschaften kennzeichnen wird. Während diese mit metrischen Standardgrößen und statistischen Abweichungen operieren, bleiben spätmittelalterliche Abmessungsverfahren grundsätzlich approximativ. Ihre Richtigkeit entscheidet sich nicht an der Reproduzierbarkeit der Messung oder der Einhaltung ideeller Ur-Normalen, sondern an ihrer Handlungsrelevanz. Unter den Bedingungen einer Naturalwirtschaft, die im 15. Jahrhundert größtenteils auf Tauschhandel beruhte, benennt sie daher keine absoluten Maße, sondern die Vergleichbarkeit, Angemessenheit und Ähnlichkeit verschiedener Größen.15 Die vormetrische Genauigkeitspraxis wird selten methodisch reflektiert, tritt aber als Verhältnismäßigkeitsprinzip in Erscheinung, das Sachen, Werte und Interessen gegeneinander abwägt. Sie steht unter dem Vorbehalt ihres gesellschaftlichen Resonanzraums. Cusanus leitet deshalb sein Messtraktat mit einem Hinweis auf die Waage der Gerechtigkeit ein, die der auftretende Rhetor „als notwendiges Instrument des Gemeinwesens pries“.16 Schon in seinem Idiota de Sapientia (1450) hatte er den Marktplatz zum Sinnbild der Verstandestätigkeit erklärt, insofern Zählen, Messen und Wägen die Grundfertigkeiten der Unterscheidung darstellten.17 Umgekehrt scheint auch Alberti dem der Tauschwirtschaft zugrundeliegenden Prinzip der Gleichheit (aequalitas) Rechnung zu tragen.18 Die Messungen in seinem Ex ­Ludis Rerum Mathematicarum stellen die instrumentell erreichbare Präzision offenbar bewusst zurück, um der Freiheit des Spiels Entfaltungsraum zu geben.19 ­Adressiert an Meliaduse d’Este (1406–1452), Sohn des Markgrafen von Ferrara, kommt d ­ iese Freiheit einem Herrschaftsanspruch entgegen, der Gleichheit und Genauigkeit gezielt zu überspielen sucht. Sowohl die Harmonielehre des Cusanus als auch ihre spielerische Subversion bei Alberti weisen die Genauigkeit damit als Bedeutungsphänomen aus, das es in seine bildlichen Konkretionen zu verfolgen gilt.

15 Zur qualitativen Bestimmung der Genauigkeit in der Vormoderne siehe Hans Heinz Holz: Genauigkeit – was ist das? Wandel des Konzeptes zwischen Antike und Neuzeit. In: Berichte zur Wissenschaftsgeschichte 25, 2002, Heft 2, S. 81–92, hier S. 81–82; Harald Witthöft: Zum Problem der Genauigkeit in Historischer Perspektive. In: Dieter Hoffmann, ders. (Hg.): Genauigkeit und Präzision in der Geschichte der Wissenschaften und des Alltags. Bremerhaven 1996, S. 3–31. Für einen historischen Überblick siehe Heinz-Dieter Haustein: Weltchronik des Messens. Universalgeschichte von Maß und Zahl, Geld und Gewicht. Berlin/New York 2001, S. 94–136. 16 Cusanus (s. Anm. 11) S. 612–613. Zum sozialen Aspekt auch ders. (s. Anm. 11), S. 644–645. 17 Nicolaus Cusanus: Idiota de Sapientia. Der Laie über den Geist. In: Karl Bormann (Hg.): Philosophisch-theologische Werke, Bd. 2. Hamburg 2002, S. 1–166, hier S. 4–7. 18 Grundlegend zum Begriff der aequalitas bei Cusanus ist Harald Schwaetzer: Aequalitas. Erkenntnistheoretische und soziale Implikationen eines christologischen Begriffs bei Nicolaus von Kues. Eine Studie zu seiner Schrift De Aequalitate. Hildesheim u. a. (2. Auflage) 2004. 19 Hierzu vgl. Alberti (s. Anm. 12), S. 139–140.

Dialektik der Genauigkeit

273

Absolute und äußere Genauigkeit Die visuelle Kultur der Renaissance war durch eine kaufmännische Mentalität geprägt, deren Alltagspraktiken sich sowohl in der Wahrnehmungshaltung als auch im künstlerischen Ausdruck widerspiegelten. Wie Michael Baxandall zeigen konnte, gaben merkantile Rechentechniken, die an den städtischen Laienschulen gelehrt wurden, Grundformen und Gestaltungsmuster vor, die in die Grammatik der Bilder eingingen. Die sich einstellende Formensprache förderte einen bestimmten kognitiven Stil , der den Betrachter bei der Wahrnehmung und Erkenntnis der Erscheinungen anleiten sollte.20 Es liegt nahe, dass hierbei auch die Sensibilisierung des Genauigkeitsbewusstseins, die in der Optimierung der Messmittel zutage tritt, visuellen Niederschlag gefunden hat. Wie im Sinnbild des Marktplatzes vorweggenommen, folgt Cusanus einer merkantilen Logik, die sich in seinem Idiota de Mente (1450) zum Schluss verschärft, die Tätigkeit des Geistes (mens) beruhe grundsätzlich auf dem Messen (mensurare).21 Um die unvollkommenen Erzeugnisse des Verstandes gegenüber der absoluten Wahrheit Gottes abzugrenzen, führt er mit der Präzision (praecisio) eine Vokabel ein, die dem physikalischen Diskurs des Mittelalters entlehnt ist. Im Anschluss an den Theologen und Naturwissenschaftler Nicolaus von Oresme (vor 1330–1382), der sich auch geldpolitischen Fragen gewidmet hatte, kennzeichnet Präzision das Erkenntnisdefizit, das sich aus der Messung kontinuierlicher Quantitäten, wie Ausdehnung, Zeit und Bewegung, ergibt. Im Unterschied zu diskreten Größen sind diese unendlich teilbar und lassen sich nicht durch Zahlenverhältnisse ausdrücken. Cusanus überträgt dieses Messparadox auf die existenzielle Kluft zwischen dem mit Mutmaßungen (coniecturae) operierenden Menschen und der unerreichbaren Genauigkeit Gottes.22 Anhand des Gleichnisses eines alles-sehenden Porträts wird dieser in der Schrift De Visione Dei (1453) durch widersprüchliche Prädikationen umkreist: Gott bilde ein unmessbares Maß (immensurabile omnium mensura), in dem Einheit und Vielheit, Bewegung und Ruhe, Zeit und Ewigkeit zusammenkommen, Gegensätze aufgehoben sind (coincidentia oppositorum).23 Am Beispiel eines 20 Grundlegend zur gesellschaftlichen Einbettung der Bildkultur der Renaissance siehe Michael Baxandall: Die Wirklichkeit der Bilder. Malerei und Erfahrung im Italien des 15. Jahrhunderts. Frankfurt am Main (2. Auflage) 1988, S. 112–137. 21 Hierzu Nicolaus Cusanus: Idiota De Mente. Der Laie über den Geist. In: Bormann (s. Anm. 17), Cap. I–II, S. 8–11. 22 Für die Vorgeschichte des Begriffs siehe Wolfgang Hübener, Stephan Meier-Oeser: Art. Praecisio, I. In: Historisches Wörterbuch der Philosophie, Bd. 7. Basel 1989, Sp. 1212–1215, hier Sp. 1213–1214. Zur Rezeption bei Cusanus siehe Helmut Meinhardt: Art. Praecisio, II. In: Historisches Wörterbuch der Philosophie, Bd. 7. Basel 1989, Sp. 1215–1216. 23 Nicolaus Cusanus: De Visione Dei. Die Gottes-Schau. In: Gabriel (s. Anm. 11), S. 93–219, hier Cap. VIII, S. 126–127; Cap. IX, S. 130–131; Cap. X–XI, S. 136–141 und Cap. XIII, S. 150–153.

274 Felix Jäger

Löffelschnitzers demonstriert Cusanus, wie sich die Konjekturen gleichwohl metaphorisch dem Wesen der Sinnesgegenstände anpassen: „Die Wahrheit und Genauigkeit des Löffelseins“, räsoniert Cusanus, können „auf keine Weise, auch nicht durch irgendwelche Werkzeuge und durch irgendeinen Menschen, vollkommen sinnenfällig gemacht werden“.24 Analog zum Sehvermögen sei der Geist jedoch insofern bedingt erkenntnisoffen, als er sich durch äußere Anregung „jeder Form angleichen und Begriffe von allen Dingen bilden kann“.25 Die auf Ähnlichkeit abzielende Erkenntnis erfüllt damit das Kriterium der Gleichheit. Zufolge der modernen Terminologie indiziert sie die absolute Genauigkeit, die durch das Maß der Übereinstimmung zwischen ermitteltem und richtigem Wert definiert ist.26 Sicherere Erkenntnis sei indessen durch Formen zu erreichen, die vom menschlichen Intellekt selbst generiert werden und keinem sinnlichen Phänomen nachgebildet sind, wie geometrische Figuren oder Zahlen. Gleichwohl weisen auch diese einen ambivalenten Status auf. In seinem philosophischen Frühwerk De Docta Ignorantia (1440) hatte Cusanus erklärt, abstrakte Gegenstände würden die „einfache Form von Ähnlichkeit überspringen“27, sodass sie als „unwandelbar und für uns gewiss“ gälten. Sie seien aber nicht „völlig frei […] von materiellem Beiwerk, ohne das sie nicht vorgestellt werden können“28. Im Gegensatz zur absoluten Genauigkeit lässt sich der hieraus erwachsende Wahrheitsgehalt als äußere Genauigkeit fassen, die durch die Reproduzierbarkeit des Messvorgangs charakterisiert ist. Die dabei gewonnenen Erkenntnisse sind im Rahmen mathematischer Gesetze präzise, entsprechen aber nicht notwendig einem wahren oder phänomenalen Wert. Ihre Gültigkeit liegt darin begründet, dass sie nicht mimetisch auf die Wirklichkeit bezogen sind. Für Cusanus muss Ähnlichkeit sogar systematisch negiert werden, um dialektisch, durch wissendes Nicht-Wissen, zur unbegreiflichen Wahrheit Gottes zu gelangen. Als Schaubilder und Meditationshilfen entwickelt der Autor diagrammatische Figuren, deren Eigenschaften den Aufstieg vom Endlichen zum unsinnlich Unendlichen ermöglichen sollen. Eine besonders komplexe Konstruktion, die seine kosmologische und epistemologische Weltanschauung zusammenfasst, ist dem etwas später erschienenen De Coniecturis (1442) beigegeben: Die FIGVRA PARADIGMATICA ↗ABB. 1 visualisiert die Reziprozität von Einheit und Andersheit anhand eines überlappenden Doppeldreiecks, in dem sich Licht und Dunkelheit gegenseitig 24 Cusanus (s. Anm. 21), Cap. II, S. 14–17. Analog zum Symbolcharakter der Genauigkeit Cusanus (s. Anm. 21), Cap. VI, S. 46–47. 25 Cusanus (s. Anm. 21), Cap. IV, S. 32–33. Ähnlich vgl. ders. (s. Anm. 21), Cap. III, S. 22–27; Cap. VII, S. 54–63. 26 Die Grundbegriffe der Messtechnik sind seit 1942 in der DIN-Norm 1391 festgeschrieben. Allgemein zur Unterscheidung von Genauigkeit (accuracy) und Präzision (precision) vgl. Wise (s. Anm. 8), S. 7–9. 27 Nicolaus Cusanus: De Docta Ignorantia. In: Bormann (s. Anm. 17), Bd. 1, Lib. I, Cap. VII, S. 44–45. 28 Cusanus (s. Anm. 27), Lib. I, Cap. XI, S. 42–43.

Dialektik der Genauigkeit

275

1 Nicolaus Cusanus: Figura paradigmatica trium mundo. Holzschnitt, ca. 7 × 14 cm, aus dem Band De Coniecturis, Basel 1565 (Orig. Paris 1514), Lib. I, Cap. XII, S. 85 (Herzog August Bibliothek Wolfenbüttel).

durchstecken. Die als präzis apostrophierte Vorlage, die an überkreuzte Sehpyramiden erinnert, solle den Geist dergestalt anregen, dass „du durch sinnenfällige Anleitung deine Mutmaßung auf das Verborgene richten“29 kannst.30 Im Unterschied zu Cusanus führt Alberti keine eigenständige Vokabel, die den Vorstellungsinhalt der Genauigkeit zum Ausdruck bringt. Allerdings vertreten seine kunsttheoretischen Schriften einen Wahrheitsanspruch, der auf dem Imperativ der Messung und der Legitimität geometrischer Gesetze beruht. Diese rufen ein Qualitätskriterium auf, das zwar begrifflich diffus bleibt, aber in Anlehnung an Cusanus auf ein Genauigkeitsbewusstsein hinzuweisen scheint. Kennzeichnet die Präzision bei diesem eine Eigenschaft, die zur Erkenntnis des Verborgenen führt, versteht sie Alberti als künstlerisches Gestaltungsmittel, das der richtigen Wiedergabe der Wirklichkeit dient. In seinem Malereitraktat De Pictura (1435) ist der Künstler daher 29 Nicolaus Cusanus: De Coniecturis. Mutmaßungen. In: Bormann (s. Anm. 17), Bd. 2, S. 1–264, hier P. I, Cap. IX, S. 48–49. 30 Zur Figur P siehe Cusanus (s. Anm. 29), P. I, Cap. IX–X, S. 42–61. Für Erläuterungen Carman (s. Anm. 10), S. 106–109. Für eine Einführung zur Funktion geometrischer Figuren bei Cusanus siehe Karl Bormann: Einleitung. In: Bormann (s. Anm. 17), Bd. 1, hier S. VII–LVIII, S. XIV–XV und XX–XXI.

276 Felix Jäger

zunächst ermahnt, die Natur mit größter Aufmerksamkeit (diligentia) „lange und aufs sorgfältigste“31 ins Auge zu fassen.32 Die herausdestillierten Formen und Flächenkonstellationen sind technisch und kompositorisch exakt ins Bild zu bringen. Die zu investierende Präzision folgt dabei keiner sklavischen Naturnachahmung, sondern selektiert und arrangiert nach dem Prinzip der Angemessenheit, dessen Wahrheitswert durch die Gleichheit der Verhältnisse bestimmt ist. Ein Entwurf müsse mit maßvoller Gründlichkeit (moderata diligentia) umgesetzt werden, um nicht der Starrköpfigkeit (pertinacia) anheimzufallen.33 Farben seien solcherweise exakt (exactus) anzuordnen, dass die Kriterien der Abwechslung (varietas) und Anmut ( gratia) erfüllt werden.34 Mühe und Fleiß gewährleisten die maßvolle Darstellung von Seelenregungen, „die dem Geist noch etwas übriglassen, was er sich selbst ausdenken kann“35. Im etwa zeitgleich verfassten De Statua (1435) summiert Alberti, die Natur habe Methoden vorgegeben, „mit deren Hilfe man mühelos […] vollkommen passend und vollkommen maßgerecht das vollkommene Gelingen […] zu erreichen vermag.“36 Die damit anvisierte Genauigkeit wird von einem nicht-mimetischen Wahrheitspostulat überboten, das sich wie bei Cusanus in geometrischen Figurationen manifestiert. Auf der Grundlage strahlenoptischer Axiome, welche ein messendes Auge voraussetzen,37 entwickelt Alberti seine planimetrische Perspektivkonstruktion, die eine verlässliche Naturwiedergabe ermöglichen soll. Kontinuierliche Quantitäten stellen dabei Grundprobleme dar, die es gestalterisch zu lösen gilt. Die Messkunst lieferte hierfür geeignete Modelle. Im Gegenzug könnte die Linearperspektive zur mathematischen Aufarbeitung der Messtechnik in Ex Ludis Rerum Mathematicarum angeregt haben.38 Die formale Organisation des Bildes, das wie ein Messraster in die Sehpyramide eingestellt ist, entfaltet in der Folge ein geometrisches Sichtbarkeitskalkül, das sowohl formale, kompositorische als auch 31 Leon Battista Alberti: De Pictura. Die Malkunst. In: Oskar Bätschmann, Christoph Schäublin (Hg.): Leon Battista Alberti. Das Standbild, Die Malkunst, Grundlagen der Malerei. Darmstadt 2000, S. 193–333 und 363–366, hier Lib. II, § 35, S. 256–257. 32 Kurz zum Begriff der diligentia/diligenza nach Vasari siehe Alessandro Nova (Hg.): Die Anfänge der Maniera Moderna. Giorgio Vasaris Viten. Proemio, Leonardo, Giorgione, Correggio, übers. v. Sabine Feser und Victoria Lorini. Hildesheim u. a. 2001, S. 161–162. 33 Alberti (s. Anm. 31), Lib. III, § 61, S. 308–311. 34 Alberti (s. Anm. 31), Lib. II, 48, S. 288–289. 35 Alberti (s. Anm. 31), Lib. II, § 41, S. 270–271. 36 Leon Battista Alberti: De Statua. Das Standbild. In: Bätschmann, Schäublin (s. Anm. 31), S. 141–191, hier § 3, S. 146–147. 37 Vgl. Alberti (s. Anm. 31), Lib. I, § 5, S. 200–201. 38 Alberti beschreibt darin ein Verfahren, den Abstand zwischen dem Betrachter und einem entfernten, aber sichtbaren Ort zu messen: Vgl. Alberti (s. Anm. 12), S. 58–63 und 126–133. Allgemein vgl. Baxandall (s. Anm. 20), S. 141–143.

Dialektik der Genauigkeit

277

ikonographische Erwägungen einschließt: Aggregathafte Wahrnehmungsereignisse sind durch umschreibende Linien (circumscriptio) in diskrete Formen zu fassen, deren Genauigkeit sich an der Feinheit der Ausführung bemisst. Der Saum (­fimbria) fixiert das innerlich bewegte Wahrnehmungskontinuum auf einen Augenblick, der messtechnisch operationalisierbar ist.39 Alberti erläutert, der Künstler habe Linien zu bilden, „die so dünn wie möglich, ja geradezu unsichtbar sind“40. Wie bei Cusanus kommt der Linie damit ein ambivalenter Status zu, insofern sie zwar der sinnlichen Sphäre verhaftet ist, aber auf eine nicht-mimetische Wesenheit abzielt, die wahrhaft präzise ist.41 Die dergestalt eingegrenzten Flächen werden daraufhin in ein geometrisch proportioniertes Raumkonstrukt eingetragen, dessen Koordinaten eindeutig aus den relativen Größenverhältnissen der abgebildeten Objekte rekonstruierbar sein sollen. Hierin ist auch die Ikonographie insoweit inbegriffen, als die Erzählung zu einer räumlich und zeitlich homogenen Szene (historia) verdichtet wird, die „alle Körper bezüglich ihres Dienstes und ihrer Größe miteinander übereinstimmen“42 lässt. Analog zur unsichtbaren Linie wird der in den Raum stürzende Fluchtpunkt dabei gedanklich bis in unendliche Entfernung (infinita distantia) verlängert, wo sich seine stoffliche Kontaminierung aufzulösen verspricht.43 Der Betrachter ist aufgefordert, das Bild „aus einem ganz bestimmten Abstand“44 in den Blick zu nehmen, dessen exakte Kalkulation die Ähnlichkeit der Wahrnehmung garantiere. In der Stillstellung des betrachtenden Auges vollendet sich somit die Perspektivkonstruktion als geschlossene Messsituation. Der Grad der Genauigkeit ist hierbei der Künstlichkeit der Messsituation direkt proportional: Je geometrischer die Größenverhältnisse, desto präziser ist die Wesenheit des abgebildeten Gegenstandes erfasst; je mehr mimetische Einzelerscheinungen abgezogen werden, umso wahrer ist die gewonnene Erkenntnis.45 Die Kunst der Frührenaissance scheint die begriffliche Ausarbeitung der Genauigkeit gleichermaßen stimuliert als auch nachträglich in sich aufgenommen zu

39 Zur philosophischen Revision des Bewegungsproblems und zur mathematischen Transformation des Raumes vgl. Cassirer (s. Anm. 1), S. 183–194. Cassirer verweist auf den etwa zeitgleich unter seinem Einfluss entstandenen Vortrag von Erwin Panofsky: Die Perspektive als symbolische Form. In: Hariolf Oberer, Egon Verheyen (Hg.): Aufsätze zu Grundfragen der Kunstwissenschaft (Orig. 1927). Berlin 1980, S. 99–167. 40 Alberti (s. Anm. 31), Lib. II, § 31, S. 246–247. Zur Vorgeschichte des Topos siehe Hans van de Waal: The linea summae tenuitatis of Apelles. In: Zeitschrift für Ästhetik und Allgemeine Kunstwissenschaft 12, 1967, S. 5–32; Charlotte Kurbjuhn: Kontur. Geschichte einer ästhetischen Denkfigur. Berlin 2014, S. 61–64 und 83–85. Zur Feinheit der Linie siehe auch den Beitrag von K. Lee Chichester im vorliegenden Band. 41 Weiterführend zur Ambivalenz unsichtbarer Sichtbarkeit vgl. Carman (s. Anm. 10), S. 59–62 und 147–159. 42 Alberti (s. Anm. 31), Lib. II, § 39, S. 264–265. 43 Hierzu vgl. Alberti (s. Anm. 31), Lib. I, § 19, S. 226–227. 44 Alberti (s. Anm. 31), Lib. I, § 19, S. 226–229. Ähnlich vgl. Alberti (s. Anm. 31), Lib. III, § 52, S. 292–293. 45 Zum Verhältnis von Messgenauigkeit und Messsituation vgl. Holz (s. Anm. 15), S. 90.

278 Felix Jäger

haben. Während Cusanus einem humanistischen Milieu angehörte, das die Kenntnis künstlerischer Entwicklungen wahrscheinlich macht, rekurriert A ­ lberti explizit auf herausragende Florentiner Künstlerpersönlichkeiten.46 Maler wie Masaccio (1401–1428), Paolo Uccello (1397–1475) oder Piero della Francesca (ca. 1415–1492) bedienten sich einer diskreten Formensprache, die wahlweise auf technische Schwächen, religiöse Empfindsamkeit oder didaktische Überlegungen zurückgeführt worden ist. Schematisierte Architekturen, sterile Figurenmodellierungen oder sichtbar hervortretende Konstruktionslinien seien Ausdruck einer tastenden Natur­nachahmung. Unter dem Gesichtspunkt der Genauigkeit erweisen sich diese jedoch im Gegenteil als Kennungen eines hoch sensiblen Bewusstseins für die Eigensemantik künstlerischer Gestaltungsmittel, deren nachahmende und verfremdende Effekte im Bild selbst verhandelt werden. Natürlichkeit und Genauigkeit sind darin in ein Spannungsverhältnis gebracht. Die kaufmännische Kultur der Zeit hat auch hier Resonanz gefunden. Das von Masaccio in Santa Maria del Carmine in Florenz ausgeführte Fresko Der Zinsgroschen (1425–1428) ↗ABB. 2 gilt als eines der ersten Werke, in dem die Perspektive konsequent zur Anwendung kommt. Masaccios innovative Komposition steht dabei im Zusammenhang einer fiskalischen Reform, die auf eine exaktere Bemessungsgrundlage absah. Das im Auftrag des wohlhabenden Kaufmanns Felice Brancacci (ca. 1382–1440) entstandene Werk zeigt in drei Einzelepisoden eine Szene aus dem Matthäus-Evangelium, in dem Christus zur Abgabe der Tempelsteuer mahnt.47 Im Unterschied zur biblischen Vorlage ist das Gespräch mit dem Zöllner und den Jüngern in eine toskanische Landschaft verlegt, die sich hinter den Protagonisten erstreckt. Das ungewöhnliche Sujet steuerlicher Gerechtigkeit nimmt hierin das 1427 kompilierte Grundbuch (catasto) vorweg, das die Einführung einer gestuften Einkommenssteuer vorbereiten sollte.48 Die perspektivische Konstruktion des Freskos scheint die angestrebte Erhebungsgenauigkeit, die neben Einkommen und Geschäftsvermögen vor allem auf die Erfassung des Landbesitzes abzielte, optisch umzusetzen.49 Die Genauigkeit 46 Der italienischen Fassung von De Pictura ist ein Prolog an Filippo Brunelleschi vorangestellt, in dem Masaccio namentlich erwähnt wird. Alberti (s. Anm. 31), Prolog, S. 363–364. 47 Mt. 17, 24–27. 48 Maßgeblich hierzu Herbert von Einem: Masaccios ‚Zinsgroschen‘. Köln 1967, S. 31–32. In jüngeren Publikationen ist der Zusammenhang durch kirchenpolitische oder theologische Erwägungen relativiert worden. Vgl. Millard Meiss: Masaccio and the Early Renaissance. The Circular Plan. In: Millard Meiss (Hg.): The Painter’s Choice. Problems in the Interpretation of Renaissance Art. New York u. a. 1967, S. 63–81, hier S. 64; Jules Lubbock: Masaccio’s Brancacci Chapel Frescoes. In: Ders. (Hg.): Storytelling in Christian Art from Giotto to Donatello. New Haven, CT u. a. 2006, S. 205–225, hier S. 208–209; Alessandro Salucci: Masaccio e la Cappella Brancacci. Note Storiche e Teologiche. Florenz 2014, S. 75–76. 49 Zum Motiv der Genauigkeit im catasto siehe David Herlihy, Christiane Klapisch-Zuber: Tuscans and their Families. A Study of the Florentine Catasto of 1427. New Haven, CT/London 1985, S. 13–15 und 161–169. Eine Kurzschließung von formaler Gestaltung und inhaltlicher Auslegung legt auch das Schattenwunder

Dialektik der Genauigkeit

279

2 Masaccio: Der Zinsgroschen, 1425–1428, Fresko, ca. 255 × 598 cm, Brancacci-Kapelle, Santa Maria del Carmine, Florenz.

der visuellen Inventur ist demnach durch die Künstlichkeit der Komposition garantiert: Die scharfen Kantenlinien der Tempelarchitektur sowie die kahlen Bäume des Mittelgrunds rekonstruieren das perspektivische Netz, dessen Fluchtpunkt auf dem Gesicht Christi ruht. Die exaktere Ermittlung des zu besteuernden Guts findet damit in Gott, der nach Cusanus die vollkommene Genauigkeit verkörpert, ihre Rechtfertigung.

Naturalisierung Sind die visuellen Strategien der Genauigkeit bei Masaccio noch explizit auf eine Aussageabsicht bezogen, fordert die Perspektive zunehmend eine Tatsächlichkeit ein, die ihre Konstruktionsprinzipien den Wahrnehmungsgegenständen selbst zuschreibt. Absolute und äußere Genauigkeit drohen in ein Ungleichgewicht zu geraten, das die künstliche Präzision geometrischer Figuren und mathematischer Relationen als eigentliche Naturwahrheit erscheinen lässt. Ihr Verfremdungseffekt besetzt dabei das Wahrheitspostulat der Ähnlichkeit und wird als Wirklichkeit verkannt . Diese sich anbahnende Inversion des Genauigkeitsbewusstseins ist in der kunsttheoretischen Aufarbeitung der Frührenaissance durch Giorgio Vasari (1511–1574) an der Kapellenstirnseite nahe, in dem die Einführung einer einheitlichen Lichtquelle die im Schattenwurf verortete Heilwirkung erst sinnfällig macht.

280 Felix Jäger

exemplarisch zur Sprache gebracht: Während Masaccio als Stammvater der maniera moderna firmiert, dessen Werke der Gegenwart zur Nachahmung empfohlen werden,50 changiert das Urteil über die Kunst des frühen 15. Jahrhunderts zwischen Sterilität und Lebendigkeit. Paolo Uccello habe einen trockenen, schwerfälligen und mühseligen Stil entwickelt, der „die Dinge übertrieben genau wiederzugeben“51 versuche. Die Offenlegung ihrer konstruktiven Entstehungsbedingungen bringe seine Bilder um ihre Natürlichkeit, sodass „Gewissheit in Ungewissheit“52 verkehrt werde. Piero della Francesca, dessen Traktate die Mathematik der Perspektive perfektionierten, habe dagegen „akkurat jedes Detail wiedergegeben und […] mit viel Anmut verkürzt“.53 Die verhandelte Kategorie der Anmut ( grazia) ist hierbei durch das Zusammenfallen von Gestaltungsstrenge und Mühelosigkeit charakterisiert: Umso mehr Kunstfertigkeit investiert werde, desto natürlicher erscheine die bildliche Repräsentation. Unter dem Aspekt der Genauigkeit ist umzuformulieren: Je geometrischer die Ausführung, desto anschaulicher offenbart sich die Natur. Das widersprüchliche Theorem einer nicht-mimetischen Naturwahrheit antizipiert damit die Rhetorik der Mühelosigkeit , deren Strategien den exakten Wissenschaften zum Durchbruch verholfen haben. Diese beruht auf der Annahme, dass sich Wahrheit intuitiv mitteile, während Unwahrheit aus künstlicher Verfremdung resultiere. Um glaubwürdig zu sein, muss der Forscher seinen Anteil an der Hervorbringung einer wissenschaftlichen Tatsache verschleiern. Er modelliert seine Ergebnisse dergestalt, dass sie den Eindruck der Selbstverständlichkeit erzeugen.54 Die von Cassirer unterstellte exakte sinnliche Fantasie scheint eben dieser Inszenierung aufzusitzen: Zugunsten einer vermeintlichen Selbstoffenbarung der 50 Zur Vorbildrolle des Zinsgroschens vgl. insb. Giorgio Vasari: Das Leben des Malers Masaccio aus San Giovanni di Valdarno (ital. Orig. 1568). In: Christina Posselt (Hg.): Giorgio Vasari: Das Leben des Masolino, des Masaccio, des Gentile da Fabriano und des Pisanello, übers. von Victoria Lorini. Berlin 2011, S. 23–47 und 81–111, hier S. 25 und 36–43; Rosanna Bettarini, Paola Barocchi (Hg.): Giorgio Vasari: Le Vite de’ Più Eccellenti Pittori Scultori e Architettori, Bd. 3 Florenz 1966–1979, S. 123–134, hier S. 125–126 und 129–132. 51 Giorgio Vasari: Das Leben des Florentiner Malers Paolo Uccello (ital. Orig. 1568). In: Hana Gründler, Iris Wenderholm (Hg.): Giorgio Vasari: Das Leben des Paolo Uccello, Piero della Francesca, Antonello da Messina und Luca Signorelli, übers. von Victoria Lorini. Berlin 2012, S. 17–35 und 99–126, hier S. 17; Vasari 1966–1979 (s. Anm. 50), S. 61–72, hier S. 61–62. 52 Vasari 2012 (s. Anm. 51), S. 19; Vasari 1966–1979 (s. Anm. 50), S. 63. 53 Giorgio Vasari: Das Leben des Malers Piero della Francesca aus Borgo San Sepolcro (ital. Orig. 1568). In: Hana Gründler, Iris Wenderholm (Hg.): Giorgio Vasari: Das Leben des Paolo Uccello, Piero della Francesca, Antonello da Messina und Luca Signorelli, übers. von Victoria Lorini. Berlin 2012, S. 43–57 und 127–154, hier S. 44; Vasari 1966–1979 (s. Anm. 50), S. 257–267, hier S. 269. Zur Gegenüberstellung von Uccello und Masaccio sowie Piero della Francesca anhand des Kriteriums der Mühelosigkeit (sprezzatura/facilità) vgl. Vasari 2012 (s. Anm. 51), S. 99; ders. 1966–1979 (s. Anm. 50), S. 63. 54 Zur Genealogie der Rhetorik der Mühelosigkeit in höfischen Präsentationsformen siehe James W. ­McAllister: Die Rhetorik der Mühelosigkeit in der Wissenschaft und ihre barocken Ursprünge. In: Helmar Schramm u. a. (Hg.): Spektakuläre Experimente. Praktiken der Evidenzproduktion im 17. Jahrhundert. Berlin 2006, S. 154–175, hier S. 164–166.

Dialektik der Genauigkeit

281

Natur wird die Gestaltungsarbeit des Künstlers verneint. Zugleich ist hierin der ambivalente Status naturwissenschaftlicher Bilder angesprochen, die ihren Gegenstand nur insofern zu erkennen geben, als sie ihn zurichten. Wie die Rhetorik der Mühelosigkeit beruht auch das Postulat der Abbildungstreue auf paradoxen Voraussetzungen, die im Prinzip der Disjunktion zusammengefasst worden sind: Ein Objekt wirke umso natürlicher, je künstlicher sein Bild hergestellt wurde.55 Cusanus und Alberti umkreisen eine Genauigkeitspraxis, die um gedankliche und gestalterische Distanz bemüht ist. Zwischen den Polen mimetischer und verfremdender Formeffekte wird ein Ausgleich angestrebt, der Extreme abzumildern sucht. Einerseits befördert absolute Ähnlichkeit eine Überwältigung des Betrachters, der durch nicht-mimetische Kennungen Einhalt geboten wird. Geometrische Figurationen sollen bildmagischen Vorstellungen entgegenwirken, die auf eine Realpräsenz des Abgebildeten abzielen, wie bei Ikonen und Wachsvoti. Während Alberti die Wirkkraft dieser Bilder in der Erzählung (historia) zu binden sucht, schreibt Cusanus unähnlichen Formen grundsätzlich eine höhere Wahrheit zu, die durch ein dialektisches Erkenntnisverfahren herauszudestillieren sei.56 Andererseits erweist sich hierin eine Mäßigung äußerer Genauigkeit: Geometrische Figuren werden als Konstruktionen verstanden, die gestalterisch bedingt sind und gedanklich über sich hinausweisen. Alberti bringt Einzelerscheinung und Darstellungskonvention in ein Spannungsverhältnis, das der Erfindung (inventio) und Gestaltlinie des Künstlers nicht-rationalisierbare Spielräume öffnet. Cusanus fasst die Produktivität der Unähnlichkeit in der Metapher eines Selbstporträts, dessen unvollkommene Genauigkeit für die Unerschöpflichkeit gestalterischer Möglichkeiten einsteht. Ein unähnliches Bild mache das Vermögen sinnfällig, „sich immer mehr und mehr ohne Begrenzung dem unerreichbaren Vorbild gleichzugestalten“, worin es „die Unendlichkeit in der Weise des Bildes“57 nachahme.58 Präzision ist das Werkzeug dieser Arbeit am Bild. Der Denkraum einer Gestaltungskraft, die sich unabschließbar in allen erdenklichen Formen präzisiert, stellt damit einen Erkenntnisprozess in Rechnung, der nicht nur auf technische Verfeinerungen absieht, sondern Ungenauigkeiten spielerisch ins Kalkül zieht. 55 Zum Prinzip der Disjunktion siehe Horst Bredekamp, Gabriele Werner: Bildwelten des Wissens. In: Dies. (Hg.): Bilder in Prozessen. Bildwelten des Wissens 1.1, 2003, S. 9–20, hier S. 15; Horst Bredekamp: In der Tiefe die Künstlichkeit. Das Prinzip der bildaktiven Disjunktion. In: Ders., John M. Krois (Hg.): Sehen und Handeln. Berlin 2011, S. 207–224, hier S. 216. 56 Allgemein zur Rezeption und Entmachtung des Bildparadigmas der vera icon bei Cusanus und Alberti vgl. Gerhard Wolf: Nicolaus Cusanus ‚liest‘ Leon Battista Alberti. Alter Deus und Narziss. In: Rudolf Preimesberger u. a. (Hg.): Porträt. Berlin 1999, S. 201–209. 57 Cusanus (s. Anm. 21), Cap. II, S. 112–113. 58 Hieran anschließend bestimmt Cusanus den Erkenntnisgehalt eines Porträts negativ als Mittel zur Einsicht in die Übergestaltlichkeit Gottes. Cusanus (s. Anm. 23), Cap. VI, S. 113–117.

ANHANG

Die AutorInnen Dr. Carolin Behrmann Kunsthistorisches Institut Florenz – Max-Planck-Institut, Minerva Forschungsgruppe „Nomos der Bilder“

Dr. Matthias Bruhn Humboldt-Universität zu Berlin, Abt. „Das Technische Bild“

K. Lee Chichester, M. A. Humboldt-Universität zu Berlin

Dr. Anne Dippel Institut für Kunst- und Kulturwissenschaft, Friedrich-Schiller-Universität Jena

Luisa Feiersinger, M. A. Humboldt-Universität zu Berlin, Abt. „Das Technische Bild“

Dr. des. Kathrin Friedrich Exzellenzcluster Bild Wissen Gestaltung. Ein interdisziplinäres Labor. Humboldt-Universität zu Berlin

Prof. Dr. Michael Heidelberger, i. R. Philosophisches Seminar der Universität Tübingen

Sara Hillnhütter, M. A. Humboldt-Universität zu Berlin, Abt. „Das Technische Bild“

Dr. Anita Hosseini Kunstgeschichtliches Seminar der Universität Hamburg und Mitglied der Forschungsstelle „Naturbilder“

Felix Jäger, M. A. Kunsthistorisches Institut Florenz – Max-Planck-Institut, Minerva Forschungsgruppe „Nomos der Bilder“

Dr. des. Dennis Jelonnek Freie Universität Berlin, Kolleg-Forschergruppe „BildEvidenz“

Dr. des. Franziska Kunze Stipendienprogramm "Museumskuratoren für Fotografie", Alfried Krupp von Bohlen und Halbach-Stiftung

Christina Landbrecht, M. A. Programmleitung Kunst, Schering Stiftung Berlin

Dr. Lukas Mairhofer Institut für Quantenoptik, Quanteninformation und Quantennanophysik und Institut für Philosophie, ­Universität Wien

Sandra Rendgen, M. A. Freie Autorin, Berlin

Dr. Nina Samuel Institut für Philosophie und Kunstwissenschaft der Leuphana Universität Lüneburg

Prof. Dr. Birgit Schneider Professur für Medienökologie, Universität Potsdam

Verena Straub, M. A. Freie Universität Berlin, Sonderforschungsbereich „Affective Societies“

Susanne Thürigen, M. A. Ludwig-Maximilians-Universität, ENB-Nachwuchsforschergruppe „Vormoderne Objekte“

Prof. Dr. Gabriele Werner Weißensee Kunsthochschule Berlin

Bildnachweise Bruhn: Cutting Edges 1

© 2017 Ric et al, https://doi.org/10.1371/journal.pone.0180773

Bruhn: Urgewichte und Naturmaße 1 2 3 4 5

Image Courtesy BIPM The Commonwealth Scientific and Industrial Research Organisation of Australia Archiv DTB Foto: Peter Cox, Courtesy AKINCI Gallery, mit frdl. Genehmigung von Cevdet Erek epd-Bild/Paul Van Schie

Landbrecht und Straub: Präzision ins Bild gesetzt 1+2 3 4 5 6

Foto © Eric Brinkhorst/MESA+ Institute for Nanotechnology Foto © Sandia National Laboratories Evan Hill: Beanstalk. The History of Miniature Precision Bearings, Inc. 1941–1966, S. 59. Archiv DTB Foto © Centre for Advanced 2D Materials (CA2DM) at the National University of Singapore

Friedrich: Scalpel-like precision 1 2 3 4

www.accuray.com/sites/default/files/vpk_assets/cyberknife_suite.jpg doi: 10.1120/jacmp.v15i1.4095 doi: 10.1186/1748-717X-6-157 doi:10.1177/153303461000900502

Kunze: Im Bild fixiert 1 2 3 4+5

Royal Photographic Society / Science & Society Picture Library Autorin Historisches Archiv der Psychiatrischen Universitätsklinik Heidelberg Autorin

Samuel: Bilder als Werkzeuge 1–3 © Rainer Kaufmann. Reprinted with permission of author. 4 Aus: David Baddeley, Mark B. Cannell, Christian Soeller: Visualization of Localization Microscopy Data. Microscopy and Microanalysis 16, 2010, Heft 1, S. 64–72, hier S. 71.

Hillnhütter: Amorphe Punktwolken 1–3 Internationaler Wolken-Atlas, [hrsg. v.] Hugo Hildebrand Hildebrandsson, Albert Riggenbach, Leon-­ Philippe Teisserenc de Bort, Gauthier-Villars et Fils, Paris 1989 Fig.3, 18, 26. 4+5 Carl Koppe: Photogrammetrie und Internationale Wolkenmessung. Braunschweig 1896, Ausschnitt Fig. 1, 6 Dietrich Möller [Hrsg]: Beiträge zum Carl Koppe-Gedächtniskolloquium des Institut für Vermessungskunde und des Lehrstuhls für Photogrammetrie und Kartographie der Technischen Universität ­C arolo-Wilhelmina zu Braunschweig am 13. November 1981, Ausgabe 20 von Reihe E-Geschichte und Entwicklung der Geodäsie, Bayrische Akademie der Wissenschaften, S. 72

Chichester: Von Tupfen, Rissen und Fäden 1

Ausst.-Katalog Francis Alÿs: “Sometimes doing something poetic can become political and some­ times doing something political can become poetic“, Galerie David Zwirner, New York 2007 2+5 SLUB Dresden 3 Bayerische Staatsbibliothek München, 2 L.lat. 126, 7 4 Herzog August Bibliothek Wolfenbüttel: P 430.2° Helmst., S. 1490 6 Staatsbibliothek Bamberg, JH.Ma.f.5. Foto: Gerald Raab

Bildnachweise

287

Thürigen: „…so dreht sich das Rad wie der Himmel” 1+2 3 4 5 6 7 8

© KHM-Museumsverband © Historisches Museum Frankfurt, Inventar-Nr. C08083 © KHM-Museumsverband Universitätsbibliothek Erlangen (Sign. H62/B 362) Frontispiz zu Pietroadamo de’Micheli: Dichiaratione de l’Horologio di mantova, Mantua 1547 [­geschrieben 1475] Museum Schloss Wilhelmshöhe, Kassel Archiv DTB

Feiersinger: Präzisions- oder Illusionsmaschine 1 Paramount Home Entertainment 2 https://www.youtube.com/watch?v=GQDqC1rr3rY&t=22s (Aufruf 09/2016) 3+4 Paramount Home Entertainment

Werner: Präzise Technik – Genaue Handarbeit 1–4 Courtesy of the artist.

Jelonnek: Präzise Montage 1–5 @ Eames Office LLC


Hosseini: Zufall durch Präzision 1 2 3

Stéphane D’Alu (www.alux.fr) Margarete Roeder Gallery © John Cage Trust, Foto: © bpk / Bayerische Staatsgemäldesammlungen / Sibylle Forster

Bruhn: Harndruck 1 2 3

Parma, Biblioteca Palatina, Inc. 317 Ausst.-Kat. Prints and the Pursuit of Knowledge in Early Modern Europe. Harvard Art Museum / Block Museum of Art, 2010/11, hg. von Susan Dackerman, New Haven/London 2011, S. 56 Autor

Behrmann: Bildlogik der Vagheit 1 2

Aus Adriano Prosperi: Giustizia bendata. Percorsi storici di un’immagine. Turin 2008, S. 176 Foto © 2017 Matthias Bruhn

Rendgen: Selektive Genauigkeit 1–3 Courtesy École nationale des ponts et chaussées

Schneider: Prägnanz als Kriterium für die Präzision diagrammatischer Bilder 1 2

Archiv DTB Courtesy Pierogi Gallery and the Lombardi family. Foto: John Berens

Jäger: Dialektik der Genauigkeit 1 2

Herzog August Bibliothek: 413 Theol. 2°, 85 Archiv DTB

Personenregister A., Anita, (‚Forschungskind‘) Alamanni, Luigi

Descartes, René Dewey, John

Alberti, Leon Battista Alÿs, Francis

64f.

168 101, 138ff., 269ff.

Anna von Österreich, Erzherzogin

161

Dürer, Albrecht

Epple, Moritz

163 27, 29

Erek, Cevdet

Bachelard, Gaston

222

Euklid

125f., 132, 222

Baddeley, David

201, 205

Bertin, Jacques

260

Bessel, Friedrich Wilhelm Blumenberg, Hans Bodeker, Jost

154

88

Boll, Timo

189

221 245f.

270

234 116

Galison, Peter

220, 270

Galton, Francis

110f.

61

d’Alembert, Jean le Rond 220

42

Griesemer, James R.

75

76 34

269ff. 137 117

246

Hilbert, David

116

Holbein, Hans

142ff.

Husserl, Edmund

142–144

Dajan (Dayan), Mosche

158

Heckscher, William S.

31, 190

Cusanus (Kues), Nicolaus

115

154, 169

Hauschild, Thomas

240

Daston, Lorraine

31

Hacking, Ian

269f., 280

Chaplin, Charlie

Curio, Valentin

Fludd, Robert

Goethe, Johann Wolfgang

215ff.

Conolly, John

162

Gilbert, Horace

211f.

Bussi, Giovanni Andrea Cage, John

Flötner, Peter

Garzoni, Tommaso

156, 163

Burns, Jehane R.

Cassirer, Ernst

80, 87, 221

Fusenig, Thomas

Breidbach, Olaf Bürgi, Jost

240

Fleck, Ludwik

Freudenthal, Hans

278

112f.

Huygens, Christiaan Jamnitzer, Wenzel Jankau, Ludwig

163, 165

148

Fry Richardson, Lewis

Brancacci, Felice Bucher, André

14, 104, 119, 138, 141, 151

Ferdinand II. von Österreich

Fraunhofer, Joseph

242

165

Bohr, Niels

14, 119f. 23f.

Fiera, Battista

74

Bernstein, Elmer

137

Field, Judith Veronica

78–81

Bergson, Henri

201ff.

116, 133

el-Tell, Abdullah

Avogadro, Amedeo

Cicero

138ff.

Einstein, Albert

266

August d. J. von Braunschweig-Lüneburg

Bacon, Francis

60f., 68 89

Eames, Charles und Ray

116, 119, 125, 243

Arnheim, Rudolf

Diamond, Hugh Welch Drevermann, Hans

137

Aristoteles

14, 121ff., 250

210

153f. 149 -151

61

Jaquet-Droz, Pierre

174, 176

234, 246

Personenregister

289

Johannes von Weingarten, Abt Kant, Immanuel Karl V. (Kaiser)

155f., 161, 163

Kaufmann, Rainer Kazma, Ali

163

118, 132, 134 69ff.

243f. 120, 148

Ketham, Johannes von Köhler, Wolfgang Koppe, Carl

Mielich, Hans

229, 232

259f.

197-112

Kracauer, Siegfried

249ff.

62f.

Moran, Bruce T.

154f.

Morris, Alex Joe

42–44

Morrison, Philip

205, 208, 210

Mumford, Lewis

31

München, Niclaus 78, 181, 183

151

161

Mollison, Theodor

Kepler, Johannes

104f.

Minard, Charles Joseph

189ff.

Kelsen, Hans

Meydenbauer, Albrecht Michelangelo (Buonarotti)

Neto, Castro

158f.

37, 45

Kubrick, Stanley

26

Neumann, John von

Kuhn, Thomas S.

125, 224

Neurath, Otto

259

Newton, Isaac

88, 126, 133, 234

Land, Edwin

201ff.

Langenbucher, Kaspar Latour, Bruno

158-160

222

Lautensack, Heinrich Leistner, Achim

140, 143

27f.

Leksell, Lars

140, 262f., 269f., 241

111f.

Lumière, Gebrüder

176, 178, 181

126ff.

Martin, Rudolf Masaccio

146, 154, 161

30f. 158

Piccolomini, Enea Silvio Piero della Francesca Pinder, Ulrich Plinius d. Ä.

270 278, 280

229, 231f. 251, 259ff.

143f. 83, 147

Rasmussen, Nicolas Regiomontanus Reinhold, Johann

133 173f., 178ff. 161, 163, 165

Robinson, Arthur Roll, Georg

157

239

76

156 157

Rheinberger, Hans-Jörg

242

Metzger, Jeremias

Mazzola)

Pütter, Johann Stephan

190, 197

Méliès, Georges

155, 157

167

Polanyi, Michael

151, 278–280

Mauthner, Fritz Mayr, Otto

177f.

62f.

Maurice, Klaus

Paracelsus

Playfair, William

Marey, Etienne-Jules

153f., 170

Philipp III. (Spanien)

265f., 167

Lorenz, Edward N.

Marx, Karl

174, 176

118f., 121

Mach, Ernst

Novalis (Friedrich von Hardenberg)

Parmigianino (Girolamo Francesco Maria

32, 223

Leschot, Jean-Frédéric Lombardi, Mark

270

Ottheinrich von der Pfalz

149, 151

Locke, John

238f.

Nicolaus V. (Papst)

Ostwald, Wilhelm

Leonardo da Vinci Lesák, František

Niclaes, Hendrick

115f., 121, 135

49f.

Lencker, Hans

113

252

74, 221–223

290 Personenregister

Saussure, Ferdinand de Schaffner, Martin Schmieder, Friedrich

59ff.

243f.

Schmitt, Carl Schneider, Carl

64-66

Schöner, Andreas

156

Schulze, Holger

219

Scorsese, Martin

173ff.

Seifert, Hans-Ulricht Solis, Virgil

238

165f.

149

161

Spencer, Herbert

27

Star, Susan Leigh

75

Stieglitz, Alfred

201-203

Straet, Jan van der

168f.

Terzio, Francesco

163

Toscanelli, Paolo

270

Turriano, Juanelo

156

Uccello, Paolo

278

Ullrich, Anton

35

Vinci, Leonardo da s. Leonardo Virilio, Paul

78

Voigt, Johann Heinrich Warburg, Aby M.

117

269

Wertheimer, Max

259

Whipple, John Welsh Whitfield, Willis

110

38ff.

Wilhelm IV. (Hessen-Kassel) Wöhler, Friedrich Wolff, Christian

234 239

Ziegler, Günther M.

151

155f.

Orts- und Sachregister Abgleich

Auge, Augenmaß

24, 56, 76, 108, 212, 231

Ablauf

11, 31, 43, 45, 154, 173, 176ff.

Abstraktion, abstrahieren

100, 107, 112,

116ff., 208, 215, 262

Abweichung

154ff., 169, 190

Augsburg

Ausrichtung, ausrichten

14, 16, 27, 30, 32, 55f., 85, 99,

108ff., 120, 124, 152, 189, 224, 239, 241, 272

Accuray Inc.

72ff., 102, 107, 140, 146ff.,

164, 168, 193, 206f., 220, 235, 252ff., 259ff., 276f.

50

51, 55, 104f., 218f.

Automatik, Automatisierung/Automation, Automatentheorie

17, 54, 174, 190ff, 207,

219, 235, 244

Aequilibrium/Equilibrium akkurat, Akkuratesse

241f.

Avogadro-Projekt

52f., 124, 195, 259, 263,

Ähnlichkeit

27ff.

14, 50, 54, 144, 167, 272ff.

Äquivalent, Äquivalenz

280

31, 238, 242

Alchemie s. Chemie

Balance s. Gleichgewicht

Aleatorik

Beherrschung, Beherrschbarkeit (Macht)

219, 221, 226

Algorithmus

72ff., 85ff., 189, 225

Analog (Medien) Analogie

29, 108, 155ff., 215, 244, 265, 281

176ff., 234

Behutsamkeit

122, 132ff., 144, 176, 211, 232

Beobachtung

Angemessenheit

124, 240, 272ff.

120, 126f., 129, 146, 155, 195, 222, 229, 234, 260

Annäherung, s. Näherung Anpassung (vgl. Übereinstimmung)

Berechnung s. Rechnen 14, 30,

43, 52, 81, 149, 176, 180 -182, 194, 203, 234

Ansbach

53, 55,

Anthropologie

16, 59ff., 83ff., 132, 191

14f., 31f., 121f., 126, 138, 143f., 148, 250

Apparat, apparativ

13ff., 66, 86, 89, 99ff.,

173ff., 206ff., 220, 222

Arbeit, Arbeiter

15, 26f., 32, 37, 40ff., 50, 53,

83ff.,106, 109f., 128, 133, 140ff., 158ff., 176ff.,

Artefakt

14, 32, 43, 100f., 182, 205, 271, 278f. 72ff.

Astrologie Astronomie

Biologie

69, 72ff., 91, 125, 132, 153

Buchdruck, Drucktechnik

16, 231, 234

Cedars-Sinai Medical Center

49

15, 24ff., 100, 112, 125, 153,

178ff., 205ff., 234, 266

Conseil Européen pour la Recherche Nucléaire (CERN) Computer

31, 85ff.

11, 51f., 54f., 81, 85f., 113, 184ff.,

196, 211, 234

158ff.

Coup d’œil

31, 104, 111, 120, 125, 154, 262

24, 27, 32, 85, 87, 90, 141, 143

Aufzeichnung

12f., 50ff., 69ff.,

229, 270, 272

Chemie, Alchemie

189ff., 205f., 212ff., 234f., 281

Architektur

271 134, 269

220, 235

Bildpraxis

266

Atom

Bernkastel-Kues Bestimmtheit

Bildgebung, bildgebend

160

Anschlussfähigkeit (i. S. v. präzise)

Antike

192 14, 16, 24ff., 70ff., 83ff., 97ff.,

12, 30, 32, 51, 55,

(Registrierung)

1, 72f., 84, 86, 92, 104

263

Deckung, deckungsgleich s. Übereinstimmung Design, Industriedesign Diagramm 259ff., 274

26, 30, 48, 259

12, 15, 76, 86, 207, 214, 232, 250ff.,

292 Orts- und Sachregister

Differenz (Unpassung, Missverhältnis; s. auch Abweichung)

16, 78, 112ff., 120,

Fluchtpunkt

104, 107, 277, 279

Fotografie

16, 18, 37, 59ff., 97ff., 152, 178,

181ff., 201ff., 221, 233f., 259

156, 180 16, 51ff., 132, 137ff., 192

Differenzierung

Diskrepanz s. Differenz Dispositiv

111f.

Frühneuzeit

15, 140ff., 153ff., 245, 269ff.

Gaithersburg, Maryland

50

Disziplin (Disziplinierung)

32, 34, 41ff., 46,

90, 109, 118ff., 220, 239, 250

Eames Office

Fraktal

12ff., 23ff., 41, 52, 55, 57, 60, 70, 73, 83ff., 101ff.,

201ff.

Effizienz

40, 81, 91, 192, 256

Eichung

24, 30, 151

Eindeutigkeit, eindeutig

25

Genauigkeit (auch zusammengesetzt) 116, 120, 128, 144, 151, 153ff., 173f., 180ff., 189ff., 211, 215ff., 229, 239, 247, 249ff., 261, 269ff.

129, 143, 229, 235,

Geodäsie

100f., 104, 107, 271

Geometrie, geometrisch, Geometrielehre

261, 277

Einheit (Vereinheitlichung, Einheitlichkeit) 23, 30, 44, 59, 63, 89, 109, 119, 131f., 232, 273f.

Einigung s. Konvention Einteilung

Gesetz (Recht)

30, 33, 217 53, 55,

70, 74ff., 140, 148, 217, 225f., 241, 274

Evidenz

23, 130, 238ff.

Gesetzmäßigkeit (s. auch Naturgesetz) 110, 152, 220, 241f., 260, 266, 274f.

Gestalt, Gestaltsehen

16, 205, 238, 262, 267 15f., 19, 26, 34, 62, 78, 83f., 115ff.,

151, 153ff., 181, 192, 196, 211, 221, 237, 240f., 252, 254, 269ff.

80, 112, 148, 250,

259ff., 273

Gestaltung

12, 17f., 26f., 36, 37ff., 71, 146, 163,

190, 203ff., 229, 235, 245, 262, 271ff.

Experiment, Experimentalsystem

14, 17,

Gewicht

23ff., 124, 154, 237, 241, 271

25, 31, 34, 63, 73f., 76, 83ff., 124ff., 145f., 215ff.,

Gewissenhaftigkeit

233f., 250, 260, 271

Gleichgewicht (Ausgleich)

Expertise

27f., 91, 165, 168

Farbe (auch Kolorierung)

12, 53f., 72f., 127,

260, 276

Farbkodierung

Gleichheit (s. auch Abgleich) Gott, göttlich

129, 272ff.

123, 125, 144ff., 166f., 238, 273f.,

Gotthardtunnel

54, 229, 232, 254

14f., 74, 78, 90, 108, 112, 120, 124, 197

104ff., 118, 149, 212f., 215, 250, 276f. 271, 278f.

101

Grafik (auch Computergrafik)

11, 74, 140,

233f., 249ff., 259ff.

72f., 173ff., 189ff., 201ff.

Fläche, flach (Bild‑, Schnittfläche) Florenz

237ff., 80, 237,

279

Fertigung s. Produktion Film

41, 196

279

130, 137, 184, 193f., 212f., 229ff., 245, 253ff.,

Fehler

14, 23,

238ff., 250, 274ff.

Episteme (Wissen), Epistemologie

Exaktheit

(nicht-euklidische, s. Fraktal)

26, 30, 36, 51f., 54, 57, 100ff., 116ff., 137ff., 167,

Graphene Research Centre, National 12,

University of Singapore Grenzwert

17, 141

Großbritannien

263f.

37, 45

Orts- und Sachregister

293

Größe (physikalisch)

25f., 87f., 116, 128,

130f., 133f., 242f., 272f.

Gründlichkeit

Karte (Landkarte), Kartografie, Kartograph 15, 137, 235, 249ff., 260

14, 41, 196, 176

Gültigkeit, Geltung

19, 23f., 60, 68, 116, 129,

221f., 260, 274

Hamburg Hand

269

155f., 169 14, 109, 115, 126, 147, 167, 185f., 205,

210, 256, 261, 266

Komplexität

12, 83ff., 104, 110ff., 122, 151, 158,

165, 192, 235, 237, 254ff., 261ff.

197, 206, 211, 220, 240

Handwerk (Kunsthandwerk), -arbeit,

Kongruenz s. Übereinstimmung

15, 18, 26f., 49f., 137, 140ff., 156ff.,

177, 189ff., 229, 241, 249, 264

Harmonie, harmonisch

Konstante

23ff.

Konstruktion

125, 168, 232, 261,

14, 121, 132, 148ff., 180, 260,

274, 278ff.

Kontingenz (Kontingenzbewältigung)

272

Histogramm

76, 86ff.

Hochtechnologie

17, 49ff.

Kontrolle

45, 52, 57, 191, 193, 242

Konvention

191, 194, 207

Horizont, horizontal

104f., 208, 217f., 237,

26, 37, 81, 128f., 132, 221, 235,

251ff.

Koordination, Koordinate

243ff.

IBM, International Business Machines Corporation

Korrelation, korreliert 14, 19, 27, 30,

50, 63, 119f., 122, 141, 143, 178, 237, 241, 259,

119ff., 173, 207, 215, 229ff., 260, 266f. 44, 246f.

189f., 193 16, 30f., 234

Kunsthistorisches Museum Wien

Ingenieur, Ingenieurswissenschaft

16,

120, 205, 223, 249f. 11, 14f., 38,

Kyoto

153ff., 210, 220ff., 237ff., 259, 272

Lebendigkeit, Leben

86, 103ff., 174ff., 191, 194, 201ff.

Linie 11, 64, 66,

38, 56, 83, 115, 162, 165,

179f., 196, 203ff., 221, 234, 280

Lineal

137

Kalkül, Kalkulation s. Rechnen Kamera (vgl. Fotografie, Film)

15

Lesbarkeit

23, 25

89, 179, 186, 222,

234, 277, 279 -281

72, 75f., 83-85, 103, 108f., 113, 132, 135, 147ff.,

Internationales Büro für Gewichte und

29,

155ff., 162

Künstlichkeit, künstlich

Instrument, Instrumentenbau

Jerusalem

11, 29, 100,

KUKA (Keller und Knappich Augsburg), AG

14, 24, 69

173ff.

Maße (BIPM)

31, 57, 97, 177

Kreis, Kreisform, - rund, -bahn Kubus

261f., 265f.

Industrialisierung

53, 55, 104, 108,

217f., 224, 164, 267

211

Ideal, Idealität, idealtypisch

Identität, identisch

109,

112

Hochpräzision, hochpräzise

Illusion

Kassel Klarheit

29, 61, 65, 67, 83, 107, 130, 143ff., 191, 193,

-betrieb

245f.

Karlsruhe

256f.

33f., 85, 106, 147, 149 12, 29, 79, 100ff., 137ff., 207, 215, 217f., 241,

245, 262ff., 277

Linse

15, 18, 27, 100f., 105, 175, 207, 234

294 Orts- und Sachregister

Los Angeles

National Institute of Technology

49

Macht s. Beherrschung Malerei (Gemälde) Manipulation

(Gaithersburg)

143, 146, 152, 233, 245, 275 18, 26ff., 57, 85, 87,

113, 145, 151, 173ff., 190ff., 219, 241

Material, Materialität

137, 140ff., 168f., 179ff. (Film), 217, 219, 225 30, 85ff.,

99ff., 115ff., 140ff., 153, 238ff., 250, 271ff.

Max-Planck-Institut für Kernphysik Mechanismus, Mechanik

276ff.

Naturgeschichte

24ff., 40, 60, 72, 100ff.,

Mathematik, Mathematisierung

31, 16, 32, 34, 42, 45, 80, 85, 89f., 100, 112,

117, 120ff., 141, 145, 157, 196, 219ff., 232, 238ff.,

13, 24, 146, 179, 186, 241

Maschine, Maschinerie

Natur

Naturgesetz

32, 125, 222

130, 220, 270, 277

Naturwissenschaft, -kunde

46f., 115ff., 121f., 146, 220, 225f., 232, 234f.,

32

11f., 14f., 38, 43,

Näherung

14ff., 90, 141, 143, 154, 167, 225f.,

243, 252

Netz

220, 237ff.

Norm, Normierung

50, 54f., 61, 141, 145f., 174ff., 202f., 13, 40, 50ff., 60ff., 125, 229ff.

Meisterwerk, -stück; Meisterschaft

Messer

37ff.

12ff., 23ff.,

52ff., 62, 72ff., 83ff., 79ff., 101ff., 120, 128ff., 243, 160, 270ff. 70ff., 91, 102ff., 151, 224-226, 276

Metrik, metrisch (auch Photogrammetrie) 238f., 97ff., 101ff., 241, 243, 272

Meyrin

91

Modell

12 ,16, 35, 51f., 84, 86 -88, 125, 148f.,

57, 59,

Ordnung, Anordnung

30f., 72, 131ff., 207, 211,

217ff., 240, 242f., 250, 266

Papier

29, 62, 102, 137, 145ff., 213, 215ff., 233,

262

Paris

35, 59, 173, 252f.

Passung s. Anpassung Perfektion, perfekt s. Vollkommenheit Perspektive (Optik),

151, 168, 240, 242, 276, 278, 280 27, 34, 81, 84f., 89, 127, 148, 193, 215,

Perspektivkonstruktion

63, 100ff.,

138ff., 276f.

Philosophie

15, 17, 27, 76, 78, 86f., 112, 118,

126, 133, 147, 154, 215, 226, 241f., 269f., 274

266, 273

München

100, 106, 111f., 125, 138, 151f., 153, 160, 207,

197, 259, 265, 273

138ff., 153ff., 177, 189, 225, 229, 235, 237f., 241,

Muster

15, 25, 27f., 70ff., 84f., 89, 92,

Optimum, optimal, Optimierung

243

Messung, Messbarkeit, Maß

15f., 18, 67,

197, 220, 239, 242

234, 261f., 276, 278

29, 33, 149

Methode

138, 147, 149, 156, 160ff.

Optik, optisch

MESA+, Institut für Nanotechnologie, Mesotes

23ff., 50, 57, 61, 68, 120,

238, 243f.

Objektivität, Objektivierung 28, 31,

143, 154, 160, 193

Universität Twente

97, 148, 209, 260, 270, 279

Nürnberg

212, 234, 262, 265, 269

Medizin

15ff., 23f., 37,

273, 281

76, 122, 145, 153ff., 173ff., 192, 196f., 207, 211,

Medium

25

97, 161, 218

Physik

23, 26, 32, 35, 37f., 52, 54, 69, 73ff., 83ff.,

117f., 122ff., 153, 205, 219, 232-234, 273

Orts- und Sachregister

Planet

295

100, 155ff.

Planung

Renaissance s. Frühneuzeit

49ff., 137f., 250

Polaroid Corporation

201ff.

Positionierung, Platzierung

170, 182, 213, 219, 221, 225f., 243, 249f., 252, 61, 189, 206f.,

218f., 245, 252, 255

280

Reproduktion, Reproduzierbarkeit

Praktiken, Praxis (vgl. Bildpraxis)

12f., 16f.,

Rhythmus

112, 125, 178, 225f., 229, 231, 240, 251, 259, 261f.,

Roboter

269f., 272f.

Ryoan-ji-Garten

Produktion (auch Bild-, Kunstproduktion) 27, 35, 38ff., 51, 158, 174ff., 190ff., 205f., 208,

Prognose, Vorhersage

2, 31, 84, 88f., 108,

12, 18, 29,

Schloss Ambras bei Innsbruck

163

Schnitt, Zuschnitt, (zer)schneiden

Programm (Software), Programmierung

(Film), 193 (Film), 205 (Film), 207f. Schönheit, schön

11, 15, 30, 32, 50f., 56f., 169, 193

Psychiatrische und Neurologische Universitätsklinik Heidelberg Punkt, punctum

Schwankung 59, 65

13, 27, 31, 72f., 85, 88, 97ff.,

138ff., 185, 217, 219, 241, 264, 277

Quantenmechanik

Rationalisierung, Rationalität, ratio

32,

11, 3, 14, 18, 50, 52, 56f., 83ff.,

102ff., 118, 124, 149, 189, 238ff., 263, 276

Singapur

26f., 30, 92, 100, 104ff.,

26, 41, 64ff., 100, 112, 119 -

122, 133, 151, 160, 189, 221, 224, 239f., 247

Spiegel Spur

15, 54f., 65, 97, 112,

15, 19, 27, 30, 38ff., 116, 118-120, 132-

29, 41, 62, 81, 144, 169, 192, 195, 220, 28f., 153ff., 207, 234 26, 71, 80, 137, 186, 225f.

Stabilität, stabil

23, 26, 151, 176f., 231f., 240,

246

Standardmodell

86

Standarisierung, Standard

Regelmäßigkeit (Form), auch 131 ,148f., 169, 185

50, 57, 69, 250, 266

37f., 46

254, 276

121f., 133, 215, 253, 256, 266

134, 143, 222, 243f.

100, 109, 157, 239, 242, 247

Sorgfalt

234, 239, 197, 281

Unregelmäßigkeit

72, 233f.

23, 26, 35

Sichtbarmachung

Rechnen (Berechnung, Berechenbarkeit,

Regel, Regelung

149, 261

18, 24f., 125, 235, 246

Schwarzweiß Sèvres Sicherheit

25, 84ff.

Reduktion, reduziert

12f.,

15, 26ff., 50ff., 121f. (Kegel), 140ff., 156, 181

51, 55, 86, 89, 199, 219, 234

Reinheit

38, 40f.

Schärfe, scharf (vgl. Unschärfe)

32-34, 59, 71, 80f., 101-103, 141, 169, 261, 279

110, 115

Kalkül)

60, 110f.

215ff.

Sandia National Laboratories

210, 219, 221, 224, 232

Prüfung

17, 190f., 208, 211 51, 55, 57, 189ff.

Royal Society London

212, 259ff.

59, 81,

109, 165, 192, 223, 231, 254, 274

30f., 46f., 50, 57, 60, 65, 74-76, 81, 85, 93, 110,

Prägnanz

34, 74f., 78, 107, 111, 120, 132,

Repräsentation

23, 30, 38, 55, 57,

59, 74f., 81, 158, 176f., 195, 222, 251f., 272

Stift (Zeichnen) Stil

106, 137, 144ff., 215ff., 233

27, 29, 138, 183, 207ff., 221, 225, 235, 270, 273, 280

Strenge

14, 17, 280

296 Orts- und Sachregister

Strich

33, 137ff.

Struktur

Vermessung s. Messung

112ff., 174, 185, 203f., 205, 207, 210ff.,

215f., 218, 235, 242f., 250, 260, 265ff.

Visualisierung

60 14, 173ff., 190, 198f.

Vollkommenheit, Unvollkommenheit

125ff., 222-224, 280

Waage, wiegen, (ab)wägen

19, 24, 27, 74, 86, 88f., 92, 118ff., 138ff. 56, 176ff. (Film)

21ff.,

232, 240 (Kunst), 243f. (Automaten), 261

Thermometer

23, 128, 133

Treue, getreu

128, 252, 281

Wahrheit

24ff., 237ff., 272

15, 19, 84, 119, 123, 125, 270ff.

Wandelbarkeit, Wandel

13, 44ff., 49, 101,

118, 157, 246f., 259, 267, 270, 274

Werkzeug

15, 18, 27ff., 69ff., 100, 106, 133,

141ff., 156, 163, 223, 225, 263, 274, 281

Uhrwerk, Uhr (Zeitmesser)

Westjordanland

Umwandlung s. Übersetzung

Wiederholung

Unbestimmtheit, unbestimmt

70, 217, 225,

238ff.

Ungenauigkeit

137 14, 76, 106f., 178, 193, 205f.,

208, 211, 218, 224

Wien 16, 31, 120, 124, 133, 140, 189,

17, 83f., 87, 156, 161f.

Winkel

99ff., 117, 271

Wissen s. Episteme

256, 281

15-17, 28, 47, 54, 57, 73f.,

Ungleichgewicht s. Gleichgewicht

83, 87, 100, 109, 112f., 118, 130, 146, 165f.,

Unregelmäßigkeit s. Regelmäßigkeit

196f., 210, 221ff., 232, 250, 259, 263, 274

Unschärfe, unscharf

16, 18f., 52, 72, 78, 80,

Unterteilung s. Einteilung

Übereinkunft s. Konvention

Zufälligkeit, Zufall

Deckungsgleichheit, Kongruenz)

30,

56, 76, 105, 120, 127f., 261, 274 12, 25, 34, 45, 55,

73ff., 81, 89, 108, 176, 179, 186, 207, 224, 233, 254 69, 74, 91, 237ff., 261 92, 122, 125, 247, 256

Verarbeitung s. Arbeit Verfeinerung

Zeichnung, zeichnen

28f., 33, 101, 104ff., 137,

143ff., 160, 162, 174, 184, 186, 215ff., 233, 253f.

Übereinstimmung (auch

Vagheit, vage

12, 27, 30, 73, 110, 115,

272-274

65, 80, 128, 152, 237ff., 254

Verallgemeinerung

160

122, 124, 129ff., 161, 184, 217f., 238, 242, 249ff.,

Unvollkommenheit s. Vollkommenheit

Übersetzung, übersetzen

Würzburg

Zahl, zählen, Zähler

88, 93, 101, 137, 149, 175, 261

Urteil, urteilen

1,

14, 19, 26ff., 80, 124, 133, 185, 202, 241, 281

Teilung s. Einteilung (auch Kunst)

161

12, 49ff., 70ff., 85f., 89, 104, 49ff., 262

112, 148

Takt, Taktung

Theorie

28, 59, 66, 101, 104, 152, 167, 220

Victoria & Albert Museum, London

Surrey Country Lunatic Asylum, London

Tatsache

Verzerrung

14, 32, 151, 203, 271, 281

Zuverlässigkeit 254, 264

65, 110, 189, 215ff. 11, 15, 41, 81, 192, 231, 235,