234 80 2MB
German Pages 222 Year 2015
Johannes Lenhard Mit allem rechnen – zur Philosophie der Computersimulation
Ideen & Argumente
Herausgegeben von Wilfried Hinsch und Lutz Wingert
Johannes Lenhard
Mit allem rechnen – zur Philosophie der Computersimulation
DE GRUYTER
Gedruckt mit Unterstützung des Förderungs- und Beihilfefonds Wissenschaft der VG WORT.
ISBN 978-3-11-040117-2 e-ISBN (PDF) 978-3-11-040136-3 e-ISBN (EPUB) 978-3-11-040138-7 ISSN 1862-1147 Library of Congress Cataloging-in-Publication Data A CIP catalog record for this book has been applied for at the Library of Congress. Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.dnb.de abrufbar. © 2015 Walter de Gruyter GmbH, Berlin/Boston Umschlagsgestaltung: Martin Zech, Bremen Umschlagskonzept: +malsy, Willich Druck und Bindung: Hubert & Co. GmbH & Co. KG, Göttingen ♾ Gedruckt auf säurefreiem Papier Printed in Germany www.degruyter.com
Vorwort Wie verändert der Computer als Instrument die Wissenschaften? Die Thematik dieses Buches hat wesentliche Teile meiner Forschung während etwa eines Jahrzehnts bestimmt. Im Text wird man Spuren meines Werdegangs finden, der mich an der Universität Bielefeld von der Mathematik zur Wissenschaftsforschung, zum Zentrum für interdisziplinäre Forschung und weiter (dann auch institutionell) zur Philosophie geführt hat. Ein solcher Marsch durch die Disziplinen verschafft nicht nur intellektuell frische Luft, sondern scheint mir für eine Erforschung des Computergebrauchs auch angebracht, wenn nicht unerlässlich. Ich möchte mich ganz herzlich bedanken bei einer Reihe von Personen, die mir kollegial und freundschaftlich zugetan sind und die Entstehung der vorliegenden Arbeit in verschiedenen Stadien äußerst hilfreich unterstützt haben. An erster Stelle möchte ich meine akademischen Lehrer nennen: Michael Otte, der meinen Übertritt von der Mathematik zur Philosophie in vielerlei Hinsicht konstruktiv begleitet hat, und Martin Carrier, dessen Freundschaftlichkeit die kritische Wachsamkeit stets mit einschließt. Wesentliche Impulse verdanke ich dem Austausch mit Ann Johnson und Alfred Nordmann. Dank auch an die illustre Auswahl meiner Kolleginnen und Kollegen an der Abteilung Philosophie, am IWT und am ZiF der Universität Bielefeld. Schließlich ist es mir ein besonderes Vergnügen, meine Familie zu nennen, die mich so liebevoll nicht vergessen lässt, mit allem zu rechnen. Das Buch selbst ist aus einer Überarbeitung meiner Habilitationsschrift entstanden, die ich 2011 an der Universität Bielefeld eingereicht habe. Ich konnte von ausgesprochen genauen und gleichzeitig ermunternden Gutachten profitieren, wofür ich Martin Carrier, Alfred Nordmann und Ulrich Krohs Dank sagen möchte. Die wie immer zu schnell vergangene Zeit ist auch den tastenden Versuchen des Autors geschuldet, wohl das Manuskript, nicht aber sich selbst zu überarbeiten. Erfreut bin ich über die Aufnahme des Buches in die Reihe „Ideen und Argumente“, der ich hoffe Ehre zu machen. Gertrud Grünkorn und Christoph Schirmer jedenfalls haben dem De Gruyter Verlag bereits Ehre gemacht und mich konstruktiv und kundig begleitet. Wesentliche Teile einiger Kapitel wurden bereits in Vorträgen getestet. Teilweise habe ich Material umorganisiert und ergänzt, das bereits in veröffentlichten Aufsätzen Verwendung gefunden hat. Es flossen ein in Kapitel 1: Lenhard (2007), Küppers und Lenhard (2005b), in Kapitel 4: Lenhard (2009), in Kapitel 6: Lenhard und Otte (2010), in Kapitel 7: Lenhard und Winsberg (2010) und in Kapitel 8: Lenhard (2011). Bielefeld und Schifferstadt, im Herbst 2014
Inhalt Einleitung
Teil I:
1
Ein neuer Typ mathematischer Modellierung
Experiment und Artifizialität 15 15 . Simulation und Experiment . Theoretischer Charakter 18 . Ein erstes Experiment 21 25 . Explorative Kooperation . Instabilität und instrumentelle Komponenten . Simulation und diskrete Modelle 32 34 . Autonomie und Artifizialität
27
Visualisierung und Interaktion 38 . Funktionen der Visualisierung 39 42 . Einsicht in komplexe Dynamik . Kraft und Geschwindigkeit 45 . Beispiel: Formation von Galaxien 47 51 . Zwischenfazit . Beispiel: ein Hurrikan 53 . Verstärkung und Erweiterung 56 59 Plastizität 60 . Plastizität und Spezifizierung . Artifizielle Neuronale Netzwerke 63 . Finite Differenzen 66 . Zelluläre Automaten 69 . Plastizität und strukturelle Unterbestimmtheit . Das Dilemma der Plastizität 75 . Fazit: Plastizität und Simulation 80
73
Epistemische Opazität 82 . Sintflut bei IBM 84 . Die überraschende Kreation eines goldenen Drahtes . Schmiermittel zwischen fest und flüssig 92 . Überraschung, Kontrolle und die Komplexitätsbarriere
89 94
VIII
. . .
Inhalt
Simulation als Substitutionsprogramm 96 100 Epistemische Opazität Intelligibilität – instrumentbedingte Verschiebung
Ein neuer Typ mathematischer Modellierung 112 . Mehrdimensionalität . Neuheit? 114 . Konvergenz mit Ingenieurswissenschaften
Teil II:
106
111
118
Begriffliche Verschiebungen
Lösung oder Imitation? 125 128 . Typologie und Pioniergeschichte . Kontroverse 131 . Atmosphäre: Gesetze oder Muster? 134 136 . Konsolidierung durch Kombination . Alles nur Imitation? 142 Validierung und Grenzen der Analyse 145 146 . Beweis und Verifikation . Komplexität, Verifikation und Validierung . Artefakte 150 152 . Abstufungen . Holismus 156 . Pseudo-Modularität 158 . Kludging 160 . Validierung von Klimamodellen 162 . Modellvergleich 165 . Modell-Pluralismus 168 . Pattern Match oder: Synthese statt Analyse . Die Kehrseite der Emergenz 170 . Validierung und Technologie 171
Teil III:
148
169
Fazit und Ausblick
Epistemologie und Simulation – Fazit und Ausblick . Modell als Welt? 178 . Wiederbelebung und Umkehrung 183
175
Inhalt
Literatur Namenindex Sachindex
191 206 210
IX
Einleitung Mit was kann man rechnen? Die Frage ist nicht neu – bereits im Altertum wurden astronomische Phänomene mathematisch behandelt. Sie erhält eine besondere Brisanz mit der Entstehung der neuzeitlichen Wissenschaft. Denn diese wird oft in Verbindung gebracht mit der Einsicht, dass die Bewegungen auf der Erde mathematischen Regularitäten folgen (Galilei), und dass sich sogar universelle Naturgesetze formulieren lassen, die zwischen der Physik des Himmels und der Erde keinen Unterschied machen (Newton). Etwas mathematisch zu modellieren und auf diese Weise berechenbar zu machen, bildete ein wesentliches Moment bei der Entstehung der neuzeitlichen Wissenschaften.¹ Die Computersimulation schließt hier an und liefert neue Rezepte, um mit allem zu rechnen. Setzt die Computersimulation bestehende mathematische Modellierungsweisen mittels neuer Instrumente – dem digitalen Computer – einfach fort? Oder läuft sie auf eine Transformation mathematischer Modellierung hinaus? Diese Fragen zu beantworten unternimmt das vorliegende Buch. Bildhaft ausgedrückt ist die Neuheit der Simulation eher eine der Rezeptur als der Zutaten.Wer sich aber auf neue Rezepte einlässt, der muss unter Umständen mit allem rechnen. Darüber hat bereits Lichtenberg räsoniert, wenn er in eines seiner Sudelbücher einträgt: Wie viel Ideen schweben nicht zerstreut in meinem Kopf, wovon manches Paar, wenn sie zusammenkämen, die größte Entdeckung bewirken könnte. Aber sie liegen so getrennt, wie der Goslarische Schwefel vom Ostindischen Salpeter und dem Staube in den Kohlenmeilern auf dem Eichsfelde, welche zusammen Schießpulver machen würden.Wie lange haben nicht die Ingredienzen des Schießpulvers existiert vor dem Schießpulver! (Lichtenberg, Sudelbücher, K 308, Bd. II, S. 453 f.)
Freilich gibt es auch viele Rezeptvariationen, die kaum der Rede wert sind. Wie explosiv – im übertragenen Sinne – ist die Computersimulation? Diese Frage schlüssig zu beantworten erfordert eine philosophische Untersuchung, die sowohl aktuelle Formen wissenschaftlicher Praxis der Computermodellierung sondiert, als auch die historische Dimension mathematischer Modellierung mit einbezieht. Nur so können die philosophisch interessanten Kontinuitäten und Differenzen herausgearbeitet werden. Die hier vertretene Kernthese lautet, dass die Computerund Simulationsmodellierung einen neuen Typus mathematischer Modellierung bildet.
Die klassischen Darstellungen von Koyré (1968), Dijksterhuis (1956) oder Burtt (1964) machen einen Standpunkt stark, der die Mathematisierung als zentrales Merkmal der neuen Physik ansieht.
2
Einleitung
Diese These beinhaltet eine zweistufige Aussage. Erstens besagt sie, dass Simulation in einem philosophisch relevanten Sinne neue Aspekte aufweist und zweitens, dass diese neuen Aspekte nicht nur nebeneinander stehen, sondern so miteinander kombiniert sind, dass sie die Rede von der Simulation als einem ‚Typ‘ rechtfertigen. Beide Bestandteile der These sind in der Wissenschaftsphilosophie umstritten. Teils wird der philosophische Neuigkeitswert überhaupt verneint, teils werden einzelne Gesichtspunkte als Charakteristika hervorgehoben, die aber – so meine These – erst in Kombination den eigentlichen Typus zeigen. Die verbreitete Skepsis gegenüber dem Neuigkeitswert rührt zu einem Gutteil von einer Fehlinterpretation her. Ihr gilt der Computer als logisch-mathematische Maschine, die Tendenzen zu Mathematisierung und Formalisierung lediglich zu verstärken scheint. Wenn man die erstaunliche Rechengeschwindigkeit als das hauptsächliche Bestimmungsmerkmal des Computers ansieht, so gerät von vorne herein die philosophisch relevante Neuheit der Simulationsmodellierung aus dem Blick und eine These der Art ‚Alles beim Alten, nur schneller und mehr‘ liegt nahe. Ein solcher Standpunkt aber würde das transformatorische Potential der Computermodellierung verkennen. Seine Verbreitung erklärt sich teilweise aus der Anwendungshistorie des Computers als wissenschaftliches Instrument. Auch wenn er eine wohl beispiellose Verbreitungsrate aufweist und sein Einsatz heute in (erstaunlich) vielen Wissenschaften zu einer Selbstverständlichkeit geworden ist, stellte sich die Situation in den Anfangsjahrzehnten ganz anders dar. Zur Pionierzeit des Computers sind eine Reihe von Arbeiten entstanden, die oftmals den Grundstein legten zu den später in allgemeinen Gebrauch gekommenen Simulationsverfahren. Dazu zählen die Monte-Carlo Methode (Richtmyer und von Neumann 1947, Metropolis und Ulam 1949) und deren Cousin, die MarkovKetten-Monte-Carlo-Methode (Metropolis 1950), die zellulären Automaten (Rosenblueth und Wiener 1945, von Neumann 1951, basierend auf Ulams Anregung), ebenso wie die artifiziellen neuronalen Netzwerke (McCullough und Pitts 1943), oder die finite-Differenzen- und finite-Elemente-Methode. Diese Beiträge waren eher programmatischer Natur und thematisierten Entwicklungsmöglichkeiten von Computermethoden und -techniken, oft auf geniale Weise, aber naturgemäß der wissenschaftlichen Anwendungspraxis vorauseilend. Ein Computer war zu dieser Zeit ein exotischer und riesenhafter Apparat, eine Art betreuungsbedürftiges Rechenungetüm, das von den mathematisch geprägten Naturwissenschaften eher skeptisch betrachtet wurde. Nur wenige Gebiete hatten Bedarf an extensiven Rechnungen, die zudem als minderwertige ‚brute force‘ Alternative zu einer theoretisch avancierten Mathematisierung galten. Die Beschäftigung mit Computermethoden schien einen Wissenschaftler, wenn nicht in
Einleitung
3
den Rang eines Rechenknechtes zu degradieren, so doch von der höherwertigen mathematischen Modellierung abzulenken. Erst nach zwei weiteren Dekaden hatte die Nutzung von Großcomputern an Rechenzentren zur Herausbildung einer Praxis der Simulation geführt, die eine relevante Anzahl von Forschern involvierte. Simulation erschien nun auf der wissenschaftlichen Agenda, abzulesen etwa an der jährlich stattfindenden Winter Simulation Conference, einer internationalen Konferenz mit Wissenschaftlern aus verschiedenen Disziplinen, die sich gleichwohl alle als Entwickler und Nutzer von Simulationsmethoden verstehen. Aus dem Bedürfnis nach Selbstvergewisserung seitens der wachsenden Gruppe der Computermodellierer entstanden vereinzelt Werke über Computersimulation. Diese sahen den Computer als faktisch etabliertes neues Werkzeug, das nach einer Einordnung in den Kanon wissenschaftlicher Methodik verlangte. Als ein frühes Beispiel steht dafür John McLeod (1968), mit seiner bezeichnenden Eingangsfrage Simulation is wha-a-t?, während Bernard Zeiglers Buch Theory of Modelling and Simulation (1976) knapp ein Jahrzehnt später bereits ein Standardwerk bildet. Seit etwa der Mitte der 80er Jahre vollzieht sich eine rasante Ausbreitung der computerbasierten Modellierung. Als ausschlaggebende Faktoren für diese Entwicklung können die leichte Verfügbarkeit von Rechenkapazität und die erweiterten Interaktionsmöglichkeiten gelten, die auf neuen Technologien der Visualisierung basierten. Gleichzeitig wurden semantisch hochstehende Sprachen entworfen, die Computermodellierung zugänglich machten für eine große Gruppe von Wissenschaftlern ohne Expertenstatus in Maschinensprache. Hier sind epistemologische und technologische Gesichtspunkte miteinander verschränkt. Mit einem schnell wachsenden Vorrat an verfügbaren Programmen und Programmpaketen wurden Simulation und Computermodellierung dann zum Arbeitsstandard in den Wissenschaften ebenso wie in der Industrie. Die Thematik der Simulation war nun von ‚außen‘ erkennbar geworden, wie man etwa an dem festen Platz ablesen kann, den simulationsbezogene Themen in mehr oder weniger wissenschafts-affinen Zeitschriften vom „Spektrum der Wissenschaften“ bis zum „Spiegel“ einnehmen. Man sollte erwarten, dass die Wissenschaftsphilosophie ab dann der Simulationsthematik verstärkt Analysen widmete. Dem war aber nicht so. Den Grund dafür sehe ich in der bereits erwähnten lange etablierten Sichtweise auf den Computer als logische Maschine, suggerierte sie doch, Reichweite und Grenzen seien ein für alle Mal, sozusagen schon durch die logische Architektur, bestimmt. Meine These lautet dagegen, dass mathematische Modellierung grundsätzlich verändert wird. Die Rechtfertigung dieser Diagnose erfordert es, Fälle aus der wissenschaftlichen Praxis heranzuziehen und hinsichtlich ihrer methodologi-
4
Einleitung
schen und epistemologischen Implikationen auszuwerten. Von zentraler Bedeutung wird die Modellierung als eigenständiger Prozess sein, der zwischen Theorie und intendierten Anwendungen vermittelt. Davon wird gleich die Rede sein. Zunächst aber möchte ich zurückkommen zum zweiten Teil der Kernthese, demgemäß die Simulation nicht nur durch die Menge ihrer epistemologischen und methodologischen Merkmale bestimmt wird, sondern dadurch, wie diese Merkmale miteinander kombiniert werden. Hier kann ich auf bestehende Literatur aufbauen, in der solche Charakteristika der Simulation herausgearbeitet werden. Erst ab etwa 1990 erwecken Simulationen das Interesse der Wissenschaftsphilosophie. Die Beiträge von Paul Humphreys und Fritz Rohrlich zur PSA-Konferenz 1990 können als frühe Indikatoren des allmählich wachsenden Interesses gelten. Seit circa einer Dekade ist die wissenschaftsphilosophische Literatur zur Simulation in echtem Wachstum begriffen. Modellierung und Simulation sind nun als Themen regelmäßig in wissenschaftsphilosophischen Fachzeitschriften vertreten, es gibt dazu eine eigene Konferenzreihe und dergleichen Indikatoren mehr. Es gibt Literatur, die über verschiedene Aspekte von Simulation und Computermodellierung orientiert und sich dabei an ein allgemeines Publikum wendet, wie etwa Casti (1997) oder Mainzer (1995, 2003). Die erste Monographie, die Computersimulation von einer wissenschaftsphilosophischen Warte aus betrachtet, stammt von Paul Humphreys (2004), der bis jetzt nur die Aufsatzkompilation Winsberg (2010) gefolgt ist. Einen kompetent kommentierten Überblick über die wichtigsten Beiträge der Diskussion in der Wissenschaftsphilosophie bietet Humphreys (2012), daneben gibt es mittlerweile auch Einträge zur Computersimulation in Nachschlagewerken wie der Stanford Encyclopedia oder dem Routledge Companion to Philosophy of Science. Ein wichtiger Bezugspunkt der vorliegenden Arbeit ist die neuere wissenschaftstheoretische Debatte um Modelle. Diese Debatte entstand aus dem Streit um die Rolle der Theorien und naturwissenschaftlichen Gesetze, wenn es um Anwendungen geht.² Modelle, so wird seit etwa einer Dekade allgemein anerkannt, spielen eine wichtige Rolle als Vermittler zwischen Theorien, Gesetzen, Phänomenen, Daten und Anwendungen. Vielleicht am prominentesten ist diese Sichtweise in Morgans und Morrisons Sammelband Models as Mediators (1999) dargelegt worden, der weithin als Referenzwerk anerkannt wird. Die Modelldebatte bildet einen angemessenen Rahmen für die Simulation, insbesondere stimme ich Margaret Morrison (1999) zu, wenn sie Modelle als ‚autonome Vermittler‘ darstellt. Diese Rolle wird, so werde ich argumentieren, in
Cartwright (1983) kann als ein wichtiger Auslöser dieses Streits gelten, den ich hier nicht weiter auslege.
Einleitung
5
der Simulationsmodellierung sogar ins Extrem getrieben. Simulationen sind – durch instrumentelle Komponenten, sowie durch die umfangreicheren Modellierungsschritte – als Modelle weniger abhängig von Theorie, sozusagen noch autonomer geworden. Die Ausdifferenzierung der Modelldebatte lädt dazu ein, philosophische, historische und soziologische Gesichtspunkte gemeinsam zu berücksichtigen. Diesbezüglich bieten die Sammelbände Sismondo und Gissis (1999), Lenhard et al. (2006), Knuuttila et al. (2006) und Gramelsberger (2011) ein breites Spektrum an. Kommen wir zurück zur oben gestellten Frage: Welche Merkmale zeichnen Simulationen aus? Diese Frage wird in der gegenwärtigen Literatur in verschiedene Richtungen beantwortet. Die wohl größte Fraktion sieht die Simulationsexperimente als wichtigstes Merkmal an, oft verbunden mit einer Verortung der Simulation als weder (empirisches) Experiment noch Theorie. So verschiedene Stimmen wie Axelrod (1997), Dowling (1999), Galison (1996), Gramelsberger (2010), Humphreys (1994), oder Morrison (2009) wird man dazurechnen können. Andere sehen die zunehmende Komplexität als herausragendes Merkmal an. Simulation und überhaupt Computermethoden werden als adäquates Mittel gehandelt, eine komplexe Welt, oder jedenfalls komplexe Phänomene der Welt zu untersuchen, siehe etwa Schweber und Waechter (2000). Schon Herbert Simon (1962) hatte die entsprechende Vision, die seit den 1990er Jahren als bestehende Praxis angesehen wird: Man hatte früher keinerlei Modell oder Gestänge oder mathematisches Gleichungssystem zur Verfügung, wenn es um Situationen ging, die zweierlei in sich vereinten: eine große Zahl vom Einzelteilen, also Freiheitsgraden, und eine komplexe Struktur, die ihr Zusammenwirken regelt. (Braitenberg und Hosp 1995, S. 7)
Damit in engem Zusammenhang steht die neue Syntax der Mathematik, d. h. die auf den Computer zugeschnittene Form der Modelle, die sich der bisher üblichen mathematischen Analyse entzieht; stattdessen greift die Simulation stark auf Visualisierungen zurück (dazu z. B. Rohrlich 1991). Die Betonung einzelner Charakteristika geht in der Regel einher mit einer Tendenz zur Spezialisierung. Die Mehrzahl der Studien schränkt das Untersuchungsgebiet von vornherein auf eine bestimmte Modellierungstechnik ein. So fußt Galisons Behauptung (1996), Simulation stelle ein „Tertium Quid“ zwischen Experiment und Theorie dar, auf einer Untersuchung zur frühen Monte-Carlo Methode (vgl. auch Beisbarts (2012) klassifizierenden Ansatz); Rohrlich (1991) oder Fox Keller (2003) sehen das wahre Potenzial der Simulation mit den zellulären Automaten verbunden, während Humphreys (1991, 2004) oder Winsberg (2003) ihre Thesen im Wesentlichen aus der Methode der finiten Differenzen
6
Einleitung
ableiten. Wieder andere präparieren die Eigenarten von Modellierungstechniken heraus, wie sie sich in bestimmten Disziplinen etabliert haben, wie Kuorikoski und Lehtinen (2007), die Agentenmodelle in der Ökonomie thematisieren, oder Heymann und Kragh (2010), sowie Gramelsberger und Feichter (2011), die Konstruktion und Einsatz von Klimamodellen zum Gegenstand haben. Ohne die Vorteile eines solch fokussierten und partikularen Vorgehens in Abrede zu stellen möchte ich die vorliegende Arbeit an grundlegenden Gemeinsamkeiten orientieren, die für eine große Klasse an Modellierungstechniken gelten. Die These vom neuen Typ mathematischer Modellierung soll eben gerade übergreifend gelten. Daher lege ich besonderen Wert darauf, die Argumentation über die Kapitel hinweg auf verschiedenartige Modellierungstechniken zu stützen und mit einer Reihe von Beispielen aus verschiedenen wissenschaftlichen Gebieten zu illustrieren. Damit der Plan gelingen kann, ist es entscheidend, die Perspektive der Untersuchung richtig zu wählen. Dabei wirft die Aufgabe, Simulation in epistemologischer und methodologischer Hinsicht zu charakterisieren, ein Problem auf, wie zwischen Skylla und Charybdis hindurch zu navigieren: Eine zu allgemeine Perspektive, die Simulation völlig in mathematischer Modellierung aufgehen sieht – und im Computer ein Instrument ohne entscheidende Funktion zu sehen meint –, müsste ohne Ertrag bleiben, da die Spezifika verloren gehen. Simulation erschiene dann als nichts Neues, sondern nur als die schon Jahrhunderte etablierte mathematische Modellierung in neuem Gewand. Andererseits führte eine zu detaillierte Perspektive zwar eine Vielzahl von Neuerungen vor Augen, die aber disparat bleiben und Simulation letztlich zu einem Kompendium von Novitäten machen, dem tiefere wissenschaftsphilosophische Relevanz abgeht. Demgemäß stellt es eine Herausforderung dar für die vorliegende Untersuchung, die Tiefenschärfe angemessen zu wählen. Der Ausgangspunkt ist damit in zweierlei Hinsicht bestimmt: Erstens ist das Augenmerk auf den Prozess der Modellierung, auf die Dynamik der Konstruktion und Modifikation gerichtet. Zweitens wird die mathematische Modellierung als Kontrastfolie genommen. In dieser Hinsicht verdanke ich den Arbeiten von Humphreys (1991; 2004) am meisten, die mich vom Wert der Kontrastfolie überzeugt haben. Die mathematische Modellierung wird, so meine Hauptthese, in Gestalt der Simulationsmodellierung in einen neuen Modus überführt. Oder anders gesagt: Die Simulationsmodellierung stellt einen neuen Typ mathematischer Modellierung dar. Den Reiz des Neuen kann man erst dann angemessen würdigen, wenn man die Simulationsmodellierung in den Kontext der mathematischen Modellierung stellt. Das heißt, Simulation wird einerseits eingeordnet in die etablierte klassisch-moderne Klasse mathematischer Modellierung und andererseits wird in einer genaueren Analyse aufgewiesen, dass wesentliche Eigenheiten
Einleitung
7
der Simulationsmodellierung zu einem – neuartigen – explorativen und iterativen Modus der Modellierung beitragen, der die Art und Weise kennzeichnet, wie Simulationsmodelle konstruiert und angepasst werden. Ich versuche so, wie gesagt, zwischen Skylla und Charybdis hindurch zu navigieren, d. h. weder einen zu allgemeinen Blickwinkel einzunehmen, unter dem man die Charakteristika der Simulation nicht würdigen kann, noch einen zu speziellen Fokus zu wählen, der es erforderte, verschiedene Techniken, wie z. B. Monte-Carlo oder zelluläre Automaten, je separat zu behandeln. Zugegebenermaßen werden dabei interessante spezielle Themen übergangen werden, wie etwa die Rolle der Stochastizität (umgesetzt von einer deterministischen Maschine) – aber selbst Odysseus musste damals einen Teil seiner Mannschaft sehenden Auges opfern. Was macht die Simulationsmodellierung nun zu einem neuen Typ? Zunächst einmal ist festzustellen, dass diese Frage an eine kombinierte Wissenschafts- und Technikphilosophie gerichtet ist. Bei der mathematischen Modellierung kann es sowohl um die Struktur als essenzielles Merkmal der in Frage stehenden Dynamik gehen, als auch darum, mittels quantitativer Verfahren einen Zugriff auf Vorhersage und Kontrolle zu erlangen. Diese allgemeine Beschreibung erhält ihre spezifische Modifikation dadurch, dass Modellierung im hier interessierenden Fall in enger Wechselwirkung mit der Computertechnologie geschieht. Die eine Richtung scheint offensichtlich: Die (Weiter‐)Entwicklung von Computern beruht ganz wesentlich auf mathematischen Modellen. Die andere Richtung ist von mindestens ebenso großem Belang: Der Computer als Instrument kanalisiert die mathematische Modellierung. Zunächst ist diese Kanalisierung als eine epistemologische Verschiebung zu konstatieren. Mathematische Modellierung war traditionellerweise dadurch gekennzeichnet, dass sie auf die menschlichen Subjekte hin geschah, die als Modellierer tätig sind, um eben Einsicht, Kontrolle oder was immer zu erreichen. In dieses Verhältnis wird nun eine zusätzliche technologische Ebene eingezogen: Mathematische Modellierung geschieht nun (auch) auf den Computer hin, bezieht ihn mit ein: Die Adäquatheit von Modellen bemisst sich nach den Phänomenen, der intendierten Anwendung und eben auch dem Instrument. Dadurch aber unterliegt die Mathematisierung einer bedeutsamen Veränderung. Im Verlauf der vorliegenden Untersuchung wird öfters deutlich werden, wie eine Spannung entsteht zwischen der Kontinuität zum älteren Typ der mathematischen Modellierung und der Herausbildung des neuen Typs. Von der Simulation wird eine Art ausgleichende Funktion erfordert, die die durch den Computer veranlassten Transformationen kompensiert und durch zusätzliche modellinterne Konstruktionen sozusagen anschlussfähig macht.
8
Einleitung
Als ein weiterer Gesichtspunkt der Kanalisierung ist das besondere Verhältnis zur Komplexität zu beachten. Dieser Begriff steigt im zwanzigsten Jahrhundert zu einem Zentralbegriff in den Wissenschaften auf und er erhält eine entscheidende Formung im Zuge der computerbasierten Modellierung. Komplexe Systeme gelten als unübersichtlich, weil ihre Komponenten erst durch eine Vielzahl von Interaktionen die Systemdynamik bestimmen. Diese etwas vage Umschreibung ist durch den spezifischen und definierten Sinn der computational complexity (ausgehend von Beiträgen des Mathematikers Kolmogorov) präzisiert worden. Diese Komplexität bezeichnet eine Limitierung für Computermodelle in dem Sinne, dass komplexe Probleme nicht oder – je nach Grad der Komplexität – nur langsam mittels Rechenkraft zu lösen sind. Computer stehen mithin für eine entfesselte Steigerung der Rechenkraft, aber doch gebunden an das Gebiet nicht oder wenig komplexer Probleme (Hoßfeld 1999). In der Folge der bahnbrechenden Einsichten des Meteorologen Lorenz ist erkannt worden, wie relevant komplexe Systeme im Naturgeschehen sind. Parallel dazu hat man es – und darauf kommt es an – mit der Komplexität der Computermodelle selbst zu tun. Die Komplexität kennzeichnet Objekt und Instrument. Insgesamt ist die Komplexität nicht auf außerordentlich große Systeme beschränkt, die mittels Computermethoden untersucht werden, sondern Grad und Ausmaß der Komplexität sind viel umfassender, nämlich in weite Bereiche der Simulationsmodellierung selbst eingesickert. Es wird daher zu einer eigenen Aufgabe, die Dynamik nicht nur des zu untersuchenden Systems, sondern eben auch die des Modells selbst zu untersuchen. Die eigentümliche Reflexivität der Simulation dokumentiert sich darin, dass dieser Typ der mathematischen Modellierung zwischen Kraftüberschuss, gemessen in ‚flops‘, und einer vielfältigen Komplexitätsproblematik, die die Reichweite dieser Kraft limitiert, vermitteln muss. Komplexitätsreduktion ist in vielen Fällen gar nicht möglich, weder wäre sie den Phänomenen angemessen noch methodisch durchführbar. Damit verändert sich das Hauptgeschäft mathematischer Modellierung. Es geht weniger um Beseitigung der Komplexität, als um den Umgang mit ihr, oder besser: um einen Modus der Modellierung, der trotz hoher Komplexität der Phänomene arbeitsfähig bleibt – auch wenn er einige der ‚klassischen‘ Tugenden mathematischer Modellierung aufgeben muss. Die im Folgenden vorgestellten wesentlichen Charakteristika der Simulationsmodellierung sind voneinander abhängig und verstärken sich wechselseitig. Erst indem dieses Netz geknüpft wird, gewinnt der neue Typ der Modellierung seine Stabilität. Den folgenden Elementen der Simulationsmodellierung wird jeweils eines der ersten vier Kapitel gewidmet.
Einleitung
9
Experiment und Artifizialität: Hier offenbart sich die Kanalisierungswirkung der technologischen Ebene, denn nur diskrete (schrittweise, nichtkontinuierliche) Modelle sind in Computern verarbeitbar. Solche Modelle erscheinen im Kontrast zu traditioneller mathematischer Modellierung als artifiziell. Liegt ein kontinuierliches theoretisches Modell vor, das in einem weiteren Schritt zum Computermodell umkonstruiert wird, so resultiert die Diskretisierung in einer Flut an lokalen Wechselwirkungen (etwa zwischen finiten Elementen), die nicht überschaubar ist. Die Modelldynamik muss dann im Computerexperiment beobachtet werden. Umgekehrt kann im Zuge der Modellierung die simulierte Dynamik mittels dazu eingerichteter Stellschrauben an eine theoretisch bestimmte Dynamik, oder an bekannte Phänomene angeglichen werden. Das erfordert die Hinzunahme artifizieller Komponenten, d. h. Komponenten, die aus instrumentellen Gründen gebildet werden. Visualisierung zur Interaktion: Wenn man die enorme Verabeitungskapazität von Computern nutzen will, so erfordert das generell eine leistungsfähige Schnittstelle, die es gestattet, sehr große Datenmengen für Forscher so aufzubereiten, dass einschätzbar wird, was für die Ausgestaltung weiterer Konstruktionsschritte wichtig ist. Visualisierung bietet hier eine herausragende Möglichkeit, da Menschen diesbezüglich über ganz erstaunliche Kapazitäten verfügen. Wo im Prozess der Modellierung eine mehrfach durchlaufene Anpassungsschleife erforderlich ist, da ist diese Schnittstelle von entsprechend großer Bedeutung. Plastizität: Sie bezeichnet eine modellseitige Eigenschaft. In manchen Modellklassen wird absichtsvoll eine arme Struktur verwendet, um nicht deren Passung, sondern deren Anpassungsfähigkeit zu nutzen. Man kann dann von struktureller Unterdeterminiertheit sprechen. In anderen Modellklassen wird die Dynamik durch eine theoretische Struktur stark mitbestimmt. Auch wenn sie dementsprechend nicht als strukturell unterdeterminiert gelten können, so kann die Plastizität doch ein wichtiges Merkmal sein. Sie rührt dann von der erheblichen Wirkmächtigkeit der (artifiziellen) Parametrisierungen her. Je anpassungsfähiger ein Modell ist, desto ausgedehnter wird diejenige Phase der Modellierung sein, in der die Stellschrauben justiert werden. Kurz, die Plastizität ist proportional zur Reichweite eines iterativen und explorierenden Abgleichs während der Modellierung. Opazität: Die epistemische Opazität hat mehrere Quellen. Komplexe Modelle sind fast per definitionem nicht transparent. Ähnlich wirken sich Fallunterscheidungen aus, die algorithmisch sehr einfach abzuarbeiten sind, die Situation für menschliche Wesen jedoch als zersplittert erscheinen lassen. Daneben tragen
10
Einleitung
auch die in Kapitel eins erörterten artifizielle Elemente zur Opazität bei, sind sie doch gerade aus instrumentellen Gründen und nach Maßgabe der beobachteten Performanz, also vor allem aus nicht theoretisch motivierten Gründen hinzugefügt worden. Der Wert solcher Elemente zeigt sich erst im Verlauf des Prozesses der Modellierung. Wenn die Modelldynamik nicht durchschaut werden kann, so stellt das eine fundamentale Differenz zur traditionellen Mathematisierung dar, die ja gerade Transparenz mittels Idealisierung herzustellen sucht. In der Simulationsmodellierung werden die Dinge anders kanalisiert und so wird das iterative Ausloten der Modelldynamik als methodisches Surrogat eingesetzt, das die Intelligibilität ersetzen soll. Im fünften Kapitel wird resümiert, dass sich diese Komponenten insgesamt zu einem iterativen und explorativen Modus der Modellierung zusammenfügen. Auch wenn die Komponenten je nach Fall unterschiedlich stark ausgeprägt sein können, so ist es doch ihre Kombination, durch die sich die Simulationsmodellierung als eigenständiger Typ erweist. Sie entfalten eine reichhaltige Eigendynamik, die nicht (nur) aus den in sie eingehenden Theorien hergeleitet ist, sondern wesentlich aus ihren Konstruktionsbedingungen hervorgeht. Die Betonung dieser Eigendynamik und der Vermittlungsleistung der Konstruktion zwischen empirischen Daten und theoretischer Begrifflichkeit stellt die Computersimulation in den Rahmen einer Kantisch inspirierten Erkenntnistheorie. Ich möchte Humphreys (2009) folgen, wenn er zur Einordnung der Simulation auf das Konzept des „style of reasoning“ zurückgreift.³ Basierend auf den hier erzielten Ergebnissen wäre der Typ der Simulationsmodellierung als kombinatorischer Stil der Modellierung zu spezifizieren. Der neue Modus der Modellierung hat, so möchte ich weiter argumentieren, erheblichen Einfluss auf den Gang der Wissenschaften. Er deutet nämlich auf eine Konvergenz der Natur- mit den Ingenieurswissenschaften hin. In ihm finden sich instrumentelle und pragmatische Verfahrensweisen, bei denen Vorhersagen und Interventionen im Vordergrund stehen. Simulationsmodellierung rückt daher die Natur- und Ingenieurswissenschaften in eine systematische Nähe zueinander. Der zweite Teil der Untersuchung ist begrifflichen Verschiebungen gewidmet, die durch die Etablierung des neuen Modus ausgelöst werden. Das Ausmaß der transformatorischen Wucht, welche die Simulation und Computermodellierung auf die traditionelle mathematische Modellierung entfaltet, lässt sich anhand Die Unterscheidung wissenschaftlicher Denkstile geht auf Alistair Crombie (1988, ausführlicher in 1994) zurück. Ian Hacking hat den Begriff verschärft zu „style of reasoning“ (1992). Zentraler Punkt ist, dass ein solcher Stil erst festlegt, „what it is to reason rightly“ (Hacking 1992, 10). „Hypothetical modelling“ ist einer der sechs Stile, die Crombie identifiziert.
Einleitung
11
zweier Begriffe weiter verfolgen. Im Kapitel 6 wird der Begriff der Lösung diskutiert, der eigentlich sehr klar auf Gleichungen, oder jedenfalls mathematisch formulierte Probleme gemünzt ist. Im Zuge der Simulation wird von numerischer Lösung gesprochen, die jedoch im älteren, strikten Sinne gar keine Lösung ist, sondern auf eine recht pragmatische Weise aufgefasst werden muss. Der Begriff der Lösung ist dann nicht mehr nach rein mathematik-internen Kriterien bestimmt, sondern danach, ob die numerische ‚Lösung‘ gut genug funktioniert im Rahmen einer mit der Modellierung verbundenen Absicht. Das Spannungsverhältnis zwischen einem Standpunkt, der numerische Lösungen als abgeleitet von mathematischen betrachtet, und der Gegenposition, die numerische Lösungen aus eigenem Recht betrachtet, wird anhand der Auseinandersetzung zwischen Norbert Wiener und John von Neumann diskutiert. Wenn es um Anwendungen geht, ist die Validierung der Modelle ein zentrales Problem. Simulation stellt eine Art Extremfall dar, sowohl was die Anzahl der Modellierungsschritte als auch was die Komplexität der Modelldynamik angeht. Schafft das neue Probleme für die Validierung? In Kapitel 7 werde ich dieser Frage nachgehen und zu einem zwiespältigen Resultat kommen: Einerseits bleibt die Problematik die gleiche, wird nur angesichts des Modellierungsumfangs prekärer, andererseits erreicht die Simulation in komplexen Fällen die Grenzen der Analyse, was zum Problem des Bestätigungsholismus führt. Dieses Problem entsteht dadurch, dass die Konstruktionsweise komplexer Computermodelle fast zwangsläufig dazu führt, dass in der Planung klar umrissene Module im Verlaufe der weiteren Modellierung mehr und mehr miteinander verschliffen werden. Das hat zur Konsequenz, dass die Tiefe der Analyse von Modellverhalten limitiert wird, d. h. einzelne Verhaltensmerkmale lassen sich unter Umständen nicht auf einzelne Modellierungsannahmen zurückverfolgen. Als Validierungsmethode bleibt dann nur ein (strenger) Test auf der Ebene des Modellverhaltens, wie das von technischen Prüfverfahren bekannt ist. Am Beispiel der Klimaforschung wird diskutiert, inwieweit man unter diesen Bedingungen mit einem dauerhaften Modellpluralismus rechnen muss. Im abschließenden achten Kapitel werden zwei Dinge unternommen. Zum einen wird ein Fazit gezogen aus der Eigenständigkeit der Simulationsmodellierung und was sich daraus bezüglich ihrer Neuheit ergibt. Auf der Basis der zuvor erfolgten Analyse möchte ich eine moderate Position verteidigen. Die Neuheit der Simulationsmodellierung besteht wesentlich in der Art und Weise, wie mathematische Modelle konstruiert werden und wie mit ihnen operiert wird. Daraus stammt ihr Potential als „combinatorial style of reasoning“. Gleichzeitig werden überzogene Ansprüche und Behauptungen zurückgewiesen, die oft mit der Thematik der Simulation verbunden werden, wie dass die Wissenschaft sich nur noch auf eine Welt in silico beziehe, oder dass mit der Simulation endlich ein Mittel zur
12
Einleitung
Hand sei, um Komplexität wie einen Schleier zu lichten. Simulationsmodellierung verfährt in einem explorativen und iterativen Modus, in dem die Revision der Resultate schon mit angelegt ist. Oder anders gesagt: Das Gewisse an der Simulation ist ihre vorläufige Natur. Als zweites bietet das achte Kapitel einen Ausblick an, eine philosophischhistorische These über das Verhältnis von Wissenschaft und Technologie. Bereits in Kapitel fünf wurde der Modus der Simulationsmodellierung in Verbindung gebracht mit der Konvergenz von Natur- und Ingenieurswissenschaften. Insbesondere bewegen sich die Typen der Mathematisierung aufeinander zu, die in beiden Bereichen angestrebt werden. Diese These möchte ich in einen größeren Zusammenhang stellen und mit der Zeit der Ausdifferenzierung zwischen Ingenieurs- und Naturwissenschaften kontrastieren, die ins 16. und 17. Jahrhundert zurückreicht. Im Zusammenhang mit der Computermodellierung und Simulation kann man von einer Wiederbelebung und Umkehrung des von mir so getauften LeonardoBacon-Galilei-Programms sprechen. Die Wiederbelebung geht die mathematische Modellierung als das gemeinsame Rückgrat von Natur- und Ingenieurswissenschaften an. Zugleich jedoch handelt es sich auch um eine Umkehrung, was die philosophische Charakteristik der mathematischen Modellierung angeht. Es geht dann weniger um die Enthüllung oder Entzifferung der wesentlichen Strukturen, welche die Dynamik der in Frage stehenden Phänomene tragen, vielmehr geschieht die Konstruktion der Modelle mehr und mehr im Dienst der Performanz.
Teil I: Ein neuer Typ mathematischer Modellierung
1 Experiment und Artifizialität 1.1 Simulation und Experiment Computersimulationen arbeiten mit einer neuen Art von Experimenten, darin ist sich die Literatur einig.Vielfach ist es gerade diese neue Art von Experimenten, die das philosophische Interesse auf Simulationen lenkt (Dowling 1999; Fox Keller 2003; Gramelsberger 2010, Humphreys 1991, 1994; Hughes 1999; Morgan 2003; Rohrlich 1991, Winsberg 2003, oder Morrison 2009). Während unstrittig ist, dass man es hier mit einem besonderen Experimentbegriff zu tun hat, insofern er keine Intervention in die materielle Welt mit einschließt, gibt es keinen Konsens darüber, was den Kern solcher Experimente ausmacht. Dementsprechend hat sich auch keine einheitliche Terminologie eingebürgert und Simulationsexperimente, Computerexperimente (im englischen präziser als computational experiments bezeichnet), numerische Experimente oder auch theoretische Modellexperimente nehmen unterschiedliche Akzentuierungen vor. Es mag attraktiv erscheinen ‚mit Ideen zu experimentieren‘ – noch dazu auf eine kontrollierte und reproduzierbare Weise. Allein, Simulationsexperimente werden nicht im Reiche der Ideen durchgeführt, sondern auf einem Computer. Das stellt eine wesentliche Bedingung dar, denn solche Experimente bedürfen einer numerischen Form. Es gehört schlicht zu den Bedingungen unter denen der Computer als Instrument genutzt werden kann, dass diskrete Einheiten iterativ verarbeitet werden. Auch wenn derartige formale Bedingungen unscheinbar wirken, entfalten sie doch eine ganz erhebliche Wirkung. Als Vergleich bietet sich die sogenannte algebraische Denkweise an, die durch Descartes, Fermat und andere auf den Weg gebracht wurde. Sie ging von der Algebra als Rechentechnik aus, hat dann aber eine umwälzende Wirkung entfaltet, wie das von Michael Mahoney überzeugend dargestellt wurde (Mahoney 1989). In diesem Kapitel 1 wird dargelegt, wie Computerexperimente zu einer neuen Transformation beitragen. Daher wäre es irreführend, solche Experimente als alleiniges Bestimmungsmerkmal für Simulationen zu betrachten. Das würde eine Reihe weiterer wichtiger Merkmale von Simulationen sträflich vernachlässigen und auf eine eindimensionale Charakterisierung der Simulation hinauslaufen. In diesem Kapitel soll der experimentelle Anteil der Simulationsmodellierung in den Zusammenhang einer besonderen Artifizialität der mathematischen Modellierung gesetzt werden, die vom diskreten (nicht kontinuierlichen) Charakter der Computermodelle herrührt. Ian Hacking hat in seinem klassischen Representing and Intervening (1983) zwei große Kreise wissenschaftlicher Methodologie nebeneinander gestellt, die mit theoretischer Konstruktion, bzw. experimentellem Zugriff verbunden sind. Die
16
1 Experiment und Artifizialität
Simulation erscheint in dieser Hinsicht als Zwitterwesen. Der Computer ist materielles Instrument, führt aber zugleich symbolisch verfasste Programme aus und kann als Werkzeug zur Implementierung und Analyse von theoretischen Modellen fungieren. Simulationsexperimente spielen sich offenbar in beiden Hacking‘schen Bereichen ab und bedeuten schon von daher eine begriffliche Verschiebung des Experimentbegriffs. Bei ihnen geht es allerdings nicht um Eingriffe in die Natur, sondern um ein Experimentieren mit theoretischen Modellen, Gleichungen oder Algorithmen, das jedenfalls im oder mit dem Computer stattfindet. Wenn von Computerexperimenten die Rede ist, so ist der Gegenstand der Aufmerksamkeit das Verhalten von theoretisch-symbolischen Entitäten, wie es sich ‚im‘ Computer zeigt, das heißt unter einer konkreten Implementation auf einer materiellen elektronischen Maschine. Ein Purist könnte vielleicht einwenden, dass der Begriff des Experiments für Situationen reserviert bleiben solle, in denen (wenn auch in einer artifiziellen Umgebung) die Natur befragt wird. Es stimmt zwar, dass in manchen Zusammenhängen nur dieser Sinn von Experiment gemeint ist, etwa bei Hackings instrumentellem Argument für den Realismus (Hacking 1983, Kapitel 16). Andererseits jedoch muss anerkannt werden, dass numerische Experimente zumindest in einer wichtigen Hinsicht wie Experimente funktionieren, insofern die Forscher das Verhalten von Simulationsmodellen unter variierenden Anfangs- und Randbedingungen wie bei einem experimentellen Aufbau betrachten. So halte ich es für völlig legitim, hier von einer Art Experiment zu sprechen, zumal es auch eine Reihe weiterer etablierter Redeweisen vom Experiment gibt, etwa als Gedankenexperiment, die ebenfalls die puristische Restriktion ignorieren. Die Sammelbände von Gooding et al. (1989), Heidelberger und Steinle (1998), oder Radder (2003) geben einen guten Eindruck von der großen Spannbreite der Konzeptionen von Experimenten. Im letztgenannten Band finden sich auch zwei Beiträge zu Simulationsexperimenten. Bereits seit den Anfängen des Computers hat sich die Sprechweise von Experimenten als einer Möglichkeit, den Computer einzusetzen, etabliert. So sah beispielsweise der Mathematiker Stanislaw Ulam, einer der wichtigsten Pioniere von Computermethoden, in der von ihm maßgeblich miterfundenen Monte-CarloSimulation von Anfang an eine neue Methode zur Durchführung statistischer und mathematischer Experimente (Ulam 1950, 1990). Dort werden Versuche unternommen, indem Computerläufe wiederholt werden, die jeweils mit (pseudo)zufällig variierenden Parametern beginnen. Mittels des Computers kann eine große Zahl solcher Einzelläufe durchgeführt werden. Man kann dann den Mittelwert der Ergebnisse gemäß des Gesetzes der großen Zahlen als Approximation des Erwartungswerts (im probabilistischen Sinne) ansehen. Der Vorteil besteht darin, dass man den Mittelwert leicht aus den Einzelresultaten errechnen kann, auch
1.1 Simulation und Experiment
17
wenn der Erwartungswert selbst analytisch unzugänglich ist. Man kann hier folglich mathematische Analyse durch Rechenkraft betreiben, wenn es nur gelingt, die fragliche Größe als Erwartungswert darzustellen. Die Verknüpfung mit der stochastischen Theorie der Markov-Ketten hat zur Weiterentwicklung als sogenannte Markov-Ketten-Monte-Carlo-Methode (begründet bereits von Metropolis et al. 1953) geführt, mit der eine überraschend große Klasse von Integralen numerisch approximiert werden kann, was dieser experimentgestützten Methode einen sehr großen Anwendungsbereich beschert hat. Hinter solchen Experimenten verbirgt sich eine mathematikphilosophisch tiefe Problemlage, da die vom Computer erzeugten Pseudozufallszahlen zwar Zahlen sind, deren Charakteristik Zufallszahlen gleicht, die aber von einer deterministischen Maschine erzeugt werden (siehe dazu z. B. Kac and Ulam 1968). Darüber hinaus ist während der letzten Jahre eine ‚experimentelle Mathematik‘ entstanden, die theoretische Durchdringung durch experimentelles Austesten mittels Computer ersetzen möchte. Sie könnte zu einer eigenen Subdisziplin werden, die das Selbstverständnis der Mathematik als apriorische Wissenschaft untergräbt (Baker 2008; Borwein und Bailey 2004; Borwein, Bailey und Girgensohn 2004; van Kerkhove und van Bendegem 2008). Sind damit bereits die wesentlichen Punkte angesprochen, die eine Charakterisierung der Simulation angehen? Peter Galison hat eine aufschlussreiche und lesenswerte Studie zur Entstehungsgeschichte der Monte-Carlo-Simulation im Kontext des Manhattan Projektes beigetragen (Galison 1996), in der er eine derartige These vertritt. Er schreibt dort der Simulation eine fundamentale philosophische Bedeutung zu, weil sie mit einer radikal stochastischen Weltsicht verbunden sei. Das mag für einige Bereiche der Monte-Carlo-Simulation gelten, aber die These von Galison steht und fällt mit der Beschränkung auf diese Methode. Andere, mindestens ebenso wichtige, ja sogar weiter verbreitete Simulationsmethoden arbeiten ebenfalls mit Experimenten, ohne jedoch dem Zufall eine besondere Rolle zuzuweisen. Daher stellen in der Tat ‚statistische‘ Experimente zwar eine wichtige und philosophisch interessante Klasse von Computerexperimenten dar, die Analyse der Rolle von Simulationsexperimenten erfordert jedoch einen breiteren Fokus. Im Folgenden geht es mir nicht um eine Verortung von Simulationsexperimenten als eine Art von Experimenten, dazu existiert ja auch bereits, wie erwähnt, ausreichend Literatur. Das Ziel besteht vielmehr darin herauszuarbeiten, auf welche Weise oder welche Weisen Experimentieren in den Prozess der Simulationsmodellierung eingepasst ist, d. h. inwiefern numerische Experimente dazu beitragen, Simulationsmodellierung zu einer besonderen Art mathematischer Modellierung zu machen. Mein Hauptpunkt: Die Diskretheit des Computers macht
18
1 Experiment und Artifizialität
einen wiederholten experimentellen Abgleich während der Modellierung erforderlich.
1.2 Theoretischer Charakter Die Sprechweise von theoretischen Modellexperimenten bringt etwas zum Ausdruck, das ich für zentral halte. Es sind Simulationsmodelle, mit denen experimentiert wird. Dabei handelt es sich durchaus nicht immer um fertige Modelle, die Resultate liefern sollen, sondern typischerweise um Modelle in vorläufigen Stadien, deren Weiter-Konstruktion ganz wesentlich auf experimentellen Auswertungen beruht. Daher besteht der Experimentcharakter nicht bloß im Ablauf der Simulation, sondern in der Einbindung in den Modellierungsprozess. Die Betonung liegt hier mit voller Absicht auf der Tätigkeit der Modellierung und dem Prozess der Modellkonstruktion. Denn es ist dieser Prozess, der in der Simulationsmodellierung in wichtigen Punkten anders ausgestaltet ist als in der üblichen mathematischen Modellierung, nicht zuletzt da experimentelle Wege beschritten werden können – und auch müssen – wie ich argumentieren werde. Die üblichen Darstellungen der Simulationsmodellierung lassen diesen Aspekt außer Acht und separieren die Modellbildung vom experimentellen Austesten des Modells. Dadurch scheint es so, als ob in der Simulation lediglich die abschließende Auswertung experimentell geschehe. Aus der Vielzahl der Darstellungen könnte man Zeigler (1976) als ein Standardwerk herausgreifen. Auf philosophischer Seite entspricht dieser Sicht z. B. Hughes’ (1997) DDI-account des Modellierens, gemäß dem erst in einem Modell repräsentiert wird, dann Schlüsse im Modell gezogen werden, die wiederum im dritten Schritt auf die zu modellierenden Phänomene übertragen werden.¹ Simulationsmodelle unterscheiden sich demnach in der Modellbildung gar nicht von (mathematischen) Modellen generell. Diese Sichtweise ist zwar generell zutreffend, aber im vorliegenden Fall ergänzungsbedürftig, denn erst eine genauere Analyse lässt die Spezifika der Simulationsmodellierung hervortreten. Theoretische und experimentelle Zugangsweisen werden kombiniert, oder vielleicht besser: miteinander verschränkt. Dadurch tritt in der Simulationsmodellierung die eigenständige und vermittelnde Rolle von Modellen besonders deutlich zu Tage. Die starken Bezüge zu Margret Morrisons Sichtweise der „models as autonomous mediators“ (Morrison 1999) werden gegen Ende dieses Kapitels thematisiert werden. Sie hatte ihren Standpunkt anhand von Prandtls Strö-
Ähnliche Positionen finden sich z. B. bei Neelamkavil (1987), oder auch Stöckler (2000).
1.2 Theoretischer Charakter
19
mungsmodell erläutert, das diesen zur Einführung der sogenannten Grenzschicht animierte, wodurch er der Theorie der Strömungsdynamik ein reiches Feld an Anwendungen verschaffte (siehe zu diesem Beispiel auch Heidelberger 2006). Die Strömungsdynamik ist ein von der Theorie her sehr gut erschlossenes Gebiet, zugleich jedoch auch ein prominenter Fall analytischer Unlösbarkeit: Die NavierStokes-Gleichungen sind zwar mit den Mitteln der Differentialrechung formuliert, aber mit diesen Mitteln (analytisch) unlösbar. Hier konnte Prandtls Modell zwischen der Theorie und den Daten und Phänomenen vermitteln – und so zum Paradebeispiel des vermittelnden Modells werden. Nun hat die Strömungsdynamik durch Simulationsmethoden einen weiteren enormen Aufschwung genommen, was ihre Relevanz für die Anwendungen angeht. Und gerade weil sie so stark theoretisch basiert ist, stellt sie auch einen ausgezeichneten Fall dar für die philosophische Erörterung der Simulation. Denn was hier über die Rolle von Experimentieren und Ausprobieren aufgewiesen werden kann, gilt a fortiori für weniger stark theoretisch unterfütterte Felder. Wo Simulationen zum Beispiel mit einer ganz neuen Syntax arbeiten, etwa den zellulären Automaten, fehlen ohnehin alternative leistungsfähige mathematische Werkzeuge, mit deren Hilfe etwas über das Modellverhalten zu erfahren wäre. Simulationsexperimente sind hier weitgehend alternativlos. In theoretisch basierten Fällen wie der Strömungsdynamik ist das nicht so klar. Simulationsmodelle könnten hier leicht als abhängige und bloß rechentechnische Hilfskonstrukte angesehen werden – alles andere als ‚autonom‘. Viele Bereiche der Naturwissenschaften, und insbesondere die Physik, verwenden Differentialgleichungen, um die betrachteten Phänomene mathematisch zu beschreiben und die zugrundeliegenden Gesetzmäßigkeiten zu formulieren. Tatsächlich war bereits lange vor der Computerzeit bekannt, dass komplexe Phänomene, die durch Systeme interagierender Gleichungen beschrieben werden, analytisch kaum behandelbar sind. Die Wissenschaftler waren gezwungen, um solche ‚unlösbaren‘ Systeme einen Bogen zu machen. Ein typisches Beispiel dieser Klasse sind strömungsdynamische Phänomene, von denen ich die globale Zirkulation der Atmosphäre zu einer ausführlichen Fallstudie heranziehen möchte. Die Atmosphärendynamik umfasst sowohl Wetter wie Klima. Während das Wetter ein sogenanntes chaotisches System bildet, von denen im Übrigen im nächsten Kapitel noch die Rede sein wird, das langfristige Vorhersagen unmöglich macht, handelt es sich beim Klima um so etwas wie das ‚mittlere‘ Wetter. Es weist einige wohlbekannte, stabile Phänomene auf, wie zum Beispiel die Windzonen, die sich nördlich und südlich des Äquators ausbilden. Zunächst war die Unterscheidung jedoch alles andere als klar. Bereits Vilhelm Bjerknes, Schüler von Heinrich Hertz, postulierte ein theoretisches Modell für die Atmosphärenzirkulation, das aufgrund der bekannten Gesetzmäßigkeiten der
20
1 Experiment und Artifizialität
Bewegung und der Flüssigkeitsdynamik eine Wettervorhersage möglich machen sollte (Bjerknes 1904). Es blieb beim Modell – Bjerknes konnte zwar zeigen, dass die Anzahl an Gleichungen und Unbekannten ‚aufgehen‘, konnte aber keine Vorhersagen ableiten. Lewis F. Richardson (1922) leistete weitere Pionierarbeit. Er formulierte ein System partieller Differentialgleichungen, das (jedenfalls in der Theorie) die bekannten Phänomene der Atmosphäre wiedergeben sollte. Das System ist jedoch ‚analytisch unlösbar‘, d. h. man kann es nicht mit den traditionellen Methoden der Mathematik integrieren, um es zu lösen und so einen Überblick über das durch das Zusammenwirken der Naturgesetze entstehende Verhalten zu erreichen. Richardsons bahnbrechende Idee war es, die analytische Unzugänglichkeit mit Hilfe numerischer Methoden zu umgehen. Er ersetzte die kontinuierliche Dynamik durch eine diskrete, schrittweise Version, in der die Differentialgleichungen in Differenzengleichungen auf einem Gitter transformiert werden. Das so entstehende System von Differenzengleichungen, in dem grob gesagt infinitesimale durch finite Abstände ersetzt werden und Integration zur Summation wird, sollte, so die Überlegung, das ursprüngliche System approximieren und gleichzeitig wäre die komplexe Dynamik durch fortgesetzte Iteration der Gleichungen (statt durch Integration) zu bewältigen. Das erforderte einen hohen Rechenaufwand, der aber hauptsächlich aus einer riesigen Zahl an recht elementaren Operationen bestand. Wenn man so will, kann man hier ein industrielles Lösungsprogramm erkennen. Richardson imaginierte eine regelrechte „factory“ mit vielen Angestellten, er projektierte über 60.000 von ihnen, um die Gesamtdynamik des theoretischen Modells durch Rechenkraft (vor der Erfindung des elektronischen Computers) zu ermitteln.² Richardson gilt zwar als der Vater der numerisch basierten Wettervorhersage, allerdings wegen seiner Pläne, nicht wegen seiner Erfolge. Die Vorhersagen waren nämlich unbrauchbar. Wie sich später herausstellen sollte, mangelte es nicht nur an Rechenkraft, sondern bereits das Verfahren der Diskretisierung war problematisch, denn nicht jede Vergröberung durch ein Gitter belässt die entstehende Dynamik qualitativ in der Nähe der kontinuierlichen Ausgangsdynamik. Solche Erwägungen aber entstanden erst nach der Verfügbarkeit des Computers. Und, so möchte ich hinzufügen, sie konnten auch erst dann entstehen, weil es auf die experimentellen Möglichkeiten ankommt, die Richardson noch nicht zur Verfügung standen, der sein diskretes Modell gänzlich von Hand entwickeln musste. Das Wort Computer kam während des zweiten Weltkrieges in allgemeinen Gebrauch und bezeichnete zunächst eine – meist weibliche – Person, die solche Tätigkeiten ausübte. Es gab mehrere computing factories, die vom Militär betrieben wurden, vgl. dazu David Griers Studie When Computers Were Human (2005).
1.3 Ein erstes Experiment
21
Die Modellierung konnte erst dann funktionieren, als der Modellierungsprozess eng mit Experimenten verknüpft werden konnte. Dadurch wird eine geläufige und einflussreiche Ansicht über Simulationsmodelle widerlegt werden. Diese unzutreffende Ansicht geht von einer völligen Abhängigkeit zwischen theoretischen Modellen und ihren diskreten Versionen aus. Es sei lediglich ein neuer Zwischenschritt nötig, der die kontinuierlichen Modelle in die diskrete Welt der Computer übersetzt. So wurde – und wird noch vielfach – das diskrete Modell als ein bloß schematisches Hilfsmittel verstanden, dass eingesetzt wird, um auf numerische Weise die Lösung der theoretischen Modelle zu berechnen. Im Folgenden soll das Beispiel weitergeführt werden um darzulegen, dass ein Wandel der Sichtweise nötig war, weg von der Simulation als bloßer numerischer Lösung der Gleichungen eines theoretischen Modells und hin zu der Ansicht, die in der Simulation einen eigenständigen Typ mathematischer Modellierung sieht, der sozusagen Gebrauch macht von den spezifischen Stärken des Instruments.
1.3 Ein erstes Experiment Heutzutage werden Simulationsmodelle als ein Kernstück der Wettervorhersage und der Klimawissenschaft angesehen. Was machte den Erfolg des Computereinsatzes aus und welche Rolle spielte dabei das Experimentieren? Ich möchte mich ganz auf den Fall der globalen Atmosphärendynamik konzentrieren. Es gab während der Jahrzehnte vor der Entwicklung des Computers durchaus Erfolge in der Modellierung der atmosphärischen Dynamik (vgl. die Darstellung in Weart, Jacob und Cook 2003), die jedoch nur Teilaspekte der globalen Zirkulation betrafen, etwa zur lateral diffusion (Rossby in den 1930ern), oder dem jet stream (Palmèn und Riehl in den 1940ern). Die große Mehrheit der Meteorologen beurteilte die Aussichten einer Modellierung des Gesamtsystems ohnehin skeptisch. Die vorherrschende Ansicht war „that a consistent theory of the general circulation is out of reach“ (Lewis 1998, 42, der Brunt 1944 referiert). Der Weg von Bjerknes und Richardson wäre dann eine Sackgasse. Mit der Verfügbarkeit eines neuen Instruments, der Computersimulation, sollte sich diese skeptische Einschätzung ändern. Der von Deutschland in die USA emigrierte Mathematiker John von Neumann, eine der zentralen Figuren der konzeptionellen Entwicklung des Computers³, war Akeras Monographie (2006) gibt einen exzellenten Einblick in die komplexe konzeptionelle und technische Entwicklungsgeschichte, in der eine Vielzahl von Personen und Institutionen auftreten.William Asprays Buch (1990) bleibt das Standardwerk für eine Würdigung der Beiträge von Neumanns.
22
1 Experiment und Artifizialität
auch eine treibende Kraft, um der während des zweiten Weltkriegs entscheidend weiterentwickelten neuen Maschine ein Anwendungsgebiet als mathematisches Instrument zu verschaffen. „To von Neumann, meteorology was par excellence the applied branch of mathematics and physics that stood the most to gain from highspeed computation.“ (Charney nach Arakawa 2000, 5) Mit von Neumann als Mentor wurde am Institute for Advanced Studies (IAS) in Princeton eine meteorologische Arbeitsgruppe aufgebaut, die von Jule Charney geleitet wurde, und die zur Keimzelle des 1960 gegründeten Geophysical Fluid Dynamics Laboratory (GFDL) in Princeton wurde, des ersten Instituts zur simulationsbasierten Meteorologie, bzw. später Klimawissenschaft. Erklärtes Ziel war es, die Strömungsprozesse in der Atmosphäre zu modellieren und die entsprechenden Differentialgleichungen auf dem Computer zu ‚lösen‘, d. h. im Grunde Richardsons Fehlschlag mit Hilfe des neuen Instruments in einen Erfolg umzumünzen. Bereits der Name „Geophysical Fluid Dynamics Laboratory“ transportiert die Orientierung an der Strömungsdynamik und gleichzeitig das Selbstverständnis als computer-experimentelles Labor. Norman Phillips arbeitete am IAS in dieser Gruppe und er unternahm es, die Grundgleichungen Richardsons in ein Computermodell zu übertragen. Tatsächlich gelang es ihm 1955 im so genannten first experiment, die Dynamik der Atmosphäre zu simulieren, d. h. die Wind- und Druckverhältnisse der gesamten Atmosphäre mittels eines Computermodells nachzubilden.⁴ Dazu mussten natürlich die kontinuierlichen Gleichungen der Bewegung und Hydrodynamik so umformuliert werden, dass sie an den Gitterpunkten berechnet werden konnten. Die Gruppe am IAS verfolgte eine gegenüber Richardson angemessenere Strategie. Vor allem war nun die sogenannte Courant-Bedingung an die Diskretisierung bekannt, die erfüllt werden muss, damit die diskrete Dynamik nicht ‚aus dem Ruder läuft‘. Ob und wieweit die Bedingungen aber hinreichend waren, blieb allerdings offen. Dieser Modellierungsschritt stellt eine konzeptionelle Aufgabe dar, die wegen der diskreten Logik des neuen Instruments – Computer, bzw. Computersimulation – unumgänglich ist. Im nächsten Schritt des Simulationsexperiments wurde dann die Dynamik angestoßen, d. h. die Strahlung der Sonne und die Rotation der Erde kamen hinzu. Die Atmosphäre verließ den Ruhezustand und pendelte sich in einen so genannten steady state ein, der einem stabilen Strömungsmuster entspricht – oder besser gesagt, die Simulation erweckte den Anschein, das zu tun. Für eine detaillierte Schilderung vgl. Lewis (1998), für eine weitergreifende Ideengeschichte der Modellierung der allgemeinen Zirkulation der Atmosphäre vgl. Lorenz (1967). Dahan (2001) bietet eine historische Studie zur Entwicklung computerbasierter Modellierung in der Meteorologie bis Lorenz.
1.3 Ein erstes Experiment
23
Bereits die Frage, wann man von einem solchen stationären Zustand sprechen kann, der nicht nur als Durchgangsstadium des Simulationsmodells zu betrachten ist, ist eine Frage, die man durch die Analyse der erzeugten (simulierten) Daten beantworten muss. Tatsächlich verschätzte sich Phillips gewaltig; wie eine nachträgliche Untersuchung ergab, hätte das Einpendeln seines Modells wesentlich mehr Zeit beansprucht, als Phillips angenommen hatte (Wiin-Nielsen 1997). Die spannende Frage lautete, ob das Modell die in der realen Atmosphäre beobachteten globalen Muster der Windströmungen adäquat wiedergeben würde. Als Vergleich dienten die Muster und Strömungsverhältnisse in der Atmosphäre, wie sie aus der langen Geschichte der Wetterbeobachtung vor allem in der Seefahrt wohlbekannt waren, unter anderem die Westwinde nördlich des Äquators, die „surface westerlies“, deren Muster der Abbildung 1 zu entnehmen sind. Atmospheric Circulation & Hadley Cells
Polar Easterlies Westerlies
60°
30°
Tradewinds ITCZ
0°
Tradewinds 30°–
Westerlies 60°–
Polar Easterlies
Abbildung 1.1: Schematische Darstellung der Zellen der atmosphärischen Zirkulation. Von Wikimedia Commons.
Die anfangs ruhende Atmosphäre bewegte sich zudem im Laufe der Simulation in den ‚richtigen‘ Typ von Zirkulationsmuster hinein (Ferrel-Type): … the zonally averaged meridional circulation in the middle latitudes changed from the Hadley type to the Ferrel type, producing the midlatitude surface westerlies. In this way, the experiment simulated the very basic features of the observed general circulation of
24
1 Experiment und Artifizialität
the atmosphere, whose causes had been more or less a matter of speculation. (Arakawa 2000, 8)
Eine Übereinstimmung mit der Erfahrung war nach einhelliger Meinung gegeben und so wurde das Experiment als Bestätigung dafür genommen, dass das Differentialgleichungssystem, das in wichtigen Teilen ja bereits auf Bjerknes und Richardson zurückging, numerisch gelöst worden war. Der quasi-empirische, da im Simulationsexperiment erbrachte, ‚Beweis‘ sicherte ihnen den Status als Grundgleichungen der Atmosphärendynamik, den sie auch heute noch besitzen. Mit dem Simulationsexperiment wurden sie also vom Status als spekulative Modellierungsannahmen in den Rang einer zutreffenden gesetzmäßigen Beschreibung erhoben, die von da an das Kernelement theoretischer Modellierung der Atmosphärendynamik ausmachte. Um es noch einmal zu betonen: Keine dieser Gleichungen war für sich genommen spekulativ, sondern die Zweifel rankten sich darum, welche Zusammenstellung von Gleichungen ein adäquates Modell ergäbe. Die Formulierung eines theoretischen Modells war behindert, oder eigentlich verhindert worden durch den Umstand, dass lokal plausible Modellannahmen nicht in ihrem globalen Zusammenwirken getestet werden konnten. Winsberg (2003) sieht darin zurecht ein allgemeines Merkmal von Simulationen. Sie sind unverzichtbar, wo die globalen Konsequenzen lokaler Annahmen aus Gründen der Komplexität nicht mit anderen (mathematischen) Mitteln zu finden sind. Numerische Experimente änderten die Situation in der Meteorologie überraschend schnell und führten zur Akzeptanz der Grundgleichungen des theoretischen Modells. Vor allem wurde deutlich, dass Modellbildung und Experimentieren in der Simulation zusammenarbeiten. Der damals führende Theoretiker der Meteorologie, Edward Eady, hat das in einem Kommentar zu Phillips’ Experiment sogleich anerkannt: „Numerical integrations of the kind Dr. Phillips has carried out give us a unique opportunity to study large-scale meteorology as an experimental science“ (Eady 1956). Im Experiment werden also Aussagen aus dem Modell hergeleitet, die dann an der wirklichkeit geprüft werden können. Es geht aber nicht nur um die Anerkennung des theoretischen Modells durch das Experiment, sondern ebenso wichtig sind die Konstruktion eines diskreten Modells sowie dessen Implementierung als lauffähiges Programm (Humphreys 1991). Für jeden, der schon einmal selbst programmiert hat, ist es selbstverständlich, dass zwischen dem Stadium eines theoretischen Entwurfs und einer kompilierten Version des Programms erhebliche Zeit und Mühen liegen. Das Auffinden von Bugs, die sich auch im lauffähigen Programm noch verbergen können, kommt noch hinzu. Daher kann das Computermodell gar nicht mit Bleistift und Papier beschrieben werden, sondern
1.4 Explorative Kooperation
25
alles, was über erste konzeptionelle Schritte hinausgeht, ist nur mittels eines experimentellen Begleitprogramms zu bewältigen. Man wäre schlicht überfordert, wollte man der Programm-Syntax so strikt und unermüdlich folgen, wie es die Maschine tut. Zu diesem Aspekt später mehr, wenn es um epistemische Opazität (Kapitel 4) und die Grenzen der Analyse (Kapitel 7) geht.
1.4 Explorative Kooperation In Phillips’ Experiment waren zwei Modellierungsschritte involviert, die man auseinanderhalten sollte. Der erste bestand in der Formulierung des theoretischen Modells, in unserem Fall eines Systems partieller Differentialgleichungen, das bewegungs- und strömungsdynamische Gesetzmäßigkeiten darstellte. Der zweite Schritt bestand in der Konstruktion eines diskreten Modells, das die numerische Behandlung per Computer ermöglicht. Man kann das Simulationsmodell als ein Modell des theoretischen Modells auffassen. Küppers und Lenhard (2005b) sprechen daher von Simulation als „Modellierung zweiter Ordnung“. Winsberg (1999) unterscheidet eine feinskaligere Reihe von Modellen, die zwischen dem theoretischen Modell und dem lauffähigen Simulationsprogramm liegen. Für meine Argumentation indes ist die Diskretheit ausschlaggebend. Dieser zweite Schritt findet generell bei jeder Simulationsmodellierung statt, denn jedes Simulationsmodell spezifiziert einen diskreten generativen Mechanismus, sei das die Technik der Differenzengleichungen, zellulären Automaten, artifiziellen neuronalen Netzwerken, oder was immer. Im vorliegenden Fall diente ein theoretisches Modell als direkte Vorlage, was typisch ist für Differenzengleichungen, die ja auf Differentialgleichungen rekurrieren. Nicht jedes Simulationsmodell greift jedoch auf ein theoretisches Modell als Vorlage zurück. Manche Simulationsansätze kommen mit einer äußerst schwachen theoretischen Grundlage aus. Einige Stimmen in der neueren Wissenschaftsphilosophie und -forschung nehmen Simulationen als Anlass, gleich den Abschied von der Theorie zu proklamieren. Mir scheint das übereilt. Wie sich im Weiteren ergeben wird, ist ein Mittelweg angemessen: Manche, aber nicht alle, Simulationen fußen auf starken theoretisch motivierten Annahmen. Es hieße einäugig zu verfahren, wenn man in diesem Punkt ein kategorisches Urteil fällen wollte. Ich möchte aber auch betonen, dass der hier diskutierte Beispielsfall nicht als der allgemeine Fall genommen wird, sondern als der argumentationsstrategisch ausssagekräftigste, da simulationsspezifische Eigenschaften gewissermaßen noch gegen eine starke Theorie deutlich werden müssen. Worin unterscheidet sich dies Vorgehen denn dann von theoretisch basierter Modellierung?
26
1 Experiment und Artifizialität
Die enge Verzahnung mit dem Experimentieren kennzeichnet die Simulationsmodellierung. Phillips’ Experiment, nicht die Ableitung aus der Theorie, verschaffte den Gleichungen ihren Status als Grundgleichungen. Das heißt die beobachtete Übereinstimmung zwischen realen und simulierten Strömungsmustern gab den Ausschlag und die Grundgleichungen bildeten gar kein unabhängig validiertes Element. Natürlich kann man sagen, dass es nie möglich wäre, die beobachteten Muster zu simulieren, wenn man nicht vom richtigen theoretischen Modell ausgegangen wäre. Dies stellt ein gängiges – und starkes – Argument bezüglich der Validierung komplexer Modelle dar: Die Passung der Muster wäre ohne die richtige Theorie gar nicht zu erzielen. Diese Überlegung wird in Kapitel 3 ausführlicher diskutiert; übrigens mit dem Ergebnis, dass eine Bandbreite von Situationen vorliegt und es auch Fälle gibt, in denen per Simulation auch ohne theoretischen Ansatz Passung erzielt werden kann. Jedenfalls aber muss man in Rechnung stellen, dass ein erheblicher Modellierungsaufwand für den zweiten Schritt der Simulation unternommen werden musste. Die Wahl eines Raum-Zeit-Gitters, die Anpassung der kontinuierlichen Dynamik, die Implementierung als lauffähiges Programm – all diese Modellierungs(teil)schritte gehören zu einer Phase, die oft jahrelang andauert. Während dieser gesamten Phase muss ständig das Modellverhalten beobachtet werden und man hat gar keine andere Möglichkeit, als das experimentell zu tun. Die Dynamik der Simulationsmodelle, mit ihrer Vielzahl von auf den Computer zugeschnittenen Teilprozessen, ist schlicht nicht zu durchschauen und muss daher ausprobiert werden. Hier liegt eine bedeutende Asymmetrie vor: Wie lässt sich feststellen, ob der zweite Modellierungsschritt adäquat war? Das geht nur über eine Exploration des Gesamtverhaltens, beurteilt also das Resultat der Modellierungsschritte. Das ist allerdings auf Fälle beschränkt, in denen Simulationen gewisse Phänomene nachbilden, mit denen man sie dann vergleichen kann, wie das ja bei der Atmosphärendynamik der Fall ist. Kurz: Wenn die globale Simulation zur Zufriedenheit gelingt, scheint die gesamte Modellierung richtig. Misslingt sie jedoch, d. h. weichen die simulierten Muster von ihren Vorbildern ab, so ist nicht klar, welchem der Modellierungsschritte der Fehler zuzuweisen ist. Wenn das Simulationsexperiment fehlgeschlagen wäre, sei es nur instabile Muster wären entstanden, oder die Muster hätten sich nicht als sehr ähnlich gezeigt, dann stünden das theoretische Modell, das diskrete Modell und die Implementierung gleichzeitig auf dem Prüfstand. Dabei haben in der Regel lokale Reparaturstrategien Vorrang vor einer Revision des theoretischen Modells – ein Vorgehen, das auf die Plastizität des Modells baut (vgl. Kapitel 3). Für Phillips gab es keine Alternative zum Experiment, um die Adäquatheit der Modellierung zu überprüfen. Die Exploration des Modellverhaltens auf quasi-
1.5 Instabilität und instrumentelle Komponenten
27
empirische Weise ist daher eine notwendige Bedingung, die Modellierung überhaupt erst möglich macht, jedenfalls in komplexen Fällen wie diesem, in dem gar kein anderer Zugang zum Modellverhalten besteht. Dann muss auch das theoretische Modell selbst zum Gegenstand der Untersuchung gemacht werden und Simulationsexperimente dienen dazu, die Konsequenzen aus dem Modell-Kandidaten zu untersuchen. Der explorative und experimentelle Aspekt erhält seine eigentliche Bedeutsamkeit erst dann, wenn Simulationen nicht lediglich numerische Lösungen von theoretischen Modellen sind. Das ist selbstverständlich bereits dort der Fall, wo es gar keine theoretischen Vorbild-Modelle gibt. Ich möchte jedoch für die stärkere Behauptung argumentieren, dass auch dann, wenn theoretische Modelle vorliegen, deren Gleichungen genau genommen gar nicht numerisch gelöst werden. Um diese Behauptung zu stützen ist es hilfreich, die weitere Entwicklung der Zirkulationsmodelle zu betrachten.
1.5 Instabilität und instrumentelle Komponenten Phillips’ Experiment gilt als das berühmte „erste Experiment“ der Meteorologie und war von daher ein großer Erfolg, aber es kann zugleich auch als ein Fehlschlag betrachtet werden. Denn die Dynamik blieb nicht stabil. Nach nur wenigen simulierten Wochen schaukelte sich die interne Energie hoch und führte zur ‚Explosion‘ des Systems – die so gut passenden Strömungsmuster lösten sich in Chaos auf. Phillips berichtet das recht lakonisch: „After 26 days, the field … became very irregular owing to large truncation errors, and is therefore not shown.“ (1956, 145). Nun war genau der interessante Fall eingetreten: Das Experiment sollte simultan das kontinuierliche und das diskrete Modell bestätigen und daher tat sich durch den Fehlschlag ein besonderes Problem auf, da es zunächst unklar war, wo das beobachtete Fehlverhalten herrührte und wie man die nötige Um- oder Neukonstruktion bewerkstelligen sollte. Phillips und seine Kollegen in der CharneyGruppe waren sich völlig darüber im Klaren, dass die Stabilität ein entscheidender Gesichtspunkt ist. Schnell galt ein Konstruktionsfehler im diskreten Modell als Ursache. Dieses jedoch schien aus dem theoretischen Modell abgeleitet zu sein. Folglich musste es bisher unbekannte Bedingungen an die Konstruktion des Simulationsmodells geben, deren Missachtung die Approximation zunichte machte. Die erste und naheliegende Vermutung lautete, dass es an den Trunkierungsverfahren lag (wie das Phillips im obigen Zitat feststellte). Der Übergang von kontinuierlicher Beschreibung zum Computer erfordert stets eine diskrete, schrittweise und endliche Repräsentation. Dadurch treten beim Rechnen mit reellen Zahlen notwendigerweise kleine Rundungsfehler auf. Auch eine rechenin-
28
1 Experiment und Artifizialität
tensivere Verfeinerung der Schrittweiten kann dem nicht prinzipiell Abhilfe schaffen, denn je feiner das raum-zeitliche Gitter gestrickt wird, desto mehr Rechenoperationen sind nötig, die dann wiederum mehr dieser Rundungsfehler hervorbringen. In der Praxis muss man daher einen pragmatischen Ausgleich zwischen diesen beiden gegenläufigen Quellen der Ungenauigkeit suchen. Natürlich weicht eine auf z. B. acht Nachkommastellen gerundete Zahl von ihrem reell-wertigen Vorbild ab und selbst wenn diese Abweichung nur minimal ist, kann sie doch große Auswirkungen haben, wenn viele Iterationen durchgeführt werden und der Endzustand des Systems rekursiv bestimmt wird. Ganz zu Recht erkannten die Forscher, dass die Frage einer geeigneten Rundungsprozedur ein wichtiges Problem von sehr weitreichender Tragweite für die Simulationsmethode – und für numerische Methoden überhaupt – darstellte. Diese Frage war natürlich weit über die Meteorologie hinaus von Belang, hatte im Grunde gar nichts speziell mit ihr zu tun, sondern betraf die Simulation insgesamt: Die Ersetzung einer aufgrund der mathematischen Tradition als ‚natürlich‘ empfundenen kontinuierlichen Dynamik durch die diskrete, artifizielle Dynamik eines Simulationsmodells, so wurde nun klar, warf neue Probleme auf. John von Neumann erkannte sogleich die Signifikanz der Stabilitätsproblematik für einen weiten Anwendungsbereich numerischer Methoden. Er konnte sich bestätigt fühlen in seiner oben zitierten Einschätzung, dass die Meteorologie ein Fall mit paradigmatischem Potenzial war. Aufgrund der Stabilitätsprobleme bei Phillips’ Experiment und noch bevor Phillips seine Ergebnisse veröffentlicht hatte, berief von Neumann 1955 eine Konferenz ein mit dem Titel „Application of Numerical Integration Techniques to the Problem of the General Circulation“ (Pfeffer 1960). Der hauptsächliche Diskussionspunkt dort war, wie man mit den unvermeidlichen truncation errors umgehen sollte, d. h. eine Strategie zu finden, Simulationen gleichzeitig approximierend und stabil zu machen. Einige Jahre intensiver Forschungsarbeit wurden diesem Problemkomplex gewidmet, bis sich herausschälte, dass nicht nur die Techniken der Trunkierung, sondern auch die dynamischen Eigenschaften des Systems selbst von entscheidendem Einfluss waren. Phillips entdeckte, dass eine „nonlinear computational instability“ verantwortlich dafür war, dass sich selbst sehr kleine Fehler zu großen Abweichungen aufschaukeln (Phillips 1959). Die allgemeine Stoßrichtung der Bemühungen, inklusive derer von Phillips, war es, Rundungsprozeduren zu entwerfen, die sicherstellen sollten, dass Fehler sich aufheben anstatt sich aufzuschaukeln. Das Leitbild war die möglichst perfekte Berechnung des theoretischen Modells. Hinter dieser Bemühung steckte die Ansicht, dass die Simulationsmodellierung kein autonomer Schritt sei, sondern dazu diene, die Rechenkraft des Computers zur Lösung des kontinuierlichen Modells einzusetzen. Das Forschungsprogramm bestand darin, die geeigneten Bedingungen herauszufinden,
1.5 Instabilität und instrumentelle Komponenten
29
unter denen die Dynamik eines Simulationsmodells nur wenig und kontrolliert von der des theoretischen Modells abweicht. Diese Strategie schlug jedoch fehl – meines Erachtens in bezeichnender Weise: Die Computermodellierung war auf einen Holzweg geraten und erst ein konzeptionell neuer Blick auf das Problem, der die Aufgabe von der gelungenen Imitation der Phänomene und nicht von der approximierten Lösung des Systems von Differentialgleichungen aus definierte, führte zu einem Durchbruch. Dieser Durchbruch wurde von Akio Arakawa erzielt, einem japanischen Meteorologen, der herausragende mathematische Fähigkeiten hatte und der an der University of California Los Angeles (UCLA) ein Zirkulationsmodell entwickelte. Von Beginn an war er weniger daran interessiert, durch verbesserten Code eine exaktere Lösung zu erzielen. Vielmehr überlegte er, wie man einen neuartigen theoretischen Ansatz finden könnte, der langfristige Stabilität garantiert, dafür aber nicht sklavisch an mathematischer Korrektheit der Approximation kleben müsste. Im Grunde erkannte Arakawa, dass man sich vom Idealbild emanzipieren musste, die Grundgleichungen im strikten Sinne zu ‚lösen‘. Wenn es einen Simulationsansatz gibt, der die zeitliche Entwicklung der zu modellierenden atmosphärischen Phänomene adäquat reproduziert, und der das zudem stabil tut, dann muss diese Simulation nicht im mathematischen Sinne eine Lösung sein, nicht einmal im Limes. Dahinter stand die theoretische Einsicht, dass mit einer Lösung-im-Limes für die Praxis unter Umständen wenig gewonnen ist. Denn ein System diskreter Differenzengleichungen kann selbst dann, wenn es auf einem immer feiner werdenden raum-zeitlichen Gitter gegen das kontinuierliche System konvergiert, auf einem Pfad konvergieren, auf dem die statistischen Eigenschaften des diskreten Systems sich sehr von denen des kontinuierlichen Systems unterscheiden. Kurz, Arakawas Standpunkt beinhaltete, dass die Imitation der Phänomene Vorrang hat vor der Lösung der Grundgleichungen. Natürlich heißt das keineswegs, dass man beliebige Mechanismen einsetzen könnte, um eine komplexe Dynamik zu simulieren. Auch Arakawa orientierte sich eng an den Grundgleichungen. Sein Ansatz jedoch erlaubte der Simulationsmodellierung eine gewisse Autonomie von diesen Gleichungen. Arakawa setzte nicht den gewöhnlichen diskreten Jacobi-Operator an, um die zeitliche Entwicklung des Systems zu beschreiben, sondern seinen speziellen, später „Arakawa-Operator“ genannten. Dessen Herleitung ist mathematisch recht anspruchsvoll; die Details interessieren hier nicht (siehe Arakawa 1966 und die spätere Rekonstruktion Arakawa 2000). Der entscheidende Punkt ist, dass durch den Arakawa-Operator die nichtlineare Instabilität beseitigt werden konnte und die Dynamik auch langfristig stabil wurde. Er war sogar in der Lage, diese Eigenschaft mathematisch zu beweisen. Diese berühmte Ableitung trug ihm – bis heute und zu Recht – den Ruf ein, der theoretisch versierteste Kopf der Meteorologie zu sein. In diesem
30
1 Experiment und Artifizialität
mathematischen Parforceritt steckt die eigentliche Revolution, denn als wichtigstes Kriterium wurde die Stabilität gesetzt, eine auf den Computer als Instrument bezogene Eigenschaft. Um Stabilität zu erreichen, führte Arakawa zusätzliche Annahmen ein, die teilweise den theoretischen Gesetzmäßigkeiten zuwiderliefen, auf denen die Grundgleichungen basierten. Dazu gehörte die Annahme, dass die kinetische Energie in der Atmosphäre erhalten bleibt, was sicher falsch ist, da sie durch Reibung teils in Wärme umgewandelt wird. Arakawas Annahmen schienen den Fachkollegen auch zunächst nur eine mathematische Spielerei, die aus Gründen der realistischen Modellierung nicht akzeptabel war. Wie sich Arakawa später erinnert, lautete der Tenor: „Why require conservation while nature does not conserve?“ (2000, 16) Die meisten Modellierer richteten ihre Bemühungen darauf, die numerischen Algorithmen noch näher an die Grundgleichungen zu bringen. Aus einer solchen Perspektive war Arakawas Vorgehen widersinnig, oder zumindest suspekt. Nun ist die Geschichte der Physik reich an Beispielen, in denen kontrafaktische Annahmen eingeführt werden, um Modelle handhabbar zu machen. Ein verwandter Fall liegt auch hier vor, nur dass Arakawa diese Freiheit dem Simulations-Modell zugestand. Rückblickend könnte man konstatieren, dass Arakawa auf dem Wege war, ein Simulationsmodell ‚physikalisch‘ zu motivieren, nämlich indem er instrumentell motivierte artifizielle Annahmen einführte und auf die Effekte dieser Annahmen im Experiment setzte. Die gelungene Imitation der Phänomene im Simulationsexperiment war der Maßstab, der den Mangel an theoretischer Adäquatheit – aufgefasst als Einführung am theoretischen Modell gemessen artifizieller Komponenten – ausglich. Folgerichtig musste der Theoretiker Arakawa auf das Experiment zurückgreifen, um die Relevanz seiner mathematischen Ableitung zu untermauern. Man kann das aus dem interessanten Umstand ablesen, dass Arakawa seinen Ansatz bereits 1962 entwickelt hatte und über ihn vortrug, aber erst vier Jahre später veröffentlichte, da er zunächst damit beschäftigt war, seinen Operator ins Modell zu implementieren und Simulationen durchzuführen. Damals musste noch weitgehend in Maschinencode geschrieben werden und es war federführend er selbst, der das erledigen musste. Nur so konnte überprüft werden, ob die Simulation überhaupt gelang, vor allem stabil blieb und gleichzeitig nicht durch die potenziell verfälschenden Zusatzannahmen in der Qualität der Approximation beeinträchtigt wurde. Meines Erachtens handelt es sich hier um einen entscheidenden Punkt: Die Diskretheit der Modelle erfordert artifizielle, mitunter nicht-repräsentierende Elemente im Simulationsmodell, deren dynamische Effekte nur im Experiment zu eruieren sind. Simulationsmodellierung ist daher auf Experimentieren angewie-
1.5 Instabilität und instrumentelle Komponenten
31
sen. Schließlich führte der Erfolg im Simulationsexperiment dazu, dass Arakawas Ansatz sich durchsetzte, die anfängliche Kontroverse wandelte sich in breite Zustimmung und sogar Bewunderung. Was als eine fragwürdige neue Herangehensweise begann, wurde im Experiment bestätigt und wird heute als Vorgehensweise so allgemein anerkannt, dass sie zum ‚Rechentrick‘ sedimentiert ist (vgl. das Kapitel in Weart et al. 2003: „Arakawa’s computational trick“). Auch wenn Arakawas Operator seit den später 1960er Jahren als große theoretische Leistung anerkannt wurde, das heißt als mathematisch motivierter Weg, Stabilität und Approximationsgüte zu vereinbaren, kümmerte sich doch die Mehrheit der Forscher um eine Verfeinerung der Trunkierung, um durch geeignete Glättung, die die Fehler wegmitteln sollte, die gewünschte stabile Dynamik zu produzieren. Einmal mehr war es ein Simulationsexperiment, das die Bahnen der Modellierung beeinflusste. 1978 veranstaltete Charney ein groß angelegtes Vergleichsexperiment, in dem drei verschiedene Atmosphärenmodelle unter den gleichen Startbedingungen parallel liefen, die Modelle von Leith (Lawrence Livermore Lab), Smagorinsky (GFDL Princeton) und Arakawa (UCLA). Während die ersten beiden Glättungsmethoden implementiert hatten, setzte das UCLA Modell auf Arakawas Operator. Phillips beschreibt den Ausgang des Experiments wie folgt: …three general circulation models (…) were used for parallel integrations of several weeks to determine the growth of small initial errors. Only Arakawa’s model had the aperiodic behavior typical of the real atmosphere in extratropical latitudes, and his results were therefore used as a guide to predictability of the real atmosphere. This aperiodic behavior was possible because Arakawa’s numerical system did not require the significant smoothing required by the other models, and it realistically represented the nonlinear transport of kinetic energy and vorticity in wave number space. (Phillips 2000, xxix)
Das unterstreicht nochmals die These, dass die anfängliche Perspektive auf die Simulation als numerische Lösung eines (mathematischen oder physikalischen) theoretischen Modells in eine Sackgasse geführt hatte. Man musste dann Glättungsmethoden benutzen, um Stabilität zu erreichen, was wiederum langfristig die Imitationseigenschaften beeinträchtigte. Arakawas Ansatz gestattete es, ein ‚realistischeres‘ Bild der atmosphärischen Dynamik zu produzieren durch zunächst kontra-intuitive und artifizielle Annahmen, die nicht theoretisch, sondern instrumentell gerechtfertigt wurden. Oder besser gesagt waren sie durchaus theoretisch motiviert, durch die mathematisch gezeigte numerische Stabilität, was aber ein instrumentelles, computer- und simulationsbezogenes Kriterium ist, das der theoretischen Adäquatheit im Sinne der physikalischen Grundgleichungen entgegen läuft.
32
1 Experiment und Artifizialität
1.6 Simulation und diskrete Modelle Die Sachlage lässt sich vom Fallbeispiel abstrahieren und allgemeiner darstellen. Man hat es dann mit einem System C partieller Differentialgleichungen, sowie einem System D finiter Differenzengleichungen zu tun. C durch D zu ersetzen wird im Wesentlichen dadurch gerechtfertigt, dass für verfeinerte Maschen des RaumZeit-Gitters, dargestellt durch den Parameter Δ, schließlich D in C übergeht: (*)
lim DΔ = C für Δ → 0.
So weit, so gut. Die Relation (*) legt es nahe, davon auszugehen, dass auf einem feinen Gitter auch die dynamischen Eigenschaften von DΔ und C praktisch übereinstimmen. Damit lieferte dann das Simulationsmodell DΔ in der Tat eine numerische Lösung von C. Diese Auffassung hält jedoch einer genaueren Betrachtung nicht stand, denn es ist keineswegs der Fall, dass alle dynamischen Eigenschaften bereits auf einem feinen Gitter approximiert würden. Genauer gesagt, fehlt es an einer verlässlichen Einschätzung, was als ‚fein genug‘ gelten soll. Man könnte versuchen, fein so zu definieren, dass eben ein feines Gitter ein solches ist, auf dem die Eigenschaften nah beieinander liegen. Dann wäre die Bestimmung der Grenze, ab der ein Gitter als fein gelten könnte, eine Frage, die per Experiment zu klären ist. Die Simulation als eine numerische Lösung zu sehen, ist sogar irreführend, insofern es suggeriert, die Simulation würde aus dem zu lösenden theoretischen Modell gewonnen, mithin D allein durch C definiert. Was hat man folglich von der so verlockenden Gleichung (*)? In der Praxis liegt ja niemals ein unendlich feines Gitter vor, und es gibt kein allgemeines und experiment-unabhängiges Verfahren, um so etwas wie den Abstand von DΔ und C für Δ > 0 zu bestimmen. Das heißt, die Eigenschaften des Modells C, nennen wir sie Prop(C), können sich für ein kleines Δ > 0 unter Umständen entscheidend von Prop(DΔ) unterscheiden. Es sei denn, man will unter ‚kleinem Δ‘ wiederum per definitionem ein Δ verstehen, so dass Prop(DΔ) wie gewünscht nah bei Prop(C) ist. Dieser Sachverhalt lässt sich bündig in formaler Schreibweise darstellen. Die senkrechten Striche | · | mögen ein geeignetes Maß darstellen. Die Wahl dieses Maßes wird sicher von den jeweiligen Umständen, den Zielen und Absichten der Modellierung abhängen, wie zum Beispiel der statistischen Übereinstimmung von Mustern der globalen Zirkulation. Obwohl wegen (*) die Beziehung | Prop(C), Prop (DΔ) | → 0 für Δ → 0, zu erwarten ist, gibt es für ein Δ > 0 in der Regel keine Abschätzung von | Prop(C), Prop(DΔ) |. Und es gibt nicht einmal die Gewähr, dass sich die Eigenschaften bei Verfeinerung des Gitters etwa monoton annähern würden. Der Pfad, auf dem sich DΔ an C annähert, d. h. Prop(DΔ) aufgefasst als Funktion von Δ, ist im allgemeinen schlicht unbekannt. Man hat es daher mit einer recht offenen
1.6 Simulation und diskrete Modelle
33
Situation zu tun.Weder ist D durch (*) festgelegt, noch ist eindeutig bestimmt, wie Δ kleiner wird (oder werden sollte), noch ist Prop(DΔ) für ein konkretes DΔ bekannt. Eine bestimmte Verfeinerung des Gitters könnte unter Umständen sogar zu einer Verschlechterung der Approximationseigenschaften führen. Wenn man etwas über die Lösungen von C und D weiß, können oft mathematische Aussagen über die Approximationseigenschaften hergeleitet werden, etwa eine Abschätzung der Geschwindigkeit, mit der sich die Modelle annähern (bei feiner werdendem Gitter). In komplexen Fällen jedoch muss man in aller Regel ohne derartige Aussagen auskommen, da von vornherein keine Lösung von C, an der man abgleichen könnte, zu erhalten ist. D ist also keineswegs eine schematische Approximation an C. D als eine numerische Lösung von C zu betrachten, übersieht genau den Kernbereich der Simulationsmodellierung. Dieser Punkt ist von größter Wichtigkeit: Im Allgemeinen liefert D keine Lösung von C. Um einen Prozess zu imitieren, muss D gar nicht die Gleichungen von C lösen – was es im diskutierten Fallbeispiel auch nicht tat. Der Kernpunkt besteht darin, dass die Eigenschaften eines Modells, die Konsequenzen, die man sich im Verlauf seiner Konstruktion einhandelt, in Experimenten beobachtet werden können und im Verlauf der Kooperation von Experimentieren und Modellieren angepasst werden können. Ein methodischer Kernpunkt der Simulationsmodellierung liegt darin, dass sie den Abgleich zwischen den Phänomenen und Daten und dem Modell selbst zu einem Bestandteil der Modellkonstruktion macht. Das lässt sich auch anhand der Adjustierung von Parametern nachvollziehen. Praktisch beinhaltet fast jedes Modell eine Anzahl an Parametern. Der Fall der Simulationen ist besonders gelagert, weil die Bestimmung der Parameterwerte oft nicht zu den Anfangs- oder Randbedingungen gehört, also nicht die Anpassung an eine spezielle Anwendungssituation ist. Die Parameter, die typischerweise in Simulationen Verwendung finden, werden nicht ‚von außen‘ bestimmt, sondern ‚von innen‘ – durch den Abgleich mit den Resultaten numerischer Experimente, d. h. durch eine Art Rückwärts-Logik. Ein passender Parameterwert ist dann eben derjenige, der im Rahmen der getesteten Simulationsdynamik zu brauchbaren Resultaten führt. So können auch Blackbox Parameter, denen keine klare Interpretation zukommt, erfolgreich eingesetzt werden. Betrachten wir diesen Prozess in stark idealisierter Form. Man hat eine ganze Schar von Parametern p := {p1, p2, …}, sozusagen Stellschrauben, für das diskrete Modell D: D = D(p). Prop(D(p)) wird als eine Funktion in p = {p1, p2, …} aufgefasst. Das Ziel ist es, p so zu variieren, dass das (im numerischen Experiment) beobachtete Verhalten den zu modellierenden Phänomenen (Ph) nahe kommt. Die Aufgabe lautet:
34
1 Experiment und Artifizialität
Finde p, so dass | Prop(D(p)), Prop(Ph) | klein ist. Die formale Schreibweise der Zielgröße suggeriert hier mehr an quantitativer Einschätzung, als meist möglich ist. Aber selbst ein eher qualitatives Urteil der Fachleute tut dem Argument keinen Abbruch. Denn der Punkt hierbei ist, dass die passende Modellspezifikation, also konkrete Parameterwerte p, in einem Prozess explorativer Kooperation von Modellierung und Experiment gefunden werden. Was traditionellerweise durch Approximation an die theoretisch gültigen Bedingungen erreicht werden sollte, kann nun durch einen Abgleich der Modelleigenschaften mit den Phänomenen erreicht werden.
1.7 Autonomie und Artifizialität Den Ertrag dieses Kapitels möchte ich im Folgenden kurz resümieren. Simulationsmodellierung kann als Zusammenspiel von theoretischen und instrumentellen Aspekten begriffen werden. Dieser Umstand wird tendenziell verdeckt durch die Darstellung des diskreten Modells D als Lösung. Das suggeriert eine Definitionshoheit seitens des (traditionellen) theoretischen Modells C, die aber tatsächlich nur in einem schwachen Sinne besteht. In gewissem Sinne stellt die Methode der finiten Differenzen den theorielastigen Extremfall dar, insofern ein starkes theoretisches Vorbildmodell vorhanden ist, das in den meisten anderen Simulationsansätzen fehlen kann. Nur im Extremfall entfaltet die Redeweise von der Lösung überhaupt ihre Anziehungskraft. Nun hat gerade dieser Fall eine große Aufmerksamkeit in der Wissenschaftsphilosophie erhalten und wird teils als eigenständige Kategorie, teils als generischer Fall betrachtet. Ich halte das jedoch nicht für angezeigt, da die Gemeinsamkeiten der Simulationsmodellierung so verlorengehen. Konsequenterweise besteht für mich die hauptsächliche Motivation, einen solchen Fall hier so ausführlich zu behandeln, darin, dass er am theoretischen Ende des Spektrums von Simulationsmodellen angesiedelt ist. Die hier erzielten Ergebnisse über den Einsatz von Experimenten und artifiziellen, instrumentellen Elementen gelten a fortiori für andere Modellierungstechniken. Kurz, das Konzept von Simulation als numerische Lösung oder Realisierung eines theoretischen Modells – muss modifiziert werden. Es ist nicht generell so, dass ein vorgängig erstelltes exaktes theoretisches Modell vor den schädlichen Einflüssen heuristischer und explorativer Elemente beschützt werden müsste, wie das Stephan Hartmann (1996, 87) gegen einen tendenziell entwertenden Einfluss von Simulationen zu bedenken gibt. Tatsächlich steht die Simulationsmodellierung vor einer Aufgabe, deren Erfüllung ganz wesentlich vom Zusammenspiel von
1.7 Autonomie und Artifizialität
35
Experimentieren und Modellieren getragen wird, das von mir als explorative Kooperation bezeichnet wurde. Diese eng verzahnte Verbindung verwischt die Unterscheidung zwischen context of discovery und context of justification, da bereits während der Phase der Modellbildung ständig abgeglichen wird. Ich stimme hier Friedrich Steinle (2005) zu, der überzeugend herausgearbeitet hat, dass die Entwicklung der modernen Wissenschaften immer schon von einem erheblichen Anteil an explorativen Experimenten begleitet war. Und Steinle kommt zu dem Schluss, dass dadurch die Unterscheidung der Kontexte infrage gestellt wird (Steinle 2002). Dieser explorative Anteil wird, so haben wir gesehen, zu einem zentralen Bestandteil der Methodologie der Simulation. Die Performanz ist der Dreh- und Angelpunkt. Um sie zu optimieren, fließen nicht nur theoretische Überlegungen, sondern auch die Phänomene und Daten in entscheidender Weise in die Modellierung mit ein. Dieser Umstand betrifft nicht nur die finiten Differenzen, sondern bezieht sich ganz generell auf generative Mechanismen. Wo solche Mechanismen artifizieller Natur sind, und nicht die zu modellierenden Phänomene repräsentieren, bleibt die Performanz als Kriterium gelungener Modellierung. Die Performanz ist aber nicht anders als im Experiment zu ermitteln. Für die theoretisch-mathematische Untersuchung stellen diskrete generative Mechanismen einen problematischen Gegenstandsbereich dar. Wenn es z. B. um die Stabilität einer konkreten Implementation geht, so gibt es keine aussagekräftige Theorie, sondern nur die am konkreten Objekt experimentell überprüfte Modelldynamik. Die Performanz komplexer Modelle theoretisch zu erfassen, war lange ein großes Ziel der theoretischen Informatik. Der Weg der Mathematisierung schien der Königsweg, um die Informatik als eine theoretische Wissenschaft zu etablieren. Michael Mahoney hat in einer Reihe von Studien dargelegt (z. B. Mahoney 1992), wie diese Versuche zu keinem überzeugenden Ergebnis geführt haben. Man kann das als eine Bestätigung der essenziellen Rolle der explorativen Kooperation ansehen: Im Falle der computerbasierten Modellierung greifen die etablierten Strategien der Mathematisierung nicht (oder zumindest noch nicht). Wir können also als wesentliche Charakteristika der Simulationsmodellierung festhalten, dass Experimentieren und Modellieren eng verzahnt sind und so auch den Einsatz artifizieller oder instrumenteller Komponenten im Dienste der Performanz gleichermaßen erfordern wie erlauben.⁵ Tatsächlich ließe sich der von mir gewählte Fall der Meteorologie leicht um weitere Beispiele ergänzen. Ganz in diesem Sinne führt Winsberg in (2003) das Beispiel der „shock waves“ an, in dem artifizielle Wellenfronten eingeführt werden, um Diskretisierungseffekte zu kompensieren. In diese Kategorie gehören auch die sogenannten Parametrisierungen der Klimamodelle, mit denen
36
1 Experiment und Artifizialität
Simulationsmodelle eröffnen damit eine spezifische Perspektive im Rahmen der aktuellen wissenschaftsphilosophischen Debatte um die Rolle von Modellen. Der Typ von theoretischem Modell, der in der vorstehenden Diskussion mit C bezeichnet wurde, hat die mathematisch-naturwissenschaftliche Modellbildung lange dominiert und stand auch im Zentrum der philosophischen Aufmerksamkeit seit Hertz und Maxwell. Die zeitgenössische Debatte fußt erstens auf der Einsicht, dass man ohne Modelle nicht von einer Theorie zu Anwendungen kommt. Sie hat zweitens eine kontroverse Note erhalten durch die Thesen von Nancy Cartwright, dass Theorien, oder besser theoretische Gesetzmäßigkeiten, kaum hilfreich sind in Anwendungsfragen. Daher, so Cartwright, wären erstens theoretische Gesetze so gut wie irrelevant in einem einigermaßen komplexen Anwendungskontext und zweitens würden Modelle viel mehr von den Phänomenen und Daten her gesteuert (sogenannte phenomenological models). Eine Art Mittelstandpunkt ist von Margret Morrison in „models as autonomous mediators“ (Morrison 1999, vgl. auch weitere Beiträge im Sammelband Morgan und Morrison 1999) vertreten worden.⁶ Demnach werden Modelle weder von der Theorie noch von den Daten her determiniert. Vielmehr kommt ihnen eine eigenständige und zwischen beiden vermittelnde Rolle zu. Die Befunde im Falle der Simulationsmodelle bestätigen die Linie von Morgan und Morrison: Die Formulierung eines (diskreten) Simulationsmodells geschieht nicht als bloße Ableitung aus einer theoretischen Vorlage. Damit tritt der Autonomie-Gesichtspunkt erneut auf, diesmal zwischen theoretischem Modell und Simulationsmodell. Arakawa dient als Beispiel dafür, dass der Erfolg davon abhängen kann, dass die Simulationsmodellierung als eigenständige Aufgabe begriffen wird. Zugleich jedoch bleibt festzuhalten, dass die Theorie, das theoretische Modell der atmosphärischen Grundgleichungen, sehr wohl eine äußerst wichtige Position einnahm in der Simulationsmodellierung. Und drittens schließlich wurde auch deutlich, wie im Zusammenspiel von Experimentieren und Modellieren die Phänomene und Daten einen direkten Einfluss auf das SimulaProzesse an einem Gitterpunkt dargestellt werden, die sich eigentlich im Bereich zwischen Gitterpunkten abspielen – der ja aber im Simulationsmodell nicht enthalten ist. Zu dieser Thematik sind eine Reihe von philosophischen Arbeiten verfügbar, die speziell auf den Kontext der Klimawissenschaft abzielen, wie Gramelsberger und Feichter (2011) oder Parker (2006). Ulrich Krohs (2008) schildert ein Beispiel aus der Biologie, in dem die Simulationsmodellierung zwar von einem theoretischen Modell startet, dann aber zu Maßnahmen greifen muss, wie sie hier als instrumentell bezeichnet wurden. Die philosophische Diskussion um Modelle hat so weite Kreise gezogen, dass ich hier auf eine detailliertere Darstellung verzichten kann. Suppes (1961) kann als ein Vorreiter gelten, Cartwright (1983), Giere (1988), Hacking (1983), Morgan und Morrison (1999) als Standardreferenzen für die neuere Debatte.
1.7 Autonomie und Artifizialität
37
tionsmodell ausübten. Somit lassen sich Simulationsmodelle ganz zu Recht als autonome Vermittler betrachten. Unterhalb der Ebene der Zustimmung zu diesem generellen Befund fügen sie der Modelldebatte eine neue Facette hinzu, da die Vermittlungsleistung auf den besonderen Eigenschaften der diskreten Modelle – und des instrumentellen Umgangs mit ihnen – beruht.
2 Visualisierung und Interaktion Mathematische Modelle können auf sehr verschiedene Weisen dargestellt werden. Bereits auf den ersten Blick sind Simulationen dadurch ausgezeichnet, dass sie oft in visualisierter Form auftreten. Ohne Frage stellt die visualisierte Form der Darstellung ein wichtiges Merkmal von Simulationen dar. Wie für die Computerexperimente, so gilt auch für die Computervisualisierungen, dass man sie nicht als alleiniges oder allein maßgebliches Bestimmungsmerkmal nehmen sollte. Derjenige Aspekt, unter dem sie meines Erachtens am meisten zur Charakterisierung der Simulationsmodellierung beitragen, besteht darin, auf welche Weise Visualisierungen in die Modellierung eingebunden werden. Ebenso wie numerische Experimente an eine lange Tradition experimenteller Methoden in den Wissenschaften anschließen, fügen sich auch Visualisierungen in ein vielschichtiges Feld von bildlichen Darstellungen ein. Es gibt hier keine Entwicklungslogik hin zur Computervisualisierung, wohl aber verschiedene Aspekte, unter denen Visualisierungen eine besondere Art von Darstellungen sind. Beachtung verdient das Maß an Kontrolle, das die künstlich erzeugte Bildlichkeit von Simulationen erlaubt, also das Variieren von Farben, Perspektiven etc. In der Bildwissenschaft wird die Simulation vorrangig als artifizielle Repräsentation thematisiert.¹ In der Wissenschaftsphilosophie wird eine inhaltlich eng verwandte Debatte geführt, in der es um die Art und Weise geht, wie wissenschaftliche Modelle repräsentieren.² In diesem Kapitel möchte ich mich auf den Kontext der Simulation konzentrieren. Es soll weder um bildhafte Darstellung überhaupt noch um eine philosophische Bestimmung eines angemessenen Repräsentationsbegriffs gehen, sondern viel spezifischer darum, welche besondere Rolle der Visualisierung im Rahmen der Simulationsmodellierung zukommt. Kurz gefasst lautet die These: In methodologischer Hinsicht unterstützt die Visualisierung den explorativen und iterativen Modus der Modellierung, während sie in epistemischer Hinsicht der Urteilskraft eine besondere Rolle zuschreibt. Zentral für beide ist, dass Visualisierungen Möglichkeiten zur Interaktion mit Modellen bieten. Dadurch nämlich wird die relativ große menschliche Auffassungsfähigkeit in der visuellen Dimension mit den kalkulatorischen Fähigkeiten
Reifenrath (1999) kann als typischer Vertreter einer kunst- und bildwissenschaftlichen Perspektive gelten, der die Künstlichkeit das herausragende Merkmal von Simulation schlechthin gilt. Ich führe hier nur die Beiträge von Bailer-Jones (2003) und Suarez (2006) an. Der erstere differenziert eine Reihe von Repräsentationsweisen, der zweite verneint, dass Modelle überhaupt im eigentlichen Sinne repräsentieren.
2.1 Funktionen der Visualisierung
39
der Rechner verknüpft, indem am Bildschirm Darstellungen variiert oder TeilProzesse hervorgehoben werden. Die visuelle Darstellung bietet ein probates Mittel bei dem in Kapitel 1 erörterten Zusammenspiel von experimentellem Zugang und instrumentalistischen Annahmen. Die Visualisierung kann entscheidend sein, um solche Annahmen nach Maßgabe der Performanz des simulierten Systems anzupassen. Diese Repräsentationsform ermöglicht es, Muster zu vergleichen, wobei der Vergleich die Grundlage für ein Urteil über die Adäquatheit der Modellierung liefern kann, ohne dass diese Adäquatheit bereits aus den gemachten Annahmen – nach theoretischen Maßgaben – gefolgert werden könnte. Die Visualisierung erfüllte dann eine wesentliche Rolle im Rahmen der Modellierung. Prima facie werden hohe Anforderungen an die instrumentelle Qualität gestellt, wenn man das Experimentieren und Explorieren auf effektive Weise in den Modellierungsprozess einbinden will. Denn es mag notwendig sein, die Auswirkungen von Eingriffen in Modellierungsannahmen kontrolliert zu variieren und dann zu beobachten, wie sie sich auswirken, auch wenn ein analytischer Zugriff auf diese Effekte nicht möglich ist.
2.1 Funktionen der Visualisierung Zwei Eigenschaften geben in besonderer Weise Anlass, Visualisierungen ins Zentrum der Aufmerksamkeit zu rücken, nämlich die Anschaulichkeit sowie die Prozesshaftigkeit der Darstellung. Beide sind eng miteinander verknüpft.³ Die anschauliche Darstellung ermöglicht es den Forschern, wesentliche Eigenschaften der Modelldynamik zu erfassen und sich direkt (am Bildschirm) auf sie zu beziehen – jedenfalls im Idealfall. Das vermag mitunter wichtige Indizien für die Beurteilung der Adäquatheit von Simulationen liefern. In der Beurteilung der Atmosphärendynamik, etwa beim in Kapitel 1 besprochenen Experiment von Phillips, kam es letztlich darauf an, ob die simulierten Strömungsmuster zu den beobachteten gut passen. Derartige Fragen des Mustervergleichs treten sehr häufig auf bei Simulationen und sind besonders gut visuell-anschaulich zu erfassen. Die Überlegung, dass visuelle Darstellungen dazu geeignet sind etwas zu veranschaulichen, hat nicht speziell mit dem Computer zu tun. Dieser erweitert jedoch den Anwendungsbereich erheblich, und zwar indem zwei komplementäre Aspekte ineinandergreifen. Zum einen werden enorme Mengen an Daten verfüg-
Fritz Rohrlich (1991) hat beide zusammengefasst, wenn er hervorhebt, dass Simulationen vor allem „dynamically anschaulich“ seien.
40
2 Visualisierung und Interaktion
bar, die von automatisierten – und das heißt meist: computerisierten – Verfahren erzeugt werden.⁴ Zum anderen können selbst umfangreiche Datenmengen mitunter zu aussagekräftigen Visualisierungen kondensiert werden. In vielen Fällen ist gar keine andere Darstellungsweise verfügbar, um die Daten zu erfassen.⁵ Der nötige Rechenaufwand kann im Allgemeinen nur durch die Maschine geleistet werden. Um die Funktionen der Visualisierung innerhalb der Simulationsmodellierung zu bestimmen, ist es hilfreich, auf die oben genannte Eigenschaft der Prozesshaftigkeit einzugehen. Wenn die bildliche Darstellung dynamisch erfolgt, spricht man von prozessualer Darstellung oder auch Animation. Die Prozesshaftigkeit entspricht der Simulation in einem besonderen Sinne. Stephan Hartmann z. B. fasst sie als das eigentliche Merkmal auf (Hartmann 1996, zustimmend Humphreys 2004). Damit würde die Visualisierung als prozesshafte Darstellung der Prozesshaftigkeit der Simulation entsprechen. Hier ist ein wichtiges Moment angesprochen, auch wenn meines Erachtens die Festlegung darauf, dass Simulation immer die Imitation eines Prozesses sei, über das Ziel hinausschießt: Eine Monte-Carlo Simulation kann zum Beispiel ein Integral simulieren, das selbst nur mit Mühe als Prozess beschrieben werden könnte. Ich möchte den Hartmann-Humphreys Standpunkt aufnehmen, aber nicht auf das zu simulierende Objekt beziehen, sondern auf den Prozess der Modellierung ummünzen. Dabei lässt sich sehen, wie die kontrollierte Variation von Visualisierungen ein unentbehrliches Mittel ist, komplexe Simulationsmodelle zu konstruieren und anzupassen. Die besondere anschauliche Qualität der dynamischen Visualisierung ist ein zweischneidiges Schwert. Auf der einen Seite kann es gelingen, komplizierte Relationen so darzustellen, dass sie fassbar werden – und das auch dann, wenn die Darstellung eine Reduktion aus einer schier übermächtigen Datenmasse ist. Gerade maschinengestützte Verfahren erzeugen oft eine unüberschaubare und daher amorphe Masse an Daten. Der Large Hadron Collider am CERN, der Terabyte an Daten produziert, bietet nur ein extremes unter vielen verwandten Beispielen (siehe Merz 2006 für eine Studie der mehrfachen Rollen von Simulation am LHC). Weitere Beispiele werden weiter unten im Kapitel besprochen. Jedenfalls liegt auf der Hand, dass komplexe Dynamiken und große Datenmengen kaum anders als durch Computervisualisierungen fassbar gemacht werden können. Hier wirken sie als technologie-gestütztes Gegenmittel zur ebenfalls auf Technologie gestützten Anhäufung von Komplexität und Menge. Es hat sich noch kein allgemein gebräuchlicher Name dafür etabliert. Man spricht von Datenflut, big data, oder auch data-driven research. Eine neue Wissenschaft, oder systematische Kunstform des Visualisierens beginnt sich zu formieren, vgl. Chen und Floridi (2012).
2.1 Funktionen der Visualisierung
41
Auf der anderen Seite können die Dynamik und der Facettenreichtum von Visualisierungen auch zu einem Fehlschluss verführen – man könnte sagen, zu einem ästhetischen Fehlschluss, dass es nämlich um reale, empirisch beobachtete Abläufe ginge. Und das ist die zweite, die gefährliche Schneide des Schwerts: Simulierte Systeme sehen mitunter aus wie reale Systeme. Hartmann (1996, 86) z. B. erkennt darin die große Gefahr der Simulation – dass die konstruierte realistische Anmutung am Bildschirm als starkes Anzeichen dafür genommen wird, dass es tatsächlich um Reales ginge. Dazu trägt sicher auch bei, dass Visualisierungsprogramme und graphische Werkzeuge heute als kommerzielle Produkte entwickelt, gehandelt und von Forschern als fertige Pakete implementiert werden. Als package erhältliche und einbindbare Programme können auf sehr verschiedenen wissenschaftlichen und technischen Gebieten Verbreitung finden. Und, nebenbei bemerkt, führt das auch dazu, dass z. B. Videospiele und animierte Sequenzen moderner Technikwissenschaften mitunter eine sehr ähnliche Ästhetik aufweisen. Darüber hinaus haben mehr und mehr Forschungseinrichtungen eigene Abteilungen zur professionellen Aufbereitung der visuellen Darstellung. Auf der Modellierungsseite ist es verlockend, mehr und mehr Details allein aus dem Grunde dazu zunehmen, um ein möglichst realistisches visuelles Erscheinungsbild zu erzeugen. Ein solches Vorgehen lässt sich mit Recht kritisieren, läuft es doch nicht auf eine echte, sondern eine täuschend echte Darstellung hinaus. Allerdings werden solche Handlungsweisen oft festgestellt und beklagt, was auf die Sogwirkung hinweist, die leistungsstarke Visualisierungen entfalten können.⁶ Die entstehende Problemlage hat wissenschaftstheoretische, epistemologische und ästhetische Facetten und hat zur Herausbildung eines interdisziplinären Gebietes geführt zwischen Wissenschaftsforschung, Philosophie und Kunstgeschichte, das die Repräsentationsform der Simulation, die piktorale Qualität der Computervisualisierung zum Gegenstand hat.⁷ Als grundsätzlicher Konsens kann gelten, dass die Visualisierungen in einem hohen Grade konstruiert sind, wie das Heintz und Huber ausdrücken: „…wie viele Apparaturen, Operationsschritte, Entscheidungen und Eingriffe involviert sind, bis vor unseren Augen jene Bilder entstehen, deren Perfektion unmittelbare Sichtbarkeit suggeriert.“ (2001, 9) Tatsächlich ist die so dynamische Anschaulichkeit alles andere als unmittelbar, was bei Licht betrachtet eine sehr naheliegende Einsicht darstellt. Die Ein Beispiel ist die oft konstatierte Nähe von Visualisierungen und Reklame in der Nanowissenschaft, siehe Beiträge in Baird et al. (2004). Lynch und Woolgar (1988), Jones und Galison (1998), Giere (1999), Dress und Jäger (1999), Dommann und Meier (1999), Heintz (2001), Bredekamp (2003), Ihde (2006), Johnson (2006, 2008).
42
2 Visualisierung und Interaktion
anschauliche Greifbarkeit ist gerade in den Fällen bemerkenswert, ja fast kontraintuitiv, in denen gar kein Objekt repräsentiert wird. Computerbildern entspricht oft gar kein Original im üblichen Sinne. Hans-Jörg Rheinberger (2001) thematisiert Visualisierungen als Fälle, in denen Objekt und Darstellungsmedium teilweise identisch sind. Das ist sehr richtig, aber die Visualisierung in ihrer Funktion für die Modellierung bleibt weitgehend unbeachtet.⁸ Gerade um sie soll es im Weiteren gehen.
2.2 Einsicht in komplexe Dynamik Ein berühmtes frühes Beispiel für die Untersuchung komplexer Systeme stammt von dem Meteorologen und Physiker Edward Lorenz. Er fand heraus, dass ein von ihm betrachtetes relativ einfach definiertes dynamisches System (wieder ein System von Differentialgleichungen) ein höchst bemerkenswertes Verhalten aufwies: Eine nur geringfügige Änderung der Anfangsbedingungen führte im Verlauf der deterministischen Dynamik zu einer großen Änderung im Gesamtverhalten. Diese Systemeigenschaft ist zutreffend als ‚deterministisches Chaos‘ bezeichnet worden (vgl. Lorenz 1967, 1993): Es handelt sich um ein deterministisches System, in dem mit der Festlegung der Anfangsbedingungen die zukünftige Entwicklung komplett festgelegt ist. Gleichzeitig ist es unvorhersagbar, in dem Sinne, dass auch nur die geringste Variationsbreite in den Anfangsbedingungen offen lässt, wohin sich die Systemdynamik entwickelt. Mit ‚nichtlinearem‘ Verhalten wird im Grunde der gleiche Umstand benannt, dass das resultierende Modellverhalten nicht linear von den Anfangsbedingungen abhängt, d. h. dass nah beieinander liegende Anfangsbedingungen nicht zu nah beieinander liegenden Zuständen führen. Lorenz’ Beispiel ist berühmt und wurde zum Paradigma der danach entstehenden Chaostheorie und Theorie komplexer dynamischer Systeme. Dabei war sein Modell keineswegs so von ihm konstruiert worden, dass es diese exotischen mathematischen Eigenschaften aufweisen sollte, sondern entstammte dem Bereich meteorologischer Modellierung. Es handelte sich daher um Resultate, die für die Meteorologie direkt relevant waren.⁹ Der sogenannte Schmetterlingseffekt fasst die Nichtlinearität in ein Bild: Selbst kleine Ereignisse wie der Flügelschlag eines Schmetterlings können unter Umständen große Auswirkungen haben, wie
Ausnahmen existieren mit den Arbeiten von Martz und Francoeur (2004), Ramsey (2007), sowie Gramelsberger (2010). Nach anfänglichem Zögern wurden Lorenz’ Überlegungen als bahnbrechend anerkannt, vgl. dazu den historischen Abriss in Weart, Jacob und Cook (2003) und die oben genannten Arbeiten von Lorenz selbst.
43
2.2 Einsicht in komplexe Dynamik
eine Änderung des Wetters – jedenfalls im Prinzip. All dies betrifft dynamische Systeme, eine Disziplin, die ganz in der Sprache der mathematischen Differentialgleichungen gefasst ist. Der springende Punkt ist, dass mit analytischen Methoden zwar die Rätselhaftigkeit des Verhaltens festgestellt werden konnte, dass es aber nicht möglich war, einen Einblick zu erhalten, was eigentlich in solchen komplexen Systemen passierte. Wie sollte man sich ein System vorstellen, das beim kleinsten ‚Wackler‘ in verschiedene Zustände attrahiert würde? An dieser Stelle treten die Computersimulation und insbesondere die Visualisierung auf den Plan. Die Rätselhaftigkeit verschwand im Grunde erst, als computergenerierte Bilder, wie das in Abbildung 2.1 gezeigte, den Lorenzattraktor (im Phasenraum) veranschaulichten.
50 45 40 35 30 25 20 15 10 5
–20
–15
–10
–5
0
5
10
15
–20 20 –25
–15
–10
–5
0
5
10
15
20
25
Abbildung 2.1: Eine 3D-Darstellung von 2900 numerisch mittels eines Runge-Kutta Verfahrens mit fester Schrittgröße berechneten Punkten des Lorenz-Attraktors. Von Wikimedia Commons.
Erst dessen visuelle Darstellung hat entscheidende Hinweise für die Entwicklung einer Theorie komplexer Systeme gegeben. Dieses Bild stellt dar, wie anfängliche nahe Nachbarschaft in verschiedenen Zuständen enden kann (Bewegung entlang der Linien). Diese Abbildung ist in einem wesentlichen Sinne eine Computervisualisierung, wie sich in der Art und Weise ihrer Konstruktion offenbart. Bilder wie 2.1 werden erstellt, indem zu jedem Punkt (Gitterpunkt oder Pixel) errechnet wird, wie sich das System für die zugehörigen Bedingungen verhält. Der
44
2 Visualisierung und Interaktion
Computer kann ein solches System quasi abtasten und zu jeder hypothetischen Anfangsbedingung das Resultat ins Bild einfügen und die isolierten Ergebnisse zu einem Bild zusammenfügen. Erst dadurch ergibt sich ein – wenn auch gerastertes – Bild der Gesamtdynamik, das eine große Kontinuität zeigt und einen plastischen Eindruck vermittelt, der aber wie gesagt nur durch das Zusammenführen der vielen Einzelresultate entstanden ist. Ein solches Verfahren ist natürlich von der Rechenleistung des Computers abhängig. So können anschauliche Visualisierungen unter Umständen einen direkten Einblick in komplexe Dynamiken ermöglichen, obwohl die zur Erzeugung der Bilder herangezogenen Annahmen in ihrer Tragweite nicht im Einzelnen durchschaut werden. Die enorme Rechenkapazität der modernen Computer lässt einen explorativen Umgang mit Visualisierungen zu (hier als Exploration des Phasenraums aufgefasst); und umgekehrt eröffnen Visualisierungen einen Weg, komplexes Verhalten anschaulich fassbar zu machen. Das erläutert die fast paradoxe Überschrift dieses Abschnitts: „Einsicht in komplexe Dynamik“, wo doch Komplexität per definitionem Einsicht in die Dynamik auszuschließen scheint. Es ist mir wichtig festzuhalten, dass Simulationsmodellierung und insbesondere die Visualisierung geeignete Instrumente sein können, um mit komplexen Dynamiken umzugehen. Sie sind jedoch kein Allheilmittel, sondern selbst wiederum durch Komplexität begrenzt, wie das in Kapitel 7 thematisiert wird. Kurz: Erst mit der visuellen Darstellung der seltsamen Attraktoren und fraktalen Mengen konnte sich das Gebiet von einer Kuriosität zu einem regelrechten Forschungsprogramm entwickeln. Dieses Programm ist geprägt von Visualisierungen; die Bände von Peitgen et al. (1986, 1988) sind mathematische Bücher mit Qualitäten eines Bildbandes. Diese so suggestiven Darstellungen bergen ein Problem, das typisch ist für Simulationen und das bereits in Kapitel 1 diskutiert wurde. Denn gesetzt den Fall, das computererzeugte Bild gebe einen zutreffenden Eindruck vom Verhalten (Phasenraum) des dynamischen Systems, dann kommt es auf kleinste Abweichungen an und folglich wäre doch die gesamte Computervisualisierung höchst fragwürdig, da bei ihrer Erstellung Diskretisierungseffekte unvermeidlich sind. Eine paradoxe Situation: Wie kann das auf einem gerasterten Bild gezeigte Muster plausibel machen, dass es auf die genaue Form der Rasterung ankommt? Tatsächlich besteht hier Grund zu einer gesunden Skepsis. Gerade weil sich das Erscheinungsbild von Visualisierungen so variabel durch Farben, Glättungen etc. manipulieren lässt, ist stets fraglich, ob man nicht instrumentellen Artefakten aufsitzt, wenn man bestimmte anschaulich fassbare Eigenschaften einer Visualisierung ernst nimmt. Artefakte, wohlgemerkt, die eventuell nicht der Modelldynamik entstammen. Die Dynamik der zu modellierenden Phänomene selbst
2.3 Kraft und Geschwindigkeit
45
steht nochmals auf einem anderen Blatt. Auch den visualisierten Fraktalen und seltsamen Attraktoren hat man lange skeptisch gegenübergestanden, bis die sich herauskristallisierende Robustheit der Abbildungen die Skepsis zurückgedrängt hatte. Wieder sind wir bei der Zweischneidigkeit der Visualisierung angelangt. Es handelt sich um eine wohlbekannte philosophische Problemlage, die regelmäßig beim Einsatz neuer Instrumente auftritt: Den erweiterten instrumentellen Möglichkeiten steht naturgemäß eine (gesunde) Skepsis gegenüber, ob man es mit echten Phänomenen, oder instrumentell erzeugten Artefakten zu tun hat. Hans Blumenberg hat das als eine Antinomie thematisiert: In Galileis Griff nach dem Teleskop steckt eine Antinomie. Indem er das Unsichtbare sichtbar macht und so der kopernikanischen Überzeugung Evidenz verschaffen zu können glaubt, liefert er sich dem Risiko der Sichtbarkeit als der letzten Instanz der Wahrheit aus; indem er aber das Fernrohr in Dienst nimmt, um solche Sichtbarkeit herzustellen, bricht er zugleich mit dem Sichtbarkeitspostulat der astronomischen Tradition und gibt dem unbezwinglichen Verdacht Raum, dass die technisch je vermittelte Sichtbarkeit, so weit sie auch vorangetrieben werden mag, ein zufälliges, an dem Gegenstand fremde Bedingungen gebundenes Faktum ist. (Blumenberg 1965, 21)
Diese Problemlage spitzt sich in der Simulation und ihrem Gebrauch von Visualisierungen zu, weil die technische Vermittlung auf so anpassungsfähige Weise erfolgt.
2.3 Kraft und Geschwindigkeit Die weite Verbreitung der Visualisierung ist relativ jungen Datums. Während die Computersimulation praktisch gleichzeitig mit dem elektronischen Computer entstanden ist, benötigt die Visualisierung, soll sie anschauliche und dynamische Qualität erreichen, ein erhebliches Niveau an Rechenleistung und Grafik-Technologie. Man kann das zum Beispiel daran erkennen, dass erst in den 1980er Jahren die Theorie komplexer dynamischer Systeme Fahrt aufnahm – Lorenz’ schon viel ältere Resultate von Mitte und Ende der 1960er Jahre kamen sozusagen zu früh für den Stand der Technik. Ein anders gelagerter Beleg wäre die Verbreitung des computergestützten Designs ab genau der gleichen Zeit.¹⁰ Ein wichtiger Faktor der technischen Entwicklung war und ist sicherlich die Unterhaltungsindustrie, deren Nachfrage nach realistisch anmutenden Animationen als ein Hauptmotor gesehen werden kann. Johnson (2004) analysiert die Pionierphase anhand eines Beispiels aus dem Flugzeugbau.
46
2 Visualisierung und Interaktion
Im Zusammenhang der Simulationsmodellierung kommt der Geschwindigkeit der Visualisierung eine ganz erhebliche Rolle zu. Schon früh wurden Modellresultate visuell dargestellt; Diagramme gehören zum Arsenal jeder mathematisch inspirierten Wissenschaft. Aber erst mit einer hohen Rechenleistung lässt sich der dynamische Charakter der Visualisierung erreichen, was zuallererst meint: Modifikationen am Modell müssen zeitnah, idealerweise in ‚Echtzeit‘ in Modifikationen an der visuellen Darstellung transformiert werden können. Erst dann kann Visualisierung als ein Baustein der explorativen Modellierung zum Einsatz kommen. Ausprobieren, grob gesagt, ist keine Option, wenn die Antwort des Modells zu langwierig errechnet werden muss. Erst mit der Steigerung der apparativen Möglichkeiten kann die auf Visualisierung gestützte Interaktion mit dem Modell als wichtiger Aspekt hervortreten: Manipulation und Auswertung des Modells geschehen in raschem Wechsel am Bildschirm. Die Rede zum Beispiel vom „playing with models“ (Dowling 1999) verweist eben nicht nur auf den experimentellen Aspekt, sondern ergibt nur dann einen Sinn, wenn die instrumentalen Möglichkeiten auch ein Spiel erlauben. Humphreys hat in seinem Buch (2004) darauf hingewiesen, dass es bei der Simulation auf Realisierbarkeit in der Praxis ankommt, nicht so sehr auf Überlegungen ‚im Prinzip‘. Das hat damit zu tun, dass Simulation eine Technologie, ein Instrument ist, das in praktischen Kontexten funktionieren muss. Algorithmen, die im Prinzip das richtige Ergebnis liefern, sind irrelevant, wenn sie das nicht in angemessener Zeit tun. Humphreys hat das zu dem Slogan „speed matters“ verdichtet. Ich möchte dem zustimmen und hinzufügen, dass dieser Slogan auch im gegenwärtigen Zusammenhang der interaktiven Visualisierung zutrifft. Sie realisiert eine Rückkopplungsschleife zwischen Modellverhalten und dessen Anpassung durch den Modellierer, die eine gewisse Geschwindigkeit erreichen muss, um aus der Perspektive eines Modellierers praktikabel zu sein. Insofern hängt Simulationsmodellierung als wissenschaftliches Verfahren von der Technologie ab. In diesem Zusammenhang noch eine historische Bemerkung. In der Simulationsmodellierung geschieht effektive Manipulation durch Rückbindung an laufende kontrollierende Beobachtung, ohne auf analytische Durchdringung der Wirkverhältnisse angewiesen zu sein. Das ähnelt stark der Programmatik der Kybernetik (Wiener 1948, Ashby 1957), die in der Rückkopplung von Mensch und Maschine ein beinah universelles Prinzip sah. Sie hatte allerdings einen stark analog geprägten Hintergrund, im Sinne von Analog-Rechnern,wie etwa Vannever Bushs Differential Analyzer (vgl. dazu Mindells exzellente historische Studie 2002). Es scheint ein Umweg nicht ohne Ironie zu sein, auf dem die Rückkopplungsidee ihre Wirksamkeit entfaltet hat, nämlich über analog erscheinende Visualisierungen, deren Anpassungsfähigkeit aber auf einer digitalen Technologie beruht.
2.4 Beispiel: Formation von Galaxien
47
2.4 Beispiel: Formation von Galaxien Visualisierungen können selbst zu Modellen, die ein sehr profundes theoretisches Fundament aufweisen, eine unerlässliche Ergänzung darstellen. Im folgenden Beispiel bestand eine ausgearbeitete (gleichwohl zunächst unbestätigte) Theorie der Formierung von Spiralgalaxien, auf deren Grundlage ein Modell zellulärer Automaten entwickelt wurde. Dieses Modell erregte in den frühen neunziger Jahren einige Aufmerksamkeit, weil es die dezidiert simulationsspezifischen Ansätze der zellulären Automaten (CA) auf das so etablierte und theoretisch elaborierte Feld der Astronomie überträgt, wo doch CA im Ruf stehen, herkömmliche theoretische Ansätze zu konterkarieren. Wie wir sehen werden, sind Simulationsexperimente, Visualisierungen und theoretische Modellierung eng miteinander verbunden. Das Beispiel für ein solches CA-Modell stammt von Seiden und Schulman (1990), die die Entwicklung von Spiralgalaxien untersuchen. Sie konnten mittels Simulationen zeigen, dass ein Perkolationsmodell der galaktischen Struktur, das auf den theoretischen Ansätzen einer „stochastic self-propagating star formation“ (SSPSF) beruht, die charakteristische Spiralform gut erklären kann. Es ging also darum, mittels CA-Modellierung erstens die analytisch formulierte, aber nur sehr eingeschränkt auswertbare stochastische Theorie in ein Simulationsmodell umzusetzen. Das ist verwandt zu der Diskretisierungsaufgabe im Falle der Atmosphärenmodellierung. Gleichzeitig sollten die Resultate der Simulation dazu dienen, die Theorie der SSPSF anhand bekannter Phänomene der Galaxienformation auszutesten und zu bestätigen. Seiden und Schulman konstruierten ein CA-Modell, das mit einer Art DartScheibe beginnt, die in Zellen aufgeteilt ist (vgl. Abbildung 2.2). Jede dieser Zellen ist entweder besetzt (schwarz) oder unbesetzt (weiß) und in jedem Zeitschritt wird der neue Zustand einer Zelle aus demjenigen ihrer Nachbarzellen errechnet. Der Startzustand des Automaten scheint einer Galaxie nicht im Geringsten zu entsprechen. Es kommt dann alles darauf an, die Nachbarschaftsbeeinflussung so auszutarieren, dass im Endresultat doch eine große Ähnlichkeit gerade zu Galaxien besteht, die, grob gesagt, aus interagierenden Sternhaufen zusammengesetzt sind. Das setzt voraus, dass interagierende Zellnachbarschaften im Modell ein sehr großes Potenzial zur Ausbildung verschiedener Dynamiken besitzen. Die Eigenschaft der Plastizität von Simulationsmodellen wird in Kapitel 3 eigens erörtert. Die Spezifizierung der Nachbarschaftsdynamik ist zu einem erheblichen Teil theoretisch motiviert, jedoch nicht eindeutig festgelegt. Daher bilden die visualisierten Simulationsresultate einen unerlässlichen Schritt, ohne den offen bliebe, ob die theoretisch motivierten Annahmen auch im dynamischen Zusammenspiel
48
2 Visualisierung und Interaktion
1 2 3 4 5 6 7 8
Abbildung 2.2: Schema von Zellen auf konzentrischen Ringen (aus Seiden and Schulman 1990). Mit freundlicher Genehmigung von L. S. Schulman.
plausible Resultate zeitigen. Die primitive equations der Zirkulationsmodelle hatten einen vergleichbaren Status: jede Gleichung ist theoretisch gut abgesichert – aber reproduzieren sie als dynamisches System die interessanten Phänomene? So wie erst Phillips’ Experiment den Weg der theoretischen Modellierung als fruchtbar erwies, erhielten auch Seiden und Schulman erst durch ihre Simulationen die entscheidenden Hinweise, dass hier ein tragfähiges theoretisches Modell vorliegt: Without the dramatic images produced by computer simulations of the galaxy model, the pencil-and-paper theorist would have had a hard time establishing that the model produces spiral-arm morphology or anticipating other astrophysical points of agreement. However, once these features are established, their underlying rationale can be appreciated with the aid of analytic techniques. … (Seiden und Schulman 1990, 31)
Auch das Lorenz-Beispiel lässt sich ohne weiteres in diese Reihe einfügen. Ohne Visualisierung stellten seltsame Attraktoren ein Rätsel dar, während mit ihnen auch die Theorie der komplexen dynamischen Systeme in Gang kommen konnte. Natürlich kommt alles, ebenso wie im Falle der atmosphärischen Zirkulation, auf die genaue Spezifikation der Dynamik an. Es ist eine subtile Angelegenheit, verschiedene physikalische Abläufe in die ‚zelluläre Spirale‘ umzusetzen, die Drehbewegung der Scheibe zu steuern, im Verlauf der Simulation eine feiner werdende Unterteilung vorzunehmen usw. Die Architektur der Parameter folgt oft theoretischen Erwägungen, während die Zuweisung der Werte in Interaktion mit Simulationsexperimenten geschieht. Diese Parameter fließen entscheidend ein in
2.4 Beispiel: Formation von Galaxien
49
das Ergebnis, indem sie bestimmen, in welcher Form sich eine Galaxie bildet. Die Größe der Parameter kann jedoch erst im Rückgriff, also in einer Art „RückwärtsLogik“ aus dem je resultierenden Bild bestimmt werden. Wir hatten das bereits im Atmosphären-Beispiel kennengelernt. Hier jedoch wird diese Logik nicht als Notbehelf, sondern von vornherein in systematischer Absicht eingesetzt. An entscheidender Stelle lassen Seiden und Schulman Freiräume in ihrem Modell, oder besser gesagt, es bleibt ihnen gar nichts anderes übrig, da die theoretischen Überlegungen nicht geeignet sind, Parameter eines zellulären Automaten zu bestimmen, die ja in der Welt des diskreten Computermodells definiert sind, nicht in der kontinuierlichen Welt der stochastischen Theorie. Diese Bestimmung kann nur im weiteren Verlaufe der Simulationsmodellierung geschehen, nämlich durch experimentellen Abgleich mit den visuellen Resultaten. So wird zum Beispiel die Größe der Felder auf der Dart-Scheibe quasi-empirisch bestimmt: „…it will turn out in our simulations that their linear dimension is about 200pc“ (1990, 20). Ebenso wird die Zeiteinteilung von 107 Jahren pro (CA)-Schritt legitimiert: „For this assumption, just as for the subsuming of many physical properties into a single parameter p, the test will be compatibility with observation“ (1990, 20). Die Situation stellt sich also folgendermaßen dar: Ausgehend von der noch unbestätigten Theorie (SSPSF) wird eine diskrete Version erstellt und als CA-Modell implementiert, wobei eine Reihe von steuernden Parametern noch flexibel adaptierbar bleibt. Es wäre nicht möglich, die Werte für diese Parameter aus der Theorie her abzuleiten, da sie gar nicht durch SSPSF bestimmt sind. Wie lassen sich dann überhaupt Parameterwerte finden, so dass die Dynamik des CA-Modells derjenigen der empirischen Phänomene entspricht? Dafür ist die Visualisierung wesentlich. Erst wenn es gelingt, in iterierten Experimenten die Parameter des Modells so einzustellen, dass adäquate Muster entstehen, kann das theoretische Modell akzeptiert werden. Die Anpassung des Simulationsmodells an die Phänomene und die Fundierung in der Theorie schließen sich nicht aus. Nur durch deren Zusammenwirken ist die Simulationsmodellierung erfolgreich: Plausibler Weise hätten Seiden und Schulman ohne den theoretischen Ansatz nie ein CA-Modell bilden können, das geeignet wäre, Galaxienmuster hervorzubringen. Das würde die Plastizität überreizen und in zielloses Umhertasten münden. Nein, die Ähnlichkeit der erzeugten Muster kann zwar ohne die Plastizität und den visuellen Abgleich nicht erreicht werden, spricht aber letztlich für die theoretische Angemessenheit der Annahmen, insofern unangemessene annahmen kaum zu einer erfolgreichen Anpassung hätten führen können.¹¹ Ebenso gilt, dass ohne rückwärts-logischen
Solche Überlegungen bleiben allerdings in gewissem Maße abhängig von der vorgängigen
50
2 Visualisierung und Interaktion
Einsatz von Visualisierungen die Freiräume des Modells nicht hätten ausgelotet und geschlossen werden können. Man kann konstatieren: Auf der Ebene der benachbarten Zellen, d. h. des diskreten Modells, wurde kein Argument gegeben für eine bestimmte Parametereinstellung. Jedes solche Argument müsste ein globales Argument sein – die globale Dynamik aber erschließt sich erst aus dem visualisierten Resultat der Simulation. Im Falle der Galaxien sollte das Simulationsmodell dazu in der Lage sein, die bereits beobachteten Galaxieformen zu reproduzieren. Als Erfolgskriterium diene das Ergebnis der Simulation nach sehr vielen Iterationen der zellulären Dynamik. Es besteht in einem fein gekörnten Bild, in dem die besetzten Zellen schließlich zu schwarzen Pixeln geschrumpft sind. Mit je geeigneten Parametereinstellungen (Anfangskonfiguration, Drehgeschwindigkeit usw.) ähneln diese durch Simulation erzeugten Bilder Fotos, die per Teleskop aufgenommen wurden.
Abbildung 2.3: Die zwei Spiralgalaxien NGC 7793 (oben) und NGC 628 (unten). Links jeweils photographierte und rechts simulierte Bilder (Seiden and Schulman 1990, 52). Mit freundlicher Genehmigung von L. S. Schulman. Vertauschung von schwarz und weiß durch JL.
Diese Ähnlichkeit ist ausschlaggebend für Seiden und Schulman, denn erst sie belegt die Ähnlichkeit zwischen zellulären Automaten und Sternen. Für die Beurteilung dieser Ähnlichkeit wird auch kein theoretisches Maß verwendet, sondern es zählen die Bilder. Die visuelle Übereinstimmung belegt, dass die Struktur
Überzeugung der Forscher, dass der pragmatische Erfolg auf eine angemessene Theorie angewiesen sei.
2.5 Zwischenfazit
51
des CA-Modells bei geeigneter Parametereinstellung dazu dienen kann, die Form einer Galaxie zu simulieren.
2.5 Zwischenfazit Die Methode der zellulären Automaten ist mit Bedacht als Beispiel gewählt. Visualisierungen finden in der einen oder anderen Weise in fast allen Simulationsansätzen Verwendung, in den CA sind sie zudem in besonderer Weise mit dem ganzen Ansatz verknüpft. Denn CA basieren auf der Modellierung der Dynamik durch lokale räumliche Wechselwirkung zwischen einzelnen diskreten Zellen.¹² Das ist eine ganz eigene mathematische Syntax, die einen neuen Typ mathematischer Modellierung erfordert. Einerseits ist sie ideal auf die Fähigkeiten des Computers zugeschnitten, der nämlich eine große Zahl einfacher lokaler Wechselwirkungen sukzessive zu berechnen hat, indem für jeden Zeitschritt Zelle für Zelle durchgemustert wird. Umgekehrt ist nicht selbstverständlich, in welchem Bereich CA-Modelle sinnvoll verwendet werden können. Einerseits scheinen sie auf lokale Wechselwirkungen zugeschnitten, andererseits können sie unter geeigneter Skalierung und Adjustierung ein äußerst großes Anpassungsvermögen zeigen.¹³ Die Plastizität von CA und anderen Simulationsansätzen wird im nächsten Kapitel diskutiert. Zweierlei ist einzuräumen: Erstens beruhen CA nicht im Prinzip auf dem Computer. Wie alles, was der Computer bearbeitet, könnte man auch von Hand Schritt für Schritt eine CA-Dynamik durcharbeiten. Die Simplizität war ja sogar das anfängliche Motiv zur Einführung der CA. Knobloch (2009) beschreibt sehr gelungen, wie der Ökonom und Nobelpreisträger Thomas Schelling von Kalkulationen per Hand zum Computermodell wechselte, während er seine berühmten nächste-Nachbar Überlegungen zur sozialen Segregation anstellte.Was im Prinzip gilt, lässt sich eben nicht ohne weiteres auf umfangreichere Fälle übertragen, die ohne Computer praktisch nicht zu handhaben sind. Solche sind aber in Anwendungskontexten in aller Regel die interessanten. Zweitens arbeiten nicht alle Fälle über die Rückkopplung zwischen visuellem Resultat und Modellierungsannahmen, bzw. Parametereinstellungen. Wolframs kommerziell so erfolgreiches Pro-
Die Herangehensweise entstammt S. Ulams Vorschlag an seinen Kollegen J. von Neumann, für die Ausarbeitung von dessen Automatentheorie doch zunächst auf eine über-einfache Architektur und Syntax zurückzugreifen, vgl. Aspray (1990). So haben z. B. die agenten-basierten Simulationen, die ja eng verwandt sind mit CA-Simulationen, zu einer eigenen Subdisziplin innerhalb der Soziologie geführt (Hegselmann 1996, Epstein und Axtell 1996, Conte 1997, Ahrweiler und Gilbert 1998).
52
2 Visualisierung und Interaktion
grammpaket ‚Mathematica‘ nutzt (fest programmierte) CA-Darstellungen, um symbolisch eingegebene mathematische Gleichungen effektiv zu prozessieren. Etliche Philosophen und Wissenschaftler haben in CA-Simulationen den eigentlich neuartigen Kern der Simulationsmethode gesehen.¹⁴ Hier trifft eine neue mathematische Syntax, die von Differentialgleichungen und globalen Gesichtspunkten absieht, auf die Visualisierung als neue Art der umstandslosen Auswertung, die z. B. von analytischen Beschreibungen eines Gleichgewichtszustands absieht. Die augenfälligen Differenzen zu anderen Simulationsmethoden sollen hier nicht in Abrede gestellt werden. Insbesondere die im ersten Kapitel im Mittelpunkt stehenden finiten Differenzen setzten ja auf eine traditionelle mathematische Modellierung auf, anstatt wie CA einen radikal neuen computerorientierten Weg einzuschlagen. Dennoch möchte ich die radikale Neuigkeitsbehauptung relativieren. Die CA-Simulationen fügen sich nämlich durchaus in die Konzeption eines Typs mathematischer Modellierung ein, deren Beschreibung bereits in Kapitel 1 begonnen wurde. Um das zu belegen scheint es besonders aufschlussreich, gerade das Beispiel nochmals aufzugreifen, das Rohrlich (1991) anführte, um die CA-Simulation als eigentliche Simulation „im starken Sinne“ von anderen Simulationen abzugrenzen. Die große Bedeutung der Visualisierung sollte nicht darüber hinwegtäuschen, dass das Vorgehen strukturell demjenigen der Klimamodellierung gleicht. Die quasi-experimentelle Herangehensweise der explorativen Kooperation, die aufgrund von Beobachtungen in theoretischen Modell-Experimenten die Parameter p der Modelle justiert, um Prop(D(p)), die Eigenschaften der Dynamik des diskreten Modells, an die Phänomene anzupassen, kommt in beiden Fälle zum Tragen. Kurz: Visualisierung befördert den explorativen Modus. Natürlich gibt es unter verschiedenen Beispielen eine Abstufung, was den Einfluss der theoretischen Basis und ebenso den systematischen Einsatz der Rückwärts-Logik angeht. In beiderlei Hinsicht bestehen große Variationsmöglichkeiten. Festzuhalten bleibt, dass diese beiden Aspekte mitnichten einander ausschließen. Das hat das Galaxienbeispiel gezeigt. Instrumentelle, explorative und theoretische Anteile ergänzen sich in der Simulation. Diese Auffassung möchte ich durch ein weiteres Beispiel unterstützen.
Dazu gehören Rohrlich (1991), Keller (2003), oder gar Wolfram (2002) mit seiner ambitionierten Behauptung, die zellulären Automaten begründeten eine „new kind of science“.
2.6 Beispiel: ein Hurrikan
53
2.6 Beispiel: ein Hurrikan Nach dem globalen und dem galaktischen Register wird nun die Serie der WirbelBeispiele durch eine lokalere Sorte komplettiert. Auf „Opal“ wurde ein schwerer tropischer Hurrikan getauft, der sich im Herbst 1995 über dem Golf von Mexiko bildete und schließlich bei Florida auf das Festland traf. Der Sturm verursachte 59 Todesfälle und Sachschaden von mehreren Milliarden US-Dollar. Diese Art von Katastrophe ist nicht untypisch für die Golf-Region. Politik wie Versicherungswirtschaft sind sich einig über die Bedrohung, die von Hurrikans ausgeht. Deren zeitnahe Vorhersage spielt eine wichtige Rolle und ist zu einem bedeutenden Forschungsgebiet der angewandten Meteorologie geworden. In diesem Zusammenhang ist am US-amerikanischen National Center for Supercomputing Applications (NCSA) und dem Department of Atmospheric Sciences der University of Illinois ein Projekt durchgeführt worden (weitere Details zu diesem Projekt: Romine 2002), das gut geeignet ist, die Funktion der Visualisierung weiter zu verdeutlichen und einen wichtigen Aspekt herauszustellen: Die kontrollierte, visuell angeleitete Parametervariation, die im vorherigen Beispiel bereits angesprochen wurde, übernimmt hier die zentrale Rolle. Es ging im erwähnten Projekt darum, aus der Analyse und Rekonstruktion von Opal ein Modell zu entwickeln, das auch auf künftige Stürme anwendbar wäre. Es gibt eine staatliche Datenbank, in der Weg, Geschwindigkeit, Regenmenge und weitere statistische Daten von Sturmereignissen gesammelt werden. Das Ziel des Projektes bestand darin, Opal zu simulieren, sodass der simulierte Sturm gut zur historischen Datenbasis passt. In einem zweiten Schritt, so hofften die Forscher, ließen sich durch entsprechend angepasste Anfangsbedingungen dann auch weitere Stürme zu Vorhersagezwecken simulieren. Eine solche Orientierung an Retrodiktion im Dienst der Vorhersage ist nichts Ungewöhnliches. Man validiert Simulationsmodelle an bekannten Fällen und Phänomenen, um sie daraufhin auf neue Fälle zu übertragen. Die Opal Simulation griff auf ein allgemeines Modell der atmosphärischen Dynamik zurück, das am National Center for Atmospheric Research (NCAR) in Boulder, Colorado, entwickelt worden war. Dieses Basismodell, es handelte sich um das sogenannte „MM5“ (Mesoscale Model Version 5), ist eine Weiterentwicklung der bereits im ersten Kapitel behandelten allgemeinen Zirkulationsmodelle, die auf dem System der Grundgleichungen beruhen. Ein Hurrikan stellt in diesem Maßstab ein „meso-skaliges“ Ereignis dar. Es ist ein offizieller Teil der NCARStrategie, der Forschungsgemeinschaft solche Zirkulationsmodelle quasi aus dem Regal zur Verfügung zu stellen. Sie sollen als eine Art Plattform dienen für speziellere Forschungsvorhaben, die dann entsprechend weitere Module hinzumodellieren müssen, etwa um das Simulationsmodell an Hurrikans zu adaptieren.
54
2 Visualisierung und Interaktion
Die mit Opal befasste Gruppe zog zu diesem Zweck eine Bandbreite von verschiedenen Parametrisierungsschemata in Betracht. Diese wurden jeweils in Simulationsexperimenten daraufhin getestet, ob sie die Resultate des Simulationsmodells mit den tatsächlich beobachteten Daten in Übereinstimmung bringen konnten: „ … high resolution MM5 simulations of Hurricane Opal are used to study the impact of various microphysical and boundary layer parameterizations …“ (Romine and Wilhemson 2001, 1) Dabei konnte nun die Adäquatheit der für die Parametrisierungen getroffenen Annahmen nicht separat beurteilt werden, denn es stehen kaum theoretische Erwägungen über Parametrisierungsschemata zur Verfügung.¹⁵ Bei ihnen handelt es sich um artifizielle Zusammenfassungen in der Absicht, eine gewünschte Performanz auf effektive Weise zu erreichen. Man denke etwa daran, die äußerst komplizierte Mikrostruktur einer Wolke durch Parameter an den Gitterpunkten zu ersetzen. Folglich bemisst sich die Adäquatheit eines Parametrisierungsschemas vorrangig an der Performanz, die es dem Gesamt-Simulationsmodell verleiht. Genauer gesagt wird diese ja erst durch das Einsetzen konkreter Parameterwerte erzeugt. Das Kriterium bestand folgerichtig im Grade der Übereinstimmung mit dem historischen Datenbestand, wie er durch optimierende Anpassung der Parameter hergestellt werden konnte. Klarerweise spielt für dieses Verfahren die kontrollierte Variation im Experiment eine tragende Rolle. Aber auch die physikalische Theorie war auf mehreren Ebenen involviert. Zum einen über die Grundgleichungen des MM5, das im OpalProjekt als ein plug-and-play Modell behandelt wurde, d. h. die in MM5 getroffenen theoretischen Annahmen wurden im Verlauf der Hurrikan-Modellierung als gegeben betrachtet. Zum zweiten spielten theoretische Annahmen eine heuristische Rolle beim Erstellen der verschiedenen Parametrisierungsschemata. Diese wiederum setzten auf das restliche Simulationsmodell auf, sodass Angemessenheit immer relativ zum gesamten Modell und nicht nur zum zu simulierenden (Teil‐) Phänomen aufgefasst werden muss. So wurden probeweise verschiedene Ansätze implementiert, um dann in einer explorativen Phase zu sehen, ob durch Verfeinerung und Anpassung innerhalb eines Schemas jeweils eine bessere Übereinstimmung zu erreichen wäre. Das betraf zum Beispiel die erwähnten Parametrisierungen der Grenzschicht („various boundary layer parameterizations“). Es bestand eine gewisse Auswahl an theoretisch plausiblen, aber nicht zwingenden Ansätzen – soll etwa eine Dynamik auf der Mikroebene modelliert werden, oder sind nicht eher gröbere phänomenologische Parameter hilfreicher und effektiver?
Sundberg (2007) stellt diesen Sachverhalt aus einer wissenschaftssoziologischen Perspektive dar.
2.6 Beispiel: ein Hurrikan
55
Die Wahl konnte aber nicht aus theoretischen Gründen allein getroffen werden, weil die tatsächlich resultierende Gesamtdynamik zwar das ausschlaggebende Kriterium ist, jedoch weit außerhalb jedes theoretisch-analytischen Zugriffs liegt. Daher wird die Visualisierung unerlässlich für die Simulationsmodellierung. Die Justierung der Parameterwerte kann nur durch die im Simulationsexperiment beobachtete Performanz geschehen. Die Abbildung 2.4 zeigt, wie die Forscher für zwei verschiedene Schemata versuchen, den simulierten Weg des Sturms auf den beobachteten hin zu trimmen. PBL Track Errors through 84 hours D82
D83
BarkBlackadar
Abbildung 2.4: Karte des Golfs von Mexiko; Anpassung von beobachtetem Weg (bis zum Festland) und zwei verschiedenen Parametrisierungen (Zwischenphase auf dem Weg zum Festland). Aus Romine und Wilhelmson (2001). Mit freundlicher Genehmigung von G. Romine.
Dieses Verfahren erfordert eine schnelle Iteration von Experiment, Beobachtung und Neujustierung. Die Visualisierung wirkt hier vergleichbar zu einem ‚magischen Auge‘, der intuitiven Darstellung der Empfangsqualität bei alten Radiogeräten. Die Forscher versuchten, mit Blick auf die visuelle Übereinstimmung, das richtige tuning zu finden: „[the] movement of the simulated hurricane eventually lined up with the observed storm track. …“
56
2 Visualisierung und Interaktion
Konsequenterweise wird die Angemessenheit des Simulationsmodells nicht durch die theoretische Angemessenheit der in der Parametrisierung getroffenen Annahmen bestimmt, sondern durch die zu erreichenden Resultate. Das wird noch unterstrichen durch die Verwendung eines sogenannten Blackbox-Schemas: Parameter, so stellte sich heraus, die gar keine physikalische Interpretation hatten, waren effektiver zu nutzen um das Simulationsmodell anzupassen, als solche, die auf mikrophysikalischen Annahmen fußten. Die durch Visualisierungen hergestellte und im Modellierungsprozess ausgenutzte Anschaulichkeit lässt sich nicht nur zum ‚Tuning‘ einsetzen, sondern auch zur Exploration der Simulationsresultate. Nach der Anpassung der Simulation an die beobachteten Daten entsteht eine simulierte Version von Opal, deren Verlaufsweg optimiert wurde, deren gesamte interne Dynamik aber wesentlich vielschichtiger ist als die Daten, bezüglich derer der Abgleich vorgenommen wurde. Details etwa über die Verteilung des Wasserdampfs im Hurrikan, oder der Intensität der Verwirbelung lassen sich je separat visualisieren. Die Forscher können so Teildynamiken separat anschauen und mittels Einfärbung etc. herauspräparieren, die in natura gar nicht separat beobachtet werden könnten.
2.7 Verstärkung und Erweiterung Die Rückwärts-Logik, nach der die schließlich zu erzielende Performanz über die Adäquatheit der getroffenen Annahmen entscheidet, funktioniert unberührt davon, ob diese Annahmen theoretisch motiviert oder instrumentalistischer Natur sind. Gerade in relativ komplizierten Fällen, wie wir sie bisher betrachtet haben, kann Theorie eben auch eine wichtige heuristische Rolle spielen. Mir scheint auch plausibel, dass das so sein sollte: Ohne theoretischen Beitrag wäre die Modellierung überfordert, während ein Verzicht auf instrumentelle Annahmen und artifizielle Elemente einen solch umfassenden theoretischen Zugriff voraussetzen müsste, wie er in komplexeren Situation sicherlich nicht besteht. Was zunächst als epistemische Schwachstelle auftritt, die Unbestimmheit und Undurchsichtigkeit der getroffenen Annahmen und insbesondere deren aus der Wechselwirkung resultierenden Beeinflussung der Dynamik, wird durch die beschriebene Vorgehensweise in einen potenziellen Vorteil umgemünzt. Es kann nämlich eine erhebliche Bandbreite an Modellierungsannahmen vage bleiben und einer späteren Bestimmung vorbehalten, solange man Mittel und Wege zur Hand hat, um sukzessive diese Annahmen zu konkretisieren und so deren performative Vorteile aufzuspüren. Dabei kommt der Visualisierung eine verstärkende und erweiternde Rolle im Rahmen der explorativen Modellierung zu. Die These über die Visualisierung als ein Element der Simulationsmodellierung, das deren ex-
2.7 Verstärkung und Erweiterung
57
plorativen Modus unterstützt und erweitert, hat somit Rückendeckung erhalten durch die genauere Untersuchung der Fallbeispiele. Zum Schluss dieses Kapitels möchte ich noch eine Überlegung ergänzen, die die Bedeutsamkeit der Visualisierung für die Simulation betrifft. Sie handelt von der Asymmetrie zwischen Mustererkennen und Mustererzeugen. Es ist wichtig, die beiden auseinanderzuhalten, weil der Computer ein großer Mustererzeuger, aber ein bis heute problematischer Mustererkenner ist. Anders gesagt: Mustererkennung funktioniert über Ähnlichkeiten, die oft nicht formal auszuschöpfen sind. Keith Gunderson (1985a) zum Beispiel hat in klassischen Aufsätzen zur Philosophie des Geistes und der künstlichen Intelligenz (KI) darauf hingewiesen, dass die Mustererkennung das zentrale Problem der künstlichen Intelligenz darstellt. Er versteht ‚Simulation‘ in einem sehr speziellen Sinne, nämlich als starkes Programm der KI, demgemäß es nicht nur um die Generierung intelligent erscheinenden Verhaltens geht, sondern stärker noch um die Imitation auch der Erzeugungsweise menschlichen intelligenten Verhaltens durch den Computer. Gunderson argumentiert zutreffend, dass ohne Lösung des Problems der automatischen Mustererkennung keine Aussichten auf erfolgreiche Simulation bestehen. Wir haben die Simulation in einem breiteren Zusammenhang betrachtet, nicht als Teil der KI, sondern als Instrument in einem breiten Spektrum von Wissenschaften¹⁶. Tatsächlich hat auch hier die automatisierte Mustererkennung keine Rolle gespielt, aber das war kein Hindernis für die Entfaltung der Simulationsmethode. Im Gegenteil, die Visualisierung als Element der Simulation wurde ausgenutzt, um eine Arbeitsteilung vorzunehmen. Der Computer als ein Mustererzeuger und -variierer steht in der Simulationsmodellierung dem Forscher gegenüber, der die menschliche Fähigkeit zur Mustererkennung ausnutzt, um in Fragen komplexer Modellierung voranzukommen. Visualisierungen stellen eine echte Neuerung für die mathematische Modellierung dar, aber nicht weil visuelle Fähigkeiten durch den Computer ersetzt würden, sondern weil die starken visuellen Fähigkeiten des menschlichen Erkenntnisapparates in die Modellierung direkt mit einbezogen werden können. Das im Rahmen der KI auftretende Problem der Mustererkennung bleibt davon zunächst unberührt. Alle Beispiele, Atmosphärenzirkulation, Formation von Galaxien und Hurrikans arbeiteten an entscheidender Stelle mit Mustern, aber in keinem der Beispiele war eine genaue Definition der Muster vonnöten – freilich wird damit auch die Feststellung der Passung eine Frage der Überzeugungskraft mittels Anschauung. Könnte die
Dieses Spektrum war zu der Zeit als Gunderson schrieb, nämlich Anfang der 1970er Jahre, so noch nicht absehbar. Heute würde man seinen Sprachgebrauch als veraltet ansehen.
58
2 Visualisierung und Interaktion
Feststellung der Passung formalisiert werden, wäre letztlich gar kein visueller Output mehr nötig, oder er würde nurmehr dazu dienen, die bereits errechneten Resultate zu vermitteln. Diese Überlegungen stimmen mit den von Peter Galison und anderen seit einiger Zeit vorgebrachten Befunden überein, dass durch Computer nicht ein automatisierter Objektivismus Einzug halte, sondern dass umgekehrt die geübte Urteilskraft der Wissenschaftler im Umgang mit Visualisierungen verstärkt gefragt sei (Galison 1998). Heintz und Huber urteilen ähnlich: Die Rehabilitierung der menschlichen Urteilskraft steht in einem engen Zusammenhang mit der Erfindung des Computers und der durch ihn ausgelösten Debatte um die Unterschiede zwischen maschineller und menschlicher Intelligenz. (Heintz und Huber 2001, 21)
Dieser Standpunkt findet sich fortgesetzt im Band von Daston und Galison (2007) zur Objektivität von wissenschaftlichen Repräsentationen. Allerdings möchte ich betonen, dass die menschliche Urteilskraft nicht in Opposition zu Computermethoden steht, sondern in letztere eingebunden ist. Es ist ein eigenartiger Umstand, dass ausgerechnet die zunehmende Computerisierung zu einer Stärkung der Urteilskraft in der Praxis der Wissenschaften führt. Diese Thematik wird im Schlusskapitel des Buches wiederaufgenommen. Dort wird es darum gehen, eine Abwägung vorzunehmen gegenüber der ganz gegenteiligen Ansicht, die etwa Paul Humphreys als basales Fazit seiner Forschungen zur Simulation sieht, dass nämlich der Mensch aus dem Zentrum der Epistemologie verdrängt werde.
3 Plastizität Ist die Simulation in erster Linie durch die instrumentellen Möglichkeiten gekennzeichnet, die sie bereitstellt, um mathematische Modelle adjustieren und kontrollieren zu können? Das liefe auf eine Bestätigung der großen Linie von Humphreys (1991) hinaus, der Simulation vor allem als eine Erweiterung des „realm of mathematical tractability“ diagnostiziert – auch wenn er diesen Befund enger an eine Überlegung zur mathematischen Struktur bindet. Am Ende des Kapitels werden wir darauf zurückkommen. Und in der Tat: Die Resultate der Kapitel 1 und 2 haben vor Augen geführt, wie Simulationsexperimente und Visualisierungen im Rahmen des Modellierungsprozesses eingesetzt werden – bzw. werden müssen – um die Erweiterung des Anwendungsgebietes für mathematische Modelle zu bewerkstelligen. Das vorliegende Kapitel wird aufzeigen, dass die Plastizität von Simulationsmodellen ein wichtiges Merkmal ist. Sie bezeichnet eine Eigenschaft, die von Seiten der Modellstruktur zum explorativen und iterativen Modus der Simulationsmodellierung beiträgt. Modelle werden plastisch genannt, wenn ihr dynamisches Verhalten ohne strukturelle Veränderungen über einen weiten Bereich variieren kann. Vermutlich ist kein Modell durch seine Struktur in seinem Verhalten völlig determiniert und geschicktes Ausfüllen von Lücken, sowie Einstellen von Parametern ist seit je Bestandteil der Modellierung. Bei Simulationen jedoch tritt,wie wir sehen werden, die Plastizität nicht nur als ein zu kompensierendes Manko auf, sondern als systematische Stütze der Modellierung. Die Struktur des Modells wird von vornherein auf seine Plastizität hin ausgelegt, so dass viel Raum zum Manövrieren bleibt: Die Performanz wird ganz wesentlich erst im Verlauf des Modellierungsprozesses ausgestaltet. Damit zielte die Struktur des Modells nicht auf eine – wie auch immer idealisierte – Beschreibung der Struktur der zu modellierenden Phänomene ab. Aufbauend auf die Modellstruktur werden im weiteren Verlauf der Modellierung zunächst weitere Spezifizierungen vorgenommen, auf deren Basis dann erst Aussagen über das Verhalten des Simulationsmodells zu ersehen sind. Die weitere Spezifizierung der Modellstruktur steigt damit von einem pragmatisch vorgehenden Lückenfüller zu einem Hauptteil der Modellierung auf. Dementsprechend lautet die wesentliche These dieses Kapitels: In wichtigen Fällen zielt das Simulationsmodell gar nicht auf eine Strukturgleichheit zum Phänomen ab, sondern eher auf die Möglichkeit der Anpassung des Modellverhaltens. Damit steigt der explorative Modus zum gleichberechtigten Partner theoriegestützter Strukturüberlegungen auf, wobei dies Verhältnis unterschiedlich ausbalanciert ist, denn die Plastizität und die damit einhergehende Notwendigkeit einer Spezifi-
60
3 Plastizität
zierungsphase ist sicher eine graduelle Angelegenheit, die in manchen Fällen eine relativ kleine, in anderen Fällen eine große Rolle spielt. Zwei verschiedene Momente von Modellen möchte ich unterscheiden, (i) die Struktur und (ii) deren Spezifizierung. Ihre Relevanz erhält diese Unterscheidung durch den Umstand, dass der strukturelle Teil in einem wichtigen Sinn unvollständig ist: Das Modellverhalten wird durch die Struktur nicht festgelegt, sondern es bleiben wichtige Lücken, auch solche konzeptioneller Art. Es hängt eben vom Verlauf der weiteren Spezifizierung von Variablen, Parametern oder ganzen Modulen ab, zu welcher Dynamik eine gegebene Struktur führt. Die Modelldynamik kann daher als strukturell unterdeterminiert bezeichnet werden. Erst der Prozess der Spezifikation, der wiederum die oben kennengelernten Aktivitäten von Experimentieren und Visualisieren erfordert, legt fest, welches Modellverhalten entsteht. Kurz: Plastizität und explorative Modellierung ergänzen sich. Wegen der Plastizität geht es bei der Exploration um mehr als nur um pragmatische Fragen der Anpassung, umgekehrt ist die Performanz von Modellen hoher Plastizität nur im explorativen Modus zu erforschen und zu kontrollieren.
3.1 Plastizität und Spezifizierung Plastizität ist ein in der Biologie geläufiger Begriff, um Anpassungsfähigkeit zu bezeichnen. Stammzellen zum Beispiel sind in der Medizin so interessant, weil sie eine fast universelle Funktionalität im Zellverbund ausbilden können. Sie sind sozusagen ein Idealfall der Plastizität. In dem Fall bestimmt die Struktur der Zelle eben nicht ihre weitere Ausprägung, sondern das tut erst ihre weitere Entwicklung in einem spezifischen Kontext. Man könnte höchstens sagen, dass die Struktur insofern entscheidend ist, als sie diese Möglichkeiten zulässt oder beinhaltet. Ähnlich verhält es sich mit Simulationsmodellen. Auch hier ist die Plastizität eine graduelle Angelegenheit. Zwar ist keine Modelldynamik durch die Struktur vollständig bestimmt und daher besteht zumindest ein kleiner Grad an Plastizität. Dennoch aber kommt der Struktur in den traditionellen Beispielen der mathematischen Modellierung eine vorrangige Bedeutung zu. In der Newton‘schen Gravitationstheorie zum Beispiel ist mit der mathematischen Struktur festgelegt, dass die Anziehungskraft zweier Körper quadratisch von ihrem Abstand abhängt und dass die Planeten elliptischen Bahnen folgen, während die Stärke der Gravitation auf unserem Planeten von einer empirisch zu bestimmenden Konstanten abhängt. Ich möchte betonen, dass unabhängig von der Simulation für jede mathematische Modellierung gilt, dass die mathematische Struktur sehr wichtig, wenn auch nicht alles ist. Mit der These von der strukturellen Unterbestimmtheit ist darüber hinaus gemeint, dass Simu-
3.1 Plastizität und Spezifizierung
61
lations-Modelle eine besondere Plastizität aufweisen. Die mathematische Struktur des Modells reicht dann nicht hin, das Modellverhalten in wichtigen Aspekten auch nur qualitativ zu bestimmen. Plastizität und strukturelle Unterbestimmtheit sind zwei Seiten der gleichen Medaille. Diese Behauptung mag dem ersten Anschein nach kontra-intuitiv erscheinen und ich möchte auch sogleich daran erinnern, dass es sich um eine graduelle Angelegenheit handelt, verschiedene Simulationsmodelle also in sehr unterschiedlichem Maße strukturell unterbestimmt sein können. Die zu schließenden Lücken, so werde ich argumentieren und durch Beispiele erläutern, können sowohl konzeptioneller wie eher adaptions-technischer Art sein. Gerade durch das besondere Erfordernis, in der Modellierungsphase diese Lücken zu schließen, wird das Potenzial der Simulationsmodellierung zur schrittweisen explorativen ‚Rückwärtslogik‘ unverzichtbar. Simulationsmodelle stellen, auf ihre Struktur reduziert, im Grunde nur Modellschemata dar, die eine weitere Spezifizierung erfordern. Der Modellierungsprozess muss daher ganz wesentlich eine experimentartige Tätigkeit mit diesem Schema beinhalten, in deren Verlauf das Modellverhalten spezifiziert und kalibriert wird. Letzteres betrifft nicht nur die Festlegung der durch Anfangs- und Randbedingungen festzulegenden Parameter (wie in der Newton‘schen Theorie), sondern kann sich in grundlegenderer Weise auf die Ausgestaltung der Modelldynamik beziehen, wie das gleich anhand mehrerer Beispiele aufgezeigt wird. Halten wir fest, dass die Zweiteilung der Modellierung in Struktur (Schema) und Spezifizierung von der Plastizität der Modelle abhängt, d. h. von dem behaupteten Umstand, dass bei festgehaltener Struktur der Spezifizierungsprozess das dynamische Verhalten eines Simulationsmodells grundlegend beeinflussen kann. Immerhin gilt die Struktur als Kernstück einer mathematisierten wissenschaftlichen Theorie. Letztere bildet nicht die Phänomene direkt ab, sondern wird in der philosophischen Diskussion oft als eine Art von reduzierter Beschreibung gehandelt, die auf die Struktur der Phänomene abzielt, zu deren Beschreibung wiederum die mathematische Sprache die geeignete, oder gar einzig geeignete, ist. Die These von der Plastizität und der damit einhergehenden Trennung in Struktur und Spezifikation stellt daher einen beachtlichen Einschnitt in die Konzeption mathematischer Modellierung dar. Die Orientierung an der Performanz, die wir in den Kapiteln eins und zwei festgestellt haben, ist nicht nur ein instrumentelles Extra der Simulation gegenüber traditionellen mathematischen Modellen, sondern verändert ihren begrifflichen Kern. In dem Maße, in dem die Struktur das Verhalten nicht festlegt, repräsentiert sie auch nicht die essenziellen Merkmale der Dynamik. Das läuft der Auffassung diametral entgegen, dass mathematische Modelle die wirklichen Verhältnisse idealisiert wiedergeben und Nebensächlichkeiten vernachlässigen, gerade um die wesentliche Struktur herauszupräparieren.
62
3 Plastizität
Ich möchte darauf hinweisen, dass die spezielle Frage nach der Charakterisierung von Simulationsmodellen als Spezies mathematischer Modelle eine breitere philosophische Relevanz aufweist. Denn der epistemologische Kernbereich der neuzeitlichen Wissenschaft ist mit dem Vorbildcharakter der mathematisierenden Erkenntnisweise für wissenschaftliche Erkenntnis in Verbindung gebracht worden. Und was mathematisierende Erkenntnisweise heißt, ist eng mit dem Modell- und Strukturbegriff verbunden. Ernst Cassirer hat in seinem Substanz und Funktionsbegriff (1910) ausgeführt, wie der aristotelische Standpunkt in einen modernen transformiert wird, indem das Primat der Objekte durch einen relationalen Standpunkt ersetzt wird, in dem nicht die Objekte selbst, sondern die Beziehungen zwischen ihnen von grundlegender Bedeutung sind. Dementsprechend wird der Funktionsbegriff zum Grundbegriff. Die Ontologie der Substanzen weicht einer Ontologie der relationalen Strukturen – diese philosophische Grundauffassung stützt sich stark auf die Erfolge mathematischer Modellierung in den Naturwissenschaften. Eine in gewissem Sinne verwandte Position wird in den zeitgenössischen Diskussionen um einen „strukturellen Realismus“ vertreten, der nämlich in der relationalen Struktur den Realitätsgehalt wissenschaftlicher Erkenntnis sieht. James Ladyman (1998) ist ein prominenter Vertreter, auch wenn er eine von Cassirer sehr verschiedene Meinung vertritt. Das zeigt aber nur die breite Relevanz: Beiden, dem funktionalen Denken, wie dem strukturellen Realismus in seinen unterschiedlichen Ausprägungen (siehe etwa auch Worrall 1989), ist die Ansicht gemeinsam, dass der wesentliche Kern der wissenschaftlichen Erkenntnis in der relationalen Struktur, ausgedrückt über mathematische Funktionen, liegt. Dieser Standpunkt wird geschwächt durch das Ausmaß an struktureller Unterbestimmtheit, das die hier untersuchte Sorte von mathematischen Modellen, die Simulationsmodelle, an den Tag legt.¹ Denn die Stärke der mathematischen Modellierung ist nicht (mehr) identisch mit der Stärke der mathematischen Struktur. Mit dieser Verschiebung der Konzeption mathematischer Modellierung erscheint auch eine wichtige argumentative Basis des relationalen Denkens in neuem Lichte. Unter diesem Gesichtspunkt möchte ich nicht die Debatte um strukturellen Realismus vertiefen, sondern lediglich festhalten, dass deren auf mathematischen Modellen fußende Argumentation im Bereich der Simulationsmodellierung nicht ohne weiteres (vermutlich gar nicht) trägt. Kehren wir zur eigentlichen Argumentation zurück. Im Folgenden werden wichtige Simulationstypen analysiert, um die These von der strukturellen Un-
Eine Hauptmotivation des strukturellen Realismus liegt darin, eine realistische Einstellung mit der Anerkennung der empirischen Unterbestimmtheit zu vereinen.
3.2 Artifizielle Neuronale Netzwerke
63
terbestimmtheit und ihrer graduellen Ausprägung zu belegen, bzw. an Beispielen nachzuvollziehen. Als erstes werden artifizielle neuronale Netzwerke (ANN) betrachtet. Sie zeigen ein sehr allgemeines Verhalten, obwohl sie auf einer nahezu generischen Architektur von (künstlichen) Knoten und Synapsen basieren. Die Output-Muster, die ein solches Modell produziert, hängen fast vollständig von der Gewichtung der Netzwerk-Verbindungen ab, das heißt von der Spezifizierung. Als zweites werden finite Differenzen angesprochen, wo die Modelle meist auf einer sehr reichhaltigen theoretischen Struktur beruhen. Hier kann ich an die Diskussion zur Flüssigkeitsdynamik und Meteorologie anknüpfen. Die Spezifizierung spielt in diesen Fällen eine deutlich kleinere Rolle als sie das in ANNs tut, aber eine gewisse strukturelle Unterdeterminiertheit bleibt dennoch. Als letzte Beispielsklasse werden schließlich zelluläre Automaten (CA) diskutiert, die zwischen den beiden ersten Typen anzusiedeln sind, was den Grad der strukturellen Unterbestimmtheit betrifft. Ziel ist es, deutlich werden zu lassen, dass die behauptete Unterteilung in strukturelle und Spezifikationskomponente weite Gültigkeit hat und dass die strukturelle Unterbestimmtheit ein wichtiges Merkmal von Simulationsmodellen ist.
3.2 Artifizielle Neuronale Netzwerke Wie die meisten Simulationstypen entstammen auch die artifiziellen neuronalen Netzwerke der Frühzeit der Computerentwicklung. Seit den grundlegenden Arbeiten von McCulloch und Pitts (1943) bilden artifizielle neuronale Netzwerke (ANN) einen prominenten Typus von Simulationsmodellen, der heutzutage zu einer ganzen Familie angewachsen ist. Für den gegenwärtigen Zusammenhang genügt ein grobes Bild. Im Prinzip bestehen ANNs aus einer Anzahl miteinander verbundener Neuronen – künstlichen, idealisierten Gegenstücken zu realen physiologischen Neuronen. Solche künstlichen Neuronen bestehen aus einem Soma mit einer Anzahl von eingehenden und ausgehenden Axa, die mit einer Gewichtung versehen sind. Die Neuronen funktionieren nach einer einfachen Regel: Die eingehenden Signale, die mit spezifischen Gewichtungen von verschiedenen Neuronen herkommen, werden aufaddiert und sobald die Summe eine bestimmte Schwelle überschreitet ‚feuert‘ das Neuron, das heißt es sendet selbst ein Signal, das der Gewichtung ausgehenden Axa gemäß aufgeteilt und entlang der ausgehenden Axa weitergeleitet wird. In einem Netzwerk sind die Neuronen meist in bestimmten Schichten angeordnet, so dass ein Neuron der Schicht x ausgehende Verbindungen zu Neuronen der Schicht x+1 besitzt (in einem nicht-
64
3 Plastizität
zirkulären Netzwerk). Abbildung 3.1 zeigt ein kleines ANN, wobei die Gewichtung der Verbindungen durch die Dicke der Pfeile symbolisiert ist. A simple neural network Input layer
Hidden layer
Output layer
Abbildung 3.1: Neuronales Netz mit einer mittleren Schicht. Von Wikimedia Commons.
ANNs können eine oder mehrere Zwischenschichten aufweisen. Sobald die Verbindungen und Gewichtungen fest eingerichtet sind, transformiert ein ANN ein Input-Muster, d. h. eine Menge an Anfangswerten für die erste Neuronenschicht, in ein Output-Muster, d. h. die resultierenden Werte der letzten Neuronenschicht. Soweit hört sich das nach einer überschaubaren Dynamik an. Der springende Punkt dabei ist, dass die Input-Output-Dynamik durch eine Veränderung der Gewichtungen auf eine unerwartet variable Weise verändert werden kann. Die berühmte und frühe Entdeckung von McCulloch und Pitts bezüglich der ANNs war nämlich, dass eine rudimentäre Klasse von ANNs bereits einen extrem weiten Bereich von solchen Dynamiken produzieren kann, nämlich alle Turing-berechenbaren Muster. Dies schien ANNs zu einem universalen Modell-Schema zu machen und befeuerte den frühen computational view auf Intelligenz und den menschlichen Geist, denn schließlich war nun eine scheinbar direkte Korrespondenz aufgewiesen zwischen Gehirn und Computer, das heißt ANN-Architekturen, die als Modelle, wenn auch extrem vereinfachte, für die im Gehirn sich abspielenden Mechanismen gesehen wurden. Folglich gaben ANNs einen besonders attraktiven Untersuchungsgegenstand ab: Ihre Architektur war der Physiologie des Gehirns abgeschaut, während ihre Dynamik der mathematischen, simulationsbasierten Modellbildung zugänglich war. Die tatsächliche Anwendung der ANNs stellte sich jedoch als schwierig heraus, weil die prinzipielle Universalität der Modelle nicht ohne weiteres in praktische Effektivität zu überführen war. Die Modelle waren gewissermaßen zu plastisch und es fehlte an gangbaren Wegen, zu einer Spezifizierung zu kommen, die sowohl adäquat (im Sinne der erzeugten Muster) als auch effektiv (im Sinne der
3.2 Artifizielle Neuronale Netzwerke
65
dazu benötigten Zeit) war. So mangelte es an Anwendungsnähe und das war einer der Hauptgründe dafür, dass die ANNs gegen Ende der 1960er Jahre aus der Mode kamen. Seitdem haben ausgeklügelte Lernalgorithmen zu einer Renaissance geführt. Sie beruhen vor allem auf der sogenannten backward propagation, um die Gewichtungen so anzupassen, dass sie ein gewünschtes Input-Output-Verhalten erzeugen. Man sagt dann, die Netze ‚lernen‘ das gewünschte Verhalten. Während eines solchen Lernprozesses bleibt die Struktur des Modells, d. h. die Architektur des Netzwerks, praktisch invariant. Die enorme Bandbreite möglichen Verhaltens wird durch die Spezifikation, hier die Einstellung der Werte für die Gewichtungen, erreicht. Ein aktuelles Beispiel liefert das kommerzielle Software-Paket „Neurosolutions 5.0“, das angepriesen wird zur Hilfe bei „machine diagnostics, speech recognition, portfolio management“ und einigen Aufgaben mehr (Neurosolutions 2007). Ob das Paket wirklich hält, was für die Vielzahl der heterogenen Aufgaben versprochen wird, kann dahingestellt bleiben. Wichtig ist, dass die Verkaufsidee über die Plastizität des Modells funktioniert. Die Firma verkauft erstens ein und dasselbe Netzwerk als Plattform zur Lösung ganz unterschiedlicher Probleme und dazu, zweitens, eine Methode der Spezifikation, um die Plattform an verschiedene Anwendungskontexte anzupassen.² Folglich stellt ein ANN ohne Angabe der Gewichtungen eher das Schema eines Modells als ein eigentliches Modell dar und entspricht auch nicht einer Abbildung von Input auf Output-Muster, sondern einer ganzen Klasse möglicher Abbildungen. Die eigentliche Abbildungsfunktion wird erst durch die Angabe der genauen Gewichtung bestimmt. Der Witz bei ANNs besteht in ihrer großen (fast übergroßen) Plastizität: sie können als Plattform funktionieren³, gerade weil die strukturelle Unterbestimmtheit der Dynamik eine große Anpassungsfähigkeit gewährleistet. Die Plastizität bringt jedoch eine Kehrseite mit sich: Es war die Ähnlichkeit mit echten, physiologischen Netzwerken, die ANNs so attraktiv erscheinen ließ, aber diese Ähnlichkeit wird nun in Frage gestellt, denn eine strukturelle Ähnlichkeit besagt wenig, wenn auf ihr aufbauend eine quasi-universale Dynamik erzeugt werden kann. Die Gewichtungen andererseits werden allein durch die Algorithmen zur Optimierung der Performanz eingestellt und niemand behauptet, dass
Das am Santa Fe Institut entwickelte Programmpaket SWARM wäre auch ein Beispiel für eine Plattform, die aus einem Design-Konzept und einer Programm-Bibliothek besteht. Der Begriff Plattform hat eine Konnotation, die ihn mit Massenproduktion und technologischer Ökonomie verbindet, wie etwa zwei Autotypen auf der gleichen Plattform gefertigt werden. Das passt gut zum diskutierten Beispiel, jedoch nicht auf weitere, noch folgende Beispiele, in denen Plastizität nicht diese ökonomische Note aufweist.
66
3 Plastizität
etwa auch die Gewichtungen ein reales physiologisches Gegenstück hätten. Eine geglückte Anwendung eines ANNs, zum Beispiel in der Spracherkennung, wäre daher von geringem epistemischem Wert, wenn man etwas über den Prozess der Spracherkennung im menschlichen Gehirn in Erfahrung bringen wollte. Damit soll nicht gesagt sein, die Modellierung per ANNs sei bloßes Herumschrauben, denn es gibt durchaus wichtige theoretische Erkenntnisse, wie etwa über das Anpassungsverhalten bestimmter Architekturen, die aber vorrangig die mathematischen Eigenschaften der Modelle selbst betreffen.⁴ Eins scheint mir zu folgen: Der Erfolg bezüglich der Simulation eines bestimmten Phänomens erlaubt nicht den Schluss, dass die Struktur des ANN-Modells in irgendeiner Weise die Struktur des zu modellierenden Phänomens akkurat repräsentierte. Eher geht es um eine Art implizites Wissen: „In a fairly intuitive sense, it seemed correct to say of a trained-up network that it could embody knowledge about a domain without explicitly representing the knowledge…“(Clark and Toribio 1994, 403) Man kann ANNs auch ohne – oder fast ohne – Spezifizierung, d. h. mit einer vorgegebenen Gewichtung, einsetzen. Die können dann zwar nichts lernen, sind aber unter Umständen als spezielles Modell interessant.⁵ Daher exemplifizieren artifizielle neuronale Netzwerke in hervorragender Weise die These, Simulationsmodelle seien strukturell unterdeterminiert und man könne Schema (Plattform) von Spezifikation unterscheiden. Zugegebenermaßen stellt dieser Fall im Feld der Simulationen einen gewissen Extremfall an Plastizität dar. Diese ist, wie gesagt, eine graduelle Angelegenheit. Daher möchte ich als nächstes einen Fall von der anderen Seite des Spektrums anführen, in dem strukturell aussagekräftige theoretische Modelle auftreten, bei denen die These von der Plastizität zunächst viel zweifelhafter erscheint.
3.3 Finite Differenzen Die Methode der finiten Differenzen (FDM), die bereits in Kapitel 1 diskutiert wurde, sowie ihr Cousin, die finite-Elemente-Methode (FEM), sind von besonderer Bedeutung, da sie nahezu überall in natur- und ingenieurwissenschaftlichen Anwendungen vorkommen. Das liegt daran, dass beide auf mathematischen Beschreibungen aufsetzen, die in diesen anwendungsnahen Bereichen besonders
Elman (1990) etwa führt unter Ausnutzung der Plastizität vor, wie ein ANN mit ‚Kurzzeitgedächtnis‘ besser wird im Lösen von bestimmten Problemen, wenn das Kurzzeitgedächtnis wächst. Für ein Beispiel siehe Werning (2005).
3.3 Finite Differenzen
67
verbreitet sind.⁶ Die FDM hatten wir bereits kennengelernt als Methode, Differentialgleichungssysteme einer numerischen Behandlung zuzuführen. FEM verfolgen einen verwandten Ansatz, indem sie ein räumliches Element in endlich viele Teilelemente aufsplitten, das Verhalten für jedes dieser Teile lokal in dessen Nachbarschaft betrachten und daraus die Gesamtdynamik schrittweise wieder zusammensetzen. Wenn man so will, gehen beide Methoden einen (bewussten) Schritt zurück vom Integrieren. Dieses wird ja in einer Grenzwertbetrachtung hergeleitet, in der kleiner und zahlreicher werdende Summanden schließlich ins Integral übergehen. Die beiden Simulationsmethoden vollziehen den Schritt in umgekehrter Richtung und ersetzen die Operationen des analytischen Kalküls durch eine Vielzahl von Einzelschritten. Der Schlüssel zur Anwendbarkeit liegt darin, dass den numerischen Methoden nicht die relativ engen Grenzen der analytischen Behandelbarkeit gezogen sind, während gleichzeitig die von Menschen nicht mehr zu bewältigende Vielzahl von Rechenschritten an die Maschine delegiert wird. Ähnlich wie in Kapitel 1 stellen diese finiten Methoden den ‚schwierigen‘ Fall dar, wenn es um die Untermauerung der Behauptung von der Plastizität und strukturellen Unterbestimmtheit geht. Denn die diskreten Simulationsmodelle setzen in aller Regel auf kontinuierliche Modelle auf, die wiederum theoretischen Ansätzen entstammen. Die Auffassung scheint berechtigt, dass die Diskretisierung (per FDM oder FEM) die Struktur der kontinuierlichen Vorlage lediglich operationalisiert. Dann könnten die kontinuierlichen Modelle mit Fug und Recht als strukturelle Basis der Simulation gelten. Dem Einwand ist weitgehend stattzugeben. Die Plastizität ist ganz erheblich geschrumpft im Vergleich zu den ANNs. Die graduelle Abstufung ist nicht nur eine Frage der Einzelfälle, sondern es gibt auch eine starke, typabhängige Tendenz. Ihr gemäß weisen die finiten Elemente und Differenzen Methoden einen eher geringen Grad an Plastizität auf. Das heißt aber nicht, dass sie gänzlich durch die Struktur determiniert wären. Dagegen spricht eine Reihe von Gründen, die wir teils schon kennengelernt haben. Zuallererst gilt für Modelle ganz generell, dass sie nicht von der Theorie-Seite her völlig bestimmt werden. In diesem Punkte stimmen trotz ihrer Differenzen die Analysen im Spektrum zwischen Cartwright und Morrison (Cartwright 1983, oder der Sammelband Morgan und Morrison 1999) überein. Winsberg (2003) hat das sehr schön auf die hier diskutierten FDM-Simulationen übertragen. Ich stimme ihm da völlig zu. Insbesondere der Übergang vom theoretischen und kontinuierlichen Modell zum Simulationsmodell ist hier bedeutsam.
Johnson (2004) steuert eine der überraschend dünn gesäten wissenschaftsphilosophischen und -historischen Studien dazu bei.
68
3 Plastizität
In der Regel bestehen mehrere Optionen für die Diskretisierung. Selbst wenn ein kontinuierliches theoretisches Modell als Vorlage dient, können die Eigenschaften des dazu konstruierten diskreten Modells empfindlich anders ausfallen, da verschiedene Diskretisierungsoptionen in aller Regel hinsichtlich der dynamischen Eigenschaften des Simulationsmodells nicht übereinstimmen. Man muss daher die Diskretisierung als zusätzlichen simulationsspezifischen Modellierungsschritt ansehen und folglich treffen die Überlegungen zur Plastizität der Modellierung mehrfach zu.⁷ Arbeitet man dann mit einer bestimmten Diskretisierung, erfordert die Anpassung des dynamischen Verhaltens der Simulation an die zu simulierenden Phänomene weitere Maßnahmen. Diese schließen insbesondere den Einsatz nicht-repräsentierender artifizieller Komponenten mit ein (Winsberg 2003, Lenhard 2007), wie das in Kapitel 1 anhand des Arakawa-Operators diskutiert wurde. Solche Komponenten lassen sich als Maßnahmen zur Spezifizierung der durch Diskretisierung zusätzlich entstandenen Plastizität ansehen. Die durch Diskretisierung erzeugte Lücke zwischen der kontinuierlichen mathematisch-theoretischen Beschreibung des zu simulierenden Phänomens und der diskreten Simulation ist prinzipiell nicht durch Referenz auf die theoretische Struktur zu schließen. So gesehen ist es nicht erstaunlich, sondern eher zu erwarten, dass in den Prozess der Simulationsmodellierung regelmäßig kompensierende Elemente einbegriffen werden müssen, die den unerwünschten, aber nicht theoretisch vorhersehbaren, Diskretisierungseffekten entgegenwirken. Der Fall der atmosphärischen Zirkulation, der in Kapitel 1 ausführlich besprochen wurde, veranschaulicht das Verhältnis von Plastizität und steuerndem Spezifizieren.Wir haben es also mit zwei gegenläufigen Effekten zu tun, die sich in der Simulationsmodellierung, so sie denn gelingt, die Waage halten: Einerseits erzeugt die Simulationsmodellierung strukturelle Unterbestimmtheit, d. h. die Lücke zwischen theoretischer Struktur und Modellverhalten wird größer. Andererseits bietet sie ein Instrument zur Abhilfe, d. h. zur instrumentellen Überbrückung der Lücke: Durch die Rückbindung an einen iterativen und explorativen Modus können Struktur und Spezifizierung bezüglich der Gesamtdynamik ausbalanciert werden. Trotz dieses Plädoyers für die Plastizität sollten wir nicht aus den Augen verlieren, dass der Fall FDM und FEM anders gelagert ist, als der vorhin betrachtete der ANNs. Während dort eine Struktur als Plattform dienen konnte, die im Laufe der Spezifikation an ganz verschiedene Anforderungen angepasst werden
Küppers und Lenhard (2005b) beschreiben in diesem Sinne Simulation als Modellierung zweiter Ordnung.
3.4 Zelluläre Automaten
69
konnte, wird bei der FDM die Spezifikation benötigt, um eine bestimmte komplexe Dynamik simulieren zu können. In aller Regel wird ein diskretes Modell nicht als Plattform dienen, sondern eher als Brückenkopf, auf dem die Spezifikation aufsetzt, um ein ganz bestimmtes Ziel zu erreichen.
3.4 Zelluläre Automaten Zelluläre Automaten (CA) gelten manchen Autoren als diejenige Modellklasse, mit der Simulationen erst zu sich selbst kommen, sei es dass eine neue Syntax am Werk ist (Rohrlich 1991), eine neue Art des Modellierens ‚von oben‘ (Fox Keller 2003), oder gar „A New Kind of Science“ – so der Titel von Wolframs Buch (2002), siehe auch Barberousse et al. (2007) für eine Übersicht über CA Methoden. Sämtliche der genannten Autoren unterstreichen übrigens die Rolle von Visualisierungen. Das ist Wasser auf die Mühlen der These von der Plastizität, da das Zusammenspiel mit Visualisierungen vielfältige Möglichkeiten bietet, eine CADynamik nuanciert zu verändern. Dynamische Abbildungen stellen ein hochdimensionales Kriterium für die Spezifizierung bereit. Ganz allgemein ausgedrückt verwenden Simulationen einen diskreten generativen Mechanismus, um die Dynamik eines Prozesses zu produzieren oder zu reproduzieren. CA beruhen auf einer verblüffend einfach erscheinenden Klasse solcher Mechanismen, wie das in Kapitel 2 kurz dargestellt wurde: Recht einfache lokale Regeln können sehr komplexe globale dynamische Muster erzeugen. Ein Vorteil der CA-Klasse ist, dass hier die Stärken des Computers, Myriaden von lokalen Anpassungen vorzunehmen, voll zur Geltung kommen kann. Ein theoretisches Modell kann als Vorbild für das CA-Modell dienen, wie wir das bereits in Kapitel 2 bei der Entwicklung von Spiralgalaxien kennengelernt haben. CA-Mechanismen können aber auch als Generatoren aus eigenem Recht gebraucht werden, wie das für John H. Conways in den 1970ern berühmt gewordenes „Game of Life“ der Fall ist, das durch Martin Gardner (1970) popularisiert wurde. Conway hatte mit verschiedenen Vereinfachungen von Ulams Ansätzen der Automatentheorie experimentiert, bis er ‚interessante‘, in gewissem Sinne dynamisch stationäre Muster erzeugen konnte. Ein Beispiel ist die in Abbildung 3.2 gezeigte glider gun: Jede Zelle ist nach einer bestimmten Regel, die nur vom Zustand der Nachbarzellen abhängt, im nächsten Schritt besetzt, bzw. unbesetzt. Das anfängliche Muster erzeugt in regelmäßigen Abständen besetzte Zellen, die sich dann im Raum wegbewegen. Damit sind sie ein spielerischer Beweis dafür, dass es Muster gibt, die (kontrolliert) unendlich groß werden.
70
3 Plastizität
Abbildung 3.2: Momentaufnahme einer glider gun; kleine Haufen besetzter Zellen wandern nach rechts unten, während die Konfiguration der Muster in der ersten Zeile regelmäßig neue solche Zellen erzeugt. Von Wikimedia Commons.
Die theoretisch basierten Modelle stellen allerdings die größere Herausforderung für die These der strukturellen Unterbestimmheit dar und deshalb gehört ihnen die hauptsächliche Aufmerksamkeit in diesem Abschnitt. Seiden und Schulmans CA-Modellierung der Entwicklung und Formation von Spiralgalaxien (siehe Kapitel 2) war ja bereits von Rohrlich (1991) herangezogen worden. Ich möchte hier lediglich einige Details hinzufügen, damit deutlich wird, inwiefern CA mit den anderen besprochenen Modellierungsansätzen hinsichtlich der Plastizität auf einer Linie liegen. Seiden und Schulman benutzten das Perkolationsmodell, um auszutesten, ob die Theorie der stochastic self-propagating star-formation (SSPSF) ein plausibles Bild der charakteristischen Spiralformen produzieren könnte. Ihr „dartboard“ (vgl. Abbildung 2.2) war der Anfangszustand eines zellulären Automaten und die Dynamik zwischen den Zellen sollte die wesentlichen Aspekte physikalischer Prozesse widerspiegeln. Der sehr anschauliche Erfolg bestand in der Übereinstimmung von simulierten und beobachteten Mustern. Das Ziel von Seiden und Schulman war dabei ein sehr theoretisches, nämlich die Zulässigkeit und Fruchtbarkeit einer stochastischen Theorie, der SSPSF, darzulegen. Um dieses Ziel zu erreichen, war es unumgänglich, auf Simulationen zurückzugreifen, da weder die interne Dynamik der SSPSF, noch der Vergleich mit empirischen Beobachtungen anders möglich war. Es liegt in diesem Fall nicht auf der Hand, was genau als struktureller Teil des CA-Modells gelten soll. Die ringförmige Anordnung der Dart-Scheibe fußt ganz klar auf theoretischen Überlegungen, die diese Struktur nahelegen. Der von Radius und Dauer abhängige Verlauf der Rotationsgeschwindigkeit jedoch ist eher der Spezifikation zuzurechnen. Als strukturell zu zählen wäre höchstens, dass diese Abhängigkeit über einen zu bestimmenden Parameter eingeführt wird. Sache der
3.4 Zelluläre Automaten
71
Spezifikation ist dann,was an Bestimmung erst im Verlauf des explorativen Modus geschehen kann. Und es war nicht theoretisch zwingend, dass die visuelle Passung überhaupt gelingen würde für eine Einstellung (anders etwa als die Bestimmung der Konstanten der Gravitationstheorie), sondern eben eine offene Frage, die nur im explorativen Modus einer Klärung zugeführt werden konnte. Es gingen also grundlegende theoretische Erwägungen in die Modellierungsannahmen ein – schließlich sollten die Ergebnisse ja Aussagekraft über SSPSF haben – und die Wechselwirkung zwischen den Zellen sollte physikalische Prozesse abbilden, wie z. B. Staubexplosionen. Solche strukturellen Annahmen dringen jedoch nicht bis zur beobachtbaren Modelldynamik durch, sondern müssen wesentlich ergänzt werden. Form und Inhalt der visualisierten Resultate hängen – nur unter anderem, aber immerhin – von der genauen Spezifizierung der Dynamik ab. Es gibt keine Maßgaben seitens der Theorie, wie etwa die Drehbewegung der Scheibe zu steuern sei, oder auf welche Weise die Zellen immer feiner unterteilt werden. Das sind Fragen, die sich auf die Natur des CA-Modells beziehen und nur durch dessen quasi-empirisch beobachtete Dynamik beantwortet werden können. Die wiederum ist in keiner theoretisch überschaubaren Weise mit anderen physikalischen Theorien verknüpft. Beispielsweise gibt es, ähnlich wie im Falle der finiten Differenzen, keinen Abstandsbegriff, der so etwas wie ‚schnell‘ oder ‚langsam‘ festlegen würde. Die modell-interne Dynamik der Unterteilung und Drehung bemisst sich allein nach der beobachteten, d. h. visualisierten, globalen Performanz. Im Gegenteil trägt es zum Erfolg der CA-Modellierung bei, dass derartige Probleme offen bleiben können und erst im Verlauf der Simulationsmodellierung einer Bestimmung zugeführt werden. Daher wäre es zu einfach gedacht, dass theoretisch motivierte Entscheidungen über Parametrisierungen durch die Simulation einer visuellen Überprüfung unterzogen werden. Vielmehr spielt die Anpassung an die Daten für den Prozess der Modellierung selbst eine entscheidende Rolle. Sowohl die essenzielle Bedeutung von Visualisierungen als auch die ausgiebige Anwendung von explorativen Simulationsexperimenten während des Prozesses der Spezifikation sind typisch für CAs. Falls der Erfolg über die Anpassungsversuche hinweg ausgeblieben wäre, hätten andere Parametrisierungsschemata untersucht werden können. Vermutlich mussten Seiden und Schulman auch derartige Versuche unternehmen, aber in regulären wissenschaftlichen Veröffentlichungen sind die nicht erfolgreichen Versuche praktisch nie enthalten. Ganz wie im Falle der finiten Differenzen beruhen auch hier wieder die strukturellen Annahmen über das CA-Modell auf einem theoretischen Modell, oder einer Theorie, aber gleichzeitig können wichtige konzeptionelle Lücken erst während des Prozesses der Spezifikation geschlossen werden. Kurz: was gemessen
72
3 Plastizität
am Standard mathematischer Modellierung als Defizit erschien, die strukturelle Unterdeterminiertheit, entpuppt sich im Kontext komplexer Systeme als Vorteil. Ein zweites Beispiel wird diese Erkenntnis untermauern. Die sogenannten lattice gas automata entstammen wiederum dem Gebiet der Flüssigkeitsdynamik, diesmal aus der Perspektive der CA-Modellierung betrachtet. Brosl Hasslacher, der am Los Alamos National Laboratory arbeitete, hat einen CA-basierten Weg verfolgt, um komplexe flüssigkeitsdynamische Probleme zu studieren. In seinem Bericht „Discrete Fluids“ (Hasslacher 1987) fasst er zusammen, dass „until recently there was no example of a cellular automaton that simulated a large physical system, even in a rough, qualitative way“ (1987, 177). Genau das unternahmen Hasslacher und seine Mitarbeiter. Sie möchten ihr CA-Modell als Entsprechung zur kinetischen Theorie konstruieren, d. h. die aus der Zellinteraktion entstehende Dynamik soll möglichst einer Dynamik entsprechen, wie sie durch die Navier-Stokes-Gleichungen ausgedrückt wird. Dementsprechend bestand ihr Erfolgskriterium darin, die aufgrund dieser theoretischen Gleichungen bereits akzeptierten Resultate zu reproduzieren. Ähnlich wie im ersten Beispiel kann die Überprüfung nur in einer Simulation erfolgen: „that one derives the Navier-Stokes equations with the correct coefficients and not some other macrodynamics—is justified after the fact“ (1987, 181).Was Hasslacher hier als „after the fact“ umschrieb bedeutet nicht nur, dass Simulationen nötig waren, um die Implikationen der Modellierungsannahmen ans Licht zu bringen, sondern darüber hinaus auch, dass zusätzliche Spezifizierungen unerlässlich waren, um die strukturellen Annahmen zu ergänzen. Erst die gelingende Spezifizierung – und nicht allein der strukturelle Kern – vermochte es, eine Rechtfertigung für den gesamten Modellierungsansatz zu liefern. Als erstes setzte Hasslacher einige wichtige strukturelle Annahmen an, vor allem die Wahl des Gitters war theoretisch motiviert. Die Zellen wurden nämlich in einem hexagonalen Gitter angeordnet, um den „Hexagonal Lattice Gas Automaton“ zu bilden, weil man zeigen kann, dass aus Gründen der Isotropie auf keinem rechteckiges Gitter die Homogenitätseigenschaften der Navier-Stokes-Gleichungen entstehen könnten. Das hexagonale Gitter ist die einfachste Anordnung, die diesen theoretischen Anforderungen genügt. Die Modellstruktur ist jedoch noch weit davon entfernt, ein bestimmtes Verhalten festzulegen. Um allererst ein detailliert testbares dynamisches Verhalten des Modells zu erreichen, sind umfangreiche Simulationsexperimente notwendig. Denn es gibt keine theoretischen Handreichungen, wie die Parameter des zellulären Automaten einzustellen seien, die ja ausschließlich die lokale Dynamik zwischen Zellen steuern. Und daher bleibt nur zu hoffen, zunächst auf iterativ-explorative Weise in der Simulation Übereinstimmungen mit bekanntem Verhalten zu finden. Diese Übereinstimmung könnte daraufhin als hinreichende Motivation akzeptiert werden, die (after the
3.5 Plastizität und strukturelle Unterbestimmtheit
73
fact) erfolgreichen Annahmen zu validieren. Ebenso wie in den zuvor betrachteten Fällen besteht das hauptsächliche Kriterium in der Performanz des Simulationsmodells, d. h. in einer global gesehen Navier-Stokes-ähnlichen Dynamik: „In general, whenever the automaton is run in the Navier-Stokes range, it produces the expected global topological behavior and correct functional forms for various fluid dynamical laws“ (Hasslacher 1987, 198/199). Erst der strukturelle und der spezifizierende Teil zusammen lieferten die ermutigenden Resultate für Hasslacher. Die Übereinstimmung kann allerdings nicht garantieren, dass die Simulation aus strukturellen Gründen ihr kontinuierliches Gegenstück approximieren würde. Das ist nicht der Fall, ungeachtet der beachtlich guten von Hasslacher festgestellten Übereinstimmung. Das kann man aus den prinzipiellen Unterschieden ersehen, welche die diskrete Dynamik mit sich bringt: Der einfache lattice-gas Automat hat nämlich eine Fermi-Dirac Verteilung während die kontinuierliche Flüssigkeitsdynamik eine Maxwell-Boltzmann Verteilung produziert. Im Verlauf des Spezifizierungsprozesses musste folglich der Einfluss dieses Unterschiedes durch entsprechende – artifizielle – Zusatzannahmen kompensiert werden. Hasslacher gelang es, den Einfluss der Differenz auf die Dynamik zu verkleinern, wenn auch nicht zu beseitigen: Simulations with the two-dimensional lattice-gas model hang together rather well as a simulator of Navier-Stokes dynamics. The method is accurate enough to test theoretical turbulent mechanisms at high Reynolds number and as a simulation tool for complex geometries, provided that velocity-dependent effects due to the Fermi nature of the automaton are correctly included (Hasslacher 1987, 200).
Kurz gesagt, die Fermi-Natur der CA Simulation konnte durch schlaue Spezifikation in gewissen Grenzen kompensiert werden. Die Plastizität des CA-Modells bot Raum für artifizielle Zusatzannahmen, um die gewünschte Dynamik zu erzeugen.⁸
3.5 Plastizität und strukturelle Unterbestimmtheit Fassen wir zusammen, was sich aus der Betrachtung der verschiedenen Fallbeispiele und Modellierungstechniken ergibt. Eine Reihe von Beispielen hat den Modellierungsprozess in unterschiedlichen Klassen von Simulationen illustriert.
Wir haben in den CA-Simulationen einen Mix aus bottom-up und top-down Überlegungen angetroffen, so dass es irreführend erscheint, CA mit genau einer der beiden Zugangsweisen zu identifizieren, wie das einige Meinungen in der Literatur tun.
74
3 Plastizität
Stets konnten zwei Bestandteile im Modellierungsprozess voneinander unterschieden werden; erstens der strukturelle Teil, der zu etwas wie einem ModellSchema, einer Klasse potenzieller Modelle, führt. Den zweiten Part übernahm die Spezifizierung, in deren Verlauf das Modell-Schema eine bestimmte Modelldynamik ausprägte. Dabei sind verschiedene Arten von Schemata aufgetreten, d. h. verschiedene Arten von Modell-Strukturen: artifizielle neuronale Netzwerke mit variabler Gewichtung, ein System finiter-Differenzen-Gleichungen auf einem Gitter, aber (noch) ohne artifizielle kompensierende Elemente und schließlich zelluläre Automaten, bei denen nur ein Teil der Dynamik strukturell festgelegt war, wie etwa die ringförmige Anordnung, oder hexagonale Nachbarschaftstopologie, während andere Teile der zellulären Interaktionen offen blieben, um erst in einem explorativen Modus spezifiziert zu werden. Einige dieser Schemata basierten ziemlich direkt auf akzeptierten theoretischen Grundlagen, wie diejenigen der Flüssigkeitsdynamik. In diesen Fällen ist die Spezifizierung notwendig, um strukturelle Defizite auszugleichen, bzw. mittels Parameteranpassungen – „after the fact“ – oder artifiziellen Elementen auszubalancieren. Auf der anderen Seite standen Schemata, die als generische ModellPlattform dienten, wie die ANNs der „Neurosolutions“, und bei denen die Spezifizierungsschritte sogar noch als Anwendungsvorteile verkauft werden können. In solchen Fällen gilt umgekehrt, dass die Struktur weitgehend unabhängig vom je relevanten Anwendungskontext ist, d. h. aus der Struktur eines solchen Simulationsmodells kann man kaum etwas entnehmen, was die zu modellierenden Phänomene betrifft. Trotz aller Unterschiede zwischen den Modellierungstypen lässt sich doch klar erkennen, dass die Struktur, das Schema, noch eine Spezifikation benötigt, um eine Modelldynamik zu bestimmen. Und so kann man übergreifend von struktureller Unterbestimmtheit sprechen, auch wenn diese Unterbestimmtheit verschiedene Ausmaße annehmen kann. Es ist nun der Prozess der Spezifizierung, für den die in den früheren Kapiteln betrachteten Merkmale von Simulationen vor allem relevant sind. Man kann, grob gesagt, erst dank der zur Verfügung stehenden Mittel zur Spezifizierung – explorative Experimente, Visualisierungen – mit Klassen von Strukturen starten, die ohne diese Mittel keine Aussichten bieten würden, zu handhabbaren Modellen zu führen. Die Plastizität tritt dann nicht als Defizit, sondern als positive Komponente auf, die auf das eingesetzte Instrument (Simulation) zugeschnitten ist. Die Spezifikation ist ein Prozess und muss nicht in einem Schritt erfolgen, sondern die dynamische Performanz einer Simulation kann schrittweise bestimmt und angepasst werden. Naturgemäß wird dieser Prozess sich kaum auf theoretische Annahmen stützen können, geht es doch gerade um eine Kompensation der Abweichungen zwischen Theorie und diskreten Modellen. Präziser ausgedrückt
3.6 Das Dilemma der Plastizität
75
bedeutet das nicht, dass diese Modellierungsschritte prinzipiell theoriefrei wären, aber die relevanten theoretischen Erkenntnisse werden sich auf Instrument und Methode beziehen und nicht auf das zu modellierende Phänomen, wenn zum Beispiel Parametrisierungsschemata zum Einsatz kommen, die aufgrund ihrer numerischen und algorithmischen Qualitäten gewählt werden. An dieser Stelle bietet es sich an, auf den Standpunkt einzugehen, den Humphreys vertritt und der anscheinend in Widerspruch steht zur hier vertretenen These der Plastizität als Merkmal. Denn Humphreys (2004) stellt sogenannte „computational templates“ als wesentliche Bestandteile von Simulationen heraus, strukturelle mathematische Elemente, die breite Anwendung haben. Im Grunde kann man sie mit Gleichungen oder Gleichungssystemen vergleichen, die nicht nur in einem, sondern in ganz verschiedenen Bereichen die Dynamik beschreiben. So haben etwa die Ausbreitung der Temperatur in einem Körper und die Brown‘sche Bewegung die gleiche Form. Somit scheint es doch wieder die tiefere mathematische Struktur zu sein, auf die es ankommt und die dann per Computermodellierung berechenbar gemacht werden muss. Kurz, Computermethoden sorgen für ‚tractability‘, für die Anwendbarkeit aber bürgt die tiefere Struktur. Ich sehe hier keinen direkten Widerspruch zur These von Plastizität und Unterbestimmtheit. Vielmehr ist Humphreys Recht zu geben – in bestimmten Fällen. Mein Augenmerk liegt auf den zusätzlichen Prozessen der Spezifizierung, die beim Übergang von einem gemeinsamen oder ähnlichen Kern zu konkreten Situationen nötig sind. Es macht eben einen erheblichen Unterschied, ob es um die Flüssigkeitsdynamik oder um ein Modell der Atmosphäre geht. Selbst wenn computational templates identifizierbar sind, so ist über diese hinaus Anpassungsarbeit nötig und eben charakteristisch für Simulationsmodellierung, wie in den Kapiteln 1 bis 3 beschrieben.
3.6 Das Dilemma der Plastizität Die Plastizität führt in folgendes Dilemma: In dem Maße, in dem die Modelldynamik und die Qualität der Simulation nicht auf der Struktur des Modells beruhen, kann auf dieser auch nicht die Erklärungsleistung ruhen. Wenn diese wiederum von den je konkret ausbalancierten Parametereinstellungen etc. abhängt, verflüchtigt sie sich gänzlich. Denn der Verweis auf das Zusammenspiel genau dieser speziellen Einstellungen (ohne basale Strukturüberlegungen) wäre eher das Eingeständnis der Abwesenheit von Erklärung. Anders gesagt: Wer die Spezifizierung mit ins Bild nimmt, handelt sich den Vorwurf des ad-hoc Vorgehens oder ‚tunings‘ ein, d. h. einer instrumentalistischen Sichtweise. Wer sich jedoch auf die Struktur zurückzieht, muss mit dem Vorwurf
76
3 Plastizität
der Beliebigkeit rechnen, da die Plastizität gerade auf einer gewissen Strukturarmut beruht. Vor dem Hintergrund der hier angestellten Analyse kann man ersehen, dass dieses Dilemma die Simulation begleitet. Ich erinnere hier nur an die Kritik an Klimamodellen, genauer an die Kontroverse um das sogenannte flux-adjustment, das bis hinein in die Massenmedien ausgefochten wurde. Um die Mitte der 1990er Jahre gelang die Kopplung von Zirkulationsmodellen der Atmosphäre und der Ozeane, die aber jeweils separat spezifiziert und gewissermaßen austariert worden waren. Die Kopplung brachte das Verhalten der separaten Modelle aus dem Gleichgewicht. Ein pragmatischer Lösungsvorschlag bestand darin, den Fluss zwischen Atmosphäre und Ozeanen so zu kompensieren, dass das Einzelverhalten im Gleichgewicht bliebe. Die Kritik lautete, hier werde ein Realismus durch ad-hoc Anpassungen nur vorgespiegelt, während in Wirklichkeit Parameter steuernd in das Verhalten der Simulationen eingriffen, die gar keine Entsprechung in der Realität aufwiesen. Die meisten Modellierer begegneten diesem Einwurf mit Unverständnis, weil darin, das heißt im ausbalancieren von Parametern, eben ein Teil der Methode besteht.⁹ Dieses Dilemma entfaltet seine Wirksamkeit in Abstufungen, wie aus den folgenden Beispielen deutlich wird. Alle drei Beispiele, die ich anführen werde, reichen zurück in die Vor-Computer-Zeit, obwohl sie allesamt erst durch Simulationsmethoden in weiten Gebrauch gekommen sind. Das erste ist das sogenannte Ising-Modell der Perkolationstheorie, in dem auf einem (ein- oder mehrdimensionalen) Gitter Magnete angeordnet sind, deren Polung (Spin) durch diejenige ihrer direkten Nachbarn beeinflusst wird. Ein Parameter der thermischen Energie steuert den Grad der Unabhängigkeit der Zustände von denjenigen der Nachbarn. Beim Ising-Modell handelt es sich also um eine Art von zellulärem Automaten, von Ernst Ising allerdings schon 1925 als Beitrag zur statistischen Physik vorgestellt. Das Modell ist berühmt dafür, dass sein Verhalten, obwohl die Dynamik so einfach gestrickt erscheint, kritisches Verhalten und Phasenübergänge zeigt. Man konnte einige Resultate analytisch (und insbesondere mit stochastischen Methoden) herleiten, etwa die Existenz von Phasenübergängen, oder Abschätzungen über die Größenordnung des kritischen Parameters. Gleichzeitig waren diese Modelle be-
Auch wenn es nicht ohne Anpassungen geht, so heißt das noch lange nicht, dass beliebige adhoc Anpassungen unvermeidlich wären. In der Klimamodellierung wurden recht schnell andere Vorgehensweisen gefunden, die ohne das inkriminierte flux adjustment arbeiten. Vergleiche dazu den Third Assessment Report des IPCC (Houghton et al. 2001), der eine vermittelnde Position darlegt.
3.6 Das Dilemma der Plastizität
77
rüchtigt dafür, wie schwierig es war – oft ganz unmöglich – die meisten der interessanten Parameterwerte quantitativ zu bestimmen. Mit der Simulation hat sich diese Situation komplett gewandelt. Monte-Carlo Markov-Ketten Methoden (MCMC) machen diese Aufgaben zu einer Übung, die heutzutage in keinem Kurs zur Stochastik, statistischen Physik, oder computational physics (die Disziplinen verschwimmen hier) fehlt. Experimente und Visualisierungen sind effektiv darin, kritische Phasen zu untersuchen, die Abbildung 3.3 zeigt ein Beispiel eines testweise erzeugten Clusters, das dazu dient, die geometrischen Eigenschaften von kritischen Clustern gleicher Polung zu untersuchen. Es veranschaulicht daher ausgezeichnet den explorativen Modus der Simulation.¹⁰ Das zweite Beispiel ist das eng verwandte „Game of Life“, das oben bereits besprochen wurde. Auch hier hat Conway zunächst mit Münzen, Knöpfen und ähnlichem hantiert, um auf die Spur einer vielversprechenden Dynamik, oder besser einer ganzen Klasse solcher Dynamiken zu kommen. Kaum war das gelungen, das Spiel also definiert, setzte eine große Begeisterung ein und alle möglichen Varianten wurden auf Computern durchgespielt. So wurde auch rasch die von Conway 1970 gestellte Preisfrage beantwortet (50 Dollar setze er aus): kontrolliertes unendliches Wachstum ist möglich (siehe oben die glider gun, Abbildung 3.2) Man kann das als Antwort betrachten auf die Frage nach der Existenz selbstreplizierender Automaten, die ja am Anfang der Überlegung von Ulam und von Neumann stand und die zellulären Automaten als Modellklasse motivierte.
Abbildung 3.3: Ein Cluster im Ising-Modell nahe der kritischen Temperatur. Aus Wikimedia Commons.
Das dritte Beispiel schließlich stellen soziale Simulationen dar. Thomas Schelling hat berühmte Versuche zur sozialen Segregation angestellt. Er benutzte dazu ein Gitter wie bei einem zellulären Automaten, nur dass hier nicht Magnete oder Zellen ihren Zustand wechseln, sondern Bewohner eine Tendenz dazu haben, ihren Wohnort zu verlassen und umzusiedeln, wenn ihre Nachbarschaft zu einem Hughes (1998) gibt eine gelungene ausführlichere Diskussion des Ising-Modells.
78
3 Plastizität
bestimmten Anteil in bestimmten Eigenschaften (z. B. der Hautfarbe) abweicht. Auch Schelling probierte erst auf handgezeichneten Spielfeldern und mit improvisierten Mitteln.¹¹ Die Methode fand aber Anerkennung und weite Verbreitung erst mit dem Computer. Allen drei Beispielen ist gemeinsam, dass sie einen durchschlagenden Erfolg vorweisen, indem sie eine Fragestellung behandeln, die zuvor außerhalb der Reichweite lag. Worin aber besteht die Erklärungsleistung? Sie ruht vor allem auf Einfachheit und Effektivität. Phänomene des Phasenübergangs lassen sich bereits im Ising-Modell studieren, kompliziertere physikalische Annahmen können daher zunächst entfallen. Ebenso beim Spiel des Lebens: Automatentheorie wird zu einem experimentellen Spiel, das unter sehr restriktiven Modellierungsbedingungen geschehen kann, weil eben die Reichhaltigkeit des einfachen Falls ausreicht. Schließlich Schellings Segregationsmodell: Es zeigte überzeugend, wie wenig an sozialer Theorie ins Modell einfließen muss, um die Phänomene der Segregation zu erzeugen. Diese Erfolge sprechen allerdings gerade nicht für die Simulation als Strukturwissenschaft, denn sie verwenden die kompletten Spezifizierungen und sind nur mit letzteren, quasi nur im Paket, zu haben. Im Einzelfall kann das spektakulär erscheinen: „Seht her, so einfach kann es gehen mit der sozialen Segregation!“ Wie allgemein ist jedoch diese Erkenntnis, inwiefern hat sie etwas mit der echten sozialen Segregation zu tun? Von der Argumentationslogik her gesehen ist schlüssig, dass kompliziertere Modellannahmen nicht notwendig sind, um die simulierten Muster zu erzeugen.Wie darauf eine simulationsbasierte Wissenschaft zu bauen wäre, darüber herrscht allerdings keine Einigkeit. Eine Richtung greift das spielerische Moment auf: Die Ansätze sind reichhaltig genug, um eine große Bandbreite an Varianten zu untersuchen. Es geht dann eben um artifizielle Gesellschaften mit stets komplexeren Interaktionen, wovon die Subdisziplinen des „Artificial Life“ und der sozialen Simulationen¹² handeln, oder um die Analyse bestimmter Spielsituationen, die mittels Simulation erfolgt, wie etwa im berühmten Gefangenendilemma. Kurz: Die Simulationsansätze werden als Gegenstände eigenen Rechts behandelt, die in immer ausgeklügelteren Modellen erweitert und analysiert werden. Eine zweite Entwicklungsrichtung kümmert sich eher um die Signifikanz der Simulationsresultate über interne Modellaspekte hinaus. Bereits Schelling hatte, sobald die Segregation als Phänomen gezeigt war, seine Aufmerksamkeit darauf
Treffend erläutert und mit Literaturangaben versehen in Knobloch (2009). Zu sozialen Simulationen siehe Epstein und Axtell (1996), vgl. auch Boden (1996) für einen Überblick.
3.6 Das Dilemma der Plastizität
79
gerichtet, die Robustheit der Phänomene unter Variation der Parametereinstellungen zu untersuchen. Es ging dann darum, die Übertragbarkeit von der Simulation auf die soziale Welt zu plausibilisieren. Hier stellt sich das Problem der Plastizität in aller Schärfe: Da auf Nachbarschaftsgittern der Schelling‘schen Sorte sehr viele verschiedenen Dynamiken implementiert werden können, hängen die Ergebnisse von den im speziellen Fall gewählten Parametern ab. Im Umkehrschluss ließen sich die Erkenntnisse nur dann auf die reale Welt übertragen, wenn diese speziell gewählten Parametereinstellungen tatsächliche Werte, Tendenzen, Präferenzen oder was immer repräsentierten. Davon hängt der Wert der Simulation als Strukturwissenschaft ab (auch wenn davon in vielen Studien, die auf derartigen Methoden beruhen, nicht unbedingt die Rede ist). Wir haben es hier mit einem tiefgreifenden Problem der Validierung zu tun. Eine überragende Vorhersage- oder Imitationsleistung, wie zum Beispiel bei der atmosphärischen Zirkulation, ist im Falle sozialer Simulationen schwer zu beschreiben. Auch Argumente für eine realistische Wahl der verwendeten Parametergrößen sind kaum auszumachen, da diese Einstellungen allermeist rückwärts-logisch vorgenommen werden, d. h. sich auf instrumentelle Weise an der Performanz orientieren. Bleibt als dritte Strategie die von Schelling gewählte, d. h. über Robustheitstests zu argumentieren, dass es auf die genaue Einstellung gar nicht ankomme. Ich möchte nicht im Detail die Validität und den Erkenntnisgewinn von solchen Simulationen abwägen, die ihren Start in der verblüffenden Simplizität haben, mit der bestimmte Muster simuliert werden können. Ich begnüge mich mit dem Hinweis darauf, dass das Dilemma der Plastizität ein Problem für die Validierung bezeichnet. Teilweise wurde ein Befreiungsschlag dadurch versucht, dass ein neues Erklärungsmodell propagiert wird. „Can you grow it?“ so lautet die Gretchenfrage bei Epstein und Axtell (1996), d. h. eine vollwertige Erklärung eines Phänomens müsse dieses ‚von unten‘ her erzeugen können. Einerseits steckt hierin eine echte Neuerung, andererseits ist auch absehbar, dass insbesondere Simulationen diesem Kriterium fast per definitionem genügen. Denn ist ein Spezifizierungsprozess abgeschlossen, so liegt natürlich ein solches „Wachsenlassen“ eines Phänomens aus den Mechanismen des Simulationsmodells vor.¹³ Im Grunde lässt sich auch das Galaxienbeispiel in diese Reihe einsortieren: „Ja“, so das Ergebnis, man kann Galaxienformen per CA-Modell wachsen lassen. Ich würde allerdings unbedingt hinzufügen, dass die Erklärungsleistung primär von der Verwandtschaft des CA-
Wise (2004) weist auf eine breit aufgestellte Bewegung in der Wissenschaft hin, die auf solche genetischen Erklärungen abzielt.
80
3 Plastizität
Modells mit der physikalischen Theorie über die Formation von Galaxien zusammenhängt. Es wäre ein Fehlschluss, von passenden Mustern, die aus einer Struktur und deren Spezifizierung entstanden sind, auf die Erklärungsleistung der Struktur allein zu schließen.
3.7 Fazit: Plastizität und Simulation Eine eng verwandte Problemlage ist im Zusammenhang von Computer und Simulation bereits drei Jahrzehnte zuvor intensiv diskutiert worden. Deren Ausgangspunkt war die eher theoretische Diskussion um den Computer als universelle Turing-Maschine. Sämtliche Handlungen, die sich überhaupt präzise beschreiben lassen, können auch durch einen Computer und mit Hilfe eines Computerprogramms ausgeführt werden. Das ist der Inhalt der sogenannten Turing-Church-These. Sie besagt, dass der Computer als Maschine eine universelle Plastizität besitzt – gerade weil er an so verschiedene Aufgaben adaptierbar ist, enthält seine Struktur praktisch nichts von Belang. Robert Rosen hat das in der folgenden Weise als das essenzielle Merkmal der Simulation ausgemacht: …all relevant features of a material system, and of the model into which it was originally encoded, are to be expressed as input strings to be processed by a machine whose structure itself encodes nothing. That is to say, the rules governing the operation of these machines, and hence the entire inferential structure of the string-processing systems themselves, have no relation at all to the material system being encoded. The only requirement is that the requisite commutativity hold … between the encoding on input strings and the decoding of the resultant output strings. … [T]his is the essence of simulation (Rosen 1988, 532).
In gewisser Weise liegt Rosen richtig, aber er wählt für seinen Standpunkt einen abstrakten Blick auf die Maschine, dem etwas Wesentliches entgeht, ja entgehen muss. In der vorliegenden Schrift möchte ich die Simulation gerade nicht in dieser Weise betrachten. Dass aus logischer Sicht mittels des Computers irgendwie allerhand zu bewerkstelligen ist, sei geschenkt.Von wissenschaftsphilosophischem Belang ist vorrangig, wie die Simulationsmodellierung vorgeht und wie sie zu charakterisieren ist. Das ist eine viel spezifischere Fragestellung. An dieser Stelle bietet es sich an, auf die neue Robotik oder verhaltensbasierte künstliche Intelligenz zu verweisen. Es handelt sich um eine (multi‐)disziplinäre Richtung, die nicht die spezifischen Qualitäten der Simulation als mathematischer Modellierung aufgreift, sondern am anderen, am maschinellen Ende ansetzt und sich erhofft, durch die Imitation bestimmter Handlungstypen (Greifen, Laufen, Orientierung im Raum), die allzu ausuferende Allgemeinheit des konzeptionellen Rahmens, bzw. dessen Sprachzentriertheit, zu überwinden, die – so lautet das
3.7 Fazit: Plastizität und Simulation
81
Credo dieser Forscher – entscheidende Fortschritte der künstlichen Intelligenz bisher verhinderte (vgl. etwa Brooks 1991, 2002, Pfeifer und Scheier 2001). Auch im Kontext der Computerwissenschaften haben sich ähnlich spezifische Fragestellungen aufgetan, wenn es nämlich darum geht, das Verhalten eines Programms zur Struktur, auf der es aufsetzt, in Verbindung zu bringen. Auch hier tritt der Begriff der Spezifizierung auf, was mir wohl bewusst war bei der Wahl des gleichen Namens für den Prozess während der Simulationsmodellierung. Ich zitiere Christopher Langton: We need to separate the notion of a formal specification of a machine – that is, a specification of the logical structure of the machine – from the notion of a formal specification of a machine’s behavior – that is, a specification of the sequence of transitions that the machine will undergo. In general, we cannot derive behaviours from structure, nor can we derive structure from behaviours (Langton 1989, 47).
Das mangelnde Ableitungsverhältnis ist eine bedeutende Einschränkung, vor allem wenn man bedenkt, dass es um sehr formale Prozesse geht und der Bereich sich also für eine mathematisierende Behandlung anbieten würde. Michael Mahoney hat eine ganze Reihe historischer und philosophischer Studien beigetragen, in denen er sozusagen dem Versagen der Mathematisierung im Falle der Computerwissenschaften nachgeht (z. B. Mahoney 1992, 2010). Kommen wir zurück zur Simulationsmodellierung: Dieses Kapitel führte vor Augen, dass Plastizität und explorativer Modus einander ergänzen, sogar aufeinander angewiesen sind. Plastizität benötigt Spezifizierung und ohne den explorativen Modus wären Modelle hoher Plastizität praktisch unbrauchbar. Ohne Plastizität wiederum ginge es bei der Simulationsmodellierung nur um eine pragmatisch aufgebohrte Version mathematischer Modellierung, um die schnellere oder anschaulichere Einstellung von Parametern. Im Grunde steht sogar zu erwarten, dass Modelle hoher Plastizität artifizielle Elemente erfordern. Und zwar nicht-repräsentierende artifizielle Elemente, die mit einbezogen werden, um die gewünschte Performanz zu erzielen. Andernfalls wäre es ja doch wieder die zugrundeliegende Struktur, die als Orientierungspunkt den Ausschlag gäbe.¹⁴
Hier könnte man die Computersimulation der viel älteren Ansicht Descartes’ gegenüberstellen: Descartes’ Maschinenmodell war mikroskopisch gesehen von ontologischer Bedeutung, während es makroskopisch lediglich einen methodischen Stellenwert hatte (Sutter 1988). Die Simulation dagegen kann ‚mikroskopisch variabel‘ sein, oder besser: im Verlauf der makroskopischen Modellierung eines Mechanismus stellen die sukzessiven Adjustierungen der weiteren Parameter und Stellschrauben die Signifikanz der mikroskopischen Ebene mehr und mehr in Frage.
4 Epistemische Opazität Richard Feynman, der berühmte Physiker und Nobelpreisträger, schildert in einer Passage seiner Lebenserinnerungen (1987), wie er einmal einen Kollegen in ungläubiges Staunen versetzte. Der Kollege hat ihn wegen einer kompliziert erscheinenden Rechenaufgabe gefragt und anstatt zu grübeln und nach einer Lösung zu suchen, hatte Feynman sie sogleich parat. Damit aber nicht genug, denn der Kollege vermutete, dass Feynman aus anderen Gründen die Lösung zufälligerweise kannte und fragte nach weiteren Abschätzungen, zu denen man eigentlich eine Rechenmaschine benutzen würde. Feynman konnte auch hier die Antworten in Sekundenschnelle geben. So viel Glück, alle diese Aufgaben zufällig zu wissen, kann niemand haben, dachte der Kollege, andererseits aber war es nur schwer vorstellbar, dass jemand schier übermenschliche Fähigkeiten bei der Abschätzung komplizierter vielstelliger Resultate haben könnte. Konsterniert brach er die Unterhaltung ab. Feynman selbst gewährt in seiner Schrift den Blick hinter die Kulissen seiner verblüffenden mathematischen Fähigkeiten, für die er in der Tat berühmt war. (Er war offenbar auch so stolz auf sie und seinen Ruf als Hexenmeister, dass er diesen Blick nicht seinem Kollegen gewährte.) Tatsächlich ging es eher um die Imitation von mathematischer Rechenkraft, denn er fand zu den gestellten Aufgaben blitzschnell Möglichkeiten, eine Approximation mittels bekannter Ergebnisse, die auch sein Kollege im Kopf gehabt hätte, herzustellen. Er imitierte den ‚number cruncher‘ und ging in einer fast spielerischen Weise mit der kalkulatorischen Unterlegenheit des Menschen um. Feynman konnte übers Wasser laufen, weil er wusste, wo die Steine liegen. Natürlich hatte er in dieser Episode auch Glück, dass nur solche Fragen gestellt wurden, die eine Abkürzung erlaubten. Diese Anekdote offenbart Feynmans pointierten Glauben an die Überlegenheit des analytischen Verständnisses unter gleichzeitiger Anerkennung der Überlegenheit des Computers als Kalkulator. Letzterer kann schneller rechnen, aber das (mit Genialität gewürzte) Durchschauen der Lage führt fast ebenso effektiv zu Ergebnissen – und wegen der Verständnisleistung auch zu potenziell wertvolleren. Die Episode spielt jedoch in einer Zeit der ‚unreifen‘ Computer und insbesondere Simulationsmethoden. Zweierlei hat sich seitdem geändert: Erstens sind viele anwendungsrelevante Fragen und Probleme in komplexen Kontexten angesiedelt. Dort hat analytisches Verständnis oft nur eine eingeschränkte Reichweite – die Trittsteine sind rar gesät. Zweitens steht mit der Simulationsmodellierung ein Instrument zu Verfügung, das diese Komplexitätsbarriere zu umgehen vermag – jedenfalls in einem gewissen erläuterungsbedürftigen Sinne. Dadurch
4 Epistemische Opazität
83
wird aber nicht analytisches Verständnis wiederhergestellt, vielmehr bleibt die Dynamik der Simulationsmodelle selbst epistemisch opak. Das führt nicht notwendig zu einem Kontrollverlust über die Modelldynamik, weil Simulationen die fehlende Transparenz kompensieren können und zwar gestützt auf die in den vorherigen Kapiteln besprochenen Mittel von Iteration, Experiment und Visualisierungen. Wenn man allerdings experimentierende und visualisierende Ansätze nutzt, um das Modellverhalten quasi-empirisch kennenzulernen, leidet das Erklärungspotenzial darunter erheblich. Im vorhergehenden Kapitel war bereits angesprochen worden, dass die Modelleigenschaft der Plastizität die Erklärungsleistung in Frage stellt. In diesem Kapitel wird die Sache vom Modellierer her als epistemische Problemlage angegangen: Ein hervorragendes Merkmal mathematischer Modelle ist deren epistemische Transparenz oder Luzidität. Sie sind es ja gerade, auf welche die Naturwissenschaften angesichts einer undurchschaubaren Welt ausweichen. In dieser Hinsicht wären epistemisch opake Simulationsmodelle etwas sehr anderes als traditionelle mathematische Modelle und daher verdient die epistemische Opazität eine eingehende Erläuterung. Im Folgenden werden einige Beispiele besprochen, in denen epistemische Opazität im Zusammenhang mit Simulationen auftritt. Dabei kann auch auf einige bereits besprochene Fälle zurückgegriffen werden. Ganz generell weisen die allermeisten Beispielsfälle, die in den einzelnen Kapiteln zur Illustration angeführt werden, Merkmale auf, die auch in weiteren Kapiteln besprochen werden. So steht das auch zu erwarten, wenn es nicht um isolierte Spezialfälle geht, sondern jeweils um Aspekte der Simulationsmodellierung als neuer Konzeption mathematischer Modellierung. Insgesamt wird deutlich werden, in welcher Hinsicht Simulationsmodelle, obwohl sie epistemisch opak sind, Optionen zur Kontrolle der Modelldynamik eröffnen. Forscher oder Anwender können im Verlauf iterierter Simulationsexperimente und Visualisierungen austesten, wie variierende Inputs und Outputs zueinander stehen, und sich dadurch im Modell orientieren – auch wenn die Dynamik der Simulation zumindest teilweise opak bleibt. Zugegebenermaßen bleibt eine solche Bekanntschaft mit dem Modell hinter den hohen epistemischen Standards zurück, die üblicherweise mathematischen Modellen zugeschrieben werden. Der niedrige Standard ist aber immer noch hinreichend, um in technologischen Zusammenhängen kontrollierte Interventionen zu ermöglichen. Umgekehrt gilt, dass Opazität in Kauf genommen werden muss, um eine Kontrolloption überhaupt offen zu halten. Daran anknüpfend wird zum Schluss dieses Kapitels diskutiert, inwiefern das Anlass gibt, auch von einer pragmatischen – ‚schwachen‘ – Version wissenschaftlichen Verständnisses zu sprechen.
84
4 Epistemische Opazität
4.1 Sintflut bei IBM Seit der Erfindung des elektronischen Computers in der Mitte des 20. Jahrhunderts hat sich die Rechengeschwindigkeit enorm erhöht. Aufgaben, die den Einsatz eines Großcomputers erforderten, sind nur eine Dekade später nichts Besonderes mehr für Maschinen, die es überall zu kaufen gibt. Die bloße Rechenleistung entspricht jedoch nicht der Kapazität zum Problemlösen. Bereits Alan Turing, dessen Turing-Maschine den modernen Computern in logisch-architektonischer Hinsicht entspricht, erzielte fundamentale Einblicke in das Wesen der Berechenbarkeit und insbesondere deren Grenzen (siehe auch Lenhard und Otte 2005). Die übergroße Mehrzahl der reellen Zahlen kann zum Beispiel nicht errechnet werden – eine Tatsache, die der Beziehung zwischen der abstrakten Welt der Zahlen und dem Einsatz von Maschinen mit bestimmter Konstruktionsweise entspringt. Die Frage danach, welche Typen von Problemen sich einer auf Rechenkraft basierenden Strategie entziehen, führte zur Explikation der sogenannten Kolmogorov-Chaitin Komplexität (Chaitin 1998). Der Begriff computational complexity hat sich eingebürgert, um jene Art der Komplexität zu bezeichnen, die sozusagen misst, wie gut ein Computer das betreffende Problem berechnen kann. Dieser Begriff der Komplexität ist so interessant, weil eine große Zahl von Problemen in der wissenschaftlichen und technischen Praxis auftauchen, die in genau diesem Sinne komplex sind. Das sogenannte Problem des Handlungsreisenden (TSP – traveling saleman problem) ist ein prototypischer Fall. Vorgegeben ist eine Anzahl geographisch verteilter Städte mit den entsprechenden Entfernungen und das Problem besteht darin, eine Reiseroute zu finden, die alle Städte besucht und gleichzeitig so kurz wie möglich ist. Für jedes Problem mit n Städten existiert eine Lösung – so viel ist offensichtlich. Es spricht nichts dagegen, dass mehrere mögliche Routen die kürzest mögliche Reisedistanz verwirklichen. Wie jedoch kann man eine solche Route finden? Diese Frage formuliert eine typische Optimierungsaufgabe, die aber selbst unter Zuhilfenahme sehr großer Rechenkraft keineswegs einfach zu lösen ist. Warum ist das so? Es wäre ja wohl einfach, einen Algorithmus zu entwerfen, der alle Verbindungswege durchprobiert und daraus den kürzesten bestimmt. Ein solcher Ansatz ist im Prinzip richtig, aber in der Praxis nicht durchführbar. Der Haken an der Sache ist, dass schon für eine mäßig große Zahl n die Anzahl der potenziellen Wege so groß ist, dass selbst ein sehr schneller Computer damit überfordert wäre sie durchzumustern. Der Rechenaufwand, dargestellt als Funktion von n, wächst schneller an als jedes Polynom in n, was deutlich offenbart, dass bloße Rechenkraft (brute force) nicht der Schlüssel zu einem praktikablen
4.1 Sintflut bei IBM
85
Verfahren sein kann. (Technisch gesprochen gehört das TSP zur Klasse der npschweren Probleme.) Solche und verwandte Probleme sind in der technischen Praxis weit verbreitet. Eine Anzahl von Disziplinen ist involviert, wenn es darum geht, praktisch gangbare Lösungswege auszumachen, wozu die mathematischen Disziplinen der numerischen und kombinatorischen Optimierung ebenso zählen, wie das scientific computing und informatische wie ingenieurwissenschaftliche Zugangsweisen zum Programmieren und Implementieren. Auf der mathematischen Seite gibt es ein ganzes Bündel verschiedener Ansätze, die zum Teil auf theoretisch sehr avancierten Ideen beruhen (vgl. Gutin und Punnen 2002). Die Gruppe um Gunter Dueck am IBM Scientific Center in Heidelberg entwickelte einen sehr erfolgreichen Simulationsansatz, den sogenannten „Sintflut Algorithmus“, der dazu dient, solche Optimierungsaufgaben von großer Rechenkomplexität zu lösen, die in der Praxis recht häufig vorkommen, jedoch nicht mit bloßer Rechenkraft gehandhabt werden können. Im folgenden möchte ich diesen Algorithmus vorstellen, der seinen Namen erhalten hat, weil er eine ansteigende Flut simuliert, die eine – ebenfalls simulierte – Testperson dazu treibt, bessere Ergebnisse zu finden. Das Problem besteht also im Lösen der folgenden Optimierungsaufgabe: Man hat einen mathematisch definierten Raum, wie den Raum der möglichen Wege des Handlungsreisenden. Ein Punkt x in diesem Raum erhält einen bestimmten Wert F(x) – im TSP wäre das die Länge der Route x. Ein benachbarter Punkt x’, also eine benachbarte Reiseroute, die etwa durch Vertauschen der Reihenfolge entsteht, in der zwei Städte besucht werden, hat eine andere Länge F(x’) usw. Stellt man den in der Regel hochdimensionalen Grundraum aller x als eine Ebene dar, so bildet die Gesamtheit der Werte F(x) eine Art Gebirge über dieser Ebene und die Aufgabe lautet, die höchste Bergspitze zu finden (oder das tiefste Tal, was mathematisch gesehen lediglich einem Vorzeichenwechsel entspricht). Wie kann man nun diese Spitze finden, selbst wenn man überhaupt nichts über die Beschaffenheit des Gebirges weiß? Zu jedem einzelnen Punkt kann man den entsprechenden Funktionswert leicht berechnen, aber es fehlt eben der Überblick über alle Punkte. Denkt man zurück an die Rechenkomplexität, so kann man sagen, dass es in vielen praktischen Fällen einfach viel zu viele Punkte gibt, um alle durchzumustern – selbst für einen Supercomputer. Wäre das anders, dann wären die Probleme der Optimierung durch Computereinsatz, wenn nur die Maschine stark genug ist, in der Tat zu erledigen. Die Komplexität verhindert, dass ein „Weiter so, nur mehr und schneller“ zum Ziel führt. Wenn man die Simulationsmodellierung als einen besonderen Typ mathematischer Modellierung charakterisieren möchte, kommt es darauf an, diesen Umstand zu berücksichtigen.
86
4 Epistemische Opazität
Zurück zum Optimierungsproblem: Ein Vorschlag könnte darin bestehen, an einem per Zufallswahl bestimmten Punkt zu starten und dann einfach ‚aufwärts‘ zu gehen, womit gemeint ist, alle Nachbarpunkte n(x) von x zu überprüfen und denjenigen auszuwählen, für den F(n(x)) maximiert wird. Dieser Algorithmus würde sicherlich zu einer (lokalen) Spitze führen, die ja so definiert ist, dass die Nachbarpunkte nicht höher liegen. Er würde aber keine Gewährleistung bieten, dass das auch die global gesehen höchste Spitze ist. Das wäre nur dann der Fall, wenn durch Zufall der Startpunkt am Hang des höchsten Berges gelegen hätte. Obwohl dies also ein problemlos durchzuführender Algorithmus ist, wird er in aller Regel keine guten Ergebnisse liefern. Der Sintflut-Algorithmus besteht in einer verblüffend einfachen Modifikation dieses Ansatzes. Der simulierte Wanderer geht nach folgender Regel vor: Er startet wieder nach Zufallswahl, geht danach aber nicht ständig bergauf, sondern wählt wiederum zufällig eine Richtung für den nächsten Schritt. Der Wanderer läuft also wahllos bergauf und bergab, ohne sich um die Form des Gebirges zu scheren. Parallel dazu gibt es einen zweiten Prozess, der dem Algorithmus seinen Namen verliehen hat: Eine „Sintflut“ steigt von den Tälern empor und die einzige Bedingung an den simulierten Wanderer lautet, dass er sich keine nassen Füße holen darf. Das heißt, wenn der Zufallsgenerator eine Stelle für den nächsten Schritt vorschlägt, die bereits überschwemmt ist, geht das nicht und er muss eine neue Richtung bestimmen. Offensichtlich endet auch dieser Prozess in einem lokalen Maximum, sobald nämlich alle Nachbarpunkte unter Wasser liegen. Da die Wanderung zwischendurch auch bergab führen kann, bestimmt jedenfalls nicht schon der Anfangspunkt das Endresultat. Ein offensichtlicher Einwand gegen diesen Algorithmus besteht in der Beobachtung, dass der simulierte Wanderer ab einem bestimmten Zeitpunkt durch die Flut auf einer Insel eingeschlossen ist. Anders ausgedrückt, gibt es ein Argument, weshalb das lokale Maximum auch das globale sein sollte? Oder ihm wenigstens sehr nahe kommt? Das Fehlen eines schlagenden mathematischen Arguments hat zu Kritik seitens einiger mehr theoretisch orientierter Mathematiker geführt. Der Sintflut-Algorithmus ist jedoch in vielen praktischen Anwendungen verblüffend erfolgreich, etwa optimale Platzierungen auf Computer-Platinen zu finden. Und die Entwickler des Algorithmus teilen die Verwunderung: Wir haben, offen gestanden, nicht ernsthaft geglaubt, dass dieser Algorithmus funktionieren würde. Was passiert, wenn wir in England starten oder auf Helgoland? Wenn die Sintflut steigt, zerfallen auch die Kontinente zu Inseln. Von wasserumschlossenem Land kann der Sintflut-Algorithmus nie mehr herunter, ist also womöglich von jeder guten Lösung abgeschnitten.
4.1 Sintflut bei IBM
87
Doch seltsam: Wir haben den Sintflut-Algorithmus für die Produktionsoptimierung, für große Chip-Placements, für schwierigste industrielle Mischungsprobleme eingesetzt; wir haben damit auch Tausende von TSPs durchgerechnet. Wieder war nur ein winziges Programm erforderlich, und das Ergebnis war jedes Mal exzellent (Dueck et al. 1999, 28).
Wie kann man sicher sein, dass das Resultat tatsächlich „exzellent“ ist? Eine Lösung zu verbessern, die bereits in der Industrie verwendet wird, wäre ein guter Indikator. Die komfortabelste Position, um ein Urteil zu fällen, ist es wohl, wenn verschiedene Ansätze miteinander verglichen werden können. Nehmen wir als Beispiel die Aufgabe (eine oft analysierte Testaufgabe), mit einem Bohrer Löcher in eine Platine zu bohren. Die Position der Löcher steht fest und es geht darum, den Aufwand für die Bohrungen klein zu halten. Der Bohrkopf muss nacheinander über jedem der zu bohrenden Löcher positioniert werden, vollführt also eine Reise, wie ein Handlungsreisender, der alle Städte (Löcher) zu besuchen hat und an einem bestimmten Ort beginnt und endet, nämlich der Ruheposition des Bohrkopfs. Eine gute Lösung für dieses TSP zu finden hat ökonomische Vorteile, die auf der Hand liegen, denn dadurch wird die Anzahl der produzierten Stücke pro Zeiteinheit erhöht. Abbildung 4.1 zeigt die Platine mit den Positionen der zu bohrenden Löcher. Abbildung 4.2 zeigt den Anfangspunkt des Algorithmus, d. h. eine zufällig gewählte Route, die alle Positionen verbindet.
Abbildung 4.1: Zu bohrende Löcher auf einer Platine. Mit freundlicher Genehmigung von G. Dueck.
Abbildung 4.3 zeigt den Algorithmus in einem Zwischenstadium und Abbildung 4.4 sein Endresultat nach ca. 450 000 Schritten, was nur einige Sekunden
88
4 Epistemische Opazität
Abbildung 4.2: Anfangskonfiguration des Sintflutalgorithmus. Mit freundlicher Genehmigung von G. Dueck.
Rechenzeit benötigt hat. Die Gesamtlänge, die der Bohrkopf in diesem Lösungsvorschlag zurücklegen muss, beträgt 50,98 inch. Das optimale Resultat ist in diesem Spezialfall aus der Arbeit von Holland (1987) bekannt und beträgt 50,69 inch. 240661.2
Abbildung 4.3: Zwischenstadium. Mit freundlicher Genehmigung von G. Dueck.
Dieser Erfolg erscheint zunächst verblüffend, liefert aber nur ein Beispiel, das die Leistungsfähigkeit des Algorithmus belegt, nicht aber erklärt oder gar ga-
4.2 Die überraschende Kreation eines goldenen Drahtes
89
50918.89
Abbildung 4.4: Endzustand des Sintflutalgorithmus. Mit freundlicher Genehmigung von G. Dueck.
rantiert. Ganz offenbar bringen Problemstellungen in hochdimensionalen Räumen nicht nur Nachteile mit sich, die aus der Komplexität erwachsen, sondern können auch Vorteile bieten, die einen Algorithmus erfolgreich sein lassen, der es im dreidimensionalen (schon wegen England) nicht wäre. Bereits die Vorstellung einer Insel beinhaltet ja deren Isolation in einem erheblichen Anteil der Dimensionen. Das ist offenbar, so kann man die Erfolge deuten, die vom Sintflut-Algorithmus berichtet werden, eine in höherdimensionalen Problemstellungen untypische Situation, insofern dort ein viel höherer Vernetzungsgrad besteht.
4.2 Die überraschende Kreation eines goldenen Drahtes Vergrößern wir zunächst weiter das Reservoir an illustrierenden Beispielen, um danach auf ein gemeinsames Resümee zu kommen. Als Fälle zwei und drei dienen zwei verschiedene Arbeiten von Uzi Landman, dem Direktor des Center for Computational Materials Science am Georgia Institute of Technology in Atlanta. Er ist ein Pionier, der Simulationsmethoden in den Materialwissenschaften einsetzt, deren hier betrachteter Bereich zur Nanoforschung, bzw. Nanotechnologie, gerechnet wird.¹
Zu den disziplinären Besonderheiten der Materialforschung siehe Bensaude-Vincent (2001).
90
4 Epistemische Opazität
Landman gelang die spektakuläre Beobachtung eines unerwarteten Phänomens in einer Simulation molekularer Dynamik (Landman et al. 1990). Er und seine Kollegen brachten in dieser Simulation eine Nickelspitze, wie sie bei sogenannten Rasterkraftmikroskopen üblich ist, sehr nahe an eine Goldoberfläche und ließen sie sogar in Kontakt kommen mit der Oberfläche – etwas, das man in Experimenten mit dem Mikroskop sonst vermeidet, bzw. als Unfall betrachtet. Im Anschluss wurde die (simulierte) Spitze wieder langsam zurückgezogen. Landman führte also in der Simulation eine ungewöhnliche Situation herbei, in der dann beobachtet wurde, dass sich Goldatome aus der Oberfläche lösten und aneinander reihten, um so einen sehr dünnen, nur wenige Atome dicken, Draht aus Gold zu bilden, der die Nickelspitze mit dem Testmaterial verband.
Abbildung 4.5: Ein Nanodraht aus Goldatomen entsteht zwischen einer Nickelspitze und einer Goldfläche. Mit freundlicher Genehmigung von U. Landman, ursprünglich mehrfarbig.
Die Abbildung 4.5 besteht aus sechs simulierten Momentaufnahmen dieses Prozesses. Oben links ist zu sehen, wie die Nickelspitze auf die Goldoberfläche aufgetroffen ist. Auf den folgenden Bildern wird die Spitze langsam zurückgezogen und dadurch ein dünner Draht aus Gold fabriziert. Die Bilder verwenden eine hoch idealisierte Formensprache und lassen sich im Computer sogar als
Zur Problematik der Simulation als Distinktionsmerkmal der Computational Nanotechnology siehe Johnson (2006a).
4.2 Die überraschende Kreation eines goldenen Drahtes
91
animierte Abfolge betrachten.² Die in 4.5 gezeigte schwarz-weiße Abbildung unterdrückt die ursprüngliche artifizielle Einfärbung, die dazu dienen sollte, die Dynamik der verschiedenen molekularen Schichten zu. Landman beschreibt in einem Interview seine eigene Situation als vergleichbar mit derjenigen eines Forschers, der den Ausgang eines komplizierten experimentellen Aufbaus beobachtet: To our amazement, we found the gold atoms jumping to contact the nickel probe at short distances. Then we did simulations in which we withdrew the tip after contact and found that a nanometer-sized wire made of gold was created. That gold would deform in this manner amazed us, because gold is not supposed to do this (Landman 2002).
Das Ergebnis war deshalb überraschend, weil Gold sich nicht inert, sondern chemisch aktiv verhielt. Dabei darf man natürlich nicht aus den Augen verlieren, dass es um ein Simulationsexperiment ging und um Beobachtungen am Bildschirm. Hinter dem simulierten Phänomen standen also keine empirischen Beobachtungsdaten im üblichen Sinn, sondern vielmehr massiver Rechnereinsatz, um die Interaktionen der Atome mittels molekular-dynamischer Methoden zu simulieren. Die gezeigte Darstellung ist übrigens auf ihre anschauliche Wirkung hin ‚poliert‘, wofür am Georgia Tech eine eigene visualisierungstechnische Abteilung zur Verfügung steht. Der Fall hätte ebenso gut zur Erläuterung von explorativen Experimenten oder von Visualisierungen dienen können, wenn der Fokus auf der Art und Weise liegen würde, wie Landman sein Modell kalibriert hat und wie die veröffentlichte Darstellung entstand. Aussagen zur Plastizität und zu artifiziellen Elementen, die in molekulardynamischen Modellierungsmethoden verwendet werden, erforderten eine ausführlichere Analyse der verwendeten Algorithmen und Modellbildungsprozesse. Darauf wird an dieser Stelle verzichtet.³ In der Simulation wurde also mit der Herausbildung eines Nanodrahts aus Gold ein neues und überraschendes Phänomen kreiert. Trotz der hochgradig anschaulichen Qualität des simulierten Geschehens bleibt die Frage, ob es nicht einen nur ‚virtuellen‘ Charakter hat: Tritt das beobachtete Phänomen auch in der
Rohrlich (1991) führte diese Sequenz als Beispiel für die dynamische Anschaulichkeit von Simulationen an. Frenkel weist daraufhin, dass die Kalibrierung von Kraftfeldern eine ebenso heikle wie zentrale Aufgabe der molekulardynamischen Modellierung darstellt (Frenkel 2013, Abschnitt 2.3). Ich verweise auch auf Scerri (2004), der artifizielle, auf Simulation zugeschnittene Anteile in den sogenannten ab initio Methoden der Quantenchemie diskutiert. Johnson (2009) nimmt eine Differenzierung der computational nanotechnology vor entlang der jeweils zu Grunde gelegten Simulationsverfahren, insbesondere was eine theoretisch orientierte und eine technologieorientierte, gewissermaßen vorbehaltlos auf Plastizität setzende, Richtung betrifft.
92
4 Epistemische Opazität
wirklichen Welt auf? Oder handelt es sich um ein Artefakt einer irreführenden Modellwelt? Tatsächlich hat sich der simulierte Effekt als zutreffende Vorhersage erwiesen, die zwei Jahre später durch empirische Resultate der Rasterkraftmikroskopie bestätigt werden konnte.⁴ Das verwunderte Amüsement, das Landman schildert, wiederholt sich auf einer theoretischen Ebene: Während wohlbekannte physikalische Gesetzmäßigkeiten, oder zumindest akkurat kalibrierte Kräfte, als Ausgangsbasis der Simulation dienten, bestand das Resultat in einem durchaus unerwarteten Verhalten. Das Zusammenspiel im atomaren Verband war aus der lokalen theoretischen Beschreibung, d. h. der Kräfte, die zwischen Molekülen wirken, nicht erkennbar gewesen.
4.3 Schmiermittel zwischen fest und flüssig Das dritte Beispiel stammt ebenfalls aus der Simulationswerkstatt von Landman und weist dementsprechend eine ähnliche Ästhetik auf. Es behandelt ein Problem der Tribologie im Nanobereich, d. h. die Eigenschaften von Schmierstoffen, denen nur ein sehr eng begrenzter Platz zur Verfügung steht, etwa ein Spalt vom Ausmaß weniger Atome, eben ein „Nano-Spalt“ (Landman 2002). Richard Feynman, der mit seinem programmatischen Vortrag „There is plenty of room at the bottom“ (1960) als Visionär der Nanoforschung gilt, hatte bereits vermutet, dass es Reibung und Schmierung auf der Nanoskala mit ganz neuartigen Phänomenen zu tun haben würden. Feynman stützte sich auf abstrakte theoretische Überlegungen, dass nämlich Nanopartikel eine im Verhältnis zu ihrem Volumen sehr viel größere Oberfläche haben als dies in der „klassischen“ Physik der Fall ist. Bezeichnend dabei ist, dass Feynman die theoretisch zutreffende Ansicht hatte, dass es neuartige Phänomene bei Schmierung und Reibung gibt, dass er aber keine spezifischen Phänomene angeben oder vorhersagen konnte. Er war sich dessen auch völlig klar: Sein Vortrag thematisierte den Freiraum für Neues. Aussagen über das Verhalten von Schmierstoffmolekülen, die wenigstens tendenziell technologisch verwertbar wären, sind wegen der komplexen Verhältnisse auch kaum möglich, wie nachher noch ausführlicher argumentiert wird. Die Komplexität stellt hier eine echte Barriere für das Verständnis dar. Landmans Simulationen konkretisieren die Vermutungen von Feynman, indem sie nahe legen, dass das Verhalten langkettiger
Auch die Technik der Rasterkraftmikroskopie basiert wesentlich auf dem Einsatz von Computermodellen. Selbst wenn das, was am Bildschirm sichtbar ist, nur sehr vermittelt dem entspricht, was die Sonde des Mikroskops abtastet, handelt es sich um einen wesentlich empirischen Input.
4.3 Schmiermittel zwischen fest und flüssig
93
Schmierstoff-Moleküle eher demjenigen von so etwas wie ‚weichen Festkörpern‘ (soft-solids), als demjenigen von Flüssigkeiten ähnelt.
Abbildung 4.6: geordneter Zustand und hohe Reibung (oberes Bild), durch Oszillation erzeugte Unordnung mit niedriger Reibung (unteres Bild), reproduziert mit freundlicher Genehmigung von U. Landman, ursprünglich mehrfarbig.
Das Ergebnis eines Simulationsexperimentes, in dem zwei ebene Schichten (hell, ursprünglich gelb eingefärbt) gegeneinander gleiten, wird in Abbildung 4.6 gezeigt. Im Spalt zwischen den zwei Schichten befindet sich ein Schmierstofffilm von der Dicke nur weniger Moleküle, der seitlich von einer größeren Menge an Schmiermittel gespeist wird. Der obere Teil der Abbildung zeigt eine Momentaufnahme aus der Bewegung, in der die Moleküle des Schmierstoffes im Spalt geordnete Schichten bilden, was die Reibung während der Bewegung der beiden Ebenen stark erhöht. Nun werden diejenigen Moleküle, die sich im Spalt befinden, dunkel markiert. Landman und seine Kollegen versuchten im weiteren Verlauf des Simulationsexperiments, das Problem der durch Ordnung hervorgerufenen hohen Reibung zu lösen, indem sie den Spalt zwischen den beiden Ebenen leicht oszillieren ließen. Und in der Tat war diese Maßnahme, zumindest in der Simulation, erfolgreich. Der untere Teil der Abbildung 4.6 zeigt, wie die Moleküle ihren geordneten Verband aufgelöst haben, einige der dunkler markierten sind aus dem
94
4 Epistemische Opazität
Spalt nach außen gewandert, andere nach innen, was eine unregelmäßige Durchmischung anzeigt. Diese soft-solid Eigenschaften, wie Landman sie nannte, sind wiederum überraschend, gemessen am normalen Verhalten von Flüssigkeiten, bzw. Festkörpern. We are accumulating more and more evidence that such confined fluids behave in ways that are very different from bulk ones, and there is no way to extrapolate the behavior from the large scale to the very small. (Landman, 2002)
Landman hat für seine Simulationsstudien zum Verhalten von Schmierstoffen die Medaille der amerikanischen Gesellschaft für Materialforschung erhalten. Dass Landman ein Materialwissenschaftler und kein theoretischer Physiker ist, ist durchaus symptomatisch. Denn in der Technologie geht es vornehmlich um die Kontrolle von Phänomenen und um deren quantitatives Verhalten, soweit man dadurch Interventionsmöglichkeiten an die Hand bekommt, weniger um theoretische Einsichten.
4.4 Überraschung, Kontrolle und die Komplexitätsbarriere Vielleicht fällt als erstes auf, dass in allen drei Beispielen ein Überraschungsmoment auftaucht. Das ist eine Eigenschaft, die der Philosophie stets wichtig war: Wissenschaft sollte nicht dogmatisch verfahren, sondern offen für Überraschungen sein. Normalerweise wird das allerdings mit einer empiristischen Komponente verbunden: die Natur ist nicht schon durchschaut und folgt mitunter nicht unseren Erwartungen. Zuerst mutet es selbst überraschend an, dass nun Simulationen diese Eigenschaft aufweisen sollten. Obwohl die Simulationsmodelle konstruiert wurden, sind sie in ihrem Verhalten keineswegs durchschaut. Das kann an der Komplexität der inneren Dynamik liegen und auch an der Komplexität der Konstruktionsbedingungen, wenn etwa verschiedene Forschergruppen an einzelnen Modulen arbeiten, oder weite Teile eines Modells als kommerzielles Programm-Paket eingekauft wurden. Dieser Aspekt wird in Kapitel 7 aufgegriffenen, wenn es um die Grenzen der Analyse geht. Im vorliegenden Kapitel wird es vorrangig um den ersten Aspekt gehen: Die Simulationsdynamik kann Überraschungen bergen, ist epistemisch opak, obwohl die einzelnen Teilschritte völlig transparent erscheinen. Der Sintflut-Algorithmus kommt mit fast gar keinen theoretischen Annahmen aus. Die meisten Verfahren der Optimierung basieren auf theoretisch anspruchsvolleren Ansätzen, die in aller Regel die in der Problementstehung angelegte speziellere Struktur der Aufgabe mit ausnutzen. Es gibt zum Beispiel
4.4 Überraschung, Kontrolle und die Komplexitätsbarriere
95
avancierte Methoden, eine möglichst optimale Wahl des Gitters zu treffen, so dass in der Simulation ein tragfähiger Ausgleich zwischen Genauigkeit und Effektivität gelingt. Auf derlei verzichtet der Sintflut-Algorithmus. Einerseits erscheint das Simulationsmodell mangels theoretischer Struktur wie ein billiger Trick, andererseits kommt ihm gerade deshalb eine bemerkenswerte Einsatzfähigkeit zu. Das überraschende Moment bestand darin, wie der erstaunte Erfinder es im Zitat ausdrückte, dass die Methode so gut funktionierte. Offenbar entfaltete der Einwand, dass der simulierte Wanderer auf einer Insel hängenbleiben muss, keine Wirksamkeit. Die simulierte Bewegung belehrt einen des Besseren: eher scheint die topographische Vorstellungskraft in hohen Dimensionen wenig verlässlich. Erst der simulierte Wanderer, der wieder und wieder bei ähnlich hohen Gipfeln ankommt, sozusagen stellvertretend Erfahrungen sammelt in der hochdimensionalen Topographie, deckt auf, dass die Nebenbedingung ‚trocken‘ zu bleiben, keine starke Einschränkung darstellt – es gibt in höherdimensionalen Räumen sehr viele Wege. Die Gemeinsamkeit der beiden Nano-Simulationsbeispiele liegt darin, dass in einem Bereich, in dem die grundlegenden Gesetzmäßigkeiten (im Wesentlichen die Quantentheorie) wohlbekannt sind, dennoch unbekannte und überraschende Phänomene auftreten. Dieser Umstand mag einiges zur Faszination der Nanoforschung beitragen, soweit sie die Erwartung nie gesehener Phänomene und neuartiger Materialeigenschaften hegt. Das stellt überhaupt keinen Widerspruch dar, denn aus der Theorie folgt noch recht wenig über Verhaltensweisen von Materialien unter speziellen Bedingungen. Ein berühmtes und ähnlich gelagertes frühes Beispiel ist die Planetenbewegung im Sonnensystem: die einzelnen Planeten beeinflussen sich per Gravitation wechselseitig und so könnte eine winzige Änderung der Bewegung eines Körpers auf lange Sicht zu einem ganz anderen Zustand des Gesamtsystems führen. Henri Poincaré hat zu Beginn des 20. Jahrhunderts ebenso mühsam wie genial herausgefunden, dass sich selbst die Dynamik dreier idealer Himmelskörper (das sogenannte Drei-Körper-Problem) nicht mathematisch (analytisch) lösen lässt. Die damit verwandte Frage, ob unser Sonnensystem stabil ist, lässt sich – aufgrund der Komplexität – ebenfalls nicht beantworten, jedenfalls nicht mit den verfügbaren analytischen Methoden der Mathematik. Man kann daher von einer ‚Komplexitätsbarriere‘ sprechen. Ähnlich sind Fälle wie die Nanoforschung, in denen Theorien der lokalen Wechselwirkung vorliegen, aber die Ableitung des eigentlich interessierenden globalen Verhaltens ‚blockiert‘ ist. Mit dem Problem der Komplexitätsbarriere hat man es also auch bei den angeführten Beispielen aus der Nanoforschung zu tun. Das oben gegebene Zitat von Landman, „there is no way to extrapolate behavior“, war auf die Andersartigkeit von klassischer und Nanophysik gemünzt. Die im klassischen Falle wirk-
96
4 Epistemische Opazität
samen Gesetze der großen Zahlen greifen hier noch nicht. Die Schwierigkeit, das Modellverhalten zu extrapolieren, besteht auch für die andere Richtung. Die Dynamik zwischen Atomen ist theoretisch beschrieben – und niemand hegt Zweifel an der Gültigkeit der Schrödingergleichung – daraus lassen sich jedoch keine aussagekräftigen Beschreibungen von Reibungsphänomenen der Art ableiten, wie sie von Landman simuliert wurden. Erst im (simulierten) Zusammenwirken der Komponenten tritt die Modelldynamik hervor. (Der in Kapitel 1 angeführte Fall der atmosphärischen Zirkulation ist ganz ähnlich gelagert.) In allen drei diskutierten Beispielen gelang es, per Simulation zu bemerkenswerten Ergebnissen zu kommen. Das wirft eine doppelte Frage auf: Auf welche Weise wird die Komplexitätsbarriere in der Simulation überwunden? Und was bedeutet das in Hinsicht auf die Konzeption mathematischer Modellierung? Meine Argumentation läuft darauf hinaus, dass Simulationen auch dann eine Orientierung im Modellverhalten ermöglichen, wenn die Modelldynamik selbst (teilweise) epistemisch opak bleibt. Und dass sie zweitens mathematische Modellierung insofern verändern, als theoriebasierte Einsicht (epistemische Transparenz) in den Hintergrund tritt zu Gunsten eines simulationsbasierten Verständnisses, das an Intervention und Vorhersage orientiert ist, weniger an theoretischer Erklärungsleistung. Insofern umgehen Simulationen die Komplexitätsbarriere eher als dass sie diese beseitigten und liefern nur eine Art Surrogat für das verhinderte analytische Verständnis.
4.5 Simulation als Substitutionsprogramm Humphreys hebt zu Recht die Opazität als ein Merkmal der Simulation hervor (2004 und dezidiert in 2009). Komplexitätsbarrieren sind in der Geschichte der mathematischen Modellierung und Theoriebildung immer wieder aufgetreten und epistemische Opazität ist daher nicht exklusiv der Computermodellierung vorbehalten. Ich möchte in einem ersten Schritt kurz auf Fälle eingehen, in denen solche Barrieren aufgetreten sind, und betrachten mit welcher Strategie sie überwunden wurden, um dann in einem zweiten Schritt diese Fälle mit der Simulationsmodellierung zu vergleichen. Ein berühmtes Beispiel stellt die Einführung der Algebra im 16. Jahrhundert dar. Als (in Europa) neues Instrument löste sie in Praxis wie Theorie der Arithmetik einen massiven Entwicklungsschub aus. Nach diesem Vorbild wollte der junge Leibniz einen Differentialkalkül schaffen: Er verfolgte explizit das Ziel, für die geometrisch-analytischen Infinitesimalprobleme ein so effektives Instrument zu schaffen, wie es Vietas Buchstabenrechnung für algebraische Probleme bot (Hofmann 1974). In beiden Fällen, der Algebra und dem Calculus, stand zunächst
4.5 Simulation als Substitutionsprogramm
97
der instrumentelle Aspekt im Vordergrund bei Entwicklungen, die im weiteren Verlauf die Dynamik der Mathematisierung entscheidend mitprägten. Ausgehend von der Newton‘schen Gravitationstheorie war im 18. Jahrhundert die Infinitesimal- und Integralrechnung zum Rückgrat einer rationalen Mechanik geworden, deren Programmatik die exakten (mathematisierten) Wissenschaften dominierte. Damit schien die Mathematik gleichzeitig auch an ihr Ende gelangt. Beredter Zeuge dieser Ansicht war Diderot (1976), der in seiner „Interpretation der Natur“ von 1754 voraussagte, dass es nach zeitgenössischen Heroen der Mathematik wie Euler, den Bernoullis, d’Alembert und Lagrange die nächsten 100 Jahre wohl kaum nochmals drei bedeutende Mathematiker geben werde – worin er übrigens mit Lagrange einig war. Auch Laplaces berühmtes Bild vom ‚Dämon‘ weist in diese Richtung: der mathematischen Beschreibung nach sei das Universum bereits komplett festgelegt, nur müsste man die Fähigkeiten eines göttlichen (Rechen‐)Dämons haben, nicht nur um die Anfangsbedingungen exakt festzulegen, sondern vor allem um die Folgerungen aus dieser mathematischen Beschreibung tatsächlich ziehen zu können. So kam es zu der Situation, dass das Universum als theoretisch-mathematisch fest-gestellt angesehen wurde, dabei aber auf der praktischen Ebene nur schwer und allenfalls rudimentär entschlüsselt werden konnte. Bezüglich komplexer Systeme lassen sich nur unzureichend Vorhersagen aus der mathematischen Beschreibung herausdestillieren. Die Mathematik als Instrument versagt dort. Begriffliche Erneuerung war in diesem Bild nicht vorgesehen, dafür aber um so wirkungsvoller, als sie geschah, wie das Verhältnis von Galois zu Euler zeigt⁵. Leonhard Euler (1707– 1783) war einer der führenden Wissenschaftler und der wohl berühmteste Mathematiker seiner Generation – ein anerkannter Meister der Analysis (Differential- und Integralrechnung), die er zum zentralen Instrument einer rationalen Mechanik machte. Viele seiner Ergebnisse resultierten aus seitenlangen minutiösen Rechnungen und Überlegungen, die ein solches Maß an Kompliziertheit und technischer Meisterschaft aufwiesen, dass viele Zeitgenossen – u. a. Diderot, wie wir sahen – den Eindruck hatten, niemand könne auf diesem Gebiet zu weiteren Fortschritten kommen. Zur Jahrhundertwende war das ganze Gebiet dabei zu stagnieren, da bereits Eulers Rechnungen an der Grenze dessen waren, was gerade noch nachvollziehbar war. Das junge Genie Évariste Galois (1811– 1832) kritisierte den so einflussreichen Euler‘schen Weg der Analysis und suchte nach einer begrifflichen Erneuerung (Galois 1962).
Die Betrachtung anderer Personen, etwa Gauß, würde zu ähnlichen Resultaten führen.
98
4 Epistemische Opazität
Die algebraische Analysis stellte eine begriffliche Neuformierung dar, nämlich eine Arithmetisierung, durch welche die Algebra nun direkt auf die mathematischen Relationen selbst angewandt wird (Jahnke und Otte 1981). Durch diese abstrahierende Wendung werden mathematische Sachverhalte und Relationen zum Objekt der Mathematisierung gemacht, womit eine Eigendynamik der mathematischen Entwicklung ermöglicht wird, die das 19. Jahrhundert auf bemerkenswerte Weise geprägt hat. Diese Strategie, durch Abstraktion und die Einführung einer neuen Ebene zu erreichen, dass ein zu komplex werdendes Feld auf neue Weise behandelbar wird, ist eine ganz wesentliche Quelle der Entwicklung der Mathematik (Otte 1994). Gleichzeitig erneuerte Galois’ Impuls für eine Mathematisierung die instrumentelle Qualität, indem sie ein neues, sozusagen opazitätslichtendes, Instrument an die Hand gab. In genau diese Linie hat Michael Detlefsen Hilberts Programm gestellt (1986), das die Grundlagenprobleme der Mathematik mittels der eigens entworfenen Beweistheorie lösen sollte. Die Grundidee bestand darin, mathematische Schlussweisen zu formalisieren, um sie auf einem abstrakteren Level zu untersuchen. Der Intuitionismus zum Beispiel forderte (im Gegensatz zu Hilbert), dass das sogenannte aktual Unendliche nicht gebraucht werden dürfte, da es aus erkenntnistheoretischen Gründen von Menschen nicht zuverlässig gebraucht werden könnte. Hilbert widersprach hier und favorisierte eine Lösung, die deshalb formalistisch genannt worden ist, weil sie die inkriminierten Schlussweisen als abstrakte Formelmanipulation auffasst und die Widerspruchsfreiheit des so entstehenden Kalküls als hinreichend betrachtet. Auf der Ebene des Kalküls geht es dann nicht um inhaltliche Rechtfertigung des Schließens mit Unendlichkeiten, sondern allein um die formal zu zeigende Widerspruchsfreiheit. Der Umgang mit Objekten, die Unendlichkeiten darstellen, so die Pointe von Hilbert, könnte selbst ganz finitistisch funktionieren. Detlefsen sieht im Hinzufügen „idealer Elemente“, die sich an der Eigenschaften des formalen Systems orientieren, quasi dessen instrumentelle Qualität optimieren, den Kern des Hilbert‘schen „Instrumentalismus“. Ganz wie in den vorhin beschriebenen Beispielen aus der Mathematikgeschichte würde auch Hilberts Methode der idealen Elemente eine instrumentelle Abkürzung von Schlussweisen sein, die epistemische Transparenz erzeugt, wenn auch auf einer neuen, allgemeineren oder abstrakteren Ebene. Ohne die neue Methode drohte man in ineffektiven Operationen zu stagnieren. Detlefsen gebraucht dazu den sehr schönen Ausdruck der ‚epistemisch paralysierenden Länge oder Komplexität‘ (Galois drückte sich anders aus, meinte aber Ähnliches): On this account, it is its ability to simplify which is the source of the epistemic efficiency of the ideal method. … In a nutshell, the use of ideal elements widens the scope of our meth-
4.5 Simulation als Substitutionsprogramm
99
ods of epistemic acquisition without complicating those methods to such an extent as would make them humanly unfeasible. (…) More generally, our ability to acquire epistemic goods is enhanced by our having an “algebraic” or “calculatory” representation of the world, which allows us to circumvent contentual reasoning which can be of an epistemically paralyzing length or complexity. (Detlefsen 1986, 9)
Es gibt also einen etablierten Diskurs in der Geschichte und Philosophie der Mathematik, der die epistemische Opazität wenigstens indirekt zum Gegenstand hat, indem es nämlich um die instrumentellen Mittel zur Erzeugung neuer Transparenz geht. Allerdings darf nicht außer Acht gelassen werden, dass Hilberts Programmatik von einem hohen Maß an begrifflicher Neuformierung getragen ist, insofern die Qualität des axiomatischen Systems zu einem eigenständigen Gesichtspunkt wird (vgl. auch Lenhard und Otte 2005). Es ist also eine doppelte Perspektive angebracht: Erst das Zusammenwirken von begrifflichen und instrumentellen Aspekten vermag die Dynamik zu erzeugen, in der mathematische Relationen (und Schlussweisen) mathematisiert werden und daraufhin ihr Eigenleben entfalten. Was verliert man in einer opaken Situation? Auf der epistemischen Ebene geht es stets (auch) darum, das analytische Verständnis(wieder) in Kraft zu setzen. Auf eine konzise Art hat Richard Feynman dieses Verständnis ausgedrückt: ’I understand what an equation means if I have a way of figuring out the characteristics of its solution without actually solving it.’ So if we have a way of knowing what should happen in given circumstances without actually solving the equations, then we ’understand’ the equations, as applied to these circumstances. (Feynman et al. 1965, Bd. 2, 2– 1)
In der Tat: dieses Verständnis beweist seine analytische Qualität darin, dass langwierige oder komplizierte Denkschritte nicht notwendig sind. Kurz: es stellt das Gegenstück dar zur epistemischen Opazität. Vielleicht etwas überspitzt, aber doch das Wesentliche treffend, könnte man sagen: mathematische Modellierung geschieht im Dienste der epistemischen Transparenz. Vor diesem Hintergrund verleiht die Simulationsmodellierung der Mathematik einen radikal neuen Dreh: Sie sorgt nicht für epistemische Transparenz und kann daher auch nicht das erwähnte analytische Verständnis herstellen. Stattdessen spielt sie ihre instrumentellen Qualitäten aus, um letztlich mit einem Surrogat für dieses Verständnis auszukommen. Ganz im Gegensatz zu dem, was Feynman avisierte, kann Simulation eine Orientierung im Modellverhalten herstellen, die aus der Erfahrung mit wiederholten Kalkulationen (etwa der Variation von Parametern) erwächst. So gesehen bieten Simulationen durchaus „a way of knowing what should happen in given circumstances“, das aber keineswegs durch theoretische Einsicht entsteht, son-
100
4 Epistemische Opazität
dern auf andere Weise. Man könnte das folgendermaßen formulieren: „Simuliere und beobachte die Resultate, iteriere die Prozedur, um die Modelldynamik zu explorieren, das Modell geeignet anzupassen und schließlich eine Art von Verständnis, nämlich als Überblick über das Modellverhalten, zu erreichen.“ Wohlgemerkt soll letzteres nur ein Surrogat für theoretische Einsicht sein, das heißt es entfaltet eine vergleichbare Wirkung auf einer wesentlich anderen Basis. Forscher können sich im Modellverhalten orientieren, indem sie die Verhaltensmuster des Modells explorieren und kennenlernen, auch wenn diese Orientierung nicht auf der Analyse, dem Transparent-Machen, der Modellstruktur beruht. Das wirkt immerhin als Surrogat, insofern ein kontrollierender Zugriff auf die erzeugten Phänomene eröffnet wird. Das haben wir in den Beispielen gesehen: Welche Art der Oszillation des Nano-Spalts zum Beispiel ist geeignet, die Reibung zu verringern? Optionen zu Intervention, Vorhersage und Kontrolle werden durchaus eröffnet und diese Qualität macht Simulationen zu einem Instrument, das wie maßgeschneidert zu den Ansprüchen und Erfordernissen einer an Technologie orientierten Wissenschaft passt. Auf der anderen Seite ist das Surrogat eben nur ein Surrogat. Die überlegene Rechenkraft des Computers ist im Simulationsablauf unverzichtbar, um einen Zusammenhang zwischen variierenden Modellannahmen und in der Simulation beobachteten Resultaten herzustellen. Die zwischenzeitliche Delegation an eine Maschine ist nicht nur instrumentell effektiv, sondern bewirkt gleichzeitig, dass die Schritte im Einzelnen nicht mehr nachzuvollziehen sind. Dadurch tritt die epistemische Opazität in der Simulationsmodellierung unausweichlich auf.
4.6 Epistemische Opazität Tatsächlich war epistemische Opazität eine ständige Begleiterin während der Erörterung der Simulationsmodellierung durch die Beispiele der bisherigen Kapitel hindurch. Sie entstand aus Gründen, die man folgendermaßen einteilen kann: (i) Die schiere Anzahl der Rechenschritte macht den Ablauf nicht nachvollziehbar. Humphreys hebt vor allem auf diesen Aspekt ab, wenn er von der epistemischen Opazität spricht (2004, 148). Da ist ihm zuzustimmen; es lässt sich aber noch mehr anführen. (ii) Die diskrete Natur der Computermodelle erfordert artifizielle Komponenten, um das Gesamtverhalten der Modelle auszubalancieren (wie in Kapitel 1 diskutiert). Sie dienen der Steuerung und Adjustierung des im Computer implementierten Modells, ungeachtet aller Abweichungen von einer theoretisch kon-
4.6 Epistemische Opazität
101
zipierten Dynamik. Nachvollziehbar ist aber nur die letztere und daher verhalten sich artifizielle Komponenten und epistemische Opazität proportional zueinander. (iii) Die Plastizität der Modelle wurde in Kapitel 3 erörtert. Stellschrauben, die im Verlauf der Modellierung dazu eingesetzt werden, die simulierte Dynamik nach Maßgabe des globalen Verhaltens zu kalibrieren, verstetigen die Opazität. Generell wird der ‚plastische‘ Anteil eines Modells, der iterativ-explorativ spezifiziert wird, zu Opazität führen. (iv) Ich erinnere an den Hurrikan Opal, wo verschiedene Parametrisierungsschemata mit visueller Unterstützung ausgetestet wurden. Obwohl dabei die interne Modelldynamik zu einem großen Teil opak blieb, konnte dennoch das Verhalten kontrolliert, das heißt sukzessiv an den vorgegebenen Pfad adaptiert werden. Nicht nur die schiere Anzahl der aktiven Variablen machte die Modelldynamik opak, sondern ebenso spielte eine Rolle, dass je autonom entwickelte Simulationsmodule miteinander verbunden wurden. Opal setzte ja auf einem Atmosphärenmodell auf, das als fertiges, an einer anderen Institution erstelltes, Modell übernommen wurde. Die Modularität komplexer Modelle lässt sich als Punkt (iv) anfügen, da die Kopplung noch zusätzlich zur Opazität beiträgt. Es gibt also eine ganze Reihe an Gründen, aus denen im Zusammenhang mit Simulationen die epistemische Opazität auftritt. In der wissenschaftsphilosophischen Literatur ist die systematische Bedeutung dieses Begriffs bisher nicht angemessen gewürdigt worden. Die erste Erwähnung als Ausnahme gebührt Paul Humphreys, der die epistemische Opazität als eine in der Simulation systematisch angelegte Komponente ansieht (2004, 148; 2009, section 3.1). Insoweit stimme ich ihm völlig zu. Darüber hinaus möchte ich die Opazität noch nachdrücklicher in den umfassenderen Zusammenhang der Merkmale der Simulationsmodellierung stellen. Sie ist nicht nur ein epistemologisch bedauernswerter Nebeneffekt, sondern die direkte Kehrseite der instrumentellen Stärken der Simulation: Die Einbeziehung artifizieller Elemente und die aus der Plastizität entspringende Spezifizierungsphase lassen nichts anderes zu. Man sollte epistemische Opazität im Zusammenhang der Simulation zwar nicht unterbewerten, aber auch nicht als singulär und alles bestimmend ansehen. Simulation steht diesbezüglich in einer Reihe mathematischer Techniken, wie das oben erläutert wurde. Der Computer als Maschine erfordert detaillierte Anweisungen. Was auf der Ebene der Visualisierung als mehr oder weniger instruktiver Output erscheint, entsteht mittels einer Software, die sehr hohen Konsistenzbedingungen genügt – sonst wären die Programme gar nicht kompilierbar. Diese Bedingungen können nur dadurch erreicht werden, dass semantisch hochstehende Sprachen, wie etwa Fortran oder C, zum Einsatz kommen, die ihrerseits wieder als Instrumente gelten können, diejenigen Opazitätswiderstände zu
102
4 Epistemische Opazität
überwinden, die eine Modellierung auf der (semantisch tieferen) Ebene der Maschinensprache bedeuten würde.⁶ Ein wichtiger Teil der Computerwissenschaften beschäftigt sich damit, das geeignete Instrumentarium der Mathematisierung zu entwickeln, um komplexe und unüberschaubar voluminöse Computerprozesse theoretisch handhabbar zu machen. Michael Mahoney hat Computerwissenschaften und Informatik zum Gegenstand einer ganzen Reihe historisch-philosophischer Analysen gemacht (Mahoney 1992, 1997, 2010). Darin geht er den Versuchen nach, die Informatik zu mathematisieren. Der Tenor seiner Studien ist, dass diese Versuche zwar sehr plausibel begonnen haben, da doch der Computer eine so formal determinierte Maschine scheint. Die Diagnose läuft jedoch eher auf ein Scheitern der Mathematisierungsbemühungen seitens der theoretischen Informatik hinaus. Was Mahoney als Scheitern (traditioneller) mathematischer Modellierung beschreibt, möchte ich eher als neuen Typ mathematischer Modellierung auffassen, der eben mit epistemischer Opazität umzugehen erlaubt, wenn sie schon nicht ausgeräumt werden kann. Di Paolo et al. bringen die Opazität ins Spiel, um Simulationen von Gedankenexperimenten abzugrenzen, bzw. als opake Gedankenexperimente darzustellen. Nun finde ich zwar den Kontext des Gedankenexperiments zu eng für eine Untersuchung der Simulationsmodellierung, die Autoren sehen aber ganz richtig a role for simulation models as opaque thought experiments, that is, thought experiments in which the consequences follow from the premises, but in a non-obvious manner which must be revealed through systematic inquiry (Di Paolo et al. 2000, 1).
Oft zeichnet mathematische Modelle aus, dass durch das Zusammenwirken der getroffenen Annahmen neue und unerwartete Konsequenzen auftreten können. Meines Erachtens sind mathematische Techniken ganz generell dazu da Konsequenzen abzuleiten, wo bloße Gedankenexperimente nicht durchdringen. Simulation bietet eine solche Möglichkeit der „systematic inquiry“, die auch unter der Bedingung teilweiser Opazität funktionieren. In der Philosophie der Mathematik ist der Computereinsatz erstmals im Zusammenhang von Computerbeweisen thematisiert worden. Der computerunterstützte Beweis des Vier-Farben-Theorems (Appel und Haken 1977) ist kritisch diskutiert worden, vor allem weil er an zentraler Stelle eine Fallunterscheidung vornimmt, die so umfangreich ist, dass sie nur vom Computer durchgeführt werden kann. Dass diese Art der epistemisch paralysierenden Länge oder Komplexität (um den schönen Ausdruck von Detlefsen zu verwenden) ausgerechnet Zur Entwicklung der Sprache C und C++ und ihrer Rolle als lingua franca, vgl. Shinn (2006).
4.6 Epistemische Opazität
103
innerhalb eines mathematischen Beweises vorkommt, schien unerhört, schließlich stellen Beweise die besten Beispiele epistemischer Luzidität dar. Tymoczko (1979) hat die Unüberschaubarkeit (unsurveyability) als das philosophische zentrale Merkmal dieser neuen Art von Computerbeweisen herausgestellt. Die oben diskutierten Beispiele von Galois und Hilbert haben allerdings vor Augen geführt, das die unsurveyability nicht so exklusiv mit dem Computer verbunden ist, wie Tymoczko das annimmt. Auf den Beweis, den Andrew Wiles für Fermats Theorem gegeben hat, trifft eine ähnliche Diagnose zu. Eine einzelne Person würde Jahre benötigen (eine herausragende Begabung und Ausbildung vorausgesetzt), um diesen Beweis prüfend nachzuvollziehen. Die Besonderheit von Beweisen wie dem von Wiles scheint mir darin zu liegen, dass sie an die Grenze dessen stoßen, was in einer wissenschaftlichen Disziplin noch intersubjektiv nachprüfbar ist. Manches, was den Computereinsatz in der Mathematik betrifft, ist aus dem Einsatz technischer Apparate in den Naturwissenschaften schon lange bekannt. Einige Seiten zuvor wurde das von Blumenberg in seiner Schrift über Galilei (1965) thematisierte Paradox angesprochen, dass mit der apparativen Aufrüstung der Sinne nun zusätzlich die Kontingenzen der technischen Apparatur hinzukommen. Mit Computern und Simulationen kommt das nun in gewisser Weise in der mathematischen Modellierung an. Das beraubt diese Entwicklung jedoch nicht ihrer Neuartigkeit in konzeptioneller Hinsicht, da die Mathematik und mathematische Modellierung zuvor immer als Gegenpart zur instrumentellen, empirischen Komponente der Wissenschaften fungierte. Diese Sonderrolle verliert sie nun. Braitenberg etwa spricht von einer „Verselbständigung der Mathematik“ und meint, dass Simulationsmodelle nicht nur zur Erhellung der undurchschauten Natur dienen, sondern selbst komplexe und opake Objekte seien. Erschütternd ist nur, dass die Verselbständigung der mathematischen Theorie im Computer die bisher anerkannte oberste Instanz der Wahrheitsfindung entthront, das logisch geschulte menschliche Denken. (Braitenberg 1995, 9)
Einige zutreffende Diagnosen sind vermutlich von der Hoffnung getragen, das Rad zurückdrehen zu können. Frigg und Hartmann (2008) warnen vor einer verführerischen Eigenschaft der Simulation, dass sie nämlich zu einer ständig erweiterten und verkomplizierten Modellierung einlade und dadurch unüberschaubare Modelle hervorbringe. Insoweit haben sie zwar Recht, aber sie suggerieren, dass die Opazität durch konzeptionelle Rigidität zu verhindern sei. Ich möchte dem widersprechen: Sie ist unumgänglich Bestandteil der Simulationsmodellierung – zumindest würde ihre Beseitigung starke Restriktionen der zulässigen Modell-
104
4 Epistemische Opazität
klassen erfordern, was wiederum die instrumentellen Stärken der Simulation beschneiden würde. Aus einer technikethischen Perspektive diagnostiziert Hubig (2008) im Zusammenhang des ubiquitous computing eine durch computerbasierte Technologien um sich greifende Intransparenz und fordert, dass hier Transparenz hergestellt werden müsse. Aus ethischer und politischer Sicht sicher eine begrüßenswerte Forderung, die aber aufgrund der wissenschaftstheoretischen Eigenschaften der Simulation vermutlich nur unzureichend umgesetzt werden kann. So ließen sich sicherlich bestimmte Interessen, Daten zu erheben und zu gebrauchen, transparent machen, auf einer tieferen Ebene jedoch muss damit gerechnet werden, dass die Analyse wie verschiedene Modelle und Module interagieren, schwerfällt, wenn nicht unmöglich ist. Schon die Untersuchung, weshalb etwa eine computerunterstützte Autobremse versagt, nimmt Monate in Anspruch. Heute kann man solche Beispiele bei fast jedem Blick in die Zeitung aufgreifen – sie sind auf dem Weg von der Ausnahme zum Alltag. Bereits in den 1960er und 1970er Jahren hat es eine eher visionäre, oder jedenfalls an Ausnahmefällen orientierte Diskussion gegeben, in welcher der steigende Umfang von Computerprogrammen problematisiert wurde. Joseph Weizenbaum etwa hat in seiner kritischen Diagnose (1977) den „unverständlichen Programmen“ ein eigenes Kapitel gewidmet. Die schiere Größe erzeugt, so kann man Weizenbaum paraphrasieren, Opazität, denn wechselnde Teams von Entwicklern „stoppeln“ oft über einen Zeitraum von mehreren Jahren hinweg Programme zusammen, deren inneren Ablauf am Ende niemand mehr nachvollziehen kann. Die Frage scheint berechtigt, woher überhaupt die dann enttäuschte Erwartungshaltung herrührt. Man hat es hier mit einer Suggestion, einer nicht berechtigten Extrapolation von der traditionellen mathematischen Modellierung und der rationalen Mechanik aus zu tun, so vermutet Weizenbaum. Die mechanistische Metapher habe sich eingeprägt als Erklärungsideal, während einer Zeit, in der relativ einfach konstruierte Maschinen die industrielle Revolution beförderten. Computermodellierung ist hier in der Weise suggestiv, dass wie gesagt Schritt für Schritt ein algorithmisch verfasster Mechanismus abgearbeitet wird. Das heißt aber – komplexitätsbedingt – gerade nicht, dass die Schrittfolge tatsächlich nachvollzogen werden könnte. Bereits Norbert Wiener hatte das Zeitlimit als entscheidenden Faktor der Epistemologie ins Spiel gebracht: Was nicht in angemessener Zeit verstanden werden kann, kann eben gar nicht verstanden werden (Wiener 1960). Dieser Standpunkt ist von Marvin Minsky weiter ausformuliert worden, der ein großes Programm mit einem kompliziert geknüpften Netzwerk von gerichtlichen Instanzen vergleicht. Erst die Interaktion lokaler Instanzen während der Laufzeit
4.6 Epistemische Opazität
105
bestimmt den globalen Ablauf, während die Programmentwicklung meist auf lokale Gesichtspunkte ausgerichtet ist (Minsky 1967, 120).⁷ Resümieren wir: die epistemischen Opazität als ein Merkmal der Simulationsmodellierung ist vor allem deshalb so bemerkenswert, weil sie ein grundlegendes Merkmal mathematischer Modellierung – die Transparenz – praktisch ins Gegenteil verkehrt. Davon sind tendenziell alle Erkenntnistheorien betroffen, die in der konstruktivistischen Grundeigenschaft der Mathematik eine Garantie für Transparenz sahen. Das geht Vicos „verum et factum convertuntur“ an, das ja darauf aufbaut, dass das vom Menschen selbst Konstruierte dasjenige ist, was er völlig durchschauen kann (d. h. Mensch und Geometrie verhalten sich wie Schöpfergott und Universum). Hobbes vertritt eine ähnliche Position. Schließlich geht auch Kant in der Kritik der reinen Vernunft davon aus, dass die Mathematik deshalb Vorbild für apriorisches Wissen sei, weil ihre Wahrheiten in der Konstruktion hervorgebracht werden. Allerdings ist es für Kant wesentlich, dass in der konstruktiven Tätigkeit Dinge eingesetzt werden, die eben zunächst nicht begrifflich durchschaut sind. ⁸ Die Simulation dehnt den Bereich des Machbaren weit aus, erkauft das aber mit epistemischer Opazität und dem Verlust an analytischem Verständnis. Die Pointe besteht nun darin, dass Simulation dieses Manko kompensiert, indem sie neuartige Zugänge zum ‚Verständnis‘ des Modellverhaltens bietet: Exploration, (schnelle) Iteration und Visualisierung bringen – zumindest potenziell – den Forschern, Wissenschaftlern (und evtl. überhaupt Nutzern in einem weiten Sinne, auch wenn sie gar nicht Modellieren, sondern das fertige Produkt explorieren) das Modellverhalten, vielleicht besser: die Performanz, näher. Orientierung im Modellverhalten und Optionen zur Intervention sind dann nicht mehr so stark an den traditionellen Begriff der Intelligibilität geknüpft. Mathematische Modellierung kann auch Wege um epistemische Opazität und die Komplexitätsbarriere herum finden – Simulation bietet zumindest ein ‚Surrogat‘.
Diese Problematik wird in Kapitel 7, im Zusammenhang mit der Analyse eines Holismusproblems, noch eingehender diskutiert. Die fehlende begriffliche Notwendigkeit in mathematischen Konstruktionen hat ihm heftige Kritik seitens Hegel beschert, der aus diesem Grund die mathematische Erkenntnisweise als minderwertig ansah. Auf der Schiene der Methodologie begrifflicher Analyse stehen sich hier zwei Strategien gegenüber, die Robert Brandom treffend als platonistische und pragmatistische bezeichnet hat. Während die erste den Gebrauch durch den Gehalt des Begriffs festgelegt sieht, verfolgt die letztere eine komplementäre Richtung und nimmt den Gebrauch als Startpunkt. „Der Gehalt wird durch den Akt erläutert und nicht andersherum“, wie das Brandom zusammenfasst (2001, 13). Eine platonistische Strategie scheint mir im Falle der Computermodellierung aussichtslos.
106
4 Epistemische Opazität
Was wäre dann die positiv gewendete Seite? Ist ein neuer oder abgeschwächter Begriff der Intelligibilität angebracht? Hier möchte ich ein Zitat von Andy Clark anführen, der im Zusammenhang der Philosophie des extended mind sehr pointiert klarstellt, dass Anfassen, Bewegen, Intervenieren wesentliche Teile der menschlichen Intelligenz ausmachen. Das analytische Verständnis der Mathematik wäre aus seiner Sicht wohl eher ein Extrem- als ein Normalfall: „The squishy matter in the skull is great at some things. … It is, to put it bluntly, bad at logic and good at Frisbee“ (Clark 2003, 5). In der Simulationsmodellierung, so könnte man die Sache positiv betrachten, werden genau diese Orientierungsfähigkeiten für die mathematische Modellierung erschlossen. Wenn epistemische Opazität nicht zu vermeiden ist in komplexen Simulationsmodellen und wenn dennoch Möglichkeiten zur Intervention und Vorhersage bestehen, wird das zu einer Neubestimmung, oder Umdefinition, von Intelligibilität führen? Zum Abschluss dieses Kapitels möchte ich plausibel machen, dass die Simulationsmodellierung, die das Konzept mathematischer Modellierung verschiebt, auch das Potenzial dazu hat, die Maßstäbe zu verschieben für das, was als intelligibel gilt.
4.7 Intelligibilität – instrumentbedingte Verschiebung Wie also steht es um die Intelligibilität in komplexen Fällen? Ist sie dort unerreichbar? Oder kommt sie dank Simulation in Reichweite? Teils-teils, so möchte ich argumentieren: die Verwendung von Computersimulationen könnte nämlich dazu führen, dass sich verschiebt, was mit intelligibel gemeint ist. Es gibt Behauptungen, dass die Simulation einen neuen Weg biete, zu Erklärungen zu gelangen, nämlich zu solchen, die aus dem Zusammenwirken von Teildynamiken entstehen. Der Sammelband „Growing Explanations“ (Wise 2004) ist diesen neuen Möglichkeiten gewidmet und im Bereich sozialer Simulationen stellt diese Sicht geradezu eine Arbeitsgrundlage dar. Es besteht hier meines Erachtens die Gefahr, vom Regen in die Traufe zu geraten, nämlich Simulationen schon deshalb als Erklärungen zu behandeln, weil sie per Modelldynamik emergente Phänomene erzeugen. Die pure Erzeugung jedoch, zumal wenn sie mit epistemischer Opazität gepaart ist, besitzt nur eine schwache oder zumindest fragwürdige Erklärungskraft. Humphreys weist unter dem Stichwort der epistemischen Opazität auf den defizitären Charakter von simulationsbasiertem Wissen hin, dass nämlich das explanatorische Potenzial, wie es üblicherweise mathematischen Theorien zugeschrieben wird, in der Simulationsmethode verfehlt wird. Aus einer anderen Perspektive kann man der Methode auch eine positive Seite abgewinnen, wie das
4.7 Intelligibilität – instrumentbedingte Verschiebung
107
oben schon angeklungen ist. Denn trotz ihrer epistemischen Opazität können Simulationen einen pragmatischen Zugang zu Intervention und Kontrolle ermöglichen. Damit umgehen sie die Komplexitätsbarriere, die ja dem theoretischen Zugriff entgegen stand. Hierin kommen auch die verschiedenen Beispiele überein, die im bisherigen Verlauf geschildert wurden – der numerische Optimierer, der Simulation nutzt, um die Qualitäten bestimmter Prozeduren zu erkunden, Klimaforscher, die Parameter variieren, um etwas über den Weg herauszufinden, den Hurrikans nehmen, oder Nanowissenschaftler, die nach Wegen suchen, die Reibungseffekte auf der Nanoskala zu vermindern. In allen diesen Fällen diente die Simulationsmodellierung dazu, ein handlungsorientiertes Verstehen herzustellen, das hilfreich ist, Kontrolle auszuüben und Vorhersagen zu machen, selbst wenn die Modelldynamik nicht im theoretischen Sinne erfasst oder durchschaut werden kann. Wissenschaftliches Verstehen aber meinte traditionellerweise mehr und anderes, als dieses handlungsorientierte Verstehen. Die in der Wissenschaftsphilosophie übliche Auffassung des wissenschaftlichen Verständnisses ist von der wissenschaftlichen Erklärungsleistung abgeleitet. Wenn ein Phänomen erklärt wird, so hat man es, grob gesagt, verstanden. Dabei bestehen große Differenzen darüber, worin gelungene Erklärungen eigentlich bestehen, siehe etwa die Kontroverse um vereinheitlichende und kausale Erklärung (Kitcher and Salmon 1989). Das Verständnis wird jedenfalls eher als eine abgeleitete Größe behandelt und meistens im Sinne durchschauender Einsicht aufgefasst. De Regt und Dieks (2005) kommt das Verdienst zu, den Begriff des Verstehens erneut auf die Agenda der Wissenschaftsphilosophie gesetzt zu haben. Sie erkennen ausdrücklich an, dass eine erhebliche Variationsbreite besteht in Interpretationen, was mit understanding in den Wissenschaften eigentlich gemeint sei, sowohl was die historische Entwicklung angeht, als auch was Differenzen zu je einer Zeit betrifft. Entsprechend vorsichtig formulieren sie ein allgemeines „Criterion for Understanding Phenomena“ (CUP): „A phenomenon P can be understood if a theory T of P exists that is intelligible (and meets the usual logical, methodological and empirical requirements).“ (2005, 150) Und konsequent (von ihrem Standpunkt aus) schieben sie ein „Criterion for the Intelligibility of Theories“ (CIT) nach: „A scientific theory T is intelligible for scientists (in context C) if they can recognize qualitatively characteristic consequences of T without performing exact calculations.“ (De Regt und Dieks 2005, 151) De Regt und Dieks vertreten damit zweierlei: Erstens fassen sie Verstehen als eine Fähigkeit auf, nämlich typische Konsequenzen zu erkennen, und zweitens sehen sie intelligible Theorien als unerlässliches Mittel dazu an. Dieser zweite
108
4 Epistemische Opazität
Punkt wird meines Erachtens durch die Simulation, von der de Regt und Dieks nicht handeln, in Frage gestellt.⁹ Wir haben bereits gesehen, wie Computersimulation Forscher in den Stand versetzen kann, charakteristische Konsequenzen (innerhalb des Modells) auszumachen, obwohl die Modelldynamik teilweise opak bleibt. Folglich ist eine intelligible Theorie zumindest nicht notwendig, wenn es darum geht, Konsequenzen zu erkennen. Die alternative Route wurde als Umgehung der Komplexitätsbarriere beschrieben. Einmal abgesehen von der Art und Weise der Orientierung im Modell und der Vorgehensweise der Modellierung – welche explanatorische Leistung kann man solchen Simulationen zuschreiben? Einerseits wird der traditionelle Standard einer wissenschaftlichen Erklärung verfehlt. Wer nicht erläutern kann, wieso ein bestimmtes Verhalten auftritt, der kann es eben gar nicht erklären. Und vor allem: wer keinen Gesichtspunkt einer potenziellen Verallgemeinerung angeben kann, und da gälte die bloße Iteration nicht, der hat nichts in der Hand, worauf eine Erklärung bauen könnte. Andererseits hat man doch eine ganze Menge verstanden, wenn man in der Lage ist, Nanofäden zu erzeugen oder einen aussichtsreichen Vorschlag zu machen, wie die unerwarteten Schwierigkeiten mit der Reibung auf der Nanoskala zu beheben wären. Somit sehen wir uns vor zwei Optionen gestellt: Am etablierten Begriff des Verstehens festhalten und gleichzeitig die Simulation als Kontrolloption ohne Verstehen begreifen. Oder, zweite Option, eine pragmatisch geprägte Auffassung von Verstehen zu spezifizieren, die an der Fähigkeit zum Eingreifen ansetzt. Intelligibilität und Verständnis werden dann als abgeleitet aufgefasst und sind stets vorhanden, wo diese Fähigkeit systematisch besteht. Diese zweite Option ist nicht so weit hergeholt, wie es vielleicht scheinen mag. Die Bedeutung von Intelligibilität war in den Wissenschaften stets an die verfügbaren Instrumente geknüpft.Was als opak gilt, ist daher nicht konstant.¹⁰ Auch die Bedeutung von Intelligibilität und analytischem Verständnis hängt von dem traditionellen mathematischen Instrumentarium ab. Peter Dear hat in seinem Buch The Intelligibility of Nature. How Science Makes Sense of the World (2006) den engen Zusammenhang von moderner Wissenschaft und Intelligibilität unterstrichen. Die Wahl zwischen erster und zweiter Option möchte ich in Auseinandersetzung mit Dear kurz erläutern.
Vgl. dazu die Beiträge von Morrison, Knuttila und Merz, sowie Lenhard in de Regt et al. (2009), welche die Rolle von Modellen relativ zu Theorien thematisieren. Siehe etwa Sutters Studie zur Maschinenmetapher in der Philosophie (1988).
4.7 Intelligibilität – instrumentbedingte Verschiebung
109
Dear stellt zwei Bestrebungen einander gegenüber: Wissenschaft als Naturphilosophie, der es um Erklärung und Verstehen geht und science as an operational, or instrumental, set of techniques used to do things: in short, science as a form of engineering, whether that engineering be mechanical, genetic, computational, or any other sort of practical intervention in the world. (Dear 2006, 2)
Er räumt ein, dass die beiden Bestrebungen schon seit dem 17. Jahrhundert nicht einzeln und rein existieren; es handele sich eher um zwei Idealtypen im Weber‘schen Sinne (7). Ich möchte ergänzen, was Dear nicht explizit ausführt, dass nicht nur beide Strömungen innerhalb der Wissenschaft vorhanden sind, sondern dass sie miteinander verbunden sind und sich wechselseitig beeinflussen. Der interessanteste Punkt ist der Blick auf Newton. Für Dear ist klar, dass Newton als Naturphilosoph versagte, aber nicht als Mathematiker. Sein berühmtes hypotheses non fingo aus dem Scholium der Principia bringt zum Ausdruck, dass sich Newton (trotz aller dahingehender Anstrengungen) nicht in der Lage sah, diejenigen Mechanismen für die Gravitation zu spezifizieren, die den naturphilosophischen Maßstäben an Intelligibilität gerecht werden könnten. Als Mathematisierung freilich ist seine Theorie von überragender Qualität. Der historisch bedeutsame Dreh besteht darin, dass die Maßstäbe für Intelligibilität veränderlich sind. Tatsächlich passten sie sich ziemlich exakt dem an, was Newtons Theorie leisten konnte. „The result was that action at a distance eventually came to be seen, almost by default, as an explanatory approach that was satisfying to the understanding“ (Dear 2006, 13). Das ist meiner Meinung nach ein ebenso schlagendes wie herausragendes Beispiel für die Macht der mathematischen Instrumentierung, Maßstäbe der Intelligibilität zu beeinflussen.¹¹ Dear betont weiterhin, dass Instrumentalität allein genommen nicht der ausschlaggebende Antriebsfaktor für die Entwicklung der Wissenschaften war, sondern dass der Intelligibilität (d. h. der Tradition der Naturphilosophie) eine zentrale Rolle zukommt (175). Dear besteht zwar ganz zu Recht auf dieser Rolle, aber er verpasst meines Erachtens die dialektische Pointe, die darin besteht, dass Intelligibilität und Instrumentalität voneinander abhängig sind.Wo Dear ritterlich die Bedeutsamkeit der Intelligibilität angesichts der im 20. Jahrhundert verstärkten Ideologie der instrumentellen Machbarkeit verteidigt, sieht ein Anhänger der Option zwei (ohne ihm direkt zu widersprechen) die Dinge mehr im Fluss. Die Umdefinition der Intelligibilität stellt eine Facette der Veränderungen dar, die von der Transformation mathematischer Modellierung ausgehen und die hier untersucht werden. Intelligibilität könnte sich wieder verschieben durch den Gebrauch Dear führt noch als weitere Beispiele an: Maxwell und Faraday, sowie Darwin gegen Herschel.
110
4 Epistemische Opazität
des Computers als Instrument in der Modellierung.¹² Das heißt aber nicht, dass ein Defizit an Einsicht nicht mehr kritisch reklamierbar bliebe, weil es einfach wegdefiniert würde.
Eine solche Option – bezogen auf die Bedeutung von ‚Denken‘ – erwägt Gunderson in seinem klassischen Aufsatz zur künstlichen Intelligenz: „with the increasing role of machines in society the word ‚think‘ itself might take on new meanings, and that it is not unreasonable to suppose it changing in meaning in such a way that fifty years hence a machine which could play the imitation game would in ordinary parlance be called a machine which could think.“ (1985b, 58)
5 Ein neuer Typ mathematischer Modellierung Die in den Kapiteln 1 bis 4 herausgestellten und untersuchten Merkmale stehen in einem positiven Abhängigkeitsverhältnis, das heißt, sie verstärken sich wechselseitig und fügen sich so zu einem eigenständigen Typ mathematischer Modellierung zusammen. Die Simulationsmodellierung ist durch einen explorativen und iterativen Modus gekennzeichnet, der zu einem mehrdimensionalen Bild der Simulation führt. Die Dimensionen werden dabei durch Merkmale aufgespannt, die abgestuft vorliegen können, d. h. in konkreten Anwendungsbeispielen oder in bestimmten Klassen von Simulationsstrategien sind die Merkmale je unterschiedlich stark ausgeprägt. Entscheidend bleibt, dass diese Merkmale in wechselseitig sich stützender Weise miteinander verschränkt sind. Systematisch, so werde ich argumentieren, vereint die Simulation theoretische und technologische Elemente, ihr Gebrauch läuft auf eine anwendungsorientierte Wissenschaft hinaus, die eine große Nähe zu den Ingenieurswissenschaften aufweist. Inwiefern macht das die Simulation zu etwas Neuem in den Wissenschaften? Diese Frage wird im vorliegenden Kapitel in einem ersten Anlauf beantwortet. Mein Votum entspricht der Grundthese der ganzen Untersuchung und lautet: Simulation ist ein neuer Typ mathematischer Modellierung. Wie in der Einleitung bereits angesprochen wurde, ist der Neuheitsbefund abhängig von der Wahl der Kategorien. Im kleinen Maßstab enthält fast jede wissenschaftliche Vorgehensweise eine Reihe von Neuerungen, während es durchaus sein kann, dass im großen Maßstab kaum Neues zu geschehen scheint. Für eine philosophische Untersuchung kommt es (auch) darauf an, sozusagen die richtige Skala, oder den angemessenen Abstraktionsgrad zu wählen. Hier vertrete ich eine Art moderate Position, die Simulationsmodellierung zunächst in mathematische Modellierung einordnet, dann aber wesentliche Merkmale benennt, die dazu berechtigen, von einem neuen Typ der Modellierung zu sprechen. Diese Antwort wird in einem zweiten Anlauf ergänzt werden, nämlich um den Nachweis wie bedeutsam die gewählte Sichtweise ist: Im achten und abschließenden Kapitel wird Simulation historisch-systematisch eingeordnet und als Wiederbelebung und Umkehrung dessen gedeutet, was als Leonardo-Bacon-Galilei-Programm bezeichnet werden kann und die moderne Wissenschaft mitbegründete.
112
5 Ein neuer Typ mathematischer Modellierung
5.1 Mehrdimensionalität Die in den vorhergehenden Kapiteln untersuchten Merkmale der Simulationsmodellierung treten in graduell unterschiedlicher Ausprägung auf. Die einzelnen Elemente bestanden in Experimentieren. Simulationsexperimente erscheinen als eine besondere Klasse von Experimenten. Insbesondere ging es um eine Zuspitzung auf die Simulationsmodellierung, für die das Experimentieren, und hier vor allem die explorative Variante, eine unerlässliche Komponente darstellt. Modellannahmen, die in ihren Auswirkungen nicht überschaut werden können, können durch iteratives Vorgehen erprobt, variiert und modifiziert werden. Dabei kommen auch artifizielle Elemente zum Einsatz. Artifizielle Elemente. Sie treten in diskreter Modellierung unvermeidlich auf. Sei es, dass ein theoretisches Modell in mathematisch-kontinuierlicher Sprache verfasst ist und erst diskretisiert werden muss, sei es dass es von vornherein um diskrete Modelle geht. Um deren Performanz zu steuern, d. h. aus instrumentalistischen (und unvermeidbaren) Gründen, werden artifizielle Komponenten hinzugefügt. Ein direkter Repräsentationszusammenhang kann daher nicht in Anschlag gebracht werden, wenn es um Erklärung oder Rechtfertigung geht. Experimente erscheinen unerlässlich, um die Performanz eines Simulationsmodells an zu modellierende Phänomene anzugleichen, da die artifiziellen Elemente nur über diese Schleife als passend beurteilt werden können. Simulationsmodellierung erhält so eine stark instrumentalistische Note. Visualisierung. Sowohl von der Datenseite her, von den in vielen Anwendungen anfallenden schieren Mengen an zu verarbeitenden Daten, als auch modellintern, vom Umfang der benötigten Experimente und Iterationen während der Modellierungsphase her, werden hohe Anforderungen an die Verarbeitungskapazität gestellt. Unerlässlich für den Modellierungsprozess sind Schnittstellen zwischen Computer und Modellierer, von dessen lenkendem Eingreifen der weitere Verlauf der Modellierung abhängt. Visualisierungen bieten Wege, solch große Datenmassen zu präsentieren. Speziell für den Modellierungsprozess waren Visualisierungen der Art von besonderem Interesse, die dazu dienen, eine Interaktion zwischen Modellierern, den (vorläufigen, in Konstruktion befindlichen) Modellen und der von ihnen generierten Dynamik zu etablieren. Die Plastizität bezeichnet die große Anpassungsfähigkeit der Dynamik eines Simulationsmodells. Dessen struktureller Kern ist oft nicht mehr als das Schema
5.1 Mehrdimensionalität
113
eines Modells, das noch eine weitere Phase der Spezifizierung benötigt, um allererst bestimmte Muster und Phänomene zu simulieren. Während theoretische Überlegungen vorrangig in den strukturellen Kern eingehen, muss die Spezifizierung, in deren Verlauf performative Eigenschaften des Modells erst festgelegt werden, durch einen explorativen Prozess geschehen. Simulationsmodelle wurden daher auch als strukturell unterdeterminiert bezeichnet. Schließlich kam noch die epistemische Opakheit hinzu. Sie resultiert daraus, dass die Modelle selbst in mehrfacher Hinsicht komplexer werden: die dynamischen Abläufe umfassen eine enorme Anzahl an Schritten, deren Gesamtresultat nicht aus der Struktur zu erschließen ist, sondern im Verlauf der Interaktion der getroffenen Modellannahmen und gewählten Parameterwerte entsteht. Zudem ergeben sich wichtige Eigenschaften der Dynamik erst aus den während der Modellierung erfolgten Anpassungen. Hierin liegt ein fundamentaler Unterschied zu traditionellen Konzepten der mathematischen Modellierung, denen es um epistemische Transparenz geht. Auch wenn mittels Simulation die epistemische Transparenz klassischer mathematischer Modelle nicht hergestellt werden kann, so können doch Kontroll- und Vorhersageoptionen bereitgestellt werden, indem Experimentieren, Austesten, kontrollierte Variation etc. genutzt werden. Was aus der Menge dieser Merkmale einen eigenständigen Typ macht, ist die wechselseitige Verschränkung. Sie bedingen sich wechselseitig und systematisch. Die Simulationsmodellierung geschieht in einem explorierenden, iterativen Prozess, der die vorher genannten Komponenten involviert und ausnutzt, bzw. kompensiert (Opazität). Dabei wird nicht nur Komplexität reduziert, sondern vor allem auch kanalisiert. Jede computerbasierte Modellierung muss die Limitierung durch Rechenkomplexität beachten. So können zum Beispiel aus Komplexitätsgründen oft nicht alle Möglichkeiten durchgespielt werden. Gleichzeitig können Iterationen in enormer Zahl und Geschwindigkeit geschehen, was wiederum auf sie gestützte Exploration ermöglicht. Modellierung kann so in einer wiederholten Rückkopplung an Performanzkriterien voranschreiten. Insgesamt erhalten wir ein mehrdimensionales Bild der Simulationsmodellierung. Die verschiedenen Simulationstechniken und Beispielfälle weisen unterschiedliche graduelle Ausprägungen in den Dimensionen auf. Es gibt durchaus Extremfälle, in denen praktisch nur eine einzige Dimension relevant ist. Wenn etwa rein mathematisch definierte Wahrscheinlichkeitsverteilungen durch einen Monte-Carlo-Ansatz simuliert werden, so ist wohl nur die experimentelle Komponente am Werk. Schon die anderen Dimensionen jedoch ergeben nur im Verbund einen Sinn: Der Einsatz artifizieller Elemente kann wegen der entstehenden Opazität ohnehin nur explorativ-experimentell koordiniert werden. Auch die
114
5 Ein neuer Typ mathematischer Modellierung
Plastizität der Modelle erfordert ein exploratives Vorgehen, da die Spezifizierung mangels struktureller Anhaltspunkte gar nicht anders geschehen kann. Die Visualisierung schließlich macht Modellverhalten dem Modellierer zugänglich und damit den Modellierungsprozess in der Praxis überhaupt erst effektiv durchführbar. Die Komponenten der Simulationsmodellierung, so können wir resümieren, treten nicht nur gemeinsam auf, sondern sie fügen sich zu einem mehrdimensionalen Typus zusammen, weil sie nicht unabhängig voneinander sind. Sie verstärken sich wechselseitig – epistemologische und methodologische Gesichtspunkte sind miteinander verschränkt. Das konnte für einen weiten Bereich von Modellklassen – für finite Differenzen ebenso wie für zelluläre Automaten oder neuronale Netze – aufgezeigt werden. Aufgrund dieser Verschränkung wäre es eine unangebrachte Verengung, die Simulation nur eindimensional zu charakterisieren, sei es als experimentell, durch eine neue Syntax, oder durch die Opazität.
5.2 Neuheit? Wenn Komplexität die Simulation auszeichnet, so könnte man vermuten, dass die mathematische Modellierung hier lediglich einem umfassenderen Trend folgt, der die Wissenschaften insgesamt erfasst hat. Demnach lassen die gesellschaftlichen und politischen Erwartungen und Anforderungen an die Wissenschaft dieser gar keine andere Wahl, als sich komplexen Anwendungssituationen zu stellen. In dem Maße, in dem der Weg der Reduktion von Komplexität durch Vereinfachung und Idealisierung nicht mehr gestattet ist, – unter Strafe schwindender Relevanz – erschöpft sich sozusagen auch das Transparenz-Reservoir der Wissenschaften. Die Diagnose der steigenden Komplexität hat einiges für sich, wie auch eine wachsende Zahl von Veröffentlichungen bestätigt.¹ Die Simulation weist eine gewisse Affinität zur Komplexität auf, insofern der Modellierungstyp selbst Komplexität hervorruft und zugleich mit ihr rechnet. Unter den Bedingungen der (Computer‐) Technologie werden die mathematischen Modelle selbst komplex, was gerade keine einfache Fortschreibung des Prozesses der Mathematisierung darstellt. Nicht nur während der Pionierphase, sondern auch während der anschließenden, einige Jahrzehnte andauernden Zeit der allmählichen Durchsetzung galt der Einsatz von Computermodellen als etwas exotisch und ihm haftete, verglichen
Dazu können Werke wie Gibbons et al. (1994) bis zu Weingart et al. (2007) und Mitchells Komplexitäten (2008) zählen.
5.2 Neuheit?
115
mit theoretischen Ansätzen, der Ruf der Minderwertigkeit oder zumindest nur zweiten Wahl an.² Noch bis in die 1980er Jahre hinein stand die Neuheit der Simulation außer Frage; paradigmatisch etwa ist Brennans Essay Simulation is Whaa-t? in McLeods Buch über Simulation (1968). Erst mit der breiten Durchsetzung von Computermethoden in den Wissenschaften tauchte die wissenschaftsphilosophische Problematik auf, was eigentlich das Neue an Simulation und Computermodellierung sei. Die von Humphreys und Rohrlich (1991) ausgerichtete Session auf PSA 1990 markiert ein frühes Beispiel. Seither wird in regelmäßigen Abständen die Diskussion wiederaufgelegt, ob die Computersimulation neu sei und – wenn ja – was ihre Neuheit eigentlich ausmache. Diese Diskussion entspinnt sich zwischen zwei Hauptlagern, die man, etwas überspitzt, als abgeklärte Konservative und emphatische Neuheitsapostel beschreiben und einander gegenüberstellen könnte. Die erstere Gruppe vertritt die in der Geschichte der Philosophie nicht ganz unbekannte Haltung ‚nil sub sole novum‘. Die Simulation, so diese Gruppe, sei im philosophischen Sinne gar nichts Besonderes. Ein neues Instrument, das schon, aber die Neuheit erschöpfe sich eben in der gesteigerten Geschwindigkeit der Rechenprozesse, während in einem philosophisch fundamentaleren Sinne Simulation wenig biete. Stöckler (2000) oder Frigg und Reiss (2009) artikulieren diesen Standpunkt. Wer Simulationen allerdings als bloße Werkzeuge versteht zur numerischen Approximation einer vorgängig feststehenden mathematisch verfassten Wahrheit, für den können solche Modelle nichts autonomes oder semi-autonomes haben. Sie bleiben dann (auch begrifflich) ein abhängiges Hilfsmittel. Nicht nur die Argumentation der bisherigen Kapitel über Simulation, sondern auch die breitere wissenschaftsphilosophische Debatte über Modelle, hat diese Position meines Erachtens widerlegt. Wer ihr dennoch weiter anhängt, der wird freilich gar keine genauere Untersuchung benötigen um sicher zu sein, dass Simulationen, weil modellbasiert und deshalb ohnehin abgeleiteter Natur, nichts Neues bieten. Meines Erachtens ist diese Sichtweise allenfalls teilweise berechtigt. Berechtigt kann man sie nennen, weil die in der Simulationsmodellierung wichtigen Komponenten, wie Experimentieren, oder der Einsatz artifizieller Elemente, je für sich schon etabliert sind in den Wissenschaften. Sie entstehen nicht aus dem (VorComputer‐)Nichts. Zu kritisieren ist der Standpunkt jedoch, weil er das Kind mit dem Bade ausschüttet. Auch wenn keine Zutat für sich von unerhörtem Neuigkeitswert ist, so folgt daraus nicht, dass auch die Rezeptur nichts Neues ergibt. Die in der Einleitung zitierte Passage über das Schießpulver verdeutlicht das. Mir
Für eine Periodisierung der Computermodellierung siehe Lenhard (2010).
116
5 Ein neuer Typ mathematischer Modellierung
kommt es gerade auf die Besonderheiten der Simulationsmodellierung innerhalb des Rahmens der mathematischen Modellierung an. Die zweite Gruppe, die der Neuheitsapostel, betont umgekehrt das Neuartige an der Simulation, wie das etwa Keller emphatisch zum Ausdruck bringt: Just as with all the other ways in which the computer has changed and continues to change our lives, so too, in the use of computer simulations – and probably in the very meaning of science – we can but dimly see, and certainly only begin to describe, the ways in which exploitation of and growing reliance on these opportunities changes our experience, our sciences, our very minds. (Keller 2003, 201)
Galison (1996, 1997) wäre ein weiterer exponierter Vertreter aus dieser Gruppe. Ich finde deren Behauptungen durchaus erwägenswert und verdienstvoll, weil sie letztlich dazu führen, die Grenzen auszuloten, innerhalb derer solche Thesen zutreffen. Erst der kritische Abgleich zwischen den Positionen weist der Simulation eine angemessene Stellung zu. Hier möchte ich mich auf einen mittleren – vielleicht sogar vermittelnden – Standpunkt stellen. Neuheit ist in der Philosophie selten Neuheit schlechthin, sondern in aller Regel Neuheit aus einer bestimmten Perspektive. So behandelt die vorliegende Arbeit die Simulationsmodellierung als neuen Typ von mathematischer Modellierung. Das betont gleichermaßen die Neuheit wie die Einordnung in die Thematik der Modellierung. Insoweit sehe ich den Standpunkt von Humphreys als eng verbündet an, wie er ihn nicht nur in (2004) andeutet, sondern noch prononcierter in (2009) unterstreicht: Die Analyse der Simulation gewinnt durch die Einordnung in die allgemeinere wissenschaftsphilosophische Diskussion um Modelle, insbesondere um deren Rolle als autonome Vermittler, an Tiefenschärfe. Die enge (und neuartige) Verzahnung von technologischen und mathematischen Aspekten in der Simulationsmodellierung führt zu einer Verstärkung der Modellautonomie. Die der Simulationsmodellierung internen Aspekte, ihre Eigendynamik, nehmen einen breiten Raum ein in den Aktivitäten der Modellierung, was auf eine in gesteigertem Maß autonome Vermittlungsrolle hinausläuft – vgl. die Endpassage des Kapitels 1. Insoweit stellt Simulation tatsächlich eine durch Computertechnologie ausgelöste Steigerung dar. Die Autonomie ist, um überhaupt steigerungsfähig zu sein, stets als nur partielle gemeint (übereinstimmend mit Morrison 1999, die diese Redeweise aufgebracht hat), ihre Steigerung fußt auf einer signifikanten Verschiebung gegenüber der traditionellen, analytisch geprägten Konzeption mathematischer Modellierung. Man kann hier einen starken Einfluss seitens anwendungsorientierter Modellierung erkennen, die ohnehin dazu ten-
5.2 Neuheit?
117
diert, die Rollen von theoretischen Modellen, Daten und semi-empirischen, explorativen Vorgehensweisen miteinander zu verschränken.³ Eine Pointe des explorativen Typs der Modellierung erkenne ich darin, dass er zwei Motive zusammenspannt, die beide in den Wissenschaften etabliert sind, aber zueinander im Gegensatz stehen. Mathematische Modellierung knüpft an das hohe Maß an dauerhafter und sicherer Erkenntnis an, das die Mathematik verspricht. Gleichzeitig betont der explorative Modus der Simulation das Offene und Vorläufige. In dieser Hinsicht befindet sich die hier erarbeitete Charakterisierung der Simulation auf gemeinsamem Terrain mit wissenschaftsphilosophischen Denkern wie Hans-Jörg Rheinberger, dessen Arbeiten zu den „Experimentalsystemen und epistemischen Dingen“ um das „Primat der im Werden begriffenen wissenschaftlichen Erfahrung“ (2006, 27) kreisen. Er spricht in diesem Zusammenhang auch vom Status der Vorläufigkeit, den epistemische Dinge haben (2006, 28) und knüpft damit an ältere Positionen etwa von Claude Bernard oder Ludwik Fleck an. Das passt deshalb so gut zum explorativen Modus der Computersimulation, weil dieser der theoretischen Seite großen Einfluss einräumt, ohne die Offenheit des weiteren Modellierungsverlaufs zum Verschwinden zu bringen. Ich sehe darin eine vermittelnde Balance, die in der Simulationsmodellierung hergestellt wird – jedenfalls in gelungenen Fällen. Wenn artifizielle Elemente eingesetzt und ausgetestet werden, oder wenn Parameter variiert werden, ist die gelingende Performanz sicher nicht blindem, sondern systematischem Ausprobieren geschuldet. (Systematizität schließt den Rückgriff auf Theorien mit ein.) Wenn Pseudo-Zufallsexperimente à la MonteCarlo durchgeführt werden, wird sozusagen systematisch nach Zufall variiert. Der andere Pol besteht im Variieren nach Erfahrung im Modellverhalten. Überall spielt das Vorläufige eine Rolle, aber stets im Rahmen einer systematischen und kontrollierten Vorgehensweise. Kurz, die Simulationsmodellierung stellt einen eigenständigen Typ von mathematischer Modellierung dar, der bei aller Kontinuität zu Begrifflichkeit und Vorgehensweise mathematischer Modellierung doch entscheidende Abweichungen beinhaltet.
Treffende Analysen über die relativen Rollen von Theorie, Daten und Modellen in anwendungsnahen Gebieten geben z. B. Carrier (2007) und Wilholt (2006).
118
5 Ein neuer Typ mathematischer Modellierung
5.3 Konvergenz mit Ingenieurswissenschaften Es liegt auf der Hand, dass Simulationsmethoden ein gemeinsames verbindendes Element bilden zwischen Naturwissenschaften, einem Teil der Sozial- und Wirtschaftswissenschaften, sowie den Ingenieurswissenschaften, in denen sie eine Fortschreibung mathematischer Modellierung und Mathematisierung darstellen. Sie bestehen dabei aus einem Konglomerat, das mathematische, informatische, institutionell-organisatorische und infrastrukturelle Elemente umfasst. Zum Beispiel werden auf breiter Front neue statistische Verfahren wie Markov-ChainMonte-Carlo Methoden eingesetzt, die auf die Behandlung sehr großer Datenmengen zugeschnitten sind. Diese Verfahren werden in der Praxis verwendet und gleichzeitig in der mathematischen Fachwissenschaft erforscht, um die bereits praktisch etablierten Verfahrensweisen auch theoretisch abzusichern (vgl. Diaconis 2008). Ein anderer Aspekt der Entwicklungsdynamik dieses Konglomerats besteht darin, dass durch die Entwicklung semantisch hochstehender Programmiersprachen, man denke etwa an objektorientiertes Programmieren in C++, Wissenschaftler überhaupt erst in die Lage versetzt werden, einem explorativen Modus zu folgen, der Computermodellierung für die eigentlich verfolgten Fragestellungen fruchtbar macht. Zuvor waren technische Fachkräfte nötig, die praktisch ihre gesamte Karriere dem Computer widmen mussten. Entwicklungen auf der Hardware-Seite sind ebenso wichtig: leicht einbindbare Visualisierungen etwa sind gleichermaßen essenziell in Ingenieurs- wie Naturwissenschaften. Auf der Seite der Infrastruktur und Organisation schließlich spielt die Vernetzung eine große Rolle. Sie ermöglicht den Austausch von Programmbibliotheken, ganzen Unter-Modellen und die arbeitsteilige Organisation umfassender Modellierungsaufgaben. All diese Gesichtspunkte bezeugen einen lock-in von Wissenschaft und Technologie, der in allen wissenschaftlichen Zweigen, die Simulationen einsetzen, eine vergleichbare Kanalisierungswirkung hervorbringt. Die Modellierung steht in dieser Hinsicht ebenfalls unter technologischen Erfolgsbedingungen. Das zeigt sich in dem Umstand, dass Simulationen stets unter der Bedingung der effektiven Implementation auf einer Maschine stehen. Sie müssen ‚laufen‘, um als Simulationen zu existieren. Insbesondere verschiebt sich der philosophische Fokus von Überlegungen in principle, zum Beispiel der Lösbarkeit von Gleichungen, hin zu Überlegungen in practice, worauf Humphreys in (2004) hingewiesen hat – wie zum Beispiel brauchbare Ergebnisse im Rahmen von ökonomischem Zeit und Maschineneinsatz zu finden. Darüber hinaus wird die Konvergenzthese gestützt durch den Modus der Modellierung selbst: In der Anwendung von Simulationsmethoden gleichen sich
5.3 Konvergenz mit Ingenieurswissenschaften
119
Wissenschaften und Ingenieursdisziplinen einander an.⁴ Diese Beobachtung ist von einiger Tragweite und wird im abschließenden Kapitel 8 wieder aufgegriffen werden. Die Simulationsmethode scheint gleichsam maßgeschneidert zu sein für die Erfordernisse der Technologie, bzw. der an ihr orientierten Wissenschaft. Der springende Punkt für eine technologische Anwendung ist nicht der Bezug auf allgemeine Gesetze, sondern ein Zugriff auf konkrete Situationen: Mit welchen Phänomenen in welcher quantitativen Ausprägung hat man es zu tun – und welche konkrete Vorhersage ergibt sich daraus? Es kommt auf das Verhalten unter konkreten Anfangs- und Randbedingungen an (des Materials, der Umgebung, des zeitlichen Ablaufs etc.). Erst derartiges Wissen kann man erfolgreich anwenden und Verhalten technisch nutzbar machen. Das schränkt die Relevanz von Gesetzeswissen stark ein, vor allem natürlich dann, wenn dieses Wissen sozusagen in der Komplexitätsbarriere ‚hängen‘ bleibt, d. h. für eine Bestimmung des Modellverhaltens nicht hinreicht.⁵ Rezepte im Sinne von Design-Regeln sind gefragt, was die Anforderungen an theoretische Einsicht abmildert. Ein gewisser Grad an Allgemeinheit ist allerdings doch vonnöten, da Design-Regeln nicht lediglich wie eine Gebrauchsanweisung für ein bestimmtes Gerät und dessen festgelegte Nutzung funktionieren. Vielmehr ist eine gewisse Belastbarkeit und Variationsbreite der Regelanwendung notwendig, soll die Regel überhaupt nützlich sein. Die Bedingungen, die in technologischen Anwendungen gestellt werden, befinden sich zwischen allgemeinem theoretischem Wissen und konkreter Anweisung. Man könnte zunächst zu bedenken geben, dass theoretisches Gesetzeswissen die beste Voraussetzung dafür ist, erfolgreiche Rezepte abzuleiten – nichts ist praktischer als eine gute Theorie. Generell trifft das jedoch nicht so ganz zu. Die Kernfusion zum Beispiel ist theoretisch sehr gut durchdrungen, aber man ist weit davon entfernt, tatsächlich einen Reaktor bauen zu können – zu komplex sind die Probleme, die sich einer konkreten Realisierung stellen (vgl. auch Carrier und Stöltzner 2007). Im Falle des goldenen Nanodrahts, der von einer sich entfernenden Nickelspitze erzeugt wurde, war überraschendes Verhalten in Simulationsexperimenten beobachtet worden. Das Phänomen konnte später bestätigt werden, aber die Simulation liefert keine ‚Erklärung‘ im üblichen Sinne. Natürlich sind – unter anderem – Gesetze im Simulationsmodell implementiert, aber die Relation zwischen der allgemeinen Schrödingergleichung und dem goldenen
Auch die Ingenieurswissenschaften selbst werden durch Computer und Simulation stark beeinflusst. Sowohl die computational sciences als auch die Materialwissenschaften hätten einen vorderhand klärungsbedürftigen Status (vgl. Bensaude-Vincent 2001, Johnson 2009). Der locus classicus ist Nancy Cartwrights einflussreiches Buch How the Laws of Physics Lie von 1983. Im Zusammenhang der Simulation ist die Komplexitätsbarriere in Kapitel 4 besprochen worden.
120
5 Ein neuer Typ mathematischer Modellierung
Draht bleibt undurchsichtig. Landman konnte überrascht sein, einen Draht zu beobachten, jedoch keine Einsicht gewinnen, wieso sich solch ein Draht bildet. Obwohl offenbar auf Theorie gestützt, bot die Simulation keine theoriegestützte Einsicht, wohl aber ein Verständnis im pragmatischen Sinn, das sich am Potenzial zur Intervention und zur Kontrolle festmacht und daher eine große Affinität zur Herstellung technologischer Artefakte aufweist. Diese Art von Verständnis im pragmatischen Sinn ist wichtiger Bestandteil der Konvergenz simulationsgestützter Wissenschaften und sollte als Neuheit in epistemologischer Hinsicht hervorgehoben werden. Konsequenterweise setzt sich die Nachbarschaft von Wissenschaft und Technologie auch in der Validierung und Überprüfung fort: Anders als in theoretisch durchschauten oder abgesicherten Situationen sind Kontrolle von Modellverhalten und Testen technologischer Artefakte zueinander analog. Die iterativ und explorativ vorgehende Modellierung kann hier Spielräume austesten, allerdings nur mit begrenzter Reichweite. Hierin ist sie einem Vorgehen ähnlich wie beim Austesten von Artefakten auf einem Prüfstand. (Kapitel 7 bietet eine ausführlichere Diskussion der Problematik um Validierung und Zuverlässigkeit.) In der Technikphilosophie ist die Eigenständigkeit des Ingenieurwissens (relativ zum theoretischen Wissen) nachdrücklich betont worden (zum Beispiel Vincenti 1990). Zwar können sich technische Neuerungen auch aus der Anwendung wissenschaftlicher Forschungsleistungen ergeben, aber brauchbare Regeln für das Design solcher Artefakte müssen sich eben nicht zwangsläufig auf die theoretische Durchdringung des betreffenden Sachbereichs stützen. Eigenständigkeit heißt aber nicht völlige Unabhängigkeit.⁶ An dieser Stelle ist Vorsicht angezeigt. Die Analyse der Simulationsmodellierung hat uns die enge Verzahnung von Wissenschaft und Technologie vor Augen geführt. Es wäre aber ein voreiliger Schluss, diese Verzahnung ursächlich auf die Simulation und den Computereinsatz zurückzuführen. Sie besteht schon viel länger und die Simulation gibt lediglich erneuerten, oder vielleicht verschärften, Anlass genauer hinzuschauen. Meine Argumentation über artifizielle, nicht-repräsentierende Elemente etwa wird durch Scerris (2004) Untersuchung gestützt, die nachweist, dass auch sogenannte ab-initio-Verfahren der quantentheoretischen Chemie wesentlich semi-empirische Elemente einbeziehen (müssen). Gleichzeitig aber legen andere wissenschaftsphilosophische Untersuchungen dar, dass semi-empirische Ansätze in den Wissenschaften weit verbreitet sind (Ramsey 1997). Mir scheint, dass die weitgehende Vernachlässigung angewandter
Wilholt (2006) gibt ein instruktives Beispiel, wie Design Regeln mit einer Dialektik von Phänomenen, Daten, praktischen Zielen und Theorien arbeiten.
5.3 Konvergenz mit Ingenieurswissenschaften
121
Wissenschaften zu einem tendenziösen Bild geführt hat, demgemäß Wissenschaften auf der einen von Ingenieursdisziplinen und Technologien auf der anderen Seite als strikt getrennt betrachtet werden.⁷ Meine Ansicht korrespondiert einer Reihe philosophischer und historischer Standpunkte, ohne ihnen in allen Details zuzustimmen: In der Technikgeschichte gibt es eine wachsende Gruppe von Personen, die argumentieren, dass die Sichtweise der Wissenschaftsgeschichte dadurch beeinträchtigt wurde, dass angewandte Wissenschaften systematisch zu wenig beachtet wurden. Eine ähnliche Stoßrichtung verfolgt deSolla Price, wenn er feststellt: „The lack of critical scholarship on the interaction between science and technology is due to the separation of history of science and history of technology.“ (deSolla 1984,105) Von besonderem Interesse sind die verschiedenen theoretischen Ansätze und Konstruktionen, wie das Verhältnis von Wissenschaft und Technologie zu bestimmen sei. Sei es als symbiotische Verschmelzung der beiden, wie das im Konzept der ‚technoscience‘ à la Latour und Haraway anklingt, oder als wechselseitige Beeinflussung von Grundlagenforschung, angewandter Wissenschaft und Technologie, wie das Carrier mit dem Begriff der anwendungsdominierten Wissenschaft (2006) vorschlägt. Ich bevorzuge ebenfalls einen Standpunkt, der Raum für Interaktion zwischen Wissenschaft und Technologie lässt. Die Simulationsmodellierung tritt dann in einem Modus auf, der diese Interaktion intensiviert. Wo alles eins wäre, könnte auch die Interaktion nicht intensiviert werden. Ebensowenig kann einer der beiden Seiten die dominierende Rolle zugeschrieben werden. Eine theorielastige, anwendungsferne Position und ein technologischer Determinismus stellten gleichermaßen eine fehlgeleitete Ansicht dar. Dass es um ein wechselseitiges Verhältnis geht und nicht um Identität, bringt Norton Wise auf den Punkt: That is, postmodernity does not reduce science to technology but recognizes their intimate interrelation. This is a cultural/scientific shift that I very much welcome. It is opening up new kinds of knowledge and knowledge of new kinds of things. (Wise 2007)
Und wenn er weiterhin meint „the pursuit of knowledge is much more closely tied up with pursuit of technologies than ever before“, dann gibt ihm insbesondere die Simulation Recht.⁸ Das stimmt auch mit einer Auffassung von „technoscience“ überein, wie sie etwa Alfred Nordmann (2010) vertritt, der in diesem Begriff die
Radder (2009) diskutiert Perspektiven auf diese Trennungslinie. Wise nennt auch explizit den Gebrauch von Simulationen als Beleg, neben der Berufung auf Modellorganismen. Ich selbst würde sogar für eine gewisse Ähnlichkeit der beiden plädieren (Lenhard 2006).
122
5 Ein neuer Typ mathematischer Modellierung
enge Verflechtung der beiden Komponenten benannt sieht, ohne aber ein Reduktionsverhältnis unterzuschieben. Die vorliegende Argumentation vertrat eine für die Eigenschaften der Instrumente sensible Philosophie der Wissenschaft und Technologie.⁹ Eine philosophische Untersuchung der Simulations- und Computermodellierung muss die Technologie des Computers, Modelle und Theorien zugleich in den Blick nehmen. Den Computer etwa der Theorie nur entgegenzusetzen würde ganz schnell in uninteressantes Fahrwasser führen, in dem ‚nichts Neues‘ zu finden wäre.Wie alle Artefakte entwickeln Simulationsmodelle eine Eigendynamik, die ihnen einen autonomen, oder besser semi-autonomen, Charakter verleiht. Modellierungsschritte, die aus diesem ‚Eigenleben‘ erwachsen, erscheinen unter einer bestimmten simplistischen Sichtweise als Falschheiten. Unter einer Sichtweise nämlich, welche die mathematischen Konstrukte – die diskreten Computermodelle – als vollständig auf eine feststehende äußere Realität bezogen sieht, von der zudem noch angenommen wird, sie liege in (kontinuierlich) mathematisch verfassten Theorien vor. Nur mit letzteren als Maßstab erscheinen artifizielle Komponenten als ‚falsch‘. Morrison und ihre Mitstreiter (vgl. die Diskussion im ersten Kapitel) haben die Autonomie von Modellen hervorgehoben. Noch umso mehr gilt das für Simulationsmodelle, die als mathematische Modelle einer Wechselwirkung begrifflicher und technischer Gesichtspunkte entspringen.
Diesen Standpunkt macht Don Ihde (2004) zum Erkennungsmerkmal einer Philosophie der Technologie.
Teil II: Begriffliche Verschiebungen
6 Lösung oder Imitation? Oft werden Simulationen auch als numerische Lösungen bezeichnet. Diese Redeweise ist sowohl in der Fachliteratur von Anwendern, als auch in der wissenschaftsphilosophischen Literatur verbreitet. Sie suggeriert, die mathematische Aufgabe bliebe invariant, d. h. dieselben Gleichungen würden numerisch statt analytisch gelöst. Im Lichte der bisher erfolgten Charakterisierung der Simulationsmodellierung scheint allerdings fraglich, ob ‚Lösung‘ hier ein glücklich gewählter Begriff ist. Da die Modellierung eine Transformation mit sich bringt, wird dasjenige, was als numerische Lösung bezeichnet wird, andere Eigenschaften aufweisen als die (oft unbekannte) analytische Lösung und folglich ist eben problematisch, ob überhaupt der Term ‚Lösung‘ eine zutreffende Bezeichnung ist. Das vorliegende Kapitel erörtert kritisch, inwiefern Simulationen eine numerische Lösung darstellen. Als Motivation sei an die Diskussion der Atmosphärenmodellierung im ersten Kapitel erinnert. Dort standen theoretische mathematische Modelle im Vordergrund, als System partieller Differentialgleichungen zur Modellierung der Dynamik der Atmosphärenzirkulation, die als System finiter Differenzengleichungen re-modelliert wurden. Dabei ergab sich, dass das Simulationsmodell nicht im eigentlichen Sinne das ursprüngliche mathematische Gleichungssystem löst. Wohl aber simulierte es die atmosphärische Dynamik auf eine adäquate (und vor allem auch numerisch stabile) Weise. Wenn von Lösung ‚im eigentlichen‘, strikten Sinne die Rede ist, so ist der mathematische Lösungsbegriff gemeint, also im Beispiel derjenige mathematische Ausdruck, der das System der Differentialgleichungen erfüllt. In einer breiten Beispielklasse der Natur- und Ingenieurswissenschaften, die sich nämlich der Sprache der Differential- und Integralrechnung bedient, oder sogar allgemeiner: der Sprache mathematischer Gleichungen bedient um theoretische Modelle zu formulieren, ist dieser strikte Begriff relevant. Oft wird Simulation als numerische Lösung gesehen (siehe z. B. Hartmann 1996 oder Dowling 1999), aber auch diese Redeweise muss, so werden wir sehen, differenziert werden. Im strikten Sinne ist eine Lösung allein durch das mathematische Gleichungssystem definiert, das gelöst wird. Eine quadratische Gleichung zum Beispiel lässt sich schreiben als a·x 2 + b·x + c = 0 und Lösungen sind genau diejenigen Zahlen x, die diese Gleichung (zu vorgegebenen Zahlen a, b, c) erfüllen. Es kann in diesem Falle mehrere, nämlich zwei,
126
6 Lösung oder Imitation?
Lösungen geben, das Kriterium ist aber strikt: Wenn man die vorgeschlagene Lösung einsetzt, so wird die Gleichung erfüllt oder nicht. In diesem Falle gibt es sogar eine exakte Formel, wie man zur Lösung gelangt. Das wird in komplizierteren Fällen nicht so sein, vielmehr kann man durchaus auch in einem numerischen Verfahren eine Lösung finden, wie etwa in algorithmischen Verfahren zur Bestimmung eines lokalen Maximums, die manchmal auch ohne den Computer praktikabel sind. Wird jedoch ein vorgegebenes kontinuierliches Modell durch ein diskretes Simulationsmodell ersetzt, so stellt die Lösung des diskreten Modells noch nicht eine Lösung des kontinuierlichen dar. Dazu benötigte man eine exakte Beziehung zwischen den beiden. Neben diesem strikten Sinn kann man auch in einem pragmatischen Sinne von einer numerischen Lösung eines Problems sprechen. Eine solche Lösung wäre dann in einem quantitativ-numerischen Sinne gut genug, das fragliche Problem zu lösen. Man könnte etwa eine Zahl suchen, die eine Gleichung bis auf eine bestimmte Ungenauigkeit erfüllt, also zum Beispiel eingesetzt in eine Gleichung der Art wie oben einen Wert nahe der Null ergibt.Wenn das Kriterium nahe der Null zu sein, genau spezifiziert ist, so ist damit auch festgelegt, was als Lösung gilt und was nicht. In diesem Falle wird Lösung durch eine Adäquatheitsbedingung definiert, die einem mathematisch präzisen Sinn folgen kann, aber nicht muss. Eine solche Bedingung könnte davon abhängen, was in einem bestimmten Kontext gut genug funktioniert. Der pragmatische Lösungsbegriff ist daher logisch gesehen komplizierter als der strikte. Im meteorologischen Beispiel (Kapitel 1) stellt die Simulation eine pragmatische (aber keine strikte) Lösung der Dynamik der Atmosphäre dar. Es werden Strömungsmuster generiert, die ähnlich genug sind, wobei nicht quantitativ präzise definiert ist, wann etwas als adäquat gilt. Der pragmatische Lösungsbegriff ist natürlich allgemeiner als der strikte, in dem der Kontext sozusagen komplett in der Gleichung fixiert ist. Der pragmatische Begriff lässt dementsprechend einen weiteren Verwendungsbereich zu und ist gar nicht unbedingt mathematisch verfasst. So kann etwa der Trainer einer Fußballmannschaft durch eine Auswechslung im Spiel eine Lösung finden für das Übergewicht der gegnerischen Mannschaft im Mittelfeld. Computersimulationen sind immer numerisch, liefern im Erfolgsfall also eine pragmatische und im Ausnahmefall obendrein eine strikte Lösung. Es bleibt festzuhalten, dass der strikte Begriff echt spezieller ist: (i) Nur wenn ein theoretisches mathematisch formuliertes Modell als Vorlage vorhanden ist, ist eine strikte Lösung überhaupt definiert. (ii) Selbst wenn sie definiert ist, wird diese strikte Lösung von der Simulationsmodellierung selten wirklich geliefert.
6 Lösung oder Imitation?
127
Die identifizierende Redeweise von Simulation als numerischer Lösung vermischt den strikten mit dem pragmatischen Sinn von Lösung und ist daher problematisch. Denn sie lässt ein weit verbreitetes, aber falsches Bild entstehen, dem gemäß Simulation eine geradlinige Fortsetzung traditioneller mathematischer Modellierung wäre. Durch Simulation würden analytisch unlösbare Probleme einer numerischen Lösung zugeführt – vergleichbar einem Automobil, das im Schlamm steckenbleibt, durch Zuschalten des Vierradantriebs aber dann doch vorankommt. Genauer betrachtet entspricht dieses Bild keineswegs der Art und Weise, wie Simulationsmodellierung vorgeht. Um ein angemesseneres Bild zu zeichnen ist es unerlässlich, diejenigen Modellierungsschritte in den Blick zu nehmen, die bei der Simulationsmodellierung hinzukommen und die theoretische mit instrumentellen Komponenten verbinden. Daher, so die hier vertretene These, wird die Dynamik des theoretischen Modells durch diejenige des Simulationsmodells (nur) imitiert. Dafür finden sich bereits ausführlichere Argumente in Kapiteln 1 (finite Differenzen) und 2 (zelluläre Automaten). Nachfolgend werden zwei grundlegende und einander widerstreitende Auffassungen der Simulation unterschieden, die beide allerdings in reiner Form nicht haltbar sind, wie wir sehen werden. Der erste Typ geht von der Unzulänglichkeit des analytischen Instrumentariums bei der Lösung mathematischer Gleichungen aus und fasst Simulation als numerische Lösung von Gleichungen auf. Der zweite Ansatz verfolgt eine fast gegenläufige Stoßrichtung, gemäß der der Begriff der Lösung keine Rolle spielt und Simulation vielmehr als Imitation des Verhaltens eines komplexen Systems durch ein Computermodell aufgefasst wird. Der Widerstreit dieser Auffassungen wird anhand des Verhältnisses der Simulationspioniere John von Neumann und Norbert Wiener dargestellt. Er prägt die Typologie der Simulation quasi von Anbeginn. Beide Vorstellungen von Simulation – Lösung und Imitation – stellen konzeptionelle Entwürfe dar, die in der Praxis kaum in Reinform auftreten. Mehr noch, jede der reinen Lehren geriet nach den Jahren der Pionierzeit in Probleme. Sie bedürfen im Gegenteil der Kombination miteinander, um erfolgreich zu sein. Die Konsolidierung und Verbreitung der Simulationsmodellierung geht mit einer Kombination der beiden Typen einher. Dabei können Anteile von Lösung und Imitation je nach Fall variieren, wie das durch einige Beispiele veranschaulicht wird. Die Kombinationsthese fußt darauf, dass die Simulationsmodellierung zwischen zwei widerstreitenden Kräften zu vermitteln hat: theoretischem Verständnis und epistemischer Qualität auf der einen und Anwendbarkeit auf der anderen Seite. In weiten Teilen der Wissenschaft hat man es mit einem Kompromiss zwischen diesen divergierenden Kräften zu tun und der interessante Punkt an der Simulation liegt darin, auf welche Weise der Ausgleich erreicht, bzw. die widerstreitenden Typen kombiniert werden.
128
6 Lösung oder Imitation?
6.1 Typologie und Pioniergeschichte Wesentliche Teile der Pionierarbeit im Zusammenhang mit der Entwicklung von elektronischen Computern wurden in den 1940er Jahre geleistet. Der staatlichen – und vornehmlich kriegsrelevanten – Forschung kam dabei der hauptsächliche Part zu. Diese Entwicklungsgeschichte ist eine vielschichtige Angelegenheit, bei der Techniker, Technologien, Institutionen sowie mathematische und logische Konzepte eine Rolle spielen.¹ Ich möchte mit John von Neumann und Norbert Wiener zwei Wissenschaftler herausgreifen, deren Verhältnis etwas für Simulation Exemplarisches zeigt. Beide waren brillante Mathematiker und während des zweiten Weltkriegs eingebunden in die militärische Forschung. Heims (1980) hat der Gegenüberstellung dieser beiden Personen eine eigene Monographie gewidmet, in der die unterschiedlichen Weisen, in der die beiden ihre Forschungen und Ambitionen lenkten, erörtert werden. Ich möchte Heims’ Untersuchung etwas hinzufügen, nämlich die wissenschaftsphilosophische These, dass die Kontroverse zwischen von Neumann und Wiener nicht nur auf deren idiosynkratisches Verhältnis, sondern (auch) auf deren komplementäre Konzeptionen von Simulationsmodellierung zurückzuführen ist. Zunächst hatten beide die Vision, dass die neue Computertechnologie eine Herausforderung wäre für neue mathematische Modellierungsansätze. Sie planten, ihre Kräfte mit weiteren Kollegen in einer interdisziplinären Gruppe zu bündeln, um die neuen Möglichkeiten des in der Entwicklung befindlichen Computers als Instrument für die Wissenschaft zu erforschen. In diesem Zusammenhang wurde die Teleological Society aus der Taufe gehoben, die spätere Cybernetics Group, die sich das erste Mal noch geheim, um das Reglement für potenziell kriegswichtige Forschungen konspirativ zu umgehen, im Januar 1945 (in Princeton) traf, offiziell dann ab 1946 in New York und nachfolgend auf insgesamt 10 Macy Konferenzen. Die Zusammenarbeit dauerte jedoch nur kurz, ehe von Neumann die Gruppe verließ. Wiener, der am MIT arbeitete und ein Faible für die Ingenieurswissenschaften pflegte, war zu dieser Zeit hauptsächlich mit dem Entwurf und der Konstruktion eines konkreten Apparates befasst. Er arbeitete gemeinsam mit dem Ingenieur John Bigelow im Auftrag des National Defense Research Committee (NDRC) an
Eine an Maschinen orientierte historische Darstellung liefert Ceruzzi (2003). Eine Einbettung in den Kontext des kalten Krieges aus der Perspektive der Wissenschaftsforschung bieten Edwards (1996) und Akera (2006). Sie stellt einen Paradefall dar für die wechselseitige Beeinflussung von Anwendung und wissenschaftlicher Forschung, also für Anwendungsinnovation oder sogar -dominanz (zu diesem Begriff vgl. Carrier 2006).
6.1 Typologie und Pioniergeschichte
129
einer computerbasierten Zielvorrichtung für ein Flugabwehrgeschütz, dem sogenannten Anti-Aircraft-Predictor. Galison (1994) und Heims (1980) sehen mit guten Gründen die Kybernetik aus diesem Projekt erwachsen. Diese Arbeiten basierten direkt auf Wieners mathematisch-statistischen Theorien über Filterung von Daten, einem sehr allgemeinen Ansatz zur Vorhersage bei unvollständiger Information. Unabhängig von (und gleichzeitig mit) Claude Shannon formulierte Wiener die Informationstheorie aus einer radikal statistischen Perspektive. Bekanntlich ist der Informationsgehalt in diesem Sinne ganz etwas anderes als der Bedeutungsgehalt, nämlich ein Maß für die Unvorhersagbarkeit. In diesem Sinne kommt einer zufälligen Zahlenfolge maximaler Informationsgehalt zu, ja jede weitere Zahl überhaupt nicht aus den bisher vorliegenden Informationen vorherzusagen ist – sie besitzt in diesem Sinne vollen Informationsgehalt. Wieners Projekt am NDRC bestand darin, aufgrund der an wenigen Stellen beobachteten Flugbahn die Position eines Flugzeugs mittels mathematisch-statistischer Methoden vorherzusagen, um das Geschütz auszurichten. Wiener schrieb diesem militärischen Forschungs- und Entwicklungsauftrag eine philosophische Bedeutsamkeit zu, indem er es in einen allgemeineren Kontext stellte. Für ihn entsprach diese Aufgabenstellung genau der grundlegenden erkenntnistheoretischen Situation der Menschen, die von Nichtwissen gekennzeichnet ist. Es geht dann um zielgerichtete Handlungen unter unvollständiger Information. Statistische Mustererkennung (pattern recognition) stellte für ihn diejenige mathematische Modellierungsstrategie dar, die auf detaillierte Annahmen, durch welche Mechanismen die Muster entstehen, verzichtete und so quasi mit dem prinzipiellen Nichtwissen rechnen und es instrumentell kompensieren konnte, so dass Vorhersagen (im Falle der Visiervorrichtung eindeutig im Dienste der Intervention) möglich wurden. Konkret auf das NDRC-Projekt bezogen bedeutete das, mit nur sehr sparsamen Annahmen darüber, nach welchen Gesichtspunkten ein Pilot ein Flugzeug steuert, dessen Position vorherzusagen. Es ging also nicht um Vorhersage neuer Phänomene, sondern eher um Vorhersagen im logischen Sinne, nämlich die Fortsetzung eines Musters betreffend, dessen erste Teile bereits bekannt sind. Wiener war fasziniert von der militärischen Aufgabe, nicht nur die Position theoretisch zu bestimmen, sondern gleichzeitig ein Gerät mittels servo-elektrischer Aktuatoren – ein Prototyp einer automatischen Zielvorrichtung – zu konstruieren. Das NDRCProjekt wurde nicht zum Abschluss gebracht. Ungeachtet dessen erwuchs aus ihm Wieners dauerhaftes Interesse an der Verbindung von Regelvorgängen und zielgerichtetem Verhalten. Er maß ihr eine große philosophische Bedeutsamkeit zu und sah durch die Zusammenführung der neuen Technologien für automatisierte
130
6 Lösung oder Imitation?
Regelung mit seinen mathematisch-statistischen Theorien eine neue Epoche anbrechen, das kybernetische Zeitalter:² If the seventeenth and early eighteenth centuries are the age of clocks, and the later eighteenth and nineteenth centuries constitute the age of steam engines, the present time is the age of communication and control. (Wiener 1948, 39)
Auch John von Neumann, nach frühen Göttinger Arbeiten zur Quantenmechanik in die USA emigiriert und nun ein einflussreicher Mathematiker am Institute for Advanced Studies in Princeton, erkannte früh die grundlegende Bedeutung der neuen Computertechnologie. Er war sowohl bei der konzeptionellen Entwicklung dieser Technologie beteiligt,³ wie auch bei der Erfindung neuer Simulationsansätze, wie das Galison (1996) im Falle der Entstehung der Monte Carlo Simulation im Kontext des Manhattan Projekts beschreibt. Ein anderer Fall wäre die Automatentheorie, die von Neumann unter Zuhilfenahme der Einfälle von Stanislaw Ulam als Theorie zellulärer Automaten verfolgte.⁴ Kurz: beide Protagonisten stellten sich die Frage, wie die neue wissenschaftliche Disziplin auszusehen habe, die den Computer zu einem allgemeinen Instrument erhebt, und welche Art von mathematischer Modellierung angemessen wäre. Und beide starteten von der Mathematik und der Frage danach, wie computerbasierte ‚Lösungen‘ aussehen könnten. Bei aller Gemeinsamkeit vertrat von Neumann jedoch einen sehr viel formaleren und, wenn man so will, optimistischeren Standpunkt, der den Computer als ein Hilfsmittel für die mathematische Theoriebildung ansah und ingenieurmäßige Anwendungen höchstens als empirische Inspiration dazu. Zwar war es von Neumann klar, dass der mathematischen Modellierung Grenzen gezogen waren, aber diese Grenzen waren seiner Meinung nach durch die Erkenntnisse der Mathematik und Logik selbst aufzudecken. Beispielsweise bewunderte er Gödels Unvollständigkeitssatz als ein Resultat überlegener Logik, die solche Grenzen einzusehen vermag.
Vgl. dazu Wiener (1948). Er betrachtete sich selbst als den entscheidenden Gründer. Mindell (2002) jedoch hält das für einen von Wiener selbst etablierten Gründungsmythos, der Wieners mathematische Arbeiten überbewerte und Kontext wie Bedeutung der Ingenieurswissenschaften nicht adäquat berücksichtige. Das berühmte Dokument zum EDVAC (von Neumann 1945) skizziert die heute so genannte vonNeumann-Architektur. Vgl. die Kapitel 16 – 18 aus Ulams Buch (1986), die von Neumann gewidmet sind.
6.2 Kontroverse
131
6.2 Kontroverse Schon in der Planungsphase der Cybernetics Group zeichnete sich eine Sollbruchstelle ab, die in unterschiedlichen Auffassungen der Begriffe Imitation, Verstehen und Modellieren begründet war.Wiener entwarf die Kybernetik als eine Wissenschaft, die Phänomene und Modelle nach Funktionalität und Verhalten, nicht nach Material und innerer Struktur erforschen sollte. Ashby betont das in seiner (an Wiener orientierten) Einführung zur Kybernetik: Cybernetics … does not ask ‚what is this thing?‘ but ‚what does it do?‘ Thus it is very interested in such a statement as ‚this variable is undergoing a simple harmonic oscillation‘, and is much less concerned with whether the variable is the position of a point on a wheel, or a potential in an electric circuit. It is thus essentially functional and behaviouristic. (Ashby 1957, 1, Hervorhebung im Original)
Eine Funktion in diesem Sinne ist multipel realisierbar, da vom inneren Aufbau, vom Mechanismus, der ein bestimmtes Verhalten hervorbringt, abgesehen wird. In Übereinstimmung mit dem damals modernen Behaviorismus in der Psychologie ging es um das Verhalten unter Absehung der Mechanismen, somit gebraucht Ashby einen schwachen Begriff von Funktionalismus. Wiener betrachtete Verhalten und dessen Steuerung mittels Rückkopplungsprozessen als philosophische Einheit und behandelte insbesondere Menschen und Maschinen ganz analog. Diese Herangehensweise unterfütterte er mit einer funktionalistischen Auffassung von Modellen. In einem Aufsatz mit Rosenblueth hat er herausgestellt, was Modelle leisten sollen: „The intention and the result of a scientific inquiry is to obtain an understanding and a control of some part of the universe. This statement implies a dualistic attitude on the part of scientists.“ (Rosenblueth und Wiener 1945, 316) Es bestehe nämlich keine Gewähr, dass das Bemühen um Kontrolle auch zu einem Verständnis führe – und umgekehrt. In diesem Zusammenhang führen sie eine Unterscheidung an zwischen ‚Open-Box‘ und ‚Closed-Box‘ (oder auch, heute üblicher: Blackbox‐) Ansätzen. Die Terminologie ist aus der Kommunikationstechnologie übernommen, wo ClosedBox-Testverfahren verwendet werden, die ein Gerät nach seinem Input-OutputVerhalten beurteilen, ohne Ansehen der innen befindlichen Schaltungen und Mechanismen. Allgemeiner stehen Open-Box-Modelle, welche eine mehr oder weniger detaillierte Umsetzung der Struktur und Mechanismen der modellierten Phänomene repräsentieren, den Blackbox-Modellen gegenüber, die nur in Hinblick auf ihr Verhalten, funktional also, modellieren, ohne Aussagen über die innere Dynamik der imitierten Phänomene zu machen. Man kann diese Differenz als schwachen und starken Standpunkt auffassen. Während der schwache Funktionalismus die multiple Realisierbarkeit einschließt, lässt er die Frage nach
132
6 Lösung oder Imitation?
den Mechanismen und deren konkreter Umsetzung offen – es kommt auf die Kontrolle an. Der starke Standpunkt dagegen zielt auf ein tieferes Verständnis ab und das kommt ohne die Spezifizierung der Mechanismen nicht aus. Wiener hält zwar den starken Ansatz durchaus für wünschenswert, aber für wenig aussichtsreich angesichts der limitierten menschlichen Erkenntnisfähigkeiten. Er verteilt seine Sympathien eindeutig: Wenn es die Komplexität der Anwendungssituation gebietet, geht Kontrolle vor Verständnis.⁵ John von Neumann nahm bezüglich des erwähnten Dualismus eine zu Wiener entgegengesetzte Haltung ein und verband entsprechend eine ganz andere Modellierungsstrategie mit Simulation, die nämlich der starken Auffassung zum Durchbruch verhelfen sollte. Das zeigt sich in einem langen Brief, den von Neumann 1946 an Wiener geschrieben hat, also in der Zeit der gemeinsamen Projektplanung.⁶ Dort kritisierte von Neumann die Wahl des menschlichen Zentralnervensystems als vorrangiges Objekt der Modellierungsanstrengungen, da es zu komplex sei, und er machte den Vorschlag, die Forschungsagenda der Cybernetics Group zu verändern. Ganz im Sinne der klassischen Strategie zur Komplexitätsreduktion schlug er Viren als die besser geeigneten Untersuchungsobjekte vor. In diesem Brief versuchte er Wiener schmackhaft zu machen, dass der Virus ein kybernetisches Objekt in seinem Sinne (zielgerichtetes, feedback-gesteuertes Verhalten) sei, aber der Brief dokumentiert auch eine divergierende Konzeption der Modellierung. What seems worth emphasizing to me is, however, that after the great positive contribution of Turing – cum – Pitts – and – McCulloch is assimilated, the situation is rather worse than better than before. Indeed, these authors have demonstrated in absolute and hopeless generality, that anything and everything Brouwerian can be done by an appropriate mechanism and specifically by a neural mechanism – and that even one, definite mechanism can be ‚universal‘. Inverting the argument: Nothing that we may know or learn about the functioning [Betonung hinzugefügt, jl] of the organism can give, without ‚microscopic‘, cytological work any clues regarding the further details of the neural mechanism.” (Masani 1990, 243)
Daher übrigens übertreibt Galison (1994), wenn er die Blackbox-Modellierung umstandslos mit einer „Ontologie des Feindes“, der undurchschaubar, weil böswillig ist, zusammenbringt. Galison sieht eine generelle Verbindung von kriegerischer Motivation und Blackbox-Modellierung. M.E. geht es hier um ein vorrangig epistemologisches Argument, dass (schwach‐)funktionalistische Modellierung zur Kontrolle (im Sinne von Vorhersagbarkeit) dienen kann, schon dann, wenn auf einer lediglich performativen Ebene imitiert wird. Dieser Brief wurde spät in Wieners Nachlass aufgefunden und erst in dessen Biographie (Masani 1990) veröffentlicht. Daher ist er (noch) nicht Gegenstand der einschlägigen älteren Publikationen zu von Neumann, insbesondere Aspray (1990).
6.2 Kontroverse
133
Er spielt hier auf die Ergebnisse von Turing über Berechenbarkeit und die Universalität der Turingmaschine an (die dem digitalen Computer ziemlich genau entspricht), sowie auf die artifiziellen neuronalen Netzwerke (ANN), von denen McCulloch and Pitts, übrigens auch Teilnehmer der Cybernetics Group, zeigen konnten, dass sie ebenso universell wie eine Turingmaschine arbeiten können. „Brouwerian“ schließlich spielt auf den Mathematiker Brouwer an, dessen sogenannter Intuitionismus verlangte, die Mathematik auf abzählbar unendliche Verfahrensweisen zu beschränken. In der Tat ist das ja für Turingmaschinen, ANNs, sowie elektronische Computer ohnehin der Fall. Es ist bemerkenswert, dass diese Stelle im Grunde eine komplette Absage an Wieners Programm der Kybernetik enthält. Aus einer erfolgreichen Imitation des Verhaltens („functioning“) kann man gerade wegen der Leistungs- und Anpassungsfähigkeit der Simulationsmodelle nichts über die originalen Mechanismen lernen. Man sollte nicht vergessen, dass die Anpassungsfähigkeit zwar theoretisch abgesichert war, aber doch eher von prinzipieller denn von praktischer Relevanz. Der Beweis der Existenz eines ANNs für jedes beliebige Verhalten ist eben etwas ganz anderes als die Angabe eines ANNs mit einem bestimmten Verhalten. Im Prinzip zumindest trifft die Überlegung den Nagel auf den Kopf: Der Weg von einer an Funktionen orientierten zu einer an Mechanismen orientierten Modellierung wäre praktisch kaum auffindbar. Die Plastizität der Simulation war in Kapitel 3 als strukturelle Unterdeterminiertheit analysiert und als ein Merkmal der Simulationsmodellierung erwiesen worden. Sie blockiert von vorneherein den Rückschluss von gelungener Imitation auf die modellierten Mechanismen. Es besteht hier eine Asymmetrie der Kombination: Ein starker Ansatz kann durch instrumentelle Maßnahmen in einen Anwendungskontext eingepasst werden, während es kaum gelingt, einen von vorneherein funktionalistischen (instrumentalistischen) Ansatz hinterher um ein ‚starkes‘ Rückgrat zu ergänzen. Wiener, so darf man vermuten, würde darin eine Bestätigung seines Ansatzes sehen: Die Imitation eines komplexen Phänomens soll gar nicht so sehr von der Simulation der erzeugenden Mechanismen abhängen. Von Neumann jedoch sieht in derselben Überlegung ein Gegenargument statt einer Bestätigung, einen modus tollens statt eines ponens: Ohne den prinzipiellen Gegensatz zu Wiener zu realisieren (oder jedenfalls anzusprechen), macht er die Möglichkeit struktureller Modellierung zum Kriterium der Forschungsplanung und schlägt vor, das menschliche Nervensystem durch den Virus als Forschungsobjekt zu ersetzen. Now the less-than-cellular organisms of the virus or bacteriophage type do possess the decisive traits of any living organism: They are self reproductive and they are able to orient
134
6 Lösung oder Imitation?
themselves in an unorganized milieu, to move towards food, to appropriate it and to use it. Consequently, a ‚true‘ understanding of these organisms may be the first relevant step forward and possibly the greatest step that may at all be required. I would, however, put on ‚true‘ understanding the most stringent interpretation possible: That is, understanding the organism in the exacting sense in which one may want to understand a detailed drawing of a machine – i. e. finding out where every individual nut and bolt is located, etc. (Zitiert nach Masani 1990, 245).
Ziel ist ‚echtes‘ oder ‚wahres‘ Verständnis und das erfordert die Arbeit mit strukturell isomorphen Mechanismen. Anders gesagt macht von Neumann den starken, mechanistischen Ansatz zur Grundlage und ist bereit, den Gegenstand der Modellierung so zu modifizieren, dass die Strategie Erfolg verspricht. Er setzt hier ganz auf epistemische Transparenz, auf ideale Intelligibilität, die durch mathematische Modellierung erreicht werden soll – und auf die letztere für ihn eben auch verpflichtet ist. Ziel ist eine open box mitsamt Blaupause und Simulationsmodellierung ist willkommen, wenn sie diesem Ziel dient.⁷ Kurz, von Neumann setzt sich zugunsten der starken von der schwachen Auffassung der Modellierung ab und nimmt das Imitationsvermögen, die Anpassungsfähigkeit, als Ausschlusskriterium – nur imitierende Modelle sind schlechte Modelle – während genau diese Fähigkeit die Grundlage abgab für Wieners hochfliegende Erwartungen an die Kybernetik! Der Brief blieb ohne direkte Antwort von Wieners Seite. Man kann diese Kontroverse um die Konzeption der Simulationsmodellierung als Sollbruchstelle der gemeinsamen Vorhaben ansehen. Im Grunde setzten beide ihre Forschungsagenda durch: Wiener etablierte die Kybernetik in seinem Sinne, während von Neumann die ursprünglich unter gemeinsamem Dach geplanten Vorhaben separat anging. Hier ist insbesondere die numerische Behandlung hydrodynamischer Gleichungen zu nennen, mit der Meteorologie als Paradefall.
6.3 Atmosphäre: Gesetze oder Muster? Dieser Fall ist schon deshalb aufschlussreich, weil hier die beiden Modellierungsstrategien direkt aufeinanderstoßen. Von vorneherein schien die Meteorologie, als globale numerische Wettervorhersage, von Neumann hervorragend geeignet, um die Möglichkeiten von Computermethoden zu testen, da sie mit theoretisch ausgereiften Gleichungen befasst war, die aber ein praktisch unlös-
Simulationsexperimente hat von Neumann ausdrücklich als potenzielle Hilfen bei der Umsetzung mit einbezogen.
6.3 Atmosphäre: Gesetze oder Muster?
135
bares System bildeten. Dabei hoffte er ursprünglich, dass Simulationen heuristische Hinweise geben könnten, die dann auf verbesserte mathematische Theoriebildung führen würden. Mit Jule Charney als Leiter einer Arbeitsgruppe am IAS in Princeton wurde dieses Projekt dann – als Anwendungsfall für den neu entwickelten und am IAS installierten Computer – unter von Neumanns Schirmherrschaft in Angriff genommen. Natürlich war klar, dass schon aufgrund der Beobachtungsungenauigkeit eine exakte Vorhersage von Wetterphänomenen schwierig wäre, aber von Neumann blieb optimistisch: Nonetheless, von Neumann’s attitude was to push the pure-dynamics approach to the limit by carrying the computation through in the best possible way. … The decaying accuracy of the prediction, the inevitable decay with time, was fought or ignored insofar as possible. (Heims 1980, 152/3)
Charneys Gruppe stand für von Neumanns Programm, erst die gesetzmäßigen Mechanismen zu bestimmen, die durch ein System partieller Differentialgleichungen repräsentiert werden, dann diese durch ein diskretes System von Differenzengleichungen zu ersetzen und dieses System schließlich mittels der Rechenkraft des Computers zu lösen. Es kann kaum überraschen, dass Wiener diesem Ansatz sehr kritisch gegenüberstand. Er selbst hat meteorologische Phänomene ebenfalls als Paradebeispiele angesehen, aber im Sinne der Analyse statistischer Muster, die für ihn kein Mittel zweiter Wahl, sondern unausweichlich war. Daher opponierte er gegen den von Neumann’schen ‚Lösungs‘ansatz. … it is bad technique to apply the sort of scientific method which belongs to the precise, smooth operations of astronomy or ballistics to a science in which the statistics of errors is wide and the precision of observations is small. In the semi-exact sciences, in which observations have this character, the technique must be more explicitly statistical and less dynamic than in astronomy. (Wiener 1954/5, 252)
Was er exakte Wissenschaften nennt, Astronomie und Ballistik, gesteht Wiener zu, einen starken, mechanistisch-dynamischen Ansatz zu verfolgen, während die semi-exakten Wissenschaften von Beginn an anders verfahren sollten. Das geht schon recht deutlich gegen von Neumann und die Charney-Gruppe, wie er das auch in seiner Autobiographie beibehielt: Recently, under the influence of John von Neumann, there has been an attempt to solve the problem of predicting the weather by treating it as something like an astronomical-orbit problem of great complexity. The idea is to put all the initial data on a super computing machine and, by a use of the laws of motion and the equations of hydrodynamics, to grind out the weather for a considerable time in the future. … There are clear signs that
136
6 Lösung oder Imitation?
the statistical element in meteorology cannot be minimized except at the peril of the entire investigation. (Wiener 1956, 259)
In der Meteorologie brach damit – zeitgleich mit der Einführung des Computers als Instrument – eine Kontroverse auf zwischen statistischen und dynamischen Ansätzen, die bis heute andauert. Gerade hier scheint auf den ersten Blick der von Neumann‘sche Lösungsansatz mit der Klimawissenschaft einen großen Erfolg errungen zu haben. Die genauere Analyse hat jedoch bereits in Kapitel eins aufgedeckt, dass der dynamische Ansatz an entscheidender Stelle durch instrumentalistische Komponenten erweitert wurde. Die langfristige Stabilität der Simulation atmosphärischer Phänomene wurde erst in den 1960er Jahren durch Arakawas Ansatz erreicht, der das Ideal der Approximation einer Lösung fallen ließ und kontrafaktische Annahmen hinzufügte, die wiederum auf der Ebene der Performanz gerechtfertigt wurden. Damit also beruht der spätere Erfolg auf einer Kombination von Neumann‘scher und Wienerscher, oder mechanistisch-dynamischer und funktionaler Ansätze. Das ist, so möchte ich behaupten, nicht allein der speziellen Situation in der Meteorologie geschuldet, sondern ist von allgemeinerer Bedeutsamkeit für die Simulationsmodellierung.
6.4 Konsolidierung durch Kombination Beide Modellierungsansätze haben in ihrer Reinform nur einen sehr beschränkten Anwendungsbereich. Ich möchte die folgende Kombinationsthese stark machen: Der Erfolg von Simulationen beruht zu einem wesentlichen Teil auf einer Kombination der beiden konfligierenden Ansätze. Man könnte in diesem Zusammenhang auch passend von Amalgamierung reden, in der sowohl Robustheit wie fehlende Einheitlichkeit mitschwingen. Immerhin kann man von numerischer Lösung sprechen und dabei auf den strikten Sinn von Lösung rekurrieren, wenn etwa die Approximation einer Nullstelle durch einen computerimplementierten exakten Algorithmus erfolgt. Im Grunde stellten ja bereits die Algorithmen, die für die schriftliche Berechnung per Hand entworfen wurden, Anleitungen für numerische Lösungen dar. Computer und Simulation kommen gar nicht wesentlich zum Tragen, außer als Beschleunigung und Arbeitserleichterung. Es wäre jedoch ein Fehlschluss, daraus eine Charakterisierung der Simulation abzuleiten, denn es handelt sich um Extremfälle. Weder Lösung (im strikten Sinne) noch Imitation können alleine großes Potenzial entfalten. Versteht man Lösung im strikten Sinne, so muss sie mit der
6.4 Konsolidierung durch Kombination
137
Inkommensurabilität der mathematischen Instrumente zurechtkommen: Im Computer können nur diskrete, schrittweise Algorithmen implementiert werden, während die traditionellen mathematisierten Darstellungen im Kontinuierlichen arbeiten. Es besteht aber kaum ein theoretischer Zugriff auf diskrete Dynamiken, sie müssen daher in explorativen Simulationsexperimenten erkundet werden. Der iterative und explorative Modus der Simulationsmodellierung macht generell eine Rückbindung an die ursprüngliche (mathematische) Formulierung schwierig, da das Modell gestützt auf wiederholtes Auswerten schrittweise verändert wird. Oder, das ist eine ganz andere Strategie, die zu lösende Aufgabe wird umformuliert, so dass der zusätzliche Approximationsschritt und damit die Inkommensurabilität wegfällt. Simulationsmodelle stehen dann für sich selbst und definieren die Aufgabe von vorneherein als mathematisch-diskrete. Weite Teile des articial life oder der artificial societies stehen für diesen Ansatz: Sie explorieren die Simulationsmodelle aus eigenem Recht. Anerkanntermaßen und unabhängig von Simulation wird die wissenschaftliche Agenda stark von Werten, Instrumenten, Interessen beeinflusst (Carrier 2009). In der Strategie der Aufgaben-Transformation hätten wir einen Fall vor uns, in dem den zur Verfügung stehenden Instrumenten ein quasi-definitorischer Charakter zukommt, d. h. sie kanalisieren die Forschungsfragen. Auf der anderen Seite ermangelt es Strategien, die sich nur der Imitation zuwenden, an Anhaltspunkten für eine effektive Anpassung und daher arbeiten praktisch alle Modelle mit gewissen Strukturannahmen. Eine berühme Schwäche der ANNs zum Beispiel besteht darin, dass eine adäquate Anpassung (‚Lernen‘) notorisch schwierig zu operationalisieren ist. Ihr Potenzial lässt sich meist nur über eine Modellierung realisieren, welche eine Teilstruktur vorgibt, an der die weitere Anpassung sich orientieren kann, bzw. auf die sie aufbauen kann. Letztlich ist die Kybernetik, so scheint mir, in ihrer Ambition ein Zeitalter zu prägen, daran gescheitert, dass sie zu strukturarm sein wollte. Meines Erachtens präsentieren sich mit den beiden Typen der Simulation (von Neumann vs. Wiener) visionäre Entwürfe sozusagen in Reinkultur, die aber erst dann erfolgreich in Anwendungen umgemünzt werden konnten, als sie miteinander kombiniert wurden. Die Meteorologie ist paradigmatisch für die Konsolidierung durch Kombination. Wie oben dargelegt war erst eine Mischform aus von-Neumann‘schen (Lösungs‐) und Wiener‘schen (Imitations‐)Anteilen erfolgreich. Leicht lässt sich eine Anzahl an Beispielen anführen. –
Keller (2003) konstatiert eine Konsolidierung der Simulation in den 1960er Jahren. Sie bezieht sich dabei auf den Aufschwung der Modellierung durch zelluläre Automaten (CA). Ich bezweifle jedoch die hervorgehobene Rolle der
138
6 Lösung oder Imitation?
CA-Modellierung, vielmehr werden hier ebenfalls die beiden Typen der Simulation amalgamiert. Sie ordnet sich daher ins hier entworfene Bild ein. Die räumliche Anordnung der Zellen und die Spezifikation der Wechselwirkung zwischen Nachbarn ist oft von theoretischen Erwägungen zu Mechanismen angeleitet (wie im Beispiel der Spiralgalaxien, siehe Kapitel 2). Dort schlägt die Inkommensurabilitätslücke durch: Wie wäre die kontinuierlich beschriebene Dynamik (der stochastischen Theorie) adäquat als diskretes CAModell umzusetzen? Steuernde Parameter, etwa die Geschwindigkeit der Verfeinerung der Zellen, werden strategisch eingesetzt. Sie können nur instrumentell bestimmt werden, durch den Abgleich mit dem erzielten Gesamtbild und sie bieten gleichzeitig ausreichend Manövrierraum, um eine Anpassung zu ermöglichen. Die Justierung der steuernden Parameter benötigt das iterierte Simulationsexperiment: Die visualisierten Resultate lassen sich so durch Variation der Parameter an die Phänomene anpassen, ohne dass dazu theoretische Überlegungen vonnöten (oder überhaupt nützlich) wären – eine Wiener‘sche Komponente. Ein kurzer Einschub zur Frage, ob die Kombination eine insgesamt realistische Deutung zulässt. Dies Vorgehen schließt nicht das realistische Argument aus, dass Erfolg letztlich immer auf realistischem Gehalt beruhe. Ich denke, dies Argument ist nicht wirklich durchschlagend, weil es zu schwierig zu widerlegen wäre – also zu wenig zeigt. Im besprochenen Fall bedient sich die Simulationsmodellierung der ‚Rückwärtslogik‘, die von hinten her über die Performanz argumentiert. Das wurde als typischer Bestandteil der Simulationsmodellierung ausgemacht und es trifft auch auf die Fälle zu, in denen die Performanz durch bewusst kontrafaktische Annahmen verbessert wird. Auch dort aber ließe sich das Realismusargument anbringen: Die adäquate Dynamik zeigt dementsprechend, dass der realistische Gehalt durch die instrumentellen Annahmen nicht wesentlich zerstört wird. Im Extremfall würde das Argument lauten: Erfolg spricht immer für Realismus. Dann wäre der Realismus aber seines anti-instrumentalistischen Kernes beraubt. –
Bei den sogenannten Fingerabdruck-Methoden in der Klimaforschung (Hegerl, Hasselmann u. a. 1997) wird die Temperaturverteilung auf der Erdoberfläche als Muster aufgefasst und statistisch ausgewertet. Es geht darum, ob die beobachteten Muster von simulierten Mustern diskriminiert werden können, wenn diese durch Modelle erzeugt werden, die keinen menschlichen Einfluss enthalten. Wenn ja, so stellt das den ‚anthropogenen Fingerabdruck‘ dar. Dieser ingeniöse Ansatz pfropft eine statistische Musterdiskriminierung – die komplexen dynamischen Wechselwirkungen werden nur als Netto-Effekt der Temperaturverteilung beachtet – auf eine von-Neumann‘sche Basis
6.4 Konsolidierung durch Kombination
–
–
–
139
(theoretische Klimadynamik) auf. Denn nur die theoretisch erfasste Dynamik erlaubt es überhaupt, menschliche Einflüsse (hypothetisch) herauszunehmen und zu simulieren, wie sich die Temperatur ohne sie entwickelt hätte. Bleiben wir bei der Klimawissenschaft. Die sogenannte Superensemble-Simulation kommt zum Einsatz, wenn es um die Kopplung verschiedener autonomer Simulationsmodelle geht. In der Klimaforschung werden Atmosphäre, Ozeane, Vegetation, Ökonomie und andere Bereiche aneinander gekoppelt. Ensemble-Simulation meint, dass die Resultate nicht für einen einzigen Anfangswert, sondern für eine ganze Bandbreite von Parametern betrachtet werden. Superensemble-Simulation treibt das eine Stufe weiter und variiert ganze Parametrisierungen und komplette Modelle. Syukuro Manabe, der Klima-Simulations-Pionier und Mit-Entdecker des Treibhauseffekts, hat hierin einen bedeutenden Bruch erkannt zwischen den älteren, an der Physik orientierten, dynamischen Ansätzen der Meteorologie und der neuen sogenannten Earth System Analysis. Letztere möchte die Komplexität des Klimasystems weitgehend im Modell erfassen, bzw. im Zusammenschluss vieler disziplinärer Teil-Modelle. Das aber macht eine ‚starke‘ Strategie, die immer auf Komplexitätsreduktion aus ist, um die wirkenden Mechanismen zu isolieren und zu verstehen, praktisch unmöglich (mehr zu den Grenzen der Analyse in Kapitel 7). In gewisser Weise hatte von Neumann in einer ähnlichen Situation dafür plädiert, sich auf Viren zu beschränken, anstatt das ungleich komplexere Zentralnervensystem als Objekt zu wählen. Damals allerdings ging es um Pionierarbeiten, während im Falle des Klimas diese Freiheit nicht mehr besteht. Schon aus politischen Gründen muss das komplexe System gewählt werden. Mit der Variation ganzer Teilmodelle, wie in der Superensemble-Simulation, bleiben allerdings die Mechanismen zwischen den Modellläufen gar nicht stabil, insofern sie über Modelle hinweg variieren. Und so zeigt sich hier exemplarisch, wie epistemische und Anwendungsgesichtspunkte gegenläufige Kräfte entwickeln und daher nicht schlicht kumuliert werden können, sondern vermittelt werden müssen. In der Hurrikan-Vorhersage werden allgemeine meteorologische Modelle verwendet, die dann durch Hinzufügung spezifischer Parametrisierungsschemata auf Hurrikans ‚getrimmt‘ werden. Am Beispiel des Hurrikans Opal hatten wir in Kapitel 3 diskutiert, dass sich Blackbox-Schemata, die überhaupt keine physikalische Interpretation besitzen, gegenüber mikrophysikalischen Annahmen als überlegen erwiesen, wenn es um die Simulation des kleinräumigen Verhaltens, hier: des Weges, den der Sturm nimmt, geht. Dem übergeordneten Modell, das selbst bereits eine Mischform ist, gleichwohl
140
–
–
–
6 Lösung oder Imitation?
erheblich auf theoretischen Mechanismen beruht, wird so eine funktionalistische Blackbox-Komponente hinzugefügt. Neuere Ansätze versuchen mit der durch die computergestützte DNA-Analyse ausgelösten Datenflut zurechtzukommen, indem sie die Genkodierung per Bildverarbeitung entschlüsseln (Kauer and Blöcker 2003). Diesmal werden Wiener‘sche Verfahren vorgeschaltet, um statistisch als unwichtig klassifiziertes ‚Genrauschen‘ wegzufiltern, und danach die richtigen Kandidaten für eine feinere, struktur-orientierte nicht-statistische Analyse zu erhalten. Artifizielle neuronale Netze (ANN) können als Modellklasse ein universelles Verhalten zeigen. Das bedeutet, sie können Phänomene imitieren, ohne deren dynamischen Mechanismus abzubilden. (Das motivierte von Neumanns Argumentation in seinem Brief an Wiener.) Das adäquate Verhalten wird ihnen vermittels einer Feedbackschleife ‚antrainiert‘, indem interne Gewichtungsparameter so verändert werden, dass die gewünschte Performanz entstehen soll. Es gibt zwar Fälle, in denen die Architektur solcher Netze bestimmte Vorbilder repräsentieren soll, aber in aller Regel besteht die Motivation eher darin, dass man auf Überlegungen zu den Mechanismen verzichten kann. Eine gute Illustration bieten die Arbeiten der AG Neuroinformatik von Helge Ritter an der Universität Bielefeld. Sie kombinieren einen Roboterarm, der sehr genau der menschlichen Physiologie entspricht, mit einer ANN-Steuereinheit, um die Bewegungen eines menschlichen Arms beim Greifen möglichst genau zu simulieren. Der nahezu isomorphe Nachbau des Arms (vgl. Abbildung 6.1) wird mit einer Steuerung kombiniert, die die Plastizität des Simulationsmodells ausnutzt, ja ausnutzen muss, da es an detaillierten Kenntnissen auf der Ebene der wirkenden Mechanismen über die tatsächliche Steuerung durch das menschliche Gehirn mangelt. Als letztes Beispiel in dieser Reihe mögen soziale Simulationen dienen, wie sie sich etwa aus den Pionierarbeiten von Thomas Schelling entwickelt haben. Dort beginnt man mit der Modellierung plausibler Mechanismen zwischen Akteuren, die dann notwendig durch eine Phase des experimentellen Abgleichs ergänzt wird, um einen relevanten Bereich zu finden, in dem man den Modellen Aussagekraft zutraut. Schellings ursprüngliches Modell der sozialen Segregation hatte nur sehr wenige Regeln, aber es brauchte sehr viel Geduld und Ausprobieren, bis die Regeln und Parameter so justiert waren, dass sich ein interessantes Phänomen ergab. In diesem Fall war das die Segregation aufgrund einer nur leichten Aversion gegen eine Überzahl an ‚anderen‘ Nachbarn. Natürlich sollte ein solches Modell auf Regeln setzen, die eine plausible Interpretation als soziale Interaktionen aufweisen. Gleichzeitig besteht ein funktionalistisches Element darin, dass die Regeln und Parameter erst aufgrund der experimentellen Erkundung ausgewählt werden können, da
6.4 Konsolidierung durch Kombination
141
ihr Zusammenwirken opak ist: Nicht die Plausibilität als Repräsentation (lokaler) sozialer Mechanismen gibt den Ausschlag, sondern das Zusammenwirken in der Erzeugung plausibler (globaler) sozialer Phänomene.
Abbildung 6.1: greifender Roboterarm vor greifendem Forscherarm, mit freundlicher Genehmigung von R. Haschke.
Das ist eine Beobachtung von prinzipieller Tragweite für die Simulationsmodellierung. Eine an Mechanismen orientierte dynamische Modellierung entscheidet sich im Lokalen. Was öfters schon in vorherigen Kapiteln als ‚Rückwärtslogik‘ benannt wurde, das systematische Ausrichten lokaler Parameter und Annahmen an der Performanz, ist dagegen eine globale Angelegenheit. Dies nehme ich als Indiz dafür, dass in der Simulationsmodellierung starke und schwache Anteile (im spezifizierten Sinne) kombiniert werden. Ein Charakteristikum läge dann darin, wie Simulationsmodelle die instrumentellen Komponenten im Vollzug der Modellierung einbringen können, nämlich in einem Modus, der in den Kapiteln 1– 5 als iterativ und explorativ beschrieben wurde. Insgesamt kann man feststellen, dass die beiden Typen, die in der Pionierzeit der Simulation als dynamische und funktionale Modellierung einander gegenüberstanden, auf vielerlei Weise miteinander kombinierbar sind. Nach der Pionierphase in den 1940er und 50er Jahren konsolidierte sich die Simulationsmodellierung. Die widerstreitenden Ideale der Erklärung durch transparente ModellMechanismen und der universellen Anwendbarkeit durch möglichst plastische Modelle wurden miteinander kombiniert. In Reinform mussten beide aufgegeben werden. Simulationsmodellierung als neuer Typ mathematischer Modellierung beinhaltet die Amalgamierung von Lösung und Imitation. Wie beide miteinander kombiniert und gegeneinander justiert werden weist über die verschiedenartigen Simulationen hinweg eine erhebliche Variationsbreite auf.
142
6 Lösung oder Imitation?
Ich möchte betonen, dass die Kombinationsthese nicht behauptet, in der Kombination der Strategien liege ein Allheilmittel. Erstens bedeutet Kombination widerstreitender Komponenten immer auch einen Verlust an Konsistenz. Zweitens gibt es keine Gewähr für praktischen Erfolg. Selbst dann, wenn wachsendes theoretisches Verständnis und Rechenkapazität zusammenkommen, müssen sie nicht Erfolge feiern. Das hängt entscheidend von der Komplexität der Situation ab – als Beispiel kann die Fusionsforschung dienen, vgl. Stöltzner und Carrier (2007). Überhaupt bezeichnet Komplexität auch die Begrenztheit des Computers: Simulationen können Strategien sein, die verbleibenden Möglichkeiten für komplexe Modellierung auszuloten, während die Schranken der Rechenkomplexität von Computern wirksam bleiben (aber mitunter schnell erreicht werden).
6.5 Alles nur Imitation? Noch bevor die Computersimulation als Instrument der Wissenschaften Verbreitung fand, wurde sie in der Wissenschaftsphilosophie im Rahmen der KI diskutiert. Ich möchte zeigen, dass diese ältere Debatte um die KI das gleiche Spannungsverhältnis zwischen ‚starken‘ und ‚schwachen‘ Ansätzen aufweist, das soeben bezüglich der Simulation erörtert wurde. In diesem Punkt könnte meines Erachtens die Diskussion in der KI von der Philosophie der Computersimulation profitieren. Ein grundlegendes Dokument der KI ist Alan Turings Abhandlung über „Computing Machinery and Intelligence“ (1950), in der er den Turing-Test einführt, den er als imitation game konzipiert. Eine Testperson gibt Fragen über ein Terminal ein und erhält Antworten von zweierlei Gesprächspartnern, nämlich von einem Menschen und von einem Computer. Kann der Tester unterscheiden, welche Antworten von der Maschine und welche vom Menschen stammen? Ein Computer, bzw. Computerprogramm, dessen Antworten diejenigen eines Menschen bis zur Ununterscheidbarkeit imitieren, hätte den Turing-Test bestanden und dadurch per definitionem künstliche Intelligenz gezeigt. Der Test bietet ein ausgeklügeltes Arrangement, um die funktionale Äquivalenz herauszufiltern – ein Computer soll sich wie ein Mensch verhalten, aber der mögliche Erfolg soll gleichzeitig unabhängig sein von den Mechanismen, die zur Simulation verwendet wurden. Turing verfolgte also eine schwache, funktionalistische Strategie. Der Computer soll menschliches Verhalten simulieren in dem Sinne, in dem Felix Krull erfolgreich eine Krankheit simuliert, so dass nämlich die Symptome gut übereinstimmen. Dieser Standpunkt ist kritisiert worden, weil er zu schwache Definitions- und Erfolgskriterien ansetzt – im Alltagsgebrauch schwingt bei Simulation und Si-
6.5 Alles nur Imitation?
143
mulant ja auch ein pejorativer Sinn mit. Demgegenüber fordert die Position der ‚starken‘ KI, dass es notwendig sei, auch die Mechanismen und die strukturelle Organisation des untersuchten Systems zu repräsentieren, bevor von Intelligenz die Rede sein könne. Dieser Streit ist als Kontroverse zwischen schwacher und starker KI bekannt und er entspricht der oben vorgestellten Typologie der Simulation. Keith Gunderson hat in seinem Vortrag „Philosophy and Computer Simulation“ auf der ersten PSA-Konferenz (1968) den Terminus der Simulation von Seiten der Philosophie in diese Debatte eingebracht. Allerdings verwendet er sie nicht im schwachen (Krull‐)Sinne, sondern behält sie dem starken Sinn vor: „the problem … of discerning when one subject (a machine) has done the same thing as another subject (a human being). And here ‚doing the same thing‘ does not simply mean ‚achieved similar end result‘.“ (1968, 46, Hervorhebung im Original) Entlang dieses Kriteriums grenzt er die ‚starke‘ kognitive Simulation von der ‚schwachen‘ KI (engl.: AI) ab: As an exercise in AI, successful pattern-recognition (with respect to given characters of the alphabet) would consist in emulation of the results of exercising this ability. As an exercise in CS [cognitive simulation], a successful pattern-recognition program would simulate the process by which that ability was exercised. (Gunderson 1968, 96)
Ohne Zweifel steht Gunderson auf der starken Seite und versteht Simulation als Simulation eines dynamischen Prozesses, der über Mechanismen spezifiziert ist. Vor dem Wortgebrauch von Simulation muss im Kontext der Philosophie des Geistes gewarnt werden. Der Terminus wird sowohl im schwachen wie im starken Sinn verwendet. (Man erkennt die Schwierigkeit für Gunderson, der auf „emulieren“ ausweichen muss, um Doppeldeutigkeit zu vermeiden.) Obendrein kann ‚Funktionalismus‘ in diesem Kontext auch eine starke Auffassung bezeichnen. Fodor oder Block verstehen ihn als eine auf die dynamischen Prozesse bezogene Position. Es geht freilich um mehr als eine bloße Frage der Definition. Gunderson gibt zweierlei Argumente an, weshalb nur die starke Variante angemessen ist. Beide Argumente finden sich in ähnlichen Varianten mehrfach in der Literatur und sie sind in besonderer Weise relevant, weil sie Computersimulation auch generell betreffen. Der erste und für Gunderson zentrale Punkt betrifft die Robustheit. Der „net-result“ Ansatz sei verfehlt, da nur die Art und Weise wie ein Resultat mittels eines Mechanismus erreicht wurde, einen Grund dafür geben könne, gute Resultate unter veränderten Bedingungen zu erzielen. Das ist ein starker Einwand auch gegen Simulationen, die zu wenig auf theoretischen, allgemeinen Annahmen aufbauen.
144
6 Lösung oder Imitation?
Ich möchte zweierlei anfügen. Erstens zu Gundersons Kritik an Turing: Letzterer schneidet vielleicht doch besser ab, da das Imitationsspiel eine ganze Bandbreite sprachlichen Verhaltens abdeckt. Eine Maschine wird also eine erhebliche Menge an Kompetenzen einbringen müssen, um erfolgreich sein zu können. Der Test reduziert zwar Intelligenz rabiat auf Sprache, deckt aber mehr als nur einen speziellen Bereich ab. Zweitens zur Robustheit generell: In praktischen Fällen wird Zuverlässigkeit eher mit harten technischen Testverfahren überprüft – gut funktionalistisch. Gunderson würde vielleicht eher bezweifeln, dass eine schwache Strategie jemals den Test bestehen könne. Das mag so sein, aber wenn sie es doch tut, ist das ein starkes Indiz.Wie sehr ein theoretisches Rückgrat nötig ist, um anpassungsfähig zu sein, ist wegen der großen instrumentellen Möglichkeiten (z. B. experimentelle Parametervariation) eines Simulationsmodells zumindest fraglich. Das zweite Argument von Gunderson kritisiert den Funktionalismus direkt: Ein Simulationserfolg im ‚schwachen‘ Sinne würde nicht das Problem lösen, um das es geht, nämlich etwas über die Natur der menschlichen Intelligenz zu erfahren. In diesem Sinne kann man John Searles „Chinese Room“ als Einwand gegen jede schwache Version der KI auffassen. Ich vermute, der Gegensatz stellt für die KI keine fruchtbare Alternative dar. Der Funktionalismus in der Philosophie des Geistes arbeitet mit der Analogie von menschlichem Gehirn und Computer. Nun hat die Analyse der Computersimulation ergeben, dass diese ganz wesentlich mit einer Kombination starker und schwacher Komponenten arbeitet. Daher scheint plausibel, dass auch die Debatte um KI, gerade wenn sie die Analogie stark macht, von der Analyse der Computersimulation profitieren könnte. Das ginge natürlich nur dann, wenn auch an gewissen Instrumenten orientierte Gesichtspunkte mit in die Diskussion und Modellierung einfließen können. Tatsächlich scheint mir das der Fall zu sein bei der neuen, roboterorientierten, oder ‚behavioral AI‘ (siehe Brooks 1991, 2002, Pfeifer und Scheier 1999, oder Steels und Brooks 1995). Sie trennt sich von der Reduktion auf Sprache und nimmt anderes menschliches Verhalten als Maß, etwa räumliche Orientierung oder das Greifen (wie in der oben angesprochenen Bielefelder Gruppe von Ritter.) Dabei soll es auf prozessualen Nachvollzug und nicht nur auf das Endergebnis ankommen. Gleichzeitig spielen Steuerungsmodule eine Rolle, die stark auf funktionalistische Komponenten setzen. Ich erkenne darin einen Versuch, ein ‚starkes‘ dynamisches Gerüst zu nutzen und dieses gleichzeitig instrumentell zu erweitern. Der erwähnte Greifarm der RitterGruppe ist exemplarisch für eine an Mechanismen orientierte Strategie, die instrumentalistische Komponenten zu kanalisieren vermag. Wenn derlei Ansätze Erfolge zeitigen, so spräche das dann doch gegen den Turing-Test als angemessenes Kriterium, da er jegliche Bandbreite für Kombination außer Acht lässt.
7 Validierung und Grenzen der Analyse Eine der zentralen Fragen der Epistemologie der Simulation dreht sich um die Validierung simulationsbasierten Wissens. Diesem Problemkreis muss sich jede wissenschaftliche Verfahrensweise stellen und da macht die Simulation keine Ausnahme. Nach welchen Kriterien lässt sich beurteilen, ob Simulationen valide sind? Von vorneherein ist zu erwarten, dass die Validierungsproblematik keine sehr homogene Antwort zulässt – zu vielfältig sind die Ziele, für die Simulationen eingesetzt werden und die Kontexte, in denen das geschieht.Was also zeichnet die Simulationsmodellierung hinsichtlich der Validierungsproblematik aus? Das vorliegende Kapitel gibt zweierlei Antwort: Sie erschwert die Validierung und kann sie in manchen Fällen sogar vor ein konzeptionell neues Problem stellen. Beiden Aspekten ist jeweils ein Teil dieses Kapitels gewidmet. Der erste Teil (7.1 bis 7.4) läuft im Ergebnis darauf hinaus, dass die Problematik der Validierung bei Simulationen schlicht verlängert wird. Sie enthalten gegenüber anderen mathematischen Modellierungen zusätzliche Schritte, insbesondere betrifft das den Übergang von theoretischen Modellen zu algorithmischen Implementierungen auf einer materiellen Maschine. Diese zusätzlichen Schritte können, insbesondere wenn sie einen explorativen oder instrumentellen Charakter haben, die Aufgaben für die Validierung erheblich erweitern. In diesem Sinne hat man bei Simulationen tatsächlich ‚mehr vom selben‘ – mehr problematische Modellierungsschritte, die einen erweiterten Umfang der Anforderungen bedeuten, aber keinen neuen Typ von Validierungsproblem aufwerfen.¹ Der Umfang der Modellierung wird auf indirekte Weise dann aber doch zum Problem, wenn die Simulationsmodelle ähnlich reichhaltig scheinen, wie die Wirklichkeit. Dann kann in der Praxis leicht untergehen, dass der Kontakt zur Wirklichkeit in der Validierung erst erhärtet werden muss und nicht etwa vorausgesetzt werden kann. Darauf hat bereits Robert Rosen aufmerksam gemacht: The danger arises precisely from the fact that computation involves only simulation, which allows the establishment of no congruence between causal processes in material systems and inferential processes in the simulator. We therefore lack precisely those essential features of encoding and decoding which are required for such extrapolations. Thus, although formal simulators are of great practical and heuristic value, their theoretical significance is very sharply circumscribed, and they must be used with the greatest caution. (Rosen 1988, 536)
Soweit haben die in Kapitel 5 ‚abgeklärte Konservative‘ genannten Philosophen wie Frigg und Reiss (2009) oder Stöckler (2001) gute Argumente.
146
7 Validierung und Grenzen der Analyse
Simulationen und überhaupt Computermodelle erschweren also die Validierung, gerade weil sie den Abgleich zwischen modellierten Prozessen und deren kausal wirksamen Partnern noch indirekter werden lassen, bzw. sogar fälschlicherweise die Überflüssigkeit dieses Schrittes suggerieren können. Die Validierungsfalle bei Simulationen bestünde dann darin, sie als Sonderfall zu betrachten, obwohl sie gar keiner sind. Die Mühen der Validierung werden durch umfangreichere Modellierungsschritte größer, nicht kleiner. Diese Perspektive ist jedoch ergänzungsbedürftig. Der zweite Teil des Kapitels (7.5 bis 7.13) behandelt ein besonderes Problem, das bei der Validierung auftritt, wenn komplexe Systeme oder Phänomene durch ebenfalls komplexe Modelle simuliert werden. Die globale Simulationsdynamik entsteht dann aus der Interaktion mehrerer Module, die zwar durch lokale Anpassungen gesteuert, aber nicht analytisch durchschaut werden kann. Die Validierung mathematischer Modelle hatte sich jedoch gerade an diesem analytischen Verständnis orientiert, bzw. es geradezu definiert. Bill Wimsatts Frage „What do we do when the complexity of the systems we are studying exceeds our powers of analysis?“ (2007, 75) ist dann für Simulationsmodelle relevant. Die Grenzen der Analyse werden als Problem virulent, wenn komplexe Interaktionen im Zusammenspiel mit modularem Aufbau die Modelldynamik bestimmen. Dann tritt systematisch ein besonderes Problem bei der Validierung auf, nämlich ein Problem des Bestätigungsholismus, wie das anhand des Beispiels der Klimawissenschaft erläutert werden wird.
7.1 Beweis und Verifikation Betrachten wir eine stufenweise Eskalation der Validierungsproblematik. Der Computereinsatz in der Mathematik selbst stellt einen vereinfachten Fall für die Modellierung dar, da die zu modellierenden Abläufe von vornherein mathematisch gefasst sind. Eine ebenso berühmte wie vieldiskutierte frühe Instanz für den Gebrauch des Computers stellt der Beweis des Vier-Farben-Theorems dar, den Appel und Haken (1977) vorgelegt haben.² Obwohl er eines der prominentesten und herausforderndsten Probleme der Mathematik löste, wurde diese Leistung in der mathematischen Gemeinschaft anfangs mit Reserviertheit aufgenommen. Das
Die Frage lautete:Wie viele Farben sind nötig, um eine beliebige Landkarte so einzufärben, dass angrenzende Länder verschiedenfarbig sind? Es gibt Beispiele, in denen vier Farben nötig sind, aber es war unbekannt, ob das auch immer ausreicht. Die Fragestellung war von Euler in ein Problem der zweidimensionalen Topologie überführt worden, aber auch er hatte keine Lösung angeben können.
7.1 Beweis und Verifikation
147
lag daran, dass Appel und Haken an entscheidender Stelle eine äußerst umfangreiche Fallunterscheidung durchführten, deren einzelne Fälle mittels eines Computeralgorithmus abgearbeitet wurden. Erst das Endresultat, die Meldung des Programms, dass alle Fälle positiv ausgingen, lieferte den Beweis. Das erschien unbefriedigend, weil ein so einfacher Satz wie „auf jeder Landkarte genügen vier Farben, um benachbarte Länder in verschiedenen Farben darzustellen“ einen eleganten und einsichtigen Beweis zu erfordern (und zu erlauben) schien. Die im Beweis angesetzte Fallunterscheidung jedoch ist so umfangreich, dass sie nicht von Menschenhand nachgerechnet werden kann. Schlimmer noch, der Beweis verzichtet auf jegliche Argumentation, wieso alle Fälle gut ausgehen. Kurz, dieser Beweis ist nicht auf das analytische Verständnis gebaut, das mathematische Beweise auszeichnen kann, sondern arbeitete allein mit dem maschinell gestützten Nachweis der Notwendigkeit dass die Behauptung gilt. Anfangs stand der Beweis sogar doppelt in der Kritik, denn neben dem ausbleibenden analytischen Verständnis war auch unklar, wie gewiss er denn überhaupt ist. Der analytische Zugriff hätte es erlaubt, den Beweisgang verstehend konzeptionell zu vollziehen, eventuelle Programmierfehler hätten dann nicht gleich das Ergebnis in Frage gestellt. So aber gab es ausschließlich die positive Rückmeldung seitens des Programms. Von der Konzeption her schien die Fallunterscheidung korrekt, aber führte der Computer auch wirklich aus,was er sollte? Das heißt implementierte das konkrete Programm die Fallunterscheidung auch fehlerfrei? Jeder Programmier- oder Hardwarefehler hätte das in Frage gestellt. Hier tut sich eine Art prover’s regress auf: Die Angemessenheit und Korrektheit des Programms müsste für sich genommen bewiesen werden; ein eigenständiger Schritt im Rahmen der Validierung, der in der Informatik als ‚Verifikation‘ bezeichnet wird. Ein Programm jedoch ist logisch-algorithmisch verfasst und einem mathematischen Beweis, jedenfalls einem verstehenden Beweis, nicht zugänglich: ‚Wieso‘ ein konkretes Programm seinen konzeptionellen Entwurf fehlerfrei umsetzt, ist eben nicht zu verstehen, sondern ist nur Symbol-für-Symbol der Implementierung zu entnehmen. Die Korrektheit des Programms wurde stückchenweise überprüft: man kann einzelne kleinere Teile auf Korrektheit inspizieren, sowie prüfen, ob das Programm in Fällen mit bekanntem Ergebnis dieses Ergebnis reproduziert, oder auch andere Computer verwenden, um zu kontrollieren ob das Resultat hardwareunabhängig ist. So verschwand der Zweifel allmählich und der Computerbeweis von Appel und Haken wurde als Beweis allgemein anerkannt. Die Kritik am fehlenden analytischen Verständnis blieb allerdings bestehen. Bereits in den Ausführungen zur epistemischen Opakheit (Kapitel 4) war von den Parallelen zwischen Simulationsmodellierung und Computerbeweisen die Rede gewesen. Tymoczko (1978) sieht das anstößige Hauptmerkmal des Compu-
148
7 Validierung und Grenzen der Analyse
terbeweises darin, dass er nicht überschaubar (unsurveyable) ist. Der Computereinsatz stellt nicht nur die überragende Gewissheit mathematischer Resultate in Frage, sondern raubt der Mathematik auch ein zentrales Kennzeichen ihrer Methode: die analytische Durchschaubarkeit. Die Simulationsmodellierung wird umfassender, oder ‚dicker‘, weil in einem Simulationsmodell mehrere Schichten zusammenkommen: die mathematische, deren konzeptionelle Umsetzung in Software und die konkrete Implementation. Als neues Problem tritt bei der Validierung hinzu, ob die Maschine auf der Ebene der ausführbaren Befehle genau diejenigen Anweisungen erhält, die dem konzeptionell verfassten Auftrag entsprechen.³ Immerhin ist der Computer dem Ideal nach eine logische Maschine und es gab und gibt eine starke Bestrebung in der Informatik, diese Fragestellung formal zu lösen, in dem Sinne, dass automatisch zu kalkulieren wäre, ob eine gegebene Anweisung, oder ein bestimmtes Programm, korrekt ist. Aufschlussreicherweise ist es höchst umstritten, ob eine Verifikation überhaupt möglich ist.⁴ So viel ist klar: In dem Maße, in dem die Verifizierung nicht analytisch erfolgen kann, wird die Validierung mathematischer Computermodelle sowohl einen konzeptionellen wie einen (quasi‐)empirischen, an der Performanz der Maschine orientierten, Anteil aufweisen.
7.2 Komplexität, Verifikation und Validierung Bis hierhin hat sich die Argumentation auf Computerbeweise in der Mathematik erstreckt. Simulationsmodelle verkomplizieren das Bild. Sie sind in einem ganz besonderen Maße Vermittler, wenn es darum geht, komplexe Phänomene auf der Basis einer theoretischen Beschreibung zu modellieren, wie das die Analysen der ersten fünf Kapitel dieses Buches ergaben. Das Geschäft der Modellierung wird immens ausgedehnt, sowohl was die Anzahl der Modellierungsschritte angeht – der explorativ-iterative Modus erfordert das – wie auch was die Spannweite angeht – formale und materielle Bedingungen fließen mit ein. Am Beispiel der Atmo-
Die weitere Frage, ob ein Computer stets hundertprozentig zuverlässig ausführt, was eine Programmiersprache befiehlt, sei hier ausgeklammert. Bei MacKenzie (2001) findet sich eine lesenswerte Zusammenstellung der Problematik. Im Prinzip, so meinten einflussreiche Informatiker wie Dijkstra, ist sie es. DeMillo, Lipton und Perlis (1977) argumentierten allerdings sehr überzeugend – vor dem Hintergrund anhaltender Erfolglosigkeit durchgreifender Mathematisierungsanstrengungen in der Informatik – dass in der Praxis keine echte Verifikation zu erzielen ist. Aus philosophischer Sicht erklärt Fetzer (1988) die Kluft für unüberwindbar, die zwischen einem formalen Beweis und der materiellen Umsetzung bezüglich einer konkreten Maschine besteht.
7.2 Komplexität, Verifikation und Validierung
149
sphärendynamik hatten wir gesehen, wie theoretische Fundierung und instrumentelle Maßnahmen im explorativen Modus der Simulationsmodellierung zusammenkommen und sozusagen gleichzeitig zur Validierung anstehen. Eine kurze Episode aus der Nanowissenschaft mag veranschaulichen, wie sehr Experimente, Simulationen und Theorien bei der Validierung ineinander geschachtelt und aufeinander angewiesen sind. Die Instrumente, die vermutlich am meisten zum Aufkommen der Nanowissenschaften beigetragen haben, sind die Rasterkraftmikroskope (scanning tunnel und atomic force), die eine Probe abtasten und die relativ zur Abtastnadel gemessenen Kräfte in Bilder umsetzen. Die Wissenschaftsforschung hat in erheblicher Detailschärfe die auf Computermodelle gestützte Transformation von Kraftmessung zu Visualisierung thematisiert.⁵ Diese Mikroskope liefern eine große Menge an sehr verrauschten Daten. Sie zu interpretieren und zu glätten, sodass ein (scheinbar eindeutiges) Bild entsteht, ist eine keineswegs triviale Aufgabe. Die Modelle, die das leisten, gehen als akzeptierte Hintergrundannahmen ein, auf deren Basis die eigentlichen Daten erst herausgefiltert werden. Ein wesentlicher Baustein, auf den sich die Computermodelle stützen, wenn es um die Elastizität einzelner Moleküle geht, ist die sogenannte Evans-Richie-Theorie. Vor einigen Jahren wurde ein Fehler in dieser Theorie aufgedeckt durch eine mathematisch motivierte Arbeit, die annahm, dass die Theorie zutrifft und unter dieser Annahme die Datenfilterung per Simulationsmodell optimieren wollte (Evstigneev und Reimann 2003). In daraufhin von experimenteller Seite unternommenen Messreihen ließ sich jedoch die theoretisch versprochene Optimierung nicht erreichen (Raible et al. 2004). Das hat dann schließlich eine Adjustierung in der Evans-Richie-Theorie nach sich gezogen (Raible et al. 2006), das heißt eine veränderte Sichtweise darauf, was überhaupt als Daten akzeptiert wird. Dieser Fall illustriert, wie Simulationsmodelle und Datenmessung voneinander abhängen können. (Die damit zusammenhängende Holismusproblematik, die vor allem in komplexeren Simulationen auftritt, wird im zweiten Teil dieses Kapitels behandelt.) Diese wechselseitige Abhängigkeit erstreckt sich auch auf Verifikation und Validierung. Sie sind begrifflich zu trennen, in der Praxis jedoch sind sie miteinander verzahnt. Das Zusammenspiel von theoretisch motivierten Annahmen, technisch erzwungenen Umsetzungsspielräumen und instrumentellen, an der Dynamik der konkreten Implementation orientierten Schritten lässt es als aussichtslos erscheinen, Fragen der Verifikation und der Validierung getrennt zu
Siehe Mody (2006) für ein gutes Beispiel.
150
7 Validierung und Grenzen der Analyse
beantworten. Damit lässt sich bekräftigen: komplexe Simulationen erfordern eine Steigerung der Vermittlungsarbeit von Modellen, denn die Modellierung ist sowohl ‚dicker‘, das heißt es sind mehr Modelle, mehr modellierte Aspekte, eine umfassendere Dynamik im Spiel, wie gleichzeitig ‚indirekter‘ was das Zusammenspiel und den iterativen Abgleich betrifft.
7.3 Artefakte Wenn von komplexer Modellierung die Rede ist, sollte eine zweite Facette betrachtet werden, die sich daraus ergibt, dass die Vermittlungsschritte bei der Modellierung vervielfacht und ausgedehnt werden. Dadurch erlangt das simulierte Geschehen selbst eine so komplexe Natur, dass es zum eigenen Untersuchungsgegenstand werden kann. Fragen der Validität müssen dementsprechend danach unterschieden werden, ob sie Aussagen über die Phänomene der Wirklichkeit betreffen, oder ob die externen Repräsentationsbeziehungen in den Hintergrund treten sollen und nach modellinternen Verhältnissen gefragt wird.⁶ Als Beispiele kommen etwa die sozialen Simulationen in Betracht, die von Phänomenen handeln, die in simulierten Gesellschaften auftreten. Hier steht in Frage, ob die am Modell beobachteten Phänomene aussagekräftig sind bezüglich realer Gesellschaften, ebenso wie in Frage steht, ob solche Phänomene vielleicht nur bei entsprechender Feinjustierung eines Modells auftreten, oder ob eine ganze Modellklasse kennzeichnen. Im letzteren Fall fragt Validierung danach, ob ein bestimmtes Verhalten oder ein Phänomen in einer artificial society typischerweise auftritt und nicht etwa ein Artefakt einer bestimmten Implementation ist. Das hört sich fast paradox an, da diese Gesellschaften doch in toto Artefakte sind. Die Bedeutung von Artefakt orientiert sich stark am Kontext. Simuliert man etwa eine Flüssigkeitsströmung, die ein starres Hindernis umfließt, so ist in einem offensichtlichen Sinne die gesamte Simulation ein Artefakt – eben nicht die reale Strömung. Wenn nun hinter dem Hindernis eine Verwirbelung mit einer spezifischen Form entsteht, so könnte das entweder ein Effekt sein, der aus den in der Modellierung angenommenen Regularitäten der Strömung folgt, oder aber ein Effekt, der sich zum Beispiel aus der speziellen Wahl des Gitters ergibt. Im letzteren Fall könnte man mit Recht – aber in einem anderen als dem obigen Sinne – von einem Artefakt sprechen. Entsprechend wäre es Bestandteil der Validierung zu überprüfen, ob die in Frage stehenden Phänomene invariant unter verschie-
Auch wenn man diese Unterscheidung vielleicht in interessanten konkreten Fällen nicht sauber treffen kann.
7.3 Artefakte
151
denen Diskretisierungen sind – das gehörte zur modellinternen Problemstellung. Wenn die Effekte sich nicht in empirischen Experimenten reproduzieren lassen, könnte es sich um Artefakte des theoretischen Modells handeln – das gehörte zur modellexternen Problemstellung.Validierung, so könnte man sagen, hat es damit zu tun, Artefakte auszuschließen. Diese Sichtweise aber stößt an ihre Grenzen, denn Simulationen benötigen ja unter Umständen explizit artifizielle Annahmen, gerade um realistische Phänomene zu erzeugen. Der Standpunkt, der Validität mit dem Ausschluss von Artefakten gleichsetzt, erfordert als Rückgrat ‚die richtige‘ Theorie, die absolut getreu modelliert und implementiert wird. Alle Abweichungen davon wären Artefakte. Ein solcher Standpunkt fasste Simulationsmodellierung letztlich als numerische Approximation auf und wurde bereits in Kapitel 5 als zu simplistisch verworfen. In Bereichen wie denen der artificial societies oder des artificial life spielt der Vergleich mit externen Phänomenen zudem höchstens eine untergeordnete Rolle, zugleich steht nicht fest, welches theoretische Modell als richtig gilt. Es geht dann bei der Validierung nicht darum, die Dynamik des Simulationsmodells an derjenigen des Ausgangsmodells zu messen. Die Fragen danach, ob und inwieweit die implementierten Mechanismen belastbare Modellierungen realer gesellschaftlicher Beziehungen sind, spielt eine allenfalls untergeordnete Rolle. In der Regel gilt: erlaubt ist, was interessante Phänomene erzeugt. Dennoch werden auch in diesen Gebieten Fragen und Probleme der Validierung diskutiert.⁷ Validierung wird dann konsequentermaßen als eine ‚interne‘ Angelegenheit artifizieller Gesellschaften angesehen und betrifft die Belastbarkeit einer Beschreibung künstlicher Gesellschaften. Also etwa, ob ein in der Simulation auftretendes Phänomen aus einfachen Annahmen über die Interaktion der Individuen folgt und invariant unter leichter Variation ist, oder doch vielleicht nur ein ‚Artefakt‘ einer ganz besonderen Parameterwahl ist, bei einer leicht variierten Einstellung jedoch nicht mehr auftritt. Ein schönes Beipiel für diese Art der Validierungsfragen bieten die (bereits in Kapitel 2 angesprochenen) Arbeiten von Thomas Schelling zur sozialen Segregation. Er hatte ein Tableau von benachbarten Zellen entworfen, die jeweils einen von zwei Zuständen annehmen können, interpretierbar als: hier wohnt eine Familie der Art x, bzw. y. Die Dynamik sah vor, dass Familien dann ihren Wohnort wechseln, wenn die Mehrheit der Nachbarn von anderer Art ist als sie selbst. In anfänglichen Versuchen mit Papier und Bleistift schien es Schelling, dass selbst unter diesen rudimentären Annahmen eine soziale Segregation eintritt. Aber wie valide sind solche Resultate? Um diese Frage zu beantworten musste eine große
Vgl. dazu Küppers und Lenhard (2005a), die auch weitere Literatur nennen.
152
7 Validierung und Grenzen der Analyse
Zahl von Versuchen angestellt werden, unter variierenden Rahmenbedingungen (Ausgangsbelegung der Zellen, Größe des Gebietes, etc.), um die Aussage, dass innerhalb bestimmter Grenzen Segregation eintritt, zu validieren. Dazu wiederum benötigte Schelling einen Computer, der die Handarbeit ersetzte. Obwohl derartige Modelle eine mathematische Beschreibung besitzen, erlaubt ihre Dynamik keine analytische Lösung. Sie sind von vornherein auf den Computer und dessen algorithmische Logik zugeschnitten. Diese Art der growing explanations verfolgen eine bottom-up-Strategie, d. h. sie wollen mittels einfacher Modellannahmen komplexere Phänomene, wie das der sozialen Segregation, simulieren, oder ‚wachsen‘ lassen. Entstehen Muster, die als Segregation interpretiert werden und ist das Modell wirklich einfach, so provoziert das Modellverhalten eine Reaktion wie etwa „Was? Das geht so einfach?“. Unter diesen Umständen werden – gesetzt sie bestehen den Robustheitstest – gleichermaßen die Annahmen validiert wie auch das Phänomen erklärt! Norton Wise (2004) erkennt hierin ein neues Paradigma der Erklärung. Validierung und Erklärung sind also eng miteinander verzahnt. Man muss einschränken: Erklärung meint hier, dass einfache Annahmen vorgeschlagen werden, deren Erfolg dann kompliziertere Kandidaten als überflüssig erscheinen lässt. Man kann sagen, hier wird Ockhams Rasiermesser bei der Beschreibung sozialer Phänomene eingesetzt. Diese Beobachtung ist nicht auf soziale Simulationen limitiert, sondern trifft auf alle Fälle zu, in denen das Simulationsmodell aus eigenem Recht zum Objekt wird. Die Komplexität des Objekts, d. h. des Simulationsmodells selbst, macht aus eigenem Recht Validierungsschritte erforderlich, ebenso wie das bei experimentellen Resultaten über die reale Welt der Fall ist. Im Zusammenhang mit Simulationen tritt Validierung also in mehreren Schattierungen auf. Vor allem ist nun deutlich, dass ‚validieren‘ noch einer erläuternden Ergänzung bedarf, nämlich inwieweit modellinterne, bzw. -externe Gesichtspunkte geprüft werden.
7.4 Abstufungen Simulationsmodelle treten in sehr verschiedenen Komplexitätsgraden auf und Probleme der Validierung ändern sich mit diesen Graden. Simulationen sind nicht per se komplex, sondern es gibt einfachste Modelle, bei denen Definition und Implementation ein Ausbund an Transparenz sind – man denke etwa an Schellings Nachbarschaftsdynamik, oder an die sogenannten Perkolationsmodelle. Das Ising-Modell ist vielleicht das prominenteste unter ihnen. Orte auf einer Gitterstruktur nehmen einen von zwei möglichen Zuständen an und werden dabei von den Zuständen ihrer Nachbarn beeinflusst. Je höher die ‚Temperatur‘, desto weniger bestimmend der Einfluss der Nachbarn. Das Ising-Modell ist berühmt, weil
7.4 Abstufungen
153
es als einfaches Modell zur Beschreibung von Phasenübergängen taugt: Es gibt eine kritische Temperatur, unterhalb derer es zur spontanen Bildung von Clustern kommt, das heißt von Gebieten, in denen die Zellen gleichen Zustand haben. Oberhalb dieser kritischen Temperatur werden die Zustände durch thermische Bewegung stets wieder vermischt. Dass es eine kritische Temperatur gibt, ist ein mathematisches Resultat, das analytisch hergeleitet werden kann. Den Wert jedoch quantitativ zu bestimmen ist von einer notorischen Schwierigkeit, die dadurch hervorgerufen wird, dass die Vielzahl der Wechselwirkungen gleichzeitig relevant ist (Hughes 1999 enthält eine gelungene Schilderung dieses Falles). Will man die kritische Temperatur per Simulation bestimmen, so kann man die Modelldynamik unter verschiedenen Temperaturen laufen lassen und so ‚beobachten‘, welches der kritische Wert ist, also ab wann sich Cluster bilden. Durch die sogenannten Markov-Chain-Monte-Carlo Methoden sind Wahrscheinlichkeitsverteilungen einer überaus großen Klasse von Modellen per Simulation nachbildbar geworden.⁸ Simulationsexperimente liefern zwar nie analytische ‚Lösungen‘, können aber dazu dienen, die Effekte der Variation verschiedener Parameter zu dokumentieren. Dort wo dieses Verhalten schon theoretisch hergeleitet ist, wie etwa im Falle der Kritikalität einer Temperatur im Ising-Modell, werden Simulationsmodelle validiert, sofern sie dieses Verhalten – für eine Temperatur, deren Wert dadurch erst festgelegt wird – quasi-empirisch bestätigen. Dem Grade der Rechenkomplexität nach ist die Lösung des Ising-Modells extrem anspruchsvoll. Die Validierungsprobleme sind jedoch viel einfacher gelagert: Das Modell ist ohnehin mathematisch verfasst und die Simulationsdynamik selbst ist nicht sehr umfangreich (abgesehen von den Iterationen). Wir haben hier den leichtesten Grad für die Validierung. Komplizierter gelagert ist der Fall, wenn das Simulationsmodell ein theoretisches Modell als Vorlage besitzt, das aber nicht wie eben ‚diskret‘ verfasst ist und direkt auf den Computer gebracht werden kann. Der Schritt der Diskretisierung kann unter Umständen einen erheblichen und eigenständigen konzeptionellen Aufwand erfordern. Insbesondere sind Fragen der Diskretisierung eines theoretischen Modells bezüglich der Theorie in aller Regel ‚artifizielle‘ Fragen. Simulation ist oft gerade dann Mittel der Wahl, wenn ein theoretisches Modell fehlt, oder wenn verschiedene lokale theoretische Modelle zusammengebracht werden müssen. Etliche Autofirmen verzichten weitgehend auf Crash-Tests mit realen Karosserien und setzen stattdessen Simulationen ein. Die darin verwendeten Finite-Elemente-Modelle enthalten alle relevanten Bauteile; die Einstellung
Vgl. zu einer ingeniösen Würdigung der MCMC-Simulation in ihrer Wirkung auf statistische Methoden: Diaconis (2007).
154
7 Validierung und Grenzen der Analyse
ihrer Parameter jedoch geschieht auf eher phänomenologische Weise, nämlich so, dass die Simulation bereits vorliegende Daten möglichst genau reproduziert. Ist diese Bedingung erfüllt, gelten die Modelle als valide auch für neue Konstruktionen.⁹ Ähnlich gelagert sind Evakuierungs-Modelle, die per Simulation durchgespielt werden können.¹⁰ Solche Simulationsmodelle enthalten zwar theoretische Anteile, aber zur Validierung taugt nur der Abgleich mit realem Verhalten. Das ist aufgrund der Plastizität der Modelle auch zu erwarten (vgl. Kapitel 3). Da das Modellverhalten entscheidend durch die konkrete Spezifizierung beeinflusst ist, muss die Validierung mit einer Kontinuitätsannahme operieren: Die Parameterwahl hängt nur wenig vom konkreten Exemplar ab. Eine solche Kontinuitätsannahme kann, so meine ich, nur plausibel sein, wenn eine theoretische Überlegung dahinter steht. Das kann sogar zu moderaten Extrapolationen führen, d. h. zur Übertragung auf Fälle, in denen kein empirischer Abgleich am Phänomen möglich ist, die gleichwohl so nah an den bereits bekannten und getesteten Fällen liegen, dass die Wissenschaftler Zutrauen in die Zuverlässigkeit der Simulationsresultate haben.¹¹ In solchen Fällen trifft zweierlei zu: Erstens ist das Zutrauen in bestimmte Ansätze der Simulationsmodellierung durch erfolgreiche Anwendungen und empirische Vergleiche gewachsen und zweitens wird nur sehr moderat über die bekannten und getesteten Fälle hinaus extrapoliert. Die durch Tests gesicherte Validität wird auf Fälle übertragen, die ähnlich genug gelagert sind und die vor allem im Anwendungsbereich der bereits getesteten Modelle liegen. Für Simulationen, die etwa in der Designphase in der Architektur und Statik zum Einsatz kommt, gilt gleiches: Hochhäuser werden mit ihr geplant, solange der Typ von statischer Anforderung einer ist, für den die Programme bereits ihre Zuverlässigkeit erwiesen haben. Man wird zu Recht einwenden, dass dieses Kriterium an die Validität zirkulär oder zumindest schwammig erscheint: Wie sollte man explizieren, wann etwas von gleichem Typ ist, ohne wiederum auf Validität zu rekurrieren? Wie also wäre die Kontinuitätsannahme weiter zu präzisieren? Um diese Frage eindeutig zu beantworten, müsste man die Validität theoretisch ergründet haben. Ich denke, hier handelt es sich um ein offenes Problem, dem in der Praxis nur empirisch und schrittweise beizukommen ist. Das schließt Fehlschläge mit ein – Simulationen
Das gilt für den Design- und oft auch Konstruktionsprozess. Allerdings werden ungeachtet des Zutrauens der Konstrukteure in amtlichen Zulassungsverfahren in aller Regel materielle Gegenstände getestet. Ein Pionier dieser Richtung ist Dirk Helbing (1995). So stimmten die USA einem Atom-Test-Stopp zu, nachdem die Simulationsmodelle als hinreichend akkurat galten, um nukleare Waffen zu produzieren und in Stand zu halten.
7.4 Abstufungen
155
sind mitnichten ein unfehlbares Instrument. Im Gegenteil, die entsprechenden Validierungsverfahren sind von Irrtümern und Fehlschlägen begleitet. Einige Prominenz hat 1991 der Untergang der Bohrinsel Sleipner A vor Norwegen erlangt (weil er öffentlich untersucht wurde). Im Nachhinein wurden Gitterverfahren identifiziert, also eine bestimmte Weise der Diskretisierung, die an bestimmten neuralgischen Punkten mangelhaft waren und eine trügerische Stabilität simulierten. Im Ingenieursdesign ist wohlbekannt, dass die Validierungskriterien fehlbar sind und unter Umständen angepasst werden müssen (siehe allgemein Petroski 1992 und bezüglich Computerfehlern Peterson 1995). In unserer Reihe der Abstufungen sind nun Fälle wie Landmans Nanodraht an der Reihe (vgl. Kapitel 2). Das simulierte überraschende Phänomen konnte im Nachhinein durch ein mikroskopisches Experiment bestätigt werden. Dieser Erfolg zeigt nicht nur, dass Landman offenbar einen adäquates Simulationsmodell benutzte, sondern verweist auch darauf, dass erst die experimentelle Bestätigung dem simulierten Ergebnis Validität verlieh. Landman selbst übrigens betont das Zusammenspiel von Simulationsmodellierung und Laborexperimenten. Damit erreichen wir den Punkt in der Eskalation der Fälle, an dem es brisant wird für die Validierung, weil Simulationsmodelle Neuland betreten. Für den Abgleich mit der Wirklichkeit als entscheidendes Kriterium haben Küppers, Lenhard und Shinn (2006) votiert. Der heikle Fall ist der, in dem ein Abgleich an der Wirklichkeit nicht möglich ist. Das stellt insbesondere dann einen interessanten Fall dar, wenn dort die Simulation alternativlos ist. Eric Winsberg nimmt in (2006) genau diesen Fall unter die Lupe. Simulationen können, so sein Fazit, „reliability without truth“ erreichen. Auf die Wahrheit muss man verzichten, weil die fiktionalen (ich würde es vorziehen, von ‚instrumentell‘ zu reden) Komponenten einen isomorphen Bezug von Modell zu Wirklichkeit nicht zulassen. Woher kann dann aber die Verlässlichkeit kommen? Winsberg verweist hier auf Modellierungstechniken, die ihre früher in anderen Fällen erworbene Validität übertragen. Jedoch fragt sich, in welchem Sinne von anderen Fällen die Rede ist? Wenn man da keine plausible Brücke finden kann, die als Argument für Verwandtschaft taugt, scheint mir die Validität kaum mehr als eine vage Hoffnung oder mutige Behauptung zu sein. Insbesondere gilt das dann, wenn hochangepasste Modelle im Spiel sind, die wenig vereinheitlichende Kraft besitzen. Wenn Simulationsmodelle unter Ausnutzung ihrer Plastizität speziell angepasst werden, so trägt meines Erachtens der Verweis auf die verwendeten Techniken wenig zur Validierung bei. Besser gesagt: Simulationen können ihre Validität nicht auf den Erfolg der Methode stützen, denn ihr Verhalten ist nur zum Teil der Simulationstechnik geschuldet (was Winsbergs Standpunkt einschränkt), die vielleicht in anderen Fällen erfolgreich war, sondern eben zum Teil auch der Methode der Anpassung, was auch syste-
156
7 Validierung und Grenzen der Analyse
matischer Bestandteil der Simulationsmodellierung ist. Daher erscheint mir simulationsbasiertes Wissen als höchst fragwürdig, wenn weder eine vereinheitlichende Kraft seitens einer theoretischen Unterfütterung besteht, noch ein Abgleich mit den wirklichen Phänomenen die Validität faktisch austestet. Ein mahnendes Beispiel sind die notorisch unzuverlässigen Vorhersagen ökonomischer Modelle. Kurz: Es gibt keinen simulationsspezifischen Stiefelschaft, an dem man sich aus dem Sumpf ziehen könnte. Auch wenn man die Iterativität als einen solchen Stiefelschaft ansehen könnte, so handelt es sich um einen für methodologische Probleme. Die Frage nach der Validität bleibt davon weitgehend unberührt. Ich sehe keinen Grund, weshalb Simulationstechniken, die sich in einem Falle bewährt haben, auch in anderen Fällen funktionieren sollten. Im Gegenteil: Wenn es eine verlässliche Theorie als Grundlage der Modellierung gibt, so stellt diese eine Quelle der Validität dar. Allermeistens jedoch beinhalten Simulationen instrumentelle Komponenten, die diesen Theorie-Bezug zumindest schwächen und so dessen Aussagekraft über die Validität in Frage stellen. Daher bleibt meines Erachtens der Abgleich am Phänomen das übergeordnete Kriterium. Letztlich gilt: Je instrumenteller und explorativer die Modellierung, desto enger muss der Abgleich mit der Wirklichkeit erfolgen, um zu validen Resultaten zu kommen.
7.5 Holismus Der erste Teil lief darauf hinaus, dass ein Mehr an Modellierung auch ein Mehr an Validierungsproblematik nach sich zieht. Da die Simulationsmodellierung eine besonders vielstufige Modellierung sein kann, liegt die Frage auf der Hand, ob nicht irgendwann ein kritischer Punkt erreicht wird. Im zweiten Teil dieses Kapitels möchte ich darlegen, dass dieser Fall tatsächlich eintritt: In komplexen Computer- und insbesondere Simulationsmodellen besteht ein Holismusproblem. Dieser Holismus rückt ein analytisches Verständnis der Modelldynamik in praktisch unerreichbare Ferne, wobei ein solches Verständnis sich darin zeigte, spezielle Eigenschaften der Simulationsdynamik speziellen Modellierungsannahmen zurechnen zu können. Das Holismusproblem wird im Folgenden am Beispiel der Validierung von Klimamodellen ausführlich erörtert werden. Holismus, oder besser: Bestätigungsholismus (confirmational holism), ist ein etablierter Begriff der Wissenschaftstheorie, der auch unter dem Namen DuhemQuine These firmiert. Sie ist benannt nach Pierre Duhem (1861– 1916) und Willard Van Orman Quine (1908 – 2000) und besagt, dass eine einzelne Hypothese nicht isoliert an der Erfahrung getestet werden kann. Jeder solche Test involviert weitere
7.5 Holismus
157
Theorien und Hilfsannahmen, weshalb immer die Gesamtheit der Theorien und Hypothesen auf dem Prüfstand steht. Pierre Duhem umschrieb das 1914 als These von der Nicht-Falsifizierbarkeit: „if the predicted phenomenon is not produced, not only is the questioned proposition put into doubt, but also the whole theoretical scaffolding used by the physicist“ (Duhem 1954, 185). Ein Experiment kann zwar aufdecken, dass eine Prognose falsch ist, aber nicht wieso sie falsch ist, so dass der entstehende Zweifel holistischer Natur sein muss. Eine einzelne Hypothese kann, so Duhem, nicht isoliert getestet werden: „To seek to separate each of the hypotheses of theoretical physics from the other assumptions upon which this science rests, in order to subject it in isolation to the control of observation, is to pursue a chimera“ (Duhem 1954, 199 – 200). Duhem selbst benutzt nicht den Begriff Holismus. Dieser Gebrauch geht auf Quine zurück, der Duhem in seinem berühmten Argument gegen den Reduktionismus erwähnt, das er in den „Zwei Dogmen“ anführt (1953). Genauer betrachtet stellt er sogar eine radikalere These auf als Duhem, insofern bei ihm Holismus bedeuten soll, dass „any statement can be held true come what may, if we make drastic enough adjustments elsewhere in the system“ (Quine 1953, 43). Im Folgenden kommt es mir weder auf die eventuelle Theoriebeladenheit der Beobachtungsdaten an, noch darauf, dass man mit logischen Mitteln nicht diejenige Hypothese herausdeuten kann, die Schuld an mangelnder Passung oder einer fehlschlagenden Prognose ist. Nein, im Kontext der Klimamodellierung tritt ein spezielles Holismus-Problem auf, das sich nicht darum dreht, an welchen Hypothesen und Hilfsannahmen zu drehen wäre, um Übereinkunft mit der Beobachtungsbasis herzustellen. Vielmehr besteht das Holismusproblem darin, die einzelnen Hypothesen und Annahmen überhaupt zu identifizieren und ins Verhältnis zu setzen. Die Komplexität der Modelldynamik kann die Möglichkeiten der Analyse an ihre Grenzen bringen: Die Gesamtdynamik resultiert aus einer verzahnten Zusammenwirkung einer Vielzahl von Komponenten, sodass bestimmte Aspekte des Modellverhaltens nicht einzelnen Annahmen zurechenbar sind. An dieser Stelle ist eine Zwischenbemerkung zu Michael Strevens am Platz, der in „How are the sciences of complex systems possible?“ (2005) die entgegengesetzte These vertritt und komplexen Systemen scheinbar ein explanatorisches Potenzial zuschreibt. Der Gegensatz entpuppt sich aber schnell als ein nur scheinbarer, wenn man die Bedingungen betrachtet, die Strevens an solche Systeme stellt. Er geht zwar auch von Systemen aus, die aus vielen stark interagierenden Teilen bestehen, seine Argumentation jedoch will er auf Systeme beschränkt wissen, die eine „supercondition“ erfüllen, die einem Gesetz der großen Zahlen entspricht und besagt „that microlevel complications are in a certain sense irrelevant to macrolevel behavior …“ (Strevens 2005, 537) Letztlich wird dann die Komplexität auf einer unteren Ebene herausgemittelt, sodass eine wesentlich
158
7 Validierung und Grenzen der Analyse
entkoppelte Dynamik auf der höheren Ebene entsteht. Mich interessieren im Folgenden jedoch genau die Fälle, in denen das nicht der Fall ist.
7.6 Pseudo-Modularität Für Aufgabenstellungen, in denen übergroße Komplexität ein Hindernis ist, gilt als Standardrezept, dass man die Komplexität reduzieren soll. Eine etablierte Strategie dafür ist es, die (zu) große Aufgabe in modulare Einzelaufgaben aufzusplitten. Schon die Uhrmacherparabel, in der zwei Uhrmacher miteinander verglichen werden (Simon 1969), thematisiert das: Der eine baut ein komplexes Uhrwerk aus einem Guss, der andere setzt es in separaten Schritten modular zusammen. Ein komplexes Uhrwerk ist besser modular zu bauen als in einem umfassenden Ansatz, weil Unterbrechungen, Fehler und dergleichen immer nur das gegenwärtig bearbeitete Modul betreffen. Mit der Simulationsmodellierung, so die hier vertretene These,wird dieses Prinzip jedoch überdehnt. Der Punkt ist, dass Modularisierung die klare Aufspaltung in kleinere funktionale Einheiten beinhaltet, der Modus der Simulationsmodellierung jedoch dazu führt, dass diese Einheiten systematisch vermischt werden und am Ende eher eine Art PseudoModularität darstellen. Das heißt, architektonisch als separat angelegte Module verlieren im Verlaufe der Modellierung ihre Eigenständigkeit. Die Adjustierung einzelner Modellbestandteile nach Maßgabe der globalen Performanz geschieht mitunter ohne Rücksichtnahme auf die modulare Architektur, so dass sich die Funktionalität am Ende wiederholter Anpassungszyklen nicht mehr lokal per Modul vollständig festlegen und testen lässt, sondern nur im Gesamtzusammenhang. Paradigmatisch für komplexe Simulationen ist die Klimawissenschaft. In ihren Modellen potenziert sich die Modularität. Eine ihrer Quellen besteht in der Kopplung von Atmosphären- mit Ozeanmodellen, denen weitere Komponenten, wie Modelle der polaren Eisdynamik, der Landnutzung oder der Atmosphärenchemie hinzugefügt werden. Als Module treten in diesem Zusammenhang ganze Modelle auf, die in der Regel einen je bestimmten disziplinären Zuschnitt haben (Physik der Atmosphäre zum Beispiel). Sie werden von je eigenen Arbeitsgruppen entworfen, erstellt und getestet. Die großen Forschungsinstitute sind entlang dieser Gruppen organisiert. Zur Pionierzeit von Charney, Phillips und von Neumann gab es nur die eine physikalisch orientierte Gruppe. Die Anwendungsorientierung der Klimaforschung jedoch machte es erforderlich, möglichst alle wissenschaftlich erfassbaren Teilaspekte des Klimas mit einzubeziehen. So entstand etwa Mitte der 90er Jahre eine neue Aufgabe im Zuge der Modellierung, nämlich je autonom entwickelte Modelle, die gar keine gemeinsamen Grund-
7.6 Pseudo-Modularität
159
gleichungen oder einen gemeinsamen theoretischen Rahmen aufwiesen, miteinander zu koppeln. Küppers und Lenhard (2006) verweisen auf die netzwerkartige Integration, die so entsteht. Ein seitens der (Wissenschafts‐)Politik ausgerufenes Ziel ist es, Simulationsmodelle derartig modular zu konzipieren, dass deren Teilmodelle nach dem plug-and-play-Motto ausgetauscht werden können.¹² Für einigen publizistischen Aufruhr sorgte der Fall der sogenannten Flusskorrektur, die verwendet wurde, um atmosphärische und ozeanische Zirkulationsmodelle zu koppeln. Beide wurden zuerst unabhängig kalibriert, um eine je stabile Dynamik als Baustein zu haben. Durch die Kopplung der beiden großen Modelle wurde diese Stabilität jedoch zerstört und daher verfielen die Forscher darauf, die Effekte, die negativ auf die Stabilität einwirkten, künstlich zu korrigieren. Aus ihrer Sicht war das lediglich ein technischer Kniff (vielleicht ähnlich zu Arakawa, wenn auch nicht so mathematisch anspruchsvoll), aus Sicht der Kritiker jedoch ein „fudge-factor“.¹³ Wie dem auch sei – durch die Flusskorrektur wurde die Modularität von Atmosphäre und Ozean zunichte gemacht, da die Korrektur sich ja nach dem globalen Verhalten des gekoppelten Systems bemaß. Ein analytischer Rückgriff vom globalen Verhalten auf einzelne Modellierungsannahmen müsste durch sämtliche solchen Kopplungs- und Kalibrierungskniffe hindurch erfolgen. Die eingebetteten instrumentellen Komponenten verhindern das.¹⁴ Zum Problemkreis der Modularität gehören auch die Parametrisierungen, die schon weiter vorne besprochen worden waren. Sie betreffen die diskretisierte Darstellung von Prozessen, die auf einer feineren Skala ablaufen als das verwendete raum-zeitliche Gitter, wie etwa die ‚summarische‘ Darstellung der Wolkendynamik in einer Gitterzelle als Prozess am Gitterpunkt. Gesetzt den Fall, es gibt keine mikro-theoretische Beschreibung eines parametrisierten Prozesses, dann bleibt nur der Abgleich zwischen tentativ simulierter und tatsächlich beobachteter Dynamik, um die Parameter einzustellen (sogenannte semi-empirische Parametrisierung). Selbst wenn es eine solche Theorie gibt, beschreibt sie ja die Prozesse, die gerade nicht gemäß dieser Theorie modelliert werden können, sondern nur diskret vergröbert. Was als Vergröberung funktioniert, ist dann wiederum dem tentativen, iterativen Austesten überlassen. Kurz, Parametrisierungen stellen modulare Elemente, eigene kleine Modelle, dar, die nur im dyna-
Auf Ebene der EU zum Beispiel wird das als ein Ziel der Klimamodellierung formuliert, aber ebenso auch z. B. in den USA. Zukunftsbild ist, die in sehr verschiedenen Institutionen entstehenden (Teil‐)Modelle miteinander verbinden zu können. Shackley et al. (1999) geben einen kritischen Einblick aus wissenschaftssoziologischer Perspektive. Generell wird die Rolle der Infrastruktur – und deren Kopplungseigenschaften – als epistemisch signifikante Bedingung mehr und mehr erkannt, vgl. Edwards (2007).
160
7 Validierung und Grenzen der Analyse
mischen Gesamtzusammenhang bewertet werden können und daher die Grenzen der Module verwischen.
7.7 Kludging Pseudo-Modularität beschneidet noch auf weitere Weisen die Aussichten der Analyse. Umfangreiche Programme greifen auf bestehende Software-Lösungen zurück oder binden Softwarepakete oder Funktionen aus Softwarebibliotheken ein. Der Vorteil, auf bereits bestehenden Code aufzubauen, besteht natürlich in der Arbeitsersparnis während der Konstruktion. Allerdings wird damit praktisch unabwendbar, dass Unsauberkeiten im Nachhinein ausgebügelt werden müssen – der Jargon der Softwareprogrammierer ist voller Ausdrücke der Klempnersprache. So entsteht eine nächste Schicht von Adaptionen, um die gewünschte Performanz herzustellen.Wer jemals an einem größeren Programm mitgestrickt hat,weiß, dass viel eher neue Adaptionsschichten hinzukommen, als dass solche Code-Bereiche für einen neuen Kontext entfernt werden. Oft kann man gar nicht ohne weiteres erkennen, was konstruktiv essenzielle, aus mehr oder weniger theoretisch fundierten Erwägungen hinzugefügte Teile und was performanzorientierte Hilfskonstruktionen sind. Für sie hält die Umgangssprache der Programmierer einen speziellen Ausdruck bereit: kludge (oder kluge). Andy Clark umschreibt ihre Bedeutung als „an inelegant, ‚botched together‘ piece of program; something functional but somehow messy and unsatisfying“, und er zitiert Sloman mit der Definition: „a piece of program or machinery which works up to a point but is very complex, unprincipled in its design, ill-understood, hard to prove complete or sound and therefore having unknown limitations, and hard to maintain or extend“ (Clark 1987, 278). Es ist praktisch unvermeidbar, über den Konstruktionsprozess einer umfangreichen Software hinweg eine Menge solcher kludges im Code anzusammeln, die wiederum die Opakheit befördern und die Analysemöglichkeiten stark beeinträchtigen.¹⁵ Bezeichnenderweise wird der Terminus kludge in der Wissenschaftsphilosophie von Leuten wie Clark oder Wimsatt gebraucht, die sowohl von Computermodellierung als auch von Evolutionstheorie inspiriert werden – und das aus gutem Grund. Der springende Punkt bei kludges besteht darin, dass sie im Kontext
Minsky (1967) und noch früher Wiener (1960) haben bereits auf unerwünschte Folgen aufmerksam gemacht, die sich aus dem Umstand ergeben, dass große Programme arbeitsteilig von wechselnden Teams „zusammengestoppelt“ (so Minsky) werden.
7.7 Kludging
161
des gesamten Systems funktionieren, für sich genommen aber keine klare Funktionalität besitzen. Auch in der biologischen Evolution erfolgen einzelne Mutationen, deren Wirkung stets darauf aufbauen muss, oder nur das verändern kann, was als Organismus insgesamt vorliegt, denn die Fitness (Performanz) bemisst sich immer am Gesamterfolg. Die Erhaltung funktional bestimmter Modularität spielt dabei keine Rolle. Ich stimme mit Wimsatt darin überein, dass das Vorkommen von kludges ein generisches Kennzeichen komplexer Systeme ist. Die Modellierung komplexer Systeme kann sich schlecht auf fundamentale Revisionen einlassen: But this is common sense. Rebuilding foundations after we have already erected an edifice on them is demanding and dangerous work. (…) This is as true for theories or for any complex functional structures—biological, mechanical, conceptual, or normative—as it is for houses. This is why evolution proceeds mostly via a sequence of layered kluges. (Wimsatt 137, Hervorhebung im Original)
Und das trifft, so möchte ich Wimsatt ergänzen, eben auch auf komplexe Simulationsmodelle zu. Die Funktionalität von kludges bemisst sich an der globalen Performanz. Und da ein kludge über seine Funktionalität definiert ist, ergibt es gar keinen Sinn, isoliert über sie zu reden: „What is a kludge considered as an item designed to fulfill a certain role in a large system, may be no kludge at all when viewed as an item designed to fulfill a somewhat different role in a smaller system.“ (Clark 1987, 279) Modularität bildet seit je ein wichtiges Motiv bei der Erörterung komplexer Systeme, wie in Simons Uhrmacher-Parabel (Simon 1969), die anschaulich macht, dass ein modular aufgebautes Uhrwerk einem ansonsten funktionsgleichen, aber in einem Stück anzufertigenden Uhrwerk überlegen ist. Im Zusammenhang mit der Simulationsmodellierung und der kludges jedoch wird die Modularität zur Pseudo-Modularität, da die Interaktion der Module, die nach globalen Maßgaben gesteuert wird und die sich auf kludges stützt, genau diese im Prinzip vorteilhafte hierarchische Modul-Ordnung konterkariert. Wiederum findet sich hier eine Parallele zur biologischen Evolution, von der Wimsatt spricht, dass nämlich „a process of mutually coadaptive changes under the optimizing forces of natural selection“ (Wimsatt 2007, 188) diese vermutete Ordnung zunichte macht, da die Fitnesskriterien für die globale Performanz von der für die isolierten Teile differieren. Anders ausgedrückt: Die Prozesseigenschaft der Simulationsmodellierung, wie die der Evolution, erzeugt eine Pfadabhängigkeit, d. h. eine Abhängigkeit von der eigenen Geschichte. Der nächste Modellierungs- oder Evolutionsschritt baut auf dem bis jetzt Vorhandenen auf und modifiziert es nach globalen Erfolgskriterien. Im Verlauf dieses Prozesses bleiben Module nicht getrennt und daher verliert die Modularität ihre ‚saubere‘, komplexitätsreduzierende Eigenschaft.
162
7 Validierung und Grenzen der Analyse
Winograd und Flores gelangen in ihrem Klassiker „Understanding Computers and Cognition“ zu einem ähnlichen Schluss, was die Wirkung der komplexen Konstruktionsgeschichte angeht: „each detail may be the result of an evolved compromise between many conflicting demands. At times, the only explanation for the system’s current form may be the appeal to this history of modification.“ (1991, 94) Eine passende Illustration liefert das Windows Betriebssystem. Die einander folgenden Versionen sind jeweils um Verbesserungen bemüht, die aber stets auf den vorherigen Versionen aufsetzen oder mit ihnen kompatibel sein müssen: Microsoft reacts to marketing pressure to make design decisions favoring running a few processes faster but then finds itself forced first to layer in backward compatibility and then to engage in a patch-and-kludge upgrade process until the code becomes so bloated, slow and unreliable that wholesale replacement is again called for. (Murphy 2004)
Die Analogie zu komplexen biologischen Systemen besteht auch hier. Die Evolution komplexer Organismen erzeugt nicht nur eine Pfadabhängigkeit, sondern lässt auch keine eindeutige Aufspaltung in Subsysteme zu. Levins (1970) argumentiert sogar, dass durch die gemeinsame Evolution solcher Subsysteme die spätere Dekomposition systematisch erschwert wird. In der Entwicklung von Software ist das Problem wohlbekannt und es wird diskutiert, welche methodischen Strategien bei einer Neuentwicklung hilfreich sind, um Modularität zu garantieren, oder bei der Sanierung von bestehendem Code wieder herzustellen. Ein aufschlussreiches und unterhaltsames Beispiel bieten die Computerwissenschaftler Brian Foote und Joseph Yoder (1999, insbesondere Kap. 29), die eine Reihe von Mechanismen analysieren, die in der Praxis der Programmentwicklung dazu führen, dass komplexe Software sich vom modularen Ideal entfernt und zu einem big ball of mud wird.
7.8 Validierung von Klimamodellen Die aktuellen Klimamodelle können als Beispiel dafür dienen, wie sich die geschilderte Problematik bei der Validierung von Simulationsmodellen bemerkbar macht. Sie bieten sich nicht nur als Fall aus eigenem Interesse an, sondern auch deshalb, weil in der Fachliteratur eine intensive Diskussion um ihre Validierung geführt wird. Das Intergovernmental Panel on Climate Change (IPCC), eine gemeinsame Gründung von Wissenschaft (meteorologische Weltgesellschaft, WMO) und Politik (UNEP, das Umweltprogramm der UNO), ist die prominenteste Institution im Bereich der Klimawissenschaft und -politik. Das IPCC veröffentlicht in
7.8 Validierung von Klimamodellen
163
mehrjährigem Abstand sogenannte Assessment Reports, die den Stand der Klimawissenschaft insgesamt wiedergeben sollen und an denen international eine große Anzahl an Wissenschaftlern mitarbeitet. Innerhalb dieser Assessment Reports sind es wiederum die Vorhersagen, die am meisten Aufmerksamkeit auf sich ziehen. Die globale Durchschnittstemperatur ist der prominenteste Indikator für den (an sich sehr vielschichtigen) Klimawandel. Die Vorhersage des Temperaturverlaufs wird einer detaillierten Simulation der globalen Klimadynamik entnommen, bei der die Flaggschiffe der Klimasimulation, die allgemeinen, gekoppelten und bereits aus Kapitel 1 bekannten Zirkulationsmodelle, bzw. Erdsystemmodelle, zum Einsatz kommen. Zwei Aspekte der Validierung möchte ich vorab nur kurz erwähnen. Zum einen spielt die Theorie (hauptsächlich der Physik und auch Chemie) eine erhebliche Rolle, wie bei der Diskussion der Simulation der Grundgleichungen (Kapitel 1) bereits geschildert. Es geht im weiteren um diejenigen Modellierungsschritte, die jenseits der Reichweite der Theorien liegen. Zum zweiten besteht ein wesentlicher Schritt der Validierung der Klimamodelle darin, die simulierte Dynamik mit der beobachteten zu vergleichen, bzw. im Verlauf der Modellierung in Übereinstimmung zu bringen. Im Falle des Klimas sind das vor allem Daten aus der Vergangenheit, sowohl meteorologische Aufzeichnungen aus den letzten etwa hundert Jahren, als auch Daten aus der ferneren Vergangenheit, wie sie z. B. aus Eisbohrkernen gewonnen werden. Der klimatische Verlauf wird so in etwa rekonstruiert und das Validierungskriterium besteht darin, ob die Simulationsmodelle die Eckpunkte der Klimageschichte reproduzieren können. Die vorhergesagte Entwicklung der globalen Temperatur wird von den Abbildungen 7.1 und 7.2 angezeigt, die den IPCC Berichten von 2001, bzw. 2007 entnommen sind. Beide Berichte prognostizieren einen Anstieg von etwa 1 bis 6 Grad Celsius bis 2050. Jede Grafik enthält mehrere Kurven und diese Mehrzahl hat einen interessanten Hintergrund. Die Entwicklung des Klimas hängt unter anderem vom zukünftigen Ausstoß an Treibhausgasen ab, der nicht mit modelliert wird, sondern als Randbedingung in die Simulation eingeht. Das IPCC hat hierzu eine Reihe von Standard-Szenarien vorgegeben, wie etwa die rigide Umsetzung der Klimaschutzmaßnahmen, oder ungebremstes Wirtschaftswachstum. Die verschiedenen Linien der Diagramme geben den prognostizierten Verlauf der Temperatur unter je einem dieser Szenarien wieder. Selbst unter einem bestimmten Szenario jedoch differieren die Simulationen teils erheblich, wie an der Spanne der Prognose für 2050 zu entnehmen ist, die jeder Kurve zugeordnet ist. Hinter dieser Spanne steht eine Pluralität von Modellen. An der Prognose nehmen die weltweit betriebenen circa zwanzig großen Zirkulationsmodelle teil. Diese machen unter einem bestimmten Szenario
164
6
Temperature change (°C)
5
4
7 Validierung und Grenzen der Analyse
A1FI A1B A1T A2 B1 B2 IS92a (TAR method)
Several models all SRES envelope Model ensemble all SRES envelope
All IS92
3
2
1
0
2000
2020
2040 Year
2060
2080
2100
Bars show the range in 2100 produced by several models
Abbildung 7.1: Vorhersage der globalen Durchschnittstemperatur von mehreren Modellen und unter verschiedenen Szenarien. Die senkrechten Balken rechts zeigen die Spannweite der Vorhersagen unter einem Standardszenario an. Aus: Climate Change 2001: The Scientific Basis. Contribution of Working Group I to the Third Assessment Report of the Intergovernmental Panel on Climate Change, Figure 5 (SPM). Cambridge University Press. Mit freundlicher Genehmigung des IPCC, urspünglich farbiger Druck an schwarz-weiß angepasst.
durchaus verschiedene Vorhersagen und die entstehende Bandbreite wird in der Grafik als zu einer Kurve gehörender schattierter Bereich wiedergegeben. Die Spannbreite in der Grafik entsteht also durch die jeweils niedrigsten und höchsten Vorhersagen im Modell-Pulk unter einem bestimmten Szenario, die Werte der anderen Modelle befinden sich irgendwo dazwischen. Die Pluralität der Modelle, oder vielmehr die Spannbreite der Vorhersagen, stellt einen Stachel dar für die Klimawissenschaft, der eine lebhafte Debatte um die Validierung und mögliche Strategien zur Vereinheitlichung ausgelöst hat.¹⁶ Ziel dieser Anstrengungen ist es, eine kohärente Prognose zu formulieren. Das
Einen instruktiven Querschnitt bietet die Sondernummer der Philosophical Transactions, herausgegebenen von Collins (2007).
7.9 Modellvergleich
165
Abbildung 7.2: Vorhersage der globalen Durchschnittstemperatur. Aus: Climate Change 2007: The Physical Science Basis. Working Group I Contribution to the Fourth Assessment Report of the Intergovernmental Panel on Climate Change, Figure SPM.5. Cambridge University Press, mit freundlicher Genehmigung des IPCC, urspünglich farbiger Druck an schwarz-weiß angepasst.
muss nicht ein genauer Wert sein, aber eine quantitative Abschätzung der Unsicherheit, wie das eine Wahrscheinlichkeitsdichte wäre.
7.9 Modellvergleich Wie kommt es zu den differierenden Vorhersagen? Zur Klärung dieser Frage wurde 1989 das Program for Climate Model Diagnosis and Intercomparison (PCMDI), am Lawrence Livermore Laboratory ins Leben gerufen: The PCMDI mission is to develop improved methods and tools for the diagnosis and intercomparison of general circulation models (GCMs) that simulate the global climate. The need for innovative analysis of GCM climate simulations is apparent, as increasingly more complex models are developed, while the disagreements among these simulations and relative to climate observations remain significant and poorly understood. The nature and causes of these disagreements must be accounted for in a systematic fashion in order to
166
7 Validierung und Grenzen der Analyse
confidently use GCMs for simulation of putative global climate change. (PCMDI 2008, Hervorhebung hinzugefügt)
Das PCMDI hat sich also explizit nicht nur den Modellvergleich auf die Fahnen geschrieben, sondern auch die Analyse der Gründe für die im Vergleich auftretenden Differenzen. Das hauptsächliche Vergleichsprojekt in Livermore war zunächst das Atmospheric Model Intercomparison Project (AMIP), dem später das Coupled Model Intercomparison Project (CMIP) folgte, beide jeweils in einer Reihe von Versionen. Das AMIP startete gleich 1989 als ein weltweites Unterfangen unter der Aufsicht der Welt-Klima-Forschungsprogramme. [It] undertook the systematic validation, diagnosis and intercomparison of the performance of atmospheric general circulation models. For this purpose all models were required to simulate the evolution of the climate during the decade 1979 – 1988, subject to the observed monthly-average temperature and sea ice and a common prescribed atmospheric CO2 concentration and solar constant. (Gates et al. 1998)
AMIP wurde sehr schnell allgemein akzeptiert als ein gemeinsames Projekt der gesamten Klimawissenschaft, was nicht selbstverständlich ist, da die Vergleichbarmachung sehr viele Kräfte bindet, die dann nicht mehr prestigeträchtiger neuer Forschung zur Verfügung stehen. Der allgemein optimistische Standpunkt war: „AMIP offers an unprecedented opportunity for the comprehensive evaluation and validation of current atmospheric models, and is expected to provide valuable information for model improvement.“ (Gates 1992) Die Standardisierung der Randbedingungen machte die Modellresultate direkt miteinander vergleichbar und erzeugte so die Datenbasis der IPCC-Berichte, soweit sie die Vorhersagen der komplexen Modelle betrafen. Resultate dieser Art sollten jedoch nur der erste Schritt sein, schließlich ging es darum, die beobachteten Abweichungen einzelnen Modellkomponenten und Modellierungsannahmen zuzurechnen. Das jedoch, so stellte sich heraus, war weit schwieriger als geplant und so konnte Gates (1992) zwar auf Erfolge verweisen, soweit es um die vergleichende statistische Erfassung der Performanz ging, musste aber gleichzeitig einräumen, dass eine tiefergehende Analyse noch ausstehe: „insight into the models’ portrayal of specific physical mechanisms requires a deeper and more revealing diagnosis of the results.“ Kurz, die Frage der Zurechnung (attribution), das heißt die Klärung welcher implementierte Mechanismus, welche Parameterwahl oder welches Parametrisierungsschema für die diagnostizierte Performanz verantwortlich war, blieb offen – und das auch in den späteren Jahren. Anders als erwartet führte die mehr und mehr voranschreitende statistische Erfassung der Performanz nicht zum Ziel. Im rückblickenden Bericht zu AMIP (Gates u. a. 1999) wird neuerlich festgestellt, dass der Modellvergleich erfolgreich war im Aufdecken von Unterschieden (und Feh-
7.9 Modellvergleich
167
lern) in der Performanz. Viele von diesen konnten aber nicht verringert werden, weil die Attribution nicht recht gelingen wollte. Anders ausgedrückt: Das analytische Verständnis konnte nicht erzielt werden, das nötig wäre, um auch in der Zuschreibung erfolgreich zu sein. Das war natürlich wenig befriedigend für PCMDI und dementsprechend wurden die Vergleiche mit unverändertem Ziel fortgeführt: In order to understand better the nature of these errors and to accelerate the rate of model improvement, an expanded and continuing project (AMIP II) is being undertaken in which analysis and intercomparison will address a wider range of variables and processes, using an improved diagnostic and experimental infrastructure. (Gates u. a. 1999)
Zusammenfassend kann man sagen, dass das AMIP Projekt zwei Ziele verfolgte: Als erstes den Vergleich der Performanz der Modelle (Diagnose), der eine technische Plattform, standardisierte Daten etc. erforderlich machte und zu einem beachtlichen Erfolg wurde. Das zweite Ziel jedoch, die Attribution, blieb weitgehend auf dem Status eines programmatischen Vorhabens. Die weiteren Vorhaben im Rahmen von PCMDI ergeben den gleichen Befund. Das neuere Schwesterprojekt von AMIP, das Coupled Model Intercomparison Project (CMIP), geht im Grund genauso vor, nur dass es die seit Mitte der 1990er Jahre bestehenden gekoppelten Atmosphäre-Ozean-Modelle vergleicht. Die Phase III von CMIP belieferte den IPCC-Bericht von 2007 (AR4) mit den aktuellen Daten, wie sie in der Grafik (Abbildung 7.2) gezeigt wurden. Die aktuelle Projektbeschreibung weicht in einem Punkt etwas von AMIP ab. Der weltweit-organisatorische Aspekt wird hervorgehoben, während vertieftes Verständnis und Attribution als Ziele fast verschwunden sind. Als drittes und letztes Beispiel in dieser Reihe sei noch kurz das Aqua-Planet Experiment (APE) angeführt. Es behält gerade das Ziel der Attribution bei und versucht, ihm mit einer Reduktion der Komplexität näher zu kommen (vgl. Neale and Hoskins 2000a). Die Erde wird als komplett von Wasser bedeckt angenommen (aqua-planet), um die Randbedingungen entscheidend zu vereinfachen, die Dynamik aber im wesentlichen beizubehalten – Atmosphäre und Ozeane sind physikalisch gesehen beide Flüssigkeiten. „In this way, the model’s physical interactions are retained whilst the complexity associated with many surface inhomogeneities are discarded.“ (Neale and Hoskins 2000b, 108) Schliesslich aber stellte sich der gleiche Effekt ein: In der aktuellen Dokumentation des Projekts (APE 2008) formulieren die Autoren sehr vorsichtig, dass schon der Vergleich neue Aufschlüsse liefere, während die Attribution auf später verschoben werden müsse. Auch wenn der geschilderte Fall kein strenger Beweis für die Holismusthese ist, so liefert er doch immerhin starke Indizien. Die Überlegungen zur (Pseudo)Modularität, dem Kludging und der daraus erwachsenden Pfadabhängigkeit der
168
7 Validierung und Grenzen der Analyse
Modellentwicklung legen zumindest nahe, dass der Bestätigungsholismus ein generisches Problem komplexer Simulationsmodellierung ist. Am Fall des Modellvergleichs haben wir beobachtet, dass dieser (zu erwartende) Typ von Problem tatsächlich entsteht. Das nehme ich als gutes Argument dafür, dass der Bestätigungsholismus hier wirksam ist.
7.10 Modell-Pluralismus Als Korollar aus der These vom Holismus und der Schwierigkeit oder gar Unmöglichkeit analytischen Verständnisses ergibt sich das folgende: Eine Konvergenz der Klimamodelle steht nicht zu erwarten, da die Ursachen der Pluralität kaum festzustellen – und daher nicht zu beseitigen – sind. Daher erscheint es angezeigt,vom Ziel einer einheitlichen Prognose abzurücken und den Pluralismus als Arbeitsbedingung zu akzeptieren. In Lenhard und Winsberg (2010) findet sich eine Gegenüberstellung von Optimisten und Skeptikern in puncto Konvergenz. Der hier geschilderte Holismus stärkt die skeptische Position, die vielleicht nicht die Mehrheitsmeinung darstellt, aber auch in der Klimawissenschaft selbst einige starke Verfechter hat.¹⁷ Um Missverständnisse zu vermeiden: Diese skeptische Position stellt nicht den Klimawandel in Frage, sondern die Aussichten auf dessen einheitliche Modellierung. Auch ein fortgesetzter Pluralismus heißt nicht, dass es in diesem Bereich keine Fortschritte geben kann. So konnte Jeffrey Kiehl (2007) durch eine vergleichende Analyse belegen, dass die unterschiedlichen Prognosen der Klimamodelle zu einem guten Teil auf die unterschiedliche Ausgestaltung der Aerosol-Dynamik zurückgeführt werden können. Das Ausmaß der kühlenden Wirkung von Aerosolen in der Atmosphäre und die Klima-Sensitivität sind negativ korreliert. Dadurch können Modelle, die eine sehr starke Beeinflussung durch menschliche Aktivität annehmen, durch eine entsprechende Modellierung der Aerosol-Dynamik zu einem ähnlichen Gesamtergebnis führen wie Modelle, die eine geringere Sensitivität mit einer geringeren Wirkung der Aerosole kombinieren. Hat Kiehl damit nicht eine Analyse der Art durchgeführt, der ich in komplexen Simulationen geringe Erfolgsaussichten gebe? Genau besehen hat er das gar nicht, denn Kiehl konnte nur zeigen, dass die genannten Größen korreliert sind. Ein analytisches Verständnis allerdings würde darüber hinaus erfordern herauszustellen, wie die Beeinflussung verläuft. Nach
Vergleiche dazu Smith (2002) oder Held (2005), die beide auf das mangelnde analytische Verständnis als einen Hauptgrund verweisen.
7.11 Pattern Match oder: Synthese statt Analyse
169
dem Stand der Dinge könnten noch eine Reihe anderer Mechanismen mit hineinspielen, die in Kiehls Studie aber nicht untersucht wurden. Die Aerosole sind als ein wichtiger Parameter erwiesen, ob als der einzige oder entscheidende, bleibt dahingestellt.¹⁸ Insgesamt möchte ich betonen, dass es bei der mit dem Holismus verbundenen Problematik nicht um die logische Unmöglichkeit, sondern um praktische Erschwernisse geht. Da der Holismus als Begriff in der Wissenschaftsphilosophie von Quine stammt und dort in einem logischen Kontext eingeführt wurde, erscheint es mir angebracht, nochmals herauszustellen, dass das Holismusproblem die Validierung komplexer Simulationsmodelle erschwert, nicht aber grundsätzlich unmöglich macht.
7.11 Pattern Match oder: Synthese statt Analyse Damit sind wir bei einem zweiten Korollar angekommen, das nicht die Klimaforschung im speziellen, sondern die Simulationsmodellierung im allgemeinen betrifft. Durch variierende Simulationsexperimente lassen sich steuernde Parameter (oder Teilmodelle, je nachdem, was variiert wird) identifizieren, wie z. B. die Aerosoldynamik in ihrem Effekt auf die Durchschnittstemperatur. Wenn man eine solche Größe identifiziert hat, lässt das jedoch offen, ob nicht noch weitere solcher Größen vorhanden sind. Hier liegt ein meines Erachtens grundlegendes Problem der Validierung von Simulationen. Der Modus der Modellierung nutzt, wie wir gesehen haben, systematisch die Plastizität der Modelle aus. Das heißt, es wird in der Regel mehrere Stellschrauben geben, die einen großen Effekt auf die Dynamik haben. Dadurch wird aber die Aussagekraft der Validierung vermindert, die Übereinstimmung von simulierten und beobachten Phänomenen als Kriterium nimmt. Denn es könnte ja noch weitere Möglichkeiten geben, die Dynamik zu steuern, also im Beispiel: die Temperaturprognose eines Modells in diejenige eines anderen zu überführen. Wenn es ein analytisches Verständnis gäbe, wäre die Position viel stärker, denn dann hätte man sozusagen qua Einblick in die Mechanismen einen Überblick über die steuernden Parameter. Das verhindert jedoch (in komplexen Fällen) der Holismus. Damit steht die Validierung vor folgendem Problem: Der Holismus verhindert – in der Praxis – das rückwärts gewandte analytische Verständnis. Für die Si Die Dynamik der tropischen Wolkenbildung ist ein aktueller weiterer Kandidat. Bony et al. (2006) geben einen Überblick über wichtige Quellen der Divergenz zwischen Modellen. Gramelsberger hat nachdrücklich auf die Schwierigkeiten hingewiesen, die gerade die großen Modelle der Klimaforschung hervorrufen, siehe Gramelsberger und Feichter (2011).
170
7 Validierung und Grenzen der Analyse
mulationsmodellierung bleibt dann immer noch die kombinierte Strategie verfügbar: die Effekte von bestimmten Einstellungen der Anfangsbedingungen und Annahmen werden über Simulationsexperimente bestimmt und iterativ angepasst. Die daraufhin erfolgende rückschließende Zuschreibung bleibt mit einer erheblichen Unsicherheit behaftet, insoweit es noch weitere Stellschrauben geben könnte, die zu ähnlichen Effekten führen. Im Validierungsverfahren wird letztlich ein pattern match als Erfolgskriterium benutzt, was ohne Kontrolle über den genauen Mechanismus des Ablaufs ein schwaches Kriterium ist – und bleiben muss. In solchen Fällen erscheint es folglich angemessen, von ‚schwacher‘ Validierung zu sprechen.
7.12 Die Kehrseite der Emergenz Typischerweise sorgt erst das Zusammenwirken der einzelnen Module während der Simulation dafür, dass relevante Eigenschaften der Gesamtdynamik zu Tage treten.Wie ich argumentiert habe, resultiert daraus ein Holismus, der die Analyse, d. h. den Rückgang auf den Beitrag einzelner Faktoren, blockiert. Diese Situation ist in der Literatur unter dem Stichwort der Emergenz behandelt worden. „I argue that emergence indicates dependence of a system property upon the mode of organization of parts of that system“ (Wimsatt 2007, 174). So gesehen ist der Holismus die Kehrseite der Emergenz. Tatsächlich existiert in der Literatur ein auf Simulationen gestützter Emergenzbegriff, der maßgeblich von Mark Bedau (1997, 2003) eingeführt wurde. Er hat den Begriff der weak emergence vorgeschlagen: „Assume that P is a nominally emergent property possessed by some locally reducible system S. Then P is weakly emergent if and only if P is derivable from all of S’s micro facts but only by simulation.“ Die schwache Emergenz involviert keine prinzipielle Irreduzibilitätsannahme, sondern nimmt den praktischen Umstand als Kriterium, dass die Interaktion erst ablaufen muss, damit man nachher etwas über die Eigenschaften sagen kann. Humphreys (2008b) bezeichnet diese Art der Emergenz zutreffend als computational und inferential und charakterisiert sie folgendermaßen: In other words, the process that leads up to the state is computationally incompressible. (…) Letting the computational model work out its own development is thus the only effective way to discover how the system’s states evolve.” (Humphreys 2008b, 588)
Emergenz in diesem schwachen Sinne ist kein so exotischer Begriff wie das bei sehr starken, ontologischen Begriffen der Emergenz der Fall ist. Ich stimme hier Humphreys zu, der schwache Emergenz für ein verbreitetes Phänomen hält. Er
7.13 Validierung und Technologie
171
schränkt allerdings ein, dass die schwache Emergenz vor allem bei zellulären Automaten und agenten-basierten Systemen relevant sei, was er von Bedaus diesbezüglicher Orientierung übernimmt. Ich halte diese Einschränkung für überflüssig. Nicht die Agentenperspektive, sondern die Modularität und Interaktion geben den Ausschlag. Die schwache Emergenz, oder eben der Holismus, treten ebenso in ‚globalen‘ Beschreibungen durch Differenzengleichungen auf, wie die Klimamodelle vorgeführt haben.
7.13 Validierung und Technologie Was zunächst wie eine bloße Verlängerung der in Modellierungszusammenhängen ganz allgemein auftretenden Validierungsproblematik aussieht, hat sich als neuer Gesichtspunkt herausgestellt, wenn es zu komplexen Simulationsmodellen kommt. Im traditionellen Verständnis mathematischer Modellierung war die Analyse die Bedingung dafür, die Wirkung lokaler Änderungen abschätzen zu können. Dieses Vorgehen wird durch den iterativen und explorativen Modus ersetzt – ein Vorgehen, das ohne die Rechengeschwindigkeit moderner Computer gar nicht praktikabel wäre. Die Bedingungen der Technologie spielen in dieser Verschiebung eine entscheidende Rolle. Der Simulation bleibt gar nichts anderes übrig, als ein technologisches Testverfahren. Ein Kern der Validierung bleibt daher der strenge Vergleich mit realen Phänomenen. Das verläuft ganz ähnlich wie bei technischen Zulassungsverfahren. Ein in der Simulation erprobtes Design muss schrittweise mit der Realität abgeglichen werden. Hierin unterscheiden sich der LHC in CERN, Klimamodelle und Crashtests wenig. Kritisch wird es, wenn Simulationen zur Extrapolation eingesetzt werden, d. h. in Bereichen, in denen ein Abgleich nicht möglich ist. Dann hängt die Validierung entscheidend von einer Kontinuitätsannahme ab (was sind ‚ähnliche‘ Bedingungen?), wie ich im ersten Teil des vorliegenden Kapitels argumentiert habe. Ist es daher berechtigt, Ergebnisse für zuverlässig zu halten, die mit einer anderweitig bewährten Simulationsmethode erzielt wurden, wie das Winsberg (2006) vorschlägt? Zwar wiegen Erfolge in ähnlichen Situationen durchaus etwas, was aber mit guten Gründen als ähnlich gelten kann, bleibt fraglich und ruft nach der Unterfütterung durch eine Theorie, die eine Kontinuitätsannahme stützen könnte. In vielen anwendungsnahen Fällen freilich scheint eine solche Theorie außer Reichweite. Insgesamt konvergieren Verfahren der mathematischen Modellierung, in Gestalt der Simulationsmodellierung, mit denen der Ingenieurspraxis – dieses bereits in Kapitel 5 genannte Resultat setzt sich in der Thematik der Validierung fort. Mein Fazit fällt nicht so negativ aus, als es den Anschein haben mag, denn ich
172
7 Validierung und Grenzen der Analyse
halte die Validierung wie sie in Testverfahren der Ingenieure praktiziert wird für sehr aussagekräftig – wenn auch in einem limitierten Bereich. Die Strenge dieser Verfahrensweise wird oft unterschätzt in der Philosophie. Sie bietet eine hohe Zuverlässigkeit betreffs der getesteten Fälle – konkrete Vorhersagen können leicht scheitern. Gleichwohl sind sie auch limitiert, da sie nur eine ungewisse und vorläufige Übertragung dieser Zuverlässigkeit auf andere Fälle stützen.
Teil III: Fazit und Ausblick
8 Epistemologie und Simulation – Fazit und Ausblick Die meistgestellte Frage von Seiten der Philosophie im Zusammenhang mit der Simulation ist vermutlich: Ist Simulation etwas Neues – ja oder nein? Die Frage scheint ein Schwarz-Weiß-Schema nahezulegen: Entweder es ereignet sich eine Revolution oder aber es passiert nichts Neues. Die vorliegende Untersuchung hat diese etwas ungeduldig formulierte alternative relativiert und war von vornherein darauf angelegt, das Ja-oder-Nein-Schema zu unterlaufen. Nein – Simulation stellt keinen gänzlich neuen Weg der Erkenntnisgewinnung dar, sondern ordnet sich in die allgemeinere Kategorie mathematischer Modellierung ein. Oder, wenn man es noch allgemeiner fassen möchte: Wenn man die Eigendynamik und die Vermittlungsleistung der Konstruktion zwischen empirischen Daten und theoretischer Begrifflichkeit betont, so wird die Computersimulation in den Rahmen einer Kantisch inspirierten Erkenntnistheorie gestellt. Einwänden wie denen, dass es sich bei Simulation um nichts Neues, sondern nur um eine Art der Modellierung handle, stimme ich sachlich gesehen zu – nur dass der Charakter als Einwand in Frage gestellt wird. Die Aufgabe bestand gerade darin genauer zu bestimmen, welcher Typus mathematischer Modellierung hier auftritt. Darauf zielt die positive Antwort ab: Ja – Simulationsmodellierung bildet einen neuen Typ mathematischer Modellierung. Die Neuheit ist, wie beim in der Einleitung erwähnten Schwarzpulver, mehr eine der Rezeptur als der Zutaten. Als wichtige und miteinander verzahnte Merkmale wurden in den Kapiteln eins bis vier dieser Untersuchung das Experimentieren, die Verwendung artifizieller (nicht-repräsentierender) Elemente, die Visualisierung, die Plastizität der Modelle und die epistemische Opazität dargestellt und bewertet. Die Merkmale fügen sich, so wurde in Kapitel 5 resümiert, zu einem explorativen und iterativen Modus zusammen, der die Simulationsmodellierung kennzeichnet. In diesem Modus nähert sich die mathematische Modellierung in den Wissenschaften Verfahrensweisen an, wie sie in den Ingenieurswissenschaften zu finden sind. Insbesondere, so haben wir gesehen, hebt dieser Modus die Fähigkeit zur vorhersage hervor, während gleichzeitig in Frage gestellt wird, wie weit die Erklärungskraft von Simulationsmodellen reicht. Die daran anschließenden Kapitel sechs und sieben erörterten, inwiefern die mathematisch und methodologisch zentralen Begriffe der Lösung und der Validierung gegenüber der traditionellen mathematischen Modellierung modifiziert werden müssen. Zugegebenermaßen ist die im vorliegenden Buch getroffene Entscheidung, die mathematische Modellierung als Kontrastfolie zu nehmen, nicht ohne Alternative.
176
8 Epistemologie und Simulation – Fazit und Ausblick
Man könnte eine Perspektive einnehmen, die etwa Realexperimente¹ oder scale models zum Vergleich heranzieht. Es ging mir nicht darum, Computersimulationen in jedem Aspekt zu beschreiben und zu analysieren. Ein solches Unterfangen wäre meines Erachtens auch wenig erfolgversprechend – zu vielgestaltig sind Zwecke und Methoden. Immerhin kommt der mathematischen Modellierung als Vergleichsperspektive eine besondere Qualität zu, weil sie ein Herzstück der modernen Wissenschaften betrifft und daher Aussagen über einen neuen Typ der Modellierung allgemeine wissenschaftsphilosophische Relevanz erhalten.² Eine besondere Schwierigkeit für eine Bestimmung liegt in der fortwährenden Veränderlichkeit des Explikandums selbst: Simulation, computerbasierte Modellierung und generell die Verwendungsweisen, die der Computer erfährt, sind weiterhin in einem Prozess der Veränderung begriffen. In gewissem Sinne schreitet im Einklang damit die Mathematisierung neuer Bereiche fort, was sich am Entstehen einer Reihe von Subdisziplinen ablesen lässt, die ein computational mit in ihrem Namen führen. Diese Mathematisierung aber arbeitet mit dem hier erörterten neuen Typ mathematischer Modellierung: Sie wird im beschriebenen explorativen und iterativen Modus vollzogen. Dieser Modus lässt Raum für Variation in seinen einzelnen Dimensionen. Das mag als eine nur unvollständige Bestimmung erscheinen, aber die Vielgestaltigkeit der Simulation und der Variantenreichtum ihres Einsatzes lassen meines Erachtens nichts anderes zu – die Praxis schöpft die Unschärfen aus. Es mag sein, dass einige der von den Wissenschaften eingeschlagenen Wege sich als Holzwege herausstellen. Simulationsverfahren befinden sich noch in einem schnellen Expansionsprozess, der vermutlich auch eine Anzahl wenig erfolgreicher Varianten hervorbringt. Ein kritischer philosophischer Blick kann durchaus dazu beitragen, Grade der Rechtfertigung für verschiedene Simulationsansätze zu vergleichen. Für eine normativ gestimmte Philosophie der Simulation scheint mir aber die Zeit noch nicht reif zu sein – es ist, um mit Hegel zu sprechen, noch zu hell: die Dämmerung hat noch gar nicht eingesetzt. In diesem Zusammenhang ist die enge Beziehung zwischen Simulation und Technologie besonders zu beachten. Epistemologie und Methodologie der Simulationsmodellierung sieht man diese Beziehung an. So fußt zum Beispiel die
Wolfgang Krohn hat diesen Begriff in die wissenschaftssoziologische Diskussion gebracht. Im Anschluss an Krohn (2007) findet sich im selben Heft eine breitgefächerte Diskussion dieses Begriffs. Ich denke, Mathematikphilosophen wie Lakatos würden erfreut zur Kenntnis nehmen, dass die auf einzelne historische Fallbeispiele gemünzte These vom quasi-empirischen Charakter der Mathematik mit der Computermodellierung nun auf eine breite Basis in der Praxis der Wissenschaften gestellt ist.
8 Epistemologie und Simulation – Fazit und Ausblick
177
Visualisierung auf Technologien, die Output direkt vor die Augen des Modellierers auf einen Bildschirm bringen können und die dadurch die Interaktion während der Modellierung erst ermöglichen. Vor den 1980er Jahren waren entsprechende Technologien nicht verfügbar, weshalb der Visualisierung in früheren Stadien der Simulation nicht eine so wichtige Rolle zukommen konnte. Im Umkehrschluss könnten neue Technologien vermutlich zu ganz erheblichen Modifikationen bezüglich des Modellierungstyps führen. Bisher haben sich digitale moderne Computer in logischer und architektonischer Hinsicht auf der Basis der Turingmaschine etabliert, das heißt mit der sogenannten von-Neumann-Architektur.³ Seither hat die weitere Entwicklung zu einer Stärkung des explorativen Modus geführt. Ein Beispiel für die Impulse, die von technologischen Veränderungen ausgehen können, bietet die noch vor kurzem kaum vorstellbare Rolle der kleinen, in jedem Büro und Labor verfügbaren Rechner – ob desktop Computer, workstation, oder cluster –, die heute praktisch überall in den Wissenschaften zum Einsatz kommen. Sie stellen eine Art Alternativmodell dar zu den zentral verwalteten Rechenzentren und haben den explorativen und iterativen Modus noch weiter gestärkt, dadurch dass dem Ausprobieren und Anpassen ein breiter Raum gelassen werden kann. Der Einsatz von Computermodellen in sehr verschiedenen Wissenschaften hat so seit etwa 1990 eine neue Wende und zugleich ein erstaunliches Ausmaß angenommen (vgl. Johnson und Lenhard 2011 für eine Exposition dieser Thematik). Der folgende Text des Schlusskapitels ist in zwei Unterkapitel gegliedert. Das erste nutzt die hier erzielten Resultate, um die Thesen einer Reihe von Philosophen kritisch zu diskutieren, die verschiedene Schattierungen der Auffassung vertreten, dass Simulation ein neues Verhältnis zur Wirklichkeit begründe. Im zweiten Unterkapitel möchte ich eine eigene These vorstellen, der gemäß die Computermodellierung als eine Wiederbelebung und zugleich Umkehrung des LeonardoBacon-Galilei-Programms gelten kann.
John von Neumanns berühmter Bericht über den EDVAC Computer (von Neumann 1945) etabliert diese Architektur. Dabei ist zu beachten, dass der Inhalt dieses Berichts im wesentlichen auf eine kollektive Leistung des Entwicklungsteams zurückging. Für eine ausführlichere Schilderung der damaligen Abläufe siehe z. B. Akera (2006). Insbesondere die Arbeiten von Turing beeinflusste die Konzeption dieser Computerarchitektur, vgl. den Bericht Turing (1946), und breiter abwägend Davis (2000).
178
8 Epistemologie und Simulation – Fazit und Ausblick
8.1 Modell als Welt? Ein wiederkehrendes Motiv in Resümees der wissenschaftsphilosophischen Literatur über Simulation besteht darin, dass diese die Distanz zwischen Welt und (konstruiertem) Modell der Welt verschwinden lasse. Die per Computer generierten Modelle und Visualisierungen erschienen und fungierten demnach wie eine eigene Welt, die die wirkliche Welt ersetze. Man spricht dann auch von Virtualisierung. Früher galten die von der Wissenschaft konstruierten Modelle als theoretisch-idealisierende Gegenstücke, um sie mit der Welt zu vergleichen und diese so zu erklären oder auch in sie einzugreifen. Diese vergleichende Gegenüberstellung falle in der Simulation weg, so könnte man diese philosophische Position zusammenfassen, und die Modellwelt wird autark. Eine große Bandbreite von Denkern vertritt eine derartige Autarkie-These, wobei diese Übereinkunft keineswegs erhebliche anderweitige Differenzen in Abrede stellt. Peter Galison spricht vom „computer-as-nature“ (1996), d. h. von der Tendenz, dass die im Computer sich abspielende Dynamik als das zu untersuchende Objekt der Naturwissenschaft gesetzt wird und die Natur als primäres Objekt verdrängt. Für jede derartige Positionen stellt sich dann das Problem, weshalb eine autarke Simulation überhaupt in der Anwendung funktionieren sollte. Galison argumentiert diesbezüglich, dass die Effektivität der Simulationen in der Anwendung auf die Natur auf eine ontologische Entsprechung von Computer und Welt gestützt sei. Er führt dazu die Stochastizität als gemeinsames Merkmal von Naturvorgängen und Monte-Carlo-Simulationen an. Das von Galison angeführte Material allerdings, das für eine Analogsetzung von probabilistischer Welt und MonteCarlo Methoden der Simulation sprechen soll, finde ich wenig überzeugend, da es sich auf einer sehr beschränkten (und meines Erachtens zudem exotischen) Ausschnitt der Historie der Monte-Carlo Methoden kapriziert. Stephen Wolfram vertritt eine ähnliche Ersetzungsthese und findet zu deren Abstützung eine ebenfalls ontologische Motivation. Nach Wolfram besteht die ontologische Gemeinsamkeit von Welt und zellulären Automaten in der gemeinsamen fraktalen Geometrie. Auf diese Gemeinsamkeit stützt er seine weitgehenden Behauptungen einer „New Kind of Science“ (2002). Vor dem Hintergrund der in der vorliegenden Arbeit herausgearbeiteten Eigen-Sinnigkeit der Simulationsmodellierung, insbesondere auch der Plastizität von CA-Modellen, scheint es allerdings recht unplausibel, ontologische Gründe für eine Passung anzuführen. Eine damit verwandte Argumentationsrichtung verfolgt Alfred Nordmann, wenn er für den „Collapse of Distance“ als Charakteristikum der Technoscience argumentiert (2006). Hier verschwinde ein Abstand, so Nordmann, der die moderne Wissenschaft ausgezeichnet habe. Simulationen erscheinen dann als Paradebeispiel einer breiter angelegten Entwicklung (weg von) der klassisch-mo-
8.1 Modell als Welt?
179
dernen Wissenschaft, die den Abstand von Modell und Welt hervorgehoben hat. Simulation exemplifiziert dann, was Nordmann als Übergang von „science“ zu „technoscience“ beschreibt. Einiges deckt sich mit der vorstehenden Analyse der Simulationsmodellierung, insbesondere bezüglich der Komplexität der Modelle, die erzwingt, dass die Modelle zu Gegenständen werden, die aus eigenem Recht konstruiert und untersucht werden. Der Abstand zwischen Modellen und Welt war ja nicht zuletzt durch Idealisierung, Einfachheit und Transparenz der Modellwelt markiert. Das, so haben wir gesehen, ist in der Tat nicht mehr der Fall – diese Eigenschaften diskriminieren nicht mehr zwischen (Simulations‐)Modell und Welt. Als zu dieser Gruppe gehörig möchte ich auch Sherry Turkle anführen (2009), die von einer eher soziologisch-ethnographischen Warte aus das Charakteristikum von Simulation benennen möchte. Ihre hauptsächliche Aussage besagt, dass Simulationen eine eigene Handlungslogik entfalten, die von Seiten der Forscher „Immersion“ erfordere: „simulation needs immersion“. Die Forscher hätten gar keine andere Wahl, als in die simulierten Welten regelrecht einzutauchen. Das erzeugt zu Recht Bedenken (die Nordmann teilt), ob und wieweit den beteiligten Wissenschaftlern klar bleibt, dass es Simulationsexperimente oder Designstudien (‚nur‘) mit Konstrukten zu tun haben. Turkle stellt hier einen Kulturwandel fest, der sich zwischen 1980 und 2000 vollzogen habe. Während Simulation in den 1980er Jahren in vielen Bereichen neu eingeführt und kritisch – und von daher sehr distanziert – mit den bestehenden Verfahren verglichen wurde, sei Computersimulation eine Generation später zum tendenziell unhinterfragten Alltag geworden und in vielen Bereichen ohne Alternative. Auch Jean Baudrillard könnte man mit zu dieser Gruppe rechnen. Obwohl seine Schriften nicht unbedingt wissenschaftsphilosophische Argumentationen entfalten, scheint er doch zu einer der Autarkie-These verwandten Ansicht zu kommen. Er sieht die breit verstandene aktuelle Kultur der Medien- und Konsumgesellschaft als eine Kultur der Simulacra an. Damit bewegt er sich in der Strömung der französischen Dekonstruktivisten, denen ein Diskurs immer auf Texte oder andere Diskurse referiert, was die Referenz auf die Realität als obsolet erscheinen lässt. Baudrillard gibt dem eine besondere Note, indem er das Ende der Repräsentation als „implosion“, oder auch als „collapse“ beschreibt (1998). Er nimmt Simulation in einem weiten, nicht auf Computermodelle beschränkten Sinne, der zum Beispiel elektronische Medien mit einbezieht. Die Selbstbezüglichkeit der so verstandenen Simulation, die selbst für eine Welt genommen wird, charakterisiere die postmoderne Gesellschaft. Die Simulation (im Sinne der wissenschaftlichen Computersimulation) wäre dann eine veranschaulichende Instanz dieser umfassenderen Diagnose. Ich meine, Baudrillard legt eine anregende Kulturkritik vor, aber keine belastbare
180
8 Epistemologie und Simulation – Fazit und Ausblick
Argumentation über Simulationsmodellierung – und ob er das hinsichtlich der Computersimulation überhaupt anstrebt, ist auch zu bezweifeln. Es scheint mir dennoch frappant, dass er unter dem Strich eben die Auffassung vertritt, die Simulation ersetze durch ihre Selbstbezüglichkeit die Welt. In dieser Hinsicht kommen die genannten Autoren, bei allen sonstigen Unterschieden, auf einen gemeinsamen Nenner: Der fundamentale Umbruch, der mit Simulationen verbunden ist, besteht im Wegfallen des Bezugs auf eine der Simulation äußere Welt. Wobei die simulierte Welt natürlich kein beliebiges Fantasieprodukt ist, sondern nach Methoden konstruiert, die genau die Übereinstimmung gewisser dynamischer Eigenschaften zum Ziel haben. Soweit sich diese These auf den weiteren Bereich der Kultur bezieht oder eine historische Epocheneinteilung vornimmt, möchte ich sie dahingestellt sein lassen.⁴ Soweit jedoch die Wissenschaft und deren Verwendung von Simulation gemeint ist, muss die allgemeine These meines Erachtens zu einem Teil zurückgenommen und durch eine differenzierte Version ersetzt werden. Zwei Komponenten der Simulationsmodellierung scheinen mir Gründe zu liefern, die der Autarkie-These zuarbeiten. nämlich erstens die große Komplexität der Modelle und zweitens der damit verbundene explorative Modus der Modellierung. Die zunehmende Komplexität der Simulationsmodelle geht einher mit einer fortschreitenden Arbeitsteilung. Teams von Softwareentwicklern erstellen Module, die von forschenden Wissenschaftlern in Modelle eingebunden werden. Wissenschaftler einer Disziplin erstellen ein Modell, das als Teilmodell in eine Simulation eingebunden wird und dergleichen mehr. Wenn die Nutzer nicht dem Code ‚auf den Grund gehen‘ können, d. h. die algorithmische Mechanik kennen – und das ist heute in vielen Fällen nicht mehr möglich – bewirkt dieses blackboxing, dass den Simulationsresultaten ihre Abhängigkeit von bestimmten Annahmen und Bedingungen nicht mehr anzumerken ist. Das war als epistemische Opazität und im Kapitel zu den Grenzen der Analyse ausführlich behandelt worden. Gleichzeitig nimmt die Zahl der Wissenschaftler zu, die sich am Computer um solche Probleme der Computermodellierung kümmern, deren Bearbeitung und Lösung sich allein an der Simulation bemisst, etwa wenn die Modelle an eine neue Gitterarchitektur angepasst werden, wenn eine Gruppe von Modellen miteinander kompatibel (verknüpfbar) gemacht werden, oder wenn ein Parametrisierungsschema durch ein rechentechnisch effektiveres Schema ersetzt wird. Anders ge-
Mit der Epochenfrage, die ja keineswegs auf Simulation beschränkt ist, sondern diese nur als einen potenziellen Beispielsfall enthält, beschäftigen sich einige Aufsätze im der Sammlung von Nordmann et al. (2010).
8.1 Modell als Welt?
181
sagt: mit zunehmender Komplexität der Simulationsmodelle und mit zunehmender Komplexität der vernetzten Infrastruktur die im Herstellungs- und Anpassungsprozesses genutzt wird, nimmt der relative Anteil der Wissenschaftler zu, die mit Aufgaben beschäftigt sind, die allein simulations-intern definiert und bearbeitet werden. Auch wenn es letztlich um den Vergleich z. B. des simulierten Klimas mit dem realen Klima geht, beschäftigt dieser Vergleich nur eine Minderheit der mit Simulationsmodellierung tatsächlich befassten Leute. Es ist daher ein soziologisches Faktum, und zwar ein durchaus bedeutsames Faktum, dass Modelle einen wachsenden Anteil der Erfahrungswelt von Wissenschaftlern bilden. Ein zweiter Grund besteht darin, dass die Simulationsmethodik auch beeinflusst, wie Modelle wahrgenommen werden. Denn der iterative und explorative Modus verlangt ja, dass die Forscher sehr interaktiv vorgehen, z. B. Modelle nach Maßgabe ihres visualisierten Verhaltens manipulieren. Während dieses Prozesses wirken die Objekte, als wären sie ‚außen‘, bzw. als zeigten sie eine zu überwindende Widerständigkeit. Dadurch erwächst verfahrensbedingt ein Potenzial, sich über die Konstruiertheit und mathematische Natur der simulierten Objekte zu täuschen. Es gibt aus methodischen Gründen kein Entkommen aus der interaktiven, iterativen und lang andauerenden Beschäftigung mit der Variation von Simulationen. In dieser Intensität – und auch in der öfter angeführten Lebendigkeit der Visualisierung – liegen ebenfalls Gründe für die Autarkie-Position. Kurz: Die notwendigerweise hoch arbeitsteilige Organisation der Modellierung und die Art des Umgangs mit Modellen legen tatsächlich die Autarkie-These nahe. Das ist jedoch bei weitem noch keine Rechtfertigung. Diese pragmatische Ebene fällt ja nicht in eins mit dem Gegenstandsbezug. Als soziologische Beobachtung ist die These zutreffend – Turkle ist da größtenteils zuzustimmen. Über die philosophische oder epistemologische Problemlage ist damit aber nur wenig gesagt. Meines Erachtens können die Beobachtungen auf der pragmatischen Ebene die weitreichende epistemologische These nicht stützen. Sie lassen sie höchstens verführerisch erscheinen, aber sie genügen nicht, die allgemeine These zu rechtfertigen, sondern machen eher verständlich, weshalb man sie irrtümlicherweise für zutreffend halten kann. Insofern ist Nordmann beizupflichten: Der Distanzverlust ist ein Faktum, allerdings kommt es darauf an, die Gründe dafür aufzuzeigen. Ebenso deutlich wurde, dass es sich um einen im philosophischen Sinne ungerechtfertigten Distanzverlust handelt. Darin bin ich einig mit Nordmann und auch vielen kritisch denkenden Wissenschaftlern und Ingenieuren. Die Analyse der Simulationsmodellierung gibt uns auch Gründe an die Hand, die eine kritische Haltung stützen. Gerade der weiter oben dargelegte Modus der Simulationsmodellierung enthält nämlich auch Komponenten, die der AutarkieThese entgegenlaufen, indem er die Modelle gerade nicht zur Welt werden lässt.
182
8 Epistemologie und Simulation – Fazit und Ausblick
Der iterative, explorative Modus war ja ein pragmatisches Mittel, um die Komplexitätsbarrieren, die der Modellierung entgegen stehen, umgehen zu können – oder es zumindest zu versuchen. Ein wesentlicher Bestandteil ist die Überprüfung der Passung, bevor die nächste Iteration gestartet wird. Damit erhält das Modell eines Status als bloß vorläufig und verweist auf den nächsten Abgleich – und ist gerade nicht autark. Zudem zielte Modellierung in vielen der untersuchten Fälle wesentlich auf die Ähnlichkeit zwischen Phänomenen und der Performanz der Modelle ab. Gerade in dem Maße, in dem Modelle plastisch sind und mit artifiziellen Komponenten arbeiten, muss ihre Spezifizierung auf Kriterien zurückgreifen, die nicht aus dem Modell selbst stammen. In dem Maße, in dem es der Modellierung darum geht, die Entsprechung auf der Ebene der Performanz herzustellen, sind die Modelle gerade nicht autark. Aus der hier angestellten Untersuchung der Simulation folgt, dass Simulation immer nur zu vorläufigen Ergebnissen führen kann. Und das gilt nicht aus allgemeinen Erwägungen, wie dass endgültiges Wissen nicht in der Reichweite menschlicher Erkenntnis liegt, sondern aus simulations-spezifischen Gründen, weil Simulationsmodellierung stets mit der Vorläufigkeit der Resultate rechnet. Vielen Wissenschaftlern, die mit Computermodellen arbeiten, und deren Verhalten in Anwendungen mit einbeziehen, ist das klar. So schreibt etwa Thomas Sonar in seinem lesenswerten Überblicksartikel „Turbulenzen um die Fluidmechanik“, dass die umfangreiche Feinjustierung eines Modells zwar Übereinstimmung von Simulation mit experimentellen Daten herstellen kann, die jedoch an die jeweilige Situation gebunden bleibt, so dass unter Umständen schon beim nächsten Problem in einer nur leicht verschiedenen Anwendungssituation ein anderes Turbulenzmodell nötig sein kann (Sonar 2009, 85). Er selbst möchte auf die problematische Belastbarkeit des Simulationswissens hinweisen, zugleich dokumentiert er aber auch das Bewusstsein von dessen vorläufiger Natur: Das Zutrauen in eine mehr als nur lokale Gültigkeit ist zu Recht gering. Das ist einerseits Herausforderung für die Theorie, durch einen allgemeineren Rahmen für Abhilfe zu sorgen⁵, zugleich ist die Verwendung eines neuen, und wiederum nur lokal adaptierten Modells eine in der Praxis verfügbare und verfolgte Option. Das Potenzial eines Modells zur Anpassung und Kalibrierung war als Stärke von Simulationsmodellen herausgearbeitet worden. Diese Stärke als ein Zeichen für Selbstgenügsamkeit zu nehmen, wäre nicht gerechtfertigt. Umgekehrt wird ein
Sonar (2009) umreißt dieses Programm als eines der größten Probleme der Mathematik, die auf der sogenannten Clay-Liste versammelt sind.
8.2 Wiederbelebung und Umkehrung
183
Schuh daraus: Anpassung und Kalibrierung sind auf etwas hin orientiert und erinnern an die strukturelle Ergänzungsbedürftigkeit. Simulationsbasiertes Wissen ist vorläufiges Wissen, dessen Robustheit stets in Frage steht. Es bleibt freilich zu beachten, dass die Formung der Welt durch Konstruktion ein epistemologisch fundamentaler Aspekt des Weltbezugs ist. Die soeben dargelegte Argumentation ist nicht gegen diese Einsicht der Kant‘schen Erkenntnistheorie gerichtet und es soll nicht der Eindruck entstehen, hier würde ein direkter Bezug zu einer objektiven und unberührten Welt vorausgesetzt. Ganz im Gegenteil: die Simulationsmodellierung lässt sich im Rahmen der Kant‘schen Epistemologie verstehen, insofern die menschliche Konstruktionstätigkeit erst etwas wie Objektivität erschafft. Das aber sollte nicht dazu verführen, die Modelle der Welt gleichzusetzen. Die Eigendynamik und partielle Autonomie der Modelle ist als wesentliches Merkmal der Simulation im vorstehenden Text bereits mehrfach herausgestellt worden. Dies Resultat, so habe ich ebenfalls ausgeführt, ordnet sich in die neuere Modelldebatte ein. Die philosophische Analyse der Simulation bestätigt, und verschärft teils sogar, die These von den Modellen als (semi)autonome Vermittler, wie sie von Morrison und anderen vertreten wird. Diese Position ist, wenn man einen größeren Rahmen sucht, bereits in der Kant‘schen Epistemologie angelegt, insofern wesentliche Bestimmungen der Welt erst durch die konstruktive Tätigkeit der Menschen hervortreten. Das aber annulliert nicht die Differenz zwischen Welt und Modell (Konstrukt), genausowenig lässt die Simulation die Modelle (im epistemologischen Sinne!) zur Welt werden. So wichtig der Konstruktions-Aspekt ist, er zeichnet weder die Computersimulation aus, noch vermag er die Last der Autarkie-These zu schultern.
8.2 Wiederbelebung und Umkehrung Im abschließenden Teil des Kapitels möchte ich die Computermodellierung philosophisch-historisch in den Entwicklungsgang der Technik- und Naturwissenschaften einordnen. Sie stellt, so die These, die Wiederbelebung und – in gewissem Sinne – zugleich auch die Umkehrung eines Programms dar, das ich hier als Leonardo-Bacon-Galilei-Programm bezeichnen möchte. Bereits zu Anfang der vielschichtigen Entwicklungsgeschichte der modernen Wissenschaft wurden Wissenschaft, Ingenieurskunst und Technologie in eine systematische Nähe zueinander gerückt, eine Position, die ich als Leonardo-Bacon-Galilei-Programm bezeichnen und gleich näher erläutern möchte. An dieses Programm knüpft meine These zur historischen Einordnung der Simulation an: Der explorative Modus bewirkt eine Wiederbelebung und zugleich Umkehrung dieses Programms. Der
184
8 Epistemologie und Simulation – Fazit und Ausblick
neue Typ der mathematischen Modellierung stellt eine Wiederbelebung dar, weil er auf einer engen Verknüpfung von Wissenschaft und Technologie basiert und er stellt zugleich eine Umkehrung dar, weil dies unter radikaler Revision der Konzeption von mathematischer Modellierung geschieht. Zunächst einmal möchte ich erläutern, inwiefern die genannten drei Personen unter einem gemeinsamen programmatischen Dach versammelt werden können. Insbesondere die Rolle von Technik und Exploration ist als ein verbindendes Element zwischen Leonardo, Bacon und Galilei hervorzuheben. Es liegt auf der Hand, dass es tiefgreifende Unterschiede gibt, schon da die Personen durch ein erhebliches Zeitintervall getrennt werden. Als (Mit‐)Begründer der Wissenschaft wird Galilei (1564 – 1642) wird vielleicht am meisten genannt; das behauptete Programm jedoch reicht ein weiteres Jahrhundert zurück zu Leonardo (1452– 1519), einer Gestalt der Renaissance. Natürlich liegt hier kein explizit formuliertes gemeinsames Programm vor, und ist der Zeitrahmen mit mehr als hundert Jahren nicht etwas willkürlich gewählt? Tatsächlich gibt es gute Gründe für diese Wahl. In der Literatur besteht weitgehend Einigkeit darüber, dass bis ins 16. Jahrhundert hinein eine skeptische Einstellung vorherrschte, was die Aussichten beobachtungsgeleiteten Wissens und einer mathematisierenden Wirklichkeitsauffassung angeht (vgl. etwa Wallace 1988). Diese Skepsis hat sich erst mit der Mechanisierung des Weltbildes im 16. und 17. Jahrhundert in einen Optimismus verwandelt. Die diesbezügliche Zusammengehörigkeit der beiden Jahrhunderte ist in der Literatur gut abgesichert (Cassirer 1999, Dijksterhuis 1956). Insbesondere Drake und Drabkin (1969) stellen parallele Entwicklungslinien einer mathematisierenden Mechanik dar, die von Tartaglia und anderen mathematischen Modellierern des 16. Jahrhunderts zu den Heroen des 17. Jahrhunderts wie Galilei, Kepler, Tycho Brahe oder Stevin führen. Und in genau dieser Zeitspanne ist das besagte Leonardo-Bacon-Galilei-Programm angesiedelt. Beginnen wir mit dem mittleren Namensgeber: Für Francis Bacon (1561– 1626) war bekanntlich der praktische Nutzen ein übergeordnetes Kriterium, an dem sich auch theoretische Wissenschaft erweisen müsse. Selbst wenn diese ein nach eigenen Maßstäben genuines Verständnis zu erreichen vermag, könne das nicht fehlende „practical benefits“ ersetzen (Urbach 1987, 14). Im Grunde schwebte Bacon eine „Symbiose von Wissenschaft und Technik“ vor (Krohn 2006, 192), in der wissenschaftliches Wissen gar nicht von Verfügungswissen unterschieden wäre. In a nutshell: if a scientific statement can lead to a successful (re)production of the phenomenon it purports to describe, however crudely or approximately, then that very state-
8.2 Wiederbelebung und Umkehrung
185
ment should be accepted as a full denizen into the realm of practically sanctioned knowledge. (Pérez-Ramos 1996, 111)
Simulationsbasiertes Wissen wäre demnach ganz in Bacons Sinne gewesen, für den es zum Kernvorhaben der Wissenschaften gehörte, Interventionsmacht durch technische Konstruktion herzustellen – und zwar so sehr, dass Verstehen wie als daraus abgeleitet erscheint: „only the doable – at least in principle – is also understandable“ (Funkenstein 1986, L78). Dieser Standpunkt setzt die Abkehr vom Aristotelismus voraus, gemäß dem artificialia nicht angetan wären, Einsicht in die Natur – ein ganz anderes Gebiet – zu erlangen. Eine un-aristotelische Artifizialität ist uns auch in der Simulationsmodellierung als wichtiges Element begegnet. Francis Bacon brachte mit seinem Verdikt „nature to be commanded must be obeyed“ deutlich zum Ausdruck, dass Technologie und Natur auf der gleichen Ebene stehen. Naturwissenschaft hat er im Grunde als fast identisch mit Ingenieurskunst projektiert. Letztere nahm einen außerordentlichen Aufschwung in der Renaissance, wobei es ebenso bezeichnend wie treffend ist, dass von Ingenieurskunst und nicht von Wissenschaft die Rede ist. Dieses Fach gehörte eindeutig den handwerklichen Künsten zu und nicht dem Bereich akademischer Gelehrsamkeit. Auch wenn Leonardo da Vinci als Visionär gilt, so ist umstritten, ob er in einem relevanten Sinne ‚wissenschaftlich‘ vorging. Leonardo wird kontrovers teils als Physiker, als Wissenschaftler, dann wieder als Künstler, oder auch als gewiss kein Wissenschaftler eingeordnet.⁶ Ob man Leonardo als Wissenschaftler einordnen mag, hängt ganz sicher davon ab, welchen Begriff der Wissenschaft man heranzieht. Ein wichtiger Aspekt scheint mir zu sein, welche Rolle der Mathematisierung für die Entwicklung der Wissenschaften zugeschrieben wird. Leonardo war nicht an der damaligen akademischen Schul-Mathematik interessiert, die er wohl auch nicht gut beherrschte, was im Übrigen als markantes Statusmerkmal gelten kann. Er war aber sehr wohl an der quantitativen Behandlung praktischer Probleme, etwa denen der Statik, interessiert. More significantly, Leonardo showed no interest whatever in the exiting development of algebra in his own age. What is more, in geometry he disregarded the traditional limitation of construction by straight edge and compass; he was quite content with numerical approximations. (Seeger 1974, 45)
Hinter dieser unorthodoxen und anti-akademischen Haltung verbirgt sich dennoch ein starkes Interesse an der Mathematisierung. Leonardo zielte auf quanti Für eine Zusamenstellung kontroverser Urteile vgl. Seeger (1974.)
186
8 Epistemologie und Simulation – Fazit und Ausblick
tative Behandlung von Problemen ab, wie sie durch Messungen (und nicht durch tradierte Theorien) erreichbar sind, auf technische und erfahrungsgeleitete Ideen (so der Ingenieur Reti in O’Malley 1968). Die Tätigkeit Leonardos als Instrumentenbauer wie als Künstler wird durch einen mathematisierenden Zugang strukturiert, nicht im Sinne der Theorie, sondern im Sinne von Quantifizierung und mathematischer Darstellung.⁷ Mathematisierung soll so beschreibende und technische Prozesse und Entwürfe unterstützen. Die Einbindung von Experimenten, explorativen Versuchs- und Testreihen, wie sie Leonardo proklamierte, entsprach eher Ansätzen wie Tartaglias ‚praktischer Geometrie‘ als der Bildung einer Theorie. Oder, wie das Randall bilanziert: „Leonardo was congenial more to Edison than to Einstein.“ (Randall 1961, 131/132). In Leonardos philosophischen Tagebüchern findet sich mehrfach ein Lob der Erfahrung gegen jedes Dogma, konsequenterweise begleitet von einer offensiv dargestellten Bereitwilligkeit zur Unfertigkeit und Vorläufigkeit (gegen Enzyklopädismus), die wiederum von einem Bewusstsein der Fülle und Kompliziertheit der zu lösenden Probleme getragen ist (vgl. zum Beispiel Leonardo 1958, 167). Immerhin vermag man als sein Prinzip zu erkennen, dass die Weltanschauung auf eine Grundlage von Erfahrung, Experiment und Mathematik gestellt sein soll, eine Haltung, die gegen Alchimisten und Theologen gleichermaßen gerichtet ist. Diesbezüglich erscheint Leonardo als geradezu erstaunlich modern, allerdings wurde er wohl nur wenig rezipiert, so dass sein faktischer Einfluss auf die Entwicklung der Wissenschaften umstritten ist.⁸ Galilei nun allerdings scheint, was die Rolle der Mathematik zur Strukturerfassung angeht, noch sehr weit entfernt. Wie lässt er sich ins programmatische Bild hinzufügen? Er war ein angesehener Ingenieur und berühmter Intrumentenbauer seiner Zeit, aber mindestens ebenso bedeutsam ist seine Hochschätzung der Mathematisierung. Er propagierte sie nicht nur wegen der praktischen Vorteile eines quantitativen Zugriffs, sondern vor allem deshalb, weil die Mathematik die geeignete Form bereitstellte, die essenziellen Strukturen hinter den Erscheinungen adäquat zu erfassen. Wie sein berühmtes Verdikt besagt, sei das Buch der Natur in mathematischen Zeichen geschrieben. Was den Brückenschlag oder die Synthese von Leonardo bis Galilei anbelangt, ist der Beitrag von Jürgen Mittelstraß (1992) sehr aufschlussreich. Er bezeichnet die moderne Welt als eine „Leonardo-Welt“, deren Signatur technologischer Fortschritt sei. Zugleich besteht er auch darauf, dass diese Leonardo-Welt erst mit
Darin stimmen so verschiedene Denker wie Valéry (1960) und Jaspers (1953) überein. Drake und Drabkin (1969) relativieren die zentrale Rolle, die Duhem für Leonardo reserviert hatte.
8.2 Wiederbelebung und Umkehrung
187
Galilei und der Etablierung der epistemisch orientierten Wissenschaft richtig Fuß fasste. Die moderne Welt, die Leonardo-Welt, sei ausgezeichnet durch eine Kombination, nämlich die der Rationalität des Könnens mit der dauerhaften Überlegenheit durch Wissen, d. h. moderne Industriekulturen seien „wissenschaftsgestützte technische Kulturen“, als solche „Produkt des epistemischen und des technischen Wesens des Menschen“ (Mittelstraß 1992, 12). Und weiter: In ihren ‚technischen‘ Strukturen gibt sich die Welt als das Produkt, als das Werk des Menschen zu erkennen. Eine solche Welt nenne ich die Leonardo-Welt … Es ist eine Welt, in der sich das epistemische und das technische Wesen des Menschen, in der sich die Verfügungsgewalt des Menschen, gestützt auf den wissenschaftlichen und den technologischen Verstand, eindrucksvoll zum Ausdruck bringen. Der moderne Mensch macht sich seine Welt. (Mittelstraß 1992, 14)
Der Begriff der Konstruktion wird spätestens mit Kant zu einem Zentralbegriff der Epistemologie – und behält diese Rolle in der Simulationsmodellierung, wie von mir argumentiert wurde. Der wesentliche Schritt zur Synthese von Wissenschaft und Technik wird dabei, so Mittelstraß, von Galilei geleistet, der die Traditionen der Werkstätten und der Schulen vereint. Erstere umfasst Renaissance-Vertreter wie Brunelleschi, Ghiberti, Alberti, Tartaglia, oder eben Leonardo, während die Schultradition auf Aristoteles, Archimedes und Euklid aufbaut. Galilei, hierin ikonisch für die Entwicklung im 17. Jahrhundert, führt diese beiden Traditionen zusammen – Mittelstraß folgt hier der Verschmelzungsthese von Olschki und Zilsel. Man mag hier eine Asymmetrie bemerken: Erst mit Galilei hebt nach Mittelstraß die Entwicklung an, die Technik in einem systematischen Sinne mit Wissenschaft kombiniert, aber dennoch wird Leonardo als Namensgeber erwählt – als ob die Leonardo-Welt doch weiter zurückreichte als die sich im 17. Jahrhundert formierende moderne Wissenschaft. Es scheint mir hier eine wichtige Frage vorzuliegen, die Mittelstraß offenlässt und die der erwähnten kleinen Ungereimtheit entspringt: Wie selbstbestimmt ist die am Können orientierte Ingenieurstradition, bzw. wie stark ist der Einfluss der Wissenschaften tatsächlich? Mir erscheint es gerechtfertigt, nicht von Galilei-Programm zu sprechen, sondern bereits mit Leonardo anzuheben, gerade wegen des Anteils der am Können orientierten Tradition der Ingenieurskunst. Ganz gewiss kommt Galilei eine besondere Stellung zu, der als Mathematiker und Ingenieur in der Naturphilosophie reüssierte. In seinem Schaffen manifestieren sich zugleich Handwerk, Ingenieurskunst und die neue Programmatik der mathematischen Modellierung. Mittelstraß hat sehr zutreffend Galilei als die Figur herausgestellt, in der die Könnens- und Wissenskultur zusammengefunden haben zu einer bemerkenswerten und wirkungsmächtigen Synthese. Aber diese blieb, so
188
8 Epistemologie und Simulation – Fazit und Ausblick
möchte ich hinzufügen, ganz wesentlich in einem programmatischen Stadium. Im weiteren Verlauf, im 18. und 19. Jahrhundert, vertiefte sich der Abstand sogar, der eine auf Wissen hin organisierte akademische Wissenschaft von anwendungsorientierter Ingenieurskunst trennte. Ich stimme Mittelstraß zu, dass in einem wichtigen systematischen Sinne die beiden sehr ähnlich sind. Es waren jedoch weitere, recht komplexe Entwicklungsschritte vonnöten, um Wissenschaft und Technologie einander näher zu bringen und einen gewissen Zwang zur Synthese zu entfalten. Diese weitere Entwicklung ist zutreffend als „Verwissenschaftlichung der Technologie“ umschrieben worden, wie das Gernot Böhme, Wolfgang van den Daele und Wolfgang Krohn in „The ‚Scientification‘ of Technology“ (1978) tun. In ihrer differenzierten Darstellung erkennen Böhme et al. dem Leonardo zu, bereits erste Schritte in diese Richtung unternommen zu haben und „one of the first scientists to combine the technical construction of a desired reality with the discovery of the structures of a given reality“ (Böhme et al. 1978, 221) gewesen zu sein. „Leonardo’s discoveries were as much laws of nature (ragioni) as rules of operation (regole)“ (Böhme et al. 1978, 222) Und Böhme et al. sehen damit, übereinstimmend mit Mittelstraß, die Konstruktion zum begrifflichen Schlüssel der Epistemologie aufsteigen: [K]nowledge of nature has become identical with its experimental and deductive construction. (…) This nexus of cognition and operation provides a more profound insight into the interdependency of the knowing subject and the objects to be known than did either the ideas of traditional natural philosophy or those of advanced craftmanship alone. (Böhme et al. 1978, 224)
Aber Böhme et al. räumen zu Recht ein, dass dieser Nexus erst viel später zu umfassender Wirksamkeit gelangt ist, nämlich als es mit dem Ende des 19. Jahrhunderts zu einer durchgreifenden Theoretisierung der Technologie kam. Both the development of sciences into special theories of technology and the development of technologies into special theories of natural structures show that after four hundred years of the development of science and technology their unification is no longer merely a philosophical project. (Böhme et al. 1978, 244)
Die Synthese von Wissenschaft und Technologie erhält durch Computermodellierung ein zusätzliches erhebliches Momentum. An dieser Stelle kann auf die in Kapitel 5 erörterte Konvergenz von Natur- und Ingenieurswissenschaften verwiesen werden, die durch Computermodellierung befeuert wird. Ich möchte auf einen Gesichtspunkt aufmerksam machen, der in der Charakterisierung der Simulationsmodellierung wesentlich war. Die vorliegende
8.2 Wiederbelebung und Umkehrung
189
Abhandlung war auf die Aktivität der Modellierung fokussiert, auf den Konstruktionsprozess der Modelle und nicht nur auf das fertige Resultat. Die Tätigkeit der mathematischen Modellierung findet nicht nur auf dem und durch den Computer statt, sondern ist in erheblichem Ausmaß durch ihn als Instrument geprägt. Das macht die Simulationsmodellierung zu einer besonderen Art mathematischer Modellierung. Das Augenfällige ist die Verschmelzung von Mathematik, Instrument und Technologie. Für mathematische Modellierung im Sinne der Simulationsmodellierung sind eben die praktischen Leistungen der Visualisierung oder das abtastende Experimentieren mit Parameterschemata ebenso wichtig wie formale Ableitungen oder die deduktive Herleitung einer optimalen Parametereinstellung. So ergibt sich in Bezug auf den explorativen Modus und die Nähe zur Technologie eine starke Kontinuität zwischen den Vorstellungen, die in der Pionierzeit der modernen (Natur)Wissenschaften zirkulierten und der Simulationsmodellierung. Das steht hinter der ersten Hälfte meiner These: Simulation stellt eine Wiederbelebung des Leonardo-Bacon-Galilei-Programms dar, auch wenn dieses wie gesagt nie als einheitliches Programm vorlag. Diese Wiederbelebung jedoch geschieht, und das ist die zweite Hälfte der These, unter einer Umkehrung wichtiger philosophischer Annahmen. Während das mathematisch Konstruierte traditionell für das Verfügbare stand, wird dies nun fundamental in Zweifel gezogen. Und das ist wirklich fundamental, weil die Verfügbarkeit, die durch die Mathematisierung gewährleistet werden sollte, ja auf die Zugänglichkeit der essenziellen Strukturen der Natur baute. Der Zweifel entsteht daraus, dass die mathematischen Modelle – als Simulationsmodelle – selbst zu komplex und damit opak werden. Damit tritt eine Pointe hervor: das Transparenzversprechen der mathematisierenden Wissenschaften muss stark eingeschränkt werden, nicht weil sich die Gegenstände oder deren Beziehungen einer mathematischen Modellierung entziehen würden, sondern weil die mathematischen Modelle selbst nicht transparent sind. Vico hat in seinem berühmten „verum et factum convertuntur“ die Transparenz und die Konstruktionsmächtigkeit in eines gesetzt. Er hat sich bekanntlich von den Wissenschaften ab- und der Geschichte zugewendet, gerade weil letztere menschengemacht ist und so ein echtes Wissen ermögliche. Mit der Computermodellierung jedoch, so scheint es mir, wird der Konstruktivismus, oder eigentlich ja: der epistemologische Optimismus, der am Idealbild mathematischer Konstruktion geschult ist und der die moderne Wissenschaft so nachhaltig geprägt hat, grundlegend in Zweifel gezogen. Die in der wissenschaftlichen Praxis angewandten mathematischen Modelle eignen sich nicht mehr, diesen Optimismus zu stützen, wie das in der Analyse der Simulationsmodellierung deutlich geworden ist.
190
8 Epistemologie und Simulation – Fazit und Ausblick
Analytische Methoden haben traditionell den Kernbereich mathematischer Modellierung in den Naturwissenschaften ausgemacht. Aufbauend auf Newtons epochemachenden Erfolgen ist deren Vorherrschaft vielleicht am besten im einflussreichen Laplace-Programm zu ersehen, das an der Wende zum 19. Jahrhundert die analytischen Methoden gemeinsam mit einer mechanistischen Weltsicht als universelles Paradigma für die Wissenschaft propagierte (Fox 1996, Bellone 1980). Die Formierung oder Postulierung einer reinen, grundlagenorientierten Wissenschaft im 19. Jahrhundert schloss daran an. Daher geht die festgestellte Wiederbelebung der älteren Sichtweise – Orientierung an Kontrolle, Vorhersage, Intervention – durch die Simulation einher mit einer gewissen Distanz oder Differenz zu der Entwicklung mathematischer Modellierung im 19. und 20. Jahrhundert. Simulation greift die Programmatik des 16. und 17. Jahrhunderts jedoch unter sehr veränderten philosophischen Ausgangsbedingungen auf. Die Artifizialität mathematischer Modellierung, die McMullin (1985) sehr treffend als Galilei‘sche Art der Idealisierung bezeichnet (und gegen die nicht-artifizielle aristotelische Art abgrenzt), war als geeignetes Mittel angesehen worden, die essenzielle Struktur der Phänomene zu beschreiben. Nach Galileis berühmtem Verdikt ist das Buch der Natur in mathematischen Zeichen geschrieben (zumindest soweit wir Menschen es entschlüsseln können). Dieser Standpunkt über das Wesen mathematischer Modellierung wird durch die Simulationsmodellierung radikal umgekehrt. Denn nun stehen die Artifizialität und der gesamte explorative Modus im Dienste der Performanz anstatt der Essenz: Phänomene werden simuliert selbst wenn die Struktur der Modelle nicht derjenigen der Phänomene entspricht. Oder anders gesagt: Mathematische Modellierung – als Simulationsmodellierung – kann Handhabe zu kontrollierter Intervention bieten, selbst wenn das Buch nicht in der uns verständlichen Sprache der Mathematik geschrieben ist. Im Grunde ist es die Buchmetapher selbst, die damit in Frage steht. Die humanistische Sichtweise auf Theorie als Text scheint an ihre Grenzen zu stoßen – und damit werden die Ansprüche an Verständlichkeit und schrittweises Entziffern problematisch. Oder, so kann man das Bild wenden: In der Simulation hat man zwar ein mathematisch-symbolisch verfasstes Modell vor sich, aber eben kein Buch, das zeilenweise zu entziffern wäre.
Literatur Ahrweiler, Petra und Nigel Gilbert (Hg.), Simulations in Science and Technology Studies, Berlin: Springer, 1998. Akera, Atsushi, Calculating a Natural World: Scientists, Engineers, and Computers During the Rise of U.S. Cold War Research, Cambridge, MA: MIT Press, 2006. APE, website des Aqua-Planet Experiment Project, URL=, besucht am 4. 2. 2008. Appel, Kenneth und Wolfgang Haken, The Solution of the Four Color Map Problem, in: Scientific American, 137(8), 1977, 108 – 121. Appel, Kenneth, Wolfgang Haken und John Koch, Every Planar Map is Four Colorable, in: Illinois Journal of Mathematics, 21(84), 1977, 429 – 567. Arakawa, Akio, Computational Design for Long-Term Numerical Integration of the Equations of Fluid Motion: Two-Dimensional Incompressible Flow. Part I, in: Journal of Computational Physics. 1, 1966, 119 – 143. Arakawa, Akio, A Personal Perspective on the Early Years of General Circulation Modeling at UCLA, in: David A. Randall (Hg.), General Circulation Model Development, San Diego: Academic Press, 2000, 1 – 66. Ashby, William R., An Introduction to Cybernetics, London: Chapman & Hall, 21957. Aspray, William F., John von Neumann and the Origins of Modern Computing, Cambridge, MA: MIT Press, 1990. Axelrod, Robert M., Advancing the Art of Simulation, in: Conte, Rosaria, Rainer Hegselmann und Pietro Terno (Hg.), Simulating Social Phenomena. Berlin: Springer, 1997, 21 – 40. Bailer-Jones, Daniela, When Scientific Models Represent, in: International Studies in the Philosophy of Science, 17(1), 2003, 59 – 74. Baird, Davis, Alfred Nordmann und Joachim Schummer (Hg.), Discovering the Nanoscale, Amsterdam: IOS Press, 2004. Baker, Alan, Experimental Mathematics, in: Erkenntnis 68(3), 2008, 331 – 344. Barberousse, Anouk, Sara Franceschelli und Cyrille Imbert, Cellular automata, Modeling, and Computation, in: Synthese, 169(3), 2007, 557 – 574. Baudrillard, Jean, Simulacra and Simulations, in: Poster, Mark (Hg.), Selected Writings, Stanford: Stanford University Press, 1998, 166 – 184. Bedau, Mark (Hg.), Emergence: Contemporary readings in philosophy and science, Cambridge, MA: MIT Press, 2008. Bedau, Mark, Downward Causation and the Autonomy of Weak Emergence, in: Principia Revista Internacional de Epistemologica 6, 2008, 5 – 50. Bedau, Mark, Can Unrealistic Computer Models illuminate Theoretical Biology?, in: A.S. Wu (Hg.), Proceedings of the 1999 Genetic and Evolutionary Computation Conference Workshop Program, San Francisco: Kaufmann, 1999, 20 – 23. Bedau, Mark, Weak Emergence, in: J. Tomberlin (Hg.), Philosophical Perspectives: Mind, Causation, and World, vol. 11, Malden, MA: Blackwell, 1997, 375 – 399. Bellone, Enrico, The World on Paper. Studies on the Second Scientific Revolution. Cambridge, MA: MIT Press, 1980. Bensaude-Vincent, Bernadette, The Construction of a Discipline: Materials Science in the United States, in: Historical Studies in the Physical and Biological Sciences, 31(2), 2001, 223 – 248.
192
Literatur
Bjerknes, Vilhelm, Das Problem der Wettervorhersage, betrachtet vom Standpunkte der Mechanik und der Physik, in: Meteorologische Zeitschrift 21, 1904, 1 – 7. Blue Brain, website des Blue Brain Projekts, besucht am 3. 3. 2009, http://bluebrain.epfl.ch/. Blumenberg, Hans, Das Fernrohr und die Ohnmacht der Wahrheit, in: Galileo Galilei: Sidereus Nuncius. Nachricht von neuen Sternen, hrsg. und eingeleitet von H. Blumenberg, Frankfurt: Suhrkamp, 1965, Wiederabdruck 1980, 7 – 75. Böhme, Gernot, Wolfgang van den Daele und Wolfgang Krohn, The ‘Scientification’ of Technology, in: Wolfgang Krohn, Edwin T. Layton, jr. und Peter Weingart (Hg.), The Dynamics of Science and Technology, Dordrecht und Boston: Reidel, 1978, 219 – 250. Boden, Margaret (Hg.), The Philosophy of Artificial Life. Oxford: Oxford University Press, 1996. Bony, Sandrine, Robert Colman, Vladimir M. Kattsov, Richard P. Allen, Christopher S. Bretherton, Jean-Louis Dufresne, Alex Hall, Stephane Hallegate, Marika M. Holland, William Ingram, David A. Randall, Brian J. Soden, George Tselioudis, Mark J. Webb: How Well Do We Understand and Evaluate Climate Chance Feedback Processes? (Review Article), in: Journal of Climate, 19, 2006, 3445 – 3482. Borwein, Jonathan M., David H. Bailey und Roland Girgensohn, Experimentation in Mathematics: Computational Paths to Discovery, Natick, MA: AK Peters, 2004. Borwein, Jonathan M. und David H. Bailey, Mathematics by Experiment: Plausible Reasoning for the 21st Century, Natick, MA: AK Peters, 2004. Braitenberg, Valentin und Inga Hosp (Hg.), Simulation. Computer zwischen Experiment und Theorie. Reinbek bei Hamburg: Rowohlt, 1995. Brandom, Robert B., Begründen und Begreifen, Frankfurt: Suhrkamp, 2001. Bredekamp, Horst, Bildwissenschaft. In: Metzler Lexikon Kunstwissenschaft. Stuttgart: Metzler, 2003. Brennan, R.D., Simulation is Wha-a-at? Part II, in: John McLeod (Hg.): Simulation. The Dynamic Modeling of Ideas and Systems with Computers, New York: McGraw-Hill Book Company, 1968, 5 – 12. Brooks, Rodney, Intelligence Without Reason, A. I. memo 1293, MIT, 1991. Brooks, Rodney, Flesh and Machines, New York: Pantheon Books, 2002. Burtt, Edwin A., The Metaphysical Foundations of Modern Physical Science : A Historical and Critical Essay. London : Routledge & Kegan Paul, 1964. Carrier, Martin, Wissenschaft im Dienst am Kunden. Zum Verhältnis von Verwertungsdruck und Erkenntniserfolg, in: Falkenburg, Brigitte (Hg.), Natur – Technik – Kultur: Philosophie im interdisziplinären Dialog, Paderborn: mentis, 2007, 15 – 55. Carrier, Martin und Michael Stöltzner, Modelle als Bausteine angewandter Wissenschaft, in: Weingart, Peter, Martin Carrier und Wolfgang Krohn: Nachrichten aus der Wissensgesellschaft, Weilerswist: Velbrück, 2007, 164 – 181. Cartwright, Nancy, How the Laws of Physics Lie. Oxford, New York: Clarendon Press, Oxford University Press, 1983. Cassirer, Ernst, Substanzbegriff und Funktionsbegriff: Untersuchungen über die Grundfragen der Erkenntniskritik, 3. unveränderte Auflage, Nachdruck der 1. Auflage, Berlin 1910 Darmstadt: Wissenschaftliche Buchgesellschaft, 1969. Cassirer, Ernst, Das Erkenntnisproblem in der Philosophie und Wissenschaft der neueren Zeit, Band 1, 31922, zweiter Band der Werkausgabe, Hamburg: Meiner 1999. Casti, John L., Would-Be Worlds: How Simulation is Changing the Frontiers of Science, New York: Wiley, 1997.
Literatur
193
Ceruzzi, Paul E., A History of Modern Computing. Cambridge, MA, und London, England: The MIT Press, 2003. Chaitin, Gregory J., The Limits of Mathematics. A Course on Information Theory and the Limits of Formal Reasoning. Berlin, New York: Springer, 1998. Chang, Hasok, Inventing Temperature: Measurement and Scientific Progress, New York: Oxford University Press, 2004. Chen, Min and Luciano Floridi: An Analysis of Information Visualisation, Synthese 2012, electronically published DOI 10.1007/s11229 – 012 – 0183-y. Clark, Andy, Natural-Born Cyborgs. Minds, Technologies, and the Future of Human Intelligence, Oxford, New York: Oxford University Press, 2003. Clark, Andy, The Kludge in the Machine, in: Mind and Language 2(4), 1987, 277 – 300. Clark, Andy und Josefa Toribio, Doing Without Representing?, in: Synthese 101(3), 1994, 401 – 431. Collins, Mat: Ensembles and Probabilities: A New Era in the Prediction of Climate Change (Theme Issue), in: Philosophical Transactions of The Royal Society A, 365, 2007, 1957 – 1970. Conte, Rosaria, Rainer Hegselmann und Pietro Terno (Hg.), Simulating Social Phenomena. Berlin: Springer, 1997. Crombie, Alistair C., Designed in the Mind: Western Visions of Science, Nature and Humankind, in: History of Science, 26, 1 – 12, 1988. Crombie, Alistair C., Styles of Scientific Thinking in the European Traditions, Vols I-III, London: Duckworth, 1994. Dahan, Amy, History and Epistemology of Models: Meteorology as a Case-Study (1946 – 63), Archive for History of Exact Sciences 55, 2001, 395 – 422. Daston, Lorraine und Peter Galison, Objectivity, New York: Zone Books, 2007. Davis, Martin, The Universal Computer: The Road from Leibniz To Turing, New York: Norton, 2000. Dear, Peter, The Intelligibility of Nature. How Science Makes Sense of the World, Chicago: The University of Chicago Press, 2006. DeMillo, Richard A., Richard J. Lipton und Alan J. Perlis, Social Processes and Proofs of Theorems and Programs, in: Proceedings of the 4th ACM Symposium on Principles of Programming Languages, 1977, 206 – 214. de Regt, Henk W. und Dennis Dieks, A Contextual Approach to Scientific Understanding, in: Synthese 144(1), 2005, 137 – 170. deSolla Price, Derek J., Notes Towards a Philosophy of the Science/ Technology Interaction, in: Laudan, Rachel (Hg.), The Nature of Technological Knowledge, Dordrecht: Reidel, 1984, 105 – 114. Detlefsen, Michael, Hilbert’s Program. An Essay on Mathematical Instrumentalism, Dordrecht: Reidel, 1986. Di Paolo, A. Ezequiel A., J. Noble und S. Bullock, Simulation Models as Opaque Thought Experiments, in: Bedau, Mark A., J.S. McCaskill, N.H. Packard und S. Rasmussen (Hg.), Artificial Life VII: Proceedings of the Seventh International Conference on Artificial Life, Cambridge, MA: MIT Press 2000, 497 – 506. Diaconis, Persi, The Markov Chain Monte Carlo Revolution, in: Bulletin of the American Mathematical Society, 2008. Diderot, Denis, Zur Interpretation der Natur (1754), Leipzig: Reclam, 1976.
194
Literatur
Dijksterhuis, Eduard Jan, Die Mechanisierung des Weltbildes, Berlin/Göttingen/Heidelberg: Springer, 1956. Dowling, Deborah, Experimenting on Theories, in: Science in Context 12(2), 1999, 261 – 273. Drake, Stillman und I. E. Drabkin: Mechanics in Sixteenth-Century Italy. Selections from Tartaglia, Benedetti, Guido Ubaldo, and Galileo, Madison, Milwaukee, und London: The University of Winsconsin Press, 1969. Dueck, Gunter, New Optimization Heuristics. The Great Deluge Algorithm and the Record-to-Record Travel, in: Journal of Computational Physics 104(1), 1993, 86 – 92. Dueck, Gunter, Das Sintflutprinzip. Berlin, Heidelberg: Springer, 2004. Dueck, Gunter, Tobias Scheuer und Hans-Martin Wallmeier, Toleranzschwelle und Sintflut: neue Ideen zur Optimierung, in: Spektrum der Wissenschaft. Digest 2/1999, 22 – 31. Duhem, Pierre, The Aim and Structure of Physical Theory (Translation by Phillip Wiener of La théorie physique son objet et sa structure, 2nd ed. Paris, Chevalier et Rivière, 1914) Princeton: Princeton University Press, 1954. Eady, Edward, Discussions, in: Quaterly Journal of the Royal Meteorological Society 82, 1956, 535 – 539. Edwards, Paul N., The Closed World: Computers and the Politics of Discourse in Cold War America, Cambridge, MA: The MIT Press, 1996. Edwards, Paul N., Representing the Global Atmosphere: Computer Models, Data, and Knowledge about Climate Change, in: Miller, Clark A. und Paul N. Edwards (Hg.), Changing the Atmosphere. Expert Knowledge and Environmental Governance, Cambridge, MA: The MIT Press, 2001, 31 – 65. Evstigneev, Mykhailo und Peter Reimann, Dynamic Force Spectroscopy: Optimized Data Analysis, in: Physical Review E, 68, 045103, 2003, 1 – 4. Elman, J., Learning and Development in Neural Networks: The Importance of Starting Small, in: Cognition 48, 1994, 71 – 99. Epstein, Joshua, Generative Social Science: Studies in Agent-Based Computational Modeling, Princeton and Oxford: Princeton University Press, 2006. Epstein, Joshua M. und Robert L. Axtell, Growing Artificial Societies. Social Science from the Bottom Up, Washington und Cambridge, MA: Brookings und MIT Press, 1996. Fetzer, James, Program Verification: The Very Idea, in: Communications of the ACM 31, 1988, 1048 – 1063. Feynman, Richard P., Sie belieben wohl zu scherzen, Mr. Feynman!: Abenteuer eines neugierigen Physikers. Gesammelt von Ralph Leighton, München: Piper, 1987. Feynman, Richard P., There Is Plenty of Room at the Bottom, in: Engineering and Science, Pasadena: California Institute of Technology, 1960. Feynman, Richard P.; Robert B. Leighton und Matthew Sands, The Feynman Lectures on Physics, Reading: Addison-Wesley, 1965. Foote, Brian und Joseph Yoder, Pattern Languages of Program Design 4 (= Software Patterns. 4), Reading: Addison Wesley, 1999. Fox, Robert, Laplacian Physics, in: Robert C. Olby et al. (Hg.), Companion To the History of Modern Science, London und New York: Routledge, 1996, 278 – 294. Frenkel, D., Simulations: The dark side, in: The European Physical Journal Plus, 128 (10), 2013, DOI 10.1140/epjp/i2013 – 13010 – 3. Frigg, Roman und Julian Reiss, The Philosophy of Simulation. Hot New Issues or Same Old Stew?, in: Synthese, 169(3), 593 – 613, 2009.
Literatur
195
Frigg, Roman und Stephan Hartmann, Models in Science, in: Edward N. Zalta (Hg.), The Stanford Encyclopedia of Philosophy, URL = , 2008. Funkenstein, Amos, Theology and the Scientific Imagination from the Middle Ages to the Seventeenth Century, Princeton, NJ: Princeton University Press 1986. Galison, Peter, The Ontology of the Enemy: Norbert Wiener and the Cybernetic Vision, in: Critical Inquiry 21, 1994, 228 – 266. Galison, Peter, Computer Simulations and the Trading Zone, in: Galison, Peter und David J. Stump (Hg.), The Disunity of Science: Boundaries, Contexts, and Power, Stanford: Stanford University Press, 1996, 118 – 157. Galison, Peter, Image and Logic: A Material Culture of Microphysics, Chicago und London: Chicago University Press, 1997. Galois, Évariste, Sur La Méthode, in: Bourgne, Robert und J.-P. Azra (Hg.), Écrits et Mémoires Mathématiques d’Évariste Galois, Paris: Gauthier-Villars, 1962, 2 – 11. Gardner, Martin, Mathematical Games. The Fantastic Combinations of John Conway’s New Solitaire Game ”Life”, in: Scientific American 223, 1970, 120 – 123. Gates, W. Lawrence, AMIP: The Atmospheric Model Intercomparison Project, in: Bulletin of the American Meteorological Society, 73, 1992, 1962 – 1970, zitiert nach PCMDI Report No. 7, URL=, besucht 16. 1. 2008. Gates, W. Lawrence u. a., An Overview of the Results of the Atmospheric Model Intercomparison Project (AMIP I), in: Bulletin of the American Meteorological Society, 80, 1999, 29 – 55. Gibbons, Michael, C. Limoges, H. Nowotny, S. Schwartzman, P. Scott und M. Trow, The New Production of Knowledge. The Dynamics of Science and Research in Contemporary Sciences, London: Sage, 1994. Giere, Ron, Explaining Science. A Cognitive Approach, Chicago: University of Chicago Press, 1988. Gooding, David, Trevor Pinch und Simon Schaffer (Hg.), The Uses of Experiment, Cambridge: Cambridge University Press, 1989. Gunderson, Keith, Mentality and Machines, Minneapolis: University of Minnesota Press, 2 1985, zitiert als 1985a. Gunderson, Keith (1985): Philosophy and Computer Simulation, in: ders., Mentality and Machines, Minneapolis: University of Minnesota Press, 21985, 91 – 135, zitiert als 1985b. Gutin, Gegory and Abraham P. Punnen (Hg.), The Traveling Salesman Problem and Its Variations, Dordrecht: Kluwer, 2002. Gramelsberger, Gabriele, Computerexperimente. Zum Wandel der Wissenschaft im Zeitalter des Computers, Bielefeld: Transkript, 2010. Gramelsberger, Gabriele (Hg.), From Science to Computational Sciences, Zürich: diaphanes, 2011. Gramelsberger, Gabriele und Johann Feichter (Hg.): Climate Change and Policy. The Calculability of Climate Change and the Challenge of Uncertainty, Heidelberg: Springer 2011. Grier, David A., When Computers Were Human, Princeton: Princeton University Press, 2005. Grothe, Hermann, Leonardo da Vinci als Ingenieur und Philosoph, Berlin: Nicolaische Verlags-Buchhandlung, 1874, Wiederabdruck 1974.
196
Literatur
Hacking, Ian, ‘Style’ for Historians and Philosophers, in: Studies in the History and Philosophy of Science, 23(1), 1 – 20, 1992. Hacking, Ian, Representing and Intervening: Introductory Topics in the Philosophy of Natural Science, Cambridge: Cambridge University Press, 1983. Haraway, Donna J., Situated Knowledges: The Science Question in Feminism and the Privilege of Partial Perspective, in: dies., Simians, Cyborgs, and Women: The Reinvention of Nature, New York: Routledge, 1991, 183 – 201. Hartmann, Stephan, The World as a Process. Simulations in the Natural and Social Sciences, in: Rainer Hegselmann (Hg.), Modelling and Simulation in the Social Sciences from the Philosophy of Science Point of View, Dordrecht: Kluwer, 1996, 77 – 100. Hasslacher, Brosl, Discrete Fluids, in: Los Alamos Science, Special Issue, 1987, 175 – 217. Hegerl, Gabriele C., Klaus Hasselmann, et al., Multi-Fingerprint Detection and Attribution Analysis of Greenhouse Gas, Greenhouse Gas-Plus-Aerosol and Solar Forced Climate Change, in: Climate Dynamics 13, 1997, 613 – 634. Hegselmann, Rainer (Hg.), Modelling and Simulation in the Social Sciences from the Philosophy of Science Point of View, Dordrecht: Kluwer, 1996. Helbing, Dirk, Quantitative Sociodynamics. Stochastic Methods and Models of Social Interaction Processes, Dordrecht: Kluwer, 1995. Heidelberger, Michael und Friedrich Steinle (Hg.), Experimental Essays, Baden-Baden: Nomos Verlagsgesellschaft, 1998. Heidelberger, Michael (2006): Applying Models in Fluid Dynamics, International Studies in Philosophy of Science 20(1), 49 – 67. Heims, Steve J., John von Neumann and Norbert Wiener: From Mathematics to the Technologies of Life and Death, Cambridge, MA, und London, England: The MIT Press, 1980. Heims, Steve J., Constructing a Social Science for Postwar America: The Cybernetics Group, 1946 – 1953, Cambridge, MA: The MIT Press, 1991. Heintz, Bettina und Jörg Huber (Hg.), Mit dem Auge denken. Strategien der Sichtbarmachung in wissenschaftlichen und virtuellen Welten, Wien und New York: Springer, 2001. Held, Isaac M., The Gap between Simulation and Understanding in Climate Modeling, in: Bulletin of the American Meteorological Society, 86, 2005, 1609 – 1614. Heymann, Matthias und Helge Kragh (eds.), Modelling and Simulation in the Atmospheric and Climate Sciences, special issue, Studies in History and Philosophy of Science Part B: Studies in History and Philosophy of Modern Physics, Volume 41(3), 193 – 292, 2010. Hofmann, Joseph E., Leibniz in Paris 1672 – 1676. His Growth to Mathematical Maturity, Cambridge: Cambridge University Press, 1974. Holland, Olaf A., Schnittebenenverfahren für Travelling-Salesman- und verwandte Probleme, Bonn: University Dissertation, 1987. Houghton, John T., Y. Ding, D.J. Griggs, M. Noguer, P. J. van der Linden und D. Xiaosu (Hg.), Contribution of Working Group I to the Third Assessment Report of the Intergovernmental Panel on Climate Change (IPCC), Cambridge: Cambridge University Press, 2001. Hubig, Christoph, Virtualisierung der Technik – Virtualisierung der Lebenswelt? Neue Herausforderungen für eine Technikethik als Ermöglichungsethik. Vortrag auf dem XXI. Deutschen Kongress für Philosophie, Essen, 2008. Hughes, R. I. G., Models and Representation, in: Philosophy of Science, 64 (Proceedings), 1997, S325-S336.
Literatur
197
Hughes, R. I. G., The Ising Model, Computer Simulation, and Universal Physics, in: Morgan, Mary und Margaret Morrison (Hg.), Models as Mediators, Cambridge: Cambridge University Press, 1999, 97 – 145. Humphreys, Paul W., Computer Simulations, in Fine, Arthur, F. Forbes und L. Wessels (Hg.), PSA 1990, vol. 2, East Lansing: Philosophy of Science Association, 1991, 497 – 506. Humphreys, Paul W., Numerical Experimentation, in: Paul Humphreys (Hg.), Patrick Suppes: Scientific Philosopher, vol. 2, Dordrecht: Kluwer, 1994, 103 – 121. Humphreys, Paul W., Analytic versus Synthetic Understanding, in: Fetzer, James H. (Hg.), Science, Explanation, and Rationality: Aspects of the Philosophy of Carl C. Hempel, New York: Oxford University Press, 2000, 267 – 286. Humphreys, Paul W., Extending Ourselves. Computational science, Empiricism, and Scientific Method, New York: Oxford University Press, 2004. Humphreys, Paul W., Computational Science and Its Effects. ZiF Mitteilungen 2/2008, 19 – 28, zitiert als 2008a. Humphreys, Paul, Computational and Conceptual Emergence, in: Philosophy of Science 75, 2008, 584 – 594, zitiert als 2008b. Humphreys, Paul, The Philosophical Novelty of Computer Simulation Methods, Synthese, 169 (3):615 – 626 (2009). Humphreys, Paul, Computational Science, in: Oxford Bibliographies, http://www.oxfordbibliog raphies.com/view/document/obo-9780195396577/obo-9780195396577 – 0100.xml, 2012, accessed 26. 9. 2012. Ihde, Don, Has the Philosophy of Technology Arrived?, in: Philosophy of Science, 71, 2004, 117 – 131. Jahnke, Hans Niels und Michael Otte: Origins of the Program of „Arithmetization of Mathematics”, in: Mehrtens, Herbert, Henk Bos und Ivo Schneider (Hg.), Social History of Nineteenth Century Mathematics, Boston, Basel, Stuttgart: Birkhäuser, 1981, 21 – 49. Jaspers, Karl, Lionardo als Philosoph, Bern: Franke Verlag, 1953. Johnson, Ann, From Boeing to Berkeley: Civil Engineers, the Cold War and the origins of Finite Element Analysis, in: Wise, M. Norton (Hg.), Growing Explanations: Historical Perspectives on Recent Science, Durham, NC: Duke University Press, 2004, 133 – 158. Johnson, Ann, Infrastructure for Simulations: The Case of Computational Nanotechnology, in: Science Studies 19(1), 2006, 34 – 51, zitiert als 2006a. Johnson, Ann, The Shape of Molecules to Come: Algorithms, Models, and Visions of the Nanoscale, in: J. Lenhard, Johannes, G. Küppers und T. Shinn (Hg.), Simulation: Pragmatic Constructions of Reality, New York, Berlin: Springer, 2006, 25 – 39, zitiert als 2006b. Johnson, Ann, Modeling Molecules: Computational Nanotechnology as a Knowledge Community, in: Perspectives on Science, 17(2), 2009, 144 – 173. Johnson, Ann und Johannes Lenhard, Towards a Culture of Prediction: Computational Modeling in the Era of Desktop Computing, in: Nordmann, Alfred, H. Radder und G. Schiemann (Hg.), Science and Its Recent History: Epochal Break or Business as Usual?, Pittsburgh: Pittsburgh University Press, 2011, 189 – 199. Jones, Caroline A. und Peter Galison (Hg.), Picturing Science, Producing Art. New York: Routledge, 1998. Kac, Mark and Stanislaw Ulam, Mathematics and Logic, New York: Praeger, 1968. Kauer, Gerhard und Helmut Blöcker, Applying Signal Theory to the Analysis of Biomolecules, in: Bioinformatics 19, 2003, 2016 – 2021.
198
Literatur
Keller, Evelyn, Models, Simulation, and ‘Computer Experiments’ , in: Radder, Hans (Hg.), The Philosophy of Scientific Experimentation, Pittsburgh: University of Pittsburgh Press, 2003. Kiehl, Jeffrey T., Twentieth Century Climate Model Response and Climate Sensitivity, in: Geophysical Research Letters, 34, L22710, doi: 10.1029/2007GL031383, 2007. Kitcher, Philip und Wesley Salmon (Hg.), Scientific Explanation, Minneapolis: University of Minneapolis Press, 1989. Knobloch, Tobias, Quasi-Experimente. Vom Erkenntniswert von Gedankenexperiment und Computersimulation, Manuskript, Dissertation Bielefeld, 2009. Knuuttila, Tarja, M. Merz und E. Mattila, Computer Models and Simulations in Scientific Practice, in: Science Studies, 19(1), 2006. Koyré, Alexandre, Metaphysics and Measurement, Essays in the Scientific Revolution, London: Chapman and Hill, 1968. Krohn, Wolfgang, Realexperimente – Die Modernisierung der ‚offenen Gesellschaft‘ durch experimentelle Forschung, in: Erwägen – Wissen – Ethik, 4, 2007, 343 – 356. Krohn, Wolfgang, Aesthetics of Technology as Forms of Life, Vortrag Konferenz ‚Technisierung/Ästhetisierung – Technological and Aesthetic (Trans)Formations of Society‘, Darmstadt, 2005. Krohn, Wolfgang, Francis Bacon, München: C.H. Beck, 22006. Krohs, Ulrich, How Digital Computer Simulations Explain Real-World Processes, in: International Studies in the Philosophy of Science 22(3), 2008, 277 – 292. Küppers, Günter, J. Lenhard und T. Shinn, Computer Simulation: Practice, Epistemology, and Social Dynamics, in: Lenhard, Johannes, G. Küppers and T. Shinn (Hg.), Simulation: Pragmatic Construction of Reality, Dordrecht: Springer, 2006, 3 – 22. Küppers, Günter und Johannes Lenhard, Simulation and a Revolution in Modelling Style: From Hierarchical to Network-like Integration, in: Lenhard, Johannes, G. Küppers and T. Shinn (Hg.), Simulation: Pragmatic Construction of Reality, Dordrecht: Springer, 2006, 89 – 106. Küppers, Günter und Johannes Lenhard, Validation of Simulation: Patterns in the Natural and Social Sciences, in: Journal for Artificial Societies and Social Simulation 8(4), 2005, zitiert als 2005a. Küppers, Günter und Johannes Lenhard, Computersimulationen: Modellierungen zweiter Ordnung, in: Journal for General Philosophy of Science 36(2), 2005, 305 – 329, zitiert als 2005b. Ladyman, James, What is structural realism?, in: Studies in History and Philosophy of Science 29, 1998, 409 – 424. Landman, Uzi, Lubricating Nanoscale Machines: Unusual Behavior of Highly Confined Fluids Challenges Conventional Expectations, in: Georgia Tech Research News, 2001, URL=. Landman, Uzi, Studies of Nanoscale Friction and Lubrication, in: Georgia Tech Research News, October 22, 2005, URL=, besucht am 23. 11. 2005. Landman, Uzi, W. D Luedtke, N. A. Burnham und R. J. Colton, Atomistic Mechanisms and Dynamics of Adhesion, Nanoindentation, and Fracture, in: Science, 248, 1990, 454 – 461. Langton, Christopher G., Artificial Life, in: Boden, Margaret A. (Hg.), The Philosophy of Artifical Life, Oxford: Oxford University Press, 1996. Latour, Bruno, We have Never Been Modern, Cambridge, MA: Harvard University Press, 1993.
Literatur
199
Lehtinen, Ari and Jaakko Kuorikoski, Computing the Perfect Model: Why Do Economists Shun Simulation?, in: Philosophy of Science 74, 2007, 304 – 329. Lenhard, Johannes 2014, Autonomy and Automation. Computational Modeling, Reduction, and Explanation in Quantum Chemistry, in: The Monist, vol. 97, no. 3, pp. 339 – 358. Lenhard, Johannes, Artificial, False, and Performing Well, in: Gramelsberger, Gabriele (Hg.), From Science to Computational Sciences. Studies in the History of Computing and its Influence on Today’s Sciences, Zürich: diaphanes, 2011, 165 – 176. Lenhard, Johannes, Computation and Simulation, in: Frodeman, Robert, Julie Thompson Klein und Carl Mitcham (Hg.), The Oxford Handbook of Interdisciplinarity, Oxford: Oxford University Press, 2010, 246 – 258. Lenhard, Johannes, The Great Deluge: Simulation Modeling and Scientific Understanding, in: de Regt, Henk W., S. Leonelli und K. Eigner: Scientific Understanding. Philosophical Perspectives, Pittsburgh: University of Pittsburgh Press, 2009, 169 – 186. Lenhard, Johannes, Computer Simulation: The Cooperation Between Experimenting and Modeling, Philosophy of Science, 74, 2007, 176 – 194. Lenhard, Johannes, Surprised by a Nanowire: Simulation, Control, and Understanding, in: Philosophy of Science, 73(5), 2006, 605 – 616. Lenhard, Johannes, Nanoscience and the Janus-faced Character of Simulations, in: Baird, Davis, A. Nordmann und J. Schummer, Discovering the Nanoscale, Amsterdam: IOS Press, 2004, 93 – 100. Lenhard, Johannes und Eric Winsberg, Holism, Entrenchment, and the Future of Climate Model Pluralism, in: Studies in History and Philosophy of Modern Physics, 41, 2010, 253 – 262. Lenhard, Johannes, Holger Lücking und Holger Schwechheimer, Expert Knowledge, Mode-2 and Scientific Disciplines: Two Contrasting Views, in: Science and Public Policy, 33(5), 2006, 341 – 350. Lenhard, Johannes, Günter Küppers und Terry Shinn (Hg.), Simulation: Pragmatic Construction of Reality. Sociology of the Sciences Yearbook 25. Dordrecht: Springer, 2006. Lenhard, Johannes und Michael Otte, Two Types of Mathematization, in: Bart Van Kerkhove, Jonas De Vuyst, und Jean Paul van Bendegem (Hg.): Philosophical Perspectives on Mathematical Practice, London: College Publications, 2010, 301 – 330. Lenhard, Johannes und Michael Otte, Grenzen der Mathematisierung – Von der grundlegenden Bedeutung der Anwendung, Philosophia naturalis, 42/1, 2005, 15 – 47. Leonardo da Vinci, Philosophische Tagebücher, hrsg. von G. Zamboni, Hamburg: Rowohlt Verlag, 1958. Levins, Richard, Complex Systems, in: C. H. Waddington (Hg.), Towards a Theoretical Biology, vol. 3, Chicago: Aldine Publishing Company, 1970, 73 – 88. Lewis, John M., Clarifying the Dynamics of the General Circulation: Phillips’s 1956 Experiment, in: Bulletin of the American Meteorological Society 79(1), 1998, 39 – 60. Lichtenberg, Georg Christoph, Philosophical Writings, translated, edited, and with an introduction by Stephen Tester, State University of New York Press, 2012. Lorenz, Edward, The Essence of Chaos, Seattle: University of Washington Press, 1993. Lorenz, Edward, The Nature of the Theory of the General Circulation of the Atmosphere, Technical Paper 218, Geneva: World Meteorological Organization, 1967, 115 – 161. Lynch, Michael and Steve Woolgar, Representation in Scientific Practice, Cambridge, MA: MIT Press, 1988.
200
Literatur
MacKenzie, Donald, Mechanizing Proof: Computing, Risk, and Trust, Cambridge, MA: MIT Press, 2001. Mahoney, Michael S., The Structures of Computation and the Mathematical Structure of Nature, in: The Rutherford Journal, 3, 2010. Mahoney, Michael S., Computer Science: The Search for a Mathematical Theory, in: Krige, John und Dominique Pestre (Hg.), Companion to Science in the Twentieth Century, London: Routledge, 1997, 617 – 634. Mahoney, Michael S., Computers and Mathematics: The Search for a Discipline of Computer Science, in: Echeverria, J., A. Ibarra and T. Mormann (Hg.), The Space of Mathematics, Berlin, New York: de Gruyter, 1992, 347 – 361. Mainzer, Klaus, Computer – neue Flügel des Geistes? Die Evolution computergestützter Technik, Wissenschaft, Kultur und Philosophie, Berlin: de Gruyter, 1995. Mainzer, Klaus, Computerphilosophie. Zur Einführung, Hamburg: Junius Verlag, 2003. Martz, Eric und Eric Francoeur, The History of Visualization of Biological Macromolecules, URL= , besucht am 6. 1. 2010. Masani, Pesi, Norbert Wiener 1894 – 1964. Basel, Boston, Berlin: Birkhäuser, 1990. McCulloch, Warren und Walter Pitts, A logical calculus of the ideas immanent in nervous activity, in: Bulletin of Mathematical Biophysics, 5, 1943, 115 – 133. McLeod, John, Simulation, The Dynamic Modeling of Ideas and Systems with Computers, New York: McGraw-Hill, 1968. McMullin, Ernan, Galilean Idealization, in: Studies in the History and Philosophy of Science 16, 1985, 247 – 73. Merz, Martina, Locating the Dry Lab on the Lab Map, in: Lenhard, Johannes, Günter Küppers, and Terry Shinn (Hg.), Simulation: Pragmatic Construction of Reality. Sociology of the Sciences Yearbook 25. Dordrecht: Springer, 2006, 155 – 172. Merz, Martina, Multiplex and Unfolding: Computer Simulation in Particle Physics, in: Science in Context 12(2), 1999, 282 – 295. Metropolis, Nicolas, Jack Howlett, and Gian-Carlo Rota, A History of Computing in the Twentieth Century, New York: Academic Press, 1980. Metropolis, Nicolas, A.W. Rosenbluth, M.N. Rosenbluth, A.H. Teller und E. Teller, Equations of State Calculations by Fast Computing Machines, in: Journal of Chemical Physics 21(6), 1953, 1087 – 1092. Metropolis, Nicolas und Stanislaw Ulam, The Monte Carlo Method, in: Journal of the American Statistical Association 44, 1949, 335 – 341. Mindell, David A., Between Human and Machine: Feedback, Control, and Computing Before Cybernetics, Baltimore und London: The Johns Hopkins University Press, 2002. Minsky, Marvin, Why Programming is a Good Medium for Expressing Poorly Understood and Sloppily Formulated Ideas, in: Krampen, Martin und Peter Seitz (Hg.), Design and Planning II, New York: Hastings House Publishers, 1967, 117 – 121. Mitchell, Sandra, Komplexitäten: warum wir erst anfangen, die Welt zu verstehen, Frankfurt am Main: Suhrkamp, 2008. Mittelstraß, Jürgen: Leonardo-Welt. Über Wissenschaft, Forschung und Verantwortung. Frankfurt: Suhrkamp, 1992. Mody, Cyrus, Corporations, Universities, and Instrumental Communities: Commercializing Probe Microscopy, 1981 – 1996, in: Technology and Culture, 47, 2006, 57 – 80. Morgan, Mary S., Experiments versus Models: New Phenomena, Inference and Surprise, in: Journal of Economic Methodology 12(2), 2005, 317 – 329.
Literatur
201
Morgan, Mary S., Experiments Without Material Intervention. Model Experiments, Virtual Experiments, and Virtually Experiments, in: Hans Radder (Hg.), The Philosophy of Scientific Experimentation, Pittsburgh: University of Pittsburgh Press, 2003, 216 – 235. Morgan, Mary S. und Margaret Morrison (Hg.), Models As Mediators. Perspectives on Natural and Social Science, Cambridge: Cambridge University Press, 1999. Morrison, Margaret: Models, Measurement, and Computer Simulation: The Changing Face of Experimentation, in: Philosophical Studies, 143, 2009, 33 – 57. Morrison, Margaret, Models as Autonomous Agents, in: Morgan, Mary und Margaret Morrison (Hg.), Models as Mediators, Cambridge: Cambridge University Press, 1999, 38 – 65. Murphy, Paul, What Differentiates Linux From Windows?, in: ECTnews, 3. 11. 2004, URL = , besucht am 16. 1. 2008. PCMDI, website of PCMDI, URL = < http://www-pcmdi.llnl.gov/about/index.php>, besucht am 16. 1. 2008. Pérez-Ramos, Antonio, Bacon’s Forms and the Maker’s Knowledge Tradition, in: Peltonen, Markku (Hg.), The Cambridge Companion to Bacon, Cambridge: Cambridge University Press, 1996, 99 – 120. Peterson, Ivars, Fatal Defect. Chasing Killer Computer Bugs, New York: Vintage Books, 1995. Petroski, Henry, To Engineer is Human. The Role of Failure in Successful Design, New York: Vintage Books, 1992. Peitgen, Heinz-Otto und Michael F. Barnsley (Hg.), The science of Fractal Images, New York, Berlin: Springer, 1988. Peitgen, Heinz-Otto und P.H. Richter, The Beauty of Fractals: Images of Complex Dynamical Systems, New York, Berlin: Springer, 1986. Pfeifer, Rolf und Christian Scheier, Understanding Intelligence, Cambridge, MA und London, England: The MIT Press, 1999.
202
Literatur
Pfeffer, Richard L. (Hg.), Dynamics of Climate. The Proceedings of a Conference on the Application of Numerical Integration Techniques to the Problem of the General Circulation held October 26 – 28, 1955. Oxford: Pergamon Press, 1960. Phillips, Norman, The General Circulation of the Atmosphere: a Numerical Experiment, in: Quaterly Journal of the Royal Meteorological Society 82(352), 1956, 123 – 164. Phillips, Norman, An Example of Non-Linear Computational Instability, in: Bert Bolin (Hg.), The Atmosphere and the Sea in Motion, New York: Rockefeller Institute Press, 1959. Phillips, Norman, Foreword, in: Randall, David A., General Circulation Model Development, San Diego: Academic Press, 2000, xxvii-xxix. Richardson, Lewis F., Weather Prediction by Numerical Process, Cambridge University Press: London, 1922. Radder, Hans (Hg.), The Philosophy of Scientific Experimentation, Pittsburgh: University of Pittsburgh Press, 2003. Radder, Hans, Science, Technology, and the Science-Technology Relationship, in: Meijers, Anthonie (Hg.), Handbook Philosophy of Technology and Engineering Sciences, Amsterdam: Elsevier, 2009. Raible, Martin, Evstigneev, M., F.W. Bartels, R. Eckel, M. Nguyen-Duong, R. Merkel, R. Ros, D. Anselmetti und P. Reimann, Theoretical Analysis of Single-Molecule Force Spectroscopy Experiments: Heterogeneity of Chemical Bonds, in: Biophysical Journal 90, 2006, 3851 – 3864. Raible, Martin, Evstigneev, M., P. Reimann, F.W. Bartels und R. Ros, Theoretical Analysis of Dynamic Force Spectroscopy on Ligand-Receptor Complexes, in: Journal of Biotechnology 112, 2004, 13 – 23. Ramsey, Jeffry L., Calibrating and Constructing Models of Protein Folding, in: Synthese, 155, 2007, 307 – 320. Ramsey, Jeffry L., Straining to Explain Strain and Synthesis, in: Foundations of Chemistry 6, 2004, 81 – 91. Ramsey, Jeffry L., Between the Fundamental and the Phenomonogical: The Challenge of the Semi-Empirical Methods, in: Philosophy of Science 64, 1997, 627 – 653. Randall, John Hermann Jr., The Place of Leonardo da Vinci in the Emergence of Modern Science, in: (ders.) The School of Padua and the Emergence of Modern Science, Padova: Editrice Antenore, 1961, 115 – 138. Reifenrath, Roderich, Die Geschichte der Simulation. Überlegungen zur Genese des Bildes am Computerbildschirm, Dissertation, Berlin, 1999. Rheinberger, Hans-Jörg, Experimentalsysteme und epistemische Dinge, Frankfurt: Suhrkamp, 2006. Rohrlich, Fritz, Computer Simulation in the Physical Sciences, in: Fine, Arthur, F. Forbes und L. Wessels (Hg.), PSA 1990, vol. 2, East Lansing: Philosophy of Science Association, 1991, 507 – 518. Romine, Glen, Opal project, 2002, URL = , besucht am 13. 2. 2008. Romine, Glen und Richard Wilhelmson, Parameterization Impacts on a Simulation of Hurricane Opal (1995), in: 11th PSU/NCAR Mesoscale Model User’s Workshop, Preprint, Boulder, CO, 2001, 86 – 89. Rosen, Robert, Effective Processes and Natural Law, in: Rolf Herken (Hg.), The Universal Turing Machine: A Half-Century Survey. Hamburg: Kammerer & Unverzagt, 1988, 523 – 537.
Literatur
203
Rosenblueth, Arthur und N. Wiener, The Role of Models in Science, in: Philosophy of Science 12, 1945, 316 – 322. Scerri, Eric, Just How Ab Initio is Ab Initio Quantum chemistry? in: Foundations of Chemistry, 6, 2004, 93 – 116. Schweber, Sylvan and Matthias Waechter (2000), Complex Systems, Modelling and Simulation, in: Studies in the History and Philosophy of Modern Physics, 31(4), 2004, 583 – 609. Shackley, Simon, J. Risbey, P. Stone und B. Wynne, Adjusting to Policy Expectations in Climate Change Modeling. An Interdisciplinary Study in Flux Adjustments in Coupled Atmosphere-Ocean General Circulation Models, in: Climatic Change, 43, 1999, 413 – 454. Seeger, Raymond J., On the Physical Insights of Leonardo da Vinci, in: Seeger, Raymond J. und Robert S. Cohen (Hg.), Philosophical Foundations of Science, Dordrecht and Boston: Reidel Publishing Company, 1974, 41 – 53. Shinn, Terry, A Fresh Look at Instrumentation: An Introduction, in: Joerges, B. und T. Shinn (Hg.), Instrumentation between Science, State and Industry, Dordrecht: Kluwer Academic Publishers, 2001, 1 – 13. Shinn, Terry, When is simulation a Research Technology? Practices, Markets, and Lingua Franca, in: Lenhard, J., G. Küppers und T. Shinn (Hg.), Simulation: Pragmatic Construction of Reality, Dordrecht: Springer, 2006, 187 – 203. Seiden, Peter E. und L. S. Schulman, Percolation Model of Galactic Structure, in: Advances in Physics 39(1), 1990, 1 – 54. Simon, Herbert A., The Sciences of the Artificial, Cambridge, MA: The MIT Press, 1969. Sismondo, Sergio and S. Gissis (Hg.), Practices of Modeling and Simulation, in: Science in Context 12, special issue, 1999. Smith, Leonard A., What Might We learn From Climate Forecasts?, in: Proceeedings of the National Academy of Sciences USA, 4(99), 2002, 2487 – 2492. Sonar, Thomas, Turbulenzen um die Fluidmechanik, in: Spektrum der Wissenschaft, April 2009, 78 – 87. Steels, Luc und R. Brooks (Hg.), The Artificial Life Route to Artificial Intelligence : Building Embodied, Situated Agents, Hillsdale, NY: Lawrence Erlbaum, 1995. Steinle, Friedrich, Explorative Experimente. Ampère, Faraday und die Ursprünge der Elektrodynamik, Stuttgart: Steiner, 2005. Steinle, Friedrich, Discovering? Justifying? Experiments in History and Philosophy of Science, in: Steinle, Friedrich und Jutta Schickore, Revisiting Discovery and Justification, Preprint 211 of the Max-Planck-Institut für Wissenschaftsgeschichte, Berlin, 2002, 175 – 184. Stöckler, Manfred, On Modeling and Simulations as Instruments for the Study of Complex Systems, in: Carrier, Martin, Gerald J. Massey und Laura Ruetsche (Hg.), Science at Century’s End, Pittsburgh: University of Pittsburgh Press, 2000, 355 – 373. Strevens, Michael, How Are the Sciences of Complex Systems Possible?, in: Philosophy of Science, 72, 2005, 531 – 556. Suarez, Mauricio, An Inferential Conception of Scientific Representation, in: Philosophy of Science, 71, 2004, 767 – 779. Sundberg, Mikaela, Parameterizations as Boundary Objects on the Climate Arena, in: Social Studies of Science, 37(3), 2007, 473 – 488. Suppe, Frederick, The Semantic View of Theories and Scientific Realism, Urbana und Chicago: University of Illinois Press, 1989.
204
Literatur
Suppes, Patrick, A Comparison of the Meaning and Use of Models in the Mathematical and Empirical Sciences, in: Freudenthal, H. (Hg.), The Concept and Role of the Model in Mathematics and Natural and Social Sciences, Dordrecht: Reidel, 1961, 163 – 177. Sutter, Alex, Göttliche Maschinen. Die Automaten für Lebendiges, Frankfurt am Main: Athenäum Verlag, 1988. Turing, Alan M., On Computable Numbers. With an Application to the Entscheidungsproblem, in: Proceedings of the London Mathematical Society, 42, 1936, 230 – 265. Turing, Alan M., Proposed electronic calculator, report for National Physical Laboratory, Teddington, 1946; wiederveröffentlicht in: B. E. Carpenter und R. W. Doran (Hg.), A. M. Turing’s ACE report of 1946 and other papers, Cambridge, MA: MIT Press, 1986. Turing, Alan M., Computing Machinery and Intelligence, in: Mind LIX (236), 1950, 433 – 460. Turkle, Sherry, Simulation and Its Discontents, Cambridge, MA und Londen, England: MIT Press, 2009. Tymoczko, Thomas, The Four-Color Problem and Its Philosophical Significance, in: The Journal of Philosophy, 76(2), 1979, 57 – 83. Ulam, Stanislaw, Random Processes and Transformations, in: Proceedings of the International Congress of Mathematicians 1950, Providence: American Mathematical Society, 1952. Ulam, Stanislaw, Science, Computers, and People. From the Tree of Mathematics. Boston, Basel, Stuttgart: Birkhäuser, 1986. Urbach, Peter, Francis Bacon’s Philosophy of Science. An account and a reappraisal, La Salle, Illinois: Open Court, 1987. Valéry, Paul, Leonardo: Drei Essays. Frankfurt: Insel Verlag, 1960. van Kerkhove, Bart und Jean-Paul van Bendegem, Pi on Earth, or Mathematics in the Real World, in: Erkenntnis 68(3), 2008, 421 – 435. Vincenti, Walter G., What Engineers Know and How They Know It, Baltimore: Johns Hopkins Press, 1990. von Neumann, John, 1945, First Draft of a Report on the EDVAC, University of Pennsylvania; reprinted in: Stern, N., From Eniac to Univac: an Appraisal of the Eckert-Mauchly Machines, Bedford, MA: Digital Press (1981). von Neumann, John, The General and Logical Theory of Automata, in: Jeffress, L.A. (Hg.), Cerebral Mechanisms in Behavior – The Hixon Symposium, New York: John Wiley & Sons, 1951, 1 – 31. von Neumann, John und Robert D. Richtmyer, Statistical Methods in Neutron Diffusion, in: Ulam, Stanislaw, A. R. Bednarek und Francoise Ulam, Analogies Between Analogies. The Mathematical Reports of S. M. Ulam and his Los Alamos Collaborators, Berkeley and Los Angeles: University of California Press, 1947. Wallace, William A., Traditional Natural Philosophy, in: Schmitt, Charles B., Quentin Skinner, Eckard Kessler und Jill Kraye, The Cambridge History of Renaissance Philosophy, New York und Cambridge: Cambridge University Press, 1991. Weart, Spencer, Margaret Jacob und Harold J. Cook, The Discovery of Global Warming, Harvard, MA: Harvard University Press, 2003. Weart, Spencer, Arakawa’s Computation Device, American Institute of Physics, URL = , besucht 13. 2. 2003. Weingart, Peter, Martin Carrier und Wolfgang Krohn, Nachrichten aus der Wissensgesellschaft, Weilerswist: Velbrück, 2007.
Literatur
205
Weizenbaum, Joseph, Die Macht der Computer und die Ohnmacht der Vernunft, Frankfurt: Suhrkamp, 1977. Werning, Markus, Neuronal Synchronization, Covariation, and Compositional Representation, in: Machery, Edouard, Markus Werning und Gerhard Schurz (Hg.), The Compositionality of Meaning and Content, Vol. II: Applications to Linguistics, Psychology, and Neuroscience, Heusenstamm: Ontos Verlag, 2005, 283 – 312. Wiener, Norbert, I Am a Mathematician, Cambridge, MA und London, England: The MIT Press, 1956. Wiener, Norbert, Nonlinear Prediction and Dynamics, in: Proceedings of the Third Berkeley Symposium on Mathematical Statistics and Probability, 1954/5, 247 – 252. Wiener, Norbert, Cybernetics or Communication and Control and the Animal and the Machine, Cambridge, MA: MIT Press, 1948. Wiener, Norbert, Some Moral and Technical Consequences of Automation, in: Science, 131, 1960, 1355. Wiener, Norbert und A. Rosenblueth, The mathematical formulation of the problem of conduction of impulses in a network of connected excitable elements, specifically in cardiac muscle, in: Arch. Inst. cardiol. México, 16, 1945, 205. Wiener, Norbert, A. Rosenblueth, et al., Behavior, Purpose, and Teleology, in: Philosophy of Science, 10, 1945, 18 – 24. Wiin-Nielsen, Aksel, The Birth of Numerical Weather Prediction, in: Tellus 43, 1991, 36 – 52. Wilholt, Torsten, Design Rules: Industrial Research and Epistemic Merit, in: Philosophy of Science, 73 (1), 2006, 66 – 89. Winograd, Terry und F. Flores, Understanding Computers and Cognition, Reading, MA: Addison-Wesley, 51991. Winsberg, Eric, Sanctioning Models: The Epistemology of Simulation, in: Science in Context 12(2), 1999, 275 – 292. Winsberg, Eric, Simulated Experiments: Methodology for a Virtual World, in: Philosophy of Science, 70, 2003, 105 – 125. Winsberg, Eric, Handshaking Your Way to the Top: Inconsistency and Falsification in Intertheoretic Reduction, in: Philosophy of Science 73, 2006, 582 – 594. Winsberg, Eric, Models of Success versus the Success of Models: Reliability Without Truth, in: Synthese 152, 2006, 1 – 19. Winsberg, Eric, Science in the Age of Computer Simulation, Chicago: University of Chicago Press, 2010. Wise, Norton, Growing Explanations. Historical Perspectives on Recent Science, Durham and London: Duke University Press, 2004. Wise, Norton, Science Is Technology? Comment on Paul Forman, given at SHOT Meeting, 20. Oktober 2007. Wise, Norton, Changing Values in Recent Science: The Role of Technology, Vortrag an der Universität Bielefeld, 9. 7. 2008. Wolfram, Stephen, A New Kind of Science, Champaign: Wolfram Media, 2002. Worrall, John, Structural realism: The best of both worlds?, in: Dialectica 43, 1989, 99 – 124. Zeigler, Bernard P., Theory of Modelling and Simulation, Malabar: Krieger, 1976.
Namenindex Ahrweiler, Petra 51 Akera, Atsushi 21, 128, 177 Appel, Kenneth 102, 146 f. Arakawa, Akio 22 f., 29–31, 36, 68, 136, 159 Ashby, William 46, 131 Aspray, William 21, 51, 132 Axelrod, Robert 5 Axtell, Robert 51, 78 f. Bacon, Francis 12, 111, 177, 183–185, 189 Bailer-Jones, Daniela 38 Bailey, David 17 Baird, Davis 41 Baker, Alan 17 Barberousse, Anouk 69 Baudrillard, Jean 181 Bedau, Mark 170 Bellone, Enrico 190 Bensaude-Vincent, Bernadette 89, 119 Bjerknes, Vilhelm 19–21, 24 Blöcker, Helmut 139 Blumenberg, Hans 45, 103 Boden, Margaret 78 Böhme, Gernot 188 Bony, Sandrine 168 Borwein, Jonathan 17 Braitenberg, Valentin 5, 103 Brandom, Robert 105 Bredekamp, Horst 41 Brennan, R. D. 115 Brooks, Rodney 81, 144 Burtt, Edwin 1 Bush, Vannever 46 Carrier, Martin 117, 119, 121, 128, 137, 141 Cartwright, Nancy 4, 36, 67, 119 Cassirer, Ernst 62, 184 Casti, John 4 Ceruzzi, Paul 128 Chaitin, Gregory 84 Chang, Hasok 162, 164 f. Charney, Jule 22, 27, 31, 135, 158 Chen, Min 40 Clark, Andy 106, 160
Clark, Andy 66, 106, 160 f. Collins, Mat 164 Conte, Rosaria 51 Crombie, Alistair 10 Dahan, Amy 22 Daston, Lorraine 58 Davis, Martin 177 de Regt, Henk 107 f. Dear, Peter 108 f. DeMillo, Richard 148 deSolla Price, Derek 121 Detlefsen, Michael 98 f., 102 Di Paolo, Ezequiel 102 Diaconis, Persi 118, 153 Diderot, Denis 97 Dijksterhuis, Eduard 1, 184 Dowling, Deborah 5, 15, 46, 125 Drabkin, I. E. 184, 186 Drake, Stillman 184, 186 Dueck, Gunter 85, 87–89 Duhem, Pierre 156 f., 186 Eady, Edward 24 Edwards, Paul 128, 159 Elman, Jeff 66 Epstein, Joshua 51, 78 f. Evstigneev, Mykhailo 155 Feichter, Johann 6, 36, 168 Fetzer, James 148 Feynman, Richard 82, 92, 99 Floridi, Luciano 40 Foote, Brian 162 Fox, Robert 5, 15, 69, 190 Francoeur, Eric 42 Frenkel, Daan 91 Frigg, Roman 103, 115, 145 Funkenstein, Amos 185 Galilei, Galileo 1, 12, 45, 103, 111, 177, 183 f., 186 f., 189 f. Galison, Peter 5, 17, 41, 58, 116, 129 f., 132, 178
Namenindex
Galois, Évariste 97 f., 103 Gardner, Martin 69 Gates, Lawrence 166 f. Gibbons, Michael 114 Giere, Ron 36, 41 Gilbert, Nigel 51 Gissis, Snait 5 Gooding, David 16 Gramelsberger, Gabriele 5 f., 15, 36, 42, 168 Grier, David 20 Gunderson, Keith 57, 110, 143 f. Gutin, Gegory 85 Hacking, Ian 10, 15 f., 36 Haken, Wolfgang 84, 102, 146 f. Haraway, Donna 121 Hartmann, Stephan 34, 40 f., 103, 125 Hasslacher, Brosl 72 f. Hegerl, Gabriele 138 Hegselmann, Rainer 51 Heidelberger, Michael 16, 19 Heims, Steve 128 f., 135 Heintz, Bettina 41, 58 Helbing, Dirk 154 Held, Isaac 168 Hertz, Heinrich 19, 36 Heymann, Matthias 6 Hobbes, Thomas 105 Hofmann, Joseph 96 Holland, Olaf 88 Hosp, Inga 5 Houghton, John 76 Huber, Jörg 41, 58 Hubig, Christoph 104 Hughes, R. I. G. 15, 18, 77, 153 Humphreys, Paul 4–6, 10, 15, 24, 40, 46, 58 f., 75, 96, 100 f., 106, 115 f., 118, 170 Ihde, Don
41, 122
Jahnke, Hans Niels 98 Jaspers, Karl 186 Johnson, Ann 41, 45, 67, 90 f., 119, 177 Jones, Caroline 41 Kac, Mark 17 Kant, Immanuel
105, 183, 187
207
Kauer, Gerhard 139 Keller, Evelyn Fox 5, 15, 52, 69, 116, 137 Kiehl, Jeffrey 168 Kitcher, Philip 107 Knobloch, Tobias 51, 78 Knuuttila, Tarja 5 Kolmogorov, Andrei 8, 84 Koyré, Alexandre 1 Kragh, Helge 6 Krohn, Wolfgang 176, 184, 188 Krohs, Ulrich 36 Kuorikoski, Jaakko 6 Küppers, Günter 25, 68, 151, 155, 159 Ladyman, James 62 Lakatos, Imre 176 Landman, Uzi 89–96, 120, 155 Langton, Christopher 81 Latour, Bruno 121 Lehtinen, Ari 6 Lenhard, Johannes 5, 25, 68, 84, 99, 108, 115, 121, 151, 155, 159, 168, 177 Leonardo da Vinci 185 Levins, Richard 162 Lewis, John 20–22 Lichtenberg, Georg 1 Lorenz, Edward 8, 22, 42 f., 45, 48 Lynch, Michael 41 MacKenzie, Donald 148 Mahoney, Michael 15, 35, 81, 102 Mainzer, Klaus 4 Martz, Eric 42 Masani, Pesi 132, 134 Maxwell, James Clerk 36, 73, 109 McCulloch, Warren 63 f., 132 f. McLeod, John 3, 115 McMullin, Ernan 190 Merz, Martina 40, 108 Metropolis, Nicolas 2, 17 Mindell, David 46, 130 Minsky, Marvin 104 f., 160 Mitchell, Sandra 114 Mittelstraß, Jürgen 186–188 Mody, Cyrus 149 Morgan, Mary 4, 15, 36, 67
208
Namenindex
Morrison, Margaret 116, 122, 183 Murphy, Paul 162
4 f., 15, 18, 36, 67, 108,
Neelamkavil, Francis 18 Newton, Isaac 1, 60 f., 97, 109, 190 Nordmann, Alfred 121, 178–181 O’Malley, Charles 186 Otte, Michael 84, 98 f. Parker, Wendy 36 Peitgen, Heinz-Otto 44 Pérez-Ramos, Antonio 191 Peterson, Ivars 155 Petroski, Henry 155 Pfeffer, Richard 28 Pfeifer, Rolf 81, 144 Phillips, Norman 22–28, 31, 39, 48, 158 Pitts, Walter 2, 63 f., 132 f. Punnen, Abraham 85 Radder, Hans 16, 121 Raible, Martin 149 Ramsey, Jeffry 42, 120 Randall, John 186 Reifenrath, Roderich 38 Reimann, Peter 150 Reiss, Julian 115, 145 Rheinberger, Hans-Jörg 42, 117 Richardson, Lewis 20–22, 24 Rohrlich, Fritz 4 f., 15, 39, 52, 69 f., 91, 115 Romine, Glen 53–55 Rosen, Robert 80, 145 Rosenblueth, Arthur 2, 131 Salmon, Wesley 107 Scerri, Eric 91, 120 Scheier, Christian 81, 144 Schulman, Lawrence 47–50, 70 f. Schweber, Sylvan 5 Seeger, Raymond 185 Seiden, Peter 47–50, 70 f. Shackley, Simon 159 Shinn, Terry 102, 155 Simon, Herbert 5, 158, 161 Sismondo, Sergio 5
Smith, Leonard 168 Sonar, Thomas 182 Steels, Luc 144 Steinle, Friedrich 16, 35 Stöckler, Manfred 18, 115, 145 Stöltzner, Michael 119, 141 Strevens, Michael 157 Suarez, Mauricio 38 Sundberg, Mikaela 54 Suppes, Patrick 36 Sutter, Alex 81, 108 Toribio, Josefa 66 Turing, Alan 64, 80, 84, 132 f., 142–144, 177 Turkle, Sherry 179, 181 Tymoczko, Thomas 103, 147 Ulam, Stanislaw 2, 16 f., 51, 69, 77, 130 Urbach, Peter 184 Valéry, Paul 188 van Bendegem, Jean-Paul 17 van den Daele, Wolfgang 188 van Kerkhove, Bart 17 Vico, Giambattista 105, 189 Vincenti, Walter 120 von Neumann, John 2, 11, 21 f., 28, 51, 77, 127 f., 130, 132–137, 139 f., 158, 177 Waechter, Matthias 5 Wallace, William 184 Weart, Spencer 21, 31, 42 Weingart, Peter 114 Weizenbaum, Joseph 104 Werning, Markus 66 Wiener, Norbert 2, 11, 46, 104, 127–140, 160 Wiin-Nielsen, Aksel 23 Wilhelmson, Richard 55 Wilholt, Torsten 117, 120 Winograd, Terry 162 Winsberg, Eric 4 f., 15, 24 f., 35, 67 f., 155, 168, 171 Wise, Norton 79, 106, 121, 152 Wolfram, Stephen 51 f., 69, 178 Woolgar, Steve 41
Namenindex
Worrall, John Yoder, Joseph
62 162
Zeigler, Bernard
3, 18
209
Sachindex Agentenmodell 6 analytisch 17, 19 f., 39, 43, 46 f., 52, 55, 67, 76, 82 f., 95 f., 99, 105 f., 108, 116, 125, 127, 146–148, 152 f., 156, 159, 166, 168 f., 190 Approximation 16, 27, 29 f., 33 f., 82, 115, 136, 151, 185 Architektur 3, 48, 51, 63–66, 130, 140, 154, 158, 177 Artifizialität 8, 15, 34, 185, 190 artifizielle Elemente 9, 56, 74, 81, 91, 101, 112 f., 115, 117 Autonomie 29, 34, 36, 116, 122, 183 Blackbox 33, 56, 131 f., 139 f., 180 bottom-up 73, 152 brute force 2, 84 Chaos 27, 42 computational template
75
Daten 4, 10, 19, 23, 33, 35 f., 39 f., 53 f., 56, 71, 104, 112, 117, 120, 129, 149, 154, 163, 167, 175, 182 Differentialgleichung 19 f., 22, 25, 29, 32, 42 f., 52, 125, 135 Differenzengleichung 20, 25, 29, 32, 125, 135, 170 diskret 8, 15, 20–22, 24–29, 32–37, 49–52, 67–69, 73 f., 100, 112, 122, 126, 135, 137 f., 153, 159 Diskretisierung 9, 20, 22, 67 f., 151, 153, 155 Emergenz 170 f. Epistemologie 58, 104, 145, 175 f., 183, 187 f. epistemologisch 3 f., 6 f., 41, 62, 101, 114, 120, 132, 181, 183, 189 Erklärung 75, 79, 106–109, 112, 119, 141, 152 Experiment 5, 8, 15–17, 21–28, 30–35, 38 f., 48 f., 52, 54 f., 74, 77, 83, 90 f., 102, 112, 149, 151, 155, 157, 167, 186 Exploration 26, 44, 56, 60, 105, 113, 184
explorativ 6, 10 f., 25, 27, 34 f., 38, 44, 46, 52, 54, 56 f., 59–61, 68, 71 f., 74, 77, 81, 91, 101, 111–114, 117 f., 120, 137, 141, 145, 148 f., 156, 171, 175–177, 180–183, 186, 189 f. Fehler 26, 28, 31, 149, 158, 166 finite Differenzen 5, 34 f., 52, 63, 66, 71, 114, 127 Formalisierung 2 Funktionalismus 131, 143 f. generativer Mechanismus Holismus
25, 35, 69
156 f., 168–170
Imitation 29 f., 40, 57, 80, 82, 110, 125, 127, 131, 133, 136 f., 141 f. Ingenieurswissenschaften 10, 12, 111, 118 f., 125, 128, 130, 175, 188 Instrumentalistisch 39, 56, 75, 112, 133, 136, 138, 144 instrumentell 5, 9 f., 16, 27, 30 f., 34–37, 39, 44 f., 52, 56, 59, 61, 68, 79, 97–101, 103 f., 109, 127, 129, 133, 138, 141, 144 f., 149, 155 f., 159 Integration 20, 24, 28, 31, 158 Intelligibilität 10, 105 f., 108 f., 134 Intervention 10, 15, 83, 96, 100, 105–107, 109, 120, 129, 190 Iteration 20, 28, 50, 55, 83, 105, 108, 112 f., 153, 182 iterativ 6, 9–11, 15, 38, 59, 68, 72, 101, 111–113, 120, 137, 141, 148, 150, 159, 169, 171, 175–177, 181 f. KI 57, 142–144 Klimamodell 6, 35, 76, 156, 162 f., 168, 170 f. kludge 160–162 Kombination 2, 10, 127, 133, 136–138, 141, 144, 187 kombinatorisch 10, 85 kommerziell 41, 51, 65, 94
Sachindex
komplex 5, 8 f., 11, 19–21, 26, 29, 33, 35 f., 40, 42–45, 48, 57, 69, 72, 82, 84, 92, 97 f., 101–103, 106, 113 f., 119, 127, 132 f., 138 f., 142, 146, 148–150, 152, 156–158, 161 f., 166–169, 171, 188 f. Komplexität 5, 7 f., 11, 24, 40, 44, 84 f., 89, 92, 94 f., 98, 102, 113 f., 132, 139, 141 f., 148, 152, 157 f., 167, 179–181 Komplexitätsbarriere 82, 94–96, 105, 107 f., 119, 182 Komplexitätsreduktion 8, 132, 139 kontinuierlich 9, 15, 20–22, 26–29, 49, 67 f., 73, 112, 122, 126, 137 f. Kontrolle 7, 38, 83, 94, 100, 107, 120, 131 f., 169, 190 künstliche Intelligenz 57, 80 f., 110, 142 Kybernetik 46, 129, 131, 133 f., 137 Markov-Ketten 2, 17, 77 Mathematisierung 1 f., 7, 10, 12, 35, 81, 97 f., 102, 109, 114, 118, 176, 185 f., 189 Modularität 101, 158–162, 167, 170 Monte-Carlo 2, 5, 7, 16 f., 40, 77, 113, 117 f., 153, 178 Muster 23, 26, 32, 39, 44, 49, 57, 63–65, 69 f., 78–80, 113, 129, 134 f., 138, 152 Nanoforschung 89, 92, 95 neuronales Netzwerk 2, 25, 63–66, 74, 114, 133, 140 numerische Lösung 11, 21, 27, 31–34, 125– 127, 136 Opazität 9, 25, 82 f., 96, 99–107, 113 f., 180 open box 134 Parametrisierung 9, 35, 54–56, 71, 139, 159 Plastizität 9, 26, 47, 49, 51, 59–61, 65–70, 73–76, 79–81, 83, 91, 101, 112, 114, 133, 140, 154 f., 169, 175, 178 Plattform 53, 65 f., 68 f., 74, 167 Rechenkapazität 3, 44, 141 Regularitäten 1, 150 Repräsentation 27, 38, 58, 140, 179 Rezept 1, 119 Rückwärtslogik 61, 138, 141
211
Schema 48, 54, 56, 61, 64–66, 74, 112, 175, 180 Schießpulver 1, 115 Segregation 51, 77 f., 140, 151 f. Sintflut 84–87, 89, 94 f. Software 65, 101, 148, 160, 162 Spezifizierung 47, 59–61, 63 f., 66, 68 f., 71 f., 74 f., 78, 80 f., 113 f., 132, 154, 182 Stabilität 8, 27, 29–31, 35, 136, 155, 159 Struktur 5, 7, 9, 12, 47, 50, 59–63, 65–68, 70, 74 f., 80 f., 94 f., 113, 131, 140, 186 f., 189 f. Syntax 5, 19, 24, 51 f., 69, 114 Technik 2, 7, 25, 28, 45, 92, 101 f., 128, 155, 183 f., 187 Technologie 3, 12, 40, 45 f., 94, 100, 104, 114, 118–122, 128–130, 171, 176 f., 183– 185, 188 f. Technoscience 121, 178 f. top-down 73 Transparenz 10, 83, 96, 98 f., 104 f., 113 f., 134, 152, 179, 189 Turingmaschine 133, 177 Unterdeterminiertheit Urteilskraft 38, 58
9, 63, 72, 133
Validierung 11, 26, 79, 120, 145–156, 162– 164, 169–171, 175 Verifikation 146–149 Verständnis 82 f., 92, 96, 99 f., 105–108, 120, 127, 131 f., 134, 141, 146 f., 156, 166–169, 171, 184 Verstehen 3, 32, 107–109, 131, 139, 143, 147, 183, 185 Visualisierung 3, 5, 9, 38–53, 55–59, 69, 71, 74, 77, 83, 91, 101, 105, 112, 114, 118, 149, 175, 177 f., 181, 189 Vorhersage 7, 10, 19 f., 53, 79, 92, 96 f., 100, 106 f., 119, 129, 135, 139, 156, 163– 166, 171, 175, 190 Wissenschaftsforschung
41, 128, 149
212
Sachindex
zelluläre Automaten 2, 5, 7, 19, 25, 47, 49– 52, 63, 69 f., 72, 74, 76 f., 114, 127, 130, 137, 170, 178
Zirkulationsmodell 163
27, 29, 48, 53, 76, 159,